Quand l’IA se prend pour un médecin et se trompe
Les intelligences artificielles séduisent de plus en plus pour leurs conseils santé. Mais selon une étude Nature Medicine, ces outils ne sont pas capables de poser un diagnostic fiable.

Fièvre, maux de tête, douleur au ventre… Le premier réflexe est souvent le même : ouvrir son téléphone et taper ses symptômes sur Internet. Depuis l’arrivée des intelligences artificielles conversationnelles, un nouvel « assistant santé » s’est invité dans nos poches. Mais peut-on vraiment faire confiance à une machine pour savoir ce que l’on a ?
Une étude publiée lundi 9 février dans la revue Nature Medicine vient doucher les espoirs. Selon ses résultats, les IA ne sont pas plus fiables qu’une simple recherche Google pour poser un diagnostic.
Pour comprendre ce que valent réellement ces outils, des chercheurs ont mené une expérience auprès de 1 300 personnes au Royaume-Uni. Les volontaires n’étaient pas malades. Ils ont participé à un jeu de rôle : chacun recevait des descriptions de symptômes correspondant à des maladies connues et validées par le corps médical.
Face à eux, plusieurs modèles d’IA ont été testés, parmi lesquels ChatGPT, Llama (Meta) et Command R+. L’objectif : voir si ces outils pouvaient aider à identifier correctement les maladies. Le verdict est sans appel. Seul un tiers des participants a obtenu le bon diagnostic. Un score identique à celui d’un autre groupe, qui devait se contenter d’une recherche classique sur Internet.
« Un emballement autour des IA »
Ces résultats refroidissent les discours très optimistes autour de l’intelligence artificielle en santé. « Il y a un emballement autour des IA, mais elles ne sont tout simplement pas prêtes à remplacer un médecin », estime auprès de l’AFP, Rebecca Payne, chercheuse à l’Université d’Oxford et co-autrice de l’étude.
Pourquoi une telle différence avec les tests précédents, qui montraient des IA capables de réussir des examens médicaux ? Selon les chercheurs, tout change quand on sort des questionnaires à choix multiples pour entrer dans la vraie vie.
Dans la réalité, un patient n’explique pas toujours clairement ce qu’il ressent. Il oublie parfois des détails, mélange les symptômes ou les décrit mal. Or, l’IA dépend entièrement de ce qu’on lui donne à lire. Résultat : quand les informations sont floues, la machine l’est aussi. Et elle peut se tromper lourdement.
Des risques bien réels
Pour les spécialistes, le danger est clair : se fier à une IA peut retarder une vraie consultation médicale. « C’est une étude très importante qui souligne que les chatbots posent de vrais risques médicaux pour le grand public », juge David Shaw, spécialiste en bioéthique à l’université de Maastricht, cité par l’AFP.
Le débat est loin d’être clos. En France, la Haute Autorité de santé (HAS) doit bientôt se prononcer sur l’usage direct de l’IA par les patients. Elle a déjà estimé, fin 2025, que ces outils pouvaient être utiles… mais uniquement pour les soignants, et de manière raisonnée.
Les limites de l’étude
Les auteurs reconnaissent que leur étude repose sur des scénarios fictifs et que les modèles testés ont déjà été remplacés par des versions plus performantes. Mais le message reste le même : pour votre santé, mieux vaut un vrai médecin qu’un agent conversationnel. Car si l’IA peut impressionner, elle ne ressent rien, ne voit rien, et ne remplace pas un diagnostic humain.
– Reliability of LLMs as medical assistants for the general public: a randomized preregistered study. www.nature.com. Consulté le 13 février 2026.
Cet article vous a-t-il été utile ?
