soulager

Pour votre bien, méfiez-vous des diagnostics de ChatGPT

Parce qu'elle excelle aussi bien dans la collecte d'immenses quantités de données que dans leur analyse, nous sommes nombreux à nous servir de l'intelligence artificielle comme d'un conseiller omniscient, même quand il est question de notre santé. Une pratique loin d'être anodine.

2 minutes de lecture
Pour votre bien, méfiez-vous des diagnostics de ChatGPT

Demander à une intelligence artificielle (IA) de faire un diagnostic médical est un usage qui se démocratise. En janvier 2026, la firme OpenAI annonçait que 40 millions de ses utilisateurs questionnaient quotidiennement son IA ChatGPT sur des sujets de santé, essentiellement pour vérifier ou explorer des symptômes. Si cette utilisation s'avère très pratique, une récente étude de l'université d'Oxford appelle toutefois à la prudence.

IA conversationnelle VS recherche web

Les chercheurs britanniques ont commencé par réunir 10 ensembles de symptômes vagues, mais aux causes connues et malgré tout clairement identifiées par la médecine. Ils ont ensuite demandé à 1 298 adultes divisés en 4 équipes de trouver le bon diagnostic pour chaque ensemble : 3 groupes devaient questionner l'IA (GPT-4o, Command R+, et Llama 3) tandis que le dernier se cantonnait à des recherches manuelles sur Internet. Le seul impératif était de ne pas dévier de leurs habitudes et de garder leur propre mode de pensée tant pour écrire les prompts que pour faire les recherches.

Premier constat : seuls 34,5 % des participants qui se sont aidés de l'IA ont pu trouver un ou plusieurs diagnostics corrects. Second constat : ce pourcentage est identique à celui obtenu par le groupe dont la tâche était d'effectuer de simples recherches sur les sites web et les forums. Autrement dit, l'étude britannique a montré que les grands modèles d'IA conversationnelle ne font pas mieux qu'une recherche classique sur Internet lorsqu'un patient tente d'identifier sa pathologie.

Entre biais humain et illusion d'autorité

Loin des chercheurs l'idée de remettre en cause les capacités de l'IA, ou encore de condamner son usage dans le domaine médical. D'ailleurs, lorsqu'ils ont, à leur tour, soumis les mêmes symptômes aux modèles, ces derniers ont identifié la bonne pathologie dans 95 % des cas.

La différence s'explique par ce que l'on pourrait appeler le "biais humain". Celui-ci, entre descriptions incomplètes, difficultés à hiérarchiser les symptômes, ou encore mauvaise interprétation des réponses fournies par l'IA, pousse les utilisateurs vers la mauvaise direction et les induit en erreur. Les chercheurs évoquent également « une illusion d'autorité », ou quand les réponses structurées de l'IA donnent un sentiment de justesse et de fiabilité alors qu'il n'en est rien.

Les scientifiques mettent ainsi en garde : un algorithme, privé de la possibilité d'effectuer un examen clinique et ignorant tout de vos antécédents, ne saurait remplacer un professionnel de santé. Une évidence quand on y pense.

Par   ●   Publié le

Vous aimerez aussi

Dans la même rubrique

Dernières publications