Demander à une intelligence artificielle (IA) de faire un diagnostic médical est un usage qui se démocratise. En janvier 2026, la firme OpenAI annonçait que 40 millions de ses utilisateurs questionnaient quotidiennement son IA ChatGPT sur des sujets de santé, essentiellement pour vérifier ou explorer des symptômes. Si cette utilisation s'avère très pratique, une récente étude de l'université d'Oxford appelle toutefois à la prudence.
IA conversationnelle VS recherche web
Les chercheurs britanniques ont commencé par réunir 10 ensembles de symptômes vagues, mais aux causes connues et malgré tout clairement identifiées par la médecine. Ils ont ensuite demandé à 1 298 adultes divisés en 4 équipes de trouver le bon diagnostic pour chaque ensemble : 3 groupes devaient questionner l'IA (GPT-4o, Command R+, et Llama 3) tandis que le dernier se cantonnait à des recherches manuelles sur Internet. Le seul impératif était de ne pas dévier de leurs habitudes et de garder leur propre mode de pensée tant pour écrire les prompts que pour faire les recherches.
Premier constat : seuls 34,5 % des participants qui se sont aidés de l'IA ont pu trouver un ou plusieurs diagnostics corrects. Second constat : ce pourcentage est identique à celui obtenu par le groupe dont la tâche était d'effectuer de simples recherches sur les sites web et les forums. Autrement dit, l'étude britannique a montré que les grands modèles d'IA conversationnelle ne font pas mieux qu'une recherche classique sur Internet lorsqu'un patient tente d'identifier sa pathologie.
Entre biais humain et illusion d'autorité
Loin des chercheurs l'idée de remettre en cause les capacités de l'IA, ou encore de condamner son usage dans le domaine médical. D'ailleurs, lorsqu'ils ont, à leur tour, soumis les mêmes symptômes aux modèles, ces derniers ont identifié la bonne pathologie dans 95 % des cas.
La différence s'explique par ce que l'on pourrait appeler le "biais humain". Celui-ci, entre descriptions incomplètes, difficultés à hiérarchiser les symptômes, ou encore mauvaise interprétation des réponses fournies par l'IA, pousse les utilisateurs vers la mauvaise direction et les induit en erreur. Les chercheurs évoquent également « une illusion d'autorité », ou quand les réponses structurées de l'IA donnent un sentiment de justesse et de fiabilité alors qu'il n'en est rien.
Les scientifiques mettent ainsi en garde : un algorithme, privé de la possibilité d'effectuer un examen clinique et ignorant tout de vos antécédents, ne saurait remplacer un professionnel de santé. Une évidence quand on y pense.










