
La réponse a l’air propre. Elle arrive vite, avec des phrases calmes, parfois même des références. C’est justement là que le piège commence.
Quand une IA santé se trompe bruyamment, on se méfie. Quand elle donne une réponse à moitié juste dans un ton très sûr, l’erreur devient beaucoup plus portable.
Le problème n’est pas seulement la mauvaise réponse
L’article de Medical Xpress relaie une étude qui a testé plusieurs chatbots sur des questions de santé sensibles, avec un constat simple : beaucoup de réponses problématiques sonnent pourtant crédibles.
Dans BMJ Open, les chercheurs expliquent avoir soumis cinq chatbots à des questions sur le cancer, les vaccins, les cellules souches, la nutrition et la performance sportive, puis fait évaluer les réponses.

Une bonne formule peut masquer une mauvaise décision
Le communiqué du BMJ Group souligne que près de la moitié des réponses étaient jugées problématiques, en partie parce qu’elles étaient incomplètes, trompeuses ou mal référencées.
CIDRAP relève un autre détail très concret : les chatbots ont aussi été invités à fournir des références scientifiques, et la qualité de ces références s’est révélée faible.
Pour un usage domestique, c’est le point le plus dangereux. Une personne ne consulte pas un chatbot comme une étude ; elle cherche souvent une phrase qui rassure, trie ou décide quoi faire ensuite.

Le bon réflexe est plus simple que le grand discours
Le Washington Post a replacé ces résultats dans une inquiétude plus large : les chatbots peuvent aider à préparer des questions, mais ne doivent pas devenir un guichet médical autonome.
L’University of Oxford a aussi alerté sur les risques des chatbots utilisés pour des conseils médicaux, notamment lorsqu’ils sous-estiment la gravité d’une situation.
La règle utile tient en une scène : si la réponse d’une IA change ce que l’on ferait pour sa santé, elle mérite d’être relue avec un professionnel, pas seulement avec un autre prompt.
Article créé en collaboration avec l’IA.





