Ia sante reponse correcte mal comprise featured

IA santé : le vrai piège commence quand une réponse correcte est mal comprise

Une étude alerte sur des réponses de chatbots médicales souvent problématiques, mais très convaincantes. Le danger tient autant à l’erreur qu’à l’usage qu’on en fait.

La réponse a l’air propre. Elle arrive vite, avec des phrases calmes, parfois même des références. C’est justement là que le piège commence.

Quand une IA santé se trompe bruyamment, on se méfie. Quand elle donne une réponse à moitié juste dans un ton très sûr, l’erreur devient beaucoup plus portable.

Le problème n’est pas seulement la mauvaise réponse

L’article de Medical Xpress relaie une étude qui a testé plusieurs chatbots sur des questions de santé sensibles, avec un constat simple : beaucoup de réponses problématiques sonnent pourtant crédibles.

Dans BMJ Open, les chercheurs expliquent avoir soumis cinq chatbots à des questions sur le cancer, les vaccins, les cellules souches, la nutrition et la performance sportive, puis fait évaluer les réponses.

Un téléphone éteint près d’une boîte de médicaments neutre et d’un carnet retourné.
Un téléphone éteint près d’une boîte neutre.

Une bonne formule peut masquer une mauvaise décision

Le communiqué du BMJ Group souligne que près de la moitié des réponses étaient jugées problématiques, en partie parce qu’elles étaient incomplètes, trompeuses ou mal référencées.

CIDRAP relève un autre détail très concret : les chatbots ont aussi été invités à fournir des références scientifiques, et la qualité de ces références s’est révélée faible.

Pour un usage domestique, c’est le point le plus dangereux. Une personne ne consulte pas un chatbot comme une étude ; elle cherche souvent une phrase qui rassure, trie ou décide quoi faire ensuite.

Une chaise vide dans une salle d’attente avec un téléphone éteint sur une table.
Une chaise vide dans une salle d’attente calme.

Le bon réflexe est plus simple que le grand discours

Le Washington Post a replacé ces résultats dans une inquiétude plus large : les chatbots peuvent aider à préparer des questions, mais ne doivent pas devenir un guichet médical autonome.

L’University of Oxford a aussi alerté sur les risques des chatbots utilisés pour des conseils médicaux, notamment lorsqu’ils sous-estiment la gravité d’une situation.

La règle utile tient en une scène : si la réponse d’une IA change ce que l’on ferait pour sa santé, elle mérite d’être relue avec un professionnel, pas seulement avec un autre prompt.

Article créé en collaboration avec l’IA.

Aurore santini
Aurore Santini

Rédactrice économie, conso, emploi, innovation sociale & marchés.
Je rends intelligibles les dynamiques économiques qui touchent le quotidien : prix, tendances, politiques publiques, entreprises.

« Mettre les chiffres en perspective humaine. »

Articles: 145