L'actu qui fait du bien

En santé, l’IA avance surtout là où elle peut aider à trier, vérifier, résumer ou organiser — sans promettre de miracle.
Pour le grand public, le bon réflexe est de distinguer les usages « côté pro » (hôpitaux, recherche, régulation) et les usages « côté patient » (rappels, compréhension, préparation d’une consultation), tout en gardant en tête les limites.
Dans l’imagerie, des outils aident les équipes à repérer plus vite des examens à relire en priorité, ou à standardiser certaines mesures. Les régulateurs eux-mêmes testent des outils d’aide à la recherche d’information scientifique, comme le présente l’EMA pour ses usages internes.

À l’échelle européenne, l’enjeu est de rendre ces systèmes plus sûrs et plus auditables, notamment quand ils touchent à des finalités médicales. La Commission européenne rappelle que certains usages relèvent du « haut risque » et imposent des exigences de contrôle et de surveillance humaine.
Côté IA générative, l’usage le plus réaliste est souvent un usage de support : reformuler un courrier, préparer une synthèse de points clés, ou proposer une liste de questions à poser. La HAS insiste sur une appropriation raisonnée, avec une attention particulière à la qualité des informations et au contexte.
Un chatbot n’est pas un médecin : il peut se tromper avec aplomb, inventer des détails plausibles ou généraliser à partir de cas atypiques. L’OMS rappelle que les modèles génératifs exigent des garde-fous, surtout quand les décisions peuvent avoir un impact clinique.

En cas d’urgence, de douleur intense, de symptômes soudains, l’IA ne doit pas être un filtre. Et pour le diagnostic ou le traitement, le cadre dépend aussi du statut de l’outil : logiciel « bien-être » ou dispositif médical. L’ANSM rappelle ce qui relève des dispositifs médicaux et des obligations associées.
Avant de saisir une information de santé, demandez-vous : est-ce nécessaire, et est-ce minimisé ? Les recommandations IA de la CNIL et les positions de l’EDPB rappellent l’importance du cadre RGPD et de la sécurité des données.
Pour les outils « à finalité médicale », regardez les signaux de conformité (information utilisateur, surveillance, gestion des risques) et la logique MDR/IVDR + AI Act. La note de la Commission sur l’articulation dispositifs médicaux et AI Act, via le document MDCG, montre pourquoi la documentation et la traçabilité comptent.
Enfin, si vous utilisez l’IA « pour vous organiser » (rappels, préparation de questions, compréhension de termes), gardez-la dans un rôle d’assistant et validez toujours avec un professionnel. Le guide de la HAS propose justement des repères pour un usage responsable, sans basculer vers l’auto-diagnostic.