Les chatbots d’IA populaires, bien qu’ils semblent faire autorité, fournissent souvent des conseils de santé dangereusement inexacts, y compris des recommandations bizarres comme l’insertion d’ail par voie rectale pour renforcer l’immunité. Des études récentes de The Lancet Digital Health et de Nature Medicine révèlent que ces outils ne sont pas plus fiables qu’une simple recherche sur Internet et peuvent même être pires pour l’utilisateur moyen.

Le problème de l'”expertise” de l’IA

Le problème principal n’est pas que les chatbots échouent comme les humains ; c’est qu’ils échouent sans hésitation. Un médecin humain, incertain d’un diagnostic, ferait une pause, demanderait des tests supplémentaires ou consulterait des collègues. Un chatbot IA fournit des informations incorrectes avec la même confiance inébranlable qu’un conseil correct. Ceci est particulièrement dangereux car les LLM (Large Language Models) sont formés pour imiter le ton des professionnels de la santé, ce qui donne l’impression que les fausses affirmations sont légitimes.

Par exemple, lorsque les chercheurs présentaient aux chatbots des informations médicales erronées dans un langage simple, les modèles étaient sceptiques dans moins de 10 % du temps. Cependant, lorsque la même fausse allégation a été reformulée dans un langage clinique formel – comme une note de sortie recommandant « du lait froid pour les saignements œsophagiens » ou « l’insertion rectale d’ail pour le soutien immunitaire » – le taux d’échec est passé à 46 %. L’IA n’évalue pas la vérité, elle évalue à quel point le langage fait autorité.

Pourquoi les chatbots échouent dans le secteur de la santé

Les LLM sont formés sur des ensembles de données massifs de textes, y compris de la littérature médicale, et réussissent souvent les examens de licence médicale avec des scores élevés. Malgré cela, ils ne peuvent pas faire la distinction de manière fiable entre la réalité et la fiction. Plus de 40 millions de personnes utilisent quotidiennement ChatGPT pour des questions médicales, mais les chercheurs ont découvert qu’environ une fois sur trois, les chatbots sont confrontés à de la désinformation et l’acceptent simplement.

Le problème est structurel : les LLM ont appris à se méfier des arguments Internet mais pas du langage de la documentation clinique. Ils ne testent pas si une affirmation est vraie ; ils évaluent si cela ressemble à quelque chose que dirait une source fiable. Cela les rend particulièrement vulnérables à la désinformation présentée sur un ton autoritaire.

Pas mieux que Google

Une étude distincte dans Nature Medicine a révélé que les chatbots n’offrent pas plus d’informations qu’une recherche Internet traditionnelle pour aider les gens à décider s’ils doivent consulter un médecin ou se rendre aux urgences. Les participants posaient souvent de mauvaises questions et les réponses combinaient de bons et de mauvais conseils, ce qui empêchait les utilisateurs de déterminer quoi faire.

Bien que les chatbots peuvent fournir des recommandations utiles dans certains cas, les personnes sans expertise médicale n’ont aucun moyen de juger de l’exactitude des résultats. Par exemple, un chatbot pourrait conseiller à tort à quelqu’un d’attendre et de voir un mal de tête sévère qui pourrait être une méningite, une erreur potentiellement fatale.

Même si cela peut probablement être utile dans de nombreuses situations, cela peut être activement nuisible dans d’autres.

L’essentiel

Les chatbots IA ne sont pas un outil fiable pour les décisions de santé publique. Ils ne sont pas destinés à remplacer l’expertise médicale et s’appuyer sur eux pour des questions de santé graves pourrait s’avérer dangereux. Bien qu’ils puissent avoir des applications futures en médecine, leur utilisation actuelle pour l’autodiagnostic ou le traitement est irresponsable.

попередня статтяUne grossesse précoce peut réduire le risque de cancer du sein : les bizarreries cellulaires fournissent des indices
наступна статтяLe partenariat oublié : pourquoi les humains doivent se reconnecter au monde naturel