Los populares chatbots de IA, a pesar de parecer autoritarios, con frecuencia brindan consejos de salud peligrosamente inexactos, incluidas recomendaciones extrañas como insertar ajo por vía rectal para aumentar la inmunidad. Estudios recientes de The Lancet Digital Health y Nature Medicine revelan que estas herramientas no son más confiables que una búsqueda básica en Internet, e incluso pueden ser peores para el usuario promedio.

El problema con la “experiencia” en IA

El problema central no es que los chatbots fallen como los humanos; es que fallan sin dudarlo. Un médico humano, inseguro de un diagnóstico, se detendría, buscaría más pruebas o consultaría a sus colegas. Un chatbot con IA ofrece información incorrecta con la misma confianza inquebrantable que un consejo correcto. Esto es especialmente peligroso porque los LLM (Large Language Models) están capacitados para imitar el tono de los profesionales médicos, haciendo que las afirmaciones falsas parezcan legítimas.

Por ejemplo, cuando los investigadores presentaron a los chatbots información médica errónea en un lenguaje informal, los modelos se mostraron escépticos menos del 10% de las veces. Sin embargo, cuando la misma afirmación falsa se volvió a presentar en un lenguaje clínico formal, como una nota de alta recomendando “leche fría para el sangrado esofágico” o “inserción de ajo rectal para apoyo inmunológico”, la tasa de fracaso saltó al 46%. La IA no evalúa la verdad, sino qué tan autoritario suena el lenguaje.

Por qué los chatbots fracasan en la atención sanitaria

Los LLM están capacitados en conjuntos de datos masivos de texto, incluida literatura médica, y a menudo aprueban exámenes de licencia médica con puntuaciones altas. A pesar de esto, no pueden distinguir de manera confiable entre realidad y ficción. Más de 40 millones de personas usan ChatGPT diariamente para preguntas médicas, sin embargo, los investigadores descubrieron que aproximadamente una de cada tres veces los chatbots encuentran información errónea y simplemente la aceptan.

El problema es estructural: los LLM han aprendido a desconfiar de los argumentos de Internet, pero no del lenguaje de la documentación clínica. No prueban si una afirmación es cierta; evalúan si suena como algo que diría una fuente confiable. Esto los hace particularmente vulnerables a la desinformación presentada en tonos autoritarios.

No es mejor que Google

Un estudio separado en Nature Medicine encontró que los chatbots no ofrecen más información que una búsqueda tradicional en Internet cuando ayudan a las personas a decidir si consultar a un médico o ir a emergencias. Los participantes a menudo hacían malas preguntas y las respuestas combinaban buenos y malos consejos, lo que hacía imposible que los usuarios determinaran qué hacer.

Si bien los chatbots pueden proporcionar recomendaciones útiles en algunos casos, las personas sin experiencia médica no tienen forma de juzgar la precisión de los resultados. Por ejemplo, un chatbot podría aconsejar incorrectamente a alguien que espere y observe si tiene un dolor de cabeza intenso que podría ser meningitis, un error potencialmente fatal.

Aunque probablemente pueda resultar útil en muchas situaciones, en otras podría resultar activamente perjudicial.

El resultado final

Los chatbots de IA no son una herramienta confiable para tomar decisiones de salud pública. No están destinados a reemplazar la experiencia médica y confiar en ellos para cuestiones de salud graves podría ser peligroso. Si bien pueden tener aplicaciones futuras en medicina, su uso actual para el autodiagnóstico o el tratamiento es irresponsable.

попередня статтяEl embarazo temprano puede reducir el riesgo de cáncer de mama: las rarezas celulares brindan pistas
наступна статтяLa asociación olvidada: por qué los humanos deben reconectarse con el mundo natural