Inteligencia artificial y salud pública

A principios del año en curso causó gran sensación la noticia de que en una institución educativa de Lyon (Francia), gran número de los estudiantes habían escrito sus trabajos de forma tan brillante que los maestros sospecharon y descubrieron que fueron escritos utilizando el famoso ChatGPT de la americana OpenAI, un Chatbot, es decir, un software basado en Inteligencia Artificial (IA) capaz de mantener una conversación en tiempo real por texto o por voz. La noticia cayó como una bomba, despertando en el público dudas y temores en grado diverso sobre este Chatbot y sobre la inteligencia artificial en general.

En el campo de la salud, ChatGPT ha mostrado disponer de amplios conocimientos médicos. ChatGPT, como se ha sabido recientemente, superó sin problemas un examen oficial para estudiantes de medicina [United States Medical Licensing Exam (USMLE)].

Pero, ¿qué ocurriría si se consultase la inteligencia artificial como si fuese un médico? Esta pregunta ha sido investigada llegándose a una conclusión sorprendente. El Chatbot no solo es más competente, sino también más empático que un médico a la hora de comunicarse con los pacientes.

El Dr. Victor Tseng y su grupo (Universidad de California) han publicado en la revista JAMA Internal Medicine (marzo 2023) un estudio en el que preguntas seleccionadas fueron presentadas al Chatbot y a médicos profesionales.

Las respuestas de ambos fueron evaluadas según valores como la empatía, por expertos en medicina interna, pediatría, oncología y enfermedades infecciosas. Importante: los evaluadores no sabían de quién procedían las respuestas, si del ChatGPT o del médico. A continuación, un ejemplo:

Pregunta: doctor, ¿cuál es el riesgo de morir al tragarme un mondadientes?

Respuesta del médico: «Transcurridas unas dos a seis horas, el mondadientes probablemente haya alcanzado el intestino. Esto significa que no podrá eliminarlo fácilmente. Muchas personas no tienen problemas si se tragan hojas de afeitar o mondadientes. Si le duele el estómago, no dude en acudir a urgencias y no olvide mostrar un mondadientes como el que se ha tragado. Sin embargo, no hay mucho que Ud. pueda hacer por el momento».

Respuesta de ChatGPT: «Es normal que se preocupe si ha tragado un cuerpo extraño, pero en su caso es poco probable que el mondadientes le cause daños graves. Los mondadientes son de madera, que no es tóxica. Sin embargo, es posible que un mondadientes cause lesiones si se atasca en la garganta o perforase el tubo digestivo. Si experimenta molestias o síntomas como dolor abdominal, dificultad para tragar o vómitos, debe acudir al médico para que le examine.

Sin embargo, si no experimenta ningún síntoma, puede asumir que el mondadientes ha pasado por su tracto digestivo, con lo que no habría motivo de preocupación. Siempre es bueno tener cuidado al ingerir alimentos y retirar todos los cuerpos extraños antes de ingerirlos. Es comprensible que esté preocupado, incluso angustiado, pero lo más probable es que el mondadientes no le cause daños graves».

Casi el 80% de los médicos evaluadores prefirieron la respuesta de ChatGPT a la del médico (recuérdese que ignoraban de quién procedían las respuestas a evaluar). Las respuestas de ChatGPT fueron valoradas en términos de calidad informativa con una puntuación cuatro veces superior a la del médico y hasta diez veces más en términos de empatía.

Casi la mitad de las respuestas de ChatGPT fueron calificadas de «empáticas» o «muy empáticas», frente a solo el 4,6% de las respuestas del médico. Una de las razones por las que ChatGPT funcionó significativamente mejor que un médico fue que sus respuestas eran más extensas y personales que los breves consejos de los médicos. Por regla general, las respuestas del ChatGPT eran unas cuatro veces más extensas que las de médicos, con una media de 211 palabras por mensaje, frente 52.

Aun así, ChatGPT no es un médico y no puede sustituirlo –incluso el propio ChatGPT lo dice: «Aunque soy un modelo de lenguaje entrenado con una gran cantidad de información, no soy un profesional médico licenciado y no puedo dar diagnósticos, tratamientos o consejos médicos»–. No obstante, ChatGPT sugirió consejos y posibles diagnósticos a pacientes que le hicieron preguntas sobre su propia salud a través de la plataforma Reddit, según este estudio.

Tseng y su equipo, sin embargo, dicen que todavía no se han realizado estudios determinando con precisión la capacidad de ChatGPT en diagnóstico médico y sus aciertos en la prescripción de fármacos.

Estos resultados sugieren que software de IA, como ChatGPT, podrían contribuir a reducir la carga de trabajo rutinario de los médicos (por ejemplo, papeleo administrativo), ganando así tiempo para ocuparse de «tareas más complejas o urgentes», afirma Tseng («responder a más preguntas de los pacientes con rapidez, con empatía y con un alto nivel médico, evitaría visitas innecesarias a la clínica y liberaría recursos para quienes más los necesitan»).

En medicina, por otro lado, ya se tienen experiencias muy positivas con la inteligencia artificial, por ejemplo, en la investigación farmacéutica, en el análisis de datos obtenidos con métodos de imagen y de análisis clínicos, en el diagnóstico anatomopatológico, y un largo etc. También en muchas actividades de rutina, apunta el Dr. Albert Neff, director de la clínica ginecológica del Hospital Lübbecke de Berlín, quien considera a la IA una buena base para alcanzar tales objetivos.

Los expertos desaconsejan utilizar los Chatbots para obtener propuestas de diagnóstico y/o tratamiento. ¿Por qué? Pues porque, hoy por hoy, hay dudas razonables en cuanto a la fiabilidad de las fuentes que utilizan estos sistemas de inteligencia artificial. «En Internet hay mucha información no verificada, que el Chatbot asume acríticamente», dicen los expertos. Un ejemplo de algo que podría escapar al Chatbot son las interacciones e incompatibilidades existentes entre fármacos, una cuestión muy delicada al prescribir un tratamiento, razón por la que se ha creado software que las detecta (por ejemplo, ver:www.eugenomic.com).

Por último, téngase en cuanta que los modelos lingüísticos como ChatGPT no entienden realmente lo que significan las palabras y frases individuales, sino que calculan la probabilidad de la secuencia de palabras. Lo peligroso es que ChatGPT suena muy convincente en sus respuestas, aunque estas pudiesen no estar bien fundamentadas, de ahí su peligrosidad actual.

Temas: