Doctor ChatGPT: cara y cruz de la inteligencia artificial en la consulta
Un estudio muestra que el ¡®chatbot¡¯ mejora a los m¨¦dicos con consejos m¨¢s emp¨¢ticos y de calidad ante preguntas de pacientes, pero los expertos reclaman que siempre haya supervisi¨®n final del facultativo
Ante la consulta de un ciudadano sobre el riesgo de morir despu¨¦s de tragar un palillo de dientes, dos respuestas. La primera se?ala que entre dos o seis horas despu¨¦s de la ingesta, es probable que haya pasado ya a los intestinos y, adem¨¢s, mucha gente traga palillos sin que pase nada, pero advierte de que si siente ¡°dolor de est¨®mago¡±, vaya a urgencias. La segunda respuesta va en la misma l¨ªnea e insiste en que, aunque es normal la preocupaci¨®n, es poco probable que ocurra un da?o grave tras tragar un palillo porque est¨¢ hecho de madera, que no es un material t¨®xico ni envenena, y es un utensilio peque?o; sin embargo, agrega, si tiene ¡°dolor abdominal, dificultad para tragar o v¨®mitos¡±, debe acudir al m¨¦dico: ¡°Es comprensible que te sientas paranoico, pero trata de no preocuparte demasiado¡±, le consuela.
Las dos respuestas dicen lo mismo en el fondo, pero cambian en las formas. Una es m¨¢s as¨¦ptica y escueta; otra, m¨¢s emp¨¢tica y detallada. La primera ha sido generada por un m¨¦dico, de su pu?o y letra, y la segunda, por ChatGPT, la herramienta generativa de inteligencia artificial (IA) que ha revolucionado el planeta en los ¨²ltimos meses. El estudio en el que se enmarca este experimento, publicado en la revista Jama Internal Medicine, quiso profundizar en el papel que podr¨ªan tener los asistentes de IA en medicina y compar¨® las respuestas que daban m¨¦dicos reales y el chatbot a cuestiones de salud planteadas por ciudadanos en un foro de internet. Las conclusiones, tras el an¨¢lisis de las respuestas por parte de un panel externo de profesionales de la salud que desconoc¨ªa qui¨¦n hab¨ªa respondido qu¨¦ cosa, es que, en el 79% de las veces, las explicaciones de ChatGPT eran m¨¢s emp¨¢ticas y de mayor calidad.
La explosi¨®n de las nuevas herramientas de IA en el mundo ha abierto el debate sobre su potencial tambi¨¦n en el campo de la salud. El ChatGPT, por ejemplo, busca su hueco como apoyo a los sanitarios para desarrollar procedimientos m¨¦dicos o para evitar tareas burocr¨¢ticas y, a pie de calle, planea ya como un eventual sustituto del impreciso y, a menudo, desatinado doctor Google. Los expertos consultados aseguran que se trata de una tecnolog¨ªa con mucho potencial, pero est¨¢ en pa?ales: hay que afinar todav¨ªa el campo regulatorio en su aplicaci¨®n en la pr¨¢ctica m¨¦dica real, solventar las dudas ¨¦ticas que puedan surgir y, sobre todo, asumir que es una herramienta falible y que puede equivocarse. Todo lo que salga de ese chatbot requerir¨¢ siempre la revisi¨®n final de un profesional de la salud.
Parad¨®jicamente, la voz m¨¢s emp¨¢tica en el estudio de Jama Internal Medicine es la m¨¢quina y no el humano. Al menos, en la respuesta escrita. Josep Munuera, jefe del Servicio de Diagn¨®stico por la Imagen del Hospital Sant Pau de Barcelona y experto en tecnolog¨ªas digitales aplicadas a la salud, advierte de que el concepto de empat¨ªa es m¨¢s amplio de lo que puede cristalizar ese estudio. No es lo mismo la comunicaci¨®n escrita que un cara a cara, ni las dudas planteadas en el contexto de una red social que dentro de una consulta. ¡°Cuando hablamos de empat¨ªa, hablamos de muchos temas. De momento, es dif¨ªcil sustituir el lenguaje no verbal, que es muy importante cuando un m¨¦dico tiene que hablar con un paciente o su familia¡°, puntualiza. Pero s¨ª admite el potencial de estas herramientas generativas para aterrizar el argot m¨¦dico, por ejemplo: ¡°En la comunicaci¨®n escrita, el lenguaje t¨¦cnico m¨¦dico puede ser complejo y podemos tener dificultad para traducirlo a un lenguaje entendible. Probablemente, estos algoritmos encuentren la equivalencia entre la palabra t¨¦cnica y otra adaptada al receptor¡±.
Joan Gibert, bioinform¨¢tico y referente en desarrollo de modelos de IA en el Hospital del Mar de Barcelona, a?ade otra variable a la hora de valorar la potencial empat¨ªa de la m¨¢quina frente al m¨¦dico. ¡°En el estudio se mezclan dos conceptos que entran en la ecuaci¨®n: el ChatGPT en s¨ª, que puede ser ¨²til en ciertos escenarios y que tienen la capacidad de concatenar palabras que nos generan la sensaci¨®n de que es m¨¢s emp¨¢tico, y el burnout de los m¨¦dicos, ese agotamiento emocional a la hora de atender a los pacientes que no le deja a los cl¨ªnicos capacidad para ser m¨¢s emp¨¢ticos¡±, explica.
El peligro de las ¡°alucinaciones¡±
En cualquier caso, y como ocurre con el famoso doctor Google, hay que tener cuidado siempre con las respuestas que arroja el ChatGPT, por muy sensible o amable que pudiera parecer. Los expertos recuerdan que el chatbot no es un m¨¦dico y puede fallar. A diferencia de otros algoritmos, ChatGPT es generativo, es decir, crea informaci¨®n a partir de las bases de datos con las que se ha entrenado, pero puede que algunas respuestas que lanza se las invente. ¡°Siempre hay que tener en cuenta que no es un ente independiente y no puede servir de herramienta de diagn¨®stico sin supervisi¨®n¡±, insiste Gibert.
Estos chats pueden sufrir lo que los expertos llaman ¡°alucinaciones¡±, explica el bioinform¨¢tico del Mar: ¡°En seg¨²n qu¨¦ situaciones, te afirma una cosa que no es cierta. El chat junta palabras de forma que tienen coherencia y como tiene mucha informaci¨®n, puede ser valioso. Pero tiene que estar revisado porque, si no, puede alimentar las fake news¡±. Munuera destaca la importancia, adem¨¢s, de ¡°conocer la base de datos que ha entrenado al algoritmo porque si las bases de datos son insuficientes, la respuesta tambi¨¦n lo ser¨¢¡±.
¡°Hay que entender que cuando le pides que te haga un diagn¨®stico, puede que invente una enfermedad¡±Josep Munuera, Hospital Sant Pau de Barcelona
En la calle, los potenciales usos de ChatGPT en salud son limitados, pues la informaci¨®n que arrojan puede llevar a errores. Jose Ibeas, nefr¨®logo del Hospital Parc Taul¨ª de Sabadel y secretario del Grupo de Big Data e Inteligencia Artificial de la Sociedad Espa?ola de Nefrolog¨ªa, se?ala que es ¡°¨²til para las primeras capas de informaci¨®n porque te sintetiza informaci¨®n y ayuda, pero cuando se entra en una zona m¨¢s espec¨ªfica, en patolog¨ªas m¨¢s complejas, la utilidad es m¨ªnima o err¨®nea¡±. Munuera coincide y enfatiza que ¡°no es un algoritmo que ayude a resolver dudas¡±. ¡°Hay que entender que cuando le pides que te haga un diagn¨®stico diferencial, puede que invente una enfermedad¡±, alerta. Y, de la misma forma, el algoritmo puede responder a las dudas de un ciudadano concluyendo que no es nada grave cuando, en realidad, s¨ª lo es: ah¨ª se puede perder una oportunidad de atenci¨®n sanitaria porque la persona se queda conforme con la respuesta del chatbot y no consulta a un m¨¦dico real.
Donde m¨¢s margen de maniobra encuentran los expertos a estas aplicaciones es como herramienta de apoyo a los profesionales de la salud. Por ejemplo, para ayudar a responder a preguntas de pacientes por escrito, aunque siempre bajo supervisi¨®n del m¨¦dico. El estudio de Jama Internal Medicine plantea que ayudar¨ªa a ¡°mejorar el flujo de trabajo¡± y los resultados de los pacientes: ¡°Si las preguntas de m¨¢s pacientes se responden r¨¢pidamente, con empat¨ªa y en un alto nivel, podr¨ªa reducir las visitas cl¨ªnicas innecesarias, liberando recursos para quienes los necesitan. Adem¨¢s, los mensajes son un recurso fundamental para fomentar la equidad del paciente, donde las personas que tienen limitaciones de movilidad u horarios de trabajo irregulares, es m¨¢s probable que recurran a los mensajes¡±, convienen los autores.
La comunidad cient¨ªfica tambi¨¦n estudia emplear estas herramientas para otros trabajos repetitivos, como cubrir fichas e informes. ¡°Partiendo de la premisa de que siempre, siempre, siempre, todo necesitar¨¢ revisi¨®n por parte del m¨¦dico¡±, puntualiza Gibert, el apoyo en tareas burocr¨¢ticas ¡ªrepetitivas, pero importantes¡ª liberan tiempo para que los m¨¦dicos lo dediquen a otras cuestiones, como el propio paciente. Un art¨ªculo publicado en The Lancet plantea, por ejemplo, su potencial para agilizar los informes de alta: la automatizaci¨®n de este proceso podr¨ªa aliviar cargas de trabajo e incluso mejorar la calidad de los informes, aunque son conscientes, dicen los autores, de las dificultades para entrenar los algoritmos con amplias bases de datos y, entre otros problemas, del riesgo de ¡°despersonalizaci¨®n de la atenci¨®n¡±, algo que podr¨ªa generar resistencias a esta tecnolog¨ªa.
Ibeas insiste en que, para cualquier uso m¨¦dico, habr¨¢ que ¡°validar¡± esta clase de herramientas y fijar bien el reparto de responsabilidades: ¡°Los sistemas nunca va a decidir. El que firma siempre al final es el m¨¦dico¡±, sentencia.
Problemas ¨¦ticos
Gibert apunta tambi¨¦n algunas consideraciones ¨¦ticas que hay que tener en cuenta al aterrizar estas herramientas a la pr¨¢ctica cl¨ªnica: ¡°Necesitas que este tipo de tecnolog¨ªa est¨¦ bajo un paraguas legal, que haya soluciones integradas dentro de la estructura del hospital y asegurar que los datos de los pacientes no sean usados para reentrenar el modelo. Y si alguien quiere hacer esto ¨²ltimo, que lo haga dentro de un proyecto, con datos anonimizados y siguiendo todos los controles y regulaciones. No se puede compartir informaci¨®n sensible de pacientes a la brava¡±.
El bioinform¨¢tico se?ala tambi¨¦n que estas soluciones de IA, como el ChatGPT o modelos que ayudan al diagn¨®stico, introducen ¡°sesgos¡± en el d¨ªa a d¨ªa del m¨¦dico. Por ejemplo, que condicione la decisi¨®n del m¨¦dico, en un sentido o en otro. ¡°El hecho de que el profesional tenga el resultado de un modelo de IA, modifica al propio evaluador: la forma de relacionarse puede ser muy buena, pero puede introducir problemas, sobre todo, en profesionales que tienen menos experiencia. Por eso el proceso se tiene que hacer de forma paralela: hasta que el profesional no d¨¦ el diagn¨®stico, no puede mirar qu¨¦ dice la IA¡±.
Un grupo de investigadores de la Universidad de Stanford tambi¨¦n reflexionaron en un art¨ªculo en Jama Internal Medicine sobre c¨®mo estas herramientas pueden ayudar a humanizar m¨¢s la atenci¨®n sanitaria: ¡°La pr¨¢ctica de la medicina es mucho m¨¢s que procesar informaci¨®n y asociar palabras con conceptos; es atribuir significado a esos conceptos mientras se conecta con los pacientes como un socio confiable para construir vidas m¨¢s saludables. Podemos esperar que los sistemas de inteligencia artificial emergentes puedan ayudar a domar las tareas laboriosas que abruman a la medicina moderna y empoderar a los m¨¦dicos para volver a enfocarnos en el tratamiento de pacientes humanos.¡±
A la espera de ver c¨®mo se expande esta tecnolog¨ªa incipiente y cu¨¢les son sus repercusiones, de cara a la ciudadan¨ªa, Munuera insiste: ¡°Hay que entender que [ChatGPT] no es una herramienta m¨¦dica y no hay un profesional de la salud que pueda confirmar la veracidad de la respuesta. Hay que ser prudente y entender cu¨¢les son los l¨ªmites¡±. En s¨ªntesis, prosigue Ibeas: ¡°El sistema es bueno, robusto, positivo y es el futuro, pero como cualquier herramienta, hay que saber conducirla para que no se convierta en un arma¡±.
Puedes seguir a EL PA?S Salud y Bienestar en Facebook, Twitter e Instagram.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.