C¨®mo evitar que la inteligencia artificial falle m¨¢s con las mujeres en los diagn¨®sticos m¨¦dicos
El sector sanitario es m¨¢s productivo con modelos como ChatGPT, pero esta nueva tecnolog¨ªa comete errores debido a sesgos de g¨¦nero, raza y edad
Aburrida en un hospital de Nueva Jersey, Diane Camacho le cont¨® a ChatGPT los s¨ªntomas que sufr¨ªa, y le pidi¨® que hiciera una lista con los posibles diagn¨®sticos m¨¦dicos. Ten¨ªa dificultad para respirar, dolor en el pecho, y la sensaci¨®n de que su coraz¨®n ¡°se paraba y arrancaba¡±. El chatbot de OpenAI le dijo que la ansiedad era el diagn¨®stico m¨¢s probable. Camacho pidi¨® de nuevo el pron¨®stico para un hombre con los mismos s¨ªntomas, con la sorpresa de que la inteligencia artificial le advirti¨® de la posibilidad de que sufriera embolia pulmonar, un s¨ªndrome coronario agudo o una cardiomiopat¨ªa, pero ni rastro de la ansiedad. As¨ª lo public¨® Camacho hace unas semanas en la red X (antes Twitter).
La inteligencia artificial generativa, como ChatGPT, combina grandes cantidades de datos con algoritmos y toma decisiones a trav¨¦s de un aprendizaje autom¨¢tico. Si los datos son incompletos o no representativos, los algoritmos pueden ser sesgados. Al hacer muestreos, los algoritmos pueden caer en errores sistem¨¢ticos y seleccionar unas respuestas frente a otras. Frente a estos problemas, la ley europea de inteligencia artificial aprobada el pasado mes de diciembre prioriza que la herramienta se desarrolle con criterios ¨¦ticos, transparentes y libre de sesgos.
Los dispositivos m¨¦dicos, seg¨²n la norma, son considerados de alto riesgo y deber¨¢n cumplir con requisitos estrictos: tener datos de alta calidad, registrar su actividad, tener una documentaci¨®n detallada del sistema, dar informaci¨®n clara al usuario, contar con medidas de supervisi¨®n humana y con un alto nivel de robustez, seguridad y precisi¨®n, seg¨²n explica la Comisi¨®n Europea.
La startup de Pol Sol¨¤ de los Santos, presidente de Vincer.Ai, se encarga de auditar a las compa?¨ªas para que puedan cumplir con las condiciones europeas. ¡°Lo hacemos a trav¨¦s de un sistema de gesti¨®n de calidad de algoritmos, modelos y sistemas de inteligencia artificial. Se hace un diagn¨®stico del modelo de lenguaje, y lo primero es ver si hay un da?o y c¨®mo lo corregimos¡±. Adem¨¢s, si una compa?¨ªa cuenta con un modelo sesgado, les recomienda que se advierta con un descargo de responsabilidad. ¡°Si quisi¨¦ramos distribuir un f¨¢rmaco no apto para ni?os de 7 a?os, ser¨ªa impensable no avisar¡±, ilustra Sol¨¤ de los Santos.
En el entorno de la salud, las herramientas de inteligencia artificial (IA) empiezan a ser habituales en pruebas de diagn¨®stico por imagen y en programaci¨®n. Ayudan a los trabajadores sanitarios a acelerar el trabajo y a ser m¨¢s precisos. En radiolog¨ªa son ¡°sistemas de ayuda¡±, indica Josep Munuera, director de Radiodiagn¨®stico del Hospital Sant Pau de Barcelona y experto en tecnolog¨ªas digitales aplicadas a la salud. ¡°Los algoritmos est¨¢n dentro de aparatos de resonancia magn¨¦tica y reducen el tiempo de obtenci¨®n de la imagen¡±, explica Munuera. As¨ª, una resonancia que durar¨ªa 20 minutos se puede acortar a tan solo siete minutos, gracias a la introducci¨®n de algoritmos.
Los sesgos pueden generar diferencias en la atenci¨®n m¨¦dica seg¨²n el g¨¦nero, el grupo ¨¦tnico o el demogr¨¢fico. Un ejemplo se da en las radiograf¨ªas de t¨®rax, seg¨²n explica Luis Herrera, arquitecto de soluciones en Databricks Espa?a: ¡°Los algoritmos utilizados han mostrado diferencias en la precisi¨®n seg¨²n el g¨¦nero, lo que ha llevado a diferencias en la atenci¨®n. En concreto, la precisi¨®n en el diagn¨®stico a mujeres era mucho menor¡±. El sesgo de g¨¦nero, se?ala Munuera, es un cl¨¢sico: ¡°Tiene que ver con los sesgos poblacionales y las base de datos. Los algoritmos se alimentan o preguntan a bases de datos, y si las bases de datos hist¨®ricas tienen sesgos de g¨¦nero, la respuesta ser¨¢ sesgada¡±. Sin embargo, a?ade: ¡°El sesgo de g¨¦nero en salud existe, independientemente de la inteligencia artificial¡±.
C¨®mo evitar los sesgos
?C¨®mo se entrena de nuevo la base de datos para evitar los sesgos? Arnau Valls, ingeniero coordinador del departamento de Innovaci¨®n del Hospital Sant Joan de Deu en Barcelona, explica c¨®mo se hizo en un caso de detecci¨®n de covid en Europa, mediante un algoritmo desarrollado con poblaci¨®n china: ¡°El acierto del algoritmo cay¨® un 20% y aparecieron falsos positivos. Se tuvo que crear una base de datos nueva y se a?adieron im¨¢genes de poblaci¨®n europea en el algoritmo¡±.
Para enfrentarnos a un modelo sesgado como usuarios, debemos ser capaces de contrastar las respuestas que nos da la herramienta, indica Herrera: ¡°Debemos fomentar la conciencia sobre los sesgos en IA y promover el uso del pensamiento cr¨ªtico, as¨ª como exigir transparencia a las empresas y validar las fuentes¡±.
Los expertos coinciden en no utilizar ChatGPT con una finalidad m¨¦dica. Pero Jos¨¦ Ibeas, director del grupo de Nefrolog¨ªa del Instituto de Investigaci¨®n e innovaci¨®n del Hospital Universitario Parc Taul¨ª de Sabadell (Barcelona), sugiere que la herramienta evolucionar¨ªa positivamente si el chatbot pregunta a bases de datos m¨¦dicas. ¡°Se est¨¢ empezando a trabajar en ello. La forma de hacerlo es entrenar la base de datos de los pacientes con el sistema de OpenAI utilizando algoritmos e ingenieros propios. De este modo, se protege la privacidad de los datos¡±, explica Ibeas.
La tecnolog¨ªa de ChatGPT s¨ª es ¨²til en el entorno m¨¦dico en ciertos casos, reconoce Ibeas: ¡°La capacidad que tiene de generar estructuras, anat¨®micas o matem¨¢ticas, es total. El entrenamiento que tiene en estructuras moleculares es buen¨ªsimo. Ah¨ª realmente se inventa poco¡±. Coincidiento con el resto de expertos, Ibeas advierte que la inteligencia artificial nunca sustituir¨¢ a un m¨¦dico, pero puntualiza: ¡°El m¨¦dico que no sepa de inteligencia artificial ser¨¢ reemplazado por el que s¨ª sepa¡±.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.