Un descodificador lee los pensamientos grabados por un esc¨¢ner cerebral
El sistema capta el sentido de las frases m¨¢s que su literalidad gracias a la inteligencia artificial
A tres sujetos les hicieron o¨ªr un podcast del New York Times y mon¨®logos de un popular programa anglosaj¨®n mientras les escaneaban el cerebro. Con un descodificador dise?ado por ellos, cient¨ªficos estadounidenses lograron convertir las gr¨¢ficas del esc¨¢ner cerebral no solo en frases completas, sino en textos que reproduc¨ªan con gran fidelidad lo que hab¨ªan o¨ªdo. Seg¨²n sus resultados, publicados hoy en la revista cient¨ªfica Nature Neuroscience, este descodificador que han llamado ¡°sem¨¢ntico¡± fue capaz tambi¨¦n de verbalizar lo que pensaban y, a¨²n m¨¢s, lo que les pasaba por la cabeza mientras ve¨ªan cine mudo.
Desde comienzos de siglo, y en especial en la ¨²ltima d¨¦cada, se han producido grandes avances en el dise?o de interfaces cerebro-m¨¢quina (ICB). La mayor¨ªa buscaban que personas incapaces de hablar o de mover incluso todos sus m¨²sculos pudieran comunicarse. Pero la mayor parte de estos sistemas necesitan abrir el cr¨¢neo y colocar una serie de electrodos directamente en el cerebro. Otro enfoque, menos invasivo, se apoya en la t¨¦cnica de imagen por resonancia magn¨¦tica funcional (fMRI). Aqu¨ª, la interfaz acaba en un gorro lleno de electrodos que se coloca sobre la cabeza. Este gorro no registra la actividad neuronal directa, sino los cambios en el nivel de ox¨ªgeno en sangre que esta provoca. Esto planteaba problemas de resoluci¨®n. Por un lado, por el acceso desde fuera y, por el otro, los cambios en aquel nivel se producen en intervalos de hasta 10 segundos y en ese lapso se pueden decir muchas palabras.
Para solventar estos problemas, un grupo de investigadores de la Universidad de Texas (Estados Unidos) se han apoyado en un sistema de inteligencia artificial que sonar¨¢ familiar a muchos: GPT, el mismo en el que se apoya el bot ChatGPT. Este modelo de lenguaje, desarrollado por el laboratorio de inteligencia artificial OpenAI, usa aprendizaje profundo para generar texto. En esta investigaci¨®n, lo entrenaron con las im¨¢genes fMRI del cerebro de tres personas a las que hicieron o¨ªr 16 horas de audios de un consultorio del New York Times y del programa The Moth Radio Hour. De esta manera pudieron hacer corresponder lo que ve¨ªan con su representaci¨®n en la cabeza. La idea es que, cuando volvieran a o¨ªr otro texto, el sistema pudiera ir anticip¨¢ndolo bas¨¢ndose en los patrones de lo ya aprendido.
¡°Se trata del GPT original, no como el nuevo [ChatGPT se apoya en la ¨²ltima versi¨®n de GPT, la 4]. Recopilamos una tonelada de datos y luego construimos este modelo, que predice las respuestas cerebrales a las historias¡±, dijo en una conferencia v¨ªa web la pasada semana Alexander Huth, neurocient¨ªfico de la universidad tejana. Con este procedimiento, el descodificador propone secuencias de palabras ¡°y para cada una de esas palabras que pensamos que podr¨ªan venir a continuaci¨®n, podemos medir lo bien que suena esa nueva secuencia y, al final, vemos si coincide con la actividad cerebral que observamos¡±, detalla.
A este descodificador lo han llamado sem¨¢ntico y con acierto. Anteriores interfaces registraban la actividad cerebral en las ¨¢reas motoras que controlan la base mec¨¢nica del habla, es decir, los movimientos de boca, laringe o lengua. ¡°Lo que pueden descodificar es c¨®mo la persona est¨¢ tratando de mover la boca para decir algo. Nuestro sistema funciona en un nivel muy diferente. En lugar de fijarnos en el ¨¢mbito motor de bajo nivel, trabaja en el nivel de las ideas, de la sem¨¢ntica, del significado. Por eso no registra las palabras exactas que alguien escuch¨® o pronunci¨®, sino su sentido¡±, explica Huth. Para esto, aunque las resonancias registraban la actividad de varias zonas cerebrales, se centraron m¨¢s en las relacionadas con la audici¨®n y el lenguaje.
Una vez entrenado el modelo, los cient¨ªficos lo probaron con media docena de personas que tuvieron que o¨ªr textos diferentes a los usados en el entrenamiento del sistema. La m¨¢quina descodific¨® las im¨¢genes fMRI con una gran aproximaci¨®n a lo que contaban las historias. Para confirmar que el ingenio operaba en el nivel sem¨¢ntico m¨¢s que en el motor, repitieron los experimentos, pero esta vez pidiendo a los participantes que imaginaran ellos una historia y despu¨¦s la escribieran. Encontraron una gran correspondencia entre lo descodificado por la m¨¢quina y lo escrito por los humanos. A¨²n m¨¢s dif¨ªcil todav¨ªa, en una tercera tanda, los sujetos tuvieron que ver escenas de cine mudo. Aunque aqu¨ª el descodificador sem¨¢ntico fall¨® m¨¢s en las palabras concretas, segu¨ªa captando el sentido de las escenas.
El neurocient¨ªfico Christian Herff lidera la investigaci¨®n en interfaces cerebro m¨¢quina en la Universidad de Maastricht (Pa¨ªses Bajos) y hace casi una d¨¦cada cre¨® una ICB que permiti¨® convertir en texto, letra a letra, las ondas cerebrales. Herff, que no ha participado en este nuevo ingenio, destaca la incorporaci¨®n del predictor de lenguaje GPT. ¡°Esto es realmente genial, ya que las aportaciones de GPT contienen la sem¨¢ntica del habla, no las propiedades articulatorias o ac¨²sticas, como se hac¨ªa en anteriores ICB¡±, dice. Adem¨¢s, a?ade: ¡°Muestran que el modelo entrenado en lo que se oye puede descodificar la sem¨¢ntica de pel¨ªculas mudas y tambi¨¦n del habla imaginada¡±. Este cient¨ªfico est¨¢ ¡°absolutamente convencido de que la informaci¨®n sem¨¢ntica se utilizar¨¢ en las interfaces cerebro m¨¢quina para hablar en el futuro¡±.
¡°Sus resultados no son aplicables hoy en d¨ªa, necesitas un equipo de resonancia magn¨¦tica que ocupa una sala de un hospital. Pero lo que han conseguido no lo hab¨ªa logrado nadie antes¡±Arnau Espinosa, neurotecn¨®logo de la fundaci¨®n Wyss Center de Suiza
Arnau Espinosa, neurotecn¨®logo de la fundaci¨®n Wyss Center (Suiza), public¨® el a?o pasado un trabajo sobre una ICB con un enfoque totalmente diferente que permiti¨® comunicarse a un enfermo de ELA. Sobre la actual, recuerda que ¡°sus resultados no son aplicables hoy en d¨ªa a un paciente, necesitas un equipo de resonancia magn¨¦tica que vale millones y que ocupa una sala de un hospital; pero lo que han conseguido no lo hab¨ªa logrado nadie antes¡±. La interfaz en la que intervino Espinosa era distinta. ¡°Nosotros ¨ªbamos a una se?al con menor resoluci¨®n espacial, pero mucha resoluci¨®n temporal. Fuimos capaces de saber en cada microsegundo qu¨¦ neuronas se activan y entonces pudimos ir a fonemas y a c¨®mo crear una palabra¡±, a?ade. Para Espinosa, al final habr¨¢ que combinar varios sistemas, cogiendo distintas se?ales. ¡°Te¨®ricamente, ser¨ªa posible; mucho m¨¢s complicado, pero posible¡±.
El neurobi¨®logo espa?ol de la Universidad de Columbia de Nueva York (Estados Unidos) Rafael Yuste lleva tiempo alertando de los peligros que comportan los avances de su propia disciplina. ¡°Esta investigaci¨®n, y el estudio de Facebook, demuestran la posibilidad de descodificar el habla usando neurotecnolog¨ªa no invasiva. Ya no es ciencia ficci¨®n¡±, opina en un correo. ¡°Estos m¨¦todos tendr¨¢n enormes aplicaciones cient¨ªficas, cl¨ªnicas y comerciales, pero, al mismo tiempo, presagian la posibilidad de descifrar los procesos mentales, ya que el habla interna se usa a menudo para pensar. Este es un argumento m¨¢s para la protecci¨®n urgente de la privacidad mental como un derecho humano fundamental¡±, a?ade.
Anticip¨¢ndose a estos temores, los autores de los experimentos quisieron comprobar si pod¨ªan usar su sistema para leer la mente de otros sujetos. Por fortuna, comprobaron que el modelo entrenado con una persona no acertaba a descifrar lo que o¨ªa o ve¨ªa otra. Para asegurarse, realizaron una ¨²ltima serie de ensayos. Esta vez pidieron a los participantes que contaran de siete en siete, pensaran y nombraran animales o se inventaran una historia en su cabeza mientras o¨ªan los relatos. Aqu¨ª, la interfaz apoyada en GPT, con toda la tecnolog¨ªa que lleva una m¨¢quina de resonancia magn¨¦tica y todos los datos manejados por la IA, fall¨® m¨¢s que una escopeta de feria. Para los autores, esto mostrar¨ªa que para leer la mente se necesita la cooperaci¨®n de su due?o. Pero tambi¨¦n advierten de que su investigaci¨®n se apoy¨® en los patrones de media docena de personas. Quiz¨¢ con los datos de decenas o centenares, el peligro, reconocen, sea real.
Puedes seguir a MATERIA en Facebook, Twitter e Instagram, o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.