Leer la mente con m¨¢quinas para rescatar a los pacientes incomunicados
Neurocient¨ªficos e inform¨¢ticos est¨¢n desarrollando interfaces cerebro-computadora para que puedan comunicarse personas con s¨ªndrome de enclaustramiento y otras afecciones que impiden el habla
En la novela cl¨¢sica de Alejandro Dumas, El conde de Montecristo, un personaje llamado Monsieur Noirtier de Villefort sufre un terrible infarto cerebral que lo deja paral¨ªtico. Aunque permanece despierto y consciente, ya no puede moverse ni hablar, y depende de su nieta Valentine para recitar el alfabeto y hojear un diccionario donde encontrar las letras y palabras que necesita. Con esta rudimentaria forma de comunicaci¨®n, el decidido anciano consigue salvar a Valentine de ser envenenada por su madrastra y frustrar los intentos de su padre de casarla contra su voluntad.
El retrato que hace Dumas de este estado catastr¨®fico (en el que, como ¨¦l dice, ¡°el alma est¨¢ atrapada en un cuerpo que ya no obedece sus ¨®rdenes¡±) es una de las primeras descripciones del s¨ªndrome de enclaustramiento. Esta forma de par¨¢lisis profunda se produce cuando se da?a el tronco encef¨¢lico, generalmente a causa de un derrame cerebral, pero tambi¨¦n como resultado de tumores, lesiones cerebrales traum¨¢ticas, mordeduras de serpiente, abuso de sustancias, infecciones o enfermedades neurodegenerativas como la esclerosis lateral amiotr¨®fica (ELA).
Se cree que este trastorno es poco frecuente, aunque es dif¨ªcil saber hasta qu¨¦ punto. Muchos pacientes encerrados pueden comunicarse mediante movimientos oculares intencionados y parpadeos, pero otros pueden quedar completamente inm¨®viles, perdiendo incluso la capacidad de mover los globos oculares o los p¨¢rpados; lo que imposibilita atender a la orden ¡°parpadea dos veces si me entiendes¡±. Como resultado, los pacientes pueden pasar una media de 79 d¨ªas encerrados en un cuerpo inm¨®vil, conscientes pero incapaces de comunicarse, antes de que se les diagnostique adecuadamente.
La llegada de las interfaces cerebro-m¨¢quina ha alimentado la esperanza de devolver la comunicaci¨®n a las personas en este estado de encierro, permiti¨¦ndoles reconectar con el mundo exterior. Estas tecnolog¨ªas suelen utilizar un dispositivo implantado para registrar las ondas cerebrales asociadas al habla y, a continuaci¨®n, emplean algoritmos inform¨¢ticos para traducir los mensajes deseados. Los avances m¨¢s interesantes no requieren parpadeo, seguimiento ocular ni intentos de vocalizaci¨®n, sino que capturan y transmiten las letras o palabras que una persona dice en silencio en su cabeza.
¡°Creo que esta tecnolog¨ªa tiene el potencial de ayudar a las personas que m¨¢s han perdido, a las que est¨¢n realmente enclaustradas y ya no pueden comunicarse en absoluto¡±, afirma Sarah Wandelt, estudiante de posgrado en computaci¨®n y sistemas neuronales en Caltech de Pasadena (California, EE UU). Estudios recientes de Wandelt y otros han aportado las primeras pruebas de que las interfaces cerebro-m¨¢quina pueden descodificar el habla interna. Estos m¨¦todos, aunque prometedores, suelen ser invasivos, laboriosos y caros, y los expertos coinciden en que necesitar¨¢n mucho m¨¢s desarrollo antes de poder dar voz a los pacientes enclaustrados.
El primer paso para crear una interfaz cerebro-m¨¢quina es decidir qu¨¦ parte del cerebro se va a utilizar. Cuando Dumas era joven, muchos cre¨ªan que los contornos del cr¨¢neo serv¨ªan de atlas para comprender el funcionamiento interno de la mente. Todav¨ªa se pueden encontrar vistosos diagramas frenol¨®gicos (con secciones delimitadas para facultades humanas como la benevolencia, el apetito y el lenguaje) en anticuados textos m¨¦dicos y en las secciones de decoraci¨®n de los grandes almacenes. ¡°Por supuesto, ahora sabemos que eso no tiene sentido¡±, afirma David Bj?nes, neurocient¨ªfico e investigador postdoctoral en Caltech. De hecho, ahora est¨¢ claro que nuestras facultades y funciones surgen de una red de interacciones entre diversas ¨¢reas cerebrales, en la que cada ¨¢rea act¨²a como un nodo de la red neuronal. Esta complejidad supone un reto y una oportunidad: dado que a¨²n no se ha descubierto una regi¨®n del cerebro responsable del lenguaje interno, varias regiones diferentes podr¨ªan ser objetivos viables.
Por ejemplo, Wandelt, Bj?nes y sus colegas descubrieron que una parte del l¨®bulo parietal llamada circunvoluci¨®n supramarginal (SMG), asociada normalmente a la acci¨®n de agarrar objetos, tambi¨¦n se activa mucho durante el habla. Hicieron este sorprendente descubrimiento mientras observaban a un participante en un estudio tetrapl¨¦jico al que hab¨ªan implantado en el SMG una matriz de microelectrodos (dispositivo m¨¢s peque?o que la cabeza de un alfiler, cubierto de puntas met¨¢licas en miniatura). La matriz puede registrar el disparo de neuronas individuales y transmitir los datos a trav¨¦s de una mara?a de cables a una computadora para que los procese.
Involucrar al cerebro, pero ?c¨®mo?
Bj?nes compara la configuraci¨®n de su interfaz cerebro-m¨¢quina con un partido de f¨²tbol americano. Imagine que su cerebro es el estadio de f¨²tbol y que cada neurona es una persona en ese estadio. Los electrodos son los micr¨®fonos que se bajan al estadio para poder escuchar. ¡°Esperamos colocarlos cerca del entrenador, o quiz¨¢ de un locutor, o cerca de alguna persona del p¨²blico que sepa realmente lo que est¨¢ pasando¡±, explica. ¡°Y entonces intentamos entender lo que ocurre en el campo. Cuando o¨ªmos el rugido del p¨²blico, ?es un touchdown? ?Fue una jugada de pase? ?Le han dado una patada al mariscal de campo? Intentamos entender las reglas del juego, y cuanta m¨¢s informaci¨®n podamos obtener, mejor ser¨¢ nuestro dispositivo¡±, a?ade el investigador.
En el cerebro, los dispositivos implantados se sit¨²an en el espacio extracelular entre neuronas, donde controlan las se?ales electroqu¨ªmicas que se mueven a trav¨¦s de las sinapsis, cada vez que se dispara una neurona. Si el implante capta las neuronas pertinentes, las se?ales que registran los electrodos parecen archivos de audio, reflejando un patr¨®n diferente de picos y valles para distintas acciones o intenciones.
El equipo de Caltech entren¨® su interfaz cerebro-m¨¢quina para reconocer los patrones cerebrales producidos cuando un participante tetrapl¨¦jico en el estudio dec¨ªa internamente seis palabras (campo de batalla, vaquero, pit¨®n, cuchara, nataci¨®n, tel¨¦fono) y dos pseudopalabras (nifzig, bindip). Tras solo 15 minutos de entrenamiento, y utilizando un algoritmo de descodificaci¨®n relativamente sencillo, el dispositivo pudo identificar las palabras con una precisi¨®n superior al 90%.
Wandelt present¨® el estudio, que a¨²n no se ha publicado en una revista cient¨ªfica revisada por pares, en el congreso de la Sociedad de Neurociencia de 2022, celebrado en San Diego (EE UU). En su opini¨®n, los resultados suponen una importante prueba de concepto, aunque habr¨ªa que ampliar el vocabulario antes de que un paciente enclaustrado pudiera frustrar a una madrastra malvada o conseguir un vaso de agua. ¡°Obviamente, las palabras que elegimos no eran las m¨¢s informativas; pero si se sustituyen por s¨ª, no, por ciertas palabras que son realmente informativas, eso ser¨ªa ¨²til¡±, dijo Wandelt en la reuni¨®n.
Otro m¨¦todo evita la necesidad de ampliar el vocabulario dise?ando una interfaz cerebro-m¨¢quina que reconoce letras en lugar de palabras. Intentando pronunciar en la boca las palabras que codifican cada letra del alfabeto romano, un paciente paral¨ªtico podr¨ªa deletrear cualquier palabra que se le pasara por la cabeza, encadenando esas palabras para comunicarse en frases completas.
¡°Deletrear las cosas en voz alta con el habla es algo que hacemos muy a menudo, como cuando hablamos por tel¨¦fono con un representante de atenci¨®n al cliente¡±, dice Sean Metzger, estudiante de bioingenier¨ªa de la Universidad de California en San Francisco y la Universidad de California en Berkeley. Al igual que el ruido de la est¨¢tica en una l¨ªnea telef¨®nica, las se?ales cerebrales pueden ser ruidosas. Utilizar palabras en clave de la OTAN (como Alfa para A, Bravo para B y Charlie para C) facilita discernir lo que alguien est¨¢ diciendo.
Pasar de pensamientos a letras
Metzger y sus colegas probaron esta idea en un participante incapaz de moverse o hablar como consecuencia de un ictus. Al participante en el estudio se le implant¨® una matriz m¨¢s grande de electrodos, del tama?o de una tarjeta de cr¨¦dito, en una amplia franja de su corteza motora. En lugar de escuchar a escondidas neuronas individuales, este conjunto registra la actividad sincronizada de decenas de miles de neuronas, como si se oyera a toda una secci¨®n de un estadio de f¨²tbol rugiendo o animando al mismo tiempo.
Con esta tecnolog¨ªa, los investigadores grabaron horas de datos y los introdujeron en sofisticados algoritmos de aprendizaje autom¨¢tico. Fueron capaces de descifrar el 92% de las frases dichas en silencio por el sujeto del estudio (como ¡°Est¨¢ bien¡± o ¡°?Qu¨¦ hora es?¡±,) al menos en uno de cada dos intentos. El siguiente paso, seg¨²n Metzger, podr¨ªa ser combinar este m¨¦todo basado en la ortograf¨ªa con otro basado en las palabras, que desarrollaron anteriormente, para que los usuarios pudieran comunicarse m¨¢s r¨¢pidamente y con menos esfuerzo.
En la actualidad, cerca de 40 personas de todo el mundo llevan implantadas matrices de microelectrodos, y cada vez hay m¨¢s. Muchos de estos voluntarios (personas paralizadas por accidentes cerebrovasculares, lesiones medulares o ELA) pasan horas conectados a computadoras, ayudando a los investigadores a desarrollar nuevas interfaces cerebro-m¨¢quina que permitan a otros, alg¨²n d¨ªa, recuperar funciones que han perdido. Jun Wang, inform¨¢tico y logopeda de la Universidad de Texas en Austin (EE UU), se muestra entusiasmado con los recientes avances en la creaci¨®n de dispositivos para recuperar el habla, pero advierte de que a¨²n queda mucho camino por recorrer antes de su aplicaci¨®n pr¨¢ctica. ¡°En este momento, todo este campo est¨¢ a¨²n en una fase inicial¡±.
A Wang y otros expertos les gustar¨ªa ver mejoras en el hardware y el software que hicieran los dispositivos menos engorrosos, m¨¢s precisos y m¨¢s r¨¢pidos. Por ejemplo, el dispositivo pionero del laboratorio de la Universidad de California en San Francisco funcionaba a un ritmo de unas siete palabras por minuto, mientras que el habla natural va a unas 150 palabras por minuto. E incluso si la tecnolog¨ªa evoluciona hasta imitar el habla humana, no est¨¢ claro si los enfoques desarrollados en pacientes con cierta capacidad para moverse o hablar funcionar¨¢n en los que est¨¢n completamente enclaustrados. ¡°Mi intuici¨®n es que funcionar¨ªa, pero no puedo asegurarlo¡±, dice Metzger, ¡°tendr¨ªamos que verificarlo¡±.
Otra pregunta que permanece sin respuesta es si es posible dise?ar interfaces cerebro-m¨¢quina que no requieran cirug¨ªa cerebral. Los intentos de crear enfoques no invasivos han fracasado porque tales dispositivos han tratado de dar sentido a se?ales que han viajado a trav¨¦s de capas de tejido y hueso, como si se tratara de seguir un partido de f¨²tbol desde el aparcamiento.
Wang ha progresado utilizando una t¨¦cnica de imagen avanzada, llamada magnetoencefalograf¨ªa (MEG), que registra en el exterior del cr¨¢neo los campos magn¨¦ticos generados por las corrientes el¨¦ctricas en el cerebro, y luego traduce esas se?ales en texto. Ahora intenta construir un aparato que reconozca los 44 fonemas de la lengua inglesa (como ph u oo) para construir s¨ªlabas, palabras y frases.
En ¨²ltima instancia, el mayor reto para restablecer el habla en pacientes encerrados puede tener m¨¢s que ver con la biolog¨ªa que con la tecnolog¨ªa. La forma en que se codifica el habla, sobre todo el habla interna, puede variar seg¨²n el individuo o la situaci¨®n. Una persona puede imaginarse garabateando una palabra en una hoja de papel y visualizarlo mentalmente; otra puede o¨ªr la palabra, aun sin que sea pronunciada, resonando en sus o¨ªdos; otra puede asociar una palabra con su significado, evocando un estado de ¨¢nimo concreto. Dado que cada persona puede asociar distintas ondas cerebrales a distintas palabras, habr¨¢ que adaptar las t¨¦cnicas a la naturaleza individual de cada persona. ¡°Creo que este enfoque m¨²ltiple de los distintos grupos es nuestra mejor manera de cubrir todas nuestras bases, y as¨ª tener planteamientos que funcionen en un mont¨®n de contextos distintos¡±, dice Bj?nes.
Art¨ªculo traducido por Debbie Ponchner.
Este art¨ªculo apareci¨® originalmente en Knowable en espa?ol, una publicaci¨®n sin ¨¢nimo de lucro dedicada a poner el conocimiento cient¨ªfico al alcance de todos.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.