?Qui¨¦n tiene la culpa si un brazo rob¨®tico te rompe la mano?
Cient¨ªficos revisan los dilemas ¨¦ticos y los riesgos de neuropr¨®tesis e interfaces cerebro m¨¢quina
A¨²n no est¨¢n en las tiendas pero, como los coches aut¨®nomos o la inteligencia artificial, las neuropr¨®tesis y otros dispositivos controlados por el cerebro prometen mejorar la vida de las personas. Sin embargo, igual que los veh¨ªculos y los robots, estas interfaces cerebro-m¨¢quina suscitan algunos dilemas morales y nuevos peligros. ?Qui¨¦n es el responsable si un brazo rob¨®tico destroza la mano que aprieta? ?C¨®mo asegurar que nadie hackea el cerebro de una persona conectado a una m¨¢quina?
Un grupo de neurocient¨ªficos, neuroingenieros y hasta fil¨®sofos han querido responder a estas y otras preguntas en un art¨ªculo publicado en la revista Science. Las promesas que ofrecen las interfaces cerebro-m¨¢quina (BMI, por sus siglas en ingl¨¦s), en especial a personas con discapacidad f¨ªsica o par¨¢lisis, son tantas que pueden oscurecer sus peligros. La reflexi¨®n de los cient¨ªficos destaca tres de ellos: Uno es el de la responsabilidad de las acciones de una neuropr¨®tesis, ?qui¨¦n se hace cargo de las consecuencias? Otro riesgo es la amenaza a la privacidad de la persona, que expone lo m¨¢s ¨ªntimo que tiene, sus pensamientos. Un tercero dibuja una distop¨ªa en la que, usando la conexi¨®n a la m¨¢quina, alguien se adue?a del cerebro de otro.
"Aunque a¨²n no entendemos bien como funciona el cerebro, nos estamos acercando al momento en que descifraremos fielmente determinadas se?ales cerebrales", dice en una nota el director del Centro Wyss para la Bio y Neuroingenier¨ªa (Wyss Center, Suiza) y coautor del art¨ªculo, John Donoghue. "No deber¨ªamos confiarnos sobre lo que esto puede significar para la sociedad. Deber¨ªamos considerar con mucho cuidado las consecuencias de convivir con m¨¢quinas semiinteligentes controladas por el cerebro y deber¨ªamos preparar mecanismos para asegurarnos de que se usan de forma segura y ¨¦tica", a?ade.
La determinaci¨®n de la responsabilidad ya est¨¢ creando problemas a robots no aut¨®nomos como el robot quir¨²rgico Da Vinci
En los ¨²ltimos a?os, se han sucedido una serie de demandas en EE UU contra Intuitive Surgical, el fabricante del robot quir¨²rgico Da Vinci, por errores en sus operaciones. Aunque Da Vinci no es aut¨®nomo, funcionando como una prolongaci¨®n rob¨®tica del cirujano, ilustra el complejo problema de la responsabilidad. Y es que no siempre es f¨¢cil determinar si un acto perjudicial es fruto de un error, una imprudencia o es intencionado. El ejemplo de un conductor al que le fallan los frenos puede ilustrar el problema.
"El conductor y su cerebro son uno y, como todas las conductas se originan en el cerebro, la responsabilidad legal del conductor y el cerebro es id¨¦ntica", recuerda en un correo el neurocient¨ªfico del Centro Wyss y coautor del estudio, Niels Birbaumer. "Sin embargo, el problema se complica cuando el BMI est¨¢ usando se?ales cerebrales sobre las que el conductor no tiene un control consciente. Aqu¨ª tenemos un interruptor consciente que puede detener una acci¨®n causada por un proceso inconsciente del conductor", a?ade este profesor que lleva a?os investigando con BMI y recientemente logr¨® que cuatro personas con el s¨ªndrome de cautiverio total se comunicaran con el exterior.
Para afrontar estos problemas, los autores del art¨ªculo proponen que las interfaces cerebro-m¨¢quina cuenten con un sistema de veto por el que, llegado el caso, se pudiera revertir una instrucci¨®n dada a la m¨¢quina en milisegundos.
La conexi¨®n del cerebro a una m¨¢quina podr¨ªa suponer un riesgo para la privacidad del conectado
Hay otros que no lo ven tan complicado. Es el caso del investigador de la Universidad Tecnol¨®gica Chalmers (Suecia). Max Ortiz Catal¨¢n: "En cuestiones de responsabilidad, en verdad no hay mucha diferencia entre estas nuevas tecnolog¨ªas y manejar un auto. Una pr¨®tesis de mano te puede causar bastante da?o durante un saludo si el paciente decide cerrarla con toda su fuerza, al igual que si un automovilista decide atropellarte".
Este mexicano, mitad ingeniero, mitad?neurocient¨ªfico, implant¨® un brazo rob¨®tico a Magnus, un camionero que lo hab¨ªa perdido en un accidente a?os atr¨¢s y que, desde 2013, puede coger un taladro, trabajar o jugar con sus hijos.? "La responsabilidad esta dividida entre los creadores de la tecnolog¨ªa y los usuarios y, as¨ª como hay leyes que intentan mitigar los posibles da?os de una tecnolog¨ªa, por ejemplo no usar tu tel¨¦fono celular y conducir, todas las tecnolog¨ªas neurales tienen advertencias e indicaciones de uso, adem¨¢s de toda las medidas internas de seguridad", explica Ortiz Catal¨¢n.
Una forma para rastrear la responsabilidad ya la ofrece la propia tecnolog¨ªa. La mayor¨ªa de estos sistemas registran toda la actividad que va desde la m¨¢quina hasta el cerebro y en sentido contrario, funcionando como c¨¢maras de vigilancia. Pero esto mismo plantea un nuevo peligro: la amenaza a la privacidad. Hasta ahora, salvo casos como el del camionero Magnus, los estudios con BMI se han quedado en los laboratorios. Las se?ales emitidas por el cerebro de una persona con tetraplejia, ELA o el s¨ªndrome del cautiverio se quedan en la m¨¢quina y solo los investigadores pueden leerlas. Pero, ?qu¨¦ pasar¨ªa si una compa?¨ªa empezara a comercializar estos sistemas?
El peligro m¨¢s lejano pero desasogante es el de 'hackear' y manipular la mente
Aqu¨ª, Ortiz Catal¨¢n, que no ha intervenido en este trabajo, insiste en que no hay tanta diferencia entre estas tecnolog¨ªas cerebrales y otras que nos son mucho m¨¢s cercanas. "Nuestros tel¨¦fonos graban mucha informaci¨®n sobre nosotros. Google sabe todo lo que te interesa, hasta lo que te apenar¨ªa que otros supieran, incluso cosas que potencialmente te da?ar¨ªan si las supiera la persona equivocada. Vivimos en una era en la estamos aprendiendo como manejar la privacidad". comenta.
Pero el riesgo que m¨¢s desasosiego provoca quiz¨¢ sea la posibilidad de que alguien con malas intenciones pueda hackear el cerebro de la persona conectada a una m¨¢quina. La que convierte los pensamientos de Stephen Hawking en palabras no est¨¢ conectada a su cerebro, aprovecha a¨²n que controla los m¨²sculos de su mejilla. Pero, en el futuro, puede que solo le quede el movimiento ocular o la lectura directa de su cerebro. Aqu¨ª es donde aparecer¨ªa el peligro.
"Hay varias l¨ªneas de investigaci¨®n para lograr la estimulaci¨®n cerebral no invasiva", recuerda el neurocient¨ªfico de la Universidad de Oxford, Laurie Pycroft. El mes pasado, por ejemplo, se daba a conocer una nueva t¨¦cnica para activar ¨¢reas profundas del cerebro sin tener que abrir el cr¨¢neo. A medida que estos trabajos pioneros vayan avanzando, la cuesti¨®n de la seguridad ir¨¢ en aumento. Para Pycroft, que el a?o pasado introdujo el t¨¦rmino de brainjacking para describir los peligros que traer¨¢n los interfaces cerebro m¨¢quina, "casi cualquier dispositivo electr¨®nico corre el riesgo de ser subvertido maliciosamente y los dispositivos m¨¢s complejos tienden a estar en mayor riesgo. Los neuroestimuladores futuros, invasivos o no, probablemente sean m¨¢s complejos que los modelos actuales, por lo que es probable que el riesgo aumente con el tiempo".
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.