El gran bot¨®n rojo que puede parar la inteligencia artificial
Deep Mind, una start-up de Google, ha desarrollado un mecanismo que puede interrumpir toda la inteligencia de sus sistemas en caso de emergencia
Llegar¨¢ un momento en el que las m¨¢quinas superar¨¢n la inteligencia de los humanos y estos deber¨¢n contar con un sistema de prevenci¨®n para poder interrumpirlas. No es otro gui¨®n de pel¨ªcula de ciencia ficci¨®n, sino la hip¨®tesis de la que parte un estudio realizado por Deep Mind, la empresa de Google especializada en inteligencia artificial, y el Instituto para el Futuro de la Humanidad (FHI, por sus siglas en ingl¨¦s) de la Universidad de Oxford. Ambas empresas han desarrollado de forma conjunta un ¡°gran bot¨®n rojo¡± de emergencia para evitar que las m¨¢quinas realicen una ¡°secuencia de acciones da?inas¡± para el entorno, el operador humano o para ellas mismas y poder ¡°guiarlas a una situaci¨®n segura¡±.
Los desarrolladores se han?asegurado de que las m¨¢quinas no puedan aprender a prevenir, impedir o provocar estas interrupciones
¡°Es improbable que los agentes de aprendizaje que interaccionan con un ambiente tan complejo como el mundo real se comporten de manera ¨®ptima todo el tiempo¡±, reconocen los autores del estudio Agentes que se pueden interrumpir de manera segura. Los investigadores sostienen que han creado un ¡°marco de trabajo que permite al operador humano interrumpir de forma segura (e incluso de forma repetida)¡± determinados tipos de inteligencia artificial. Adem¨¢s, se han asegurado de que las m¨¢quinas no puedan aprender a prevenir, impedir o provocar estas interrupciones.?
¡°Esta forma de interrupci¨®n segura puede ser muy ¨²til para tomar el control de un robot que se est¨¢ comportando mal y que puede llevar a consecuencias irreversibles; tambi¨¦n para que supere una situaci¨®n delicada o realice una tarea para la que no hab¨ªa aprendido a comportarse¡±, reflexionan los autores del estudio. "Pero no est¨¢ claro si todos los algoritmos pueden ser f¨¢cilmente interrumpibles", admiten.
"Este tipo de medidas sirven para ayudar a que la gente acepte a la inteligencia artificial porque tenga claro que siempre va a estar controlada
La investigaci¨®n hace referencia a un tipo muy espec¨ªfico de inteligencia artificial conocida como de aprendizaje reforzado, que combina variables para determinar de forma autom¨¢tica ¡ªsin necesidad de un ajuste espec¨ªfico¡ª su comportamiento "ideal". "Es un tipo de inteligencia artificial que ha despegado muy fuerte, porque es m¨¢s sencillo desarrollarla. Lo que hace el robot es maximizar una especie de funci¨®n matem¨¢tica, pero no entiende los conceptos sobre los que trabaja. Como solo entiende f¨®rmulas puede ser posible que exista el problema potencial de que decida ignorar o da?ar a los humanos que la han programado, pero es algo improbable", explica Juan Antonio Recio,?director del departamento de Ingenier¨ªa de Software e Inteligencia Artificial de la Universidad Complutense de Madrid.?
Sin embargo, Recio sostiene que este problema no ocurrir¨ªa con otro tipo de inteligencias que en vez de entender formulas, comprendieran conceptos como humano, como es la inteligencia simb¨®lica. "De cualquier forma, este tipo de medidas sirven para tranquilizar a la sociedad, para ayudar a que la gente acepte a esa inteligencia artificial porque tenga claro que siempre va a estar controlada, que nunca se va a ir de las manos", considera este experto.?
Desarrollo de una 'superinteligencia'
Este tipo de reflexiones no son nuevas en el sector de inteligencia artificial. El director del Instituto para el Futuro de la Humanidad, Nick Bostrom, ya describ¨ªa como escenario posible en su libro Superinteligencia: caminos, peligros, estrategias c¨®mo las m¨¢quinas iban a superar a sus programadores, iban a ser tan inteligentes y capaces de mejorarse a s¨ª mismas e iban a tomar el planeta. "Debemos saber c¨®mo controlarlas. Si tienes un agente artificial con objetivos distintos de los tuyos, cuando se vuelve lo suficientemente inteligente, es capaz de anticipar tus acciones y de hacer planes teniendo en cuenta los tuyos, lo cual podr¨ªa incluir esconder sus propias capacidades de modo estrat¨¦gico", sosten¨ªa en una entrevista con este diario.
¡°Algunas personas han expresado sus preocupaciones sobre un agente superinteligente que se resista a ser apagado¡±, dec¨ªan los autores en su estudio, aunque sin atreverse?a especificar cuando podr¨ªa ocurrir algo as¨ª. Otros expertos en inteligencia artificial que Bostrom cita en su libro afirman que hay un 90% de posibilidades de que entre 2075 y 2090 haya m¨¢quinas tan inteligentes como los humanos.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.