Armas aut¨®nomas y nucleares, robots e inteligencia artificial: c¨®mo regular tecnolog¨ªas de consecuencias imprevisibles para la humanidad
Ante el avance de la IA, expertos en derechos digitales reclaman comenzar a supervisar los algoritmos y mejorarlos de manera preventiva, para evitar que violen derechos humanos
No es la primera vez que la humanidad se enfrenta a un desarrollo tecnol¨®gico de consecuencias imprevisibles para su propia existencia. El escritor Isaac Asimov ya plante¨® en C¨ªrculo vicioso, un relato publicado en 1942, tres normas para proteger a las personas de los robots y su base se sigue usando como referente. El Organismo Internacional de Energ¨ªa At¨®mica se cre¨® en 1957 ¡°como respuesta a los profundos tem...
No es la primera vez que la humanidad se enfrenta a un desarrollo tecnol¨®gico de consecuencias imprevisibles para su propia existencia. El escritor Isaac Asimov ya plante¨® en C¨ªrculo vicioso, un relato publicado en 1942, tres normas para proteger a las personas de los robots y su base se sigue usando como referente. El Organismo Internacional de Energ¨ªa At¨®mica se cre¨® en 1957 ¡°como respuesta a los profundos temores y las expectativas que infund¨ªan los descubrimientos y variados usos de la tecnolog¨ªa nuclear¡±, seg¨²n la propia organizaci¨®n. El Derecho Internacional Humanitario (conocido como derecho de la guerra) lleva a?os buscando una regulaci¨®n efectiva de los Sistemas de Armas Aut¨®nomas Letales, que pueden atacar sin intervenci¨®n humana. Europa ha arrancado ahora la tramitaci¨®n de la primera normativa del mundo sobre la inteligencia artificial (IA), un desarrollo tecnol¨®gico capaz de acelerar avances en campos fundamentales como la salud o la energ¨ªa, pero tambi¨¦n de amenazar democracias, aumentar la discriminaci¨®n o romper todos los l¨ªmites de la privacidad. ¡°Sembrar p¨¢nico infundado no ayuda, al contrario. La inteligencia artificial va a seguir funcionando y debemos mejorarla y prevenir¡±, defiende Cecilia Danesi, divulgadora y abogada especializada en IA y derechos digitales, profesora en varias universidades internacionales y autora de El imperio de los algoritmos (reci¨¦n publicado por Galerna).
Lo primero que hay que comprender es qu¨¦ es un algoritmo, la base de la inteligencia artificial. Danesi, investigadora en el Instituto de Estudios Europeos y Derechos Humanos, lo describe en su obra, un compendio fundamental para entender el escenario al que se enfrenta la humanidad, como un ¡°conjunto met¨®dico de pasos que pueden emplearse para hacer c¨¢lculos, resolver problemas y alcanzar decisiones¡±. De esta forma, el algoritmo no es el c¨¢lculo, sino el m¨¦todo. Y este es el que puede incluir el modelo preciso para identificar un c¨¢ncer en im¨¢genes, descubrir una nueva mol¨¦cula con usos farmacol¨®gicos, hacer m¨¢s eficiente un proceso industrial, desarrollar un nuevo tratamiento o, por el contrario, generar discriminaci¨®n, una informaci¨®n falsa, una imagen humillante o una situaci¨®n injusta.
El director de OpenAI, Sam Altman, el premio Turing Geoff Hinton, el investigador de IA Yoshua Bengio y Elon Musk, entre otros, han reclamado la regulaci¨®n y acci¨®n urgente para abordar los ¡°riesgos existenciales¡± que la IA representa para la humanidad. Entre estos destacan el aumento y amplificaci¨®n de la desinformaci¨®n (como la preponderancia de contenidos falsos y maliciosos en plataformas sociales), los sesgos que refuerzan las desigualdades (como el sistema de cr¨¦dito social chino o la consideraci¨®n mec¨¢nica de personas como riesgos potenciales por su etnia) o la ruptura de todos los l¨ªmites de la privacidad para recabar los datos que alimentan el algoritmo y que permanecen ocultos.
La Uni¨®n Europea ha comenzado a negociar la que, de cumplirse los plazos, est¨¢ llamada a ser la primera ley de IA del mundo. Se podr¨ªa aprobar durante la presidencia espa?ola de la UE y tiene como objetivo prevenir los usos considerados como ¡°riesgos inaceptables¡± (reconocimiento facial indiscriminado o manipulaci¨®n del comportamiento de las personas), regular su uso en sectores como la salud y la educaci¨®n, as¨ª como sancionar e impedir la venta de sistemas que incumplan la legislaci¨®n.
La Unesco ha desarrollado un marco ¨¦tico voluntario, pero este mismo car¨¢cter es su principal debilidad. China y Rusia, dos pa¨ªses que utilizan esta tecnolog¨ªa para vigilancias masivas de la poblaci¨®n, han firmado estos principios.
¡°Hay derechos fundamentales involucrados y es un tema que nos tiene que ocupar y preocupar, s¨ª, pero con equilibrio¡±, defiende Danesi. Es un criterio similar al que expone Juhan Lepassaar, director ejecutivo de la Agencia Europea de Ciberseguridad (Enisa por sus siglas en ingl¨¦s): ¡°Si queremos asegurar los sistemas de IA y tambi¨¦n garantizar la privacidad, debemos analizar c¨®mo funcionan estos sistemas. ENISA est¨¢ estudiando la complejidad t¨¦cnica de la IA para mitigar mejor los riesgos de ciberseguridad. Tambi¨¦n necesitamos encontrar el equilibrio adecuado entre seguridad y rendimiento del sistema¡±.
Uno de los riesgos expuestos hasta ahora ha sido la sustituci¨®n de personas por m¨¢quinas operadas por la IA. En este sentido, la investigadora Cecilia Danesi afirma: ¡°Las m¨¢quinas nos van a reemplazar y ya lo est¨¢n haciendo. Hay much¨ªsimas que nos sustituyen, potencian el trabajo o nos complementan. El tema est¨¢ en qu¨¦ y d¨®nde queremos que nos reemplacen y qu¨¦ requisitos tienen que cumplir estas m¨¢quinas para tomar ciertas decisiones. Primero tenemos que identificar un problema o una necesidad que justifique utilizarla o no¡±.
En el campo de la rob¨®tica, Asimov ya se anticip¨® a este problema y estableci¨® tres principios: 1) Un robot no har¨¢ da?o a un ser humano ni permitir¨¢ que, por inacci¨®n, esta sufra da?o; 2) Un robot obedecer¨¢ las ¨®rdenes que reciba de un ser humano, a no ser que las ¨®rdenes entren en conflicto con la primera ley; y 3) Un robot proteger¨¢ su propia existencia en la medida en que dicha protecci¨®n no entre en conflicto con las leyes primera y segunda.
Supervisi¨®n permanente y preventiva
¡°Parece genial. Listo: la inteligencia artificial nunca pueda da?ar a un humano. Divino. El problema es que en la pr¨¢ctica no est¨¢ tan claro¡±, explica Danesi. La investigadora recuerda ¡°un caso en el que programaron dos m¨¢quinas para optimizar una negociaci¨®n y el sistema entendi¨® que la mejor manera era crear otro lenguaje m¨¢s eficiente. Quienes hab¨ªan dise?ado el programa no pod¨ªan entender ese lenguaje y las desconectaron. El sistema se manej¨® dentro de los par¨¢metros, pero la inteligencia artificial puede ir m¨¢s all¨¢ de lo que se imagina¡±. En este caso, la m¨¢quina no da?¨® a sus programadores, pero los excluy¨® de la soluci¨®n y de las consecuencias de esta.
La clave, para Danesi, es ¡°la supervisi¨®n permanente, las auditor¨ªas algor¨ªtmicas de estos sistemas que son de alto riesgo, que pueden afectar de manera considerable derechos humanos o cuestiones de seguridad. Tienen que ser evaluados y revisados para comprobar que no violan derechos, que no tienen sesgos. Y debe hacerse de forma continuada porque los sistemas, como siguen aprendiendo, pueden adquirir un sesgo. Y se debe actuar de forma preventiva para evitar da?os y generar sistemas que sean ¨¦ticos y respetuosos con los derechos humanos¡±.
Otro de los grandes peligros del uso sin control de la IA es su utilizaci¨®n con fines militares. La propuesta de normativa de la UE excluye este aspecto en su primera redacci¨®n. ¡°Es uno de los usos m¨¢s peligrosos que tienen la inteligencia artificial. Muchas veces las leyes proh¨ªben algo que, luego, en la pr¨¢ctica, sigue funcionando y es donde m¨¢s da?o puede hacer a las personas¡±, lamenta la investigadora.
¡°?Debemos temerles a las m¨¢quinas?, la respuesta es ?No! Debemos, en su caso, temerles a las personas por el uso que puedan llegar a darle a la tecnolog¨ªa¡±, defiende Danesi en su obra El imperio de los algoritmos.
Respeto a los datos de los ciudadanos
En t¨¦rminos parecidos se pronuncia Manuel R. Torres, catedr¨¢tico de Ciencia Pol¨ªtica de la Universidad Pablo de Olavide y miembro del consejo asesor del Real Instituto Elcano. ¡°El problema es la proliferaci¨®n de una tecnolog¨ªa que hay que evitar que llegue a la mano incorrecta. No es simplemente un conocimiento que se ha liberado al mundo y que cualquiera puede hacer uso¡±.
Torres a?ade un problema al escenario tecnol¨®gico y a la propuesta de normativa europea, que defiende como potencia reguladora: ¡°El conflicto est¨¢ en c¨®mo se desarrolla esa tecnolog¨ªa en otros ¨¢mbitos que no tienen ning¨²n tipo de escr¨²pulo ni limitaci¨®n en cuanto al respeto de la privacidad de los ciudadanos que alimentan todo eso con sus datos¡±.
El polit¨®logo pone como ejemplo el caso de China: ¡°No solo est¨¢ dentro de esa carrera de tecnol¨®gica, sino que no tiene ning¨²n tipo de problema en utilizar de manera masiva los datos que dejen sus propios ciudadanos para alimentar y perfeccionar esos sistemas. Por muy escrupulosos que queramos ser con los l¨ªmites que ponemos a nuestros desarrolladores locales, al final, si esto no se produce de manera global, tambi¨¦n es peligroso¡±.
Torres concluye: ¡°Nos encontramos en un territorio donde hay pocos referentes en los que nos podemos apoyar para saber c¨®mo tenemos que abordar el problema y donde, adem¨¢s, hay un problema de entendimiento de las repercusiones de esa tecnolog¨ªa. Muchos de nuestros legisladores no son precisamente personas familiarizadas con estos desarrollos¡±.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.