Una decisi¨®n que ignora los principios ¨¦ticos en inteligencia artificial
Los autores opinan que la decisi¨®n del Gobierno de colaborar con un centro de investigaci¨®n de Emiratos ?rabes Unidos ignora los principios ¨¦ticos que pretende defender en la econom¨ªa y en la ciencia
El fil¨®sofo Adam Smith, considerado el padre de la econom¨ªa moderna, en La riqueza de las naciones (1776) trat¨® la econom¨ªa de forma sistem¨¢tica como un subcampo de la ¨¦tica. Obviamente, la econom¨ªa se halla estrechamente vinculada a ideas de justicia y equidad, a ideas pol¨ªticas, y con ello ¨¦ticas, de progreso o crecimiento. Esas ideas determinan los principios bajo los que la creaci¨®n de riquezas y recursos son permisibles. Y estos principios determinan que no todo vale con tal de que se produzca riqueza, independientemente del tipo de econom¨ªa que rija en un pa¨ªs.
La inteligencia artificial (IA) est¨¢ siendo aclamada como el futuro de la econom¨ªa y la ciencia. Considerada como uno de los campos tecnol¨®gicos con un gran potencial de innovaci¨®n, la IA es una disciplina combinable con muchos campos cient¨ªficos (biolog¨ªa, medicina, ciencias sociales, ling¨¹¨ªstica o cambio clim¨¢tico). De esos cruces disciplinarios han surgido numerosas aplicaciones en uso tanto en la administraci¨®n p¨²blica, como en el ¨¢mbito industrial: sistemas de automatizaci¨®n con el prop¨®sito de agilizar la administraci¨®n en la justicia, predicci¨®n de comportamientos tanto en el trabajo policial como en recursos humanos, o para evaluar la solvencia de una persona o su comportamiento al volante. Todos ejemplos en los que existe riesgos de menoscabo de principios democr¨¢ticos o derechos fundamentales.
El uso de la IA de manera indiscriminada para resolver cualquier problema ha convertido esta disciplina en un espacio en el que antiguas teor¨ªas pseudocient¨ªficas, racistas, sexistas y capacitistas, avaladas en su d¨ªa por pol¨ªticas del mismo talante, han reaparecido embebidas en sistemas con los que oprimir a gente pobre, personas negras y racializadas, discapacitadas, inmigrantes o mujeres. La IA encubre y oscurece esas teor¨ªas con una espesa capa de lenguaje matem¨¢tico que dificulta la comprensi¨®n del impacto de los sistemas creados. Ruha Benjamin, Virginia Eubanks o Safiya Noble han descrito v¨ªvidamente en sus obras c¨®mo estas tecnolog¨ªas han sido usadas para privilegiar de forma encubierta a unos pocos. Una nueva muestra de que no toda innovaci¨®n es ¨¦tica.
Es loable que el gobierno espa?ol reconociera en su d¨ªa dichos riesgos y para afrontarlos creara, en el a?o 2020, un consejo asesor para la IA cuyo objetivo era ¡°proporcionar asesoramiento y recomendaciones independientes sobre las medidas a adoptar para garantizar un uso seguro y ¨¦tico de la Inteligencia Artificial¡±, seg¨²n lee la web de La Moncloa. Y fue bien consecuente al situar su coordinaci¨®n en el Ministerio de Econom¨ªa. No obstante, tras la revisi¨®n de la Estrategia Nacional de IA (ENIA), el consejo asesor no ha sido consultado para analizar ¡°las implicaciones que estas tecnolog¨ªas disruptivas supondr¨¢n en ¨¢mbitos diversos¡± en la mayor¨ªa de los casos, incluyendo el acuerdo entre el ADIA Lab y la Sedia (Secretar¨ªa de Estado de Digitalizaci¨®n e Inteligencia Artificial) para instaurar su sede europea en Granada. Un acuerdo que causa gran preocupaci¨®n, pues contradice los principios de ¨¦tica y seguridad con los que el gobierno espa?ol se comprometi¨® a desarrollar nuevas tecnolog¨ªas.
El ADIA Lab es un centro cient¨ªfico financiado por la Autoridad de Inversiones de Abu Dabi (ADIA), el emirato m¨¢s rico de los Emiratos ?rabes Unidos, que comenz¨® a operar en diciembre de 2022. Considerando que ADIA, la entidad que financia ADIA Lab, dispone de activos de alrededor de 800.000 millones de d¨®lares, su inversi¨®n en Espa?a puede ser considerable.
En los EAU, la ciencia no es independiente del gobierno, seg¨²n documentan organizaciones como Human Rights Watch. El gobierno influye sobre las decisiones de personal y agenda de los centros de investigaci¨®n, incluyendo ADIA Lab. Por tanto, la Sedia ha acordado una agenda de investigaci¨®n centrada, entre otros, en el desarrollo de una modelizaci¨®n econ¨®mica del cambio clim¨¢tico y sus pol¨ªticas de mitigaci¨®n, as¨ª como el desarrollo de infraestructuras computacionales ¨¦ticas con un centro cient¨ªfico financiado por un gobierno que no reconoce la independencia de la ciencia, que pisotea los derechos humanos, en especial de mujeres, de las comunidades LGTBQI+ e inmigrantes, y cuya riqueza proviene principalmente del petr¨®leo.
Es decir, investigaciones sobre la transici¨®n clim¨¢tica ser¨¢n financiadas por entidades cuya riqueza proviene de combustibles f¨®siles y estudios sobre principios ¨¦ticos ser¨¢n financiados por un gobierno que cuestiona la dignidad y los derechos de determinadas personas. Los cient¨ªficos involucrados en el ADIA Lab, si bien reconocidos en sus campos de especializaci¨®n, no son expertos en ¨¦tica, ni en ecolog¨ªa o derecho. Sandy Pentland, por ejemplo, cofund¨® Aadhaar, que comercializa un controvertido sistema de identificaci¨®n de personas que facilita la vigilancia masiva en la India. En resumen, la credibilidad de los resultados de esta colaboraci¨®n podr¨ªa ser equiparable a la de informes sobre los efectos del tabaco en la salud que en su d¨ªa hicieron las compa?¨ªas tabacaleras.
La decisi¨®n de la Sedia ignora los principios ¨¦ticos en la econom¨ªa, en la ciencia en general y en la IA en concreto. El acuerdo con ADIA Lab reduce la ¨¦tica en la IA a consideraciones t¨¦cnicas simplistas e ignora que la ¨¦tica en la IA tambi¨¦n se extiende al contexto pol¨ªtico y las condiciones bajo las que se desarrollan y financian sus resultados.
Esta alianza no har¨¢ de Espa?a un pa¨ªs m¨¢s puntero en IA ni permite afirmar que ¡°impulsa el desarrollo de una IA ¨¦tica¡±, como asegur¨® la Secretaria de Estado, Carme Artigas, a la Cadena SER. Esta alianza solo pone a los EAU en el mapa de la competici¨®n europea y cuestiona la credibilidad con la que la SEDIA afirma querer impulsar el desarrollo ¨¦tico de la IA.
Por las razones anteriores, tres miembros del consejo asesor para la IA ya dimitieron la semana pasada. Dos de ellos [Ricardo Baeza-Yates y Lorena Jaume-Palas¨ª] son firmantes de la presente carta.
Ricardo Baeza-Yates es director de investigaci¨®n del Instituto de IA Experiencial de Northeastern University y miembro de varios comit¨¦s mundiales y estadounidenses de pol¨ªticas tecnol¨®gicas. Es ACM e IEEE Fellow, adem¨¢s de Premio Nacional de Inform¨¢tica Aplicada ¡°?ngela Ruiz Robles¡±. El viernes pasado renunci¨® al Consejo Asesor de IA del Gobierno.
Lorena Jaume-Palas¨ª es eticista y fundadora de varias ONGs sobre tecnolog¨ªa y ¨¦tica. Miembro del consejo asesor internacional del Panel para el Futuro de la Ciencia y la Tecnolog¨ªa (STOA) del Parlamento Europeo y del Instituto Max Planck para Sistemas Inteligentes. El jueves pasado renunci¨® al Consejo Asesor de IA del Gobierno.
Ramon L¨®pez de M¨¢ntaras es uno de los pioneros de la IA en Europa y Premio Nacional de Investigaci¨®n ¡°Julio Rey Pastor¡± en Matem¨¢ticas y TIC por sus contribuciones a la IA.
Carmela Troncoso es profesora adjunta y jefa del Laboratorio de Ingenier¨ªa de Seguridad y Privacidad (SPRING) de la Escuela de Ciencias de la Computaci¨®n y la Comunicaci¨®n (IC) de la EPFL, Suiza. Es Premio CNIL-INRIA a la Protecci¨®n de la Privacidad (2017).
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.