Las principales empresas de inteligencia artificial aceptan la ley europea, pero reclaman que su aplicaci¨®n no suponga un freno
Los grandes desarrolladores de IA admiten la necesidad de establecer garant¨ªas sociales y crean f¨®rmulas para el cumplimiento y seguimiento de la ley. Los ciberactivistas se muestra defraudados
Las grandes empresas de inteligencia artificial aceptan la regulaci¨®n europea aprobada al filo de la medianoche de este pasado viernes, pero reclaman que no suponga un freno a su desarrollo. Como afirma Pilar Manch¨®n, consejera del comit¨¦ de asesoramiento del Gobierno espa?ol y responsable de estrategia de investigaci¨®n con inteligencia artificial en Google, ¡°la IA es demasiado importante para no regularla¡±. Las principales compa?¨ªas responsables de estos desarrollos han venido trabajando en paralelo a la negociaci¨®n de la norma para asegurarse una evoluci¨®n ¨¦tica de estas herramientas, por lo que la norma coincide con sus expectativas generales siempre que, seg¨²n advierte Christina Montgomery, vicepresidenta y directora de Privacidad y Confianza de IBM, ¡°proporcione barreras de protecci¨®n para la sociedad al tiempo que promueve la innovaci¨®n¡±.
Hasta ahora, la tendencia de las tecnol¨®gicas era dejar en manos de la autorregulaci¨®n los l¨ªmites de sus desarrollos. Todas tienen unos principios ¨¦ticos, que Manch¨®n resume as¨ª: ¡°Haz cosas buenas y aseg¨²rate de que va a tener un impacto positivo en la comunidad, en la sociedad, en la comunidad cient¨ªfica. Y, si potencialmente pudiera hacer algo que no es para lo que lo usaste o para lo que lo dise?as, asegur¨¦monos de tomar todas las precauciones necesarias y mitigar los riesgos. As¨ª que: haz solo el bien, innova, s¨¦ audaz, pero s¨¦ responsable¡±.
Sin embargo, esta f¨®rmula se ha mostrado absolutamente insuficiente en aspectos como las redes sociales. Seg¨²n Global Witness, una ONG de investigaci¨®n y vigilancia del respeto a los derechos humanos con 30 a?os de trayectoria, ¡°estas empresas prefieren proteger su modelo de negocio lucrativo a la moderaci¨®n adecuada del contenido y a proteger a los usuarios¡±.
Para prevenir estas disfunciones con la inteligencia artificial, algunas de las principales empresas e instituciones dan la bienvenida a las normas y proponen f¨®rmulas propias que garanticen el seguimiento de los principios que incluye.
En este sentido, medio centenar de empresas, entre las que se encuentran IBM, Meta, AMD, Intel o Dell; universidades, como Imperial College de Londres, Cornelll, Boston, Yale y Harvard; y entidades como la NASA o la NSF, han formado la Alianza para la Inteligencia Artificial (AI Alliance) para el desarrollo de una IA conforme a las normas: abierta, segura y responsable.
¡°Una mayor colaboraci¨®n e intercambio de informaci¨®n ayudar¨¢ a la comunidad a innovar de manera m¨¢s r¨¢pida e inclusiva, identificando riesgos espec¨ªficos y mitig¨¢ndolos antes de lanzar un producto al mundo¡±, afirman los firmantes. Para ello, sus grupos de trabajo establecer¨¢n sus propias normas y se ¡°asociar¨¢n¡± con las iniciativas de los gobiernos y de otras organizaciones. ¡°Este es un momento crucial para definir el futuro de la IA¡±, advierte Arvind Krishna, presidente de IBM. ¡°Podemos ayudar a garantizar que los beneficios transformadores de la IA responsable est¨¦n ampliamente disponibles¡±, a?ade Lisa Su, directora general y presidenta de AMD.
Podemos ayudar a garantizar que los beneficios transformadores de la IA responsable est¨¦n ampliamente disponiblesLisa Su, directora general y presidenta de AMD
De esta forma, los integrantes de la alianza, en la que no figuran por ahora OpenAI, la desarrolladora de ChapGPT, ni Google, que acaba de presentar Gemini (un modelo con capacidades que superan a las de las personas), abogan por la colaboraci¨®n, entre empresas y con los gobiernos, para seguir una senda com¨²n. Como explica Tom Mihaljevic, presidente de Cleveland Clinic, una de las instituciones m¨¦dicas m¨¢s avanzadas en el uso de nuevas tecnolog¨ªas, ¡°las capacidades de IA ahora est¨¢n en constante crecimiento y mejora y es fundamental que las organizaciones de diversos campos se unan para ayudar a avanzar y, al mismo tiempo, abordar las preocupaciones en torno a la seguridad y la protecci¨®n¡±.
Tambi¨¦n lo defiende Bob Shorten, director de la Escuela de Ingenier¨ªa Dyson del Imperial College de Londres: ¡°Creemos que la participaci¨®n de la comunidad es esencial para que la IA sea confiable, responsable, transparente y auditable¡±, los principios que defiende la norma europea.
Esta comunidad incluye a los gobiernos, industrias, instituciones acad¨¦micas e investigadores alineados en un desarrollo ¨¦tico. Pero, como explica, Manuel R. Torres, catedr¨¢tico de Ciencia Pol¨ªtica de la Universidad Pablo de Olavide y miembro del consejo asesor del Real Instituto Elcano. ¡°El problema es la proliferaci¨®n de una tecnolog¨ªa que hay que evitar que llegue a la mano incorrecta¡±.
Torres alaba el papel europeo como ¡°potencia reguladora¡±, pero advierte: ¡°El conflicto est¨¢ en c¨®mo se desarrolla esa tecnolog¨ªa en otros ¨¢mbitos que no tienen ning¨²n tipo de escr¨²pulo ni limitaci¨®n en cuanto al respeto de la privacidad de los ciudadanos cuyos datos alimentan todo eso¡±.
Pone como ejemplo el caso de China: ¡°No solo est¨¢ dentro de esa carrera de tecnol¨®gica, sino que no tiene ning¨²n tipo de problema en utilizar de manera masiva los datos que dejen sus propios ciudadanos para alimentar y perfeccionar esos sistemas. Por muy escrupulosos que queramos ser con los l¨ªmites que ponemos a nuestros desarrolladores locales, al final, si esto no se produce de manera global, tambi¨¦n es peligroso¡±.
Wu Zhaohui, viceministro de Ciencia y Tecnolog¨ªa de China, dijo el pasado noviembre, sobre la cumbre de seguridad de inteligencia artificial celebrada en el Reino Unido, que su Gobierno est¨¢ ¡°dispuesto a aumentar la colaboraci¨®n para ayudar a construir un marco de gobernanza internacional¡±.
Pero la legislaci¨®n, por s¨ª sola, es insuficiente. A partir de la aprobaci¨®n de la norma europea, la clave ser¨¢ ¡°la supervisi¨®n permanente¡±, a?ade Cecilia Danesi, abogada especializada en IA y derechos digitales, profesora la Universidad Pontificia de Salamanca y otras universidades internacionales, divulgadora y autora de El imperio de los algoritmos (Galerna, 2023).
Para Danesi, integrante tambi¨¦n del grupo Mujeres por la ?tica de la Inteligencia Artificial (Women4Ethical AI) de la Unesco, es necesario el seguimiento: ¡°Estos sistemas que son de alto riesgo, que pueden afectar de manera considerable derechos humanos o cuestiones de seguridad. Tienen que ser evaluados y revisados para comprobar que no violan derechos, que no tienen sesgos. Y debe hacerse de forma continuada porque los sistemas, como siguen aprendiendo, pueden adquirir un sesgo. Y actuar de forma preventiva para evitar da?os y generar sistemas que sean ¨¦ticos y respetuosos con los derechos humanos¡±.
En contra de la regulaci¨®n del sector en Europa se mostraron 150 directivos de empresas continentales, como Airbus, Ubisoft, Renault, Heineken, Dassault, TomTom, Peugeot y Carrefour. Sus responsables firmaron en junio una carta abierta contra la regulaci¨®n en la UE al considerar que la norma afectar¨¢ a ¡°la competitividad y la soberan¨ªa tecnol¨®gica de Europa sin abordar de manera efectiva los desaf¨ªos que enfrentamos y enfrentaremos¡±.
Ciberativismo
Las ONG y expertos dedicados al ciberactivismo se han mostrado sorprendidos y defraudados con la ley aprobada ayer. Ella Jakubowska, analista especializada en tecnolog¨ªas de identificaci¨®n biom¨¦tricas de la ONG europea en defensa de los derechos digitales EDRi, asegura: ¡°A pesar de muchas promesas, la ley parece destinada a hacer exactamente lo contrario de lo que quer¨ªamos. Allanar¨¢ el camino para que los 27 Estados miembros de la UE legalicen el reconocimiento facial p¨²blico en vivo. Esto sentar¨¢ un precedente peligroso en todo el mundo, legitimar¨¢ estas tecnolog¨ªas de vigilancia masiva profundamente intrusivas e implicar¨¢ que se pueden hacer excepciones a nuestros derechos humanos¡±.
Carmela Troncoso, ingeniera de telecomunicaciones especialista en privacidad en la Escuela Polit¨¦cnica Federal de Lausana (Suiza), asegura: ¡°Hay muchas prohibiciones muy prometedoras, pero tambi¨¦n muchos agujeros y excepciones que no dejan claro que las prohibiciones de verdad vayan a proteger los derechos humanos como esperamos, por ejemplo, que las fuerzas del orden vayan a usar reconocimiento facial en tiempo real para buscar sospechosos. Tambi¨¦n es triste que Espa?a haya estado detr¨¢s de algunas de las propuestas m¨¢s preocupantes de esta ley¡±, a?ade Troncoso, creadora de la tecnolog¨ªa que hizo posible las apps de rastreamiento de la covid, informa Manuel Gonz¨¢lez Pascual.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.