La ley de inteligencia artificial abre una brecha entre las grandes empresas preparadas y las que recurren a c¨®digo abierto
Las compa?¨ªas sin plataformas ¨¦ticas tendr¨¢n que demostrar que sus desarrollos se ajustan a la norma en un entorno de pruebas
La inteligencia artificial (IA) deja de ser un territorio sin ley. La aprobaci¨®n de la norma europea (AI Act) se aplicar¨¢ gradualmente en los pr¨®ximos dos a?os a todo sistema que se utilice en la UE o afecte a sus ciudadanos y ser¨¢ de obligado cumplimiento para proveedores, implementadores o importadores. En este sentido, la ley abre una brecha entre las grandes empresas, que ya han previsto las limitaciones a sus desarrollos, y las entidades menores que quieran desplegar modelos propios a partir de las crecientes aplicaciones de c¨®digo abierto (open source). Estas ¨²ltimas, si no tienen capacidad de examinar sus sistemas, dispondr¨¢n de entornos de pruebas reglamentarios (sandboxes) para desarrollar y entrenar la IA innovadora antes de su introducci¨®n en el mercado. Pero su disponibilidad abre interrogantes sobre la capacidad de controlar sus usos, extendidos en la creaci¨®n de pornograf¨ªa no consentida y en campa?as de fraude.
¡°Nos aseguramos de que la tecnolog¨ªa de IA que creamos se hace de forma responsable y ¨¦tica desde el principio. IBM ha estado trabajando con organismos gubernamentales de todo el mundo para fomentar regulaciones inteligentes y efectivas, as¨ª como para proporcionar barreras de seguridad para la sociedad¡±, asegura Christina Montgomery, vicepresidenta y directora de Privacidad y Confianza en la multinacional.
Pilar Manch¨®n, directora de estrategia de investigaci¨®n en IA de Google y consejera del comit¨¦ de asesoramiento del Gobierno espa?ol, coincide con esta apreciaci¨®n durante un encuentro en la Universidad de Sevilla. ¡°Necesitamos regulaci¨®n porque la IA es demasiado importante para no tenerla. Hay que desarrollar la inteligencia artificial, pero hay que hacerlo bien¡±. La investigadora sintetiza las premisas incluidas en el AI Principles: ¡°Es muy f¨¢cil de resumir: no hagas cosas malas, haz cosas buenas, y si vas a hacer algo, aseg¨²rate de que va a tener un impacto positivo en la comunidad, en la sociedad, en la comunidad cient¨ªfica. Y, si potencialmente puede hacer algo que no es para lo que lo usaste o para lo que lo dise?aste, aseg¨²rate de tomar todas las precauciones necesarias y mitigar los riesgos. Haz el bien, innova, s¨¦ audaz, pero de forma responsable¡±.
La integrante de Google afirma que en esta visi¨®n coinciden otras multinacionales. En este sentido, el presidente de Microsoft, Brad Smith, afirmaba en una reciente entrevista en EL PA?S: ¡°Necesitamos un nivel de regulaci¨®n que garantice la seguridad¡±. Brad defiende que la ley europea lo hace al ¡°examinar los est¨¢ndares de seguridad e imponer una base para estos modelos¡±.
Del mismo modo piensa Jean-Marc Leclerc, jefe de Gobierno y Asuntos Reguladores de la UE para IBM, quien avala la ley europea, pide que se extienda y destaca el establecimiento de entidades oficiales que velen por la implementaci¨®n ¨¦tica de los sistemas, como prev¨¦ la regulaci¨®n. Pero advierte: ¡°Muchas de las organizaciones que pueden estar en el ¨¢mbito de aplicaci¨®n de la ley de IA no han establecido la gobernanza en sus infraestructuras para respaldar el cumplimiento de la norma en sus procesos¡±.
La cautela de IBM responde a la proliferaci¨®n de herramientas de c¨®digo abierto, m¨¢s baratas cuando no gratuitas y tambi¨¦n eficaces. Pese a sus limitaciones para ser entrenadas, empiezan a acercarse a los desarrollos de las grandes compa?¨ªas y se ofrecen libremente. El pasado mayo, un escrito de un ingeniero de Google que esta compa?¨ªa no considera oficial sino la opini¨®n particular del investigador, advert¨ªa de que la IA estaba escapando del control de las grandes empresas.
La empresa emergente Hugging Face lanz¨® hace un a?o una alternativa a ChatGPT, la popular aplicaci¨®n conversacional de OpenAI, con c¨®digo abierto. ¡°Nunca abandonaremos la lucha por la IA de c¨®digo abierto¡±, tuite¨® Julien Chaumond, cofundador de esta empresa. Al mismo tiempo, Stability AI lanzaba su propio modelo e incluso la Universidad de Stanford se sumaba con su sistema Alpaca.
¡°Es un esfuerzo de la comunidad global para llevar el poder de la inteligencia artificial conversacional a todos, para sacarlo de las manos de unas pocas grandes corporaciones¡±, dice el investigador de IA y youtuber Yannic Kilcher en un video de presentaci¨®n de Open Assistant, una de estas plataformas.
Joelle Pineau, directiva de Meta AI y profesora en la Universidad McGill, defiende al MIT Review, los sistemas de c¨®digo abierto: ¡°Es en gran medida un enfoque de libre mercado, del tipo mu¨¦vete r¨¢pido, construye cosas. Realmente diversifica el n¨²mero de personas que pueden contribuir al desarrollo de la tecnolog¨ªa y eso significa que no solo los investigadores o empresarios pueden acceder a estos modelos¡±.
Pero la propia Pineau admite los riesgos de que estos sistemas, si escapan de los criterios ¨¦ticos y normativos que establece la ley, favorezcan la desinformaci¨®n, los prejuicios y los discursos de odio o sirvan para fabricar programas maliciosos. ¡°Hay que hacer un equilibrio entre la transparencia y la seguridad¡±, reflexiona Pineau.
¡°No soy una evangelista del c¨®digo abierto¡±, dice a la misma publicaci¨®n Margaret Mitchell, cient¨ªfica de ¨¦tica de Hugging Face. ¡°Veo razones por las que estar cerrado tiene mucho sentido¡±. Mitchell se?ala la pornograf¨ªa no consentida (¡°Es uno de los principales usos de la IA para crear im¨¢genes¡±, admite) como un ejemplo de la desventaja de hacer que los poderosos modelos sean ampliamente accesibles.
En cuanto a la utilizaci¨®n de estos sistemas por parte de ciberatacantes, Bobby Ford, jefe de seguridad de Hewlett Packard Enterprise, advierte durante el encuentro CPX celebrado en Viena: ¡°Mi mayor preocupaci¨®n en lo que se refiere a la IA generativa es que la adopci¨®n de la tecnolog¨ªa por parte del enemigo se produzca a un ritmo m¨¢s r¨¢pido que el nuestro. El adversario tiene mucho tiempo para aprovechar la inteligencia artificial. Si no lo hacemos igual para defendernos de sus ataques, la guerra es asim¨¦trica. Cualquiera con acceso a internet y un teclado puede ser un hacker [pirata inform¨¢tico]¡±.
Maya Horowitz, vicepresidenta de investigaci¨®n de la empresa de ciberseguridad Check Point, es m¨¢s optimista: ¡°Los defensores est¨¢n usando mejor la inteligencia artificial que los actores de amenazas. Tenemos docenas de motores de seguridad fundamentados en IA mientras los atacantes todav¨ªa est¨¢n experimentando, tratando de entender c¨®mo pueden usarlo. Hay algunas cosas. La m¨¢s popular es redactar correos electr¨®nicos de phishing [enga?o mediante suplantaci¨®n]. Tambi¨¦n experimentan con llamadas de voz falsas. Pero a¨²n no est¨¢n creando c¨®digos maliciosos con esta tecnolog¨ªa. A¨²n no se le puede pedir a la IA que escriba un c¨®digo para simplemente usarlo. Tiene que haber un codificador que sepa lo que hace. Creo que nuestro bando est¨¢ ganando esta vez¡±.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.