Las grandes compa?¨ªas buscan c¨®mo asegurar un desarrollo ¨¦tico y legal de la inteligencia artificial
La norma europea empuja a las empresas a desarrollar f¨®rmulas que garanticen la privacidad, la transparencia y la falta de sesgos en sus aplicaciones
Europa ha dado un paso adelante con la aprobaci¨®n de la primera normativa del mundo para regular la inteligencia artificial. Esta categoriza las aplicaciones de la herramienta en funci¨®n de sus riesgos y prev¨¦ duras sanciones para los infractores, que pueden llegar a los 35 millones de euros o 7% del volumen de negocio o, en el menor de los casos, 7,5 millones o 1,5% del mismo. La UE establece un periodo de transici¨®n antes de su aplicaci¨®n definitiva en 2026, un tiempo que las empresas tendr¨¢n que utilizar para asegurar que sus desarrollos cumplen la ley. Gigantes como IBM, Intel o Google, favorables a la regulaci¨®n, han desarrollado plataformas y sistemas para garantizar que, ya que es imparable, la inteligencia artificial se desarrolle con criterios ¨¦ticos, transparentes y libre de sesgos. De esta forma, las compa?¨ªas ofrecen f¨®rmulas para cumplir con la primera ley de inteligencia artificial, la europea AI act.
La consultora tecnol¨®gica Entelgy se?ala tres claves que las empresas deben tener en cuenta: aquellas que gestionen datos personales, m¨¦dicos, de reclutamiento o para toma de decisiones, deber¨¢n revelar c¨®mo funciona el algoritmo y el contenido que genera en un registro europeo; a pesar de no ser obligatorio, se recomienda establecer mecanismos de supervisi¨®n humana; y los modelos de lenguaje de gran tama?o (LLM) deber¨¢n introducir sistemas de seguridad y los desarrolladores tendr¨¢n la obligaci¨®n de ser transparentes sobre el material protegido por derechos de autor que utilizan.
¡°Debemos asegurarnos de que la tecnolog¨ªa que desarrollamos se cree de manera responsable y ¨¦tica desde el principio. Es una gran oportunidad, pero tambi¨¦n plantea desaf¨ªos¡±, advierte Christina Montgomery, vicepresidenta y directora de Privacidad y Confianza de IBM. Al contrario que otras compa?¨ªas partidarias del libre desarrollo (150 directivos de empresas europeas se han posicionado en contra de la norma), IBM apuesta ¡°una regulaci¨®n inteligente que proporcione barreras de protecci¨®n para la sociedad, al tiempo que promueve la innovaci¨®n¡±. Intel, otro gigante del sector, coincide, seg¨²n Greg Lavender, jefe de Tecnolog¨ªa de esta empresa: ¡°La inteligencia artificial puede y debe estar al alcance de todos para que se despliegue de forma responsable¡±.
Ambas compa?¨ªas han desarrollado plataformas propias para asegurar este desarrollo de acuerdo con normas que, poco a poco, tanto gobiernos como compa?¨ªas consideran necesarias.
La soluci¨®n de IBM es Watsonx.governance una plataforma que incluye el manejo ¨¦tico de datos, la gesti¨®n de riesgos y el cumplimiento de las normas. ¡°Se ha desarrollado para ayudar a las organizaciones a aplicar la IA de manera responsable, adherirse a las pol¨ªticas de hoy y estar listo para la regulaci¨®n de ma?ana¡±, detalla Montgomery.
El 82% de los responsables de las compa?¨ªas han adoptado o implementado IA o planean hacerlo en el pr¨®ximo a?oEncuesta a l¨ªderes empresariales europeos
Ana Paula Assis, presidenta y directora general de IBM para Europa, Oriente Medio y ?frica defiende la necesidad de estas herramientas a partir de una encuesta a 1.600 l¨ªderes empresariales de Alemania, Francia, Italia, Espa?a, Suecia. Seg¨²n los resultados, el 82% de los responsables de las compa?¨ªas han adoptado o implementado IA o planean hacerlo en el pr¨®ximo a?o y casi la totalidad (95%) lo hacen o lo van a hacer porque es eficaz en la toma de decisiones, en la gesti¨®n y en la estrategia comercial. Seg¨²n Hazem Nabih, director de tecnolog¨ªa para Oriente Pr¨®ximo en Microsoft, ¡°la productividad de cualquier empresa aumenta entre un 30% y un 50%¡±.
Pero esta herramienta de enorme potencial afronta desaf¨ªos: un marco ¨¦tico necesario, la necesidad de nuevas habilidades y el aumento de costes para que su desarrollo, adem¨¢s de ser eficaz, sea justo (sin sesgos) y transparente (explicable y medible), as¨ª como que garantice la seguridad y la privacidad.
La propuesta de IBM es que se pueda utilizar por cualquier compa?¨ªa, sea cual sea el modelo inform¨¢tico implantado, tanto los de c¨®digo abierto como los desarrollados particularmente o por otras compa?¨ªas. ¡°Nuestra estrategia y nuestra arquitectura es abierta, h¨ªbrida y multimodelo en el sentido de que, realmente, estamos dando a los clientes la flexibilidad de implementar nuestras soluciones en los entornos que mejor les funcionen¡±, explica Assis.
La soluci¨®n que plantea el otro gigante es Intel Trust Authority y parte de una filosof¨ªa parecida: ¡°Un ecosistema abierto y enfocado en el desarrollador para garantizar que las oportunidades de la inteligencia artificial sean accesibles para todos¡±. ¡°Son herramientas que agilizan el desarrollo de aplicaciones de IA seguras y facilitan la inversi¨®n necesaria para mantener y escalar esas soluciones con el fin de llevar la IA a todas partes¡±, seg¨²n el jefe de tecnolog¨ªa de la compa?¨ªa.
¡°Si los desarrolladores est¨¢n limitados en su elecci¨®n de hardware [equipos] y software [programas], la gama de casos de uso para la adopci¨®n de IA a escala global se ver¨¢ restringida y probablemente limitada en el valor social que son capaces de ofrecer¡±, explica Lavender.
La estrategia de Intel no solo va dirigida a grandes empresas. Tambi¨¦n ha lanzado, durante el Innovation 2023, AI PC Acceleration Program, una iniciativa dise?ada para acelerar el ritmo de desarrollo de la inteligencia artificial en el ¨¢mbito de los computadores personales (PC).
El programa tiene como objetivo conectar a los proveedores independientes de hardware y de software con los recursos de Intel, que incluyen herramientas de IA, coingenier¨ªa, equipos, recursos de dise?o, experiencia t¨¦cnica y oportunidades de comercializaci¨®n. ¡°Estos recursos ayudar¨¢n a acelerar nuevos casos de uso y conectar a la industria en general con las soluciones de IA¡±, defiende la compa?¨ªa. Entre los socios del programa se encuentran Adobe, Audacity, BlackMagic, BufferZone, CyberLink, DeepRender, MAGIX, Rewind AI, Skylum, Topaz, VideoCom, Webex, Wondershare Filmora, XSplit y Zoom.
Tenemos un conjunto completo de controles para garantizar que, para las empresas que utilizan Vertex, sus datos sean suyos y de nadie m¨¢s. No se filtran, no se comparten con nadie, ni siquiera con GoogleThomas Kurian, director de Google Cloud
Google ha desarrollado para Gemini, su ¨²ltimo modelo de inteligencia artificial, sistemas de protecci¨®n espec¨ªficos para aspectos como la protecci¨®n de datos personales que exigir¨¢ la nueva norma. ¡°Tenemos un conjunto completo de controles para garantizar que, para las empresas que utilizan Vertex AI, sus datos sean suyos y de nadie m¨¢s. No se filtran, no se comparten con nadie, ni siquiera con Google. Hay un largo conjunto de controles y capacidad de cumplimiento y auditor¨ªa que Vertex proporciona¡±, explica Thomas Kurian, director de Google Cloud en la presentaci¨®n de las herramientas para desarrolladores de Gemini.
Sesgos
Uno de los mayores desaf¨ªos son los sesgos, las deficiencias incluidas en los algoritmos que pueden extenderse por todo el sistema de inteligencia artificial menospreciando la complejidad de los seres humanos. En este sentido, dos art¨ªculos de investigadores de Sony y Meta presentados en la Conferencia Internacional sobre Visi¨®n por Computador (ICCV por sus siglas en ingl¨¦s), proponen formas de medir los sesgos para verificar la diversidad de los datos que no solo sirven para tomar decisiones sino tambi¨¦n para entrenar a las m¨¢quinas.
William Thong, investigador de ¨¦tica de IA en Sony, explica en MIT Technology Review sobre su propuesta: ¡°Se utiliza para medir el sesgo en los sistemas inform¨¢ticos, por ejemplo, comparando la precisi¨®n de los modelos de IA para personas de piel clara y oscura¡±.
La herramienta de Sony ha ampliado la escala de tonos de piel reconocibles por la computadora para no fijarse solo en si es clara u oscura, sino tambi¨¦n las tonalidades de los distintos colores.
Para agilizar las evaluaciones de sesgos, Meta tambi¨¦n ha desarrollado la herramienta Fairness in Computer Vision Evaluation (FACET). Seg¨²n Laura Gustafson, investigadora de IA en la compa?¨ªa, el sistema se basa en 32.000 im¨¢genes humanas etiquetadas por personas en funci¨®n de 13 par¨¢metros perceptibles, como edad (joven o mayor), tono de piel, sexo, color y textura del cabello, entre otros. Meta ha puesto sus datos disponibles de forma gratuita en l¨ªnea para ayudar a los investigadores.
Uso generalizado sin control
La importancia de las cautelas la pone de manifiesto un reciente informe de la firma de seguridad Kaspersky realizado entre directivos espa?oles y que revela que el 96% de los encuestados en Espa?a admite un uso regular de la inteligencia artificial generativa entre sus empleados sin medidas que eviten sus riesgos en casi la mitad de las entidades (45%). Seg¨²n otro estudio de la misma compa?¨ªa, el 25% de quienes usan IA generativa desconocen que esta puede almacenar informaci¨®n como la direcci¨®n IP, el tipo de navegador y la configuraci¨®n del usuario, as¨ª como datos sobre las funciones m¨¢s utilizadas.
¡°Los sistemas de inteligencia artificial generativa se encuentran en claro crecimiento y, cuanto m¨¢s tiempo funcionen sin control, m¨¢s dif¨ªcil ser¨¢ proteger ¨¢reas del negocio¡±, advierte David Emm, analista principal de seguridad de Kaspersky.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.