Control de la inteligencia artificial
La propuesta de la UE exige a sistemas como el ChatGPT transparencia en los datos e identificaci¨®n de las fuentes

El Parlamento Europeo acaba de poner las bases para la regulaci¨®n de la inteligencia artificial apenas unos meses despu¨¦s de la comercializaci¨®n masiva del ChatGPT, cuando Google acaba de lanzar su propio chatbot Bard y dos a?os despu¨¦s del empuj¨®n inicial de la Comisi¨®n Europea. No toda la ingente inteligencia artificial requiere una regulaci¨®n espec¨ªfica porque es una tecnolog¨ªa integrada ya de forma natural en la vida cotidiana: el algoritmo que detecta el spam o los videojuegos son tambi¨¦n IA, y multitud de las gestiones que realizamos a diario con el m¨®vil en la mano las hacemos con su ayuda.
El objetivo de la Ley de Inteligencia Artificial impulsada por Thierry Breton y respaldada por una ampl¨ªsima mayor¨ªa es doble: regula el uso de las fuentes y los datos de los que se nutren los modelos generativos ¡ªalgoritmos capaces de aprender para producir contenidos nuevos¡ª e impone restricciones destinadas a impedir los usos maliciosos de la IA que puedan vulnerar los derechos de protecci¨®n de datos y privacidad de los ciudadanos. Las empresas tecnol¨®gicas deber¨¢n extremar la transparencia con la indicaci¨®n visible de que los resultados generados en forma de texto, im¨¢genes o audios son creaciones de IA para evitar que su apariencia de credibilidad confunda al ciudadano sobre su autor¨ªa y sobre su autenticidad. Deber¨¢n tambi¨¦n indicar de forma clara las fuentes de las que se ha nutrido y con las que se ha entrenado al sistema para proteger los derechos de autor y de propiedad intelectual. Legislar este extremo e incluso prever formas de compensaci¨®n econ¨®mica es crucial para garantizar la viabilidad de la industria de medios y el ecosistema cultural del que se nutren hoy gratuitamente los modelos generativos.
La decisi¨®n de establecer cuatro niveles de riesgo de la IA ¡ªdesde ¡°inaceptable¡± hasta ¡°m¨ªnimo¡±¡ª transparenta la conciencia de su peligrosidad en el ¨¢mbito del derecho a la privacidad. Las amenazas est¨¢n fundamentalmente en los usos perversos en manos de gobiernos o de empresas de los sistemas de vigilancia masiva biom¨¦trica. La propuesta de los europarlamentarios veta los ¡°usos intrusivos y discriminatorios¡± de algunas de las opciones de la IA y, en particular, los sistemas de reconocimiento facial en espacios p¨²blicos, que solo ser¨¢n posibles bajo autorizaci¨®n judicial en investigaciones policiales graves. Quedan vetados tambi¨¦n los sistemas que usen rasgos de raza, religi¨®n o afinidad pol¨ªtica para predecir conductas delictivas.
El impacto de la IA es ya muy alto en las sociedades occidentales; antes que estigmatizar o demonizar sus sistemas m¨¢s avanzados es preferible prever los efectos negativos de una revoluci¨®n tecnol¨®gica que avanza a una velocidad vertiginosa. Su extraordinario potencial puede afectar a campa?as de intoxicaci¨®n pol¨ªtica o favorecer sesgos determinados en sus respuestas artificiales de acuerdo con el entorno de entrenamiento. Garantizar la transparencia de su funcionamiento, la calidad de los datos que maneja y exigir la identificaci¨®n de sus fuentes es la condici¨®n necesaria para que el ciudadano sepa qu¨¦ es lo que ofrece un sistema capaz de dar un servicio de gran utilidad en m¨²ltiples profesiones. Pero es la confianza y la seguridad del ciudadano sobre su fiabilidad lo que ha de estar en la base del modelo. La capacidad para generar textos o im¨¢genes cre¨ªbles y coherentes pero falsos y el potencial uso malicioso nos desaf¨ªa a todos. La UE ha sido pionera con esta ley, aunque el objetivo siguiente tendr¨¢ que ser la coordinaci¨®n de las medidas de control de la IA con otras regiones del planeta y crear los mecanismos para que su cumplimiento sea efectivo.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
?Tienes una suscripci¨®n de empresa? Accede aqu¨ª para contratar m¨¢s cuentas.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.