Carta abierta a los l¨ªderes de Europa por la aprobaci¨®n de la ley de inteligencia artificial
Un grupo de expertos reclama a los mandatarios europeos acelerar la aceptaci¨®n de la norma para proteger los derechos de los ciudadanos y la innovaci¨®n
Estimados se?or Macron, se?ora Meloni, se?or Scholz y se?or S¨¢nchez [como presidente de turno]:
Nos encontramos en un punto cr¨ªtico en la vida de la Propuesta de Reglamento de IA (AI Act). En la fase de tr¨ªlogo, esta regulaci¨®n est¨¢ amenazada por lo que consideramos una oposici¨®n equivocada por parte de los representantes de sus gobiernos, a favor de la autorregulaci¨®n por parte de las empresas que desarrollan modelos fundamentales de IA (como ChatGPT y Bard). Esto implica que dichas empresas deber¨ªan adherirse a sus propios c¨®digos de conducta, en lugar de ser reguladas directamente por organismos oficiales. Este cambio de enfoque est¨¢ retrasando la aprobaci¨®n del Reglamento de IA, sobre todo si tenemos en cuenta las pr¨®ximas elecciones al Parlamento de la UE previstas para junio. Y, lo que es m¨¢s grave, ello podr¨ªa socavar su eficacia y plantear severos riesgos para los derechos de los ciudadanos europeos y la innovaci¨®n europea. En contra de un enfoque autorregulador, instamos a todas las partes implicadas en el tr¨ªlogo a aprobar el Reglamento de IA lo antes posible. A continuaci¨®n, expondremos tres razones clave para apoyar la aprobaci¨®n del Reglamento de IA en su forma original.
Las empresas no deben hacer las reglas por s¨ª mismas
Los c¨®digos de conducta, incluso cuando son obligatorios, son insuficientes y a menudo ineficaces. Cuando las empresas se autorregulan pueden priorizar sus beneficios sobre la seguridad p¨²blica y aspectos ¨¦ticos. Tampoco est¨¢ claro qui¨¦n supervisar¨¢ el desarrollo y las aplicaciones de estos c¨®digos de conducta, c¨®mo y con qu¨¦ grado de responsabilidad. Este planteamiento recompensa a las empresas que se arriesgan al no invertir tiempo y recursos en c¨®digos de conducta s¨®lidos, en detrimento de las que s¨ª cumplen.
Esto tambi¨¦n supone un perjuicio para la industria de la IA, ya que deja a las empresas con la incertidumbre de si sus productos y servicios estar¨¢n permitidos en el mercado y si pueden enfrentarse a multas tras su comercializaci¨®n. Es posible que haya que remediar las incertidumbres con normas directas una vez que el Reglamento ya haya sido aprobado, limitando as¨ª el debate parlamentario. Finalmente, si cada empresa o sector elabora sus propias reglas, el resultado solo puede ser un confuso mosaico de normas, lo que aumenta la carga de supervisi¨®n para el regulador, pero tambi¨¦n hace m¨¢s dif¨ªcil para las empresas cumplir con los c¨®digos, obstaculizando as¨ª tanto la innovaci¨®n como el cumplimiento. Esto va en contra de uno de los objetivos fundamentales del Reglamento de IA, que es armonizar las normas en toda la UE.
El liderazgo de la UE en la regulaci¨®n de IA
La actual oposici¨®n de Francia, Italia y Alemania a regular los modelos fundacionales de IA pone en peligro el liderazgo de la UE en la regulaci¨®n de IA. La UE ha estado a la vanguardia, al abogar por el desarrollo de normativas que garanticen que la tecnolog¨ªa es segura y justa para todos. Pero esta ventaja podr¨ªa perderse si no se abordan con rapidez y ¨¦xito los desaf¨ªos normativos pendientes. Una UE indecisa perder¨¢ su ventaja competitiva frente a pa¨ªses como EE.UU. o China. Los ciudadanos europeos corren el riesgo de utilizar productos de IA regulados seg¨²n valores y agendas no alineadas con los principios europeos.
El coste de no regular la IA
Retrasar la regulaci¨®n de la IA tiene costes significativos. Sin normas comunes, los ciudadanos son vulnerables a aplicaciones de IA que no sirven a los intereses p¨²blicos. Esta falta de regulaci¨®n abre la puerta a posibles usos indebidos y abusos de las tecnolog¨ªas de IA. Las consecuencias son graves e incluyen violaciones de la privacidad, sesgo, discriminaci¨®n y amenazas a la seguridad nacional en ¨¢reas cr¨ªticas como la sanidad, el transporte y la aplicaci¨®n de la ley. Desde un punto de vista econ¨®mico, las aplicaciones de IA no reguladas pueden distorsionar la competencia y la din¨¢mica del mercado, creando un terreno de juego desigual en el cual solo triunfar¨¢n las empresas poderosas y bien financiadas. Es un error pensar que la regulaci¨®n va en contra de la innovaci¨®n: solo a trav¨¦s de la regulaci¨®n y, por tanto, de la competencia leal puede florecer la innovaci¨®n, en beneficio de los mercados, las sociedades y los entornos. Solo con una mejor regulaci¨®n se puede conseguir m¨¢s innovaci¨®n.
En conclusi¨®n, el Reglamento de IA es algo m¨¢s que una simple ley. Es una declaraci¨®n sobre cu¨¢les son los valores que, como europeos, queremos promover y qu¨¦ tipo de sociedad deseamos construir. Implementa y refuerza la identidad y reputaci¨®n de la UE. Pone de relieve la credibilidad de la UE y su papel de liderazgo en la comunidad mundial de IA.
Por todas estas razones -cinco a?os despu¨¦s de la publicaci¨®n del Marco ?tico para una Buena Sociedad de IA de AI4People, el cual gui¨® el trabajo inicial del Grupo de Alto Nivel sobre IA de la Comisi¨®n Europea- instamos a las instituciones de la UE y a los Estados miembros a encontrar un compromiso que preserve la integridad y la ambici¨®n del Reglamento de IA. Permitan que esta legislaci¨®n sea un faro de gobernanza responsable y ¨¦tica de la IA, que sirva de ejemplo mundial para que otros la sigan.
La carta est¨¢ firmada por:
Luciano Floridi, Director fundador del Centro de ?tica Digital de la Universidad de Yale y Presidente de Atomium-EISMD.
Michelangelo Baracchi Bonvicini, Primer Presidente del Comit¨¦ Cient¨ªfico del Instituto AI4People y Presidente del Instituto AI4People.
Raja Chatila, Profesor Em¨¦rito de Inteligencia Artificial, Rob¨®tica y ?tica Inform¨¢tica de la Universidad de la Sorbona.
Patrice Chazerand, Director de Asuntos P¨²blicos de AI4People Institute y antiguo Director de Asuntos P¨²blicos Digitales de Europa.
Donald Combs, Vicepresidente y Decano de la Escuela de Profesiones Sanitarias del Eastern Virginia Medical School.
Bianca De Teffe¡¯ Erb, Directora de ?tica de los Datos y la IA en Deloitte.
Virginia Dignum, Catedr¨¢tica de Inteligencia Artificial Responsable, Universidad de Ume? y Miembro del Consejo Asesor de Alto Nivel de las Naciones Unidas sobre Inteligencia Artificial.
R¨®n¨¢n Kennedy, Profesor Asociado, Facultad de Derecho, Universidad de Galway.
Robert Madelin, Presidente del Consejo Asesor del Instituto AI4People.
Claudio Novelli, Investigador Postdoctoral, Departamento de Estudios Jur¨ªdicos de la Universidad de Bolonia y Becario internacional del Digital Ethics Center (DEC) de la Universidad de Yale.
Burkhard Schafer, Catedr¨¢tico de Teor¨ªa Jur¨ªdica Computacional de la Universidad de Edimburgo.
Afzal Siddiqui, Catedr¨¢tico del Departamento de Inform¨¢tica y Ciencias de Sistemas de la Universidad de Estocolmo.
Sarah Spiekermann, Presidenta del Instituto de SI y Sociedad de la Universidad de Econom¨ªa y Empresa de Viena.
Ugo Pagallo, Profesor Titular de Jurisprudencia, Teor¨ªa del Derecho e Inform¨¢tica Jur¨ªdica en el Departamento de Derecho de la Universidad de Tur¨ªn.
Cory Robinson, Catedr¨¢tico de Dise?o de la Comunicaci¨®n y Sistemas de Informaci¨®n de la Universidad de Link?ping.
Elisabeth Staudegger, Catedr¨¢tica de Inform¨¢tica Jur¨ªdica y Derecho de las TI (Derecho de las Tecnolog¨ªas de la Informaci¨®n), Jefa del Departamento Jur¨ªdico y de TI del Instituto de Fundamentos Jur¨ªdicos de la Universidad de Graz.
Mariarosaria Taddeo, Profesora de ?tica Digital y Tecnolog¨ªas de Defensa en el Institutode Internet de Oxford de la Universidad de Oxford.
Peggy Valcke, Catedr¨¢tica de Derecho y Tecnolog¨ªa de la Universidad Cat¨®lica de Lovaina y Vicedecana de Investigaci¨®n de la Facultad de Derecho y Criminolog¨ªa de Lovaina.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.