La Casa Blanca tratar¨¢ de mitigar los riesgos de la inteligencia artificial con m¨¢s inversi¨®n p¨²blica
Washington anuncia que dedicar¨¢ 140 millones de d¨®lares adicionales a promover ¡°una innovaci¨®n responsable¡± mientras Kamala Harris se re¨²ne con los l¨ªderes de las grandes tecnol¨®gicas
La Casa Blanca ha anunciado este jueves nuevas medidas para incentivar la innovaci¨®n responsable en inteligencia artificial (IA) y proteger los derechos y la seguridad de los ciudadanos. La Administraci¨®n del presidente Joe Biden aspira a avanzar en un ¡°enfoque cohesivo y global de los riesgos y oportunidades relacionados con la IA¡±, seg¨²n la Casa Blanca. La proliferaci¨®n del uso de herramientas como chatbots, as¨ª como la capacidad de la IA para manipular e incluso falsear im¨¢genes, ha empujado a Washington a intentar poner coto a la popularizaci¨®n de su uso, en v¨ªsperas del arranque de una nueva campa?a electoral, la de 2024. Si la desinformaci¨®n en el ¨¢mbito virtual ha hecho estragos en los ¨²ltimos a?os, el recurso a la IA para crear realidades alternativas es un riesgo estrat¨¦gico demasiado elevado, como ha puesto de manifiesto esta misma semana el padre de la IA, Geoffrey Hinton.
La Fundaci¨®n Nacional de las Ciencias (NSF, en sus siglas inglesas; agencia gubernamental) tiene previsto invertir 140 millones de d¨®lares (unos 127 millones de euros) adicionales para crear siete nuevos Institutos Nacionales de Investigaci¨®n sobre IA, de car¨¢cter tem¨¢tico, como informa en su web. En total, habr¨¢ 25 institutos nacionales de investigaci¨®n de la IA en el pa¨ªs, con 500 millones de d¨®lares de financiaci¨®n para ¡°apoyar una innovaci¨®n responsable¡± que promueva el bien p¨²blico. Como comparaci¨®n, el gigante tecnol¨®gico Microsoft invirti¨® 10.000 millones de d¨®lares solo en OpenAi, la compa?¨ªa que desarrolla el popular ChatGPT. La Administraci¨®n dem¨®crata tambi¨¦n se ha comprometido a publicar un borrador de directrices para que las agencias gubernamentales garanticen que su uso de la IA salvaguarda ¡°los derechos y la seguridad del pueblo estadounidense¡±, adem¨¢s de conseguir el compromiso de varias empresas del sector de someter sus productos a escrutinio en una conferencia sobre ciberseguridad que se celebrar¨¢ en agosto.
La vicepresidenta de EE UU, Kamala Harris, se ha reunido este jueves con los m¨¢ximos responsables de Google, Microsoft, OpenAI y Anthropic, una start-up especializada en IA, para debatir sobre las posibilidades y los desaf¨ªos que presenta esta nueva realidad tecnol¨®gica. ¡°El sector privado tiene la responsabilidad ¨¦tica, moral y legal de garantizar la seguridad de sus productos. Y todas las empresas deben cumplir las leyes vigentes para proteger al pueblo estadounidense. Espero con impaciencia el seguimiento y la evoluci¨®n en las pr¨®ximas semanas¡±, ha dicho Harris en un comunicado, en el que tambi¨¦n recuerda el inquietante precedente de desinformaci¨®n en las elecciones presidenciales de 2016, como un aviso para navegantes del potencial m¨¢s negativo de la IA. ¡°Como senadora y miembro de los comit¨¦s de Inteligencia y Judicial [de la C¨¢mara], investigamos la interferencia rusa en las elecciones de 2016 y produjimos pruebas emp¨ªricas de que los actores estatales utilizar¨¢n la tecnolog¨ªa para socavar la democracia¡±, subraya el comunicado.
La Casa Blanca est¨¢ sometida a una creciente presi¨®n para vigilar la inteligencia artificial desde que el a?o pasado OpenAI puso a disposici¨®n del p¨²blico esa aplicaci¨®n y los particulares empezaron a utilizarlo de inmediato para buscar informaci¨®n, realizar tareas escolares o avanzar en el trabajo. Desde entonces, a un ritmo vertiginoso, algunas de las grandes tecnol¨®gicas se han apresurado a incorporar chatbots a sus productos y han acelerado la divulgaci¨®n de la IA como un nuevo producto de consumo. Pero la existencia, tambi¨¦n creciente, de im¨¢genes falsas generadas por IA en internet supone un serio aviso, del que vienen alertando algunos expertos, incluido Hinton, del potencial desinformador que tiene esta tecnolog¨ªa, algo especialmente peligroso en campa?as electorales y en un pa¨ªs tan polarizado pol¨ªtica y socialmente como EE UU.
En una llamada con periodistas celebrada el mi¨¦rcoles, un alto funcionario de Washington ha recordado que la Administraci¨®n de Biden ¡°ha estado liderando estas cuestiones desde mucho antes de estos nuevos productos de IA¡±. ¡°Para aprovechar las ventajas de la IA debemos empezar por mitigar sus riesgos. Y este principio b¨¢sico ha guiado nuestro trabajo sobre la IA desde el principio¡±, a?adi¨® la fuente. En oto?o, la Casa Blanca public¨® el denominado Plan para una Declaraci¨®n de Derechos de la IA, ¡°un ancla importante y una hoja de ruta¡± sobre la que se ha construido la bater¨ªa de salvaguardas. Junto con el llamado Marco de Gesti¨®n de Riesgos de la IA, se ha ¡°dado a las empresas y a los responsables pol¨ªticos y a las personas que generan estas tecnolog¨ªas algunas formas claras de mitigar los riesgos¡±, dijo el alto funcionario.
El objetivo parece sencillo sobre el papel: aprovechar las oportunidades de la IA y a la vez mitigar sus riesgos, entre ellos la posible robotizaci¨®n o automatizaci¨®n de puestos de trabajo, con la consiguiente destrucci¨®n de empleo, como denunciaba Hinton entre otros. Como ponerle el cascabel al gato, la Administraci¨®n de Biden sit¨²a a las personas y las comunidades en el centro de su estrategia; el bien p¨²blico, la protecci¨®n de la seguridad y la econom¨ªa nacionales. Del llamamiento de la Casa Blanca se deduce que son las empresas las que tienen la responsabilidad fundamental de ¡°asegurarse de que sus productos son seguros¡± antes de comercializarlos o hacerlos p¨²blicos. Y si para ello es necesario participar, junto a las tecnol¨®gicas, ¡°en una evaluaci¨®n independiente y p¨²blica de sus sistemas de IA en la AI Village de DEF CON 31, una de las mayores convenciones de hackers del mundo¡±, apunt¨® el alto funcionario, la Casa Blanca lo har¨¢. ¡°Estos modelos [de IA] ser¨¢n evaluados all¨ª por miles de socios de la comunidad y expertos para ver c¨®mo se alinean con los valores descritos en el borrador de la Declaraci¨®n de Derechos y en el Marco de Gesti¨®n de Riesgos¡±, a?adi¨® la fuente. La primera velar¨¢ por que los sistemas automatizados protejan la privacidad de los datos y protejan a los usuarios de sesgos discriminatorios, otro de los temores que suscita la generalizaci¨®n de la IA.
En un art¨ªculo publicado el mi¨¦rcoles en el diario The New York Times, Lina Khan, presidenta de la Comisi¨®n Federal de Comercio ¡ªy conocido azote de los monopolios y las tecnol¨®gicas¡ª, apuntaba que EE UU se encuentra en un ¡°punto de decisi¨®n clave¡± sobre la materia. Equiparando el avance de la nueva tecnolog¨ªa con el nacimiento de gigantes como Google y Facebook, Khan advert¨ªa de que, sin una regulaci¨®n adecuada, la tecnolog¨ªa podr¨ªa afianzar el poder de las mayores empresas tecnol¨®gicas.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.