La Agencia Espa?ola de Protecci¨®n de Datos investiga a ChatGPT por ¡°posible incumplimiento de la normativa¡±
La entidad y el grupo de trabajo europeo al que pertenece crean un equipo para analizar el impacto de la aplicaci¨®n de la inteligencia artificial en los derechos de las personas
Las dudas sobre el impacto de la aplicaci¨®n de inteligencia artificial creada por la empresa OpenAI, ChatGPT, ha llegado a Espa?a. Tras las sospechas que ha despertado en los gobiernos de Italia, Estados Unidos y China, la Agencia Espa?ola de Protecci¨®n de Datos (AEPD) ha anunciado este jueves que ¡°ha iniciado de oficio actuaciones previas de investigaci¨®n a la empresa estadounidense por un posible incumplimiento de la normativa¡±, seg¨²n recoge un comunicado de la entidad estatal espa?ola.
Las sospechas son que la plataforma podr¨ªa recoger de forma ilegal datos de los usuarios, de las conversaciones que mantienen con la m¨¢quina para entrenar los algoritmos y de la informaci¨®n de pago de sus abonados, adem¨¢s de presentar vulnerabilidades en su protecci¨®n ante posibles ataques y carecer de filtro eficaz para verificar la edad de los usuarios.
Seg¨²n ha informado la AEPD, la iniciativa surgi¨® la semana pasada, cuando la agencia espa?ola solicit¨® al Comit¨¦ Europeo de Protecci¨®n de Datos (EDPB, por sus siglas en ingl¨¦s) ¡°que se incluyera el servicio ChatGPT como tema a abordar en su reuni¨®n plenaria¡±. El organismo espa?ol considera ¡°que los tratamientos globales que pueden tener un importante impacto sobre los derechos de las personas requieren de acciones armonizadas y coordinadas a nivel europeo en aplicaci¨®n del Reglamento General de Protecci¨®n de Datos¡±.
La propuesta ha sido recogida por el EDPB, del que forma parte la agencia espa?ola, en la reuni¨®n que han celebrado este jueves y se ha decidido crear un grupo de trabajo para la cooperaci¨®n y el intercambio de informaci¨®n entre las entidades que forman parte del Comit¨¦ Europeo de Protecci¨®n de Datos.
De esta forma, la investigaci¨®n espa?ola no ser¨¢ singular e individual, sino que formar¨¢ parte de la que emprendan el resto de las entidades responsables de la protecci¨®n de datos.
La AEPD matiza que la investigaci¨®n no se abre contra ¡°el desarrollo y la puesta en marcha de tecnolog¨ªas innovadoras como la inteligencia artificial¡±, sino para garantizar ¡°el pleno respeto a la legislaci¨®n vigente¡±. ¡°Solo desde ese punto de partida puede llevarse a cabo un desarrollo tecnol¨®gico compatible con los derechos y libertades de las personas¡±, concluye.
A finales de marzo, Italia decidi¨® bloquear el uso de ChatGPT por incumplir la normativa de protecci¨®n de datos y se convirti¨® en el primer pa¨ªs europeo en adoptar medidas dr¨¢sticas. La medida se levantar¨¢ cuando demuestre que cumple la normativa italiana sobre privacidad.
Francia, Irlanda y Alemania requirieron informaci¨®n de inmediato a las autoridades italianas y, tras los contactos, el comisionado alem¨¢n de protecci¨®n de datos se mostr¨® tambi¨¦n partidario de bloquear ChatGPT por el riesgo para la seguridad de los datos.
Por su parte, la Comisi¨®n Nacional de Inform¨¢tica y de las Libertades (el organismo para el control de la privacidad de Francia) anunci¨®, como ha hecho ahora Espa?a, que investiga a la aplicaci¨®n por las quejas presentadas por los usuarios.
El comisario europeo de Mercado Interior, Thierry Breton, ya hab¨ªa advertido de las dudas de Bruselas sobre los desarrollos de esta tecnolog¨ªa y adelant¨® que los contenidos creados por inteligencia artificial deben llevar una advertencia espec¨ªfica de su origen. ¡°En todo lo que sea generado por inteligencias artificiales, ya sean textos o im¨¢genes, habr¨¢ una obligaci¨®n de notificar que ha sido originado por estas¡±.
Todas las dudas europeas han confluido ahora en que la EDPB ha decidido crear el grupo de trabajo de investigaci¨®n del que forma parte la Agencia Espa?ola de Protecci¨®n de Datos.
El martes, la Administraci¨®n de Joe Biden estableci¨® un periodo de 60 d¨ªas para recoger ideas sobre c¨®mo legislar contra los efectos no deseados de estos programas basados en inteligencia artificial y que pueden suponer un riesgo en campos tan dispares como la privacidad, la desinformaci¨®n o el mercado laboral.
¡°Es sorprendente ver lo que estas herramientas pueden hacer incluso en su etapa inicial. Sabemos que debemos poner en marcha algunas medidas de protecci¨®n para asegurarnos de que se utilicen de manera responsable¡±, ha afirmado Alan Davidson, director de la Administraci¨®n Nacional de Telecomunicaciones e Informaci¨®n y promotor de la iniciativa legislativa estadounidense.
La Administraci¨®n del Ciberespacio de China tambi¨¦n present¨® el martes una propuesta normativa para regular los servicios de inteligencia artificial generativa. De acuerdo con el texto, el Gobierno de Pek¨ªn pretende que las empresas de estas tecnolog¨ªas presenten evaluaciones de seguridad a las autoridades antes de lanzar sus productos al p¨²blico, seg¨²n recogi¨® Reuters. Las reglas redactadas por este regulador se?alan que los proveedores ser¨¢n responsables de la legitimidad de los datos empleados para entrenar sus productos y de tomar medidas para evitar la discriminaci¨®n al dise?ar algoritmos y utilizar esos datos.
El 29 de marzo, m¨¢s de un millar de especialistas, entre los que se encontraban Elon Musk, el cofundador de Apple Steve Wozniak y el historiador Yuval N. Harari, reclamaron en una carta conjunta una moratoria de seis meses en el desarrollo de estos programas. ¡°Los laboratorios de inteligencia artificial han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez m¨¢s poderosas, que nadie ¨Dni siquiera sus creadores¨D pueden entender, predecir o controlar de forma fiable¡±, advert¨ªa la misiva.
La inteligencia artificial generativa es una aplicaci¨®n inform¨¢tica capaz de crear textos, im¨¢genes, v¨ªdeo o m¨²sica y cuyo potencial de uso ha llevado a Microsoft a invertir 10.000 millones de d¨®lares en OpenAI, la compa?¨ªa que ha lanzado ChatGPT, para generar contenido autom¨¢ticamente en todos sus productos, desde el procesador de textos hasta el correo electr¨®nico.
La diferencia con otros servicios anteriores es que esta nueva capacidad de la IA (inteligencia artificial) permite crear desde cero y no solo reconocer patrones o buscar en la informaci¨®n ya existente para producir un resultado. Los contenidos van desde dise?os de productos originales hasta la creaci¨®n de nuevas obras fotogr¨¢ficas digitales o m¨²sica. Otra de sus mayores capacidades es su potencial para el desarrollo de servicios, con habilidades para discriminar solicitudes complejas y crear una soluci¨®n en funci¨®n de numerosos factores. La empresa de comunicaci¨®n estadounidense Buzzfeed se dispar¨® en bolsa al anunciar que la usar¨¢ para personalizar su contenido.
Y ese es solo un ejemplo de utilizaci¨®n. Las empresas de dise?os de todo tipo pueden usarla para crear nuevos modelos con m¨¢s rapidez; las farmac¨¦uticas, para generar nuevos compuestos; los m¨¦dicos, para afinar diagn¨®sticos; o las productoras, para crear contenidos de v¨ªdeo de alta calidad ajustados a los requerimientos del p¨²blico.
Pero, frente a estas posibles ventajas, su uso genera amenazas de usos maliciosos para el pirateo, as¨ª como dudas legales, ¨¦ticas, reputacionales y riesgos de generaci¨®n de contenidos falsos. Igualmente, su utilizaci¨®n implica un alto coste energ¨¦tico y, por lo tanto, de contaminaci¨®n.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.