Deloitte pide a sus empleados en Espa?a que no compartan informaci¨®n confidencial en ChatGPT
La firma avisa en un correo interno de posibles fallas de privacidad, potenciales filtraciones de informaci¨®n sensible, sesgos discriminatorios y problemas ¨¦ticos
Un nuevo invitado ha irrumpido con fuerza en las oficinas de las empresas de consultor¨ªa. Se llama inteligencia artificial. Y su capacidad para colarse en cualquier informe, asesor¨ªa, o trabajo desarrollado por sus empleados desata ya preocupaciones en la c¨²pula de las firmas de servicios profesionales. As¨ª lo demuestra un correo electr¨®nico interno enviado por Deloitte Espa?a el pasado 11 de abril, al que ha tenido acceso este diario. ¡°No se debe aportar a estas plataformas de IA informaci¨®n confidencial propiedad del cliente, de terceros o de Deloitte¡±, dice una frase del texto de cuatro p¨¢ginas remitido a los trabajadores de la compa?¨ªa. En ¨¦l, la empresa, con m¨¢s de 8.000 profesionales en Espa?a, avisa de que cualquier uso de ChatGPT o herramientas similares debe contar antes con su aprobaci¨®n.
La rapidez con que se est¨¢ afianzando el uso de esta tecnolog¨ªa inquieta en las grandes corporaciones. La divisi¨®n australiana de otra Big Four (como se conoce a las cuatro grandes consultoras mundiales), PwC, ya envi¨® el pasado febrero un mensaje pidiendo a sus empleados que no utilicen con los clientes material creado por estas aplicaciones. En el caso de Deloitte Espa?a, los miedos son muchos. A que salgan a la luz informaciones sin autorizaci¨®n: ¡°Si los datos ingresados son almacenados en un servidor o base de datos, existe un riesgo potencial de que sean divulgados a terceros sin autorizaci¨®n, bien sea por fallas de seguridad, ciberataques, o violaciones de datos¡±, dice el correo. A que haya sesgos: ¡°Si los datos de entrenamiento utilizados contienen sesgos o prejuicios, existe el riesgo de que las respuestas generadas por el modelo sean discriminatorias o injustas, incluso afectando a la privacidad de los individuos que interact¨²an con el modelo y a la reputaci¨®n de las empresas que lo utilizan¡±. O a que se den por buenas respuestas plagadas de errores: ¡°Existen limitaciones en la capacidad de estas herramientas para entender el contexto y el significado detr¨¢s de las palabras. Esto obliga a implementar adecuados mecanismos de validaci¨®n y supervisi¨®n humana¡±.
La desconfianza sobre la utilidad de la informaci¨®n sobrevuela todo el documento. ¡°Estas herramientas se entrenan utilizando datos hist¨®ricos, lo que significa que pueden no ser adecuadas para detectar nuevas tendencias o problemas. [...] Puede conllevar un riesgo de falta de rigor y precisi¨®n en los trabajos¡±.
Las consultoras son muy solicitadas por Gobiernos, multinacionales y otras entidades necesitadas de asesor¨ªa con todo tipo de programas y planes de gasto. En unas agendas tan delicadas, muy dependientes de conocimientos t¨¦cnicos que en muchos casos est¨¢n ahora disponibles en ChatGPT, hay trabajadores que pueden tener la tentaci¨®n de recurrir a la inteligencia artificial como la v¨ªa m¨¢s r¨¢pida de zanjar sus dudas. Deloitte no cree que sea lo ideal, tanto por los motivos enumerados antes como por otros. ¡°Si las respuestas generadas contienen informaci¨®n sensible protegida (por ejemplo, derechos de autor), o confidencial, existe un riesgo de que esta informaci¨®n sea utilizada de manera inapropiada¡±, apunta.
Aprobaci¨®n del cliente
La casu¨ªstica en la que pueden provocar el enfado de quienes les contratan es amplia. ¡°Si Deloitte usa estas herramientas para obtener informaci¨®n sobre los clientes o para tomar decisiones sobre ellos sin su conocimiento o consentimiento, esto puede ser considerado poco ¨¦tico y podr¨ªa da?ar nuestra reputaci¨®n¡±, alertan. Tambi¨¦n estiman peligroso el uso de inteligencia artificial ¡±para obtener informaci¨®n sobre los clientes o para tomar decisiones sobre ellos sin su conocimiento o consentimiento¡±.
La firma pide a sus empleados que no usen sus correos corporativos para abrir cuentas en OpenAI ¡ªcreadora de ChatGPT¡ª salvo que haya sido expresamente autorizado. Y si ya la han abierto, les insta a comunicarlo a su responsable ¡°lo antes posible¡¤¡±. Adem¨¢s, deben informar al cliente si usan IA en un proyecto ¡°y obtener su aceptaci¨®n¡±.
Las suspicacias sobre las malas pr¨¢cticas que pueden derivarse del uso de inteligencia artificial no son exclusivas de las empresas. La Uni¨®n Europea quiere regular ChatGPT por sus efectos sobre la privacidad de los usuarios, su potencial para difundir desinformaci¨®n y la posible destrucci¨®n de empleo. Y uno de sus principales miembros, Italia, ha ido a¨²n m¨¢s lejos y ha optado por bloquear el acceso por incumplir la normativa de protecci¨®n de datos, al considerar que recoge datos de los usuarios de manera ilegal.
Sigue toda la informaci¨®n de Econom¨ªa y Negocios en Facebook y Twitter, o en nuestra newsletter semanal
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.