Deloitte pide a sus empleados en Espa?a que no compartan informaci¨®n confidencial en ChatGPT
La firma avisa en un correo interno de posibles fallas de privacidad, potenciales filtraciones de informaci¨®n sensible, sesgos discriminatorios y problemas ¨¦ticos
Un nuevo invitado ha irrumpido con fuerza en las oficinas de las empresas de consultor¨ªa. Se llama inteligencia artificial. Y su capacidad para colarse en cualquier informe, asesor¨ªa, o trabajo desarrollado por sus empleados desata ya preocupaciones en la c¨²pula de las firmas de servicios profesionales. As¨ª lo demuestra un correo electr¨®nico interno enviado por Deloitte Espa?a el pasado 11 de abril, al que ha tenido acceso este diario...
Un nuevo invitado ha irrumpido con fuerza en las oficinas de las empresas de consultor¨ªa. Se llama inteligencia artificial. Y su capacidad para colarse en cualquier informe, asesor¨ªa, o trabajo desarrollado por sus empleados desata ya preocupaciones en la c¨²pula de las firmas de servicios profesionales. As¨ª lo demuestra un correo electr¨®nico interno enviado por Deloitte Espa?a el pasado 11 de abril, al que ha tenido acceso este diario. ¡°No se debe aportar a estas plataformas de IA informaci¨®n confidencial propiedad del cliente, de terceros o de Deloitte¡±, dice una frase del texto de cuatro p¨¢ginas remitido a los trabajadores de la compa?¨ªa. En ¨¦l, la empresa, con m¨¢s de 8.000 profesionales en Espa?a, avisa de que cualquier uso de ChatGPT o herramientas similares debe contar antes con su aprobaci¨®n.
La rapidez con que se est¨¢ afianzando el uso de esta tecnolog¨ªa inquieta en las grandes corporaciones. La divisi¨®n australiana de otra Big Four (como se conoce a las cuatro grandes consultoras mundiales), PwC, ya envi¨® el pasado febrero un mensaje pidiendo a sus empleados que no utilicen con los clientes material creado por estas aplicaciones. En el caso de Deloitte Espa?a, los miedos son muchos. A que salgan a la luz informaciones sin autorizaci¨®n: ¡°Si los datos ingresados son almacenados en un servidor o base de datos, existe un riesgo potencial de que sean divulgados a terceros sin autorizaci¨®n, bien sea por fallas de seguridad, ciberataques, o violaciones de datos¡±, dice el correo. A que haya sesgos: ¡°Si los datos de entrenamiento utilizados contienen sesgos o prejuicios, existe el riesgo de que las respuestas generadas por el modelo sean discriminatorias o injustas, incluso afectando a la privacidad de los individuos que interact¨²an con el modelo y a la reputaci¨®n de las empresas que lo utilizan¡±. O a que se den por buenas respuestas plagadas de errores: ¡°Existen limitaciones en la capacidad de estas herramientas para entender el contexto y el significado detr¨¢s de las palabras. Esto obliga a implementar adecuados mecanismos de validaci¨®n y supervisi¨®n humana¡±.
La desconfianza sobre la utilidad de la informaci¨®n sobrevuela todo el documento. ¡°Estas herramientas se entrenan utilizando datos hist¨®ricos, lo que significa que pueden no ser adecuadas para detectar nuevas tendencias o problemas. [...] Puede conllevar un riesgo de falta de rigor y precisi¨®n en los trabajos¡±.
Las consultoras son muy solicitadas por Gobiernos, multinacionales y otras entidades necesitadas de asesor¨ªa con todo tipo de programas y planes de gasto. En unas agendas tan delicadas, muy dependientes de conocimientos t¨¦cnicos que en muchos casos est¨¢n ahora disponibles en ChatGPT, hay trabajadores que pueden tener la tentaci¨®n de recurrir a la inteligencia artificial como la v¨ªa m¨¢s r¨¢pida de zanjar sus dudas. Deloitte no cree que sea lo ideal, tanto por los motivos enumerados antes como por otros. ¡°Si las respuestas generadas contienen informaci¨®n sensible protegida (por ejemplo, derechos de autor), o confidencial, existe un riesgo de que esta informaci¨®n sea utilizada de manera inapropiada¡±, apunta.
Aprobaci¨®n del cliente
La casu¨ªstica en la que pueden provocar el enfado de quienes les contratan es amplia. ¡°Si Deloitte usa estas herramientas para obtener informaci¨®n sobre los clientes o para tomar decisiones sobre ellos sin su conocimiento o consentimiento, esto puede ser considerado poco ¨¦tico y podr¨ªa da?ar nuestra reputaci¨®n¡±, alertan. Tambi¨¦n estiman peligroso el uso de inteligencia artificial ¡±para obtener informaci¨®n sobre los clientes o para tomar decisiones sobre ellos sin su conocimiento o consentimiento¡±.
La firma pide a sus empleados que no usen sus correos corporativos para abrir cuentas en OpenAI ¡ªcreadora de ChatGPT¡ª salvo que haya sido expresamente autorizado. Y si ya la han abierto, les insta a comunicarlo a su responsable ¡°lo antes posible¡¤¡±. Adem¨¢s, deben informar al cliente si usan IA en un proyecto ¡°y obtener su aceptaci¨®n¡±.
Las suspicacias sobre las malas pr¨¢cticas que pueden derivarse del uso de inteligencia artificial no son exclusivas de las empresas. La Uni¨®n Europea quiere regular ChatGPT por sus efectos sobre la privacidad de los usuarios, su potencial para difundir desinformaci¨®n y la posible destrucci¨®n de empleo. Y uno de sus principales miembros, Italia, ha ido a¨²n m¨¢s lejos y ha optado por bloquear el acceso por incumplir la normativa de protecci¨®n de datos, al considerar que recoge datos de los usuarios de manera ilegal.
Sigue toda la informaci¨®n de Econom¨ªa y Negocios en Facebook y Twitter, o en nuestra newsletter semanal