Pregunta para ChatGPT: ?qui¨¦n me saca del l¨ªo en el que me has metido?
La Uni¨®n Europea trabaja en normas espec¨ªficas sobre responsabilidad de la inteligencia artificial
La Inteligencia Artificial (IA) generativa, de la que ChatGPT es el m¨¢ximo exponente, ofrece grandes ventajas, por su capacidad de elaborar con rapidez casi cualquier tipo de documento. Pero tambi¨¦n es capaz de generar contenidos totalmente falsos que, pueden da?ar la reputaci¨®n o los derechos de las personas. As¨ª le sucedi¨® al profesor de derecho norteamericano Jonathan Turley, que apareci¨® citado por ChatGPT como acosador sexual, cuando un compa?ero que estaba realizando un estudio al respecto pidi¨® a esta IA ejemplos de acad¨¦micos que hubieran cometido ese delito. Seg¨²n el Washington Post, el chat cit¨® a Turley como incluido en una noticia publicada por ese medio que, en realidad, nunca hab¨ªa sido publicada.
M¨¢s recientemente, el Comit¨¦ Nacional Republicano de ese pa¨ªs ha publicado un v¨ªdeo electoral en el que ataca al presidente Biden utilizando im¨¢genes falsas (deep fakes) producidas por una IA generativa. Aunque al principio del v¨ªdeo se advierte de esta circunstancia, el asunto no deja de constituir un precedente muy preocupante, como recientemente denunci¨® Henry Ajder, un presentador de la BBC experto en este tipo de tecnolog¨ªa, en su cuenta de LinkedIn. Ajder considera que este puede ser el comienzo de una campa?a presidencial en la que los partidos, o sus partidarios, recurran a contenidos artificiales mucho menos comedidos.
Los mecanismos de exigencia de responsabilidad por estos hechos est¨¢n todav¨ªa en pa?ales, pero sin duda van a experimentar un r¨¢pido desarrollo. Como explica Jorge Morell, fundador de Legaltechies, ¡°hace pocas fechas se ha conocido la primera demanda contra OpenAI, la empresa que ha dise?ado ChatGPT, por se?alar al alcalde de un peque?o municipio local, responsable de destapar uno de los mayores esc¨¢ndalos de sobornos del pa¨ªs, como uno de los culpables condenados por tales hechos¡±.
Ante este panorama, expertos como Joaqu¨ªn Mu?oz, socio de Bird&Bird, consideran que ¡°los mecanismos legales de los que disponemos en la actualidad son suficientes para exigir cualquier tipo de responsabilidad derivada del uso de estas herramientas, ya que los sistemas de IA generativa no dejan de ser el medio, es decir, la tecnolog¨ªa en la que suceden los hechos¡±. Lo que habr¨¢ que determinar, a?ade este experto, es el ¨¢mbito material en el que se encuentre la supuesta infracci¨®n (protecci¨®n de datos, propiedad intelectual, competencia...), para proceder a articular la reclamaci¨®n por las v¨ªas disponibles.
Mu?oz considera tambi¨¦n que la exigencia de responsabilidad por el uso de estas herramientas puede ir en una doble direcci¨®n: Por un lado, los trabajadores de la empresa o empresas que utilicen estas herramientas (no solo ChatGPT, cualquier IA generativa), ¡°deber¨¢n asumir la responsabilidad derivada de compartir con las empresas due?as de las herramientas (OpenAI en el caso de ChatGPT) toda informaci¨®n o documento susceptibles de ser protegidos y no compartidos fuera de la empresa¡±, por ejemplo, en los ¨¢mbitos de protecci¨®n de secreto empresarial, protecci¨®n de datos o propiedad intelectual/derechos de autor. En este sentido, advierte Mu?oz, ¡°la mayor¨ªa de estas herramientas exponen claramente en sus t¨¦rminos y condiciones que podr¨¢n utilizar dicha informaci¨®n para finalidades propias e incluso para poder alimentar al sistema, lo que hace posible que dicha informaci¨®n sea compartida como respuesta a una consulta¡±.
Y, por otro lado, las empresas que utilicen ChatGPT u otras herramientas tendr¨¢n que asumir la responsabilidad que se pueda derivar por el contenido o resultado que la IA les entregue, en caso de que este infrinja derechos de terceros.
Se?ala a este respecto Pablo Garc¨ªa Mex¨ªa, Director de Derecho digital de Herbert Smith Freehills, que entre estos supuestos de responsabilidad destacan la privacidad y la propiedad intelectual. ¡°Los primeros por la propia voracidad de datos de los algoritmos de aprendizaje profundo, dif¨ªcilmente compatible con principios como la minimizaci¨®n del dato¡±. Los segundos ¡°porque el llamado webscraping, o miner¨ªa de textos y datos, efectuado por estos sistemas, puede arrastrar sin autorizaci¨®n contenidos protegidos por derechos de autor¡±. En cuanto a los primeros, Garc¨ªa Mex¨ªa se?ala que ¡°la normativa sobre protecci¨®n de datos parece suficiente, al menos inicialmente, para afrontar los problemas que plantean estos sistemas, pues sus principios b¨¢sicos se han elaborado ya con sistemas de IA en mente¡±. Y otro tanto ocurre con los derechos de autor, por cuanto ¡°la miner¨ªa de textos y datos est¨¢ ya regulada en la normativa europea y espa?ola sobre la materia¡±; aunque solo se prev¨¦ en tales casos compensaci¨®n econ¨®mica cuando el titular de los derechos ha optado por no autorizar ese webscraping, cosa que la masificaci¨®n de estas herramientas puede llegar a dificultar.
?Se necesitan nuevas normas?
En un reciente congreso sobre IA y Derecho celebrado en la Universidad de Deusto, la profesora de Derecho Civil de la Universidad de Valencia, Mar¨ªa Luisa Atienza Navarro, explic¨® que, en la actualidad, existen dos tendencias al respecto. Una considera que las caracter¨ªsticas de la IA no implican la necesidad de nuevas normas, bastando las actuales que rigen la responsabilidad por hecho ajeno. Otra, m¨¢s predominante, considera que es necesario un nuevo sistema armonizado de normas que evite que, al menos en la Uni¨®n Europea, cada pa¨ªs regule esta cuesti¨®n de una manera diferente, poniendo en riesgo la seguridad jur¨ªdica.
En este sentido, en octubre de 2020 el Parlamento Europeo present¨® una primera propuesta de reglamento, que establec¨ªa una responsabilidad objetiva por los da?os causados por la IA (es decir, que el usuario del sistema respondiese en todo caso de cualquier da?o causado por el mismo). Pero esta iniciativa qued¨® aparcada, siendo sustituida, en septiembre de 2022, por una propuesta de directiva sobre adaptaci¨®n de las normas de responsabilidad civil extracontractual a la IA. Esta es considerada una propuesta de m¨ªnimos, ya que se limita a introducir mecanismos para facilitar la prueba del da?o sufrido por el demandante, imponiendo unas obligaciones para el dise?ador o usuario del sistema de IA.
Por su parte, la profesora de Derecho Mercantil de la Universidad Carlos III de Madrid, Teresa Rodr¨ªguez de las Heras, se?al¨® en el mismo foro que, tambi¨¦n en septiembre de 2022, la Comisi¨®n present¨® una propuesta de directiva de modificaci¨®n de la actual normativa europea sobre productos defectuosos para incluir los da?os causados por la IA.
Estas expertas coinciden en que estas propuestas, junto con el futuro Reglamento de IA, van a definir un nuevo escenario para regular la responsabilidad por los da?os causados por los sistemas inteligentes.
Obligaci¨®n de informar
La propuesta inicial de Reglamento de IA no hacía apenas referencia a los sistemas de IA generativa, salvo una obligación de informar al usuario de que se está interactuando con un chatbot. Posteriormente, el Consejo introdujo una nueva categoría, los denominados sistemas de propósito general, en la que incluye a aquellas IA capaces de responder a preguntas, traducir o generar audio y vídeo. Pero el impacto causado por el ChatGTP ha llevado a los parlamentarios europeos a considerar la posibilidad de incluir estos sistemas entre los considerados de alto riesgo, lo que supondría la aplicación de numerosas obligaciones a sus diseñadores y usuarios.
Sigue toda la informaci¨®n de Econom¨ªa y Negocios en Facebook y Twitter, o en nuestra newsletter semanal
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.