Aviso: si la IA de nuestra red funciona mal, t¨² eres el responsable
Las redes sociales incluyen ya en sus t¨¦rminos de servicio una referencia a sus herramientas de inteligencia artificial generativa propias. Admiten que pueden cometer fallos, pero exigen que el usuario asuma la responsabilidad de lo generado
Para el 1 de enero de 2025 los t¨¦rminos de servicio de Instagram y de Facebook se actualizar¨¢n. El pasado 20 de noviembre se actualizaron los de LinkedIn, antes lo intent¨® X sin avisar y probablemente otras redes sociales hagan lo propio. Una de las motivaciones comunes es incorporar a las condiciones de uso el marco para utilizar las herramientas de inteligencia artificial (IA) generativa propias de cada red social.
No se trata de utilizar ChatGPT o Google Gemini para generar contenido y pegarlo en las redes sociales. En este caso son las propias Instagram, Facebook o LinkedIn quienes ofrecen sus sistemas de inteligencia artificial. Est¨¢n integrados dentro de las plataformas y f¨¢cilmente accesibles a los usuarios como un recurso m¨¢s. Sin embargo, las tres redes sociales vuelcan la responsabilidad en el usuario si comparte un contenido generado con IA propia que sea impreciso o incluso ofensivo.
Esto se produce aun cuando admiten que las respuestas que ofrecen sus IA generativas pueden ser err¨®neas o llevar a equ¨ªvoco. Un aspecto intr¨ªnseco a este tipo de tecnolog¨ªa. Las condiciones del servicio de Meta AI, presente en Facebook e Instagram, destacan: ¡°No se puede garantizar la precisi¨®n de su contenido [el generado con Meta AI], incluidas las Respuestas, que pueden resultar desagradables o molestas¡±.
En sus renovadas condiciones de uso, LinkedIn se?ala que el contenido que genere su funcionalidad de IA generativa ¡°podr¨ªa ser inexacto o incompleto, demorarse, inducir a error o no ser adecuado para tus fines¡±. Ruega al usuario que revise y edite el contenido generado antes de compartirlo y a?ade que ¡°eres responsable de garantizar que [el contenido] cumple nuestras?¡®Pol¨ªticas para la comunidad profesional¡¯, incluido el hecho de no compartir informaci¨®n enga?osa¡±.
Para Sara Degli-Esposti, investigadora del CSIC y autora del libro La ¨¦tica de la inteligencia artificial, la postura esbozada no deja lugar a dudas: ¡°Esta pol¨ªtica va en la l¨ªnea de: ¡®no sabemos lo que puede salir mal y cualquier cosa que salga mal es problema del usuario¡¯. Es como decirle que le van a dar una herramienta que saben que puede ser defectuosa¡±.
La IA de LinkedIn sirve para generar textos que despu¨¦s se publicar¨¢n en la red social. De momento solo est¨¢ disponible en ingl¨¦s y para usuarios de pago. Meta AI, en Instagram y Facebook, se puede usar para escribir un mensaje, hacerle preguntas, incluso en un chat de grupo, pedirle que modifique una foto o generar una imagen desde cero. Por ahora no est¨¢ disponible en la Uni¨®n Europea.
¡°El tema fundamental es que aqu¨ª se est¨¢n proporcionando funcionalidades con herramientas que no han terminado de ser testeadas y, de hecho, el testeo lo van a hacer los mismos usuarios¡±, comenta Degli-Esposti. ¡°De alguna forma es como si sutilmente admitieran que ponen a tu disposici¨®n una herramienta, pero matizan que esta herramienta puede que a¨²n tenga problemas, que es como decir que a¨²n est¨¢ en fase de desarrollo. Tendr¨ªan que comunicarte que est¨¢s asumiendo un riesgo adicional¡±.
En los t¨¦rminos de Meta AI se hace una velada alusi¨®n a que la inteligencia artificial generativa a¨²n se encuentra en una fase incipiente, aunque se habla en positivo de ello. ¡°Las IA son una nueva tecnolog¨ªa y siguen mejorando¡±, rezan las condiciones de uso y rematan con una advertencia: ¡°No podemos garantizar que sean seguras, que nunca sufran errores ni que funcionen sin interrupciones, demoras o imperfecciones¡±. En otro apartado, el texto interpela directamente al usuario: ¡°Reconoces y aceptas que t¨², no Meta, eres responsable de tu uso del contenido generado por la IA en funci¨®n de tus Instrucciones¡±.
Son conceptos que podr¨ªan estar claros para un usuario avanzado de sistemas de IA generativa, pero no para toda la gente. ¡°La clave est¨¢ en la falta de cultura y educaci¨®n actual sobre la IA generativa, sobre c¨®mo obtenemos informaci¨®n de ella, c¨®mo se debe contrastar y c¨®mo debemos aproximarnos a ella¡±, se?ala Javier Borr¨¤s, investigador del CIDOB especializado en la intersecci¨®n entre tecnolog¨ªa y democracia. ¡°Estos sistemas, por su propia naturaleza,?no te ofrecen respuestas verdaderas o falsas. Te ofrecen un resultado basado en una predicci¨®n estad¨ªstica extra¨ªda de todos los datos que tienen. No distinguen entre lo que es verdadero y falso, te ofrecen una probabilidad. Este conocimiento no est¨¢ extendido entre los usuarios¡±.
En busca de un usuario formado e informado
El dilema ¨¦tico viene al poner a disposici¨®n del p¨²blico masivo de las redes sociales herramientas de IA generativa f¨¢cilmente accesibles. ?No deber¨ªa hacerse? Borr¨¤s apunta que los usuarios terminar¨ªan por utilizar otros sistemas de terceros. ¡°Quiz¨¢ lo que deber¨ªan hacer [las redes sociales] es que esta informaci¨®n, de que los resultados pueden ser inexactos y que se deben contrastar, est¨¦ clara cuando obtienes un resultado. El usuario deber¨ªa tener todo el rato el recordatorio de que esto puede suceder, que aparezca cuando obtiene una respuesta¡±, plantea el investigador del CIDOB.
En la versi¨®n en ingl¨¦s, Meta AI tiene una letra peque?a, como descargo de responsabilidad, bajo la barra para preguntar al sistema: ¡°Los mensajes generados con Meta AI pueden ser imprecisos o inapropiados. Obt¨¦n m¨¢s informaci¨®n¡±, esta ¨²ltima parte permite pinchar en un enlace. Al mismo tiempo, recuerda en las condiciones de uso: ¡°Si planeas usar las Respuestas [de Meta AI] por cualquier motivo, ser¨¢ tu exclusiva responsabilidad verificarlas¡±.
Una de las preocupaciones de introducir herramientas de IA generativa accesibles a los usuarios de redes sociales es la expansi¨®n de la desinformaci¨®n. Un mal para el que han servido de altavoz estas plataformas desde hace a?os. Sin embargo, no est¨¢ claro que la IA haya tenido un gran impacto en este campo durante el a?o electoral de 2024, cr¨ªtico por el n¨²mero de elecciones que hab¨ªa en todo el planeta. Borr¨¤s no cree que las herramientas de las redes sociales tengan un mayor impacto del que pueden tener sistemas de terceros.
Es un debate donde aparece la responsabilidad individual. Degli-Esposti destaca que desde el punto de vista ¨¦tico existe otra visi¨®n que pone por delante este aspecto: ¡°El autor es el que proporciona el prompt al sistema. Esto quiere decir que se mantiene un elemento de autonom¨ªa por parte del usuario, que es el que va guiando a la IA en su generaci¨®n y es el que decide si se queda con ese producto final¡±.
El contraargumento viene porque cuando sus usuarios utilizan su IA generativa, las redes sociales obtienen beneficios, a nivel competitivo, de entrenamiento de los algoritmos e incluso de car¨¢cter econ¨®mico. Pues cuanto m¨¢s contenido se genere y se comparta se podr¨¢ introducir en la plataforma m¨¢s publicidad, la principal fuente de ingresos de las redes sociales.
¡°Se necesitar¨ªa un proceso de educaci¨®n a los usuarios, para que tengan una cultura de c¨®mo funciona la IA generativa y de los riesgos que tiene. Y las propias empresas que se lucran con ello tendr¨ªan que tener la responsabilidad de ser parte de este proceso¡±, opina Borr¨¤s. Y a?ade que la formaci¨®n deber¨ªa ir m¨¢s all¨¢: alcanzar al sistema educativo y al tejido empresarial. Una f¨®rmula para que todos usemos con confianza los sistemas de IA generativa.