Los da?os de la IA: suicidio, aprovechar la muerte de extra?os, crear ¡®deepfakes¡¯ pornogr¨¢ficos y productos defectuosos
Los perjuicios que puede causar la inteligencia artificial en las personas se quedan sin abordar de forma eficaz en la legislaci¨®n sobre la nueva herramienta tecnol¨®gica
Sewell Setzer, de 14 a?os, se suicid¨® el pasado febrero tras enamorarse de un personaje creado por inteligencia artificial en la plataforma Character.AI, seg¨²n la demanda de la familia del adolescente contra la compa?¨ªa. El fallecido Paul Mohney nunca entr¨® en combate ni Olena Zelenska, esposa del presidente de Ucrania, se ha comprado un Bugatti Turbillon. Pero la informaci¨®n falsa, creada con ayuda de la inteligencia artificial (IA), se ha difundido con la intenci¨®n de ganar dinero f¨¢cil con la publicidad en p¨¢ginas de obituarios o para generar propaganda rusa. Una limpiadora de colegios de Edimburgo, con una familia monoparental de dos hijos, se qued¨® sin sus prestaciones, como muchas otras mujeres en sus circunstancias, por un sesgo de la inteligencia artificial del sistema. A un cliente de una plataforma de pago, el algoritmo le advirti¨® de una transacci¨®n que nunca existi¨®, una demanda cuestiona la seguridad de un veh¨ªculo por un supuesto error de programaci¨®n y miles de usuarios ven utilizados sus datos sin consentimiento. Al final de la cadena de inteligencia artificial hay personas, pero la responsabilidad sobre los da?os que puede causar en ellas no est¨¢ del todo definida. ¡°Aqu¨ª encontramos un vac¨ªo legislativo alarmante¡±, advierte Cecilia Danesi, codirectora del m¨¢ster en Gobernanza ¨¦tica de la IA (UPSA)y autora de Derechos del consumidor en la encrucijada de la inteligencia artificial (Dykinson, 2024).
Hacer dinero con la muerte de extra?os. Es f¨¢cil y barato con la inteligencia artificial, aunque sea a costa de difundir falsedades que aumentan el dolor de los familiares de los fallecidos. Se realiza a trav¨¦s de p¨¢ginas de obituarios donde la IA elabora una informaci¨®n sobre el finado con datos reales o inventados, como la historia militar de Mohney, para ganar tr¨¢fico y, por tanto, ingresos por publicidad. ¡°Hay una estrategia completamente nueva que se basa en obtener informaci¨®n de alguien que ha muerto, ver que hay un peque?o aumento en el tr¨¢fico, aunque sea en una zona particular, y publicar r¨¢pidamente art¨ªculos sobre la persona para obtener estos goteos de tr¨¢fico¡±, explica el experto en mecanismos de b¨²squeda Chris Silver Smith a Fastcompany.
Informaci¨®n falsa y deepfakes pornogr¨¢ficos. La p¨¢gina AI Incidents recoge mes a mes decenas de alertas de incidentes generados por la inteligencia artificial o casos de abusos y ya lleva identificadas m¨¢s de 800 reclamaciones. En uno de sus ¨²ltimos registros, incluye informaci¨®n falsa sobre el intento de asesinato de Donald Trump, la candidata dem¨®crata a la presidencia de EE UU, Kamala Harris, o sobre im¨¢genes pornogr¨¢ficas falsas y realistas (deepfakes) de pol¨ªticas brit¨¢nicas. El temor a los efectos de estas creaciones y su viralizaci¨®n en procesos democr¨¢ticos aumenta y el 31 % de los europeos cree que la IA ya ha influido en sus decisiones de voto, seg¨²n una encuesta para el European Tech Insights Report 2024, desarrollado por el Center for the Governance of Change (CGC) de IE University.
¡°La inquietud de la ciudadan¨ªa por el papel de la IA en el desarrollo de las elecciones es cada vez mayor. Y, si bien a¨²n no hay pruebas evidentes de que haya provocado alteraciones sustanciales de sus resultados, la irrupci¨®n de la IA ha aumentado la preocupaci¨®n por la desinformaci¨®n y la tecnolog¨ªa deepfake en todo el mundo¡±, se?ala Carlos Luca de Tena, director ejecutivo de CGC.
¡°En la creaci¨®n de un video o una imagen falsos con IA generativa est¨¢ claro que la IA es un medio, una herramienta, por lo que la responsabilidad ser¨¢ del creador. El problema principal es que en la mayor¨ªa de los casos es imposible identificarlo. El caso de las pornfake [im¨¢genes falsas de contenido pornogr¨¢fico], por ejemplo, impacta directo en la brecha de g¨¦nero, ya que las plataformas te incentivan a usarlas con im¨¢genes de mujeres. Al tener m¨¢s cantidad de fotos de este g¨¦nero, se vuelven m¨¢s precisas con nuestros cuerpos y el resultado es la mayor marginalizaci¨®n y estigmatizaci¨®n de las mujeres. Por ello, en la era de la desinformaci¨®n y de la cultura de la cancelaci¨®n, es sumamente importante la educaci¨®n y que como usuarios hagamos el doble check [doble comprobaci¨®n] de cada contenido que vemos y, sobre todo, verificarlo antes de interactuar con ¨¦l¡±, explica Danesi.
La investigadora, integrante de Women for Ethical in AI de la UNESCO y coautora del informe presentado en el G20 Brasil sobre auditor¨ªas algor¨ªtmicas, a?ade, en relaci¨®n con los efectos de la desinformaci¨®n: ¡°Un algoritmo puede tener un doble rol: uno para la creaci¨®n de una noticia falsa a trav¨¦s de la IA generativa y otro, mediante los motores de b¨²squeda o los algoritmos de las redes sociales que viralizan el contenido falso. En este segundo caso, es claro que no podemos exigirles a las plataformas que verifiquen cada contenido que se publica. Es materialmente imposible¡±.
Discriminaci¨®n autom¨¢tica. Entre las denuncias por disfunciones de la IA tambi¨¦n figura una por la inclusi¨®n de un sesgo que perjudica a familias monoparentales (en un 90% formadas por mujeres) en un sistema de prestaciones escoc¨¦s. ¡°Si bien el Reglamento de IA tiene diversas disposiciones para evitar sesgos (especialmente en lo que concierne a los requisitos que deben cumplir los sistemas de alto riesgo), al no regular cuestiones atenientes a la responsabilidad civil no contribuye a que la v¨ªctima reciba una indemnizaci¨®n. Lo mismo sucede con la Ley de Servicios Digitales que impone determinadas obligaciones de transparencia para las plataformas digitales¡±, explica Danesi.
Producto defectuoso. La p¨¢gina de incidentes con la IA recoge un caso judicial abierto por un posible defecto en la programaci¨®n de un veh¨ªculo que podr¨ªa afectar a la seguridad. En este sentido, la investigadora detalla: ¡°En lo que respecta a la reforma de la Directiva sobre Productos Defectuosos, se queda a mitad camino tambi¨¦n. El problema radica en los tipos de da?os que podr¨¢n ser reclamados al amparo de la norma, ya que no incluye por ejemplo los da?os morales. Los ataques a la intimidad o la discriminaci¨®n quedan excluidos del amparo de la Directiva¡±.
Estos casos demuestran, a juicio de Danesi, que una de las ¨¢reas del Derecho que necesitan una pronta atenci¨®n por la llegada de la IA es la de la responsabilidad civil. ¡°Porque los consumidores estamos sumamente expuestos a los da?os que pueden ocasionar. Si no tenemos normas claras de c¨®mo proceder frente a esos da?os, las personas quedan desprotegidas. Pero, adem¨¢s, normas claras en materia de responsabilidad civil brindan seguridad jur¨ªdica, fomentan la innovaci¨®n y, en caso de que se produzca un hecho da?oso, incentivan la celebraci¨®n de un acuerdo. Esto se debe a que, al saber las empresas de antemano las reglas del juego en materia de responsabilidad, deciden d¨®nde y en qu¨¦ invertir con mayor certeza acerca del escenario en el que trabajaran¡±, argumenta.
Hay iniciativas en el ¨¢mbito europeo que intentan abordar la cuesti¨®n, seg¨²n explica la investigadora, como el Reglamento de Inteligencia Artificial, la Ley de Servicios Digitales (que establece medidas que afectan a los algoritmos de las plataformas digitales, redes sociales, motores de b¨²squeda, etc¨¦tera), la propuesta de Directiva sobre responsabilidad en materia de IA y la inminente reforma de la Directiva sobre productos defectuosos.
¡°Esa Directiva hab¨ªa quedado obsoleta. Se discut¨ªa incluso si era aplicable o no a los sistemas de IA, puesto que la definici¨®n de producto estaba basada en algo m¨¢s bien f¨ªsico y no digital. La modificaci¨®n incluye una ampliaci¨®n del concepto de producto, ya que incluye a los archivos de fabricaci¨®n digital y los programas inform¨¢ticos. El foco de la norma est¨¢ puesto en la protecci¨®n del individuo, con lo cual, con acierto resulta irrelevante si el da?o se produce por un producto f¨ªsico o digital¡±, explica.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.