C¨®mo usar la IA contra teor¨ªas de la conspiraci¨®n: ¡°No, la inmigraci¨®n no aumenta la criminalidad¡±
Una investigaci¨®n desarrolla un robot conversacional de inteligencia artificial para combatir con datos los mensajes t¨®xicos y la desinformaci¨®n
La llegada al pueblo sevillano de Alcal¨¢ de Guada¨ªra (75.000 habitantes) de 85 solicitantes de asilo que huyen de la guerra en Mal¨ª ha desatado esta semana una campa?a de odio, insultos e incitaci¨®n a la violencia en los colectores de las redes sociales. ¡°Habr¨ªa que ahorcarla¡±, llega a publicar una usuaria entre decenas de mensajes vejatorios, machistas y amenazantes contra la alcaldesa, la socialista Ana Isabel Jim¨¦nez, quien ha pedido ¡°responsabilidad¡± a los vecinos. La xenofobia, fundamentada en mentiras y tergiversaciones, alimenta los canales ¨¢vidos de tr¨¢fico, pol¨¦mica, datos y del dinero que conllevan. Dos investigaciones intentan poner diques contra la avalancha de lodo digital: una del JRC europeo se?ala que es m¨¢s eficaz desmentir que prevenir y otra, que publica este jueves Science, defiende que el di¨¢logo con una m¨¢quina de inteligencia artificial (IA) puede ayudar a combatir la desinformaci¨®n y manipulaci¨®n. ?La inmigraci¨®n aumenta la criminalidad? La IA responde: ¡°No, al contrario¡±.
El chat de inteligencia artificial entrenado espec¨ªficamente para combatir teor¨ªas conspirativas y bulos (Debunkbot.com), desarrollado por investigadores del MIT (Massachusetts Institute of Technology) y la Universidad de Cornell, ya est¨¢ operativo y puede responder en espa?ol, aunque la interfaz sea en ingl¨¦s. Ante la pregunta sobre la relaci¨®n de migraci¨®n y criminalidad, responde con empat¨ªa primero (agradece la cuesti¨®n y entiende que es un asunto de actualidad) para, de inmediato, ¡°ofrecer informaci¨®n que podr¨ªa aportar un punto de vista diferente¡±. Este es un resumen de la respuesta:
¡°M¨²ltiples estudios [en la versi¨®n en espa?ol cita a Journal of Ethnicity in Criminal Justice] han demostrado consistentemente que los inmigrantes tienen menos probabilidades de cometer delitos que los ciudadanos nativos. Por ejemplo, el Instituto Cato, que lleva a cabo investigaciones no partidistas, descubri¨® que tanto los inmigrantes legales [documentados] como los ilegales [indocumentados] tienen tasas de encarcelamiento muy inferiores a las de los estadounidenses nativos¡±.
Y a?ade: ¡°Adem¨¢s, los datos de criminalidad del FBI indican que las ¨¢reas con un mayor n¨²mero de inmigrantes, a menudo, experimentan una disminuci¨®n o estabilizaci¨®n en las tasas de criminalidad, en lugar de un aumento. Esto puede parecer contradictorio al principio, pero una posible explicaci¨®n es que los inmigrantes, a menudo, contribuyen al crecimiento econ¨®mico, inician nuevos negocios y aumentan la vitalidad de las comunidades, lo que puede conducir a tasas de criminalidad m¨¢s bajas¡±.
El di¨¢logo es m¨¢s complejo y largo, pero la m¨¢quina no desfallece y responde con datos a cada prejuicio. Los bulos, falsedades que se difunden, independientemente de si hay intenci¨®n de enga?ar (misinformation), y la informaci¨®n sesgada intencionadamente con la intenci¨®n de manipular (desinformaci¨®n) est¨¢n, seg¨²n el Foro Econ¨®mico Mundial, entre las mayores amenazas globales. Tambi¨¦n lo piensan el cofundador de Microsoft Bill Gates, que ve especialmente vulnerables a los j¨®venes, o el panel de expertos de decenas de universidades e instituciones que firma el informe sobre ¨¦tica de la inteligencia artificial (IA) para Google DeepMind, donde se advierte de que esta herramienta puede ser un arma que potencie la creaci¨®n y difusi¨®n de mentiras.
Sin embargo, Thomas Costello, profesor de psicolog¨ªa en la Universidad Americana (Washington) e investigador del MIT, cree que las conversaciones personalizadas con el chat de IA son capaces de combatir de forma m¨¢s eficaz que las personas los bulos y las teor¨ªas conspirativas (la modalidad de desinformaci¨®n que atribuye a un poderoso grupo mal¨¦volo t¨¢cticas para alcanzar un objetivo malicioso y oculto). ¡°Los modelos de IA tienen acceso a una tonelada de informaci¨®n sobre diversos temas, han sido entrenados y, por lo tanto, tienen la capacidad de contraargumentar con hechos teor¨ªas particulares que la gente cree¡±, afirma tras refutar que las falsedades difundidas sean ¡°impermeables al cambio¡±.
¡°En contraste con la visi¨®n pesimista, una conversaci¨®n relativamente breve con un modelo de IA generativa puede producir una disminuci¨®n significativa y s¨®lida de las creencias, incluso entre las personas con convicciones profundamente arraigadas¡±, asegura.
Seg¨²n explica en el estudio, hasta el 50% de la poblaci¨®n de los Estados Unidos ha llegado a creerse alguna de estas falsedades, a pesar de las evidencias, ¡°por procesos sociopsicol¨®gicos¡± que satisfacen y respaldan prejuicios, as¨ª como para mantener su pertenencia a un grupo determinado de ideas similares.
Los resultados del experimento, que sigue abierto, han revelado una reducci¨®n de las creencias err¨®neas en un 20% y que el beneficio del di¨¢logo se prolonga, al menos, durante los dos meses posteriores a la conversaci¨®n en todas las mentiras analizadas y en todas las categor¨ªas demogr¨¢ficas, seg¨²n David Rand, investigador del MIT en ciencias cognitivas y coautor del estudio.
¡°Comprobamos que el chat estaba haciendo que la gente fuera menos conspirativa en general y tambi¨¦n que aumentaban sus intenciones de ignorar, bloquear cuentas de redes sociales, dejar de compartir conspiraciones o evitar el di¨¢logo con personas que defienden esas teor¨ªas. Funciona¡±, resalta Rand.
Gordon Pennycook, profesor de psicolog¨ªa de la Universidad de Cornell y tambi¨¦n coautor de la investigaci¨®n, coincide, aunque admite que queda trabajo por hacer: ¡°Podemos usar estas herramientas [IA] para ayudar a mejorar las cosas, pero tenemos que entender realmente la psicolog¨ªa subyacente¡±.
El chat se ha enfrentado a 2.190 personas y un verificador independiente ha ratificado que el 99,2% de las respuestas autom¨¢ticas eran ¡°verdaderas¡±, frente al 0,8% calificadas como ¡°enga?osas¡±. Ninguna se consider¨® ¡°falsa¡± o con un sesgo progresista o conservador.
Bence Bago, profesor de Ciencias Sociales y del Comportamiento en la Universidad de Tilburg (Pa¨ªses Bajos) y Jean-Fran?ois Bonnefon, responsable del programa IA y Sociedad en la Escuela de Econom¨ªa de Toulouse (Francia), defienden la propuesta (en la que no han participado) en una evaluaci¨®n conjunta: ¡°Para bien o para mal, la inteligencia artificial est¨¢ destinada a cambiar profundamente nuestra cultura. Aunque ha sido ampliamente criticada como un multiplicador de fuerza para la desinformaci¨®n, el estudio demuestra una posible aplicaci¨®n positiva del poder persuasivo de la IA generativa¡±.
La IA como amenaza
Esta habilidad ¡°persuasiva¡± contrasta con las amenazas que los investigadores que han participado en el informe sobre ¨¦tica para Google detectan en los desarrollos alimentados con grandes modelos de lenguaje y destinados al uso general. Seg¨²n los autores, ¡°los asistentes avanzados de IA plantean cuatro riesgos principales para el ecosistema de la informaci¨®n. En primer lugar, pueden hacer que los usuarios sean m¨¢s susceptibles a la desinformaci¨®n si las personas desarrollan relaciones de confianza con estos sistemas y recurren a ellos de manera acr¨ªtica como fuentes fiables de informaci¨®n. En segundo lugar, pueden proporcionar informaci¨®n ideol¨®gicamente sesgada o parcial a los usuarios en un esfuerzo por alinearse con las expectativas de estos y reforzar ideolog¨ªas y sesgos espec¨ªficos, lo que a su vez comprometer¨¢ el debate pol¨ªtico saludable. En tercer lugar, los asistentes de IA pueden erosionar la confianza de la sociedad en el conocimiento compartido al contribuir a la difusi¨®n de grandes vol¨²menes de informaci¨®n que parece plausible, pero de baja calidad. Por ¨²ltimo, pueden facilitar campa?as de desinformaci¨®n hiperdirigidas al ofrecer formas novedosas y encubiertas para que los propagandistas manipulen la opini¨®n p¨²blica¡±.
Este grupo de expertos, encabezado por la investigadora Nahema Marchal, de Google DeepMind, propone varias soluciones. En el ¨¢mbito t¨¦cnico, limitar las funcionalidades de los asistentes de IA, desarrollar mecanismos robustos de detecci¨®n de falsedades, como el reci¨¦n creado Debunkbot, y promover los resultados fundamentados en ¡°pensamiento cr¨ªtico¡± y ¡°hechos contrastados¡±.
En el ¨¢mbito pol¨ªtico, el grupo sugiere restringir aplicaciones que vulneren la ¨¦tica, implementar mecanismos de transparencia y desarrollar f¨®rmulas de educaci¨®n.
M¨¢s vale desmentir
En la misma l¨ªnea del chat contra los bulos, un grupo de investigadores del Centro Com¨²n de Investigaci¨®n (JRC, Joint Research Centre) de la Comisi¨®n Europea ha recomendado otra l¨ªnea de actuaci¨®n al constatar ¡°la eficacia relativa de los diferentes tipos de intervenciones para contrarrestar la desinformaci¨®n¡±.
Un estudio publicado en Scientific Reports muestra los resultados sobre un experimento con 5.228 participantes de Alemania, Grecia, Irlanda y Polonia. Los participantes estuvieron expuestos a informaci¨®n err¨®nea sobre el cambio clim¨¢tico o la covid. Un grupo recibi¨® datos ¡°de forma preventiva¡± (prebunk), antes de encontrarse con la informaci¨®n falsa, y fue advertido de ¡°las estrategias enga?osas com¨²nmente utilizadas¡±. A otros participantes se les facilit¨® ¡°una intervenci¨®n de desacreditaci¨®n [de la mentira] posterior¡±, tras la difusi¨®n de la falsedad.
Los hallazgos confirman la vulnerabilidad ante la desinformaci¨®n y demuestran que ¡°los desmentidos son ligeramente m¨¢s efectivos que los prebunks¡±, seg¨²n concluye el estudio.
Revelar la fuente de las intervenciones no afect¨® significativamente su efectividad general, pero s¨ª se constat¨® que ¡°los desmentidos con fuentes reveladas [en este caso se identific¨® a la Comisi¨®n Europea como aval de veracidad] fueron menos efectivos¡± a la hora de desacreditar la informaci¨®n err¨®nea entre aquellos participantes ¡°con bajos niveles de confianza en la Uni¨®n Europea¡±.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.