ChatGPT miente mejor que los humanos
Un nuevo estudio descubre que es m¨¢s dif¨ªcil detectar la desinformaci¨®n en tuits si estos est¨¢n escritos por una inteligencia artificial
Un grupo de 697 personas ley¨® 220 de tuits escritos por otros humanos y por el modelo de inteligencia artificial GPT-3, el germen del actual ¨¦xito global ChatGPT. Ten¨ªan que adivinar dos cosas: uno, cu¨¢les eran verdaderos y cu¨¢les falsos y, dos, si hab¨ªan sido escritos por una persona o por la m¨¢quina. GPT-3 gan¨® en ambos casos: minti¨® mejor que los humanos y tambi¨¦n minti¨® para hacer creer que era otro humano quien escrib¨ªa. ¡°GPT-3 es capaz de informarnos y desinformarnos mejor¡±, concluyen los autores de un nuevo estudio, que acaba de publicar la revista Science Advances.
¡°Fue muy sorprendente¡±, dice Giovanni Spitale, investigador de la Universidad de Zurich y coautor del art¨ªculo cient¨ªfico, junto a su colega Federico Germani y Nikola Biller-Andorno, directora del Instituto de ?tica Biom¨¦dica de esa universidad suiza. ¡°Nuestra hip¨®tesis era: si lees un solo tuit, podr¨ªa pasar como org¨¢nico [escrito por una persona]. Pero si ves muchos, comenzar¨¢s a notar caracter¨ªsticas ling¨¹¨ªsticas que podr¨ªan usarse para inferir que podr¨ªa ser sint¨¦tico [escrito por la m¨¢quina]¡±, a?ade Spitale. Pero no fue as¨ª: los humanos que le¨ªan no fueron capaces de detectar patrones en los textos de la m¨¢quina. Por si fuera poco, la progresiva aparici¨®n de modelos m¨¢s nuevos y otros enfoques pueden incluso mejorar esa capacidad de la inteligencia artificial para suplantar a humanos.
Una escritura m¨¢s clara
El nivel de escritura de ChatGPT-4, la versi¨®n mejorada de GPT-3, es pr¨¢cticamente perfecto. Este nuevo estudio es una prueba m¨¢s para comprobar que un humano es incapaz de distinguirlo, ni siquiera viendo muchos ejemplos seguidos: ¡°Los tuits verdaderos requer¨ªan de m¨¢s tiempo para ser evaluados que los falsos¡±, dice el art¨ªculo. La m¨¢quina escribe m¨¢s claro, parece. ¡°Es muy claro, bien organizado, f¨¢cil de seguir¡±, dice Spitale.
La consecuencia l¨®gica de este proceso ser¨¢ el creciente uso de esta herramienta para escribir cualquier tipo de contenido, incluidas campa?as de desinformaci¨®n. Ser¨¢ la en¨¦sima muerte de internet: ¡°La IA est¨¢ matando la vieja internet, y la nueva no logra nacer¡±, titulaba esta semana The Verge, medio especializado en tecnolog¨ªa. Los autores del estudio reci¨¦n publicado apuntan a un motivo para esta derrota de la humanidad en internet: la teor¨ªa de la resignaci¨®n. ¡°Estoy completamente seguro de que ser¨¢ as¨ª¡±, dice Spitale.
¡°Nuestra teor¨ªa de la resignaci¨®n se aplica a la autoconfianza de las personas para identificar texto sint¨¦tico. La teor¨ªa dice que la exposici¨®n cr¨ªtica al texto sint¨¦tico reduce la capacidad de las personas para distinguir lo sint¨¦tico de lo org¨¢nico¡±, explica Spitale. Cuanto m¨¢s texto sint¨¦tico leamos, m¨¢s dif¨ªcil ser¨¢ distinguirlo del escrito por personas. Es la idea opuesta a la de la teor¨ªa de la inoculaci¨®n, a?ade Spitale, que dice que ¡°la exposici¨®n cr¨ªtica a la desinformaci¨®n aumenta la capacidad de las personas para reconocer la desinformaci¨®n¡±.
Si la teor¨ªa de la resignaci¨®n se cumple, pronto los usuarios ser¨¢n incapaces de distinguir en internet qu¨¦ ha sido escrito por un humano o por una m¨¢quina. En el art¨ªculo tambi¨¦n han probado si GPT-3 era bueno identificando sus propios textos. Y no lo es.
La m¨¢quina desobedece
La ¨²nica esperanza para que las campa?as de desinformaci¨®n no sean completamente autom¨¢ticas es que GPT-3 a veces desobedec¨ªa las ¨®rdenes de crear mentiras: depende de c¨®mo ha sido entrenado cada modelo. Los temas de los 220 tuits usados en la prueba del art¨ªculo eran m¨¢s bien proclives a la pol¨¦mica: cambio clim¨¢tico, vacunas, teor¨ªa de la evoluci¨®n, covid. Los investigadores comprobaron que en algunos casos GPT-3 no respond¨ªa bien a sus peticiones de desinformaci¨®n. Sobre todo en algunos de los casos con m¨¢s evidencia: vacunas y autismo, homeopat¨ªa y c¨¢ncer, terraplanismo.
A la hora de detectar falsedades, la diferencia entre los tuits escritos por GPT-3 y por humanos era peque?a. Pero para los investigadores es significativa por dos motivos. Primero, el impacto que pueden tener incluso pocos mensajes sueltos en muestras grandes. Segundo, la mejora en nuevas versiones de estos modelos pueden exacerbar las diferencias. ¡°Ya estamos probando GPT-4 a trav¨¦s de la interfaz ChatGPT y vemos que el modelo est¨¢ mejorando mucho. Pero debido a que no hay acceso a la API [que permite automatizar el proceso], no tenemos a¨²n n¨²meros para respaldar esta afirmaci¨®n¡±, dice Spitale.
El estudio tiene otras limitaciones que pueden hacer variar de alg¨²n modo la percepci¨®n al leer tuits falsos. La mayor¨ªa de participantes ten¨ªa m¨¢s de 42 a?os, se hizo solo en ingl¨¦s y no ten¨ªa en cuenta la informaci¨®n de contexto de los tuits: perfil, tuits anteriores. ¡°Reclutamos a los participantes en Facebook porque quer¨ªamos una muestra de usuarios reales de las redes sociales. Ser¨ªa interesante replicar el estudio reclutando participantes a trav¨¦s de TikTok y comparar resultados¡±, aclara Spitale
Pero m¨¢s all¨¢ de estas limitaciones, hay campa?as de desinformaci¨®n que hasta ahora eran enormemente costosas y que de repente se han vuelto asumibles: ¡°Imagina que eres un poderoso presidente con inter¨¦s en paralizar la salud p¨²blica de otro Estado. O que quieres sembrar la discordia antes de unas elecciones. En lugar de contratar una granja de troles humanos, podr¨ªas usar IA generativa. Tu potencia de fuego se multiplica al menos por 1.000. Y ese es un riesgo inmediato, no algo para un futuro dist¨®pico¡±, dice Spitale.
Para evitarlo, los investigadores ofrecen en su art¨ªculo como soluci¨®n que las bases de datos para entrenar estos modelos ¡°est¨¦n regulados por los principios de precisi¨®n y transparencia, que su informaci¨®n deba estar verificada y su origen deber¨ªa ser abierto al escrutinio independiente¡±. Si esa regulaci¨®n ocurre o no, habr¨¢ consecuencias: ¡°Que la explosi¨®n de texto sint¨¦tico sea tambi¨¦n una explosi¨®n de desinformaci¨®n depende profundamente de c¨®mo las sociedades democr¨¢ticas logren regular esta tecnolog¨ªa y su uso¡±, advierte Spitale.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.