C¨®mo sobrevive la Wikipedia en la era de ChatGPT
Frente a los avances de la inteligencia artificial, los voluntarios de la gran enciclopedia online refuerzan su control para evitar que el portal se llene de desinformaci¨®n o contenidos promocionales
En Wikipedia siempre ha habido riesgo de que aparezcan art¨ªculos falsos. Solo un ejemplo: durante un tiempo, la p¨¢gina que contaba la biograf¨ªa de un presentador de radio de Irlanda del Norte se?alaba que este hab¨ªa sido una promesa del break dance y que su carrera en el baile urbano se trunc¨® debido a una lesi¨®n en la columna. Pero todo esto era puro troleo. Otras veces, en cambio, hay detr¨¢s fines promocionales o de desinformaci¨®n. El portal tiene ya una larga tradici¨®n afrontando este tipo de problemas. Una comprometida comunidad de 265.000 voluntarios activos los ha controlado hasta ahora. Pero la explosi¨®n de los textos generados con inteligencia artificial plantea nuevos desaf¨ªos.
Con m¨¢s de 16.000 millones de visitas al mes, el prestigio de la Wikipedia est¨¢ fuera de toda duda. Por eso es un lugar codiciado para inyectar desinformaci¨®n o para blanquear mensajes de marketing, de empresas o individuos. Y con la inteligencia artificial (IA) se pueden generar textos cre¨ªbles a discreci¨®n, f¨¢cilmente y sin esfuerzo.
Tras el lanzamiento de ChatGPT, el portal ampli¨® su equipo dedicado al aprendizaje autom¨¢tico. El cofundador de Wikipedia, Jimmy Wales, ha afirmado que la IA es a la vez ¡°una oportunidad y una amenaza¡±. Y en su ¨²ltima campa?a de captaci¨®n de fondos, uno de los reclamos destacaba el papel de la plataforma en la ¡°era de la inteligencia artificial¡±.
Miguel ?ngel Garc¨ªa, socio de Wikimedia Espa?a y exmiembro de la junta directiva, reconoce haberse topado ya con textos sospechosos de haber sido generados con IA. ¡°Hemos notado que aparecen editores nuevos que quieren a?adir contenidos. Y a?aden un contenido muy extenso y muy desarrollado, que es algo raro. Porque cuando t¨² eres un voluntario que empiezas, construyes poco a poco los art¨ªculos. Vas p¨¢rrafo a p¨¢rrafo¡±.
Garc¨ªa conoce bien estos patrones. Empez¨® a colaborar con Wikipedia en 2006, cuando estaba en el instituto. Correg¨ªa alguna falta de ortograf¨ªa o aplicaba cambios gramaticales evidentes. Su primer art¨ªculo lo cre¨® porque hizo un trabajo sobre el pueblo de sus padres, Campaspera, cerca de Valladolid. No hab¨ªa ninguna informaci¨®n de esta localidad en el portal, as¨ª que subi¨® su texto con fotos hechas por ¨¦l mismo.
¡°Desde que existe la inteligencia artificial aparecen cada vez m¨¢s voluntarios que te pegan un texto gigante, aparentemente bien estructurado y bien desarrollado. Pero luego lo lees y descubres las redundancias que una persona es capaz de detectar muchas veces en los textos hechos con inteligencia artificial¡±, se refiere Garc¨ªa a coletillas y cierta manera de presentar la informaci¨®n, con introducciones y conclusiones manidas.
Este tipo de textos corren el riesgo de perderse en un oc¨¦ano de m¨¢s de 62 millones de art¨ªculos en m¨¢s de 300 lenguas. Chris Albon, director de Aprendizaje Autom¨¢tico en la Fundaci¨®n Wikimedia, que controla Wikipedia, se?ala que desde el 2002 algunos voluntarios han utilizado herramientas de IA, sobre todo en tareas redundantes. La tecnolog¨ªa no les es ajena. Y la clave para controlar los textos inadecuados est¨¢ precisamente en la comunidad de voluntarios, que hace la moderaci¨®n del contenido. No solo escriben textos, tambi¨¦n los editan y discriminan cu¨¢les pueden no ser valioso.
¡°En esta nueva era de la inteligencia artificial, la fuerza de este modelo de moderaci¨®n de contenido liderado por personas es m¨¢s relevante. El modelo de Wikipedia, basado en el debate, el consenso y normas estrictas de citado [de fuentes] se ha mostrado resiliente para mantener la calidad del contenido en las ¨²ltimas dos d¨¦cadas¡±, afirma Albon. Todo texto debe estar referenciado con fuentes secundarias, que son enlaces a p¨¢ginas de otros sitios web.
Sospechoso subid¨®n cuando naci¨® ChatGPT
Si un art¨ªculo no tiene fuentes, la comunidad de voluntarios lo detecta y act¨²a. ¡°En la mayor¨ªa de casos, los art¨ªculos se borran instant¨¢neamente, porque a golpe de dos clics eres capaz de detectar que el texto no tiene ni pies ni cabeza. Si no es as¨ª, se suelen marcar para que se borren autom¨¢ticamente en un plazo m¨¢ximo de 30 d¨ªas si el autor no es capaz de acreditar con fuentes lo que est¨¢ escrito¡±, explica Garc¨ªa.
El socio de Wikimedia Espa?a cuenta que cuando surgi¨® ChatGPT hubo un pico de textos generados con IA que se sub¨ªan al portal. Pero ahora la tendencia se habr¨ªa estabilizado gracias a los esfuerzos de la comunidad. Por su parte, Albon dice que hay que aprender a convivir con estas herramientas. ¡°El enfoque de Wikipedia hacia la IA siempre ha sido que las personas editan, mejoran y auditan el trabajo que hace la IA. Los voluntarios crean las pol¨ªticas para el uso responsable de herramientas de IA en Wikipedia y vigilan su correcta aplicaci¨®n¡±, reflexiona. El portal no penaliza el uso de la inteligencia artificial en los textos, sino que estos no se ajusten a la calidad que exigen sus pol¨ªticas.
El mayor riesgo para Wikipedia, seg¨²n Garc¨ªa, estar¨ªa fuera de ella. Y es que la plataforma bebe de fuentes secundarias. ¡°Veo un problema a medio plazo en relaci¨®n con posibles textos generados con IA que se conviertan en fuentes aparentemente fiables en el mundo real. Cada vez surgen m¨¢s peri¨®dicos digitales que publican casi cualquier cosa. Llega un punto en que hay gente que quiere referenciar textos con esos pseudomedios¡±, apunta.
La soluci¨®n, como casi todo en la plataforma, se encuentra en los editores. Si los voluntarios detectan que un sitio es poco fiable, la comunidad puede decidir meterlo en una lista negra. Sucedi¨® con un medio tan asentado como el tabloide Daily Mail. Hace unos a?os se prohibi¨® su uso como fuente debido a que el sensacionalista brit¨¢nico hab¨ªa publicado repetidas informaciones sin contrastar.
El baile de Wikipedia con los chats de IA
Existe otra preocupaci¨®n relativa al futuro de Wikipedia en esta era de la inteligencia artificial. En un hipot¨¦tico escenario en el que los chatbots, como ChatGPT o Google Gemini, resuelvan las consultas de los usuarios con un resumen, ?qui¨¦n visitar¨¢ los art¨ªculos de Wikipedia? Y m¨¢s a¨²n, ?qui¨¦n los editar¨¢?
¡°Si hay una desconexi¨®n entre d¨®nde se genera el conocimiento, como por ejemplo en Wikipedia, y d¨®nde se consume, como por ejemplo en ChatGPT, corremos el riesgo de perder a una generaci¨®n de voluntarios¡±, razona Albon.
Conectar los sitios que tienen el conocimiento con los chatbots de IA, que lo extraen y lo replican, tiene tambi¨¦n un inter¨¦s general. ¡°Sin una atribuci¨®n clara y enlaces a la fuente original de donde se ha obtenido la informaci¨®n, las aplicaciones de IA corren el riesgo de introducir una cantidad de desinformaci¨®n sin precedentes en el mundo. Los usuarios no podr¨¢n distinguir f¨¢cilmente entre informaci¨®n precisa y alucinaciones. Pensamos mucho en este reto y creemos que la soluci¨®n es la atribuci¨®n¡±, comenta el director de Aprendizaje Autom¨¢tico de Wikimedia.
La coyuntura es ir¨®nica. Porque se sabe, las aplicaciones como ChatGPT o Google Gemini se basan en sistemas que se han entrenado con el contenido de Wikipedia. As¨ª, una parte del conocimiento adquirido por los modelos de lenguaje grandes (LLM, por sus siglas en ingl¨¦s) viene de esos millones y millones de art¨ªculos subidos y editados por personas voluntarias.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.