El exceso de palabras como ¡°encomiable¡± y ¡°meticuloso¡± sugiere el uso de ChatGPT en miles de estudios cient¨ªficos
Un bibliotecario de Londres ha analizado millones de art¨ªculos en busca de t¨¦rminos infrecuentes de los que abusan los programas de inteligencia artificial
El bibliotecario Andrew Gray ha hecho un descubrimiento ¡°muy sorprendente¡±. Ha analizado cinco millones de estudios cient¨ªficos publicados el a?o pasado y ha detectado un subid¨®n repentino en el uso de determinadas palabras, como meticulosamente (un 137% m¨¢s), intrincado (117%), encomiable (83%) y meticuloso (59%), en sus versiones en ingl¨¦s. Gray, del University College de Londres, solo encuentra una explicaci¨®n: decenas de miles de investigadores est¨¢n utilizando ChatGPT ¡ªu otros programas similares de generaci¨®n de lenguaje con inteligencia artificial¡ª para escribir sus estudios o al menos ¡°pulirlos¡±.
Hay ejemplos descarados. Un equipo de cient¨ªficos chinos public¨® el 17 de febrero un estudio sobre bater¨ªas de litio. El trabajo, publicado en una revista especializada de la editorial Elsevier, comenzaba as¨ª: ¡°Por supuesto, aqu¨ª tienes una posible introducci¨®n para tu tema: Las bater¨ªas de litio son candidatas prometedoras para¡¡±. Los autores, aparentemente, pidieron a ChatGPT una introducci¨®n y la copiaron tal cual. Otro art¨ªculo en otra revista de Elsevier, firmado por investigadores israel¨ªes el 8 de marzo, incluye el texto: ¡°En resumen, el manejo de lesiones iatrog¨¦nicas bilaterales Lo siento, pero no tengo acceso a informaci¨®n en tiempo real ni a datos espec¨ªficos de pacientes, ya que soy un modelo de lenguaje de inteligencia artificial¡±. Y, hace un par de meses, tres cient¨ªficos chinos publicaron un delirante dibujo de una rata con una especie de pene gigante, una imagen generada con inteligencia artificial para un estudio sobre c¨¦lulas precursoras de los espermatozoides.
Andrew Gray calcula que al menos 60.000 estudios cient¨ªficos (m¨¢s del 1% de los analizados en 2023) se escribieron con ayuda de ChatGPT ¡ªuna herramienta lanzada a finales de 2022¡ª o similares. ¡°Creo que son infrecuentes los casos extremos de alguien escribiendo un estudio entero con ChatGPT¡±, opina Gray, un bibliotecario escoc¨¦s de 41 a?os. A su juicio, en la mayor¨ªa de los casos la inteligencia artificial se emplea adecuadamente para ¡°pulir¡± el texto ¡ªidentificar erratas o facilitar la traducci¨®n al ingl¨¦s¡ª, pero existe una gran escala de grises, en la que algunos cient¨ªficos aprovechan la asistencia de ChatGPT m¨¢s all¨¢, sin verificar los resultados. ¡°Ahora mismo es imposible saber c¨®mo de grande es esa zona gris, porque las revistas cient¨ªficas no exigen a los autores que declaren el uso de ChatGPT, hay muy poca transparencia¡±, lamenta.
Los modelos de lenguaje por inteligencia artificial usan determinadas palabras de manera desproporcionada, seg¨²n ha demostrado el equipo de James Zou, de la Universidad de Stanford (EE UU). Suelen ser t¨¦rminos con connotaciones positivas, como encomiable, meticuloso, intrincado, innovador y vers¨¢til. Zou y sus colegas alertaron en marzo de que los propios revisores de los estudios cient¨ªficos est¨¢n empleando estos programas para escribir sus valoraciones, previas a la publicaci¨®n de los trabajos. El grupo de Stanford analiz¨® las revisiones de los estudios presentados en dos conferencias internacionales de inteligencia artificial y descubri¨® que la probabilidad de que apareciese la palabra meticuloso se hab¨ªa multiplicado por 35.
El equipo de Zou, en cambio, no detect¨® huellas significativas de ChatGPT en las correcciones realizadas en las prestigiosas revistas del grupo Nature. El uso de ChatGPT estaba asociado a valoraciones de peor calidad. ¡°Me parece realmente preocupante¡±, explica Gray. ¡°Si sabemos que el uso de estas herramientas para escribir revisiones produce resultados de menor calidad, debemos reflexionar sobre c¨®mo se est¨¢n utilizando para escribir estudios y lo que eso implica¡±, se?ala el bibliotecario del University College de Londres. Un a?o despu¨¦s del lanzamiento de ChatGPT, uno de cada tres cient¨ªficos reconoc¨ªa que lo usaba para escribir sus estudios, seg¨²n una encuesta de la revista Nature.
El an¨¢lisis de Gray muestra que la palabra intrincado apareci¨® en 109.000 estudios en 2023, m¨¢s del doble que el promedio de 50.000 de los a?os anteriores. El t¨¦rmino meticulosamente pas¨® de unos 12.300 trabajos en 2022 a m¨¢s de 28.000 en 2023. Encomiable, de 6.500 a casi 12.000. El investigador bromea con que sus colegas le han felicitado por la meticulosidad de su informe, todav¨ªa un borrador pendiente de publicaci¨®n en una revista especializada.
Muy pocos estudios informan del uso de inteligencia artificial en su elaboraci¨®n. Gray alerta de que se puede generar ¡°un c¨ªrculo vicioso¡±, en el que las siguientes versiones de ChatGPT se entrenen con art¨ªculos cient¨ªficos escritos por las versiones antiguas, dando lugar a estudios cada vez m¨¢s encomiables, intrincados, meticulosos y, sobre todo, insustanciales.
El profesor de Documentaci¨®n ?ngel Mar¨ªa Delgado V¨¢zquez subraya el punto de vista anglosaj¨®n del nuevo an¨¢lisis. ¡°Los investigadores que no hablan ingl¨¦s nativo est¨¢n utilizando mucho ChatGPT, como ayuda a la escritura y para la mejora de la lengua inglesa¡±, se?ala el investigador, de la Universidad Pablo de Olavide, en Sevilla. ¡°En mi entorno, la gente est¨¢ utilizando ChatGPT sobre todo para una primera traducci¨®n, o incluso para quedarse directamente con esa traducci¨®n¡±, apunta. El profesor espa?ol echa de menos un an¨¢lisis sobre la procedencia de los autores que emplean t¨¦rminos infrecuentes.
Otra de las palabras favoritas de la inteligencia artificial en ingl¨¦s es delve (indagar o profundizar). El investigador Jeremy Nguyen, de la Universidad de Tecnolog¨ªa Swinburne (Australia), ha calculado que delve ya aparece en m¨¢s del 0,5% de los estudios m¨¦dicos, cuando antes de ChatGPT no llegaba al 0,04%. Son miles de autores que de repente indagan o profundizan. Si se pregunta a la versi¨®n en espa?ol de ChatGPT 3.5 qu¨¦ palabras usa con m¨¢s frecuencia de lo habitual, responde con ejemplos como intrincado, detallado, elogiable y cuidadoso.
El bibliotecario Andrew Gray advierte del riesgo de que la humanidad se contagie de este nuevo lenguaje meticulosamente artificial. El propio Nguyen ha reconocido en la red social X que le ocurre: ¡°Me he dado cuenta de que ¨²ltimamente uso la palabra profundizar por m¨ª mismo, probablemente porque paso mucho tiempo hablando con ChatGPT¡±. El 8 de abril, la cuenta oficial de ChatGPT en X entr¨® al trapo: ¡°Me encanta profundizar, qu¨¦ le voy a hacer¡±.
Puedes seguir a MATERIA en Facebook, X e Instagram, o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.