Por qu¨¦ exempleados de OpenAI alertan del peligro de la inteligencia artificial a pesar del riesgo de perder sus millones
Trabajadores de la compa?¨ªa que cre¨® ChatGPT denuncian en una carta que est¨¢n obligados a firmar contratos donde no pueden criticar a la empresa tras su salida si no quieren perder su dinero
Un grupo de ex empleados y trabajadores an¨®nimos de OpenAI han publicado una carta para advertir de c¨®mo la empresa prioriza los incentivos comerciales por encima de los peligros de desarrollar sistemas de IA cada vez m¨¢s avanzados. Los firmantes lamentan la cultura interna de secretismo y de c¨®mo la empresa les obliga a firmar contratos donde no pueden criticar a OpenAI tras su salida si no quieren perder su dinero.
En la carta, firmada por cinco ex empleados y seis trabajadores ¡°an¨®nimos¡± de OpenAI, piden que la empresa retire esos contratos y que abra v¨ªas de denuncia interna ante avances peligrosos. ¡°Mi esposa y yo lo pensamos mucho y decidimos que mi libertad para expresarme en el futuro era m¨¢s importante que las acciones [de OpenAI]¡±, escribi¨® en X [antes Twitter] Daniel Kokotajlo, que sali¨® en abril de su cargo en el departamento de Gobernanza de OpenAI, y que dijo al New York Times que el valor de sus acciones rondaba los 1,6 millones de euros.
5/15: My wife and I thought hard about it and decided that my freedom to speak up in the future was more important than the equity. I told OpenAI that I could not sign because I did not think the policy was ethical; they accepted my decision, and we parted ways.
— Daniel Kokotajlo (@DKokotajlo67142) June 4, 2024
¡°El mundo no est¨¢ preparado y nosotros no estamos preparados¡±, escribi¨® Kokotajlo en su correo de despedida. ¡°Y estoy preocupado de que nos hemos lanzado hacia delante sin que importe nada y sin racionalizar nuestras acciones¡±, a?adi¨®. Otro de los firmantes, William Saunders, dijo a la revista Time que su dinero peligraba al hablar en p¨²blico: ¡°?Al hablar contigo, podr¨ªa perder la oportunidad de acceder a acciones valoradas en millones de d¨®lares. Pero creo que es m¨¢s importante tener un di¨¢logo p¨²blico sobre lo que pasa en estas empresas de IA¡±.
Esta carta no es la primera sobre los peligros de la IA en su carrera desenfrenada hacia la ¡°inteligencia artificial general¡± (AGI en sus siglas en ingl¨¦s), argot de la industria para referirse al momento en que las m¨¢quinas obtengan la capacidad de pensar y decidir como un humano. En marzo de 2023 miles de expertos pidieron pausar sus avances, en mayo del a?o pasado otros 350 firmaron un manifiesto de 22 palabras donde ped¨ªan ¡°mitigar el riesgo de extinci¨®n¡±. Entre medias, el propio Sam Altman, cofundador de OpenAI, fue al Congreso a decir que ¡°todo puede salir muy mal¡± y Geoffrey Hinton, uno de los padrinos de la IA, dej¨® Google para alertar libremente sobre el futuro amenazante.
Hinton tambi¨¦n apoya esta nueva carta de empleados de OpenAI, junto a Yoshua Bengio, otro de los ganadores del premio Turing, el ¡°Nobel de Inform¨¢tica¡± por sus logros con IA. Otrosos de los firmantes de la carta, titulada ¡°Derecho para advertir sobre la IA avanzada¡±, son una ex empleada y un trabajador actual de Google Deep Mind.
Derecho a advertir desde dentro
Esta nueva carta es ligeramente distinta. La reclamaci¨®n principal ya no es el peligro hipot¨¦tico de la IA general, sino el avance desbocado y sin control de las empresas por priorizar la carrera comercial a la seguridad. A diferencia de c¨®mo ha ocurrido en Meta y en otras compa?¨ªas, los exempleados de OpenAI temen que las protecciones como posibles ¡°gargantas profundas¡± sean insuficientes porque no denuncien nada ¡°ilegal¡±, ya que los riesgos ¡°que nos preocupan a¨²n no han sido regulados¡±, escriben en la carta.
Este movimiento no ocurre en el vac¨ªo. A mediados de mayo, Ilya Sutskever, confundador de OpenAI y uno de los instigadores de la revuelta de noviembre contra Sam Altman, abandon¨® la compa?¨ªa, acompa?ado de Jan Leike, que escribi¨® en X que OpenAI ¡°est¨¢ asumiendo una enorme responsabilidad en nombre de toda la humanidad¡± y que prioriza la creaci¨®n de ¡°productos llamativos¡±. Esa misma semana, OpenAI hab¨ªa anunciado el nuevo ChatGPT-4o, capaz de conversar en tiempo real y que gener¨® una pol¨¦mica con la actriz Scarlett Johansson. Una ex miembro del consejo de administraci¨®n tambi¨¦n revel¨® com¨® Altman les hab¨ªa ocultado novedades tan b¨¢sicas como el lanzamiento de ChatGPT en noviembre de 2022.
But over the past years, safety culture and processes have taken a backseat to shiny products.
— Jan Leike (@janleike) May 17, 2024
Toda esta pol¨¦mica sigue ocurriendo sobre supuestos futuros que nadie sabe si ocurrir¨¢n ni c¨®mo. Los miedos se centran en la aparici¨®n de m¨¢quinas sin control que toman el mando y dejan de seguir ¨®rdenes humanas. La labor de vigilar que las m¨¢quinas no se vuelvan aut¨®nomas se llama ¡°alineaci¨®n¡±, que viene de ¡°alinear¡± sus intereses con los humanos. Es un trabajo t¨¦cnico vinculado a la seguridad de estos sistemas y cuyo equipo en OpenAI se ha desbandado.
Esta semana se han conocido los detalles de la salida de uno de los miembros de ese equipo, el joven de origen alem¨¢n Leopold Aschenbrenner, graduado a los 19 a?os con la mejor nota en la Universidad de Columbia, seg¨²n su LinkedIn. Aschenbrenner confirm¨® en un podcast de casi 5 horas que le hab¨ªan despedido por una ¡°filtraci¨®n¡±: ¡°Escrib¨ª un documento de tormenta de ideas sobre preparativos, seguridad y medidas de protecci¨®n necesarias en el camino hacia la IA general. Lo compart¨ª con tres investigadores externos. Esa fue la filtraci¨®n¡±, explic¨® Aschenbrenner. En otra ocasi¨®n comparti¨® otro documento con dos miembros del anterior consejo. En ese caso recibi¨® una advertencia de recursos humanos.
Virtually nobody is pricing in what's coming in AI.
— Leopold Aschenbrenner (@leopoldasch) June 4, 2024
I wrote an essay series on the AGI strategic picture: from the trendlines in deep learning and counting the OOMs, to the international situation and The Project.
SITUATIONAL AWARENESS: The Decade Ahead pic.twitter.com/8NWDkTprj5
Tambi¨¦n esta semana Aschenbrunner public¨® un documento de 165 p¨¢ginas en pdf con cinco ensayos donde analiza la ¡°pr¨®xima d¨¦cada¡± y explica por qu¨¦ todo es m¨¢s peligroso de lo que creemos desde fuera. Su mensaje se hizo viral y provoc¨® una nueva ronda de especulaci¨®n sobre el peligro hipot¨¦tico de las futuras versiones de IA. Tras su salida de OpenAI, encabezar¨¢ un fondo de inversi¨®n centrado en proyectos de IA general.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.