El soldado que se suicid¨® en un Cybertruck en Las Vegas consult¨® a ChatGPT c¨®mo detonar explosivos
La polic¨ªa publica las preguntas que Matthew Livelsberger realiz¨® d¨ªas antes del atentado a la aplicaci¨®n de OpenAI, que defiende que solo proporcion¨® informaci¨®n p¨²blica
En la recopilaci¨®n de consultas controvertidas a los chats inteligentes se acaba de escribir un cap¨ªtulo inesperado: Matthew Livelsberger, el soldado que muri¨® dentro de un Tesla Cybertruck frente al hotel Trump International de Las Vegas, consult¨® a ChatGPT sobre explosivos, c¨®mo activarlos disparando armas de fuego y d¨®nde comprarlos. Tambi¨¦n realiz¨® numerosas preguntas sobre las armas de fuego que us¨® en su suicidio dentro de ese veh¨ªculo, seg¨²n la polic¨ªa de Las Vegas, que ha publicado capturas sobre esas consultas de Livelsberger al programa de OpenAI. La compa?¨ªa se defiende diciendo que toda la informaci¨®n que proporcion¨® al sujeto estaba disponible p¨²blicamente.
¡°?Eso podr¨ªa detonar Tannerite [una marca de explosivos]?¡±, ¡°Adquirir Tannerite en Arizona cu¨¢nto se puede comprar¡± y ¡°?En qu¨¦ se diferencia eso de la dinamita?¡±, son algunas de las preguntas que Livelsberger le realiz¨® al popular chatbot inteligente, seg¨²n los documentos publicados por las autoridades policiales, junto a v¨ªdeos y fotograf¨ªas de momentos antes de la detonaci¨®n y el coche incendiado el 1 de enero. Las preguntas a ChatGPT se realizaron el 27 de diciembre, poco antes de la explosi¨®n que gener¨® una espectacular explosi¨®n frente al hotel Trump.
OpenAI ha respondido a la revelaci¨®n policial por medio de unas declaraciones de su portavoz, Liz Bourgeois: ¡°Estamos entristecidos por este incidente y comprometidos a que las herramientas de inteligencia artificial se utilicen de manera responsable. Nuestros modelos est¨¢n dise?ados para rechazar instrucciones da?inas y minimizar el contenido da?ino¡±. Y a?adi¨®, seg¨²n recoge The Verge: ¡°En este caso, ChatGPT respondi¨® con informaci¨®n ya disponible p¨²blicamente en internet y proporcion¨® advertencias contra actividades da?inas o ilegales. Estamos trabajando con las autoridades para apoyar su investigaci¨®n¡±.
Adem¨¢s, la polic¨ªa confirm¨® que el individuo, un soldado en activo del ej¨¦rcito estadounidense de 37 a?os, ten¨ªa guardado en su tel¨¦fono un ¡°posible manifiesto¡±, adem¨¢s de un correo electr¨®nico a un podcaster y otras cartas con las que podr¨ªan deducirse las motivaciones de su suicidio, con alusiones a la guerra de Afganist¨¢n.
En fechas recientes, otros programas conversacionales de inteligencia artificial han generado pol¨¦mica por el escaso control de las consecuencias derivadas de sus interacciones con los usuarios. Por ejemplo, cuando un adolescente se suicid¨® tras las palabras que le dedic¨® un personaje artificial de Character.AI del que supuestamente se habr¨ªa enamorado. O cuando un joven brit¨¢nico se present¨® en el Castillo de Windsor dispuesto a asesinar a la Reina de Inglaterra.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.