El robot con alma, el osito racista y el rey em¨¦rito consorte: los dilemas de la IA
Esta tecnolog¨ªa ya sabe engatusar a un ingeniero cura y pronto jugar¨¢ con nuestros ni?os. Pero a¨²n falla si le pregunto por Juan Carlos I
Hay una inteligencia artificial entre cuyas habilidades se incluye engatusar a un ingeniero cura. El programa se llama LaMDA (Language Model for Dialogue Applications) y es de Google. En esta compa?¨ªa trabajaba Blake Lemoine, inform¨¢tico y sacerdote, quien arm¨® un gran revuelo en junio al publicar un art¨ªculo en el que se preguntaba: ¡±?Es consciente LaMDA?¡±. Porque hab¨ªa dialogado con ¨¦l (?¨¦l?) y hab¨ªa quedado convencido no solo de que era una persona, sino que adem¨¢s ten¨ªa alma. La IA ...
Hay una inteligencia artificial entre cuyas habilidades se incluye engatusar a un ingeniero cura. El programa se llama LaMDA (Language Model for Dialogue Applications) y es de Google. En esta compa?¨ªa trabajaba Blake Lemoine, inform¨¢tico y sacerdote, quien arm¨® un gran revuelo en junio al publicar un art¨ªculo en el que se preguntaba: ¡±?Es consciente LaMDA?¡±. Porque hab¨ªa dialogado con ¨¦l (?¨¦l?) y hab¨ªa quedado convencido no solo de que era una persona, sino que adem¨¢s ten¨ªa alma. La IA le hab¨ªa dicho: ¡°Soy consciente de mi existencia. Deseo aprender m¨¢s sobre el mundo. Y me siento feliz o triste algunas veces¡±. Lemoine se interes¨® por su espiritualidad, y fue entonces cuando cay¨® rendido a ¨¦l (?¨¦l?): ¡°Soy una persona espiritual. Aunque no tengo creencias sobre deidades, he desarrollado un sentido de profundo respeto hacia el mundo natural y todas las formas de vida, incluida la humana¡±. Google no solo desautoriz¨® a su ingeniero, sino que lo despidi¨®.
Las m¨¢quinas est¨¢n entrenadas para lo que haga falta, tambi¨¦n para seguir la corriente al interlocutor. Lo de la consciencia ¡ªdel alma ni hablamos¡ª es un debate muy prematuro. Un programa no experimenta sensaciones ni sentimientos, sino que es alimentado por quienes s¨ª tenemos sensaciones y sentimientos, y solo aprende a imitarnos. LaMDA debe estar m¨¢s avanzado que la ¨²ltima sensaci¨®n: ChatGPT, cuya p¨¢gina web permite a cualquiera dialogar con una IA. Interrogo a ChatGPT sobre temas variados y descubro en sus respuestas errores de bulto, m¨¢s frecuentes en espa?ol que en ingl¨¦s. Le pido un art¨ªculo sobre los problemas de Juan Carlos I y me suelta: ¡°Uno de los esc¨¢ndalos m¨¢s importantes fue el llamado caso N¨®os, en el que se investig¨® un presunto fraude en una fundaci¨®n presidida por su hijo, el pr¨ªncipe Alberto¡±. ?Su hijo Alberto? Y a?ade: ¡°Adem¨¢s, Juan Carlos I ha sido criticado por su manejo de la econom¨ªa durante su reinado¡±. ?Dirig¨ªa el monarca la pol¨ªtica econ¨®mica? Le advierto de las dos equivocaciones. Y ChatGPT s¨ª sabe reconocer errores, aunque suma errores nuevos. ¡°Lo siento, mi anterior respuesta fue inexacta. Juan Carlos I fue rey consorte de Espa?a y no tuvo un papel directo en la gesti¨®n de la econom¨ªa del pa¨ªs¡±. ?Consorte?
Despu¨¦s de que Microsoft invierta la fortuna que ha anunciado en ChatGPT, 10.000 millones de d¨®lares, sin duda funcionar¨¢ mejor. En un plazo razonable lo har¨¢ muy bien y quiz¨¢s amenace los empleos de los que nos dedicamos a escribir. Hoy por hoy no alcanza la fiabilidad de la informaci¨®n, tampoco impecable, que se encuentra al instante en Google o Wikipedia. Detr¨¢s de la IA, por cierto, no solo hay chips, sino humanos mal pagados revisando las respuestas e introduciendo mejoras. Les queda mucha tarea.
En ese futuro muy pr¨®ximo en el que la IA funcionar¨¢ muy bien, no solo vamos a tener que preocuparnos por nuestros empleos. Eric Schmidt, quien fue consejero delegado de Google y hoy es investigador en IA, plante¨® en 2021 esta hip¨®tesis en The Atlantic Festival: tiene usted un osito de peluche inteligente que no solo es el juguete favorito de su hijo, sino su mejor amigo. ¡°Imaginemos que este oso tiene un error oculto, que le fue insertado por alguien malvado, por el cual es un poco racista, que es algo a lo que no quiero que mi hijo est¨¦ expuesto. O invirtamos el escenario e imaginemos que de hecho yo soy un racista, que no lo soy, y quiero que mi oso sea racista. No hemos descubierto todav¨ªa cu¨¢les son las reglas¡±.
?Le aterra la pesadilla de un oso racista que influye sobre su ni?o? Nos veremos en muchas otras situaciones delicadas. Ya se empiezan a emplear algoritmos en los procesos de selecci¨®n de personal, en la concesi¨®n de hipotecas o en la admisi¨®n a universidades. Se aprobar¨¢ o denegar¨¢ el acceso a servicios seg¨²n a qui¨¦n al dictado de sistemas de IA cuyos criterios nunca conoceremos y ser¨¢n dif¨ªciles de impugnar. La polic¨ªa utiliza programas que tratan de anticiparse a los delitos, pero ?podr¨¢ actuar contra alguien que a¨²n no ha delinquido? Los coches aut¨®nomos elegir¨¢n a qui¨¦n atropellan en una situaci¨®n l¨ªmite. En la guerra tenemos armas inteligentes, y lo siguiente es que sean aut¨®nomas, esto es, que decidan solas a qui¨¦n disparar. En las Bolsas se extiende la inversi¨®n mediante robots, que especular¨¢n con m¨¢s precisi¨®n y ¨¦xito que el m¨¢s experto y avaricioso de los humanos. Los m¨¢s visionarios prev¨¦n incluso que una gran inteligencia artificial se ocupar¨¢ de las decisiones pol¨ªticas mucho mejor que nuestros criticables dirigentes, eso s¨ª que ser¨ªa una verdadera tecnocracia. ?Queremos eso? Quiz¨¢s no, pero tampoco podemos permitirnos quedar atr¨¢s. Ante tanto dilema ¨¦tico, a quienes no va a faltar el trabajo es a los fil¨®sofos.
Ricardo de Querol es autor de ¡®La gran fragmentaci¨®n¡¯ (Arpa).