La evoluci¨®n de la IA que hace parecer ¡°incre¨ªblemente tonto¡± a ChatGPT y tiene riesgos ¨¦ticos
Google lanza robots que planifican y ejecutan soluciones complejas en nombre del usuario e investigadores de la multinacional y varias universidades advierten sobre ellos 10 d¨ªas despu¨¦s. Open Ai presenta su nuevo desarrollo
Los agentes son, b¨¢sicamente, robots capaces de satisfacer las demandas del usuario en comunicaci¨®n con otras m¨¢quinas y humanos para generar y llevar a cabo una resoluci¨®n compleja o creativa en su nombre. Ya no ofrecen solo respuestas o im¨¢genes m¨¢s o menos acertadas, sino que aportan soluciones, las planifican y las ejecutan usando el lenguaje natural. Los ¨²ltimos avances hacia la inteligencia artificial (IA) general, la que iguala o supera a la humana, se han presentado durante el ¨²ltimo Google Next celebrado en Las Vegas y son su apuesta en la partida donde juega OpenAI, que tiene previsto presentar hoy su nuevo desarrollo, y el resto de grandes compa?¨ªas. Tan solo 10 d¨ªas despu¨¦s de que Google lanzara sus agentes, el grupo de investigaci¨®n de la propia multinacional (DeepMind) y una decena de universidades y entidades presentaban una investigaci¨®n alertando de las implicaciones ¨¦ticas de este desarrollo.
Thomas Kurian, consejero delegado de Google Cloud, describe la ¨²ltima carta de su compa?¨ªa en el juego de la IA: ¡°Vertex AI Agent Builder a¨²na modelos fundacionales, el buscador y otras herramientas de desarrollo para facilitar la creaci¨®n e implementaci¨®n de agentes. Proporciona la comodidad de una plataforma de creaci¨®n de agentes sin c¨®digo junto con potentes capacidades. Ahora puedes crear r¨¢pidamente una variedad de agentes de IA basados en la b¨²squeda de Google y los datos de tu organizaci¨®n¡±.
Para Sam Altman, m¨¢ximo responsable en la competidora Open AI, los nuevos desarrollos de la IA son algo m¨¢s que una aplicaci¨®n y revolucionar¨¢ las vidas, seg¨²n publica MIT Technology Review: ¡°Es un colega supercompetente que sabe absolutamente todo de mi vida, cada correo electr¨®nico, cada conversaci¨®n que he tenido, pero no se siente como una extensi¨®n. Puede abordar algunas tareas al instante y, para las m¨¢s complejas, salir y hacer una propuesta o regresar con preguntas si es necesario¡±.
Para Altman, DALL-E, Sora o ChatGPT son ¡°incre¨ªblemente tontos¡± en comparaci¨®n con lo que viene: ¡°Nos han cautivado con su capacidad para generar texto convincente y videos e im¨¢genes surrealistas, pero, en su mayor¨ªa, siguen siendo herramientas que usamos para tareas aisladas y tienen una capacidad limitada para aprender sobre nosotros a partir de nuestras conversaciones con ellos¡±. La evoluci¨®n de la IA, seg¨²n sostiene al MIT, ¡°ser¨¢ capaz de ayudarnos fuera de la interfaz de chat [el acceso conversacional] y quitarnos de encima las tareas del mundo real¡±.
La investigaci¨®n de DeepMind coincide en su relevancia: ¡°Es probable que los asistentes avanzados de IA tengan un profundo impacto en nuestras vidas individuales y colectivas. Para ser beneficiosos y estar alineados con los valores, los asistentes deben responder adecuadamente a las demandas y necesidades de los usuarios, los desarrolladores y la sociedad¡±.
Pero tambi¨¦n advierte de sus consecuencias negativas: ¡°Caracter¨ªsticas como la capacidad de interactuar en lenguaje natural y los altos grados de personalizaci¨®n podr¨ªan hacer que los asistentes de IA sean especialmente ¨²tiles para los usuarios. Sin embargo, estas caracter¨ªsticas tambi¨¦n hacen que las personas sean vulnerables a la influencia inapropiada de la tecnolog¨ªa, por lo que se necesitan salvaguardias s¨®lidas¡±.
Los agentes, como los denomina Google, son, seg¨²n la investigaci¨®n conjunta de DeepMind y las universidades, asistentes avanzados de inteligencia artificial (IA) que utilizan el lenguaje natural y cuya funci¨®n es planificar y ejecutar secuencias de acciones, en uno o m¨¢s dominios, en nombre de un usuario y de acuerdo con sus expectativas. En concreto, se trata de una herramienta accesible para cualquier empresa o entidad, aunque carezca de departamento inform¨¢tico, dirigida a cualquier usuario y que desempe?a trabajos diversos como atenci¨®n al cliente, tareas cotidianas, creaci¨®n de contenido, an¨¢lisis de datos, codificaci¨®n de programas o prevenci¨®n de ataques.
La demostraci¨®n exhibida en Las Vegas permiti¨® que una potencial cliente introdujera un v¨ªdeo de un grupo musical en el buscador inteligente y le pidiera que localizara una chaqueta como la que llevaba una de las integrantes. El agente, en este caso de compra, ofreci¨® en segundos las tiendas m¨¢s cercanas con la mercanc¨ªa requerida, su disponibilidad y precio. A partir del requerimiento del usuario, ejecut¨® la compra y busc¨® complementos adecuados. M¨¢s de un centenar de compa?¨ªas ha comenzado ya a aplicar esta herramienta, como la tur¨ªstica IHG para ofrecer planes vacacionales o Carrefour para generar campa?as personalizadas o McDonalds para buscar elementos de mejora.
Hasta aqu¨ª, todo bien. Una herramienta capaz de aumentar la productividad de cualquier compa?¨ªa o negocio, evitar costes y facilitar la vida del usuario. Pero estos robots bautizados como agentes tienen numerosas implicaciones ¨¦ticas identificadas por una investigaci¨®n de m¨¢s de 200 p¨¢ginas publicada tan solo 10 d¨ªas despu¨¦s de la presentaci¨®n:
?Y si un agente se limita a ofrecer solo opciones de compra en empresas incluidas en el circuito de la IA y excluye a peque?os comercios??Y si prima soluciones solo de empresas que pagan por posicionarse y cobran hasta tres veces m¨¢s por un servicio como pedir una nota simple de un inmueble o comprar una entrada que las p¨¢ginas oficiales??Y si se adentran en el mundo de la pol¨ªtica y orientan la intenci¨®n de voto??Y si excluye de sus ventajas a aquellos sin acceso tecnol¨®gico o habilidades para usarlas??Y si ofrece terapias falsas para un problema de salud o incorpora informaci¨®n no contrastada o privada sin consentimiento? ?Y si sigue las instrucciones del usuario cuando hacerlo podr¨ªa da?arlo??Y si la identificaci¨®n de preferencias del usuario que realiza el agente es err¨®nea?
Problemas ¨¦ticos
Las preguntas son innumerables. La extensa investigaci¨®n universitaria y de la propia compa?¨ªa que ha lanzado los agentes las agrupa e identifica siete ¨¢reas claves donde se generan las dudas ¨¦ticas sobre este desarrollo:
Influencia. Los agentes son creativos, asistentes de b¨²squeda, consejeros, acompa?antes e incluso asesores para decisiones que afectan a la vida. Por lo tanto, seg¨²n los investigadores, esta inteligencia artificial avanzada, como ya han hecho los m¨®viles o la irrupci¨®n de aplicaciones en l¨ªnea para todo tipo de tareas, ¡°podr¨ªan alterar radicalmente la naturaleza del trabajo, la educaci¨®n y las actividades creativas, as¨ª como la forma en que nos comunicamos, coordinamos y negociamos entre nosotros, influyendo en ¨²ltima instancia en lo que queremos ser y llegar a ser¡±. Entre las formas de influir de los agentes se encuentran la persuasi¨®n racional, la manipulaci¨®n, el enga?o, la coerci¨®n y la explotaci¨®n, considerada esta ¨²ltima cuando las circunstancias de la v¨ªctima o usuario se aprovechan para beneficiar injustamente al explotador.
Errores y accidentes. Cuanto m¨¢s aut¨®nomos sean los sistemas, mayor ser¨¢ el potencial de usos indebidos y accidentes derivados de instrucciones mal especificadas o interpretadas. La teor¨ªa de los accidentes normales, desarrollada por Charles Perrow, de la Universidad de Princeton, sostiene que, ¡°debido a la complejidad de los sistemas de nuestra sociedad, los fallos m¨²ltiples e inesperados son fundamentales y los accidentes son inevitables¡±.
Falsa humanizaci¨®n. Que cada vez sean m¨¢s parecidos a los humanos es beneficioso en algunos aspectos, como la facilidad de interrelaci¨®n con los agentes rob¨®ticos, pero este antropomorfismo abre cuestiones sobre ¡°la confianza, la privacidad, las relaciones con la IA y los l¨ªmites morales de la personalizaci¨®n¡±. La humanizaci¨®n puede crear falsas relaciones de confianza y vinculaci¨®n emocional que condicionen al usuario.
Desigualdad y manipulaci¨®n. Dada la utilidad potencial de los agentes, ¡°es importante que la tecnolog¨ªa sea ampliamente accesible y se dise?e teniendo en cuenta las necesidades de los diferentes usuarios y no usuarios¡± para asegurar la distribuci¨®n equitativa de los beneficios, advierte el documento. Adem¨¢s, el texto alerta del ¡°impacto social significativo¡± generando problemas de acci¨®n colectiva u otras situaciones problem¨¢ticas. El documento identifica var¨ªas v¨ªas de manipulaci¨®n que se resumen en tres: que el agente o el desarrollador de este manipule al usuario en funci¨®n de los objetivos de los primeros o a partir de informaci¨®n falsa, que el usuario utilice al agente para generar una posici¨®n de dominio o que sea una entidad social quien manipule al usuario en aras de un supuesto inter¨¦s colectivo.
Evaluaci¨®n. Los actuales modelos se eval¨²an en funci¨®n de su rendimiento, pero no se tienen en cuenta sus consecuencias como parte de sistema m¨¢s amplio. En este sentido, se puede considerar la precisi¨®n de una respuesta a una demanda escolar, pero no su afectaci¨®n al sistema educativo. ¡°Se necesitan nuevas metodolog¨ªas y conjuntos de evaluaci¨®n centrados, en particular, en la interacci¨®n entre humanos e IA y sus efectos¡±, reclaman los investigadores.
Privacidad. El desarrollo de los agentes exige una normativa paralela sobre c¨®mo se gestiona la informaci¨®n privada en la interacci¨®n con ellos o entre las mismas m¨¢quinas.
Participaci¨®n. Los investigadores alertan del peligro de una proliferaci¨®n de agentes sin contar con la participaci¨®n de los usuarios y sus representantes para desarrollar las mejores pr¨¢cticas en la industria o permitir el escrutinio p¨²blico y la rendici¨®n de cuentas o promover recomendaciones de regulaciones sobre aspectos de inter¨¦s general.
Los propios investigadores admiten que este documento ¡°no anticipa ni puede anticipar todas las posibles implicaciones de las transiciones tecnol¨®gicas o sociales que permitir¨¢n los agentes¡± y reclaman el ¡°seguimiento y la evaluaci¨®n continua de la tecnolog¨ªa¡±.
Empleo
Tambi¨¦n advierte el documento sobre interrogantes que se generan en torno al empleo. ?Qu¨¦ ocupaciones esperamos que se vean directamente afectadas por estos asistentes? ?En qu¨¦ medida los empleados de estas ocupaciones pueden adaptar sus tareas o encontrar trabajos alternativos? ?Pueden usar al asistente para aumentar sus competencias en las empresas??Hasta qu¨¦ punto esperamos que surjan empresas completamente nuevas o nuevos procesos de producci¨®n y puestos de trabajo? ?Habr¨¢ una preferencia a largo plazo por los humanos frente a la IA en estos sistemas de producci¨®n?
Carlo Villegas, director de Wehumans, una unidad del grupo Abai que ya crea estos nuevos asistentes tecnol¨®gicos, admite que estos nuevos desarrollos tendr¨¢n un efecto en el empleo ¡ª¡°Todo se puede automatizar¡±, asegura¡ª, pero cree que ser¨¢ gradual: ¡°Ya no es un tema de capacidad tecnol¨®gica sino de rentabilidad, de buscar esos casos de uso donde el agente realmente aporte, m¨¢s all¨¢ de reemplazar a una persona. Sustituir empleos con una intensidad compleja no va a ser totalmente rentable porque las personas todav¨ªa pueden hacer m¨¢s de una sola cosa y aportan una flexibilidad que la IA est¨¢ lejos de adquirir. Adem¨¢s, todav¨ªa es demasiado caro sustituirlo. Ahora bien, cuando llegue, que llegar¨¢, ser¨¢ de forma lenta¡±.
Los campos de aplicaci¨®n son diversos: ¡°Tenemos muchos casos de uso y diferentes proyectos en los cuales desarrollamos e implementamos esos agentes¡±, afirma Villegas, aunque matiza que no hay una soluci¨®n ¨²nica y algunos proyectos no precisan de desarrollos tan sofisticados. No recurren a una sola plataforma para generarlos, sino que la eligen en funci¨®n del proyecto y el cliente
Finanzas, educaci¨®n, salud, ayuda asistencial y gestiones son algunos de los sectores donde est¨¢n irrumpiendo estos nuevos agentes, cuyo coste var¨ªa entre los 30.000 y los m¨¢s de 100.000 euros. ¡°Depende del impacto, del alcance, si el sistema est¨¢ pensado para ser consumido por 100 o por 1.000 personas. En funci¨®n del objetivo y el proyecto vamos modulando todos los par¨¢metros¡±, explica. En cualquier caso, se posiciona en el lado de los optimistas, entre quienes ven estos desarrollos como herramientas y no como una amenaza para los trabajos y las formas de vida.
Sobre las cuestiones ¨¦ticas que plantean los agentes, el director de Wehumans es claro: ¡°La responsabilidad va a ser de la empresa o del desarrollador de estas herramientas. Siempre tiene que haber un ojo humano monitorizando, arreglando o cambiando y es el m¨¢ximo responsable. Tenemos que ser transparentes y asegurar que los usos son totalmente leg¨ªtimos y sin errores¡±.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.