La inteligencia artificial y el Sur Global
Es necesaria la creaci¨®n de protocolos ¨¦ticos en el desarrollo y uso de esta tecnolog¨ªa para impedir la presencia de algoritmos predictivos cargados de sesgos que reflejen o magnifiquen los prejuicios y desigualdades sociales
Puede ser que los ¨²ltimos meses sean recordados como el momento en que la inteligencia artificial (IA) predictiva se generaliz¨®. Si bien los algoritmos de predicci¨®n han estado en uso durante d¨¦cadas, el lanzamiento de aplicaciones como ChatGPT3 de OpenAI, y su r¨¢pida integraci¨®n con el motor de b¨²squeda Bing de Microsoft, puede haber abierto las compuertas en lo que respecta a la IA f¨¢cil de usar. En cuesti¨®n de semanas tras su lanzamiento, ChatGPT3 ya hab¨ªa atra¨ªdo a 100 millones de usuarios mensuales, muchos de los cuales, sin duda, ya han experimentado su lado oscuro: desde insultos y amenazas hasta desinformaci¨®n y una capacidad demostrada para escribir c¨®digos maliciosos.
Los chatbots que generan titulares son solo la punta del iceberg. La inteligencia artificial para crear texto, voz, arte y video avanza r¨¢pidamente, con implicaciones de gran alcance para la gobernanza, el comercio y la vida c¨ªvica. No causa sorpresa que capitales inunden el sector, ya que gobiernos y empresas por igual est¨¢n invirtiendo en empresas startups a fin de desarrollar e implementar las ¨²ltimas herramientas de aprendizaje autom¨¢tico. Estas nuevas aplicaciones combinar¨¢n datos hist¨®ricos con aprendizaje autom¨¢tico, procesamiento de lenguaje natural y aprendizaje profundo con el prop¨®sito de determinar la probabilidad de eventos futuros.
El punto m¨¢s importante: la adopci¨®n del nuevo procesamiento del lenguaje natural y las inteligencias artificiales generativas no se limitar¨¢ a los pa¨ªses ricos y a empresas como Google, Meta, y Microsoft, que fueron las que encabezaron su creaci¨®n. Estas tecnolog¨ªas ya se est¨¢n extendiendo a lo largo y ancho de entornos de ingresos bajos y medios. En ellos, el an¨¢lisis predictivo aplicado a todo tipo de temas (desde reducir la desigualdad urbana hasta abordar la seguridad alimentaria) es muy prometedor para los gobiernos, las empresas y las ONG que tienen problemas de liquidez y que est¨¢n en la b¨²squeda de mejorar la eficiencia y liberar los beneficios sociales y econ¨®micos.
El problema, sin embargo, es que no se ha prestado suficiente atenci¨®n a las posibles externalidades negativas y efectos no deseados de estas tecnolog¨ªas. El riesgo m¨¢s evidente es que estas poderosas herramientas predictivas sin precedentes vayan a fortalecer la capacidad de vigilancia de los reg¨ªmenes autoritarios.
Un ejemplo ampliamente citado es el ¡°sistema de cr¨¦dito social¡± de China, que utiliza historiales de cr¨¦dito, condenas penales, comportamiento en l¨ªnea, as¨ª como otros datos para asignar una puntuaci¨®n a cada persona en el pa¨ªs. Esas puntuaciones pueden determinar si una persona puede obtener un pr¨¦stamo, acceder a una buena escuela, viajar en tren o avi¨®n, etc¨¦tera. A pesar de que el sistema chino se anuncia como una herramienta para mejorar la transparencia, tambi¨¦n cumple las funciones de un instrumento de control social.
Si las nuevas herramientas de IA simplemente son importadas y son utilizadas ampliamente antes de que se establezcan las estructuras de gobernanza necesarias, muy f¨¢cilmente podr¨ªan llegar a hacer m¨¢s da?o que bien
Sin embargo, incluso cuando son empleadas por gobiernos democr¨¢ticos bien intencionados, empresas centradas en lograr un impacto social y organizaciones sin fines de lucro progresistas, las herramientas predictivas pueden generar resultados sub¨®ptimos. Los fallos de dise?o en los algoritmos subyacentes y los conjuntos de datos sesgados pueden conducir a violaciones de la privacidad y a discriminaci¨®n basada en la identidad.
Esto ya se ha convertido en un problema flagrante en la justicia penal, donde el an¨¢lisis predictivo perpet¨²a rutinariamente las disparidades raciales y socioecon¨®micas. Por ejemplo, un sistema de IA creado para ayudar a que los jueces estadounidenses eval¨²en la probabilidad de reincidencia determin¨® err¨®neamente que los acusados de raza negra presentan un riesgo mucho mayor de reincidencia en comparaci¨®n con los de raza blanca.
Tambi¨¦n aumentan las preocupaciones sobre c¨®mo la IA podr¨ªa profundizar las desigualdades en el lugar de trabajo. Hasta ahora, los algoritmos predictivos han incrementado la eficiencia y las ganancias en formas que benefician a los directivos y accionistas a expensas de los trabajadores de base (especialmente en la econom¨ªa colaborativa, tambi¨¦n llamada ¡°econom¨ªa gig¡±).
En todos estos ejemplos, los sistemas de IA son un espejo distorsionante de la sociedad, ya que refleja y magnifica nuestros prejuicios y desigualdades. Como se?ala la investigadora de tecnolog¨ªa Nanjira Sambuli, la digitalizaci¨®n tiende a exacerbar, en lugar de mejorar, los problemas pol¨ªticos, sociales y econ¨®micos preexistentes.
El entusiasmo por adoptar herramientas predictivas debe equilibrarse con la consideraci¨®n informada y ¨¦tica de sus efectos deseados y no deseados. Cuando los efectos de estos poderosos algoritmos son desconocidos o causan controversias, el principio de precauci¨®n desaconsejar¨ªa su implementaci¨®n.
No debemos permitir que la IA se convierta en otro ¨¢mbito en el cual los responsables de la toma de decisiones pidan disculpas en lugar de permiso. Es por esta raz¨®n que el Alto Comisionado de las Naciones Unidas para los Derechos Humanos y otros han solicitado pr¨®rrogas en la adopci¨®n de sistemas de IA hasta que cuente con la actualizaci¨®n de los marcos ¨¦ticos y de derechos humanos a fin de tomar en consideraci¨®n sus da?os potenciales.
La elaboraci¨®n de los marcos apropiados requerir¨¢ forjar un consenso sobre los principios b¨¢sicos que deben dar forma al dise?o y al uso de herramientas predictivas de IA. Afortunadamente, la carrera en pos de la IA ha llevado de manera paralela a una avalancha de investigaciones, iniciativas, institutos y redes sobre ¨¦tica. Y si bien la sociedad civil ha tomado la iniciativa, entidades intergubernamentales como la OCDE y la UNESCO tambi¨¦n se han involucrado en estos temas.
La inteligencia artificial para crear texto, voz, arte y video avanza r¨¢pidamente, con implicaciones de gran alcance para la gobernanza, el comercio y la vida c¨ªvica
Desde al menos el a?o 2021, la ONU ha venido trabajando en la creaci¨®n de est¨¢ndares universales para una inteligencia artificial ¨¦tica. Adem¨¢s, la Uni¨®n Europea ha propuesto una Ley de la Inteligencia Artificial (el primer esfuerzo de este tipo por parte de un regulador importante) que bloquear¨ªa ciertos usos (como aquellos que se asemejan al sistema de cr¨¦dito social de China) y someter¨ªa otras aplicaciones de alto riesgo a requisitos y supervisi¨®n espec¨ªficos.
Hasta la fecha, este debate se ha concentrado arrolladoramente en Am¨¦rica del Norte y Europa Occidental. Pero los pa¨ªses de ingresos bajos y medios tienen que considerar sus propias necesidades, preocupaciones y desigualdades sociales de l¨ªnea base. Existen numerosos estudios que demuestran que las tecnolog¨ªas desarrolladas por y para los mercados de las econom¨ªas avanzadas a menudo son inapropiadas para las econom¨ªas menos desarrolladas.
Si las nuevas herramientas de IA simplemente son importadas y son utilizadas ampliamente antes de que se establezcan las estructuras de gobernanza necesarias, muy f¨¢cilmente podr¨ªan llegar a hacer m¨¢s da?o que bien. Todos estos temas deben ser considerados si vamos a dise?ar principios verdaderamente universales para la gobernanza de la IA.
Reconociendo estos vac¨ªos, el Instituto Igarap¨¦ y New America acaban de lanzar un nuevo Grupo de Trabajo Global sobre An¨¢lisis Predictivo para la Seguridad y el Desarrollo. El grupo de trabajo reunir¨¢ a defensores de los derechos digitales, socios del sector p¨²blico, emprendedores tecnol¨®gicos y cient¨ªficos sociales del continente americano, as¨ª como de ?frica, Asia y Europa, con el objetivo de definir los primeros principios para el uso de tecnolog¨ªas predictivas en la seguridad p¨²blica y el desarrollo sostenible en el Sur Global.
La formulaci¨®n de estos principios y est¨¢ndares es solo el primer paso. El mayor desaf¨ªo ser¨¢ conseguir la colaboraci¨®n y coordinaci¨®n internacional, nacional y subnacional necesarias para aplicar dichos principios y est¨¢ndares en las leyes y en la pr¨¢ctica. En la prisa global por desarrollar e implementar nuevas herramientas predictivas de inteligencia artificial, los marcos de prevenci¨®n de da?os son esenciales para garantizar un futuro seguro, pr¨®spero, sostenible y centrado en el ser humano.
Puedes seguir a PLANETA FUTURO en Twitter, Facebook e Instagram, y suscribirte aqu¨ª a nuestra ¡®newsletter¡¯.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.