Inteligencia artificial: ?progreso o retroceso?
No avanzaremos si el futuro digital perpet¨²a los errores del pasado. Si por cada euro que se invierte en nuevos algoritmos se invirtiera otro en regulaci¨®n, habr¨ªa m¨¢s razones para ser optimistas sobre el porvenir
Uno de los mayores riesgos de la inteligencia artificial es que perpet¨²e los errores y prejuicios del pasado, camufl¨¢ndolos bajo un barniz de objetividad. Los sistemas de inteligencia artificial se entrenan a partir de datos que reflejan las decisiones que hemos tomado en el pasado. Cuando la inteligencia artificial de reclutamiento de Amazon discrimin¨® a las mujeres, no fue porque los hombres fueran mejores candidatos para los trabajos disponibles. A trav¨¦s de una base de datos que conten¨ªa un historial de contrataci¨®n, Amazon le ense?¨® a su sistema que la empresa ha preferido contratar a hombres durante los ¨²ltimos 10 a?os. En otras palabras, el algoritmo perpetu¨® un prejuicio sexista que estaba grabado en los datos del pasado.
PredPol, el sistema de inteligencia artificial utilizado por la polic¨ªa en Estados Unidos, tiene problemas similares. En vez de predecir cr¨ªmenes, que es lo que se supone que tendr¨ªa que hacer, reproduce h¨¢bitos policiacos. Ah¨ª donde patrulla la polic¨ªa, encuentran cr¨ªmenes que dan a procesar al algoritmo, que a su vez recomienda que se contin¨²e patrullando las mismas zonas. Las ¨¢reas en donde hay mayor presencia policial, y en consecuencia m¨¢s arrestos, son zonas pobladas por minor¨ªas. El resultado es que estas minor¨ªas est¨¢n siendo indirectamente discriminadas.
Una de las grandes falacias asociadas al optimismo sobre el big data es creer que cuantos m¨¢s datos tengamos, mejor. Habr¨ªa que revisitar las palabras del poeta T.?S. Eliot, que escribi¨®: ¡°?D¨®nde est¨¢ la sabidur¨ªa que hemos perdido con el conocimiento? ?D¨®nde est¨¢ el conocimiento que hemos perdido con la informaci¨®n?¡±. Recolectar m¨¢s datos no garantiza que sean precisos, ni que est¨¦n actualizados y sean relevantes para cumplir nuestros objetivos, ni mucho menos que seamos capaces de poner esos datos al servicio de la justicia, la democracia, la igualdad y el bienestar.
De momento, el ¡®big data¡¯ parece que est¨¢ incrementando los sesgos y solidificando el ¡®statu quo¡¯
Se dice que el big data va a revolucionar la ciencia. De momento, la inteligencia artificial manifiesta m¨¢s estupidez que inteligencia. Entre otras muchas limitaciones, la inteligencia artificial solo es capaz de rastrear correlaciones, lo que no necesariamente nos lleva a entender mejor las relaciones de causa y efecto que gobiernan la realidad. El que los algoritmos detecten correlaciones es otro elemento que los hace resistentes a reconocer o impulsar cambios. Dos elementos que han estado correlacionados en el pasado (por ejemplo, ser mujer y tener un trabajo mal pagado) no tienen por qu¨¦ estar correlacionados en el futuro, pero si nuestros algoritmos nos llevan a actuar como si las correlaciones fueran una verdad objetiva e inmutable, es m¨¢s probable que la inteligencia artificial no genere predicciones neutrales, sino profec¨ªas autocumplidas.
Tambi¨¦n se cree que el big data tiene el potencial de eliminar los sesgos en las decisiones humanas; de momento, como hemos visto, parece que est¨¢ incrementando los sesgos y solidificando el statu quo.
Un factor que posibilita los cambios sociales es la capacidad humana de olvidar aquello que nos ata al pasado. En su magn¨ªfico libro Delete, Viktor Mayer-Sch?nberger argumenta que tener una memoria perfecta, ya sea como individuos o como sociedad, puede ser un obst¨¢culo para cambiar a mejor. Nuestra memoria biol¨®gica es un sistema fant¨¢stico de filtraci¨®n y organizaci¨®n de la informaci¨®n: recordamos lo importante, olvidamos lo insignificante, reconstruimos el pasado constantemente a la luz del presente, y le damos diferentes valores a diferentes memorias. La memoria digital lo recuerda todo sin reinterpretarlo ni valorarlo; es la ant¨ªtesis de nuestra memoria biol¨®gica, forjada a trav¨¦s de milenios de evoluci¨®n. Las consecuencias de no poder olvidar pueden ser desastrosas.
Si no somos capaces de olvidar los errores que alguien ha cometido (y todos cometemos errores), o por lo menos de tenerlos menos presentes, es dif¨ªcil que podamos darle una segunda oportunidad. Es verdad que no hay que olvidar las lecciones del pasado, pero aprender de la historia no es lo mismo que mantener un registro de cada infracci¨®n que cada persona comete. Lo segundo lleva a tener una sociedad implacable, r¨ªgida, que eterniza las injusticias del pasado. Por eso el derecho al olvido es tan importante, y un acierto del Reglamento General de Protecci¨®n de Datos (RGPD).
Aprender de la historia no es lo mismo que mantener un registro de las infracciones que cada persona comete
Otro factor necesario para posibilitar cambios es la capacidad humana de tener consciencia social. Los seres humanos somos seres sintientes y agentes morales. Como seres sintientes, sabemos lo que es el sufrimiento y el bienestar en nuestra piel, y somos capaces de sentir empat¨ªa con otros que sufren. Como agentes morales, entendemos las consecuencias que nuestras acciones pueden tener en otros. Comprendemos que en ocasiones hay que hacer una excepci¨®n a la regla ¡ªcuando la regla no abarca todos los casos posibles o cuando una persona merece una segunda oportunidad¡ª. Somos capaces de reflexionar sobre nuestros valores y actuar en consecuencia.
Los algoritmos no son ni seres sintientes ni agentes morales. Son incapaces de sentir dolor, placer, remordimiento o empat¨ªa. Son incapaces de entender las consecuencias de sus acciones ¡ªsolo los seres que pueden experimentar dolor y placer pueden entender lo que significa infligir dolor o causar placer. Los algoritmos no tienen valores ni son capaces de hacer una excepci¨®n a la regla. No toman en cuenta que en muchas ocasiones las transgresiones humanas son producto de la injusticia (la falta de oportunidades que lleva al crimen, por ejemplo). No pueden reflexionar sobre el tipo de vida que quieren llevar, o el tipo de sociedad en la que quieren vivir, y actuar en consecuencia. Un coche aut¨®nomo no puede decidir andar menos kil¨®metros para no contaminar. Un robot de guerra no puede convertirse en pacifista despu¨¦s de reflexionar sobre las consecuencias de los conflictos armados. Los algoritmos no pueden tener consciencia social.
Es una trampa creer que la tecnolog¨ªa puede resolver por s¨ª misma problemas que son fundamentalmente ¨¦ticos y pol¨ªticos. El reto m¨¢s importante que tenemos por delante es uno de gobernanza. Si por cada euro que se invierte en inteligencia artificial se invirtiera otro euro en regulaci¨®n y gobernanza, tendr¨ªamos m¨¢s razones para ser optimistas sobre el futuro digital. Ahora mismo, los incentivos premian el uso de la inteligencia artificial para tomar decisiones. Si las instituciones usan algoritmos para tomar decisiones, se ahorran dinero al tener que pagar menos sueldos, pueden defender sus decisiones como si fueran objetivas, y si algo sale mal, pueden culpar al algoritmo. Cuando quienes m¨¢s arriesgan (los ciudadanos a merced de los algoritmos) son diferentes que quienes m¨¢s se benefician de ese riesgo (las empresas, los Gobiernos), se crean asimetr¨ªas de poder. El papel de los reguladores es asegurarse de que los incentivos de las instituciones est¨¦n alineados con los intereses de la poblaci¨®n. Si la inteligencia artificial da?a a los ciudadanos, tiene que haber consecuencias proporcionales para las personas responsables de ese algoritmo.
A pesar de su complejidad, los algoritmos no son m¨¢s que herramientas, y los agentes morales somos totalmente responsables de las herramientas que creamos y utilizamos. Si dejamos que los algoritmos decidan bas¨¢ndose en datos del pasado, seremos responsables de repetir nuestros errores, de frenar el progreso social a tal punto que empecemos a retroceder.
Carissa V¨¦liz es investigadora en el Uehiro Centre for Practical Ethics y el Wellcome Centre for Ethics and Humanities en la Universidad de Oxford.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.