Estupidez artificial: el problema que nadie vio venir
Los fallos de dise?o en los algoritmos tienen un impacto en la vida de millones de personas
Cualquier conductor que vea una se?al de stop a la que alg¨²n gracioso le ha puesto una pegatina que pone ¡°odio¡± sabe que sigue siendo una se?al de stop y debe parar. En cambio un coche aut¨®nomo ser¨¢ incapaz de reconocerla m¨¢s del 60% de las veces y pasar¨¢ de largo.
Los sistemas de visi¨®n artificial confunden una tortuga de juguete con un rifle y a personas negras con gorilas. Estos dispositivos han sido entrenados para ver patrones y hacen falta solo sutiles cambios de simetr¨ªa para desbaratarlos, como demuestra el estudio de las se?ales de tr¨¢fico publicado el pasado abril por expertos de varias universidades de EE UU.
Las personas tambi¨¦n hemos evolucionado durante miles de a?os para ver patrones. ¡°Estamos hechos para identificar caras y las vemos en las nubes, en las manchas de la pared, lo hacemos continuamente¡±, explica Jos¨¦ Manuel Molina, del grupo de inteligencia artificial aplicada de la Universidad Carlos III de Madrid. Un humano conoce el contexto de esa imagen, sabe que parece una cara, pero en realidad es una nube. En cambio la experiencia de vida de un algoritmo de visi¨®n se limita a bases de datos con miles de im¨¢genes con las que se ha entrenado una y otra vez. ¡°Los algoritmos han sido dise?ados para resolver problemas muy concretos, pero no para comprender qu¨¦ est¨¢ sucediendo en su entorno, solo ven se?ales y aplican la misma soluci¨®n siempre. Las m¨¢quinas son totalmente autistas y darles comprensi¨®n de su entorno es muy complicado¡±, resume Molina.
Estos fallos est¨¢n cambi¨¢ndole la vida a la gente. El sistema de inteligencia artificial Compas que usan los jueces en EE UU como asesor tiene un sesgo y tiende a desaconsejar la libertad a los negros m¨¢s a menudo que a los blancos. El algoritmo analiza 173 variables ¡ªninguna de ellas es la raza¡ª y da una probabilidad de reincidencia de 0 al 10. ¡°La causa de estos problemas es que las bases de datos con las que funcionan estos algoritmos son de la polic¨ªa y en ellas hay importantes sesgos racistas¡±, explica Ram¨®n L¨®pez de M¨¢ntaras, experto en inteligencia artificial del CSIC. Un estudio publicado este mismo a?o sostiene que el sistema tiene una tasa de error equiparable a la de personas sin conocimientos legales. El problema no es tanto la m¨¢quina, sino el riesgo de que el juez delegue en ella.
A un nivel mucho menos grave, la aparente estupidez artificial acecha a cualquiera que use Internet con anuncios omnipresentes de cosas que ya han comprado o que no interesan. Una vez m¨¢s, la culpa no es de la m¨¢quina, sino de la falta de contexto. ¡°Si buscamos un producto en Internet esa informaci¨®n es p¨²blica y queda grabada, pero cuando lo compramos la transacci¨®n es privada, el algoritmo no sabe que lo has comprado, se lo tienes que ense?ar. No es un error, te sigue mostrando lo que cree que te interesa y lo seguir¨¢ haciendo hasta que pase su tiempo de olvido¡±, explica Molina.
En este caso las bases de datos somos nosotros. Los asistentes dom¨¦sticos de conversaci¨®n y los sistemas de an¨¢lisis de cookies en Internet se entrenan y aprenden con nuestro uso de la red. En ocasiones ¡°el algoritmo detecta un patr¨®n que no existe y se empieza a comportar de una forma concreta, por ejemplo mostrando un anuncio en el que pinchamos por error una o dos veces¡±, explica Carlos Castillo, experto en inteligencia artificial de la Universidad Pompeu Fabra de Barcelona. ¡°Estos errores son como supersticiones que adquieren las m¨¢quinas. Tenemos que entender que los sistemas de computaci¨®n se pueden equivocar, lo importante es saber por qu¨¦ y c¨®mo corregirlo. En Europa ha entrado en vigor una regulaci¨®n en este aspecto que nos permite ver qu¨¦ perfiles autom¨¢ticos se han creado de nosotros, cambiarlos, borrarlos y saber qu¨¦ informaci¨®n se est¨¢ compartiendo sobre nosotros, aunque poca gente se molestar¨¢ en hacerlo¡±, explica.
A menudo las empresas propietarias de los algoritmos no permiten que se conozcan los detalles de su funcionamiento. Es lo que sucede con el algoritmo de recomendaci¨®n de v¨ªdeos de YouTube, explica el doctor en inteligencia artificial Guillaume Chaslot, que trabaj¨® en Google (propietaria de YouTube) entre 2010 y 2013. El canal de v¨ªdeo online ¡°gana un c¨¦ntimo de euro por cada hora¡±, asegura. ¡°Cada d¨ªa en todo el mundo se ven unas 1.000 millones de horas, con lo que gana mucho dinero. El algoritmo que recomienda otros v¨ªdeos despu¨¦s de una reproducci¨®n tiene como principal objetivo maximizar el tiempo de permanencia. Lo que sucede es que el algoritmo acaba recomendando v¨ªdeos sobre teor¨ªas de la conspiraci¨®n, discursos del odio, racistas o sexistas, porque esos son los que tienen un tiempo de permanencia mayor. En dos o tres clicks puedes acabar viendo uno de estos v¨ªdeos, pero todo depende de cada usuario. El algoritmo es tan complejo que no puedes rastrear cada una de las decisiones individuales que tom¨® para recomendar un contenido. Por supuesto todo esto es un accidente no intencionado por los programadores¡±, explica.
A menudo las empresas propietarias de los algoritmos no permiten que se conozcan los detalles de su funcionamiento
"Desde 2017 hemos estado introduciendo formas para mejorar el acceso a la informaci¨®n en Espa?a incluyendo un estante de noticias de ¨²ltima hora en la p¨¢gina de inicio de YouTube y el estante de mejores noticias en el buscador que ofrece contenido de fuentes de noticias verificadas despu¨¦s de un evento importante", explica Katherine Vargas, portavoz de Google . "Adem¨¢s hemos anunciado m¨¢s de media docena de nuevas funcionalidades en el ¨²ltimo a?o y una inversi¨®n global de 25 millones de d¨®lares para editores de noticias que producen videos en l¨ªnea para crear una mejor experiencia de noticias", a?ade.
Chaslot cree que "se ha mejorado mucho el sistema de b¨²squeda, pero no tanto el de recomendaci¨®n". El ingeniero ha creado un sistema de inteligencias artificiales que est¨¢n continuamente viendo YouTube y siguiendo recomendaciones, de forma que pueden consultarse los v¨ªdeos m¨¢s sugeridos cada d¨ªa, entre los que abundan contenidos de dudoso rigor. Chaslot es asesor del Centro para la Tecnolog¨ªa Humana, formado por un grupo de ingenieros y ejecutivos salidos de la industria tecnol¨®gica que intentan denunciar los efectos negativos de la tecnolog¨ªa y revertirlos. ¡°Ahora mismo estamos viviendo las consecuencias de que haya grandes empresas que controlan las mayores plataformas de inteligencia artificial y no haya apenas inversi¨®n desde los gobiernos y la sociedad civil para promover usos m¨¢s positivos¡±, alerta.
A la amplificaci¨®n de contenidos radicales en redes sociales se suma una tendencia a sobrevalorar? las capacidades de las m¨¢quinas. ¡°Nos imaginamos que hay un peque?o cerebro humano dentro del ordenador, pero no, solo es programaci¨®n y matem¨¢ticas¡±, explica Meredith Broussard, exprogramadora, profesora de periodismo en la Universidad de Nueva York y autora del libro Artificial Unintelligence (Estupidez artificial). ¡°Un sistema de visi¨®n artificial ve una imagen, sit¨²a una ret¨ªcula de p¨ªxeles sobre ella y busca patrones entre los puntos. Si ve arcos y ¨®valos dir¨¢ que es una cara, aunque en realidad est¨¦ mirando un nabo. Por eso es importante ense?arle a la gente a desarrollar programas de aprendizaje computacional. Al principio les suena a magia, pero es solo escribir c¨®digos. Una vez que lo ven se sienten defraudados¡±, resalta.
Broussard habla de "la creencia extendida entre la mayor¨ªa de los programadores de que las soluciones tecnol¨®gicas son siempre mejores que las humanas"."Los pioneros de este campo dec¨ªan que el mundo de la alta tecnolog¨ªa ser¨ªa glorioso y libre. Tardamos demasiado tiempo en cuestionarles. Incluso ahora es dif¨ªcil para muchos aceptar que lo que imaginaban hace 20 a?os sobre c¨®mo ser¨ªa la tecnolog¨ªa era un enga?o", resalta.
En julio de 2017 muchos pensaron que lo inevitable hab¨ªa pasado. Facebook hab¨ªa desconectado dos robots de conversaci¨®n porque hab¨ªan desarrollado un lenguaje secreto para comunicarse sin que lo supieran sus programadores. Una de sus di¨¢logos era:
¡°¨CBob: Yo puedo yo yo lo dem¨¢s...
¨CAlice: bolas tienen cero para m¨ª para m¨ª para m¨ª para m¨ª para m¨ª para m¨ª para¡±
El objetivo de los programadores era crear algoritmos capaces de negociar con humanos y para ello les entrenaron para repartirse tres tipos de objetos: sombreros, bolas, libros. El objetivo principal era llegar a negociaciones exitosas as¨ª que los robots empezaron a usar repeticiones de palabras sin tener en cuenta su coherencia. Llegaban a acuerdos v¨¢lidos seg¨²n los par¨¢metros fijados por los programadores pero la charla era incomprensible para los humanos, como desvel¨® Wired. ¡°Fue un simple error de programaci¨®n. Ninguna m¨¢quina tiene intenciones ni las tendr¨¢n nunca. Pueden ense?arse a s¨ª mismas a jugar al Go y derrotar a un campe¨®n, pero no saben que est¨¢n jugando. Si pusi¨¦semos a esa misma m¨¢quina a distinguir fotos de perros y gatos olvidar¨ªa todo lo anterior. Solo pueden hacer una cosa a la vez¡±, resalta M¨¢ntaras. ¡°Es cierto que hace a?os nadie pod¨ªa predecir que la inteligencia artificial se pusiera tan de moda y se hablara tanto de los problemas que pod¨ªa traer asociados, pero hace ya 42 a?os que [el inform¨¢tico del MIT] Joseph Weizenbaum escribi¨® que nunca deber¨ªamos dejar que los ordenadores tomasen decisiones importantes porque nunca tendr¨¢n cualidades humanas como la compasi¨®n y la sabidur¨ªa¡±.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.