Ansiedad algor¨ªtmica: ya no vemos lo que queremos, sino lo que nos ense?an
Los sistemas de recomendaci¨®n con Inteligencia Artificial intentan adivinar nuestros deseos. Nos muestran un espejo deformado de nuestros gustos
?Cu¨¢ndo fue la ¨²ltima vez que descubri¨® algo en internet? Algo realmente nuevo que no oliera a d¨¦j¨¤ vu, una aut¨¦ntica sorpresa. Quiz¨¢s, ya hace mucho tiempo porque nos movemos en territorios tomados por un poder al que llamaremos gen¨¦ricamente algoritmo, que nos ha convertido en seres reiterativos y previsibles, en bucles de repetici¨®n. Exactamente, as¨ª como son ellos.
Ya no vemos lo...
?Cu¨¢ndo fue la ¨²ltima vez que descubri¨® algo en internet? Algo realmente nuevo que no oliera a d¨¦j¨¤ vu, una aut¨¦ntica sorpresa. Quiz¨¢s, ya hace mucho tiempo porque nos movemos en territorios tomados por un poder al que llamaremos gen¨¦ricamente algoritmo, que nos ha convertido en seres reiterativos y previsibles, en bucles de repetici¨®n. Exactamente, as¨ª como son ellos.
Ya no vemos lo que queremos, sino lo que nos ense?an. Y lo que nos ense?an es muy parecido a lo que ya hemos visto. Vivimos asediados por recomendaciones que no hemos pedido y que nos persiguen all¨¢ donde vamos. Hace tiempo que las publicaciones de nuestros amigos se solapan con publicidad que tampoco hemos elegido, pero que alguien ha comisariado para nosotros. El algoritmo nos quiere contentos, aseguran varios expertos consultados para este reportaje. Pero entonces, ?c¨®mo se las arreglan para conseguir exactamente lo contrario?
En 2018 el acad¨¦mico Shagun Jhaver estudi¨® a un grupo de anfitriones de Airbnb y observ¨® que manten¨ªan una relaci¨®n de amor-odio con la plataforma. Otorgaban a su algoritmo atributos semihumanos, y practicaban rituales cuasi m¨¢gicos con la esperanza de trampear sus supuestos superpoderes. Iniciaban, por ejemplo, sesi¨®n repetidas veces, o actualizaban constantemente la disponibilidad de sus propiedades con la esperanza de manipular al algoritmo y hacerse m¨¢s visibles ante sus potenciales clientes. En su investigaci¨®n, Jhaver apunt¨® que Airbnb nunca confirm¨® que estos rituales funcionaran.
El acad¨¦mico comparaba el comportamiento de los anfitriones de Airbnb con el de ¡°obreros supervisados por un jefe supremo y caprichoso¡±, entregados a adivinar sus deseos y a hacer conjeturas sobre su manera de funcionar. Dado que dichos comportamientos estaban dominados por conductas ansiosas, el profesor los englob¨® en el t¨¦rmino ansiedad algor¨ªtmica que utiliz¨® para describir la inquietud y malestar de los humanos cuando interact¨²an con la inteligencia artificial. Un sentimiento que se agudiza cuando estos algoritmos intervienen en nuestras decisiones.
Antes del trabajo de Airbnb, la etiqueta ansiedad algor¨ªtmica ya hab¨ªa sido mencionada por la experta en inteligencia artificial Kate Crawford en 2013, y en otra investigaci¨®n de la acad¨¦mica Patricia de Vries en 2016. De Vries apuntaba que el algoritmo como entidad con vida propia parec¨ªa, m¨¢s que una creaci¨®n tecnol¨®gica, ¡°una idea que los humanos hab¨ªamos construido en nuestras cabezas¡±. De Vries, que consigui¨® su doctorado con el libro Algorithmic Anxiety in Contemporary Art (la ansiedad algor¨ªtmica en el arte contempor¨¢neo), opina que otorgamos demasiado poder y autoridad a los algoritmos. ¡°Esa fijaci¨®n refuerza el falso dualismo hombre-m¨¢quina y debilita nuestra visi¨®n de otras fuerzas y comportamientos que intervienen en la persistencia de los sistemas de recomendaci¨®n¡±.
De Vries recuerda que los algoritmos no tendr¨ªan tanto poder sin la riada de datos que vamos dejando voluntariamente en webs que explotan nuestras identidades y preferencias. Si un anuncio de sujetadores nos persigue por internet, como afirma la experta, el algoritmo no ser¨¢ el ¨²nico culpable, sino todo el modelo de negocio de las redes sociales en las que cada d¨ªa participan miles de millones de personas. ¡°Es la industria de la tecnolog¨ªa extractiva del siglo XXI¡±, afirma.
Los sistemas de recomendaci¨®n se entrenan con nuestros datos y parecen dispuestos a adivinarnos el pensamiento, adelantarse a nuestros deseos y completar las palabras que dejamos a medio teclear, pero con frecuencia se equivocan, y no nos entienden. Son un espejo distorsionado de nuestros deseos. Por ejemplo, no razonan que si alguien ya ha comprado un billete a Canc¨²n no querr¨¢ seguir viendo los precios a ese destino, sobre todo si son m¨¢s baratos de los que ya ha conseguido. Tampoco entienden que si una vez uno ha cenado empanadas argentinas, al d¨ªa siguiente no querr¨¢ lo mismo, aunque si le ponen el anuncio delante quiz¨¢s acabe tomando el camino m¨¢s f¨¢cil.
Taina Bucher, investigadora de la Universidad de Oslo, asegura que estamos desarrollando ¡°sentimientos emergentes¡± hacia los algoritmos. Es algo que se siente, pero no se articula por completo, explica en un correo electr¨®nico. ¡°La forma exacta en que las personas se sienten respecto a los algoritmos var¨ªa no solo entre poblaciones e individuos, sino tambi¨¦n entre plataformas¡±, precisa Bucher, que a?ade que no sentimos lo mismo hoy respecto a los algoritmos que en 2017, cuando todo era bastante m¨¢s naif.
A la catedr¨¢tica Patricia de Vries no le sorprende la torpeza de los sistemas de recomendaci¨®n: ¡°Las preferencias humanas son esquivas. Los neurocient¨ªficos a¨²n est¨¢n intentando entender c¨®mo funciona el cerebro y de d¨®nde vienen nuestras preferencias. Las cosas que nos mueven y nos redirigen a menudo no pueden predecirse en funci¨®n de los datos de nuestras conductas pasadas, se manifiestan sin previo aviso, desobedientes a la curva de campana. Seguimos siendo un misterio para nosotros mismos. A pesar de todo, queremos creer que un algoritmo puede llegarnos a conocer mejor que nosotros mismos y eso nos produce ansiedad¡±.
Hace unos meses, un reportaje en The New Yorker aseguraba que est¨¢bamos instalados en la era de la ansiedad algor¨ªtmica. Un sinvivir provocado por las dudas de identidad que nos produce vivir bombardeados por recomendaciones que, en teor¨ªa, ven¨ªan a ayudarnos a organizar el flujo de contenido digital de internet, pero que al final distorsionan y simplifican nuestros gustos. ?Acaso somos esa persona a la que persigue un anuncio de sujetadores deportivos all¨¢ donde va?
La ansiedad algor¨ªtmica es tambi¨¦n una crisis de identidad: ?Me gusta lo que creo que me gusta o me estoy dejando llevar por un algoritmo que no entiendo del todo? A veces es imposible entender por qu¨¦ nuestros contenidos se vuelven monotem¨¢ticos y solo nos sugieren comida japonesa o conferencias de aficionados a las criptomonedas.
¡°La recomendaci¨®n algor¨ªtmica es el nuevo spam¡±, tuiteaba hace unas semanas Juan Miguel Aguado, catedr¨¢tico de Comunicaci¨®n de la Universidad de Murcia. Si en los albores del correo electr¨®nico el spam nos abrumaba, ahora lo hacen los invasivos sistemas de recomendaci¨®n. ¡°El exceso produce ansiedad¡±, explica el profesor Aguado, y a?ade: ¡°Es necesario seleccionar y filtrar, y cada vez es m¨¢s dif¨ªcil hacerlo, por eso nos reconforta la ayuda de los algoritmos¡ Netflix ha puesto en marcha un modo aleatorio que decide por el usuario, y funciona¡ hasta que vemos que reduce nuestros gustos a una caricatura de nosotros mismos¡±. Para el profesor Aguado todo se torna mucho m¨¢s interesante cuando el algoritmo falla y propone algo ¡°ins¨®lito¡±. ¡°Les ocurre con frecuencia a quienes comparten cuentas en las plataformas: al mezclarse los perfiles y patrones de comportamiento, surgen recomendaciones que, en ocasiones, desencadenan descubrimientos imprevistos¡±, cuenta v¨ªa e-mail. Para huir de la ansiedad algor¨ªtmica, como para casi cualquier cosa, mezclarse suele ser un buen camino.
Patricia de Vries recuerda que en casi todo, pero mucho m¨¢s en materia de deseos y gustos, por muy estable que sea un patr¨®n, su repetici¨®n siempre ser¨¢ una suposici¨®n. Esta acad¨¦mica es cr¨ªtica con ¡°la narrativa de que la tecnolog¨ªa puede resolver todo tipo de problemas en un mundo complejo¡± y tambi¨¦n con los gobiernos ¡°cr¨¦dulos y ansiosos¡± por ¡°implantar la inteligencia artificial en los servicios p¨²blicos en aras de la eficiencia y la reducci¨®n de costos¡±. ¡°La vida se niega a ser completamente factual, as¨ª que no deber¨ªamos confiar ciegamente en el big data para construir hip¨®tesis sobre personas, cosas o deseos¡±, advierte. Por m¨¢s que insistan, la vida no es un bucle de informaci¨®n.
Ap¨²ntate aqu¨ª a la newsletter semanal de Ideas.