Los usuarios convierten su muro de Facebook en una burbuja ideol¨®gica
S¨®lo el 22% de las noticias que los progresistas ven en su muro contradicen su forma de pensar, frente al 45% que ver¨ªan de forma aleatoria
Aunque todav¨ªa mucha gente no lo sabe, Facebook selecciona lo que los usuarios ven en su muro. Un algoritmo filtra lo que se muestra para, en principio, dar al usuario solo lo que m¨¢s le apetece ver y no saturarle con informaci¨®n que no le interesa tanto. La duda es si ese algoritmo que tan bien nos conoce nos est¨¢ cebando solo con lo que nos gusta, creando una burbuja a nuestro alrededor en la que no entra nada que desaf¨ªe nuestra forma de pensar. Para despejar dudas, los cient¨ªficos sociales de Facebook publican hoy en la revista Science el primer estudio que analiza la influencia de esa f¨®rmula que manipula los muros: la burbuja ideol¨®gica existe, pero es m¨¢s culpa de los propios usuarios que de la programaci¨®n de Mark Zuckerberg.
Facebook tiene un problema de imagen por culpa de los algoritmos que filtran la informaci¨®n que vemos", afirma Moro
Tras estudiar a m¨¢s de 10 millones de sus usuarios y su interacci¨®n con enlaces de noticias pol¨ªticas, los cient¨ªficos de Facebook han descubierto que la red social es una caja de resonancia de nuestras propias ideas con pocas ventanas al exterior. As¨ª, de todos los enlaces que ven las personas que se consideran progresistas, apenas un 22% desaf¨ªan su forma de pensar. Los conservadores ven en sus muros un 33% de noticias que no corresponden con su ideolog¨ªa.
Si no hubiera intervenido el algoritmo, los progresistas hubieran visto un 24% de noticias inc¨®modas y los conservadores un 35%. Es decir, que esa f¨®rmula ideada en los ordenadores de Facebook ayuda a reducir la diversidad ideol¨®gica del muro de los usuarios, pero no es la principal culpable. Los usuarios son los responsables de encerrarse en sus propias ideas, seg¨²n el estudio: si no escogieran a sus amistades como lo hacen, sino de forma aleatoria, ver¨ªan entre un 45% (los progresistas) y un 40% (los conservadores) de contenido contrario a sus ideas.
Datos del estudio
El estudio se realiz¨® entre usuarios que se hubieran definido ideol¨®gicamente en EE UU.
Estudiaron a 10,1 millones de los casi mil millones usuarios activos diarios con que cuenta actualmente.
Solo el 13% de las direcciones de noticias estudiadas correspond¨ªan a informaciones "duras", noticias pol¨ªticas v¨¢lidas para el estudio.
De los 903 millones de noticias que vieron los usuarios estudiados, solo clicaron 59 millones de veces.
?nicamente el 20% de las noticias que los progresistas clicaron eran contrarias a sus ideas, frente al 29% de los conservadores.
Los investigadores explican estas diferencias entre progresistas y conservadores porque los usuarios de izquierdas son m¨¢s propensos a compartir enlaces a noticias de su ideolog¨ªa.
L¨®gicamente, el entorno offline de la gente, las personas con las que se relacionan f¨ªsicamente, tampoco es aleatorio. Pero es mucho m¨¢s dif¨ªcil de medir esa burbuja ideol¨®gica en la calle que en las redes sociales. Las ingentes cantidades de informaci¨®n que una empresa como Facebook puede recopilar sobre sus usuarios (y los que no lo son) le permiten medir su inclinaci¨®n a encerrarse en grupos de pensamiento m¨¢s o menos aislados. Por ejemplo, la probabilidad de clicar en el muro en una noticia favorable a las ideas propias?¡ªun votante republicano entrando a una noticia de FoxNews¡ª frente a una contraria es abrumadora.
Una de las flaquezas del estudio es que estudia ¨²nicamente usuarios de EE UU que definieron su posici¨®n ideol¨®gica en una pesta?a de Facebook ¡ªm¨¢s f¨¢cil de mostrar en dos polos opuestos¡ª, lo que genera un sesgo importante y deja la duda sobre el comportamiento de los usuarios que tienen ideolog¨ªa , pero no lo marcaron en su perfil. Seg¨²n sugiere Pablo Barber¨¢, que estudia la polarizaci¨®n de las redes en la Universidad de Nueva York, los usuarios estudiados probablemente tienen una red de contactos en Facebook m¨¢s homog¨¦nea: "Si el estudio hubiera incluido a todos los usuarios, seguramente observar¨ªamos unos niveles a¨²n m¨¢s altos de exposici¨®n a diversidad de opiniones, y un efecto mayor de los algoritmos".
La era de los algoritmos
"Es un estudio a la defensiva", explica Esteban Moro, experto en redes sociales de la Universidad Carlos III. "Facebook tiene un problema de imagen por culpa de los algoritmos que filtran la informaci¨®n que vemos y quer¨ªan demostrar que el filtro algor¨ªtmico no tiene tanta influencia como el filtro social", resume el investigador.
Vivimos en la era de los algoritmos. Lo que se nos muestra en los resultados de Google, en el muro de Facebook o en otras plataformas lo decide una f¨®rmula cada vez m¨¢s compleja que selecciona lo mejor para satisfacer los intereses del usuario y de la empresa. Sin embargo, son todav¨ªa muchos los que piensan que ven lo que hay y no lo que el algoritmo cree que deben ver. Pero no es as¨ª: en funci¨®n de su interacci¨®n con sus amigos y su actividad, Facebook define sus intereses y muestra lo que provocar¨¢ m¨¢s interacci¨®n, para que permanezca m¨¢s tiempo en la red y de este modo genere m¨¢s ingresos a la empresa.
No es f¨¢cil saber si la burbuja ideol¨®gica es mayor o menor fuera de Facebook, pero algunos estudios indican que las redes ayudan a mitigarla
Este ciclo de retroalimentaci¨®n despert¨® el inter¨¦s del activista Eli Pariser, que public¨® en 2012 un libro llamado Filter Bubble (algo as¨ª como La burbuja de los filtros), en referencia al efecto que el algoritmo ten¨ªa en nuestras vidas: al buscar Egipto en Google, unos usuarios reciben informaci¨®n sobre las revueltas y otros solo sobre vacaciones en las pir¨¢mides, todo en funci¨®n de su comportamiento previo.
El verano de 2014, Facebook dio a conocer otro de estos estudios ¡ªque publica regularmente sobre el comportamiento en su red¡ª que gener¨® una inusitada pol¨¦mica porque manipulaba emocionalmente a sus usuarios, mostr¨¢ndole m¨¢s mensajes negativos o positivos de sus contactos para comprobar que se produc¨ªa cierto contagio en su forma de expresarse. En buena medida, la controversia surgi¨® porque el gran p¨²blico descubr¨ªa que Facebook manipula los muros y, por consiguiente, el comportamiento de la gente.
No es algo que escondan, ni mucho menos: Facebook se jacta de influir de forma notable en la participaci¨®n electoral en los comicios de todo el mundo, tras arrastrar a las urnas a 340.000 abstencionistas en las legislativas de EE UU.
En este escenario, los cient¨ªficos de la empresa que dirige Mark Zuckerberg muestran que el contagio social o la burbuja ideol¨®gica que se forma en su red social es similar o m¨¢s moderada que la que se produce offline. De hecho, ya en 2012 hab¨ªan publicado un estudio que negaba que la burbuja fuera tan grave, pero en esta ocasi¨®n lo importante era descargar las culpas del algoritmo.
La investigaci¨®n previa de Barber¨¢ y este estudio se?alan que las redes sociales podr¨ªan ser un mecanismo para recibir informaci¨®n distinta de lo habitual. "Por ejemplo, un votante de derechas que solo ve Antena 3 y lee La Raz¨®n podr¨ªa verse expuesto por primera vez a contenido con un sesgo de izquierdas compartido por sus contactos en Facebook", explica Barber¨¢.
Sin embargo, esa es otra de las flaquezas de este ¨²ltimo estudio del equipo de Facebook, como lamenta Esteban Moro: "El problema es que no compara con nada. No podemos saber si lo que ocurre es peor o mejor fuera de Facebook".
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.