El ¡®big data¡® que alimenta al ¡®gran hermano¡¯
La implantaci¨®n del 'sistema de cr¨¦dito social' en China refleja muchas de las controversias actuales sobre vigilancia digital
"Ay, si te vieran tus padres haciendo eso". Todos hemos pasado por alguna situaci¨®n as¨ª. El hecho de sentirnos observados modifica nuestro comportamiento, y siempre en mayor medida cuanto mayor sea la autoridad de la figura que est¨¢ detr¨¢s, vigilando. Las redes sociales est¨¢n siendo un gran terreno de aprendizaje en ese aspecto. Debemos cuidar lo que decimos. C¨®mo lo decimos. A qui¨¦n se lo decimos. Las posibles consecuencias de nuestros actos cambian nuestras actitudes, o al menos su apariencia ante otros observadores. En el mundo digital nunca fuimos quienes realmente somos, sino que somos lo que aparentamos ser.
Que el gobierno chino est¨¦ preparando un sistema disciplinario con el que recoger informaci¨®n masiva sobre sus ciudadanos para evaluar su lealtad al r¨¦gimen comunista ha devuelto el debate sobre la vigilancia digital al centro de las conversaciones sobre tecnolog¨ªa y sociedad. Un algoritmo recoger¨¢ datos de las redes sociales de los ciudadanos chinos, informaci¨®n bancaria o de consumo en las redes y premiar¨¢ a los ¡°buenos ciudadanos¡± con mayores facilidades a la hora de conseguir una hipoteca, un trabajo o un colegio de mayor categor¨ªa para sus hijos.
Los defensores de esta medida valoran su potencial beneficio en aspectos como la credibilidad judicial o la sinceridad social y comercial. Sus detractores avisan de los peligros de crear modelos reduccionistas sobre lo que se considera ser un buen ciudadano y sobre todo de la p¨¦rdida total de privacidad. Sin embargo, algunas voces avisan de que este escenario no es algo novedoso. De hecho, advierten que son muchos los mecanismos de este tipo que est¨¢n en funcionamiento desde hace tiempo.
As¨ª lo afirma Ram¨®n Sang¨¹esa, doctor en inform¨¢tica e investigador en inteligencia artificial y aprendizaje autom¨¢tico. El coordinador del Data Transparency Lab cree esencial el desarrollo de un conocimiento y conciencia del p¨²blico respecto al potencial de estas tecnolog¨ªas, ya que ¡°la tentaci¨®n de gesti¨®n tecnocr¨¢tica siempre ha existido o se ha implementado en cierto nivel, estamos en una fase de deriva autoritaria en todo el mundo, y una buena campa?a de marketing institucional nos acaba convenciendo de cualquier barbaridad. V¨¦ase desde Edward Bernays [considerado como inventor de la propaganda y las relaciones p¨²blicas] hasta el uso de los bots pol¨ªticos y las fake news en campa?as como la de Trump o Clinton¡±.
Un algoritmo recoger¨¢ datos de las redes sociales de los ciudadanos chinos, informaci¨®n bancaria o de consumo en las redes y premiar¨¢ a los ¡°buenos ciudadanos¡±
De no contar con esa visi¨®n cr¨ªtica, podremos ser manipulados sin apenas ser conscientes de ello. Dice Sang¨¹esa que ¡°directamente estas plataformas manipulan tus sentimientos y emociones¡± haciendo referencia a un estudio secreto llevado a cabo por Facebook. Esta red social llev¨® a cabo un experimento de ingenier¨ªa social mediante el que modific¨® el estado de ¨¢nimo de cerca de 689.000 usuarios de la red social a partir de las publicaciones de sus amigos. El fen¨®meno de contagio emocional masivo permiti¨® un mayor conocimiento de la forma en que nos relacionamos, pero tambi¨¦n de la relativa facilidad con que se nos puede manipular a nivel psicol¨®gico.
Sin embargo, las emociones transmitidas a trav¨¦s de la red social no dejaban de ser eso, emociones, al menos en apariencia. Nadie pod¨ªa confirmar que esas expresiones de alegr¨ªa o tristeza fueran el sentimiento real de esas personas. ¡°Somos, de entrada, animales sociales, pero desde el siglo pasado basculamos de manera m¨¢s asumida entre lo que sentimos que hay que proteger (nuestra intimidad) y la presentaci¨®n de la persona en la sociedad (nuestro derecho a tener privacidad) [¡] Esto de comportarnos distinto ante los dem¨¢s nos viene de lejos¡±, afirma la doctora Raquel Herrera, profesora e investigadora en comunicaci¨®n digital cultural.
Herrera considera que en casos como el de China ¡°el esfuerzo por aparentar y el de "escapar de las apariencias" (ambos maximalismos) ir¨¢n de la mano¡±, y que surgir¨¢n din¨¢micas centradas en aprender c¨®mo se puede hacer trampas para saltarse algunas de las imposiciones del sistema. Un sistema que, dada su envergadura, funcionar¨¢ mediante algoritmos de aprendizaje autom¨¢tico que, tras una fase de entrenamiento, funcionar¨¢n por su cuenta. Ese grado de autonom¨ªa plantea un nuevo interrogante: ?funcionar¨¢n estas tecnolog¨ªas sin control humano?
¡°Inevitablemente deben revisarse tras un tiempo¡±, dice Ram¨®n Sang¨¹esa. ¡°La cuesti¨®n es bajo qu¨¦ par¨¢metros y valores se orienta esa revisi¨®n en este tipo de aplicaciones de ranking de ciudadanos. [¡] Hay mucho que hacer por incorporar nuevos marcos evaluativos en los decisores y los tecn¨®logos que trabajan a sus ¨®rdenes. Por el momento buena parte de lo tecnol¨®gico, de Silicon Valley, opera m¨¢s all¨¢ de estas consideraciones. Es una cultura de la eficiencia desconectada de otros valores, en general¡±, a?ade. Otros expertos llevan tiempo destacando esa falta de responsabilidad social de grandes empresas tecnol¨®gicas como Uber, cuyo modelo de negocio ha causado distintos esc¨¢ndalos en los ¨²ltimos a?os.
Es un enfoque cultural carente de unos valores que, de no incorporarse, podr¨ªa llevar a escenarios poco o nada controlables, como m¨¢quinas que lleven a cabo esa labor de vigilancia de forma aut¨®noma. Hace falta una prescripci¨®n adecuada que informe hasta d¨®nde deben aprender estos sistemas y de qu¨¦ fuentes deben aprender. Y para lograrlo, como insiste Sang¨¹esa, hace falta mucha comunicaci¨®n y conocimiento, adem¨¢s de otras iniciativas que incentiven otros escenarios m¨¢s positivos como mydata.org, un movimiento que ofrece gu¨ªas para tener un mayor control sobre toda la informaci¨®n que generamos en nuestra actividad cotidiana. O las actividades educativas para el gran p¨²blico que organiza el propio Sang¨¹esa desde el colectivo equipocafeina.net. De no ser as¨ª, tal vez volvamos a recordar ¨Cuna vez m¨¢s- estas palabras que Margaret Atwood plasm¨® en El cuento de la criada: ¡°La humanidad es muy adaptable, dec¨ªa mi madre. Es sorprendente la cantidad de cosas a las que llega a acostumbrarse la gente si existe alguna clase de compensaci¨®n¡±.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.