Los renegados de Silicon Valley que ahora quieren frenar a las tecnol¨®gicas
Exempleados de Google y Facebook crean una organizaci¨®n para forzar cambios que frenen los excesos de las grandes compa?¨ªas del sector y eviten los comportamientos adictivos de los usuarios
Fueron empleados de Google, Facebook o Twitter y ocuparon cargos relevantes. Alguno de ellos fue incluso asesor personal de Mark Zuckerberg. Explotaron; se dieron cuenta del da?o que el mal uso de la tecnolog¨ªa est¨¢ causando a la humanidad, de c¨®mo las plataformas est¨¢n estrat¨¦gicamente dise?adas para generar adicci¨®n. El pasado febrero, ocho extrabajadores de las m¨¢s potentes tecnol¨®gicas de Silicon Valley lanzaron el Center for Humane Technology en San Francisco, una organizaci¨®n sin ¨¢nimo de lucro que persigue despertar a los usuarios sobre los efectos nocivos de la tecnolog¨ªa en su salud y presionar al Gobierno estadounidense para que endurezca las normas que regulan el sector. Su prioridad es introducir la ¨¦tica en el dise?o de la tecnolog¨ªa.
"La tecnolog¨ªa no es neutral y las consecuencias son obvias. Est¨¢ cambiando el modo en que mantenemos conversaciones, nuestra forma de pensar y est¨¢ causando estragos en nuestro sistema democr¨¢tico", explica en una charla TED Tristan Harris, uno de los fundadores del proyecto que en 2016 dej¨® su puesto como dise?ador ¨¦tico en Google, donde estudiaba c¨®mo modificar los productos para hacerlos menos intrusivos en la vida de los usuarios. Harris lanz¨® en ese momento la plataforma Time Well Spent (en espa?ol, tiempo bien empleado), ahora integrada en el nuevo proyecto. "Con las alertas, el m¨®vil te dice en qu¨¦ tienes que fijar la atenci¨®n en cada momento. Tenemos que entender que pueden programar nuestra mente con peque?os pensamientos [en forma de alertas en la pantalla del m¨®vil] que no hemos elegido", a?ade Harris, experto en t¨¦cnicas de persuasi¨®n por la Universidad de Stanford.
Su gran aliado para poner en marcha el centro fue Roger McNamee, inversor de empresas tecnol¨®gicas y asesor personal de Zuckerberg durante varios a?os. En un post publicado en la revista Washington Monthly, McNamee explica que en 2016 ya alert¨® al fundador de la red social del mal uso que se estaba haciendo de Facebook con la publicaci¨®n de informaciones err¨®neas. Su ¨²ltima conversaci¨®n fue en 2017, cuando ya exist¨ªan evidencias, que m¨¢s tarde se confirmaron, de que piratas inform¨¢ticos rusos hab¨ªan creado cuentas falsas para tratar de influir en la opini¨®n p¨²blica a favor del entonces candidato republicano Donald Trump. Sus alertas no fueron tomadas en consideraci¨®n y Zuckerberg le contest¨® que Facebook no era un medio de comunicaci¨®n ni era responsable de las acciones de terceros. McNamee decidi¨® que nunca volver¨ªa a estar dentro.
El Center for Humane Technology es una alianza sin precedentes de exempleados de las tecnol¨®gicas m¨¢s potentes. A Harris y McNamee se unieron Justin Rosenstein, creador del bot¨®n de Me gusta de Facebook; Lynn Fox, exresponsable de comunicaci¨®n de Apple y Google, o Sandy Parakilas, director de operaciones en el departamento de privacidad de Facebook entre 2011 y 2012.
¡°Es muy complicado conseguir que la gente entienda por qu¨¦ la tecnolog¨ªa genera da?os¡±, cuenta Lynn Fox en conversaci¨®n telef¨®nica desde San Francisco. ¡°La falta de control sobre las redes sociales tiene consecuencias graves, como el incremento de casos de depresi¨®n entre adolescentes o la difusi¨®n de trastornos alimentarios¡±, a?ade Fox, que durante m¨¢s de 25 a?os ha trabajado en la industria. En los ¨²ltimos meses se han reunido con Google, Apple o Facebook para mostrarles algunos de los documentos en los que est¨¢n trabajando, como una gu¨ªa ¨¦tica para desarrolladores en la que incluir¨¢n datos estad¨ªsticos de los trastornos que provoca en la salud la adicci¨®n a la tecnolog¨ªa y alternativas para el dise?o de los productos.
"Analizan los datos de los usuarios y los utilizan para predecir qu¨¦ les har¨¢ reaccionar de forma m¨¢s intensa. Los algoritmos dan ventaja a los mensajes negativos: el miedo y el odio producen m¨¢s enganche
Sobre Facebook, el colectivo denuncia que su algoritmo est¨¢ dise?ado para maximizar la atenci¨®n de los usuarios y las horas que dedican a la plataforma, tiempo que est¨¢ directamente ligado a los beneficios que la tecnol¨®gica obtiene por publicidad. "Analizan los datos de los usuarios y los utilizan para predecir qu¨¦ les har¨¢ reaccionar de forma m¨¢s intensa. Los algoritmos dan ventaja a los mensajes negativos: el miedo y el odio producen m¨¢s enganche", critica McNamee.
Sandy Parakilas, exresponsable de operaciones en Facebook, tiene identificado el problema fundamental de la red social. ¡°El modelo de negocio se basa en hacer crecer el n¨²mero de usuarios y las conexiones e interacciones entre ellos para, de esa forma, aumentar su base de datos¡±, explica por tel¨¦fono desde San Francisco. Cree que igual que hacen otras tecnol¨®gicas como Microsoft, Facebook podr¨ªa comercializar su producto y no basar su facturaci¨®n en la publicidad. ¡°Microsoft Word es una herramienta por la que pagas; nadie est¨¢ vendiendo tu atenci¨®n a terceros, que es lo que hace Facebook¡±, opina Parakilas. ¡°Para ofrecer una plataforma que responda a las necesidades de los usuarios tendr¨ªan que renunciar a parte de los ingresos, ser un poco menos rentables, y no van a pasar por ah¨ª¡±.
De su estancia en Facebook durante m¨¢s de un a?o, Parakilas critica que su departamento, encargado de asegurar que no se violara la privacidad de los usuarios con la inserci¨®n de publicidad en la plataforma, contaba con muy pocos recursos. ¡°Me di cuenta de que proteger a los usuarios nunca ser¨ªa una de las prioridades de la compa?¨ªa; est¨¢n centrados en el crecimiento econ¨®mico y en estudiar f¨®rmulas para atraer su atenci¨®n¡±.
La reacci¨®n de Zuckerberg
"Uno de nuestros objetivos principales para 2018 es asegurarnos de que el tiempo que pasamos en Facebook sea un tiempo bien empleado", escribi¨® el pasado enero Mark Zuckerberg en un post. El fundador de la compa?¨ªa se sub¨ªa al carro del movimiento impulsado por el exempleado de Google Tristan Harris bajo el nombre Time Well Spent, con el que denunciaba las pr¨¢cticas abusivas de las tecnol¨®gicas y su estrategia para manipular la atenci¨®n de los usuarios y multiplicar las horas de consumo de sus productos.
"Los amigos y la familia siempre han estado en el centro de la experiencia de Facebook. Las investigaciones demuestran que reforzar nuestras relaciones personales mejora nuestro bienestar y felicidad", aseguraba Zuckerberg en su post. La tecnol¨®gica anunci¨® entonces un cambio en el algoritmo para dar prioridad a los contenidos publicados por amigos y familiares, de forma que en el muro de cada usuario apareciese menos contenido promocional. "El cambio llevar¨¢ meses", adelant¨® Zuckerberg.
El efecto de la tecnolog¨ªa en los j¨®venes ha estado en el centro del debate en Estados Unidos durante los ¨²ltimos meses. El pasado enero, dos grandes inversores de Wall Street pidieron a Apple que estudie los efectos de sus productos y dise?en herramientas m¨¢s sencillas para el control parental sobre los iPhones y iPads, de forma que se pueda limitar el consumo que los ni?os hacen de esos dispositivos. Por otro lado, el pasado junio expertos en pediatr¨ªa y salud mental hicieron un llamamiento a Facebook para que desactive un servicio de mensajer¨ªa que la compa?¨ªa activ¨® en Estados Unidos para ni?os a partir de seis a?os.
Algunas tecnol¨®gicas ya han reconocido la magnitud del problema. Google anunci¨® el pasado mayo en su conferencia anual de desarrolladores I/O el lanzamiento de la plataforma Digital Wellbeing (en espa?ol, bienestar digital), que incluye nuevas funcionalidades en Android para ayudar a los usuarios a controlar el tiempo que pasan en las diferentes Apps y activar alertas para tomar descansos. Tras reconocer que el 80% de los padres en Estados Unidos est¨¢n preocupados por el consumo que sus hijos hacen de la tecnolog¨ªa ¡ªresultado de una de sus encuestas¡ª, han reforzado su aplicaci¨®n Family Link, que permite a las familias gestionar las apps?que usan sus hijos, supervisar el tiempo que pasan delante de la pantalla o bloquear de forma remota su dispositivo.
Apple tambi¨¦n anunci¨® el pasado junio que a finales de este a?o lanzar¨¢ una nueva aplicaci¨®n, llamada Screen Time, que permitir¨¢ a los usuarios conocer cu¨¢nto tiempo dedican a cada app, cu¨¢ntas notificaciones reciben de cada una de ellas, cu¨¢ntas veces al d¨ªa consultan el m¨®vil o acceder a un informe de sus h¨¢bitos de uso comparados con los de la media. Igualmente, esa nueva herramienta permitir¨¢ a los padres acceder a los patrones de comportamiento de sus hijos y establecer l¨ªmites en sus dispositivos m¨®viles.
La presi¨®n del Center for Humane Technology se extiende al plano legislativo. En Massachusetts se han aliado con el senador dem¨®crata Ed Markey para proponer al Congreso que el Instituto Nacional de Salud Infantil y Desarrollo Humano examine el rol y el impacto de los dispositivos electr¨®nicos en el desarrollo de los ni?os. En California, junto al senador dem¨®crata Bob Hertzberg, van a proponer la creaci¨®n de una plataforma que identifique los bots (cuentas para la difusi¨®n masiva automatizada).?
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.