As¨ª fue el d¨ªa m¨¢s triste de Twitter o de c¨®mo la tecnolog¨ªa es capaz de detectar nuestro estado emocional
La uni¨®n de la psicolog¨ªa social y la inteligencia artificial ha generado programas y algoritmos capaces de identificar problemas de salud mental analizando tweets y estados de Facebook. Y no, no parece que los resultados sean positivos.
Los estudios que relacionan salud mental y abuso de las redes sociales est¨¢n ¨²ltimamente en boca de muchos; m¨¢s, si cabe, desde que se estren¨® hace pocas semanas ¡°The Social Dilemma¡± (Netflix), el documental en el que ex trabajadores de Facebook, Twitter o Pinterest detallan c¨®mo estas plataformas manipulan (esto es, monetizan) de forma eficiente nuestras expectativas y estados emocionales. Lo que no sab¨ªamos es que el an¨¢lisis de datos y la creaci¨®n de algoritmos tambi¨¦n se estaba usando en sentido inverso, es decir, para descifrar el estado de ¨¢nimo y las posibles patolog¨ªas mentales de las personas en base a los textos que escriben en las redes.
El pasado 31 de mayo fue el d¨ªa m¨¢s triste en Twitter en, por lo menos, los ¨²ltimos 13 a?os. As¨ª lo afirma la empresa Hedonometer, una especie de medidor de placer que se estableci¨® en 2007 en la universidad de Vermont. Sus ordenadores analizan al d¨ªa 50 millones de tweets en una decena de idiomas diferentes. Y, seg¨²n contaban recientemente sus fundadores al New York Times, esta fecha fue incluso m¨¢s ¡®digitalmente depresiva¡¯ que las semanas anteriores, al inicio del confinamiento mundial. Las razones hay que buscarlas en el desgaste que arrastramos despu¨¦s de semanas de incertidumbre, en la mala gesti¨®n pol¨ªtica y, por si fuera poco, en los asesinatos raciales que precedieron a las protestas de Black Lives Matter, ocurridos una semana anterior. ¡°El a?o m¨¢s feliz fue 2015. Despu¨¦s, todo fue decayendo¡±, explican al diario.
El hecho de que las m¨¢quinas no puedan procesar el significado de las palabras es uno de los argumentos que siempre se han esgrimido en contra de los fan¨¢ticos de la Inteligencia Artificial. Sin embargo, se pueden establecer mapas codificados: si hay varias ramas de la psicolog¨ªa y del psicoan¨¢lisis que se centran en el an¨¢lisis de la mente de un sujeto a partir de los patrones ling¨¹¨ªsticos que utiliza y, complementariamente, hay ramas de la sociolog¨ªa que abogan por examinar los cambios culturales en base al uso o desuso de nuevas met¨¢foras cotidianas y registros coloquiales, es posible trasladar estas estructuras a c¨®digos num¨¦ricos. As¨ª lo hizo hace casi una d¨¦cada Google Brain, el sistema de inteligencia artificial de aprendizaje profundo de Google; transcribiendo un numero considerable de expresiones a c¨®digo, la m¨¢quina es capaz de adivinar qu¨¦ palabra va a suceder a la anterior, as¨ª c¨®mo de captar iron¨ªas, sarcasmos y otros giros.
Por otro lado, los psic¨®logos y ling¨¹istas envueltos en el desarrollo de la inteligencia artificial llevan a?os practicando lo que los anglosajones llaman ¡®Sentiment Analysis¡¯, una herramienta para identificar emociones bastante frecuente en los servicios de atenci¨®n al cliente o los chats de ayuda en grandes empresas de consumo pero que, adem¨¢s de aplicarse para monetizar y desarrollar negocios, tambi¨¦n es aplicable (o al menos, deber¨ªa serlo) a la detecci¨®n del estado mental del usuario en redes.
Los hallazgos del psic¨®logo social James Pennebaker en los noventa (uno de los precursores, por lo mismo, de la escritura libre como terapia) empezaron a utilizarse en el siglo XXI como paquetes de datos para identificar emociones en Internet: del uso frecuente de la primera persona como s¨ªntoma de depresi¨®n al abuso de verbos opinativos como se?al de inseguridad, hoy esos mismos patrones son la base de la reciente uni¨®n entre psicolog¨ªa y Big Data. Hay estudios de Harvard que aseguran que esta nueva estrategia es capaz de detectar depresi¨®n precoz analizando textos en Twitter o investigaciones que relacionan inestabilidad emocional con interacciones de Facebook. Por supuesto, la emoci¨®n no es una ciencia exacta (por mucho que la tecnolog¨ªa intente convertirla en c¨®digo), pero la cuesti¨®n de fondo es si estos hallazgos, cada vez m¨¢s presentes, ser¨¢n utilizados para la detecci¨®n o meramente para la manipulaci¨®n a trav¨¦s del uso de terceros. Por lo pronto, Hedometer es de las pocas herramientas populares que parecen encaminadas a lo primero. Teniendo en cuenta que, solo en Espa?a, el uso de redes sociales ha crecido entre un 30% y un 55% en estos meses, que la adicci¨®n a la pantalla est¨¢ en alza en este momento de aislamiento, y que cada vez es m¨¢s tangible la relaci¨®n causa- consecuencia entre abuso de redes y malestar emocional, puede que el an¨¢lisis, propio y ajeno, del tweet, del estado de Facebook o del copy de Instagram sea la terapia del futuro cercano.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
?Tienes una suscripci¨®n de empresa? Accede aqu¨ª para contratar m¨¢s cuentas.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.