Facebook potencia el arma de la Inteligencia Artificial para eliminar contenidos nocivos
La red bloquea 1.700 millones de cuentas en un trimestre y el 90% de estas no llega a activarse
Acoso, incitaci¨®n al odio, propaganda terrorista, cuentas falsas que manipulan la conversaci¨®n entre internautas ¡ Rastrear y bloquear los contenidos abusivos y peligrosos que buscan su canal de circulaci¨®n en Facebook es la declarada prioridad de la red social con m¨¢s usuarios del mundo, cuya imagen se ha visto lastrada por ¡°errores¡± y ¡°malas experiencias¡± como la emisi¨®n en directo de una masacre antimusulmana en Nueva Zelanda. Mediaron 17 minutos hasta que la filmaci¨®n del propio asesino fue desactivada. Ocho meses y medio despu¨¦s, los responsables de la plataforma esgrimen el arma de la Inteligencia Artifical (AI) para lograr su objetivo de detectar autom¨¢ticamente ese y otro tipo de materiales nocivos antes de que sean accesibles a otros usuarios. En el minuto cero.
De los 1.700 millones de cuentas eliminadas por Facebook en el tercer trimestre del a?o, el 90% fueron interceptadas antes de que fueran activas, han explicado en Londres un grupo de expertos en producto e ingenier¨ªa que desarrollan las herramientas tecnol¨®gicas de la compa?¨ªa. Ese dato ha sido posible gracias a los avances en el software a la hora de identificar contenidos que no cumplan los est¨¢ndares fijados por la plataforma. Si la firma californiana depend¨ªa en sus inicios de que los usuarios alertaran sobre contenidos dudosos, a lo que sigui¨® un proceso de revisi¨®n por parte de su personal, en el presente son los algoritmos los encargados de la detecci¨®n autom¨¢tica de los materiales no deseados, aunque el proceso incluye equipos humanos que verifican la aplicaci¨®n del software.
"El reto es continuo", subraya Simon Cross, director de producto de Facebook
Hoy por hoy, la detecci¨®n de antemano est¨¢ por encima del 90% en muchos casos, pero resulta menos eficaz en ¨¢reas complejas como los discursos que propagan el odio y especialmente el acoso. Uno de los reiterados errores de la ¡°m¨¢quina¡± ¨Ccomo los expertos reunidos en Londres denominan coloquialmente a la IA- es incurrir en ¡°falsos positivos¡± y ¡°falsos negativos¡±, es decir, en detectar irregularidades en un contenido cuando no las hay y viceversa. Es dif¨ªcil que un algoritmo pueda dirimir, por ejemplo, si ciertos mensajes persiguen la difamaci¨®n o s¨®lo se trata de un broma, porque su contenido atiende al contexto. Se ha avanzado en la evaluaci¨®n de otros factores, como los patrones de comportamiento de ciertos usuarios en la plataforma, pero la intervenci¨®n humana sigue siendo necesaria.
¡°El reto es continuo¡±, subraya Simon Cross (product manager), poniendo como ejemplo, b¨¢sico pero ilustrativo, ciertas cuentas consagradas a la venta de c¨¢nnabis: empezaron obviando el uso de la palabra marihuana para no ser detectados; luego recurrieron a fotograf¨ªas de la planta que la asemejaban al inocente br¨®coli, hasta que las mejoras tecnol¨®gicas en la plataforma permitieron extraer las im¨¢genes del contexto; entonces optaron por otras aleg¨®ricas que imitaban a aquellas fotos del desayuno que tantos usuarios de Facebook son aficionados a colgar en la red¡La historia de esos enga?os a la ¡°m¨¢quina¡± aparece interminable. Por eso, admite, ¡°cuanto m¨¢s se sofistica la tecnolog¨ªa m¨¢s personal humano precisamos¡±.
De los 35.000 empleados que trabajan en el ¨¢mbito de seguridad de Facebook, 15.000 est¨¢n volcados en la revisi¨®n de contenidos
De los 35.000 empleados que trabajan en el ¨¢mbito de seguridad de Facebook, 15.000 est¨¢n volcados en la revisi¨®n de contenidos. ¡°La Inteligencia Artificial nos permite lidiar con una escala de cuentas inabarcable para los humanos, pero el fuerte de ¨¦stos es el conocimiento del contexto (los matices, los giros del lenguaje coloquial, el manejo de idiomas minoritarios) que hacen inimaginable una IA sin intervenci¨®n humana¡±, apostilla Cross.
Los humanos tambi¨¦n son los proveedores de los data que alimentan la tecnolog¨ªa del aprendizaje autom¨¢tico. El pasado 15 de marzo, los algoritmos no reconocieron como material eliminable de inmediato la matanza que un supremacista blanco estaba perpetrando ¨Cy emitiendo en directo- en dos mezquitas de la localidad neozelandesa de Chistchurch. Desde entonces Facebook ha recabado la ayuda de fuerzas de seguridad de algunos pa¨ªses. como la Polic¨ªa Metropolitana de Londres, que les ha facilitado las im¨¢genes capturadas por las c¨¢maras corporales de los agentes durante los entrenamientos de la lucha antiterrorista. Los expertos de Facebook aseguran que la ¡°m¨¢quina¡± detecta hoy el 98% de la propaganda terrorista, pero el reto sigue siendo ese sensible 2% restante.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.