V¨ªdeos que infringen sus propias pol¨ªticas: as¨ª traiciona a YouTube su algoritmo, seg¨²n un informe de Mozilla
Una investigaci¨®n elaborada con miles de voluntarios concluye que el 70% del contenido inapropiado es recomendado por la plataforma
¡°YouTube debe aceptar que su algoritmo est¨¢ dise?ado de una manera que da?a y desinforma a las personas¡±, ha asegurado el responsable senior de Defensa de Mozilla, Brandi Gerkink, tras revelar los hallazgos de una investigaci¨®n realizada por la Fundaci¨®n Mozilla ¡ªdel consorcio desarrollador del navegador Firefox¡ª sobre el funcionamiento de la plataforma de v¨ªdeo que alberga m¨¢s de 2.000 millones de usuarios activos.
Las conclusiones son contundentes. Elaborada con datos donados por miles de usuarios de YouTube, la invest...
¡°YouTube debe aceptar que su algoritmo est¨¢ dise?ado de una manera que da?a y desinforma a las personas¡±, ha asegurado el responsable senior de Defensa de Mozilla, Brandi Gerkink, tras revelar los hallazgos de una investigaci¨®n realizada por la Fundaci¨®n Mozilla ¡ªdel consorcio desarrollador del navegador Firefox¡ª sobre el funcionamiento de la plataforma de v¨ªdeo que alberga m¨¢s de 2.000 millones de usuarios activos.
Las conclusiones son contundentes. Elaborada con datos donados por miles de usuarios de YouTube, la investigaci¨®n ha revelado que el algoritmo del reproductor de grabaciones recomienda v¨ªdeos con informaci¨®n err¨®nea, contenido violento, incitaci¨®n al odio y estafas, caracter¨ªsticas que la plataforma castiga en sus pol¨ªticas de uso. La investigaci¨®n tambi¨¦n encontr¨® que las personas en pa¨ªses que no hablan ingl¨¦s como primer idioma tienen muchas m¨¢s probabilidades ¡ªun 60% m¨¢s¡ª de encontrar v¨ªdeos perturbadores. ¡°Mozilla espera que estos hallazgos, que son solo la punta del iceberg, convenzan al p¨²blico y a los legisladores de la urgente necesidad de una mayor transparencia en la inteligencia artificial de YouTube¡±, se?ala el equipo de investigadores en su informe.
¡°Es dif¨ªcil para nosotros obtener ninguna conclusi¨®n de este informe, ya que nunca definen qu¨¦ significa ¡®rechazables¡¯ y solo comparten unos pocos v¨ªdeos, no todo el conjunto de datos¡±, explica por su parte un portavoz de YouTube, que a?ade que parte del contenido categorizado como no deseable incluye un tutorial sobre hacer cer¨¢mica, un corte del programa de TV Silicon Valley, un v¨ªdeo de manualidades y un corte de Fox Business.
El algoritmo como problema
La investigaci¨®n tuvo una duraci¨®n de diez meses y se realiz¨® en conjunto con un equipo de 41 asistentes de investigaci¨®n empleados por la Universidad de Exeter en Inglaterra. Para obtener los datos revelados, Mozilla utiliz¨® la herramienta RegretsReporter, una extensi¨®n de navegador de c¨®digo abierto que convirti¨® a miles de usuarios de YouTube en perros guardianes de la plataforma. En otras palabras, los usuarios voluntarios donaron sus datos para que los investigadores tuvieran acceso a un grupo de datos de recomendaciones estrictos de YouTube.
Los voluntarios de la investigaci¨®n encontraron una variedad de ¡°v¨ªdeos lamentables¡±, que informaban de todo. Demasiado quiz¨¢s. Desde el miedo al coronavirus hasta la desinformaci¨®n pol¨ªtica y caricaturas infantiles ¡°tremendamente inapropiadas¡±, seg¨²n la investigaci¨®n. El 71% de todos los v¨ªdeos que los voluntarios definieron como inapropiados o con contenido que her¨ªa susceptibilidades fueron recomendados activamente por el propio algoritmo. As¨ª, casi 200 v¨ªdeos que YouTube recomend¨® a los voluntarios ahora se han eliminado de la plataforma, incluidos varios que la compa?¨ªa consider¨® que violaban sus propias pol¨ªticas. Estos v¨ªdeos tuvieron un total de 160 millones de visitas antes de ser eliminados y obtuvieron un 70% m¨¢s de vistas por d¨ªa que otros v¨ªdeos que s¨ª cumplen con las normas de la plataforma.
Y hay m¨¢s. Los v¨ªdeos recomendados que violaban las pol¨ªticas de la plataforma ten¨ªan un 40% m¨¢s de probabilidades de visualizaci¨®n que los v¨ªdeos buscados y las recomendaciones no necesariamente estaban relacionadas con el contenido visto. Por ejemplo, en un 43,6% de los casos la recomendaci¨®n no ten¨ªa ninguna relaci¨®n con los v¨ªdeos que el voluntario hab¨ªa consumido. ¡°Nuestros datos p¨²blicos muestran que el consumo de contenido cuestionable recomendado es significativamente inferior al 1% y solo entre el 0,16% y el 0,18% de todas las reproducciones en YouTube vienen de contenido que viole las normas¡±, responde por su parte la compa?¨ªa.
Castiga, pero lo recomienda
La investigaci¨®n no solo descubri¨® numerosos ejemplos de discursos de incitaci¨®n al odio, de desinformaci¨®n pol¨ªtica y cient¨ªfica y otras categor¨ªas de contenido que probablemente infligir¨ªan los Lineamientos de la Comunidad de YouTube. Tambi¨¦n descubri¨® muchos casos que pintan una imagen m¨¢s compleja. ¡°Muchos de los v¨ªdeos reportados pueden caer en la categor¨ªa de lo que YouTube llama ¡®contenido l¨ªmite¡¯, que son v¨ªdeos que bordean las fronteras de sus reglas, sin realmente violarlas¡±, explican desde Mozilla.
Fuera del algoritmo, desde YouTube las pol¨ªticas de comportamiento son muy claras para sus usuarios, o eso parecen. En su blog oficial, la plataforma detalla 11 violaciones a sus pol¨ªticas. ¡°Te mostramos algunas normas de sentido com¨²n que te ayudar¨¢n a evitar problemas. T¨®malas muy en serio y tenlas presentes siempre. No busques brechas ni tecnicismos para evadirlas¡±, recomiendan desde YouTube. Las categor¨ªas son:
- Seguridad infantil. ¡°Colaboramos estrechamente con las autoridades y denunciamos las situaciones de menores en riesgo¡±.
- Robo de identidad. ¡°Es posible que se quiten las cuentas que pretendan hacerse pasar por otro canal o persona¡±.
- Privacidad personal. ¡°Si alguien public¨® tu informaci¨®n personal o subi¨® un v¨ªdeo en el que apareces sin tu consentimiento, puedes solicitar que se quite el contenido¡±.
- Derechos de autor. ¡°Respeta los derechos de autor. Sube solo contenido creado por ti o que est¨¦s autorizado a usar. Esto significa que no debes subir videos que no hayas creado, ni usar contenido en tus videos cuyos derechos de autor pertenezcan a otra persona¡±.
- Amenazas. ¡°Se bloquear¨¢ la cuenta de usuarios con comportamiento agresivo, amenazas, hostigamiento, acoso, invasi¨®n de la privacidad, revelaci¨®n de informaci¨®n personal de terceros e incitaci¨®n a que otros cometan actos violentos o infrinjan las condiciones de uso¡±.
- Metadatos enga?osos y trampas. ¡°No crees descripciones, etiquetas, miniaturas ni t¨ªtulos enga?osos con la intenci¨®n de aumentar la cantidad de vistas¡±.
- Acoso y hostigamientos virtual. ¡°No es aceptable publicar comentarios ni v¨ªdeos abusivos en YouTube. Si el acoso traspasa los l¨ªmites y se convierte en un ataque malintencionado, se denunciar¨¢ y se eliminar¨¢ de la plataforma¡±.
- Contenido violento o expl¨ªcito. ¡°No se permite publicar contenido violento o morboso cuyo prop¨®sito principal sea causar un efecto chocante, sensacionalista o injustificado¡±.
- Incitaci¨®n al odio. ¡°No permitimos contenido que promueva o justifique la violencia hacia una persona o hacia grupos de individuos en funci¨®n de su origen ¨¦tnico o raza, g¨¦nero, religi¨®n, discapacidad, edad, nacionalidad, condici¨®n de veterano de guerra, casta, orientaci¨®n sexual o identidad de g¨¦nero¡±.
- Contenido peligroso. ¡°No publiques v¨ªdeos que inciten a otros, especialmente a los ni?os, a realizar acciones en las que pudieran resultar gravemente heridos¡±.
- Desnudos y sexo. ¡°No admite pornograf¨ªa ni contenido sexual expl¨ªcito¡±.
Posibles soluciones
En el informe, Mozilla tambi¨¦n incluye una serie de recomendaciones para la plataforma. ¡°No solo queremos diagnosticar el problema de recomendaci¨®n de YouTube, queremos resolverlo. Las leyes de transparencia de sentido com¨²n, una mejor supervisi¨®n y la presi¨®n del consumidor pueden ayudar a mejorar este algoritmo¡±, explican desde Mozilla. La desarrollada de Firefox propone a YouTube publicar informes de transparencia frecuentes y completos que incluyan informaci¨®n sobre sus algoritmos de recomendaci¨®n as¨ª como brindar a las personas la opci¨®n de optar por no recibir recomendaciones personalizadas y promulgar leyes que exijan la transparencia del sistema de inteligencia artificial y protejan a los investigadores independientes.
¡°Durante a?os, YouTube ha recomendado desinformaci¨®n sobre salud, desinformaci¨®n pol¨ªtica, discurso de odio y otro contenido lamentable. Desafortunadamente, la plataforma se ha enfrentado a las cr¨ªticas con inercia y opacidad mientras las recomendaciones da?inas persisten¡±, concluye la investigaci¨®n.
Puedes seguir a EL PA?S TECNOLOG?A en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.