¡°Nuestro deber es ser ingratos con Facebook¡±
La abogada colombiana Catalina Botero, una de las responsables del consejo asesor que revisar¨¢ el contenido que modera esta red, reflexiona sobre los prop¨®sitos del comit¨¦
Catalina Botero-Marino (Bogot¨¢, 1965) es la voz hispanohablante en el consejo asesor de contenido que revisar¨¢ las decisiones que tome Facebook acerca de qu¨¦ informaci¨®n mantiene o retira de esta red social. La llamada S¨²per Corte de Facebook o el tribunal de apelaciones es -como ha explicado Botero- un modelo alternativo ante las fallas de moderaci¨®n de las plataformas y los intentos de regulaciones gubernamentales. ¡°Si tiene ¨¦xito evitar¨¢ la tentaci¨®n de las regulaciones estatales que son tan peligrosas¡±.
La abogada Botero fue Relatora Especial para la Libertad de Expresi¨®n de la CIDH y es la decana de la Facultad de Derecho de la Universidad de Los Andes. Presidir¨¢ este consejo independiente, junto a la ex primera ministra danesa Helle Thorning-Schmidt, Jamal Greene, catedr¨¢tico de la Universidad de Columbia, y Michael McConnell, ex juez federal y ahora catedr¨¢tico en la Universidad de Stanford. Un desaf¨ªo may¨²sculo ante un universo de m¨¢s 3.000 millones de usuarios de Facebook e Instagram y cientos de miles de solicitudes diarias de moderaci¨®n de contenidos.
Pregunta. La moderaci¨®n que hacen las plataformas se ha convertido en un nudo gordiano. ?Cu¨¢l es el diagn¨®stico del que parte el consejo?
Respuesta. Las plataformas han respondido con el dise?o de unas reglas internas de moderaci¨®n de contenidos que es lo que llaman est¨¢ndares comunitarios. Pero son aplicadas o por inteligencia artificial o por un grupo de personas que no conocen el contexto en que produce la informaci¨®n y tampoco saben de derecho internacional de los derechos humanos. Esos sistemas y grupos humanos son muy buenos para detectar las cosas m¨¢s obvias o en las que no hay que tomar ninguna decisi¨®n y la informaci¨®n es leg¨ªtima o claramente se trata de casos de pornograf¨ªa infantil y hay que sacarla de la red. Pero en los casos m¨¢s emblem¨¢ticos y urgentes no hay ninguna seguridad de que la plataforma lo est¨¦ haciendo bien. Adem¨¢s, incluso si lo hiciera bien hay casos donde puede haber conflicto de intereses.
P. ?Cu¨¢l fue el quiebre para llegar a este modelo?
R. Hay dos casos emblem¨¢ticos que generaron enorme discusi¨®n. De un lado, el de la foto ic¨®nica de la guerra de Vietnam en la que una ni?a huye del Napalm. En 2016, un diario europeo publica la foto para ilustrar un art¨ªculo, pero la inteligencia artificial de Facebook la saca porque la ni?a est¨¢ desnuda. El director del peri¨®dico se queja a Facebook de c¨®mo puede estar la libertad de expresi¨®n en manos de un robot y empieza el debate sobre si la plataforma censura o no y qu¨¦ retira. En el otro extremo, es una cr¨ªtica a la informaci¨®n que Facebook no saca de la red social. Tiene que ver con la persecuci¨®n a los Rohiny¨¢ en Myanmar, donde se utilizaron las redes de Facebook para generar algo que puede ser incitaci¨®n al genocidio. Los usuarios le dijeron a Facebook que eso no pod¨ªa circular y la plataforma se demor¨® en quitar la informaci¨®n. Despu¨¦s, Mark Zuckerberg pidi¨® disculpas. Es la otra cara de la moneda, de informaci¨®n que claramente debi¨® salir porque estaba incitando a la violencia contra un grupo minoritario.
P. ?Cu¨¢l ser¨¢ su naturaleza? ?Es un tipo de tribunal de ¨¦tica o de apelaciones tipo Corte Suprema?
R. El dise?o del consejo parte de la pregunta que se hace Facebook de c¨®mo respondemos a este tipo de casos con un modelo que es de autorregulaci¨®n pero con una junta independiente. Tiene dos funciones. La primera es cuando recoge un caso y ah¨ª la decisi¨®n que tomemos es obligatoria para Facebook, pero el consejo solo puede atraer un caso en el que la plataforma ya ha tomado la decisi¨®n. Ah¨ª s¨ª actuar¨ªa como una suerte de corte de apelaci¨®n. Por eso la han llamado la S¨²per Corte de Facebook. La segunda funci¨®n es consultiva. Puede sugerirle a Facebook el cambio en sus pol¨ªticas. Esa no es obligatoria, pero le puede decir a la compa?¨ªa: la manera como usted describe esta prohibici¨®n es demasiado ambigua y sus robots de inteligencia artificial no est¨¢n entendiendo bien y est¨¢n sacando informaci¨®n que no deber¨ªan sacar, corr¨ªjala.
P. ?C¨®mo est¨¢n estipuladas las reglas, ?c¨®mo ser¨¢ la cr¨ªtica p¨²blica hacia la compa?¨ªa?
R. Si el consejo advierte que hay una situaci¨®n sistem¨¢tica de las pol¨ªticas le puede hacer una recomendaci¨®n p¨²blica. Facebook tiene que responderla tambi¨¦n p¨²blicamente. Tendr¨ªa un costo reputacional muy alto no adoptar las recomendaciones. Por otro lado, las decisiones (sobre los casos) si las tiene obedecer por el propio dise?o institucional que cre¨®.
P. ?En qu¨¦ casos se podr¨¢ negar?
R. Las reglas contemplan el procedimiento y la obligaci¨®n de cumplir la decisi¨®n salvo que sea ilegal. Pero es muy poco probable que un consejo de esta naturaleza adopte una decisi¨®n as¨ª. Es muy importante la transparencia. El deber de las cuatro personas que fuimos nombradas es ser ingratos con Facebook. Tal como los jueces constitucionales elegidos por el Congreso que luego deben revisar las leyes hechas por ese Congreso que los eligi¨®.
P. Sobre la transparencia, ?qu¨¦ se puede decir a quienes temen que este pueda convertirse en un tribunal de censura?
R. Todas las personas que integran esta junta han trabajado con derecho constitucional o con derecho internacional de los derechos humanos y con est¨¢ndares avanzados que impiden la censura. El consejo est¨¢ orientado a la defensa de la libertad de expresi¨®n. Salvo aquellos casos en los que el discurso puede causar un da?o real y desproporcionado en un derecho humano y no hay ninguna manera de evitar ese da?o distinta a la moderaci¨®n del contenido. Es la ¨²nica raz¨®n que podr¨ªa justificar una moderaci¨®n.
P. Con esos desaf¨ªos, ?cree que este modelo de consejo supone un parteaguas para la regulaci¨®n en Internet?
R. Es un modelo ¨²nico y si funciona tendr¨ªa dos tipos de impactos. Por un lado en las comunidades en las cuales se moderan los contenidos. La idea es poder explicar por qu¨¦ un determinado contenido a pesar de que alguna gente no le guste tiene que poder circular o por qu¨¦ otro contenido produce un da?o de tal magnitud que no hay otra manera de manejarlo que excluyendo el contenido. El otro impacto es m¨¢s estructural y es que la discusi¨®n sobre las fallas de las plataformas hab¨ªa llegado hasta el punto de sugerir regulaciones estatales que fue lo ¨²nico que se le ocurri¨® a mucha gente ante las fallas de las plataformas. Entonces, si este modelo tiene ¨¦xito puede suponer una respuesta a las inquietudes de quienes consideran que la regulaci¨®n de las plataformas no es adecuada. Tambi¨¦n una respuesta que evite la regulaci¨®n estatal y que permita que Internet siga siendo como lo conocemos hoy con su potencial enorme democratizador, aunque circule informaci¨®n falsa. Si este modelo alternativo funciona, en los sistemas m¨¢s democr¨¢ticos vamos a evitar la tentaci¨®n de la regulaci¨®n estatal. Puede ser un parteaguas, pero va a depender de c¨®mo funcione. Su dise?o institucional permite tener esperanza.
P. Hay casos de violaciones claras a los derechos humanos, pero ?qu¨¦ pasar¨¢ con los casos m¨¢s nebulosos que pueda manejar el consejo?
R. La mayor¨ªa de los casos tienen que ver con violaci¨®n de derechos fundamentales. Es dif¨ªcil encontrar moderaci¨®n de contenidos que no tengan que ver con derechos de los ni?os y las ni?as; la violaci¨®n de los grupos marginados, que pueden causar discriminaci¨®n, o de grupos amenazados, de discurso de odio. No vamos a conocer de los casos m¨¢s simples. Esos se van a seguir moderando por los sistemas habituales de la plataforma.
P. ?Qu¨¦ rol tendr¨ªa el consejo en momentos de crisis sanitaria global y de difusi¨®n de desinformaci¨®n y anti vacunas?
R. En esta pandemia Facebook adopta una regla en la que establece que si bien es cierto que no puede ser el guardi¨¢n de lo que es verdad o mentira y por lo tanto no va a sacar la informaci¨®n que sea falsa, cuando esa desinformaci¨®n tenga un impacto en la vida de las personas s¨ª puede moderarlas y retirarlas de la plataforma. Ese ser¨ªa un t¨ªpico caso que mire el consejo. En principio uno pensar¨ªa que es f¨¢cil, pero en realidad supone un dilema.
P. ?Por qu¨¦?
R. Supongamos que sale la vacuna y hay un l¨ªder pol¨ªtico o religioso que le dice a su comunidad que no se puede vacunar porque es un veneno enviado por los enemigos. No sabemos cu¨¢l es la incidencia de ese l¨ªder en la comunidad, tampoco si la comunidad tiene acceso o no a otra informaci¨®n y si es que algunas personas decidir¨¢n no vacunarse. Digamos que Facebook saca la informaci¨®n y este caso llega al consejo. No es tan f¨¢cil porque puede que la ¨²nica manera de hacerle control pol¨ªtico a ese l¨ªder que act¨²a de manera irresponsable abocando a una comunidad a la muerte sea que la gente sepa que ese se?or est¨¢ diciendo algo contraevidente y que no tiene sustento cient¨ªfico. Entonces mostrarlo puede ser muy importante para hacer control pol¨ªtico.
P. ?C¨®mo los resolver¨ªan?
R. Son dilemas que se resuelven con est¨¢ndares de derecho internacional de los derechos humanos. Habr¨ªa que aplicar lo que se llama el juicio de proporcionalidad que existe y se usa hace 50 a?os para dirimir conflictos entre derechos, pero no son casos f¨¢ciles.
Tu suscripci¨®n se est¨¢ usando en otro dispositivo
?Quieres a?adir otro usuario a tu suscripci¨®n?
Si contin¨²as leyendo en este dispositivo, no se podr¨¢ leer en el otro.
FlechaTu suscripci¨®n se est¨¢ usando en otro dispositivo y solo puedes acceder a EL PA?S desde un dispositivo a la vez.
Si quieres compartir tu cuenta, cambia tu suscripci¨®n a la modalidad Premium, as¨ª podr¨¢s a?adir otro usuario. Cada uno acceder¨¢ con su propia cuenta de email, lo que os permitir¨¢ personalizar vuestra experiencia en EL PA?S.
En el caso de no saber qui¨¦n est¨¢ usando tu cuenta, te recomendamos cambiar tu contrase?a aqu¨ª.
Si decides continuar compartiendo tu cuenta, este mensaje se mostrar¨¢ en tu dispositivo y en el de la otra persona que est¨¢ usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aqu¨ª los t¨¦rminos y condiciones de la suscripci¨®n digital.