La UE quiere obligar a las empresas de internet a revisar las comunicaciones privadas para detectar pederastia
La propuesta de reglamento, que admite la limitaci¨®n de derechos fundamentales, cuenta con el apoyo de defensores de la infancia y el rechazo frontal de grupos por la libertad en la Red
La frontera entre la seguridad y la privacidad en internet es muy fina. El conflicto entre hasta d¨®nde se puede vulnerar la segunda para garantizar la primera est¨¢ permanentemente abierto. La Uni¨®n Europea debatir¨¢ y aprobar¨¢ durante la presidencia espa?ola, si se cumple el calendario previsto, un reglamento (directamente aplicable) que obliga a las empresas de servicios web a ¡°evaluar, mitigar los riesgos y, en caso necesario, detectar, denunciar y eliminar el abuso s...
La frontera entre la seguridad y la privacidad en internet es muy fina. El conflicto entre hasta d¨®nde se puede vulnerar la segunda para garantizar la primera est¨¢ permanentemente abierto. La Uni¨®n Europea debatir¨¢ y aprobar¨¢ durante la presidencia espa?ola, si se cumple el calendario previsto, un reglamento (directamente aplicable) que obliga a las empresas de servicios web a ¡°evaluar, mitigar los riesgos y, en caso necesario, detectar, denunciar y eliminar el abuso sexual de menores en sus servicios¡±. Las instituciones de la UE y decenas de asociaciones relacionadas con los derechos de la infancia respaldan la iniciativa ante un problema que afecta a, ¡°al menos, uno de cada cinco ni?os¡±, seg¨²n el estudio del Consejo de Europa One in Five. Por el contrario, entidades como Xnet, una red de defensores de los derechos digitales, y otros especialistas creen que la propuesta es inviable, pretende acabar con la confidencialidad en las comunicaciones y atenta contra libertades fundamentales. El propio reglamento considera que estas se ver¨¢n afectadas, pero justifica su limitaci¨®n.
El reglamento propuesto por la Comisi¨®n ha sido defendido por la socialdem¨®crata sueca Ylva Johansson como comisaria de Asuntos Internos de la UE, mientras que el ponente de la norma es el europarlamentario espa?ol Javier Zarzalejos (PP). El argumento principal es que, seg¨²n la exposici¨®n de motivos de la propuesta, ¡°uno de cada tres encuestados durante un estudio admiti¨® que le hab¨ªan pedido que hicieran algo sexualmente expl¨ªcito en l¨ªnea durante su infancia y m¨¢s de la mitad hab¨ªa experimentado alguna forma de abuso sexual¡±. En los ¨²ltimos 10 a?os, la incidencia ha crecido un 6.000%, seg¨²n la plataforma de asociaciones Eurochild. ¡°Nosotros, como colectivo de organizaciones que luchan por los derechos de los ni?os, la seguridad y la protecci¨®n en l¨ªnea y fuera de l¨ªnea, apoyamos la propuesta de la Comisi¨®n Europea como un paso cr¨ªtico hacia una mejor protecci¨®n de los menores¡±, afirman las organizaciones en una carta abierta.
Hasta ahora, en Europa, la identificaci¨®n de sospechas de pederastia es voluntaria por parte de las empresas. La UE considera que ¡°la gran mayor¨ªa de las denuncias procede de un pu?ado de ellas¡± y ¡°un n¨²mero significativo no toma ninguna medida¡±. Por el contrario, el problema de los abusos en l¨ªnea no para de crecer. El Centro Nacional para Ni?os Desaparecidos y Explotados (NCMEC, por sus siglas en ingl¨¦s), al que los prestadores de servicios de Estados Unidos est¨¢n obligados a informar de abusos a menores, recibe 30 millones de denuncias al a?o, de las que m¨¢s de un mill¨®n corresponden a Estados miembros de la UE.
El reglamento establece que un centro europeo para la prevenci¨®n y la lucha contra el abuso sexual de menores facilitar¨¢ el acceso a ¡°tecnolog¨ªas fiables¡± y qu¨¦ ¡°indicadores¡± buscar¨¢n las empresas para ¡°detectar, denunciar, bloquear y eliminar los materiales de abuso sexual de menores¡±. Estos algoritmos de b¨²squeda, seg¨²n la norma, intentar¨¢n evitar los falsos positivos o denuncias err¨®neas y se ajustar¨¢n a criterios ¡°verificados por ¨®rganos jurisdiccionales o autoridades administrativas independientes de los Estados miembros¡±.
Sin embargo, entre las opciones de regulaci¨®n, la UE incluye la m¨¢s exhaustiva, que exige a las empresas detectar no solo los materiales conocidos (confirmados), sino tambi¨¦n los nuevos, en referencia a aquellos que ¡°podr¨ªan constituir material de abuso, pero que todav¨ªa no han sido confirmados como tal por una autoridad¡±, as¨ª como los encaminados a la captaci¨®n de menores.
¡°Las medidas contenidas en la propuesta afectan, en primer lugar, al ejercicio de los derechos fundamentales de los usuarios de los servicios en cuesti¨®n¡±, admite el texto del reglamento en referencia, ¡°al respeto a la intimidad (incluida la confidencialidad de las comunicaciones, como parte del derecho al respeto de la vida privada y familiar), a la protecci¨®n de los datos de car¨¢cter personal y a la libertad de expresi¨®n e informaci¨®n¡±.
Limitaciones de derechos
¡°Aunque revisten gran importancia, ninguno de estos derechos es una prerrogativa absoluta y deben considerarse seg¨²n su funci¨®n en la sociedad (¡). El art¨ªculo 52, apartado 1, de la Carta de los Derechos Fundamentales de la Uni¨®n Europea permite limitarlos, con sujeci¨®n a las condiciones establecidas en dicha disposici¨®n¡±, argumenta la UE.
En este sentido, la propuesta de reglamento afirma que las tecnolog¨ªas que se apliquen ser¨¢n ¡°las menos intrusivas para la intimidad¡± y se ejecutar¨¢n ¡°de forma an¨®nima¡±. Tambi¨¦n se ¡°garantiza el derecho a la tutela judicial efectiva en todas las fases, desde la detecci¨®n hasta la eliminaci¨®n, y limita la conservaci¨®n del material y los datos a lo estrictamente necesario¡±.
La UE admite tambi¨¦n que ¡°entra en juego la libertad de empresa¡±, ya que somete a los operadores a ¡°una sobrecarga y puede afectar a la libre elecci¨®n de clientes y proveedores o a la libertad contractual¡±. ¡°Este derecho tampoco constituye una prerrogativa absoluta; es posible iniciar un amplio abanico de intervenciones que establezcan limitaciones al ejercicio de la actividad econ¨®mica en aras del inter¨¦s general¡±, insiste la UE.
Rechazo
La iniciativa cuenta con el rechazo de empresas del sector y grupos de defensa de los derechos digitales bajo la premisa de que ¡°los abusos a menores son horrendos, pero el reglamento no resuelve el problema, establece la vigilancia masiva, anula la inviolabilidad de las comunicaciones, debilita la tutela judicial efectiva, ataca a las pymes tecnol¨®gicas en favor de los monopolios y generar¨¢ falsos positivos que pueden afectar a cualquiera y bloquear¨¢n a los investigadores¡±, seg¨²n Xnet.
La idea es antigua: acabar con el cifrado de internet y con la privacidad de las comunicacionesSergio Salgado, activista de Xnet
Sergio Salgado, integrante de esta plataforma, duda de que la iniciativa sea para combatir la pederastia en la Red. ¡°La idea es antigua: acabar con el cifrado de internet y con la privacidad de las comunicaciones¡±, afirma. Salgado califica el reglamento como una vuelta de tuerca a la primera norma, que se denomin¨® Chat Control 1: ¡°Es lo mismo, pero haciendo obligatorio el control: es el viejo sue?o del poder para el que, en general, el cifrado y la privacidad es un problema¡±.
¡°Solo hay un derecho fundamental que no admite ning¨²n tipo de restricci¨®n: la libertad de pensar. El resto las admite, pero deben ser m¨ªnimas y bajo tutela judicial efectiva. En ning¨²n caso se puede convertir internet en un espacio de excepci¨®n. Es como decir que la polic¨ªa puede entrar en casa de cualquiera sin mandato, pero prometiendo que no entrar¨¢¡±, asegura.
Salgado se?ala los falsos positivos como uno de los grandes problemas. ¡°Se perjudicar¨¢ a inocentes¡±, afirma para se?alar que ¡°estas acusaciones infundadas inundar¨¢n, adem¨¢s, a los investigadores que s¨ª persiguen eficazmente la pederastia¡±.
Falsos positivos
Google suspendi¨® las cuentas de dos usuarios de Estados Unidos que enviaron fotos de sus hijos a los pediatras para el seguimiento de una infecci¨®n. En Espa?a, el profesor valenciano David Barber¨¢ se qued¨® sin acceso a miles de archivos privados en la nube por presuntas im¨¢genes que la misma compa?¨ªa consider¨® sospechosos.
¡°Las grandes compa?¨ªas van a ser una polic¨ªa privada y van a tener un criterio conservador: no quieren problemas legales ni riesgos. En caso de duda, se borra el material. Su prioridad no va a ser mantener un discurso libre y una conversaci¨®n abierta en internet. Adem¨¢s, la tutela judicial efectiva se basa en que eres t¨² el que tienes que ir al juzgado¡±, argumenta Salgado.
¡°Es una legislaci¨®n que usa el abuso sexual infantil para cercenar derechos digitales y esto no funciona as¨ª; no se puede sacrificar libertad por seguridad¡±, concluye.
European Digital Rights, una agrupaci¨®n internacional de organizaciones a favor de los derechos civiles, coincide con Xnet y pide la retirada del reglamento de la UE: ¡°Obligar¨¢ a los proveedores de todos nuestros chats, mensajes y correos electr¨®nicos digitales a saber lo que estamos escribiendo y compartiendo en todo momento y eliminar¨¢ la posibilidad de anonimato de muchos espacios leg¨ªtimos en l¨ªnea¡±.
A favor
Javier Zarzalejos, eurodiputado ponente del reglamento, discrepa de todas las cautelas y defiende las bondades de la propuesta. Destaca que todas las empresas tendr¨¢n que ¡°hacer un an¨¢lisis de riesgo¡± y que este no es el mismo en todos los casos: ¡°Un servicio de pago en el que hay mecanismos eficaces de verificaci¨®n de la edad no es lo mismo que servicios como chats cuyo atractivo de negocio consiste en que uno se puede relacionar de manera libre y an¨®nima con cualquiera. Ser¨¢ la autoridad competente de cada Estado la que valore si el an¨¢lisis de riesgo es suficiente, realista, y tendr¨¢ que aprobar las medidas de protecci¨®n. No hay medidas que las compa?¨ªas puedan adoptar sin autorizaci¨®n por parte de las autoridades competentes¡±.
Tambi¨¦n rechaza que la obligaci¨®n de escaneo de las comunicaciones vulnere la intimidad de estas. ¡°La encriptaci¨®n se mantiene. La tecnolog¨ªa que se aplica es extraordinariamente fiable y act¨²a de una manera muy parecida a la que detecta el spam [correo no deseado]. De acuerdo con unos indicadores, los algoritmos detectan los casos. No hay acceso al contenido de la comunicaci¨®n y act¨²an como clasificadores¡±.
Todas las cartas pasan a trav¨¦s de un esc¨¢ner para evitar que lleven productos ilegales. El hecho de que pase por el esc¨¢ner no significa que Correos conozca lo que yo escribo en una cartaJavier Zarzalejos, eurodiputado ponente de la propuesta de reglamento
¡°Las compa?¨ªas tienen que introducir la verificaci¨®n humana para determinar que se detectan patrones compatibles con un caso de abuso sexual infantil. Las sospechas tienen que remitirlas a las fuerzas y cuerpos de seguridad del Estado. Por una o dos frases o por mandar fotos de mis nietos en la playa, nadie va a deducir que estamos ante un menor que est¨¢ siendo acosado o atra¨ªdo para finalidades de abuso sexual¡±, a?ade el eurodiputado. En este sentido, Zarzalejos establece una analog¨ªa: ¡°Todas las cartas pasan a trav¨¦s de un esc¨¢ner para evitar que lleven productos ilegales. El hecho de que pase por el esc¨¢ner no significa que Correos conozca lo que yo escribo en una carta¡±.
Tambi¨¦n coincide con el planteamiento de la UE en que se pueden establecer l¨ªmites a las libertades. ¡°No existen derechos fundamentales absolutos y aqu¨ª estamos hablando de un delito de una gravedad extrema¡±. ¡°Afortunadamente, tenemos un marco de garant¨ªas muy amplio y una autoridad judicial. La idea es que tengamos un reglamento que sea suficientemente adaptable, a prueba de evoluci¨®n tecnol¨®gica, y que aporte un marco jur¨ªdico que nos permita mantenerlo vigente en entorno cambiante¡±, a?ade.
¡°No estamos estableciendo un control general de todas las comunicaciones. Estamos hablando de herramientas que no necesitan el acceso al contenido y est¨¢n sujetas a revisi¨®n, a unas condiciones espec¨ªficas que impone la ley. Ya se aplica en prevenci¨®n del terrorismo con un reglamento que funciona y tiene bastantes semejanzas con este¡±, concluye.
La socialdem¨®crata sueca Ylva Johansson, que ha llevado la propuesta de la Comisi¨®n, tambi¨¦n la defiende: ¡°Como adultos, es nuestro deber proteger a los ni?os. El abuso sexual infantil es un peligro real y creciente. La propuesta establece obligaciones claras para que las empresas detecten y denuncien el abuso a los menores, con fuertes salvaguardias que garanticen la privacidad de todos, incluidos los ni?os¡±.
Puedes escribir a rlimon@elpais.es y seguir a EL PA?S Tecnolog¨ªa en Facebook y Twitter o apuntarte aqu¨ª para recibir nuestra newsletter semanal.