Los ni?os necesitan protecci¨®n contra el abuso sexual, la cuesti¨®n es c¨®mo
Las t¨¦cnicas disponibles para escanear las comunicaciones no solo son ineficaces, sino muy f¨¢ciles de eludir, y acabar¨¢n con la garant¨ªa de confidencialidad de las comunicaciones, dicen los autores
?Aceptar¨ªamos que un cartero leyese todas nuestras cartas (o mensajes de WhatsApp) para prevenir cr¨ªmenes? Este es el debate que se decidir¨¢ en las pr¨®ximas semanas. La Uni¨®n Europea, bajo la presidencia de Espa?a, debate un nuevo reglamento para prevenir la diseminaci¨®n de im¨¢genes de abusos sexuales infantiles.
La propuesta ha sido la norma tecnol¨®gica m¨¢s criticada de la ¨²ltima d¨¦cada: desde Edward Snowden hasta el ...
?Aceptar¨ªamos que un cartero leyese todas nuestras cartas (o mensajes de WhatsApp) para prevenir cr¨ªmenes? Este es el debate que se decidir¨¢ en las pr¨®ximas semanas. La Uni¨®n Europea, bajo la presidencia de Espa?a, debate un nuevo reglamento para prevenir la diseminaci¨®n de im¨¢genes de abusos sexuales infantiles.
La propuesta ha sido la norma tecnol¨®gica m¨¢s criticada de la ¨²ltima d¨¦cada: desde Edward Snowden hasta el Supervisor Europeo de Protecci¨®n de Datos, pasando por la Comisaria de Derechos Humanos del Consejo de Europa, Dunja Mijatovic, y cientos de acad¨¦micos, la inmensa mayor¨ªa de los expertos en tecnolog¨ªa y en derechos humanos consideran la propuesta una amenaza para la confidencialidad de las comunicaciones y, por tanto, la libertad de expresi¨®n, de asociaci¨®n, de movimiento y, en general, una amenaza para nuestra independencia.
Los proponentes de esta ley, particularmente la Comisaria de Asuntos Internos Ylva Johansson y el resto del Directorado que dirige dentro de la Comisi¨®n Europea, centran el debate en una pretendida dicotom¨ªa entre la protecci¨®n de los ni?os y la protecci¨®n de otros derechos humanos. Este ¨¢ngulo esconde de la opini¨®n p¨²blica una cuesti¨®n fundamental: ?es esta propuesta adecuada para proteger a los ni?os? Solo si la respuesta es s¨ª, el debate planteado tiene sentido.
La primera pregunta es: ?se puede conseguir el objetivo de la propuesta tal y como se ha planteado? ?Existe la tecnolog¨ªa necesaria para implementar esta directiva de forma adecuada? La respuesta desde el punto de vista t¨¦cnico es simple: no. Las t¨¦cnicas de detecci¨®n actuales no son lo precisas que se necesitar¨ªa para detectar material de explotaci¨®n y abuso infantil (MESI): o bien dejar¨ªan pasar una gran cantidad de MESI, o bien se?alar¨ªan una gran cantidad de falsos positivos (material err¨®neamente marcado como MESI). Dado el volumen de material que se va a escanear, procesar estos falsos positivos requerir¨ªa much¨ªsima mano de obra actualmente no disponible ¨Co resultar¨ªa en una gran cantidad de acusaciones falsas¨C.
Pero el problema no acaba ah¨ª. No solo estas t¨¦cnicas son ineficaces, sino que son tremendamente f¨¢ciles de eludir. M¨²ltiples art¨ªculos demuestran que manipulaciones muy sencillas, que no modifican la apariencia al ojo humano, pueden hacer que los detectores no marquen MESI verdadero; o que marquen material inofensivo como MESI. Por lo tanto, aquellos que quieran distribuir MESI lo seguir¨¢n haciendo impunemente, mientras que el resto de ciudadanos tendr¨¢n todos sus contenidos escaneados sin ninguna ganancia. Se correr¨¢, pues, el riesgo de que adolescentes que compartan contenidos sexuales consentidos, por ejemplo, vean c¨®mo sus fotos m¨¢s ¨ªntimas pasan por las manos de la polic¨ªa, de Europol y de cualquier funcionario de la futura agencia europea dedicada a este asunto que tenga acceso a ellas. O que padres consultando acerca de enfermedades de sus hijos sean acusados de horribles cr¨ªmenes con las consecuencias que esto pueda tener.
Desde un punto de vista t¨¦cnico, no hay garant¨ªas de que la norma vaya a tener ning¨²n efecto positivo. A pesar de la cantidad de veces que cient¨ªficos y miembros de la sociedad civil han demandado a los proponentes que muestren alguna evidencia de los supuestos beneficios, no hemos visto ninguno; por el contrario, existe amplia evidencia de que estos beneficios no se pueden conseguir.
La segunda pregunta es: ?la medida es proporcional l? ?Puede implementarse esta ley sin riesgos de causar grandes da?os a los derechos fundamentales de todos, incluyendo a los propios ni?os que trata de proteger? La respuesta, desafortunadamente, vuelve a ser no.
La propuesta, si se implementa, romper¨¢ toda garant¨ªa de confidencialidad que ahora mismo da el cifrado. La Comisaria Johansson y las empresas de inteligencia artificial que promueven la propuesta (como Thorn o Microsoft) dicen que no hay riesgo alguno, ignorando la definici¨®n de confidencialidad. Decir que esta propuesta legislativa para escanear todas las comunicaciones electr¨®nicas no afecta a la confidencialidad y a la privacidad es como decir que leer una carta antes de meterla en el sobre no impacta a la confidencialidad de las comunicaciones anal¨®gicas (por ejemplo, un sobre que protege nuestra correspondencia).
En este contexto, cabe destacar el papel principal de los lobbies de las empresas de inteligencia artificial que ha quedado destapado tras la investigaci¨®n que se ha publicado recientemente por medios independientes y que revela la conjunci¨®n de intereses privados, de Europol y de ciertos actores pol¨ªticos para prohibir de facto la confidencialidad de las comunicaciones.
El otro punto al que todav¨ªa no se ha respondido es c¨®mo se va a garantizar que las capacidades de escaneo solo se puedan utilizar para MESI. La realidad es que, de nuevo, t¨¦cnicamente no se puede. Los algoritmos solo comprueban si unos bits se parecen a otros bits, no pueden decidir si es MESI o no. De momento solo hay una promesa de que no ser¨¢ expandido, y ejemplos del pasado que dicen que probablemente esto ocurrir¨¢, incluyendo revelaciones de que, por ejemplo, Europol ya ha solicitado acceso a todos los datos (ilegales o no) que puedan ser recogidos como resultado de la aplicaci¨®n de esta ley.
?Qui¨¦n apoya una norma tan invasiva c¨®mo esta? Una gran parte de los ni?os, adolescentes, e incluso de varios supervivientes de abusos sexuales no lo hacen. De acuerdo con un estudio europeo, alrededor de 80% de ni?os en la UE dicen que no se sentir¨ªan c¨®modos siendo pol¨ªticamente activos o explorando su sexualidad si supiesen que sus comunicaciones est¨¢n siendo espiadas continuamente. El mismo estudio muestra c¨®mo dos tercios de los j¨®venes europeos usan aplicaciones como WhatsApp, Telegram o Signal que utilizan el cifrado, y como ese mismo n¨²mero est¨¢ en desacuerdo que sus conversaciones deben ser le¨ªdas con antelaci¨®n.
Los supervivientes de abusos tampoco apoyan el borrador de reglamento: Alexander Hanff, un activista que fue v¨ªctima de abusos sexuales, alerta de que la propuesta legislativa de la Comisaria Johansson llevar¨¢ a que los supervivientes se sientan desprotegidos cuando busquen apoyo de las autoridades. Otra v¨ªctima de abusos sexuales, Marcel Schneider, ha denunciado a Facebook por leer sus mensajes privados y eliminar as¨ª la confidencialidad para v¨ªctimas de abusos. Ni siquiera las fuerzas policiales est¨¢n convencidas: Tanto el FBI en Estados Unidos como oficiales de polic¨ªa en los Pa¨ªses Bajos y en Alemania han advertido de que el sistema producir¨¢ m¨¢s informes, muchos de ellos con falsas alarmas, y c¨®mo eso har¨¢ m¨¢s dif¨ªcil encontrar a los criminales y proteger a las v¨ªctimas. Lamentablemente, el Gobierno espa?ol mantiene una propuesta favorable a prohibir la confidencialidad de las comunicaciones prohibiendo el cifrado, y se alinea de forma inesperada con el eurodiputado del Partido Popular espa?ol que lidera la discusi¨®n en el Parlamento Europeo, Javier Zarzalejos.
En definitiva, la propuesta en su forma actual no garantiza ninguna mejora y es una amenaza a nuestra democracia. Hay que proteger a los ni?os, sin duda. El futuro de nuestra sociedad depende de ellos. Pero hay que hacerlo de manera efectiva y segura. La propuesta de la Comisi¨®n no es ninguna de las dos.
Carmela Troncoso es investigadora de la Escuela Polit¨¦cnica Federal de Lausana y l¨ªder del equipo de cient¨ªficos que desarroll¨® el protocolo de privacidad de las aplicaciones de rastreo de la Covid.
Diego Naranjo es responsable de pol¨ªticas p¨²blicas de la ONG a favor de los derechos digitales EDRi.
Puedes seguir a EL PA?S Tecnolog¨ªa en Facebook y X o apuntarte aqu¨ª para recibir nuestra newsletter semanal.