La violencia sexista es una de las grandes lacras de la sociedad. Pero, ¿estaríamos prestos a tener una cámara de videovigilancia grabando las veinticuatro horas del día en todos y cada habitación del país para suprimirla? Bruselas plantea un problema afín para combatir la difusión digital de pornografía infantil. La UE decidirá en las próximas semanas si aprueba un reglamento que fuerza a las tecnológicas a repasar las comunicaciones privadas de los usuarios para advertir contenidos pederastas. Si sale adelante, implicará el escaneo automático de cada mensaje, fotografía, vídeo, artículo o e-mail que se intercambie en suelo europeo siempre y cuando haya sospecha de que contenga material ilegal.

Algunas, como Apple, tienen sus reservas con esta iniciativa al estimar prioritario proteger la privacidad de los usuarios. Esa postura le ha granjeado una campaña en contra suya en Estados Unidos, donde, como en Reino Unido, se discutes una normativa afín a la europea. La compañía prefiere no hacer comentarios sobre la campaña ni sobre las regulaciones.

Cientos de adémicos e ingenieros y organizaciones no lucrativo como Reporteros Sin Fronteras, como el Consejo de Europa, piensan que la normativa supondría sacrificar la confidencialidad en la red, y que ese coste es inasumible para las democracias. El Supervisor Europeo de Protección de Datos, que prepara una declaración sobre ello para finales de octubre, ha dicho que “podría convertirse en la base del escaneado generalizado e indiscriminado de facto de todas las comunicaciones de la UE”. La propuesta de reglamento, famosa como Chat Control, responsabiliza a las compañías distribuidoras de servicios de comunicación de que no circule material denunciable. Si tras someterse a una evaluación de peligros se determina que son un canal apropiado para los pederastas, van a deber arrancar cribados automáticos.

Detrás de las vallas de publicidad y páginas en los jornales que demandan a Apple que advierta material pederasta en iCloud estaría una O.N.G., Heat Initiative, abonada a la cruzada contra la encriptación de las comunicaciones (famosa en EE UU como Crypto Wars). Este movimiento ha pasado de utilizar la lucha contra el terrorismo a escudarse en la difusión de pornografía infantil para pedir el fin de los mensajes cifrados, la última gran bolsa de privacidad que queda en la red. “Es significativo que EE UU, la UE y Reino Unido estén tramitando al mismo tiempo normativas que, en la práctica, cercenarán las comunicaciones encriptadas. Parece un esfuerzo coordinado”, afirma Diego Naranjo, responsable de políticas públicas de la ONG en defensa de los derechos digitales EDRi.

Hay otras empresas tecnológicas que sí ven con buenos ojos Chat Control. Destaca entre ellas la estadounidense Thorn, creada por el actor y empresario Ashton Kutcher y su entonces esposa, Demi Moore. Una reciente investigación periodística ha revelado que la Comisión ha intercambiado información sensible sobre la marcha de las negociaciones del reglamento con la compañía, que se presenta como una ONG, mas realiza esenciales acciones de lobby y tiene interes de tipo comercial en el tema. El producto estrella de Thorn es un software que se fundamenta en PhotoDNA, de Microsoft, y tiene el apoyo técnico de AWS, la división de la nube de Amazon. El programa está desarrollado para advertir abuso a menores al cruzar valores hash (una suerte de matrícula alfanumérica) de imágenes y vídeos subidos a internet con una base de datos de millones de imágenes conocidas de material de abuso sexual infantil.

La comisaria de Asuntos Interiores de la UE, Ylva Johansson, recibe en Bruselas al actor y empresario Ashton Kutcher el veinte de marzo del año vigente.

Un equilibrio delicado

“Resulta increíble que todavía no tengamos una regulación en la UE sobre el abuso infantil online. Me siento como una pionera con esta propuesta”, afirmó la comisaria de Interior, Ylva Johansson, en una reciente entrevista en este periódico. “Claro que hay que proteger a los niños, la cuestión es cómo”, responde Carmela Troncoso, estudiosa de España de la Escuela Politécnica Federal de Lausana y líder del equipo de científicos que desarrolló el protocolo de privacidad de las aplicaciones de rastreo de la Covid. “Hay dos preguntas a plantearse sobre su propuesta: primero, si realmente va a proteger a los niños, y segundo, si puede hacerlo sin ningún riesgo. Y la respuesta a ambas es que no”.

“El principal problema que plantea esta tecnología a los ciudadanos es que el contenido pedófilo se detectará usando herramientas automáticas de inteligencia artificial (IA)”, opina Bart Preneel, catedrático de criptografía y privacidad de la Universidad Católica de Lovaina y autor de un informe técnico para el Parlamento Europeo en el que expone las faltas del sistema. “Thorn [la empresa de Kutcher de escaneado de comunicaciones] dice que su sistema da un 10% de falsos positivos. Como los europeos intercambian miles de millones de mensajes diarios, eso significa que decenas de millones de personas serán acusadas cada día. Aunque sean inocentes, su información será procesada y almacenada por las fuerzas de seguridad, y si se filtra, su reputación quedará impactada”.

Cada vez que escribimos un mensaje en plataformas como WhatsApp, Telegram o Signal, esa comunicación se cifra. Solo el receptor tiene la clave para poder abrirla. Es lo que es conocido como encriptación de extremo a extremo, un mecanismo que garantiza que absolutamente nadie más que transmisor y receptor accedan al contenido. La normativa Chat Control mantiene que no hace falta terminar con la encriptación: bastaría con repasar los mensajes en el propio dispositivo ya antes de expedir el contenido y cuando este llega a su destino.

“El argumento de que esta tecnología no rompe el cifrado es de una ignorancia técnica tremenda”, mantiene Troncoso. “Si miras antes, aunque no toques el algoritmo ni la clave, por supuesto que rompes el cifrado. Es como decir que si alguien lee una carta antes de meterla en el sobre y el sobre llega cerrado a su destino, la confidencialidad no se rompe”.

“Se fuerza a las compañías a romper su propio cifrado para escanear los mensajes antes de que se envíen a su destinatario. El problema es que no hay forma de implementar esos métodos y preservar al mismo tiempo la privacidad. Y si rompes la encriptación, invitas a que pasen los hackers. No existen las puertas traseras que solo puedan usar los buenos”, arguye Andy Yen, creador y CEO de Proton, la desarrolladora del servicio de correo cifrado Proton Mail. “Chat Control trata de combatir el serio problema de los contenidos ilegales mediante la creación de otro problema serio: acabar con el derecho a la privacidad”, sigue Yen. Sin embargo, un informe legal encargado por las instituciones comunitarias concluye que el reglamento que se discutes podría “llevar a una vigilancia de facto permanente de las comunicaciones interpersonales”, lo que es ilegal en la UE.

Las técnicas de escaneado que plantea la UE, además de esto, son simples de evadir. Según explica el maestro Preneel, bastaría con mudar ciertos bits de las imágenes perseguidas (las que están guardadas en la base de datos contra la que se equipararán las comunicaciones) a fin de que el algoritmo no establezca una coincidencia y no suenen las alarmas.

Negociaciones abiertas

Bruselas lleva un par de años trabajando en una normativa que deje escanear las comunicaciones privadas para combatir la difusión de contenidos pederastas, que solo en dos mil veintidos provocaron uno con cinco millones de reportes de las compañías de internet compendiando 5 millones de vídeos y fotografías y actividades de grooming (en el momento en que un adulto se pone en contacto con un menor para ganarse su confianza para entonces implicarle en una actividad sexual). En mayo del año pasado, la Comisión planteó un boceto de reglamento en el que trabajan desde ese momento el Parlamento Europeo y el Consejo.

El documento es revisado asimismo en el Consejo, el órgano de la UE que reúne a representantes de los gobiernos de los veintisiete, que de manera previsible lo discutirá el diecinueve de octubre. Tampoco acá hay acuerdo. Una decena de países (Alemania, Austria, Estonia, Finlandia, Francia, Países Bajos, Polonia, Portugal, República Checa y Suecia) se oponen al texto presentado por la Presidencia de España. Entre los primordiales defensores de la propuesta se cuentan Hungría, Finlandia o España.

Según publicó Wired en mayo citando fuentes oficiales del Gobierno de España, la situación de Madrid es que “sería deseable prevenir legislativamente a los proveedores de servicios que implementen encriptación de extremo a extremo”. El Ministerio de Interior niega a este periódico la veracidad de esa información.

Cuando el Parlamento Europeo y el Consejo fijen su situación, va a ser el instante de los llamados trílogos, una negociación entre estas dos instituciones y la Comisión que terminará de dar forma al documento final.

¿Soluciones digitales para un inconveniente físico?

Otra de las críticas a las que se encara la normativa es que trata de solucionar con medios técnicos algo que no se limita al terreno digital. “El abuso infantil no es un problema tecnológico, no existe el abuso online. Estos crímenes se cometen en el mundo físico, no pueden arreglarse con tecnología”, afirma Troncoso.

El reglamento impulsado por la comisaria de Interior no contempla medidas como el refuerzo de mecanismos a fin de que los menores puedan denunciar ataques o la asistencia social para observar el ambiente familiar y de amistades, al que acostumbran a pertenecer los perpetradores de abusos.

“Es extremadamente grave que en la propuesta de reglamento no haya ni una sola línea de prevención ni de estrategias para abordar socialmente el abuso sexual. La ley usa el abuso contra niños para atacar a la estructura y arquitectura de internet”, señala por su lado Simona Levy, del colectivo Xnet, muy beligerante con Chat Control.

¿Qué pasa si el reglamento termina entrando en vigor tal como lo conocemos ahora? “Sería una muy mala noticia. La dicotomía entre seguridad y privacidad es falsa. En general, a más privacidad, más seguridad, y no lo contrario. Cualquier persona que haya vivido en un país peligroso tiene un conocimiento intuitivo de cómo la privacidad se usa para proteger a los individuos”, medita la filósofa Carissa Véliz. “Cuando cedemos privacidad estamos perdiendo seguridad y erosionando la democracia. En un estado policiaco en el que hubiera una vigilancia total sería imposible cometer un crimen, pero ¿a qué precio?”.