La Unión Europea ha dado un paso significativo en su lucha contra la difusión de material de abuso sexual infantil (CSAM) al plantear un reglamento que busca detectar este contenido antes de que sea enviado a través de plataformas de mensajería instantánea como WhatsApp, Telegram o Signal. Sin embargo, esta bienintencionada propuesta enfrenta críticas contundentes, principalmente por el posible sacrificio de la privacidad, que se sostiene gracias a la encriptación de extremo a extremo.
### Expertos advierten sobre riesgos para la privacidad
Más de 600 académicos de 34 países han hecho sonar la alarma mediante una carta abierta dirigida a la presidencia del Consejo de la Unión Europea. En este documento, destacan que la normativa no solo es ineficaz para alcanzar sus objetivos, sino que también puede convertirse en una amenaza para las libertades civiles. Según ellos, esta propuesta permitiría una vigilancia y censura sin precedentes, además de abrir la puerta a abusos por parte de regímenes menos democráticos.
Los investigadores, entre los cuales se encuentran ingenieros y especialistas en criptografía, subrayan que la seguridad y privacidad que hoy disfrutamos ha requerido años de arduo trabajo, y advierten que la nueva normativa comprometería estas victorias.
### Nueva fase en el Reglamento para prevenir el abuso infantil
Bajo la presidencia danesa del Consejo, han resurgido las discusiones alrededor del denominado «Chat Control». Este martes, Bruselas albergará una reunión clave para determinar la postura de los Estados miembros respecto a una nueva propuesta del reglamento. Hasta ahora, solo seis países (Austria, Bélgica, Finlandia, Países Bajos, República Checa y Polonia) han mostrado su rechazo, mientras que otros seis están indecisos. La mayoría, entre ellos España, apoya la iniciativa.
### Claves de la normativa y preocupaciones destacadas
La propuesta impone un deber a los proveedores de servicios de mensajería encriptada para que garanticen que ningún contenido pedófilo atraviese sus plataformas. Esto obligaría a dichas empresas a escanear las comunicaciones en busca de material CSAM.
¿Cómo funciona? La detección se basa en listas de archivos previamente identificados como problemáticos, en lugar de revisar cada mensaje individualmente. Esta técnica, sin embargo, plantea serias dudas.
### ¿Por qué es controvertida?
Los expertos destacan que la detección detección de contenido problemático para cientos de millones de usuarios es impracticable. Además, verificar el contenido antes de encriptarlo contradice la esencia de la encriptación de extremo a extremo, destinada a proteger la privacidad del usuario.
Esta intervención comprometería la seguridad de las comunicaciones, ya que podría ser manipulada para alertar no solo sobre material CSAM, sino sobre cualquier tipo de contenido, como memes sobre eventos políticos. La posibilidad de que ciberdelincuentes exploten esta vulnerabilidad aumenta los riesgos.
### Lo esencial de la revisión del contenido
La propuesta ha reducido su foco, centrando la atención exclusivamente en imágenes y URLs, excluyendo inicialmente archivos de texto y audio. Sin embargo, las menciones de futuras enmiendas podrían abrir la puerta a brechas de seguridad, como apunta Carmela Troncoso, investigadora del Max Planck Institute for Security and Privacy.
### Posibilidad de eludir el sistema
Los métodos para evadir detecciones son sencillos. Por ejemplo, modificar bits en imágenes o cambiar URLs trivialmente puede ser suficiente para eludir los filtros de detección. Aunque se menciona el uso de inteligencia artificial para identificar contenido no registrado, los investigadores aún no han encontrado algoritmos capaces de hacer esto sin generar falsos positivos.
### Falsos positivos: un problema real
La falta de precisión en la detección puede motivar campañas de vigilancia en dispositivos que no tienen material comprometido, afectando la privacidad de los ciudadanos de manera significativa.
### Alternativas más efectivas
Los académicos recuerdan que el contenido CSAM no aparece de la nada; es un resultado de delitos previos. Así, proponen que en lugar de adoptar enfoques tecnológicos discutibles, se adopten estrategias recomendadas por la ONU, que incluyen educación sobre consentimiento y seguridad en línea, así como líneas de denuncia sensibles.
El debate sobre la protección de la infancia y la privacidad está lejos de concluir. La normativa propuesta podría tener implicaciones profundas en nuestro derecho a la privacidad y la integridad de la comunicación digital en el futuro.