La frontera entre la seguridad y la privacidad en la red es finísima. El enfrentamiento entre hasta dónde se puede vulnerar la segunda para asegurar la primera está de forma permanente abierto. La Unión Europea discutirá y aprobará a lo largo de la presidencia de España, si se cumple el calendario previsto, un reglamento (de forma directa aplicable) que fuerza a las empresas de servicios web a “evaluar, mitigar los riesgos y, en caso necesario, detectar, denunciar y eliminar el abuso sexual de menores en sus servicios”. Las instituciones de la UE y decenas de asociaciones relacionadas con los derechos de la infancia respaldan la iniciativa frente a un inconveniente que afecta a, “al menos, uno de cada cinco niños”, conforme el estudio del Consejo de Europa One in Five. Por el contrario, entidades como Xnet, una red de defensores de los derechos digitales, y otros especialistas piensan que la propuesta es imposible, pretende terminar con la confidencialidad en las comunicaciones y atenta contra libertades esenciales. El propio reglamento estima que estas se van a ver perjudicadas, mas justifica su restricción.

El reglamento propuesto por la Comisión ha sido protegido por la socialdemócrata sueca Ylva Johansson como comisaria de Asuntos Internos de la UE, al paso que el comunicante de la regla es el europarlamentario de España Javier Zarzalejos (PP). El razonamiento primordial es que, conforme la exposición de motivos de la propuesta, “uno de cada tres encuestados durante un estudio admitió que le habían pedido que hicieran algo sexualmente explícito en línea durante su infancia y más de la mitad había experimentado alguna forma de abuso sexual”. En los últimos diez años, la incidencia ha crecido un seis mil%, conforme la plataforma de asociaciones Eurochild. “Nosotros, como colectivo de organizaciones que luchan por los derechos de los niños, la seguridad y la protección en línea y fuera de línea, apoyamos la propuesta de la Comisión Europea como un paso crítico hacia una mejor protección de los menores”, aseveran las organizaciones en una carta abierta.

Hasta ahora, en Europa, la identificación de sospechas de pedofilia es voluntaria por la parte de las compañías. La UE estima que “la gran mayoría de las denuncias procede de un puñado de ellas” y “un número significativo no toma ninguna medida”. Por el contrario, el inconveniente de los abusos on line no para de medrar. El Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus iniciales en inglés), al que los prestadores de servicios de Estados Unidos tienen la obligación de informar de abusos a menores, recibe treinta millones de demandas al año, de las que más de un millón corresponden a Estados miembros de la UE.

El reglamento establece que un centro europeo para la prevención y la lucha contra el abuso sexual de menores va a facilitar el acceso a “tecnologías fiables” y qué “indicadores” procurarán las compañías para “detectar, denunciar, bloquear y eliminar los materiales de abuso sexual de menores”. Estos algoritmos de busca, conforme la regla, procurarán eludir los falsos positivos o demandas equivocadas y se ajustarán a criterios “verificados por órganos jurisdiccionales o autoridades administrativas independientes de los Estados miembros”.

Sin embargo, entre las opciones de regulación, la UE incluye la más pormenorizada, que demanda a las compañías advertir no solamente los materiales conocidos (confirmados), sino más bien asimismo los nuevos, en referencia a aquellos que “podrían constituir material de abuso, pero que todavía no han sido confirmados como tal por una autoridad”, como los dirigidos a la captación de menores.

“Las medidas contenidas en la propuesta afectan, en primer lugar, al ejercicio de los derechos fundamentales de los usuarios de los servicios en cuestión”, acepta el texto del reglamento en referencia, “al respeto a la intimidad (incluida la confidencialidad de las comunicaciones, como parte del derecho al respeto de la vida privada y familiar), a la protección de los datos de carácter personal y a la libertad de expresión e información”.

Limitaciones de derechos

“Aunque revisten gran importancia, ninguno de estos derechos es una prerrogativa absoluta y deben considerarse según su función en la sociedad (…). El artículo 52, apartado 1, de la Carta de los Derechos Fundamentales de la Unión Europea permite limitarlos, con sujeción a las condiciones establecidas en dicha disposición”, arguye la UE.

En este sentido, la propuesta de reglamento asevera que las tecnologías que se apliquen van a ser “las menos intrusivas para la intimidad” y se ejecutarán “de forma anónima”. También se “garantiza el derecho a la tutela judicial efectiva en todas las fases, desde la detección hasta la eliminación, y limita la conservación del material y los datos a lo estrictamente necesario”.

La UE acepta asimismo que “entra en juego la libertad de empresa”, ya que somete a los operadores a “una sobrecarga y puede afectar a la libre elección de clientes y proveedores o a la libertad contractual”. “Este derecho tampoco constituye una prerrogativa absoluta; es posible iniciar un amplio abanico de intervenciones que establezcan limitaciones al ejercicio de la actividad económica en aras del interés general”, insiste la UE.

Rechazo

La iniciativa cuenta con el rechazo de empresas del ámbito y conjuntos de defensa de los derechos digitales bajo la premisa de que “los abusos a menores son horrendos, pero el reglamento no resuelve el problema, establece la vigilancia masiva, anula la inviolabilidad de las comunicaciones, debilita la tutela judicial efectiva, ataca a las pymes tecnológicas en favor de los monopolios y generará falsos positivos que pueden afectar a cualquiera y bloquearán a los investigadores”, según Xnet.

La idea es antigua: terminar con el cifrado de internet y con la privacidad de las comunicaciones

Sergio Salgado, activista de Xnet

Sergio Salgado, miembro de esta plataforma, duda de que la iniciativa sea para combatir la pedofilia en la Red. “La idea es antigua: acabar con el cifrado de internet y con la privacidad de las comunicaciones”, asevera. Salgado califica el reglamento como una vuelta de tuerca a la primera regla, que se llamó Chat Control 1: “Es lo mismo, pero haciendo obligatorio el control: es el viejo sueño del poder para el que, en general, el cifrado y la privacidad es un problema”.

“Solo hay un derecho fundamental que no admite ningún tipo de restricción: la libertad de pensar. El resto las admite, pero deben ser mínimas y bajo tutela judicial efectiva. En ningún caso se puede convertir internet en un espacio de excepción. Es como decir que la policía puede entrar en casa de cualquiera sin mandato, pero prometiendo que no entrará”, asegura.

Falsos positivos

Google suspendió las cuentas de dos usuarios de Estados Unidos que mandaron fotografías de sus hijos a los pediatras para el seguimiento de una infección. En España, el maestro valenciano David Barberá se quedó sin acceso a miles y miles de ficheros privados en la nube por presuntas imágenes que exactamente la misma compañía consideró sospechosos.

“Las grandes compañías van a ser una policía privada y van a tener un criterio conservador: no quieren problemas legales ni riesgos. En caso de duda, se borra el material. Su prioridad no va a ser mantener un discurso libre y una conversación abierta en internet. Además, la tutela judicial efectiva se basa en que eres tú el que tienes que ir al juzgado”, arguye Salgado.

“Es una legislación que usa el abuso sexual infantil para cercenar derechos digitales y esto no funciona así; no se puede sacrificar libertad por seguridad”, concluye.

European Digital Rights, una agrupación internacional de organizaciones en favor de los derechos civiles, coincide con Xnet y solicita la retirada del reglamento de la UE: “Obligará a los proveedores de todos nuestros chats, mensajes y correos electrónicos digitales a saber lo que estamos escribiendo y compartiendo en todo momento y eliminará la posibilidad de anonimato de muchos espacios legítimos en línea”.

A favor

Javier Zarzalejos, eurodiputado comunicante del reglamento, disiente de todas y cada una de las precauciones y defiende las bondades de la propuesta. Destaca que todas y cada una de las compañías deberán “hacer un análisis de riesgo” y que este no es exactamente el mismo en todos y cada uno de los casos: “Un servicio de pago en el que hay mecanismos eficaces de verificación de la edad no es lo mismo que servicios como chats cuyo atractivo de negocio consiste en que uno se puede relacionar de manera libre y anónima con cualquiera. Será la autoridad competente de cada Estado la que valore si el análisis de riesgo es suficiente, realista, y tendrá que aprobar las medidas de protección. No hay medidas que las compañías puedan adoptar sin autorización por parte de las autoridades competentes”.

También rechaza que la obligación de escaneo de las comunicaciones vulnere la amedrentad de estas. “La encriptación se mantiene. La tecnología que se aplica es extraordinariamente fiable y actúa de una manera muy parecida a la que detecta el spam [correo no deseado]. De acuerdo con unos indicadores, los algoritmos detectan los casos. No hay acceso al contenido de la comunicación y actúan como clasificadores”.

Todas las cartas pasan mediante un escáner para eludir que lleven productos ilegales. El hecho de que pase por el escáner no quiere decir que Correos conozca lo que escribo en una carta

Javier Zarzalejos, eurodiputado comunicante de la propuesta de reglamento

“Las compañías tienen que introducir la verificación humana para determinar que se detectan patrones compatibles con un caso de abuso sexual infantil. Las sospechas tienen que remitirlas a las fuerzas y cuerpos de seguridad del Estado. Por una o dos frases o por mandar fotos de mis nietos en la playa, nadie va a deducir que estamos ante un menor que está siendo acosado o atraído para finalidades de abuso sexual”, agrega el eurodiputado. En este sentido, Zarzalejos establece una analogía: “Todas las cartas pasan a través de un escáner para evitar que lleven productos ilegales. El hecho de que pase por el escáner no significa que Correos conozca lo que yo escribo en una carta”.

También coincide con el planteamiento de la UE en que se pueden establecer límites a las libertades. “No existen derechos fundamentales absolutos y aquí estamos hablando de un delito de una gravedad extrema”. “Afortunadamente, tenemos un marco de garantías muy amplio y una autoridad judicial. La idea es que tengamos un reglamento que sea suficientemente adaptable, a prueba de evolución tecnológica, y que aporte un marco jurídico que nos permita mantenerlo vigente en entorno cambiante”, agrega.

“No estamos estableciendo un control general de todas las comunicaciones. Estamos hablando de herramientas que no necesitan el acceso al contenido y están sujetas a revisión, a unas condiciones específicas que impone la ley. Ya se aplica en prevención del terrorismo con un reglamento que funciona y tiene bastantes semejanzas con este”, concluye.

La socialdemócrata sueca Ylva Johansson, que ha llevado la propuesta de la Comisión, también la defiende: “Como adultos, es nuestro deber proteger a los niños. El abuso sexual infantil es un peligro real y creciente. La propuesta establece obligaciones claras para que las empresas detecten y denuncien el abuso a los menores, con fuertes salvaguardias que garanticen la privacidad de todos, incluidos los niños”.

Adrian Cano

Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica. Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales,  es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.