¿Aceptaríamos que un cartero leyera todas y cada una nuestras cartas (o mensajes de WhatsApp) para prevenir crímenes? Este es el discute que se va a decidir en las próximas semanas. La Unión Europea, bajo la presidencia de España, discute un nuevo reglamento para prevenir la diseminación de imágenes de abusos sexuales infantiles.

La propuesta ha sido la regla tecnológica más criticada de la última década: desde Edward Snowden hasta el Supervisor Europeo de Protección de Datos, pasando por la Comisaria de Derechos Humanos del Consejo de Europa, Dunja Mijatovic, y cientos y cientos de académicos, la enorme mayoría de los especialistas en tecnología y en derechos humanos consideran la propuesta una amenaza para la confidencialidad de las comunicaciones y, por ende, la libertad de expresión, de asociación, de movimiento y, normalmente, una amenaza para nuestra independencia.

Los proponentes de esta ley, particularmente la Comisaria de Asuntos Internos Ylva Johansson y el resto del Directorado que dirige en la Comisión Europea, centran el discute en una pretendida dicotomía entre la protección de los pequeños y la protección de otros derechos humanos. Este ángulo oculta de la opinión pública una cuestión fundamental: ¿es esta propuesta conveniente para resguardar a los pequeños? Solo si la contestación es sí, el discute planteado tiene sentido.

La primera pregunta es: ¿se puede lograr la meta de la propuesta como se ha planteado? ¿Existe la tecnología precisa para incorporar esta directiva de forma conveniente? La contestación desde el punto de vista técnico es simple: no. Las técnicas de detección actuales no son lo precisas que se precisaría para advertir material de explotación y abuso infantil (MESI): o dejarían pasar un sinnúmero de MESI, o señalarían un sinnúmero de falsos positivos (material equivocadamente marcado como MESI). Dado el volumen de material que se va a escanear, procesar estos falsos positivos requeriría mucha mano de obra en nuestros días no libre –o resultaría en un sinnúmero de acusaciones falsas–.

Pero el inconveniente no termina ahí. No solo estas técnicas son ineficaces, sino son formidablemente simples de evitar. Múltiples artículos prueban que manipulaciones sencillísimas, que no alteran la apariencia al ojo humano, pueden hacer que los detectores no marquen MESI verdadero; o que marquen material inofensivo como MESI. Por lo tanto, aquellos que deseen repartir MESI lo proseguirán haciendo impunemente, al paso que el resto de ciudadanos van a tener sus contenidos escaneados sin ganancia. Se va a correr, puesto que, el peligro de que adolescentes que compartan contenidos sexuales permitidos, por servirnos de un ejemplo, vean de qué manera sus fotografías más íntimas pasan por las manos de la policía, de Europol y de cualquier funcionario de la futura agencia europea dedicada a este tema que tenga acceso a ellas. O que progenitores consultando sobre enfermedades de sus hijos sean acusados de terribles crímenes con las consecuencias que esto pueda tener.

Desde un punto de vista técnico, no hay garantías de que la regla vaya a tener ningún efecto positivo. Pese a la cantidad de veces que científicos y miembros de la sociedad civil han demandado a los proponentes que muestren alguna patentiza de los presuntos beneficios, no hemos visto ninguno; por contra, existe extensa patentiza de que estos beneficios no se pueden lograr.

La segunda pregunta es: ¿la medida es proporcional l? ¿Puede incorporarse esta ley sin peligros de ocasionar grandes daños a los derechos esenciales de todos, incluyendo a los propios pequeños que trata de resguardar? La contestación, desafortunadamente, es de nuevo no.

La propuesta, si se incorpora, va a romper toda garantía de confidencialidad que ya da el cifrado. La Comisaria Johansson y las compañías de inteligencia artificial que fomentan la propuesta (como Thorn o Microsoft) afirman que no hay peligro alguno, ignorando la definición de confidencialidad. Decir que esta propuesta legislativa para escanear todas las comunicaciones electrónicas no afecta a la confidencialidad y a la privacidad es como decir que leer una carta ya antes de meterla en el sobre no impacta a la confidencialidad de las comunicaciones analógicas (por servirnos de un ejemplo, un sobre que resguarda nuestra correspondencia).

En este contexto, podemos destacar el papel primordial de los lobbies de las compañías de inteligencia artificial que ha quedado destapado tras la investigación que se ha publicado últimamente por medios independientes y que revela la conjunción de intereses privados, de Europol y de determinados actores políticos para prohibir de hecho la confidencialidad de las comunicaciones.

El otro punto al que aún no se ha contestado es de qué manera se va a asegurar que las capacidades de escaneo solo se puedan usar para MESI. La realidad es que, nuevamente, técnicamente no se puede. Los algoritmos solo verifican si unos bits se semejan a otros bits, no pueden decidir si es MESI o no. De instante solo hay una promesa de que no va a ser expandido, y ejemplos del pasado que afirman que seguramente esto va a ocurrir, incluyendo revelaciones de que, por servirnos de un ejemplo, Europol ya ha pedido acceso a todos y cada uno de los datos (ilegales o no) que puedan ser recogidos a resultas de la aplicación de esta ley.

¿Quién apoya una regla tan invasiva de qué manera esta? Una una gran parte de los pequeños, adolescentes, e inclusive de múltiples supervivientes de abusos sexuales no lo hacen. De pacto con una investigación europeo, cerca de ochenta% de pequeños en la UE afirman que no se sentirían cómodos siendo políticamente activos o explorando su sexualidad si supieran que sus comunicaciones son espiadas de forma continua. El mismo estudio muestra de qué manera dos tercios de los jóvenes europeos emplean aplicaciones como WhatsApp, Telegram o Signal que emplean el cifrado, y como ese número está en disconformodidad que sus conversaciones han de ser leídas anticipadamente.

Los supervivientes de abusos tampoco apoyan el boceto de reglamento: Alexander Hanff, un activista que fue víctima de abusos sexuales, alarma de que la propuesta legislativa de la Comisaria Johansson va a llevar a que los supervivientes se sientan desprotegidos cuando procuren apoyo de las autoridades. Otra víctima de abusos sexuales, Marcel Schneider, ha denunciado a Facebook por leer sus mensajes privados y quitar así la confidencialidad para víctimas de abusos. Ni siquiera las fuerzas policiales están convencidas: Tanto el FBI en Estados Unidos como oficiales de policía en los Países Bajos y en Alemania han advertido de que el sistema generará más informes, muchos de ellos con falsas alarmas, y de qué manera eso va a hacer más bastante difícil localizar a los delincuentes y resguardar a las víctimas. Lamentablemente, el Gobierno de España sostiene una propuesta conveniente a prohibir la confidencialidad de las comunicaciones prohibiendo el cifrado, y se alinea de forma inopinada con el eurodiputado del Partido Popular de España que lidera la discusión en el Parlamento Europeo, Javier Zarzalejos.

Carmela Troncoso es estudiosa de la Escuela Politécnica Federal de Lausana y líder del equipo de científicos que desarrolló el protocolo de privacidad de las aplicaciones de rastreo de la Covid.

Diego Naranjo es quien se encarga de políticas públicas de la ONG en favor de los derechos digitales EDRi.

Adrian Cano

Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica. Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales,  es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.