La detección de fotografías falsas de desnudos de adolescentes en Almendralejo (Badajoz) evidencia que la plaga de violencia machista con creaciones hiperrealistas de inteligencia artificial con fines maliciosos, especialmente pornográficos, ha llegado a España. Estados Unidos, Reino Unido y Corea del Sur están a la cabeza en denuncias, pero los casos de la cantante Rosalía, víctima de otro cantante que difundió un falso desnudo, y la modelo Laura Escanes, que denunció un ataque similar, demuestran que esta lacra se ha asentado también en España y se ha extendido a todos los ámbitos, incluidos grupos de menores. Las armas son aplicaciones de inteligencia artificial de fácil acceso, pese a las limitaciones que intentan imponer algunas compañías.
El número de estos contenidos en internet, conocidos como deepfakes, se duplica cada seis meses y acaparan más de 134 millones de visualizaciones. En el 95% de los casos, la intención es generar pornografía sin consentimiento y las mujeres son las víctimas en nueve de cada 10 creaciones, según Sensity AI, una compañía de investigación que rastrea vídeos hiperrealistas falsos en internet.
Un deepfake es un vídeo o una imagen estática (también puede ser sonido) donde se sustituye el rostro de la imagen original por el de cualquier otra persona, famosa o no. Se basan en técnicas de aprendizaje mecánico profundo a raíz de algoritmos complejos que, una vez implementados en una aplicación, son de fácil manejo.
La inteligencia artificial ha convertido este proceso en algo accesible. Esta recrea una secuencia aprendiendo de miles de imágenes similares y utiliza redes neuronales generativas antagónicas (GAN, por sus siglas en inglés) para desarrollar patrones y facilitar que la reproducción sea hiperrealista. Ni siquiera es necesario disponer de un potente equipo personal para crearlos, ya que existen recursos en plataformas en la nube, en aplicaciones, webs e incluso por Telegram. Algunas compañías como Google han lanzado una base de datos con miles de vídeos manipulados para desarrollar herramientas que detecten las falsificaciones.
Responsabilidad empresarial
Dall-e, una de las aplicaciones de creación digital, asegura que ha “limitado la capacidad para generar imágenes violentas, de odio o adultas” y ha desarrollado tecnologías para “evitar generaciones fotorrealistas de rostros de individuos reales, incluidos los de figuras públicas”. Un grupo de 10 empresas ha firmado un catálogo de directrices sobre cómo construir, crear y compartir contenidos generados por IA de forma responsable.
Pero muchas aplicaciones campan libremente por la Red o por plataformas de mensajería o de código abierto. Además, la misma inteligencia artificial que se aplica para crear las imágenes facilita eludir los controles.
Los deepfakes más conocidos afectan a personajes populares. Dos de las primeras famosas afectadas fueron las actrices Emma Watson y Natalie Portman. Pero se pueden crear con cualquier persona accediendo a sus imágenes en redes sociales o robándolas de los equipos personales.
“Es crucial mantener las imágenes protegidas y garantizar la privacidad, ya que muchos ciberdelincuentes pueden acceder a ellas a través de diversas técnicas”, afirma Marc Rivero, investigador de seguridad de Kaspersky. Sin embargo, según un informe de esta compañía, el 43,5% de los españoles no protege las cámaras de ninguno de sus dispositivos y tampoco sus imágenes.
Ciberviolencia machista
La utilización de deepfakes de mujeres “es un problema de violencia machista”, afirma al Instituto Tecnológico de Massachusetts (MIT) Adam Dodge, fundador de EndTAB, una organización sin ánimo de lucro para la educación en usos tecnológicos.
El Instituto Europeo para la Igualdad de Género también lo considera así e incluye estas creaciones en su informe sobre ciberviolencia contra las mujeres como una forma más de agresión machista.
“La violencia online no es más que una continuación de la violencia que se produce contra las mujeres y las chicas en el día a día. Esta se amplifica, se extiende y se agrava con el uso de internet y los dispositivos digitales”, explica Iris Luarasi, presidenta del Grupo Experto en la Lucha contra la Violencia contra la Mujer y la Violencia Doméstica (Grevio).
El Instituto Europeo para la Igualdad de Género (EIGE, por sus siglas en inglés) incluye entre los ataques “emergentes” contra las mujeres “la difusión de imágenes falsas o la recepción de contenido sexual explícito no requerido”.
El letrado apunta como una solución que se incorpore el concepto de pseudopornografía, que ya se aplica con menores. “Esto permitiría que los delitos contra la intimidad no incluyeran solo los vídeos reales, sino también los realistas con imágenes íntimas que se parezcan a las de una persona”.
El pasado mayo, Junts per Catalunya presentó una proposición de ley que abordaba la reforma del Código Penal para incluir la difusión de deepfakes, pero fue rechazada y relegada para su debate en la próxima legislatura. El texto proponía penas de prisión de seis meses a dos años para la divulgación de estas creaciones por cualquier medio cuando “menoscabe gravemente el honor o la intimidad”. También se pedía multa de uno a tres meses para quien, habiéndolas recibido por cualquier plataforma, “las difunda, revele o ceda a terceros sin el consentimiento de la persona afectada.” La pena mayor se dirigía a cónyuges o amistades, si existía, además, ánimo de lucro, y cuando la víctima fuera menor de edad o una persona con discapacidad.
Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica.
Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales, es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.