Ni Gran Hermano, ni Minority Report y, dentro de lo posible, un planeta menos orwelliano de lo que ya es. El Parlamento Europeo ha ante este jueves un primer paso, que es realmente un salto de gigante, para transformar a Europa en la primera zona del planeta que regule las aún muy ignotas posibilidades, y peligros, de la inteligencia artificial (IA) y de sus versiones más avanzadas, tanto las ya conocidas como las aún por desarrollar. Dos años una vez que la Comisión presentase su propuesta de reglamento para la IA, los eurodiputados desean que los modelos generativos, que en aquel instante no eran conocidos por el enorme público y que son capaces de crear tanto imágenes (véase la conocida fotografía falsa del Papa vistiendo un atractivo abrigo de plumas blanco) como textos, en especial el tan de tendencia y tan alarmante ChatGPT, estén obligados a cumplir medidas auxiliares de trasparencia, para dejar sobre todo claro que han sido creados a través de IA.

Preocupados por los potenciales efectos negativos en los derechos y libertades ciudadanas que puede tener esta tecnología a cargo de empresas o gobiernos con escasos escrúpulos, los eurodiputados han ampliado además de esto las restricciones que contenía la propuesta original de la Comisión Europea: plantean así prohibir los “usos intrusivos y discriminatorios de la IA”, en especial los sistemas biométricos en tiempo real o ex-blog post en espacios públicos, salvo muy contadas salvedades por seguridad. Se trata, ha resumido uno de los relatores de la propuesta legislativa, el eurodiputado italiano Brando Benifei, de administrar a Europa una legislación con un enfoque “ético y antropomórfico” para “ganar la confianza de los ciudadanos” en estos sistemas que tanto afectan y van a continuar afectando sus vidas sin impedir, a la par, el avance de las nuevas tecnologías.

El texto aprobado este jueves con una extensa mayoría —84 votos a favor, siete en contra y doce abstenciones— en una sesión conjunta de las comisiones de Libertades Civiles y Mercado Interior habrá de ser aún ratificado por el pleno de la Eurocámara, seguramente a mediados de junio. Desde ese instante, van a poder iniciar las negociaciones con el Consejo (esto es, los Estados), que ya fijó su situación en el último mes del año, y con la Comisión, los llamados trílogos, para pactar un texto final. El comisario tras la propuesta legislativa, Thierry Breton, ha manifestado su esperanza de que la llamada AI Act (Ley de Inteligencia artificial) pueda entrar en vigor en los Veintisiete como tarde en dos mil veinticinco.

“Estamos a punto de lograr un hito legislativo en el panorama digital no solo en Europa, sino para todo el mundo”, festejó Benifei sobre el texto legislativo, que en el año escaso que lleva siendo trabajado en la Eurocámara ha recibido más de tres mil enmiendas. La IA va a ser algo que “va a estar acechándonos de alguna manera durante el resto de nuestras vidas”, comprobó por su lado el presidente de la Comisión de Libertades Civiles, el de España Juan Fernando López Aguilar.

Organizaciones que luchan contra la capacidad de la IA por ejercer una vigilancia biométrica masiva han festejado en especial la defensa de la privacidad de las enmiendas aprobadas. Estas amplían la lista de usos de sistemas de IA ya prohibidos en la propuesta original de la Comisión, que ya vetaba los llamados sistemas de crédito social. De ahora en adelante, debería incluir asimismo tanto sistemas de identificación biométrica recóndita en tiempo real en espacios públicos (como es el caso del reconocimiento facial) como los de identificación siguiente, con la única salvedad de su uso por las autoridades para investigar crímenes graves, siempre que cuenten con una autorización judicial.

Los eurodiputados asimismo incluyen en la lista de prohibiciones los sistemas de clasificación biométrica que empleen “características sensibles” como el género, raza, etnia, religión u orientación política, salvo para su uso “terapéutico”. También deberían quedar prohibidos los sistemas predictivos de vigilancia para valorar el peligro de una persona o conjunto de personas de cometer un delito u falta de respeto (basados en la perfilación, la ubicación de dichas personas o en su pasado delincuente), como los sistemas de reconocimiento de emociones por parte tanto de la policía como de los agentes de fronteras o en lugares de trabajo o escuelas. Finalmente, asimismo se veta el rastreo azaroso de datos biométricos de redes sociales o cámaras de seguridad para crear o ampliar bases de datos de reconocimiento facial, una de las primordiales demandas de las organizaciones civiles preocupadas por el potencial Gran Hermano de estas nuevas tecnologías.

“Desde el punto de vista de la vigilancia biométrica, estamos totalmente encantados con el texto”, afirma Ella Jakubowska, analista de la ONG europea en defensa de los derechos digitales EDRi. Su organización ha sido muy activa en Bruselas apoyando una postura restrictiva sobre estas herramientas.

“Las cámaras de reconocimiento facial de las calles o el análisis en vivo del metraje de las videocámaras de vigilancia se deberán parar”, explica Jakubowska. Tampoco va a estar tolerado hacer buscas de personas desde imágenes, cerrándole las puertas a aplicaciones del tipo Clearview. “Esa es una muy buena noticia”, considera la británica.

La policía proseguirá pudiendo manejar estos sistemas, mas con nuevas restricciones: siempre y en todo momento de forma retrospectiva (no en tiempo real) y en el contexto de crímenes concretos, para buscar a personas concretas y con orden judicial. “Todavía queda mucho hasta que se apruebe el texto definitivo, que puede cambiar. Pero hoy debemos alegrarnos por este triunfo significativo de los derechos humanos”, afirma Jakubowska.

Regulación por uso

Para lograr que una normativa como esta, que regula tecnologías en incesante transformación, no quede trasnochada aun ya antes de su entrada en vigor, el reglamento de la IA se fundamenta no en regular tecnologías específicas, sino más bien sus usos, creando categorías que van desde el peligro “inaceptable” (prohibidas por la legislación) a otras menores que son admitidas, si bien sometidas a estrictos controles a fin de que no afecten a las libertades y derechos ciudadanos. En su propuesta, los eurodiputados amplían en este sentido la clasificación de “áreas de alto riesgo”, tolerada mas sosten a obligaciones estrictas antes que un producto en esta categoría pueda ser comercializado. Así, incluyen en ella aquellos sistemas de IA que puedan afectar la salud o seguridad de los ciudadanos, como sus derechos esenciales o el medio ambiente. También categorizan como de “alto riesgo” los sistemas de IA que puedan “influir a votantes en campañas políticas”, como los de recomendación que emplean las plataformas sociales.

Para que la normativa europea pueda ser aplicada a nuevas tecnologías como los sistemas generativos del ChatGPT, que debería entrar en la categoría de “alto riesgo”, los eurodiputados añaden además de esto nuevas definiciones: por una parte, incluyen el término de “modelo fundacional”, o gran modelo, para cubrir la IA generativa —capaz de crear nuevos contenidos originales de audio, texto o imágenes desde la observación de otros datos—. También añaden la definición “sistemas de IA de propósito general”, que explican como “un sistema de IA que puede ser usado para y adaptado a un amplio espectro de aplicaciones para el que no fue diseñado intencional y específicamente”, y que va a deber incluir a esos “modelos fundacionales”.

Los distribuidores de estos modelos fundacionales van a deber, conforme la propuesta de los eurodiputados, asegurar una “protección robusta” de los derechos esenciales ciudadanos, para lo que van a deber “evaluar y mitigar riesgos, cumplir con los requisitos de diseño, información y medioambientales” europeos y estar “registrados” en la base de datos de la UE.