La Unión Europea va a ser la primera zona del planeta en regular de forma completa los usos de la inteligencia artificial (IA). Los Estados y el Parlamento Europeo han llegado, prácticamente en la medianoche del viernes al sábado, y tras 3 días de intensas y duras negociaciones, a un pacto temporal, un texto final que aún habrá de ser ratificado por las dos partes ya antes de entrar en vigor, de forma previsible a fines de dos mil veintiseis, si bien ciertas partes comenzarán a marchar ya antes. Este texto define las obligaciones y reglas por las que va a deber regirse una tecnología que está acá para quedarse y que está convirtiendo absolutamente la vida diaria, mas que acarrea tantas posibilidades como peligros, muchos de ellos ni tan siquiera aún imaginables.

“El reglamento tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos”, ha asegurado en X (ya antes Twitter) la Presidencia de España del Consejo de la UE. Cerrar esta ley, que desea transformarse en una referencia o estándar para otras zonas alén de las fronteras comunitarias, era una de las prioridades fijadas por España para su semestre europeo, que termina este mes de diciembre.

Los Veintisiete aseguran que desean asegurar las posibilidades y limitar al límite los peligros, para lo que han negociado una ley “a prueba del futuro” que contenga la flexibilidad suficiente para poder regular funciones o tecnologías hoy por hoy ignotas, o para amoldarse a los cambios que experimenten las ya existentes. Pero el demonio, como siempre y en todo momento, está en los detalles, y las negociaciones, “apasionadas”, como las calificaron testigos de los inacabables tira y afloja que empezaron el miércoles y terminaron rozando la medianoche del viernes al sábado, se extendieron debido al pulso entre Estados y eurodiputados —y en ocasiones entre cada parte entre sí— sobre qué es un peligro o no y qué salvedades y salvaguardias poner para asegurar que los derechos esenciales individuales no se exponen en interés de no dañar la economía o los intereses de los Estados. La letra pequeña está aún por conocerse, mas, tras treinta y seis horas de negociaciones, una de las más largas que se recuerdan de estos formatos, todas y cada una de las partes se declararon satisfechas por el “equilibrio” conseguido entre los dos objetivos.

“Es una ley muy buena que impulsará la innovación y de forma compatible con los derechos fundamentales”, ha asegurado la secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas.

“La UE se convierte en el primer continente que pone reglas claras para el uso de la IA”, ha señalado mientras el comisario de Mercado Interior, Thierry Breton, uno de los grandes impulsores de la normativa y para quien la ley propuesta es “mucho más que un paquete de normas, es una lanzadera para que las startups europeas y los investigadores lideren la carrera global por la IA”.

Sobre todo, ha delimitado Artigas, por el hecho de que da una “certeza legal y técnica” a los ciudadanos y a las compañías que ahorrará de forma previsible muchas acciones legales. Para ello, la normativa desea tener dientes suficientes para no quedar en papel mojado, para lo que prevé un sistema de sanciones, bien un porcentaje del volumen total de negocios de la compañía infractora el año fiscal anterior o aun una cantidad predeterminada “aún mayor”. Además, se establece la creación de un ente supervisor independiente, una Oficina de IA ligada a la Comisión Europea y que va a estar asesorada por un panel científico y la sociedad civil.

La presidente de la Comisión, Ursula von der Leyen, ha festejado una normativa “pionera en el mundo”. Un marco legal “único para el desarrollo de una IA en el que se puede confiar”, ha saludado en X la jefe del Ejecutivo europeo. “Europa ha liderado y ha cumplido”, ha delimitado la presidente del Parlamento Europeo, Roberta Metsola, conforme la que la AI Act, como se la conoce en inglés, es una legislación “vanguardista y responsable que impone estándares globales”.

Junto a la satisfacción por cerrar un pacto que muy frecuentemente parecía escaparse, había asimismo ademanes de alivio entre los primordiales responsables de las negociaciones, y no solo por el hecho de que por fin podían irse a casa, sino más bien por el hecho de que, resaltaron todos, lo hacían seguros de que han hecho bien unos deberes con muchas trabas.

Entre , los más espinosos fueron, como se preveía, la cuestión de de qué forma regular los modelos de IA de propósito general (la IA generativa o modelos fundacionales) en los que se fundamentan populares herramientas como el ChatGPT, como los sistemas de vigilancia biométrica (como el reconocimiento facial), que al final terminó siendo el punto más duramente negociado y alargó las discusiones hasta este viernes, debido a los fuertes recelos que despiertan estas tecnologías que potencialmente —y en ciertos casos ya verdaderamente, como se ve en ciertos países con poco músculo democrático— dejan una supervisión y control estatal que puede chocar de manera directa con los derechos esenciales de los ciudadanos.

Finalmente, se ha eludido el descalabro de las negociaciones, que España insistió en acabar ya, miedosa de un calendario que, con elecciones europeas en 6 meses, podría hacer peligrar una ley largamente elaborada y discutida. El Parlamento Europeo ha festejado que la ley “busca garantizar que los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental están protegidos de IA de alto riesgo, a la par que se impulsa la innovación y se hace de Europa un líder en el sector”.

El texto final recoge, aseguran los eurodiputados, sus primordiales líneas rojas, al confirmar que van a quedar prohibidos múltiples sistemas de vigilancia biométrica que consideraban inaceptables: los sistemas de clasificación biométrica (por opiniones políticas, religiosas, filosóficas o por orientación sexual o raza); los sistemas para expandir o crear bases de datos faciales captando datos de forma indiscriminada por medio de internet o de grabaciones audiovisuales y televisión; el reconocimiento de emociones en el sitio de trabajo y en instituciones educativas; el social scoring (sistemas que puntúan a las personas en función de su comportamiento social o peculiaridades personales); sistemas que manipulan comportamiento humano y la IA utilizada para explotar las vulnerabilidades de las personas (por poner un ejemplo por su edad o situación social o económica).

Vigilancia biométrica

Por otro lado, si bien se dejarán los sistemas de vigilancia biométrica en tiempo real en espacios públicos, solo van a poder ser empleados por las fuerzas del orden y van a estar limitadísimos y rodeados de estrictas salvaguardias: se requerirá una autorización judicial y la lista de crímenes que lo autoricen va a ser muy restrictiva. En el caso del uso “ex post”, solo se dejará para la busca de una persona condenada o sospechosa de haber cometido un crimen grave. En el caso de la vigilancia en tiempo real, su uso va a estar limitado en “tiempo y locación” y solo se dejará para la busca de víctimas de secuestro, tráfico humano o explotación sexual, para la prevención de una amenaza terrorista “genuina y previsible” o “genuina y presente”, o sea, que se está generando en exactamente el mismo instante, o para la ubicación o identificación de un sospechoso de crímenes específicos: terrorismo, tráfico, asesinato, secuestro, violación, hurto armado o un crimen medioambiental, entre otros muchos).

Se trata de una tecnología que apenas se conocía cuando Bruselas planteó la ley, en el mes de abril de dos mil veintiuno, por lo que ha habido que agregar medidas y salvaguardias a posteriori, lo que ha constituido a la vez un recordatorio de que la legislación ha de ser amoldable a sistemas del futuro aún inconcebibles. El reglamento no prohíbe su uso, mas sí establece una serie de criterios para advertir los modelos que pueden producir un alto peligro dependiendo del contexto en el que se empleen y fuerza a sus desarrolladores a cumplir unas resguardas más estrictas ya antes de sacarlos al mercado.

Ningún otro país tiene aún una regulación tan completa como la europea. El presidente de EE UU, Joe Biden, firmó un octubre un decreto que fuerza a las tecnológicas a avisar al Gobierno cualquier avance que suponga un “riesgo grave para la seguridad nacional”. Días después, el primer ministro británico, Rishi Sunak, convocó a una cima de la que brotó el primer compromiso de veintiocho países y de la UE sobre estos sistemas (Declaración de Bletchley) y la creación de un conjunto de especialistas para el seguimiento de sus avances.

Si no ocurren imprevisibles, o sea, si ninguna de las partes se echa atrás y tanto los Estados como la Eurocámara ratifican la ley en los próximos meses (los negociadores no piensan que el proceso pueda iniciar ya antes de febrero, ya bajo presidencia europea belga), la Ley de IA debería poder entrar completamente en vigor cara finales de dos mil veintiseis, si bien ciertas partes lo van a hacer antes: está previsto que la Oficina de IA comience a marchar cuando se ratifique el reglamento, al tiempo que la prohibición de los sistemas prohibidos de inteligencia artificial va a llegar a los 6 meses y los requisitos para los sistemas y modelos de IA generativa, a los doce.

Adrian Cano

Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica. Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales,  es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.