La Unión Europea acaricia la posibilidad de transformarse en la primera zona del planeta en tener una ley completa para regular la inteligencia artificial (IA). Pero tras más de dieciocho horas de maratonianas negociaciones, aún no se han conseguido cerrar todos y cada uno de los puntos, si bien ya hay pacto sobre uno de los más espinosos: de qué manera regular los modelos fundacionales en los que se fundamentan sistemas como el ChatGPT y que, si bien son considerados esenciales en la evolución de la tecnología, asimismo producen serias dudas por su capacidad disruptiva.

“Las negociaciones continúan”, señalaban de forma coincidente fuentes cercanas a las negociaciones. Las conferencias de prensa convocadas para presentar los resultados a la primera hora de la mañana del jueves han sido de momento aplazadas, en una muestra, no obstante, de la voluntad de apurar los plazos para conseguir salir con un pacto para la ley bajo el brazo.

Según las fuentes, el obstáculo esencial a fin de que los negociadores —representantes de los Estados y de la Eurocámara, con la Comisión Europea— lancen fumata blanca tras una asamblea que empezó el miércoles a las quince a puerta cerrada es otro de los primordiales escollos en todo el proceso de discusión de la ley: la regulación de la vigilancia biométrica en tiempo real en espacios públicos a través de sistemas como el reconocimiento facial, una de las líneas rojas del Parlamento Europeo, preocupado por la posibilidad de abusos de los derechos esenciales de los ciudadanos por la parte de los Estados en el momento de emplear estas tecnologías.

Del orden negociador de la Eurocámara salió la resolución de prohibir o limitar al límite los “usos intrusivos y discriminatorios de la IA”, en especial los sistemas biométricos en tiempo real o en espacios públicos, salvo muy contadas salvedades por seguridad. Los Estados procuran ampliar estas salvedades, y ahí iban a encontrar, conforme advirtió la víspera el eurodiputado Brando Benifei, partícipe en las negociaciones a 3 bandas (los llamados trílogos), con una línea roja clara.

La situación de los eurodiputados es considerablemente más rigurosa que la de los Estados y, si bien las negociaciones han sido “difíciles”, hay un optimismo, precavido, eso sí, sobre la posibilidad de hallar un punto medio. Siempre y cuando, se destaca desde el Parlamento Europeo, se prosiga sosteniendo la prohibición de la policía predictiva, la vigilancia biométrica en lugares públicos y los sistemas de reconocimiento de emociones en lugares de trabajo y en los sistemas educativos. “Necesitamos un grado de protección suficiente de los derechos fundamentales con las prohibiciones necesarias a la hora de usar [estas tecnologías] para la seguridad y la vigilancia”, resume Benifei.

“Los gobiernos quieren una larga lista de excepciones a la aplicación que no vamos a aceptar”, aseguró el italiano en un encuentro con cronistas horas ya antes de encerrarse en las discusiones, a las que llegó con el orden de sostener la prohibición de la policía predictiva, la vigilancia biométrica en lugares públicos y los sistemas de reconocimiento de emociones en lugares de trabajo y en los sistemas educativos.

“Necesitamos un grado de protección suficiente de los derechos fundamentales con las prohibiciones necesarias a la hora de usar [estas tecnologías] para la seguridad y la vigilancia”, conforme Benifei, que se afirmó presto a hallar un “compromiso” en la materia, como en “casos específicos” de vigilancia policial, mas destacó que para esto se requerían “salvaguardas” muy robustas y un control de exactamente las mismas que, en todo caso, no pueden ser ejercidas por los propios Estados. “No vamos a permitir que los gobiernos controlen ellos mismos si respetan la ley, esto es muy, muy importante para nosotros (…) y nunca vamos a aceptar una desviación y no tener un control serio”, adelantó.

Participantes en las negociaciones, como el comisario de Mercado Interior, Thierry Breton, mandaron a lo largo de la madrugada mensajes en las redes sociales mostrando una negociación activa en una sesión calificada de “ultramaratón”. Las discusiones sí han tolerado ya, conforme con las fuentes consultadas, superar el otro gran obstáculo para un pacto temporal sobre la ley —que aún habrá de ser ratificada por el Consejo de la UE y la Eurocámara ya antes de poder entrar en vigor, como pronto a fines de 2026— , la cuestión de la regulación de los modelos fundacionales, sobre todo aquellos más potentes.

Más que el “qué”, el pulso viraba en torno al “cómo”, explicaban fuentes próximas de la negociación en vísperas de exactamente la misma. Países como Alemania, Francia e Italia se habían opuesto en las últimas semanas a, como procuraba la Eurocámara, fijar las obligaciones por ley y abogaban por una mayor autorregulación —mediante códigos de conducta, eso sí, obligatorios— de los desarrolladores. El razonamiento utilizado era no trabar la innovación y competitividad en un ámbito en el que Europa no desea quedarse atrás en frente de sus grandes contrincantes, Estados Unidos y China.

Pero los eurodiputados, preocupados por la capacidad de estas nuevas tecnologías de afectar derechos esenciales de los ciudadanos, habían puesto líneas rojas y advertido de su pretensión de desamparar las negociaciones —lo que habría postergado con fuerza toda la ley, que se espera pueda ser plenamente incorporada a fines de 2026— si no se fijaban suficientes resguardas. Sobre todo para los modelos fundacionales más potentes, los considerados de “riesgo sistémico” por el hecho de que tienen capacidades de alto impacto cuyos resultados pueden “no ser conocidos o comprendidos en el momento de su desarrollo y publicación, por lo que pueden provocar riesgos sistémicos a nivel de la UE”, conforme la definición admitida por todas y cada una de las partes.

El meollo, explicaba asimismo Benifei en vísperas de las negociaciones, era la manera en que se “garantiza” para estos modelos más potentes “que lo que hagan los desarrolladores de esos modelos sea obligatorio y se pueda exigir su cumplimiento”. La Eurocámara, apuntó, deseaba un texto suficientemente claro para cerciorarse de que “no hay manera de escapar a esas obligaciones”, aun si bien fuesen incluidas en un código de conducta como solicitaban los Estados, mas que, en todo caso, “que no sea un compromiso voluntario de facto, sino que se pueda hacer cumplir”.

_

Adrian Cano

Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica. Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales,  es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.