¿Quién controla los peligros de la inteligencia artificial, singularmente los llamados “modelos fundacionales” como el ChatGPT? La nueva directiva europea sobre IA para esta tecnología —revolucionaria mas asimismo enormemente disruptiva— que ahora negocian las instituciones comunitarias para iluminar un texto terminante se inclina poco a poco más cara la autorregulación. La última propuesta de España, que encabeza este semestre el consejo de la UE y regula las negociaciones, plantea “unas obligaciones muy limitadas y la introducción de códigos de conducta” para las compañías, si bien con múltiples capas de supervisión medias, conforme los documentos a los que ha tenido acceso Forbes Hispano. Pero el pulso sigue: el Parlamento Europeo demanda un marco algo más duro, mientras que Francia, Italia y Alemania —tres de los asociados más poderosos del club comunitario— presionan a fin de que la escala cubierta por los propios códigos de conducta de las compañías superen a la de la normativa concreta; aducen que una regulación rigurosa dañará la innovación de la investigación y de las compañías europeas. Europa llega tras Estados Unidos, que ya ha aprobado su ley, que fuerza a las tecnológicas a avisar al Gobierno de Estados Unidos cualquier avance que suponga un “riesgo grave para la seguridad nacional”.
España, que cederá el testigo de la presidencia a fin de mes a Bélgica y que ha puesto entre sus primordiales prioridades sacar adelante la histórica directiva, navega en esos equilibrios y ha planteado una serie de códigos de conducta para los modelos fundacionales (o GPAI, por sus iniciales en inglés, aquellos capaces de crear contenidos de audio, texto o imágenes desde la observación de otros datos) que implican un mayor peligro, real o potencial, aquellos que el reglamento llama como “modelos fundacionales de riesgo sistémico”: esto es, con capacidades de alto impacto cuyos resultados pueden “no ser conocidos o comprendidos en el momento de su desarrollo y publicación, por lo que pueden provocar riesgos sistémicos a nivel de la UE”. Códigos que incluyan tanto “medidas internas” como una interlocución activa con la Comisión Europea para “identificar riesgos sistémicos potenciales, desarrollar posibles medidas mitigadoras y garantizar un nivel adecuado de protección de ciberseguridad”, afirma el plan.
Los códigos de conducta asimismo incluirían obligaciones en materia de trasparencia para “todos” los modelos fundacionales, conforme con la última situación negociadora, que plantea otros elementos, como que las compañías notifiquen de su consumo energético. Para todos y cada uno de los modelos fundacionales, se establecerían además de esto ciertas “obligaciones horizontales”. Pero, además de esto, la nueva directiva podría incluir una cláusula que daría poder a la Comisión Europea para adoptar una “legislación secundaria” sobre los modelos fundacionales de “riesgo sistémico” para, si es preciso, concretar más los elementos técnicos de los modelos GPAI y sostener los puntos de referencia actualizados con el desarrollo tecnológico y del mercado”. Esto equivaldría a dejar una puerta abierta para nuevos episodios normativos, conforme fuentes comunitarias.
La propuesta de España plantea asimismo la creación de una Agencia de Supervisión para la Inteligencia Artificial, un organismo que pintaría una capa más de seguridad, que daría un “sistema centralizado de vigilancia e implementación”. La agencia podría, además de esto, satisfacer los reclamos de la Eurocámara, que había pedido la construcción de algún género de organismo especializado.
Las propuestas para acabar de hilvanar la directiva se discutirán este miércoles entre representantes de los Estados miembros (España, como presidencia del Consejo de la UE), el Parlamento Europeo y la Comisión, en una cita definitiva. Es una de las últimas ocasiones de que salga adelante. Las negociaciones están ya muy “avanzadas” e inclusive existiría ya pacto en lo que forma la arquitectura general de la ley, basada en una pirámide de peligro y en el principio, mantenido por la presidencia de España en su última propuesta, de que el enfoque es “tecnológicamente neutro”, esto es, no regular tecnologías específicas, sino más bien sus usos finales a través de la creación de distintas categorías de peligro, como planteaba la Eurocámara.
España es optimista. “La Unión Europea se convertiría en la primera región del mundo en legislar los usos de la IA, sus límites, la protección de los derechos fundamentales de los ciudadanos y la participación en su gobernanza, garantizando a la vez la competitividad de nuestras empresas”, apunta la secretaria de Estado de Digitalización, Carme Artigas a Forbes Hispano. Artigas cree en la responsabilidad de la UE de ir más allí, para los usos de alto peligro, de la instauración de un código de conducta y de modelos de autorregulación y buenas prácticas para poder delimitar los peligros que ya muestra esta tecnología renovadora, desde la desinformación a la discriminación, manipulación, vigilancia o deep fakes. Todo teniendo presente que hay que respaldar la innovación y el avance. “El reglamento europeo de IA es, por tanto, no solo un estándar legal, ni tan solo un estándar técnico. Es un estándar moral”, apunta Artigas.
El inconveniente, sin embargo, es que prosiguen abiertos —y seguramente lo proseguirán hasta el momento en que los negociadores vuelvan a verse frente a frente en la tarde del miércoles— dos puntos clave: uno es la cuestión de los sistemas de vigilancia biométrica; el segundo es quién controla los modelos fundacionales más impredecibles, los llamados de “riesgo sistémico”. Un discute alimentado por los últimos acontencimientos en la saga de Open AI y de la salida y la vuelta de Sam Altman a la compañía puntera, ya que estudiosos de Open AI informaron al consejo de la compañía de un poderoso descubrimiento de inteligencia artificial que, según ellos, conminaba a la humanidad ya antes del despido de Altman.
La tensión es máxima. Sobre todo desde el momento en que Alemania, Francia e Italia cambiaron tornas hace unas semanas y se declararon convenientes a una extensa autorregulación de las compañías que desarrollan estos sistemas, a través de sendos códigos de conducta, que, eso sí, que serían obligatorios. Los 3 países han mandado al resto de Estados miembros un documento de situación en el que defienden la autorregulación para la IA de propósito general, solicitan un “enfoque equilibrado favorable a la innovación” basado en el peligro de la IA y que “reduzca las cargas administrativas innecesarias” para las compañías que, afirman, “obstaculizarían la capacidad de Europa para innovar”. Además, en el documento reservado, al que ha tenido acceso este diario, apuestan por suprimir “inicialmente” las sanciones por incumplimiento de los códigos de conducta relativos a la trasparencia y abogan por el diálogo.
Sin embargo, la vía que transita esa propuesta de 3 de los grandes de la UE —alguno, como Francia, que acoge empresas tecnológicas con vínculos con la IA, como Mistral— es una línea roja para otros Estados miembros y para muchos especialistas, como ha mostrado la carta abierta mandada la semana pasada a París, Berlín, Roma y Madrid, adelantada por Forbes Hispano, en la que urgen a que la ley salga adelante y a que no sea diluida. Es decir, solicitan menos códigos de conducta y más reglas.
“La autorregulación no es suficiente”, mantiene asimismo Leonardo Cervera Navas, secretario general del Supervisor Europeo de Protección de Datos (SEPD), que no oculta que le agradaría que la hipotética y futura Oficina de IA recayese en las responsabilidades del SEPD. Esta entidad supervisora, sugiere, podría servir de bisagra entre aquéllos que prefieren la autorregulación y los que demandan obligaciones puestas negro sobre blanco en una ley, puesto que dejaría un grado alto de autorregulación, mas supervisada en último caso por una instancia superior e independiente de los intereses de las compañías. Para el especialista, lo idóneo es un “enfoque regulador flexible, no excesivamente dogmático, ágil, pero combinado con una fuerte supervisión”, que es la que efectuaría esta oficina.
Es la postura asimismo de los negociadores de la Eurocámara, que insisten en que la directiva ha de ser completísima para asegurar la seguridad ciudadana y sus derechos esenciales frente a unas tecnologías con un potencial intrusivo en ocasiones impensable aún. “El Consejo debe abandonar la idea de tener solo compromisos voluntarios acordados con los desarrolladores de los modelos más poderosos. Queremos unas obligaciones claras en el texto”, destaca por teléfono el eurodiputado italiano Brando Benifei, uno de los negociadores de la Eurocámara en las conversaciones interinstitucionales (los llamados trílogos, que alumbran el auténtico texto legal).
Entre las obligaciones que los legisladores europeos consideran “cruciales” y que habrían de estar fijadas en la ley están la gobernanza de datos, medidas de ciberseguridad y estándares de eficacia energética. “No vamos a cerrar un acuerdo a cualquier coste”, advierte Benifei.
_
Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica.
Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales, es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.