La Presidencia de España de la UE ha conferido a la secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, la batuta de directiva de orquesta en la fase final de las negociaciones del aguardado reglamento europeo de la inteligencia artificial (AI Act). La regla va a ordenar los usos y salvedades de esta tecnología con un enfoque basado en los peligros que representa para a la ciudadanía cada una de ellas. A mayor peligro, más medidas de control para la aplicación o hasta su prohibición. Entran en esta última categoría, de momento, los sistemas de inteligencia artificial (IA) que “manipulen”, los que sirvan para la clasificación social o los de identificación biométrica recónditos o en tiempo real.

Las discusiones entre los representantes del Parlamento Europeo, partidario de limitar al límite las posibles aplicaciones oscuras de la IA; los Estados miembros, que desean poder recurrir a estas en el caso de emergencia, y la Comisión hacen de estas negociaciones un trámite lento y frágil. “Confío en que podremos aprobar el reglamento durante esta presidencia [acaba el 31 de diciembre]”, afirma la secretaria de Estado.

Nacida en Vilassar de Mar hace cincuenta y cinco años, Artigas fue nombrada hace un par de semanas copresidenta de un consejo internacional de especialistas de Naciones Unidas encargado de preparar un mecanismo de gobernanza para la IA. Su compañero al frente de ese conjunto es James Manyika, vicepresidente de Google, una señal clara de que la industria está muy presente en la discusión. La secretaria de Estado recibe a Forbes Hispano ya antes de volar a Londres a la Cumbre sobre Seguridad de la IA, en la que veintiocho países, entre ellos EE UU y China, acordaron colaborar para encarar los peligros de esta tecnología.

Pregunta. ¿Cuál es su responsabilidad en el nuevo consejo consultor de la ONU?

Respuesta. Nuestro cometido es examinar las ocasiones, los peligros y el impacto que supone la IA para la sociedad y diseñar un mecanismo de gobernanza internacional para esa tecnología. Es un toque de atención sobre la relevancia de regular la IA: esto se debe regular a nivel internacional y se debe implicar al sur global. Para diciembre debemos haber elaborado unas primeras conclusiones, que presentaremos en Nueva York. Creo que es una ocasión única para influenciar el proceso desde la visión que tenemos en España del humanismo tecnológico y desde el enfoque europeo, basado en la protección de derechos.

P. ¿De qué forma piensa que habría de ser ese mecanismo de gobernanza de la IA?

R. Hay muchos modelos, como el Organismo Internacional de la Energía Atómica o el Grupo Intergubernamental para el Cambio Climático [IPCC por sus siglas en inglés], en el que primero llegas a acuerdos científicos y después procuras que haya una contestación de los Estados. Hay que meditar que en torno a la IA existen muchos puntos de vista distintos: la visión que se tiene en China no es exactamente la misma que la de Estados Unidos, y esta tampoco es igual a la de Europa. Ahora mismo existen muchos foros de discusión internacionales sobre este tema. Es el instante de aunarlos, de sumar fuerzas con la industria.

P. La ONU le ha dado mucha relevancia a la crisis climática y, no obstante, el inconveniente se aleja de estar solucionado. ¿Por qué debería ser diferente con la IA?

R. Justamente he tenido una charla con el copresidente sobre de qué forma hacíamos que nuestro trabajo no se quede en una serie de recomendaciones teóricas. Vamos a procurar aprender de las mejores prácticas. El IPCC es buen punto de inicio, mas precisa mejoras. Estamos buscando un mecanismo que no sea tan complejo de sostener como una agencia internacional y que tenga contacto con la Academia, pues la IA evoluciona rapidísimo.

Artigas copreside desde hace un par de semanas un consejo internacional de especialistas de Naciones Unidas encargado de preparar un mecanismo de gobernanza para la IA.Samuel Sánchez

P. ¿De qué forma se puede proponer una contestación ordenada de los países y la industria si sus intereses con frecuencia chocan?

R. Estados Unidos tenía su modelo de apoyo sin límites al desarrollo de su industria. China, asimismo. La europea era la tercera vía: pensamos que el progreso tecnológico no puede llevarse por delante derechos esenciales. Al principio absolutamente nadie nos hacía caso, mas la urgencia de ChatGPT ha tolerado que en otras latitudes y en la propia industria se comenzasen a dar cuenta de que esta tecnología, a cargo de los malos, puede tener efectos negativos. EE UU termina de anunciar su orden ejecutiva. En Europa, consideramos que debemos ir más allí, deseamos que la propia tecnología sea más transparente, más justa. En China, contra lo que se pueda meditar, están preocupadísimos en poner límites, por servirnos de un ejemplo, a los deepfakes. Algunos no han tomado conciencia hasta dos mil veintitres. Otros ya veníamos trabajando en ellos desde dos mil veinte. Justamente por eso, ahora es el instante en sumar esas visiones.

P. ¿El reglamento de IA es la manera de abordar este inconveniente?

P. ¿Han acordado ya qué casos van a ser los prohibidos y cuáles de alto peligro?

R. Ese es quizá el punto más esencial del discute que tenemos. Debemos decidir qué requisitos le solicitamos a los sistemas de alto peligro [los que están permitidos pero muy limitados] y qué requisitos de trasparencia le solicitamos a los modelos fundacionales [en los que se apoya la IA generativa, como ChatGPT]. El Parlamento Europeo ha querido ampliar el control de la regla asimismo hasta la IA generativa, algo que en un inicio no estaba previsto. No regulamos tecnologías, sino más bien casos de uso. Un martillo puede clavar un clavo o matar a alguien. De lo que hay que asegurarse es de que si pasa lo segundo, el responsable vaya a la prisión.

P. Al ocupar la Presidencia de la UE, España está dirigiendo las negociaciones entre Comisión, Consejo y Parlamento. ¿Marchan bien?

R. Estamos acercando muchas situaciones. Hemos definido realmente bien lo que son los sistemas de alto peligro y comenzamos a trabajar en este discute sobre qué son los usos prohibidos. El Parlamento dio una lista que vemos excesiva y que en ciertos casos podrían ir en contra de la seguridad nacional de los estados. Estamos ahora definiendo qué garantías extraordinarias establecemos para que no pueda existir, por ejemplo, un abuso de poder por parte de un estado en la utilización de esas tecnologías. Tenemos que poner límites, pero a la vez favorecer y no ahuyentar la innovación, y ese equilibrio es difícil. Creo que lograremos aprobar la normativa durante la Presidencia española.

P. ¿Qué escollos hay ahora mismo, más allá de los usos prohibidos?

R. Hay una serie de empleos prohibidos consensuados, como el scrapping [extracción de datos] de imágenes tomadas por cámaras de vigilancia o los sistemas de calificación de crédito social. Estamos viendo si encontramos el punto adecuado en el reconocimiento biométrico, exceptuando algunos casos, como su utilización en la investigación de algunos crímenes graves. Nadie quiere que haya un abuso de esas técnicas por parte de la policía o de los gobiernos. Si hacemos esto, tenemos que ofrecer garantías extras de control. Este es ahora el centro del debate, pero no podemos revelar cuál es la solución que estamos buscando. Se está trabajando a nivel jurídico, técnico y político. La apuesta es muy alta porque nunca se había hecho en el mundo una regulación así.

P. La tecnología cambia muy rápido, como se ha visto con la irrupción de ChatGPT. ¿Cómo harán a fin de que el reglamento no quede obsoleto?

R. La clave de este reglamento será que supere la prueba del tiempo. Para eso, debe poder actualizarse. Estamos viendo, por servirnos de un ejemplo, cómo hacer a fin de que los casos de uso de riesgo se puedan actualizar fácilmente. Habrá un mecanismo de coordinación europeo de las agencias nacionales de la inteligencia artificial que velará por ello.

P. ¿Sigue en contra de que haya una moratoria en la investigación de IA?

R. La carta [en la que centenares de expertos solicitaron en marzo una pausa de seis meses en la investigación de esta tecnología] fue un toque de atención de la comunidad científica: cuidado, que aquí estamos desarrollando algo sin saber su impacto real. Situaba los daños irreparables a muy largo plazo, cuando nosotros pensamos que los estamos sufriendo ya: las propias fake news, la suplantación de identidad con los deepfakes, la posibilidad de sesgos, de discriminación… Antes de hablar de problemas existenciales de la humanidad hay que atajar lo que pasa hoy. Es imposible parar la innovación; lo que hay que hacer es asegurarse de que ese progreso va en la buena dirección. La innovación debe acelerarse a fin de que la propia industria encuentre la manera de resolver los inconvenientes que misma ha creado.

_