La inauguración del Centro Europeo de Transparencia Algorítmica (ECAT, por sus iniciales en inglés) en Sevilla, la herramienta de la Comisión para abrir las cajas negras donde se esconden los sistemas algorítmicos de las grandes plataformas de Internet, ha puesto de manifiesto que el conocimiento de de qué forma marchan y el control de sus efectos sobre nuestra vida rutinaria son un tema de Estado. En este contexto, España lidera el llamado sandbox regulativo, un ambiente de pruebas, que incluye el estudio de algoritmos, con el que se pretende probar la eficiencia del futuro reglamento europeo sobre inteligencia artificial, el marco jurídico que se va a aplicar a ese género de sistemas computacionales. Una iniciativa que desarrolla la Secretaría de Estado de Digitalización e Inteligencia Artificial, y que se integra en las políticas europeas que procuran legislar de forma trasversal los servicios digitales, como la recién aprobada Directiva de Servicios Digitales (DSA). “Estamos marcando un modelo para el resto del mundo, se ha demostrado que la vía europea no es la tercera vía, sino la única posible para conseguir una inteligencia artificial más ética, humanística y justa”, asegura su titular, Carme Artigas, en una entrevista concedida a EL PAÍS, apenas 3 semanas una vez que tuviese que hacer en frente de un motín en su consejo consultor para la inteligencia artificial.

Pregunta. ¿De qué forma van a integrarse el sandbox regulativo y la Agencia Española de Supervisión de la Inteligencia Artificial con el nuevo centro?

Respuesta. El centro europeo es un espaldarazo enorme para España en el rol de liderar el desarrollo de una IA [inteligencia artificial] que sea más justa, más moral y que integre unos principios y valores que se deben proteger en el planeta digital. Por tanto, que estén acá los mejores estudiosos y que las administraciones españolas tengamos más proximidad con su trabajo y asimismo el campo privado, suma a las ideas que ya teníamos. El sandbox ya está en marcha y es parte de la cooperación que ya teníamos con el JRC y vemos muchas semejanzas entre el reglamento de IA y la DSA y, por ende, allá vemos muchas sinergias.

P. ¿Cuándo van a poder participar las compañías españolas en ese ambiente de pruebas regulatorio?

R. Esperamos que ya antes de un mes esté listo el Real Decreto para invitar a participar a las compañías españolas y hemos fijado el mes de noviembre a ofrecer los primeros resultados, coincidiendo con el encuentro de la AIA [Alianza para la Inteligencia Artificial].

P. Hablaba de la relevancia de desarrollar una IA más moral, mas ese compromiso ha sido cuestionado últimamente por múltiples miembros del Consejo Asesor de la IA y por ONG a causa del pacto del Gobierno con el centro de investigación ADIA Lab, de Emiratos Árabes Unidos, un país donde no se respetan los derechos humanos y la ciencia está bajo control por el Gobierno. ¿Calibró bien el Gobierno la influencia que podía tener este pacto, teniendo presente la incidencia que la IA puede tener en las libertades públicas?

R. No comprendo la polémica. Esto es una enorme nueva, son centros de investigación de primer nivel que escogen situarse en España, no en Francia o en Alemania. No hay ningún enfrentamiento ético. Esto es una financiación, no para un gobierno, no para un centro, sino más bien para los científicos españoles. Estamos apoyando a las universidades públicas españolas a que podamos financiar líneas de trabajo conjuntas internacionalmente con cualquier centro de prestigio, de Emiratos Árabes, mas asimismo últimamente el Instituto Tecnológico de Monterrey (México) asimismo ha decidido situar su centro europeo en Oviedo. Una cosa son las relaciones diplomáticas, otra el activismo y otra la ciencia.

Carme Artigas, a lo largo de la entrevista, este martes en Sevilla.PACO PUENTES

P. Se cuestiona asimismo que una línea de investigación de ese centro sea sobre el cambio climático y la sostenibilidad cuando el origen de los fondos de Emiratos Árabes es el petróleo.

R. El fondo soberano de ADIA está financiando la COP28 con Naciones Unidas. Si Naciones Unidas hace un pacto con un país, no voy a cuestionarlo. Nosotros no cuestionamos países, sabemos que como países tienen menos nivel de democracia que , este país puede tener relaciones diplomáticas y comerciales con los países que considere oportuno. Nosotros estamos por respaldar a los científicos españoles y no hay nada mejor que asistir a la evolución democrática que intercambiar conocimientos como país.

P. ¿Está garantizada entonces la salvaguardia científica y moral de las investigaciones que se realicen en ese centro que se va a abrir en Granada?

R. Es que se han cuestionado cosas que son indiscutibles, como la libertad de cátedra de científicos españoles ¿O alguien pone en duda que un científico de España, si es que se siente ligerísimamente dirigido en su investigación, no levantará la mano y dirá que ya no desea cooperar más con ellos? Los científicos son los que tienen libertad de decidir.

P. Los miembros del Consejo Asesor y las ONG asimismo cuestionan que no se les tenga suficientemente en cuenta en la toma de resoluciones.

P. Recientemente, científicos, especialistas y magnates de las tecnológicas han pedido una moratoria en el desarrollo de la IA generativa, como ChatGPT. ¿Qué opina?

R. No estamos conformes para nada en que se paren la investigación y la innovación. Al contrario, lo que debe hacer es acelerarse para solucionar los inconvenientes que las compañías han creado. Hay que apresurar la innovación con límites. Pretender poner en el mercado un producto que no está acabado, sin exactamente los mismos controles que tendría un vehículo o un fármaco, y decirle a la gente que lo pruebe y que vea dónde se encuentran los fallos para poder ver de qué forma lo mejoro, que es lo que ha hecho ChatGPT, es lo que no es adecuado. ChatGPT ha ido desde la una parte de la investigación a la de la comercialización demasiado veloz. Pero ha servido para crear conciencia de que la vía que estaba siguiendo Europa, defendiendo los derechos digitales, es la adecuada.

P. ¿La regulación existente en Europa y el futuro reglamento europeo de IA son mecanismos suficientes para supervisar el desarrollo de la IA generativa?

R. Todo el conjunto: la normativa europea de protección de datos, la DSA para el control del contenido ilícito, y el reglamento de IA puede decidir que una IA generativa pueda entrar en la categoría de algoritmos de peligro y se le aplicaría toda la supervisión algorítmica cuando que no sesga, no discrimina, no ofrece información falsa…

P. El reglamento se prevé que esté listo en dos mil veinticinco, mas hemos comprobado de qué forma ChatGPT se ha desarrollado rapidísimamente en 4 meses. ¿No se corre el peligro de que al final las contestaciones legislativas vayan siempre y en todo momento tras la tecnología?

R. No, no. Lo que hay que hacer es cerrar el expediente legislativo. En el caso de la IA, se prevé que apruebe en el primer mes del año de dos mil veinticuatro y por eso la relevancia de la presidencia europea de que se cierre el expediente legislativo. A España le tocará cerrar el expediente legislativo de la herramienta europea de IA. Por eso se creó el sandbox, por el hecho de que lo que no deseamos es que cuando entre en vigor, tarde un par de años en incorporarse o que se solicite una moratoria por el hecho de que las compañías no están dispuestas para aplicarlas. Por eso lo que hacemos es tan esencial, por el hecho de que estamos adelantando la puesta en marcha técnica y operativa de cosas específicas de la ley.

Puedes continuar a EL PAÍS Tecnología en Facebook y Twitter o apuntarte acá para percibir nuestra newsletter semanal.