Alphabet y Microsoft son dos de las compañías que más están apostando por la inteligencia artiifcial.
Alphabet y Microsoft son dos de las compañías que más están apostando por la inteligencia artiifcial.DADO RUVIC (REUTERS)

Nos hallamos en un instante histórico en el que, frente al apogeo de la inteligencia artificial, hay un acuerdo extendido sobre la necesidad de regularla. Pero, ¿de qué manera hacerlo apropiadamente? En la última década, el discute en torno a la gobernanza de esta tecnología ha cobrado impulso, multiplicándose las propuestas políticas. Un análisis reciente de Stanford ponía cifras a la fiebre reguladora: desde dos mil dieciseis hasta dos mil veintidos, el planeta ha pasado de 1 ley sobre la materia a treinta y siete.

La presencia de la inteligencia artificial en los procedimientos legislativos de ochenta y uno países ha aumentado prácticamente 7 veces. España encabeza la lista con doscientos setenta y tres menciones, seguida de Canadá (doscientos once), Reino Unido (ciento cuarenta y seis) y Estados Unidos (ciento treinta y ocho). Y eso sin contar que aún falta por venir una de las ideas de mayor impacto: la ley de inteligencia artificial europea. Lo que está claro es que hay un creciente interés en torno al impacto social de estas nuevas aplicaciones y un grito extendido demandando límites que guíen su evolución. La carrera por regular ha empezado y el planeta mira a las grandes potencias en pos de orientación por el hecho de que una atomización de reglas que afectan a la tecnología más relevante de este siglo puede tener consecuencias indeseadas sobre prácticamente todo, incluyendo el comercio internacional y la competitividad de los países.

Con el apogeo de ChatGPT y los primeros pasos cara la inteligencia artificial general (AGI), el discute técnico se centra en de qué manera asegurar que las máquinas no terminen tomando el control. En el mundo, el alineamiento o alignment pretende hacer confluir lo que se quiere que hagan los sistemas y lo que verdaderamente van a hacer. Esta preocupación es la que ha llevado a científicos como George Hinton, a solicitar que “si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea tarde” o aun a investigadores de OpenAI a compartir sus miedos frente a un desarrollo técnico que desalineado con los intereses humanos y los principios éticos.

Los que están desarrollando esta tecnología solicitan que se pare, mas curiosamente solo a lo largo de seis meses, al tiempo que otras tantas señaladas investigadoras como Timnit Gebru aseveran que más que una pausa lo que hace falta es regulación que fortalezca la trasparencia. El CEO de Google o Bill Gates ven esta propuesta poco práctica para atajar los auténticos inconvenientes que presenta este avance a toda velocidad. Consideran que estamos frente al “avance más importante” desde la creación de los ordenadores y los móviles.

Aunque no hay una definición universal, se comprende por AGI como un sistema computacional capaz de hacer cualquier labor humana y producir nuevos conocimientos. Sería más conveniente llamarlo GodAI. Casi un 40% de los expertos piensa que podría suponer una catástrofe del tipo nuclear, por este motivo hasta el emprendedor más liberal pide regulación. Sin embargo, más que obsesionarnos con regular para contener algo que ya ha desbordado, deberíamos abrir una charla global, no solo entre gobiernos, que deje comprobar los incentivos que dan forma al propio desarrollo tecnológico y pactar unos mínimos orientadores para los próximos años. Una confusión regulativa bastante difícil de incorporar y cumplir en plena desglobalización no semeja ser la mejor solución

Para hacernos una idea de la diversidad de reacciones por la parte de los reguladores frente a una aplicación tecnológica como ChatGPT solo debemos dar una vuelta por los movimientos de las últimas semanas. China ha introducido un conjunto de reglas para los servicios basados en inteligencia artificial generativa. La pretensión de Beijing, reportada por Reuters, es que las compañías efectúen evaluaciones de seguridad antes que sus productos sean lanzados al mercado. Sus indicaciones ponen la responsabilidad en los distribuidores, quienes deben asegurar la legalidad de los datos utilizados al adiestrar sus soluciones tecnológicas, como incorporar medidas precautorias que eviten la discriminación al crear algoritmos y al emplear la información recogida.

Italia decidió bloquear ChatGPT algo que fue después enmendado tras ajustes de privacidad por la parte de la compañía. En esta línea, el Comité Europeo de Protección de Datos (EDPB, por sus iniciales en inglés) ha creado un conjunto de trabajo con todas y cada una de las autoridades nacionales de protección de datos que anuncian día a día nuevas investigaciones sobre la compañía más popular del momento: OpenAI. ¿Es que quizá solo hay un distribuidor de estos grandes modelos de lenguaje? En contraste, países como el Reino Unido o la India han optado por eludir establecer regulaciones estrictas en esta fase de descubrimiento. Parecen estar apostando por dejar que la tecnología evolucione de forma libre con vistas a provocar su pelotazo tecnológico que pueda impulsar sus economías.

Ante la diversidad de estrategias en los diferentes países, con intereses nacionales y corporativos variados, la idea de un marco unificado de regulación de la inteligencia artificial se atisba más como un sueño que una alternativa viable. ¿Qué opciones alternativas hay en el medio? Una de las propuestas recurrente en los foros de discusión internacionales es la creación de una Agencia Internacional para la Inteligencia Artificial (IAI) global, neutral, que cuente con la orientación y la participación de gobiernos, grandes empresas tecnológicas, organizaciones no lucrativo, el planeta académico y la sociedad. Mientras la gobernanza internacional estructura la charla para llegar a un acuerdo sobre de qué manera avanzar en este punto de cambio tecnológico, tal vez sería interesante actualizar las regulaciones existentes y, en aquellos nuevos desarrollos normativos, cooperar entre países a fin de que sus planteamientos y requisitos estén alineados. Será la única forma de facilitar su cumplimiento.

Adrian Cano

Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica. Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales,  es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.