Todas las instituciones desean regular ChatGPT. El insigne robot conversacional basado en inteligencia artificial (IA) generativa comienza a levantar suspicacias por el planeta. Se temen sus efectos sobre la privacidad de los usuarios, su potencial para propagar desinformación y la posible destrucción de empleo que puede traer consigo si se implanta en el ambiente laboral y efectúa funciones de trabajadores.

Más de mil especialistas demandaron hace un par de semanas en una carta conjunta una moratoria de 6 meses en el desarrollo de estos programas. Y los gobiernos han contestado a esa llamada de auxilio. Estados Unidos abrió este martes un periodo de un par de meses para recoger ideas sobre de qué manera regular este género de herramientas. China ya ha presentado una normativa para regular la IA generativa, conforme avanzó Reuters: las compañías que deseen utilizar esa tecnología van a deber acreditar ante Pekín que cumplen una serie de requisitos de seguridad.

¿Qué pasa en Europa? En el Viejo Continente, la situación es más compleja. El tema avanza a otro ritmo y por múltiples flancos a la vez. Estas son ciertas claves del discute que se vive en la UE estos días:

¿De qué manera marcha ChatGPT?

ChatGPT4 es la última versión de un enorme modelo de lenguaje (LLM en sus iniciales inglesas). Ese es el nombre que reciben sistemas de inteligencia artificial, o más específicamente de aprendizaje profundo, entrenados con cantidades ingentes de datos (en un caso así, textos) para poder sostener diálogos con el usuario. El programa procesa millones de textos (en el caso de ChatGPT4, todo internet) y aplica una serie de algoritmos para intentar pronosticar cuál es la palabra que tiene más probabilidades de ocurrir a las precedentes en una oración congruente. Por ejemplo, si se teclea “el cielo es de color”, el sistema se ha entrenado leyendo los bastantes textos para poder decir “azul”.

El incremento de la potencia computacional de los últimos tiempos, la sofisticación de los algoritmos encargados de efectuar ese adiestramiento y las inmensas bases de datos empleadas en el proceso han logrado que la operación vaya mucho alén de pronosticar una palabra. ChatGPT, igual que otros modelos afines, es capaz de redactar textos enteros congruentes y sin faltas de ortografía. El algoritmo tiene presente ciento setenta y cinco mil millones de factores toda vez que se le elabora una pregunta. El resultado puede resultar pasmoso.

¿Qué amenaza supone para los usuarios?

El inconveniente de las contestaciones que aporta ChatGPT es que son congruentes, mas no necesariamente ciertas. Así lo advierte el propio programa conforme se inicia: “Puede generar ocasionalmente información incorrecta”, como “instrucciones dañinas o contenidos sesgados”. También se informa de que el sistema “tiene un conocimiento limitado del mundo después de 2021″, fecha hasta la que abarca la base de datos con la que se entrenó el modelo.

Además de la calidad de la información (o desinformación) que genera la herramienta, existe el miedo de que la creciente sofisticación del modelo (se acaba de presentar ChatGPT4 y ya se está trabajando en la versión 5) pueda acabar realizando el trabajo desempeñado hasta ahora por personas.

¿Qué se ha hecho hasta ahora en la UE?

La Agencia Española de Protección de Datos (AEPD) y sus homólogos europeos se reunieron este jueves en el Comité Europeo de Protección de Datos (EDPB por sus siglas inglesas), el organismo en el que coordinan fuerzas. Decidieron poner en marcha “un grupo de trabajo” para intercambiar información a este respecto. Las instituciones comunitarias no han adoptado ninguna medida específica con respecto a ChatGPT.

Quienes sí lo han hecho son ciertos países miembros. El último de ellos, España: la AEPD anunció el jueves por la tarde el “inicio de oficio de actuaciones previas de investigación” a OpenAI, la compañía que ha desarrollado ChatGPT. Según fuentes de la agencia, eso no implica que se vayan a tomar medidas contra la compañía, sino se está explorando si la situación “justifica la tramitación de un procedimiento”. Italia, por su lado, bloqueó hace un par de semanas la aplicación hasta resolver si viola la normativa europea de protección de datos. Las autoridades francesa, irlandesa y alemana asimismo estudian esa posibilidad.

Por otra parte, el comisario de Mercado Interior, Thierry Breton, adelantó la semana pasada que los contenidos creados por IA van a deber llevar una advertencia concreta de su origen. “En todo lo que sea generado por inteligencias artificiales, ya sean textos o imágenes, habrá una obligación de notificar que ha sido originado por estas”, apuntó.

¿Por qué se quiere regular?

Hasta el instante, la amenaza más inmediata sobre los intereses de los ciudadanos europeos se ha detectado en materia de privacidad. El propio ChatGPT informa a sus usuarios de que no introduzcan en el sistema “datos personales”. Pero eso no es suficiente.

Preguntadas sobre los motivos que le han llevado a comenzar “actuaciones previas de investigación”, fuentes de la AEPD afirman que no pueden descubrir detalles para no dañar la tramitación del expediente. Según especialistas consultados, las posibles infracciones de la normativa podrían tener que ver con el uso de las conversaciones que sostienen los usuarios de ChatGPT con la propia herramienta para adiestrarlo, como con una custodia de los datos personales y de pago de estos que no cumpla con todas y cada una de las garantías de seguridad demandadas en la UE.

¿De qué manera se quiere regular?

En Bruselas hay un discute de puertas adentro sobre cuál es la mejor manera de encarar la situación. La opinión mayoritaria es que la UE ya está (o va a estar) dotada de regulaciones suficientes para supervisar los posibles efectos desfavorables de la IA generativa.

La vanguardia de esta estrategia es el Reglamento Europeo de la IA (AI Act), un documento que se viene negociando desde dos mil diecinueve y cuyo texto terminante aún ha de ser aprobado por todas y cada una de las instituciones europeas. No se cuenta con que pueda entrar en vigor ya antes de finales del año próximo o aun de dos mil veinticinco. El texto clasifica las tecnologías dependiendo del peligro que ofrecen a los ciudadanos y asigna restricciones en consecuencia. Las más inofensivas puede operar sin inconvenientes, mas las de alto peligro están prohibidas. Entran en este último capítulo, por servirnos de un ejemplo, el uso de sistemas automatizados de reconocimiento facial en espacios públicos o los sistemas de puntuaciones de crédito social, algo que ya marcha en China.

Durante la presidencia rotatoria francesa de la UE se hizo la recomendación de que la IA generativa se incluyera en la categoría de alto peligro. “Me parece razonable, pero está habiendo mucha presión de las tecnológicas para que no se incluya ahí”, asegura a EL PAÍS un eurodiputado que ha participado en la negociación y redacción del boceto de reglamento de la IA.

Otro europarlamentario implicado asimismo en el proceso, el rumano Dragos Tudorache, afirmó esta semana en una conferencia que la contestación de la UE a los retos de ChatGPT se debería encaminar por el reglamento AI Act, y no a través del Reglamento General de Protección de Datos (RGPD), la normativa a la que se ha acogido Italia para prohibir la herramienta. “Estoy convencido de que necesitamos una respuesta unificada”, resaltó.

¿Hace falta una nueva normativa?

Fuentes de la Comisión estiman que el futuro reglamento de la IA “está diseñado a prueba de retos futuros”. Al regular los usos, no las tecnologías en sí, la normativa puede amoldarse a desafíos como la súbita explosión del fenómeno de la IA generativa, de cuya existencia somos absolutamente conscientes desde el lanzamiento en abierto de ChatGPT en el mes de noviembre del año pasado.

De pacto con este enfoque, la tecnología que está tras ChatGPT no se prohibiría salvo que se considerara de alto peligro. (*5*), apunta Jan Philipp Albrecht, presidente de la fundación alemana Heinrich Böll, vinculada a Los Verdes. “Ese es el problema que aparece ahora: si queremos regular con más fuerza la IA generativa, habría que introducir una categoría nueva que diga que la IA de propósito general se debe considerar de alto riesgo si puede interceder en campos de riesgo”, agrega. Eso es lo que desean eludir a toda costa las tecnológicas; para eso organizan asambleas con los legisladores europeos.

Adrian Cano

Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica. Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales,  es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.