La veloz evolución de las nuevas tecnologías hace que, cada vez con más frecuencia, sea prácticamente imposible distinguir si un contenido ha sido generado por un humano o por una máquina. Italia termina de prohibir el uso de ChatGPT aduciendo que no cumple la normativa europea de protección de datos, mas los peligros de estas y otras nuevas tecnologías generativas pueden ser más complejos aún. Bruselas desea cerciorarse de que haya la confusión mínima posible y, para esto, recuerda que busca, entre otros muchos, que todo contenido generado por inteligencia artificial (IA) esté, de forma obligatoria, adecuadamente advertido.

“En todo lo que sea generado por inteligencias artificiales, ya sean textos —todo el mundo conoce ahora ChatGPT— o imágenes, habrá una obligación de notificar que ha sido creado por una inteligencia artificial”, ha dicho este lunes el comisario de Mercado Interior, Thierry Breton, en la transmisora gala Franceinfo. El alto responsable europeo ha recordado a este respecto que el Ejecutivo europeo presentó, hace ahora prácticamente precisamente un par de años, una propuesta de reglamento sobre inteligencia artificial que busca “proporcionar a los desarrolladores, implementadores y usuarios de IA requisitos y obligaciones claros en relación con los usos específicos de la IA”, conforme resume la propia Comisión su propuesta.

Breton, que ha subrayado que, de aprobarse, los europeos van a ser “los primeros” en plantear una legislación de este género, ha manifestado su esperanza de que el texto sea votado y aprobado este mes en el Parlamento Europeo, requisito imprescindible a fin de que avance la normativa y pueda ser adoptada por los Veintisiete cuanto antes. Según fuentes parlamentarias, la Eurocámara tiene en su agenda la presentación del plan y su votación en el pleno en la última semana de abril. Si se cumple este calendario, podría lograrse la meta del comisario francés, responsable entre otros muchos de acrecentar la soberanía tecnológica europea y de la aplicación de las reglas para regular este amplio campo, que desea que el reglamento pueda entrar en vigor en dos mil veinticinco.

Los veloces avances de la IA preocupan desde hace cierto tiempo a Europa. De hecho, cuando Bruselas presentó la propuesta de reglamento, en el mes de abril de dos mil veintiuno, no se habían desarrollado aún en su esplendor las herramientas basadas en IA generativa, capaz de crear textos, imágenes o música desde una serie de instrucciones que ha alcanzado su expresión máxima —por ahora— con ChatGPT.

La propuesta europea de reglamento —legislación que se aplica de manera directa en los Veintisiete, sin precisar transponerlo a la normativa nacional— prevé 4 géneros de “riesgos”: en lo más alto está el “inaceptable” y, por consiguiente, prohibido, categoría en la que entran las aplicaciones que dejan, como en China, el llamado social scoring, el sistema de puntuación social que determina la verosimilitud o reputación de una persona conforme con múltiples factores, incluidos datos o actividades en internet. Le prosigue el “alto riesgo”, en donde entran tecnologías como la herramienta de escaneo de CV para valorar y jerarquizar a demandantes de empleo o ciertas aplicaciones médicas, que habrán de estar sostienes a ciertos requisitos legales. Una tercera categoría sería la de “IA con obligaciones específicas de transparencia”, en la que se incluyen los bots de suplantación como sería ChatGPT (si bien sin mención concreta a este, que aún no existía) y, por último, aquellos de peligro “mínimo o inexistente” que van a ser tolerados sin limitación alguna.

El recordatorio de Breton sobre la necesidad de advertir meridianamente de que un contenido ha sido generado por una IA se aplica tanto para la categoría de peligro “alto” como la tercera, que demanda obligaciones concretas (las dos categorías no son mutuamente excluyentes, resalta la Comisión). En específico, las tecnologías que entren en estas categorías van a deber avisar a los usuarios que están interaccionando con un sistema de IA, a menos que sea algo evidente, como si se les aplican sistemas de reconocimiento sensible o clasificación biométrica. Además, los llamados deep fakes (contenido que imita la voz o apariencia de una persona) van a deber tener una etiqueta notificando de ello.

El último ejemplo de lo simple que es mentir a medio planeta (o más) con un contenido creado por IA se generó este fin de semana, cuando se hizo viral una fotografía del papa Francisco vestido con un gabán blanco de plumas de Balenciaga, que resultó un deep fake efectuado con la herramienta de inteligencia artificial generativa Midjourney. Su autor es un trabajador de la construcción de Chicago de treinta y uno años que, conforme declaró a la publicación BuzzFeed, solo procuraba “divertirse haciendo arte psicodélico”.

Poco ya antes, la semana pasada, la alarma brotaba de los propios generadores de este género de tecnologías y contenidos: más de mil empresarios, intelectuales e estudiosos de primer nivel relacionados con la IA generativa firmaron una carta abierta en la que piden una moratoria de 6 meses en el desarrollo de esta tecnología para reflexionar sobre sus consecuencias. Entre los signatarios figura Elon Musk, dueño de Twitter, mas asimismo creador de OpenAI, la compañía que ha desarrollado ChatGPT.

Puedes proseguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte acá para percibir nuestra newsletter semanal.


Articulo original de El País

ElPaís