A la carrera por conseguir dinero con la inteligencia artificial —desatada por las grandes tecnológicas— le prosigue ahora otra igual por regular estas herramientas. Sobre todo, por la opacidad en torno a las consecuencias de su uso y el origen de sus datos. Hace un par de semanas, Italia decidió bloquear el uso de ChatGPT por infringir la normativa de protección de datos y carecer de filtros para menores. Hoy, los gobiernos de las dos superpotencias, EE UU y China, anuncian pasos cara la regulación de estos programas basados en inteligencia artificial. La Administración de Joe Biden ha preparado un periodo de sesenta días para recoger ideas sobre de qué manera legislar contra los efectos no deseados de estos programas, que suponen un peligro en campos tan dispares como la privacidad, la desinformación o el mercado de trabajo. Por su parte, Pekín ha hecho pública una propuesta normativa que demandará a los distribuidores seguridad y legitimidad en estas aplicaciones.

El Departamento de Comercio de EE UU ha registrado una petición formal de propuestas sobre medidas de rendición de cuentas, adelanta el Wall Street Journal, que incluye si los nuevos modelos de inteligencia artificial potencialmente peligrosos deberían pasar por un proceso de certificación ya antes de su lanzamiento. “Es sorprendente ver lo que estas herramientas pueden hacer incluso en su etapa inicial”, explica en el diario estadounidense Alan Davidson, directivo de la Administración Nacional de Telecomunicaciones e Información. “Sabemos que debemos poner en marcha algunas medidas de protección para asegurarnos de que se utilicen de manera responsable”, agrega Davidson, al frente de la iniciativa.

La Administración del Ciberespacio de China ha dado a conocer asimismo este martes un proyecto de medidas para regular los servicios de inteligencia artificial generativa y aseguró que desea que las compañías presenten evaluaciones de seguridad a las autoridades ya antes de lanzar sus productos al público, conforme recoge Reuters. Las reglas redactadas por este regulador apuntan que los distribuidores van a ser responsables de la legitimidad de los datos empleados para adiestrar sus productos de inteligencia artificial generativa y que se deben tomar medidas para eludir la discriminación al diseñar algoritmos y adiestrar esos datos.

Además, este organismo asegura que China apoya la innovación en el campo de herramientas, mas que el contenido generado ha de estar on-line con los valores socialistas centrales del país. Este anuncio se genera una vez que un sinnúmero de gigantes tecnológicos chinos, incluidos Baidu, SenseTime y Alibaba, mostraran sus nuevas aplicaciones, que van desde chatbots hasta generadores de imágenes. Se suman así a compañías como Microsoft y Google, que ya desean integrar estas herramientas en sus servicios.

Dudas en Europa

Estos anuncios llegan mientras que múltiples gobiernos europeos están examinando de qué manera atenuar los riesgos de esta tecnología emergente, que ha disparado su popularidad entre los usuarios en los últimos meses tras el lanzamiento de ChatGPT, de la compañía OpenAI, apoyada en un inicio por Elon Musk y ahora impulsada por diez millones de dólares americanos de Microsoft. Bruselas desea que los contenidos generados por inteligencia artificial lleven una advertencia concreta, como anunció el comisario europeo de Mercado Interior, Thierry Breton: “En todo lo que sea generado por inteligencias artificiales, ya sean textos —todo el mundo conoce ahora ChatGPT— o imágenes, habrá una obligación de notificar que ha sido creado por una inteligencia artificial”.

Tras el bloqueo anunciado en Italia por el Garante para la Protección de Datos Personales, Francia, Irlanda y Alemania reconocieron contactos para examinar si proseguirían sus pasos. Los reguladores de privacidad en Francia e Irlanda se comunicaron con sus análogos en Italia para conseguir más información sobre los motivos de la prohibición y el comisionado alemán de protección de datos aseguró al periódico Handelsblatt que podría proseguir los pasos italianos y bloquear ChatGPT por el peligro para la seguridad de los datos.

Ahora, la Comisión Nacional de Informática y de las Libertades (el organismo para el control de la privacidad de Francia) ha hecho público que está estudiando múltiples protestas sobre ChatGPT. Mientras, la Agencia Española de Protección de Datos, como su análoga italiana, han pedido que se trate la posible regulación de sistemas de inteligencia artificial generativa en la asamblea de este jueves del Comité Europeo de Protección de Datos, el organismo en el que se regulan las agencias del ramo de los países miembros.

La polémica sobre las peligrosas capacidades de estas herramientas va alén del campo legislativo, como mostraron hace unas semanas más de mil especialistas que demandaban una moratoria de 6 meses en el desarrollo de estos programas. “Los laboratorios de inteligencia artificial han entrado en una carrera sin control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable”, advertía la carta.

Puedes proseguir a EL PAÍS Tecnología en(*8*) Facebook y Twitter o apuntarte acá para percibir nuestra newsletter semanal.

Juan Pablo Cortez

Bogotá (Colombia), 1989. Apasionado por la investigación y el análisis de temas de interés público. Estudió comunicación social en la Universidad de Bogotá y posteriormente obtuvo una maestría en periodismo investigativo en la Universidad de Medellín. Durante su carrera, ha trabajado en diversos medios de comunicación, tanto impresos como digitales, cubriendo temas de política, economía y sociedad en general. Su gran pasión es el periodismo de investigación, en el cual ha destacado por su habilidad para descubrir información relevante y sacar a la luz temas que a menudo se mantienen ocultos.