Imagen del logo de ChatGPT en una pantalla.
Imagen del logotipo de ChatGPT en una pantalla.STEFANI REYNOLDS (AFP)

Italia ha dado un paso para poner cerco a la inteligencia artificial. En pleno apogeo de esta tecnología, Roma ha bloqueado este viernes, “con efecto inmediato” la herramienta ChatGPT, el chatbot inteligente capaz de simular y procesar conversaciones humanas y que pertenece a la tecnológica estadounidense OpenAI, a la que el país trasalpino acusa de no respetar la ley de protección de datos de los usuarios. La suspensión se va a levantar cuando pruebe que cumple la normativa italiana sobre privacidad.

El Garante italiano para la Protección de Datos Personales, una autoridad administrativa independiente que candela por la protección de datos de los usuarios y usuarios, estima que la plataforma recoge datos de los usuarios de forma ilegal y ha abierto una investigación para aclarar el funcionamiento preciso de esta herramienta y determinar si ha cometido una infracción.

El organismo italiano asegura que este chat, el más conocido de la emergente inteligencia artificial generativa, padeció el pasado veinte de marzo una pérdida de datos (o violación de datos) sobre sus usuarios y las conversaciones que sostienen con la máquina y la información de pago de sus abonados.

El Garante italiano ha criticado, mediante un comunicado, “la falta de información a los usuarios y a todas las partes interesadas” sobre el proceso de recogida y administración de datos privados de la plataforma. Y demanda “la ausencia de base jurídica que justifique la recogida y almacenamiento masivos de datos personales con el fin de ‘entrenar’ los algoritmos que gestionan el funcionamiento de la plataforma”.

La autoridad italiana aduce, basándose en “las comprobaciones efectuadas” que la información facilitada por ChatGPT “no siempre se corresponde con los datos reales”, lo que conforme el garante “da lugar a un tratamiento inexacto de los datos personales”.

Por último, Italia lamenta “la ausencia de todo tipo de filtro” en la verificación de la edad de sus usuarios, pese a que el servicio esté dirigido a mayores de trece años. Y censura “la exposición de los menores a respuestas totalmente inadecuadas con respecto a su nivel de desarrollo y autoconocimiento”.

Italia ha pedido a OpenAI que comunique en un plazo de veinte días las medidas adoptadas para dar cumplimiento a la solicitud del Garante o, en caso contrario, va a poder enfrentar una sanción de hasta veinte millones de euros o hasta el cuatro% del volumen de negocios anual global.

Guido Scorza, miembro del consejo de la autoridad de protección de datos, ha censurado en una entrevista con el diario La Repubblica “la falta de información sobre el tratamiento de los datos personales de los usuarios” que ofrece la compañía estadounidense. Y ha hablado de los peligros que suponen este género de herramientas: “Con ChatGPT y los chatbots mantenemos conversaciones, y en estas conversaciones a menudo tendemos a compartir gran parte de nuestras vidas. Puedes preguntar cuándo nació Paolo Rossi y obtener una respuesta. Esto son datos personales. Cada pregunta sobre la vida de las personas es un tratamiento de datos. Por no hablar de los que trata erróneamente”, señala. Y pone un ejemplo: “Si le pregunto al chatbot cuándo se afilió Guido Scorza al colegio de Garantes de la Privacidad me dice que en 2016. Pero yo me colegié en 2020. Además de tratamiento de datos ilícito, se da el caso de que el tratamiento en muchos casos es inexacto”.

Scorza asegura que Italia ha actuado de forma autónoma, pues OpenAI no tiene sede en Europa, por lo que queda fuera de los procedimientos de colaboración de la UE, mas auspicia “un debate a nivel europeo para ver si se puede cooperar y actuar conjuntamente y cómo”.

El uso de la inteligencia artificial es cada vez más usual y por este motivo la Unesco ha urgido a los países que apliquen “sin demora” el Marco Ético Mundial sobre esa tecnología, que los ciento noventa y tres Estados miembros adoptaron de manera unánime en dos mil veintiuno y que contiene orientaciones para aumentar al máximo las ventajas de la IA y reducir los peligros que esta acarrea. “El mundo necesita normas éticas más estrictas para la inteligencia artificial: este es el gran reto de nuestro tiempo”, ha señalado la directiva general de la Unesco, Audrey Azoulay.

Hace unos días, el creador y millonario dueño de Tesla, Elon Musk, y más de mil estudiosos tecnológicos, entre aquéllos que se hallan, entre otros muchos, el cofundador de Apple, Steve Wozniak; Jaan Tallin, cofundador de Skype, aparte de ingenieros de Meta o Microsoft hicieron un llamamiento para frenar el desarrollo de inteligencias artificiales avanzadas a lo largo de por lo menos 6 meses. Señalan que el fin es frenar lo que han llamado “una peligrosa carrera que está llevando al desarrollo de modelos más impredecibles y con capacidades cada vez mayores”. “Los sistemas de inteligencia artificial pueden suponer un profundo riesgo para la sociedad y la humanidad. Por desgracia, no se está desarrollando con el nivel de planificación y cuidado adecuado”, apuntan en su misiva.

En Estados Unidos múltiples organizaciones han pedido asimismo la suspensión de ChatGPT por sospechar de estos ensayos con inteligencia artificial.

Puedes proseguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte acá para percibir nuestra newsletter semanal.


Articulo original de El País