Un sistema inteligente, que comprende de manera perfecta el lenguaje natural, se alimenta inmediatamente de una cantidad ingente de datos y tiene contestación prácticamente para cualquier pregunta. ChatGPT es tan bueno —sobre todo en su última versión, GPT-4— que han bastado unos poquitos meses a fin de que saltaran las alarmas: ¿Hasta dónde puede llegar su repercusión? Alén de debates morales, la otra gran inquietud que lúcida ChatGPT es su poco transparente administración de la información que procesa.

“No sabemos lo que hace realmente con los datos”, advierte Borja Adsuara, letrado especialista en derecho digital, “y no saber qué hacen con los datos ya es en sí mismo un riesgo”. De exactamente la misma opinión es Federico Vadillo, especialista en seguridad de Akamai: “El uso de ChatGPT presenta riesgos en términos de protección de datos y cumplimiento normativo, especialmente en relación con el Reglamento General de Protección de Datos, el RGPD”. Este especialista va más lejos al advertir que estos datos personales “no autorizados”, podrían “ser transferidos fuera de la Unión Europea”.

La aventura de quitar los datos personales

“Los sistemas basados en inteligencia artificial (IA) se suelen comportar como una caja negra: sabemos lo que ocurre al final del proceso, pero no conocemos cómo el software aprende y toma decisiones”, alarma Adrián Moreno, especialista en ciberseguridad. “Este fenómeno plantea desafíos de comprensión, control y ética. Es por ello que conviene establecer un marco regulatorio de cara a abordar estos desafíos para permitir un desarrollo y uso responsable y seguro de la IA”, agrega.

Moreno recuerda que “el artículo 15 del RGPD establece que ‘el interesado tendrá derecho a obtener del responsable del tratamiento confirmación de si se están tratando o no datos personales que le conciernen’”, y en este sentido, la manera en la que los sistemas basados en IA emplean la información es “fuente de preocupación”.

Ante esta realidad, ¿de qué manera quitar toda la información personal? La mala nueva es que no existe ninguna forma automatizada ni inmediata de quitar la información guardada. Esto es, las conversaciones que se sostengan con el sistema, quedan registradas, así como el nombre del usuario y sus datos de registro, como anuncia la política de privacidad de la compañía. Como no hay una forma inmediata ni automatizada de acceder y quitar la información que se consulta, OpenAI ha preparado un formulario que el interesado debe rellenar para pedir la información de los datos. Y acá viene lo preocupante: el usuario se ve forzado a admitir una cláusula en la que OpenAI advierte que es posible que no sea capaz de quitar esta información.

Esto es, tras llenar un complejo formulario, en el que se pruebe de forma fehaciente (aun con capturas) que el sistema ofreciendo información de uno mismo y los motivos por los cuales se pide su supresión. Este documento ha de ser cumplimentado con los datos reales del interesado, quien, además de esto, debe “jurar” por escrito la veracidad de lo que expone. Y para empeorar más, si cabe, las cosas, en este formulario se comunica al usuario que la información cumplimentada podría ser cotejada con otras fuentes para contrastar su veracidad.

¿Qué se hace y de qué manera se emplea esta información? OpenAI mantiene que no explota los datos personales con otros fines que no sean la mejora de sus sistemas, mas, por otra parte, en su política de privacidad advierte que los datos pueden ser “cedidos a terceros sin avisar al usuario”. En terminante, OpenAI ofrece un producto de un elevado valor añadido mas a un costo aún superior para el usuario: la ignorancia sobre el tratamiento de sus datos. Cabe rememorar, además de esto, que con la información que se consulta a ChatGPT es simple hacer un perfil como usuario y muy tentador hacer una explotación del mismo. Ante esta disyuntiva, y si no se desean aceptar peligros, lo más prudente es hacer un uso siendo consciente de lo que se consulta o, siendo más radicales, no emplear la herramienta hasta el momento en que no se acoja a normativas como el RGPD: “Lo mejor que no introducir información personal, por si acaso”, aconseja Adsuara.

Adrian Cano

Santander (España), 1985. Después de obtener su licenciatura en Periodismo en la Universidad Complutense de Madrid, decidió enfocarse en el cine y se matriculó en un programa de posgrado en crítica cinematográfica. Sin, embargo, su pasión por las criptomonedas le llevó a dedicarse al mundo de las finanzas. Le encanta ver películas en su tiempo libre y es un gran admirador del cine clásico. En cuanto a sus gustos personales,  es un gran fanático del fútbol y es seguidor del Real Madrid. Además, ha sido voluntario en varias organizaciones benéficas que trabajan con niños.