Un conjunto de seiscientos noventa y siete personas leyó doscientos veinte de tweets escritos por otros humanos y por el modelo de inteligencia artificial GPT-tres, el germen del presente éxito global ChatGPT. Tenían que adivinar dos cosas: uno, cuáles eran verdaderos y cuáles falsos y, dos, si habían sido escritos por una persona o por la máquina. GPT-tres ganó en los dos casos: engañó mejor que los humanos y asimismo engañó para hacer opinar que era otro humano quien escribía. “GPT-3 es capaz de informarnos y desinformarnos mejor”, concluyen los autores de un nuevo estudio, que termina de publicar la gaceta Science Advances.

“Fue muy sorprendente”, afirma Giovanni Spitale, estudioso de la Universidad de Zurich y coautor del artículo científico, al lado de su colega Federico Germani y Nikola Biller-Andorno, directiva del Instituto de Moral Biomédica de esa universidad suiza. “Nuestra hipótesis era: si lees un solo tuit, podría pasar como orgánico [escrito por una persona]. Pero si ves muchos, comenzarás a notar características lingüísticas que podrían usarse para inferir que podría ser sintético [escrito por la máquina]”, agrega Spitale. Pero no fue así: los humanos que leían no fueron capaces de advertir patrones en los textos de la máquina. Por si fuera poco, la progresiva aparición de modelos más nuevos y otros enfoques pueden aun progresar esa capacidad de la inteligencia artificial para suplantar a humanos.

Una escritura más clara

El nivel de escritura de ChatGPT-cuatro, la versión mejorada de GPT-tres, es casi perfecto. Este nuevo estudio es una prueba más para revisar que un humano es inútil de distinguirlo, ni tan siquiera viendo muchos ejemplos seguidos: “Los tuits verdaderos requerían de más tiempo para ser evaluados que los falsos”, afirma el artículo. La máquina escribe más claro, semeja. “Es muy claro, bien organizado, fácil de seguir”, afirma Spitale.

La consecuencia lógica de este proceso va a ser el creciente uso de esta herramienta para redactar cualquier clase de contenido, incluidas campañas de desinformación. Será la enésima muerte de internet: “La IA está matando la vieja internet, y la nueva no logra nacer”, titulaba esta semana The Verge, medio experto en tecnología. Los autores del estudio recién publicado apuntan a un motivo para esta derrota de la humanidad en internet: la teoría de la resignación. “Estoy completamente seguro de que será así”, afirma Spitale.

“Nuestra teoría de la resignación se aplica a la autoconfianza de las personas para identificar texto sintético. La teoría dice que la exposición crítica al texto sintético reduce la capacidad de las personas para distinguir lo sintético de lo orgánico”, explica Spitale. Cuanto más texto sintético leamos, más bastante difícil va a ser distinguirlo del escrito por personas. Es la idea opuesta a la de la teoría de la inoculación, agrega Spitale, que afirma que “la exposición crítica a la desinformación aumenta la capacidad de las personas para reconocer la desinformación”.

Si la teoría de la resignación se cumple, pronto los usuarios van a ser inútiles de distinguir en la red de redes qué ha sido escrito por un humano o por una máquina. En el artículo asimismo han probado si GPT-tres era bueno identificando sus textos. Y no lo es.

La máquina desobedece

La única esperanza a fin de que las campañas de desinformación no sean totalmente automáticas es que GPT-tres en ocasiones desacataba las órdenes de crear mentiras: depende de de qué manera ha sido entrenado cada modelo. Los temas de los doscientos veinte tweets utilizados en la prueba del artículo eran más bien tendentes a la polémica: cambio climático, vacunas, teoría de la evolución, covid. Los estudiosos verificaron que en ciertos casos GPT-tres no respondía bien a sus solicitudes de desinformación. Sobre todo en ciertos casos con más evidencia: vacunas y autismo, homeopatía y cáncer, terraplanismo.

A la hora de advertir falsedades, la diferencia entre los tweets escritos por GPT-tres y por humanos era pequeña. Pero para los estudiosos es significativa por dos motivos. Primero, el impacto que pueden tener aun pocos mensajes sueltos en muestras grandes. Segundo, la mejora en nuevas versiones de estos modelos pueden exacerbar las diferencias. “Ya estamos probando GPT-4 a través de la interfaz ChatGPT y vemos que el modelo está mejorando mucho. Pero debido a que no hay acceso a la API [que permite automatizar el proceso], no tenemos aún números para respaldar esta afirmación”, afirma Spitale.

El estudio tiene otras restricciones que pueden hacer cambiar de alguna forma la percepción al leer tweets falsos. La mayoría de participantes tenía más de cuarenta y dos años, se hizo solo en inglés y no tenía presente la información de contexto de los tweets: perfil, tuits precedentes. “Reclutamos a los participantes en Facebook porque queríamos una muestra de usuarios reales de las redes sociales. Sería interesante replicar el estudio reclutando participantes a través de TikTok y comparar resultados”, aclara Spitale

Pero alén de estas restricciones, hay campañas de desinformación que hasta el momento eran enormemente costosas y que de pronto se han vuelto asumibles: “Imagina que eres un poderoso presidente con interés en paralizar la salud pública de otro Estado. O que quieres sembrar la discordia antes de unas elecciones. En lugar de contratar una granja de troles humanos, podrías usar IA generativa. Tu potencia de fuego se multiplica al menos por 1.000. Y ese es un riesgo inmediato, no algo para un futuro distópico”, afirma Spitale.

Para evitarlo, los estudiosos ofrecen en su artículo como solución que las bases de datos para adiestrar estos modelos “estén regulados por los principios de precisión y transparencia, que su información deba estar verificada y su origen debería ser abierto al escrutinio independiente”. Si esa regulación ocurre o no, va a haber consecuencias: “Que la explosión de texto sintético sea también una explosión de desinformación depende profundamente de cómo las sociedades democráticas logren regular esta tecnología y su uso”, advierte Spitale.