Cuando una página publica artículos de forma masiva, buscando ingresos al peso por publicidad, se la llama granja de contenido. Existen desde hace unos años, seguramente desde el instante en que alguien vio que había negocio en crear contenido de forma económica, cuanto más mejor, para rentabilizarlo con anuncios servidos a través de plataformas automáticas, como Google AdSense. Con las inteligencias artificiales generativas de texto, como ChatGPT o Google Bard, esta activa adquiere una escala industrial.

Un estudio de la plataforma de monitorización de desinformación NewsGuard ha comprobado que cada vez existen más granjas de contenido que emplean inteligencias artificiales generativas. Estos sitios se alimentan de artículos creados por chatbots y, supuestamente, carecen de un trabajo editorial de apoyo. Sus cifras son astronómicas. En la semana del pasado nueve de junio, una de las webs examinadas, world-today-news.com, publicó en torno a ocho mil seiscientos artículos, esto es, una media de mil doscientos artículos al día. Otras dos páginas que estaban en el radar de NewsGuard publicaron seis mil ciento ocho y cinco mil ochocientos sesenta y siete publicaciones a lo largo de esa semana.

“Lo que está claro es que están utilizando IA para generar contenido clickbait de baja calidad”, asevera McKenzie Sadeghi, analista senior en NewsGuard. “Estas webs usan la tecnología para producir artículos de forma más rápida pero también de forma más barata”. Sadeghi se refiere a que las personas prácticamente han desaparecido de la ecuación: “Antes estas páginas web tenían un equipo de colaboradores humanos, freelance a los que pagaban por escribir contenido. Ahora no parece que haya ni siquiera mucha supervisión humana”, agrega la especialista.

Por eso estas granjas de contenido publican aun los mensajes de fallo de los chatbots tal y como si fuesen titulares de noticias, y estas pistas han guiado a los estudiosos para advertir el contenido escrito con IA. En su busca, los analistas de NewsGuard se han encontrado con oraciones como “Lo siento, soy un modelo de lenguaje IA, no puedo acceder a enlaces externos ni páginas web por mi cuenta”; u otros mensajes más inquietantes: “Lo siento, no puedo cumplir con esta instrucción porque va en contra de mis principios éticos y morales”. El que no haya absolutamente nadie que borre estos mensajes señala el grado de automatización de estas webs.

Las granjas de contenido están estimuladas para crear artículos a discreción. Cuantos más publiquen, más visitas atraerán a sus webs y más usuarios van a hacer click en los anuncios que tienen. NewsGuard verificó que más del noventa% de esta publicidad se sirve con Google Ads, cuyo algoritmo pone anuncios de manera automática en las páginas adscritas a la plataforma. A esta plataforma promocional asimismo se apuntan de manera voluntaria los anunciantes y sus mensajes pueden finalizar en estas granjas de contenido. Entre mayo y junio, los analistas identificaron trescientos noventa y tres anuncios de ciento cuarenta y uno marcas de gran relevancia en cincuenta y cinco páginas de este estilo.

“Google no tiene una política que prohíba el contenido generado con IA, pero sí tienen una política que prohíbe el contenido que tiende al spam y de baja calidad, que esencialmente es lo que ofrecen estas páginas”, comenta Sadeghi. El gigante estadounidense ingresó en dos mil veintidos la friolera de doscientos veinticuatro mil cuatrocientos setenta millones de dólares americanos por publicidad, conforme datos de Statista. Aunque solo una parte reducida de esta cantidad es atribuible a los anuncios automáticos, puesto que la mayoría de la facturación procede de la publicidad en buscas.

Un mensaje de fallo de una inteligencia artificial generativa publicado en una granja de contenido, sin supervisión humana.

El uso de inteligencias artificiales generativas en las granjas de contenido medra de manera rápida. “Estamos descubriendo entre 25 y 50 sitios a la semana de este tipo. A principios de mayo, identificamos 49 webs y ahora ya tenemos 277 webs en la lista. Algunas son nuevas y otras ya existían desde hace años y ahora están empezando a usar inteligencia artificial”, apunta la analista senior.

La mayoría de los sitios analizados por NewsGuard, con anuncios de marcas relevantes, no propagan noticias falsas. En ocasiones entran en el terreno de la desinformación, con titulares como ¿Puede el limón sanar la alergia en la piel? o Cinco antídotos naturales para trastorno de déficit de atención. Pero, por norma general, solo se les puede atribuir su baja calidad, de forma frecuente con contenido copiado.

El genuino inconveniente viene de la combinación de las inteligencias artificiales generativas con la desinformación. En España, el estudioso del CSIC David Arroyo, que trabaja en detección de fake news, vincula las IA con una mayor capacidad de fabricar noticias falsas: “El fenómeno de la desinformación va a aumentar, sin ningún género de dudas, por el hecho de que existan estas herramientas”, asevera rotundamente.

Munición para la desinformación

Un artículo de la revista Nature ya alertaba, en el año dos mil diecisiete, del vínculo entre las noticias falsas y la publicidad automática. Sostenía que la mayor parte de las noticias falsas que se crearon a lo largo de la campaña electoral estadounidense de dos mil dieciseis no tenían motivos políticos detrás, sino más bien un incentivo económico. “Ya se hablaba de todo el ecosistema de anunciantes vinculado a la creación de dominios para contenidos inventados y su distribución. Con estas herramientas de IA todo se amplifica, porque la capacidad de crear contenido verosímil de forma artificial se ha incrementado sobremanera”, explica Arroyo.

Desde el CSIC han detectado que la desinformación ha aumentado en los últimos meses, si bien Arroyo no lo atribuye todo a la IA: “Sería difícil aislar una única causa. Hay que tener en cuenta que en España llevamos desde mayo en procesos electorales, y a esto se suman todos los elementos de distorsión de los movimientos rusos relacionados con la guerra en Ucrania”, agrega.

Hace unos meses, NewsGuard hizo una investigación sobre ChatGPT, en sus versiones tres con cinco y cuatro, para valorar su potencial como inventor de noticias falsas. “Los chatbots eran capaces de crear desinformación sobre temas como la política, la salud, el clima o cuestiones internacionales”, resalta Sadeghi. “El hecho de que sean capaces de producir esa desinformación, cuando alguien les guía, demuestra cómo las defensas de estos modelos pueden manipularse fácilmente”, apunta la analista de NewsGuard. Y a esto se une su pasmosa capacidad de generar contenido de forma industrial.