La imagen generada por inteligencia artificial generativa de papa Francisco. No es una foto verdadera.
La imagen generada por inteligencia artificial generativa de papa Francisco. No es una fotografía auténtica.Pablo Xavier vía Midjourney

“Ya no puedes creer en NADA que provenga de un dispositivo digital. Contrástalo todo”, afirma el cronista Robert Scoble en un tuit que acompaña a una presunta imagen de Elon Musk cogiendo la mano de la política estadounidense Alexandria Ocasio-Cortez, famosa como AOC. Es uno de los múltiples mensajes de alarma que se han visto en unos días llenos de fakes en internet. Imágenes de Donald Trump detenido y su ocasional escapada de la prisión y del papa Francisco con un complejo abrigo de plumas de Balenciaga, las imágenes falsas e hiperrealistas que circulan en las redes desde la semana pasada han mostrado que la información entra en una nueva era.

La inteligencia artificial (IA) generativa ya está suficientemente desarrollada para hacernos caer, por lo menos a simple vista, en unos bulos que hasta prácticamente nada requerían de tecnologías complejas y usuarios especialistas en manipulación digital. Hoy, prevenir que seamos engañados por las pantallas va a ser poco a poco más bastante difícil, conforme los especialistas. El blockchain se presenta como una solución compleja y en un largo plazo, mas por el momento no hay más que un antídoto de toda la vida: revisar las fuentes, estar al loro a los detalles y dudar de todo.

No es la primera vez que las imágenes generadas por la herramienta de IA Midjourney se han vuelto virales, mas ninguna se ha difundido tanto como el Papa de Balenciaga. Primero, por el hecho de que semeja considerablemente más creíble que el resto supuestos de personas que tenían un aspecto artificial, tal y como si fuera de un juego para videoconsolas o con muchos filtros. También por el hecho de que el contexto que rodea al pontífice puede suponer que quizás se vestiría de tal modo.

Sin embargo, al hacer zoom, se puede apreciar el tamaño de la oreja, la mano cortada que no está completamente sujetando la taza de café, la deformidad de las lentes o el crucifijo donde no se ve a Jesucristo cincelado y sin una parte de la cadena que lo mantiene. Estos detalles señalan que no es una foto real, sino matizan los fallos de la IA: una herramienta que conoce bien la superficie de la realidad, mas no de qué forma interaccionan los objetos físicos ni todas y cada una de las peculiaridades del cuerpo humano. Al menos por el momento.

Aun así, son factores que pasan inadvertidos, especialmente si se está escroleando rápido y en el formato del móvil. En ciertas imágenes del falso arresto de Trump, que circularon en las redes unos días ya antes, las patentizas de que se trata de un fake fueron más notables. El primer aspecto asimismo es contextual: la detención del expresidente estadounidense sería portada en los grandes medios, y no lo fue. Segundo, como ya habían afirmado ciertos artistas, las herramientas generativas carecen de la habilidad de representar detalles del cuerpo humano, especialmente las manos. En ciertas imágenes de Trump, las proporciones de su cuerpo pueden verse distorsionadas o aun fundidas y hay un aspecto turbio. En otras, se observan textos distorsionados.

Pero estas herramientas mejoran y es cuestión de tiempo que dejen de fallar en esos detalles y pasen a crear imágenes falsas que semejan extremamente reales, conforme los especialistas. La nueva versión del Midjourney ya es capaz de producir manos humanas realistas, suprimiendo lo que hasta el momento era la manera más simple de identificar una imagen artificial.

La velocidad a la que se generan las mejoras es lo que produce inquietud. Elena Verdú, miembro del conjunto de investigación Inteligencia Artificial y Robótica de la Universidad Internacional de La Rioja, ha explicado a Maldita.es que solo un mes basta para que queden obsoletas ciertas de estas recomendaciones para identificar a imágenes falsas. Estamos frente a una preocupación colectiva sobre el poder que esas herramientas ejercitan sobre la sociedad. Tanto es así, que especialistas en inteligencia artificial demandaron el miércoles en una carta abierta que se frenase 6 meses la “carrera sin control” de los ChatGPT, que asimismo emplea IA generativa.

El cronista Robert Scoble explica en el tuit otras formas de poder identificar los deepfakes. Lo primero es contrastar con múltiples fuentes, de buena reputación, y contrastar su verosimilitud. También valorar el contexto. “Use el pensamiento crítico: analice la información que recibe y considere el contexto, la consistencia y la lógica detrás de ella”, sugiere el creador.

Cuando el contenido se viraliza, asimismo sirve revisar lo que se puede ver en la red. Google, por servirnos de un ejemplo, da una herramienta de busca inversa de imágenes, dónde es posible cargar una fotografía y examinar dónde ya se ha compartido y qué afirma la gente a este respecto. Si una fotografía aparentemente tomada por un fotoperiodista fue publicada por vez primera por ignoto anónimo en las redes, es una enorme razón para sospechar.

En Twitter asimismo existe la opción de calificar un contenido como falso, si bien es preciso que bastante gente lo haga a fin de que haya un alarma en la publicación. Según recopila la gaceta Times, hay un abanico de software en el mercado que afirma ser capaz de advertir a los deepfakes. Sin embargo, hay pocas herramientas gratis y fiables, o que no están libres para el usuario final. Uno de los detectores, que está alojado en la plataforma de IA Hugging Face, pudo decir “con un 69% de certeza” que la imagen del Papa fue generada por IA. Pero cuando se le presentó la supuesta imagen de Musk con OAC, la herramienta falló al responder que la fotografía era cincuenta y cuatro% auténtica.

Otros especialistas charlan de de qué forma el blockchain podría asistir a combatirlos. Conocida por ser la tecnología tras las criptomonedas como Bitcoin, el Fórum Económico Mundial apuntó su capacidad de suministrar una validación de la autenticidad y una cadena de custodia clara que “la hace potencialmente eficaz” para rastrear y revisar todo género de contenido, no solo financieros. La clave es que esta tecnología tiene un mecanismo que no deja la perturbación del mensaje, ni del instante de publicación o el origen. Pero no es una solución para el presente: de la teoría a la práctica, aún queda un largo recorrido.

El artículo apunta que el blockchain asimismo tiene sus restricciones. Mientras que es capaz de contrastar la existencia de un documento, no puede probar la propiedad intelectual, por servirnos de un ejemplo. Además, a fin de que sea verdaderamente eficaz para el usuario final, va a deber integrarse en los chips que nutren los teléfonos inteligentes y los ordenadores. Algo que depende asimismo de una cohesión entre las comunidades internacionales, los gobiernos, las compañías y la sociedad civil para dar forma a un modelo de gobernanza al consumo de contenido digital.

Puedes continuar a EL PAÍS Tecnología en Facebook y Twitter o apuntarte acá para percibir nuestra newsletter semanal.


Articulo original de El País

ElPaís