La inteligencia artificial generativa, que ha dado lugar a avances como ChatGPT, también tiene un lado oscuro. En la denominada dark web se promociona FraudGPT, una versión maliciosa de ChatGPT, capaz de crear mensajes fraudulentos, malware e identificar sitios vulnerables para cometer fraude, según Netenrich. Otros programas como WormGPT también son utilizados por ciberdelincuentes para facilitar sus fechorías. Además de generar estafas sofisticadas, esta tecnología puede ser utilizada para crear pornografía no consentida, campañas de desinformación e incluso armas bioquímicas.

Según Josep Albors, director de investigación y concienciación de ESET en España, los delincuentes aprovechan la inteligencia artificial generativa para elaborar campañas de phishing cada vez más sofisticadas, generar desinformación y crear deepfakes. Esta tecnología ha evolucionado al punto de permitir a los atacantes crear correos electrónicos convincentes en múltiples idiomas y personalizados para cada destinatario, lo que dificulta su detección.

Fernando Anaya, country manager de Proofpoint, señala que la inteligencia artificial generativa ha simplificado el engaño a través de correos electrónicos, ya que ahora basta con solicitar a estas herramientas la generación de un email urgente y convincente para actualizar información bancaria, entre otros temas. Esta tecnología permite la creación de campañas maliciosas dirigidas a empleados de organizaciones, escrito en un impecable inglés u holandés y adaptado a los intereses específicos de cada destinatario.

Aunque la implementación de estas técnicas maliciosas aún no está generalizada, herramientas como FraudGPT o WormGPT plantean un serio problema de seguridad en el futuro, ya que permiten a delincuentes sin experiencia técnica preparar campañas maliciosas con altas probabilidades de éxito, lo que aumenta la cantidad de amenazas a las que usuarios y empresas deben hacer frente.

Generación de audio, imágenes y vídeos

La inteligencia artificial generativa no se limita a la generación de mensajes de texto. También se utiliza para crear audios convincentes, lo que aumenta la persuasión de las estafas. Las estafas conocidas como “carnicería de cerdos” podrían evolucionar de mensajes a llamadas, mejorando su capacidad para convencer a las víctimas. Además, ciberdelincuentes ya emplean esta tecnología para engañar a funcionarios gubernamentales y realizar videollamadas que simulan ser personas reales, como revela la investigación de Proofpoint sobre el grupo TA499.

La inteligencia artificial generativa también se utiliza para crear imágenes y videos falsos, como deepfakes de presentadores de televisión y figuras públicas, que suelen ser utilizados para promocionar inversiones en criptomonedas, lo que suele terminar en la pérdida del dinero invertido.

De pornografía a armas bioquímicas

El uso de la inteligencia artificial generativa para crear pornografía no consentida es especialmente alarmante, ya que afecta principalmente a mujeres y puede causar graves daños personales y profesionales. Además, esta tecnología se ha empleado para crear imágenes falsas con el fin de influir en la opinión pública y los resultados de las elecciones, así como para difundir desinformación a gran escala. Incluso se la ha relacionado con la creación de campañas de desinformación sobre incendios forestales, en las cuales se incluyeron imágenes aparentemente generadas con inteligencia artificial.

Según un artículo publicado en la revista Nature Machine Intelligence, los modelos avanzados de inteligencia artificial podrían contribuir a la creación de armas bioquímicas, lo que representa un peligro global. Esta tecnología también podría infiltrarse en el software de infraestructuras críticas, lo que las hace difíciles de predecir y contrarrestar con las leyes y regulaciones existentes, según explica el catedrático Philipp Hacker.

El desafío de prevenir los riesgos de FraudGPT y otras herramientas

Existen soluciones que utilizan aprendizaje automático y otras técnicas para detectar y bloquear los ataques más sofisticados. Sin embargo, según Fernando Anaya, es fundamental educar y concienciar a los usuarios para que puedan reconocer correos electrónicos de phishing y otras amenazas. Por su parte, Philipp Hacker destaca la importancia de combinar medidas regulatorias, soluciones tecnológicas y directrices éticas para mitigar los riesgos asociados con el uso malicioso de la inteligencia artificial generativa. Entre estas medidas, menciona la implementación de equipos independientes que prueben estas herramientas para identificar vulnerabilidades y posibles usos indebidos, así como la prohibición de ciertos modelos de código abierto.

Mantente actualizado de las noticias en nuestro Twitter Forbes Hispano e Instagram Forbes Hispano