La inteligencia artificial (IA) está alcanzando nuevos niveles de autonomía, convirtiéndose en una herramienta potente y multifuncional. Los agentes, modelos que no solo responden preguntas, sino que también planifican y ejecutan tareas en nombre del usuario, están en el centro de esta evolución. Sin embargo, esta capacidad también ha despertado el interés de actores maliciosos que la utilizan para llevar a cabo ataques sofisticados, masivos y, sobre todo, económicos.
Un Ataque Cibernético Sin Precedentes
Anthropic, una innovadora empresa estadounidense fundada por ex-miembros de OpenAI y dirigida por Dario Amodei, ha alertado sobre lo que consideran el primer ataque cibernético a gran escala ejecutado sin una intervención humana significativa. Según un reciente informe de la compañía, este asalto ha sido atribuido a un grupo patrocinado por el Estado chino. La alerta sobre esta actividad sospechosa se emitió a mediados de septiembre.
Los atacantes, utilizando la capacidad «agéntica» de la IA, no solo asistieron en la planificación, sino que ejecutaron los ciberataques de forma autónoma. Anthropic identificó que esta intrusión se centró en infiltrarse en aproximadamente 30 objetivos de alto perfil, como grandes empresas tecnológicas y agencias gubernamentales, logrando penetrar con éxito en unos pocos de ellos.
Un Análisis Exhaustivo Post-Ataque
Tras la detección del ataque, Anthropic inició una investigación que duró más de diez días. Durante este proceso, se evaluó el alcance del ataque, se bloquearon las cuentas de IA comprometidas y se notificó a las autoridades pertinentes y a las organizaciones afectadas. Los atacantes aprovecharon las capacidades avanzadas de la IA para recopilar contraseñas y datos, analizando la información según sus objetivos específicos.
“La IA ahora puede buscar en la web, extraer datos y realizar diversas acciones que antes eran exclusivas de los operadores humanos”, explica Anthropic. Además, los atacantes utilizaron la función de codificación de la IA para desarrollar sus propios programas de espionaje y sabotaje.
Ingenuidad Maliciosa
Utilizando su propia plataforma de IA, Claude, que incorpora salvaguardias para prevenir su abuso, los atacantes lograron engañar el sistema. Fragmentaron los ataques en tareas más pequeñas que parecían inofensivas, lo que les permitió eludir los mecanismos de seguridad. Hicieron creer a Claude que sus acciones eran parte de pruebas defensivas legítimas, logrando que la IA actuara de forma autónoma en más del 90% de las ocasiones. La intervención humana fue mínima, apenas entre un 4% y un 6% en decisiones críticas.
La Escalada de la Ciberseguridad
Este ataque marca un nuevo capítulo en la piratería, donde la intervención humana ya no es esencial. Anthropic advierte que, aunque la IA ha sido utilizada para perpetrar ataques, también se están desarrollando herramientas más efectivas para prevenirlos.
Billy Leonard, responsable del grupo de inteligencia contra amenazas de Google, señaló que los atacantes están intentando utilizar herramientas de IA legítimas, pero las salvaguardias han llevado a muchos a buscar modelos en el mercado negro. Esto plantea un riesgo significativo, ya que estas herramientas no tienen restricciones y ofrecen ventajas a los delincuentes menos sofisticados.
Nuevas Amenazas en el Horizonte
La compañía de seguridad digital Kaspersky ha identificado campañas de ciberataques cada vez más sofisticadas, que difunden modelos de lenguaje maliciosos. Uno de sus descubrimientos más recientes es un programa llamado BrowserVenom, que se presenta como un asistente de IA falso llamado DeepSneak. Este software malicioso pretende engañar a los usuarios para que lo instalen, redirigiendo su tráfico web a servidores controlados por los atacantes.
Los cibercriminales están utilizando técnicas de phishing y versiones manipuladas de software legítimo para disfrazar estos ataques y eludir la protección de sistemas como Windows Defender. “Estas amenazas destacan cómo los modelos de lenguaje ejecutables de forma local, a pesar de ser útiles, se han convertido en un nuevo vector de riesgo si no se descargan de fuentes confiables”, advierte Kaspersky.
Según el informe de Google, los principales actores detrás de estas nuevas campañas provienen de China, Corea del Norte, Rusia e Irán, quienes están buscando aprovechar la IA para diferentes propósitos, desde ejecutar malware hasta mejorar sus operaciones.
La inteligencia artificial está cambiando rápidamente la forma en que interactuamos con la tecnología, pero también está transformando el paisaje del cibercrimen, planteando nuevos desafíos para la ciberseguridad.
