Agentes de IA: Rápidos y Eficientes, Pero ¿Dónde Queda la Precisión Humana?

Agentes de IA: Rápidos y Eficientes, Pero ¿Dónde Queda la Precisión Humana?

La evolución de los agentes de IA ha alcanzado un hito significativo: ya no se encuentran limitados a laboratorios de investigación, sino que están entrando en el mundo real. En diversos sectores, estos agentes son responsables de escribir código, gestionar facturas, optimizar infraestructuras e incluso aprobar transacciones. ¿La promesa? Aumento en la eficiencia y velocidad. Sin embargo, también enfrentamos un gran desafío, ya que muchos de estos sistemas aún dependen de modelos de permisos diseñados para humanos, quienes, a menudo, no pueden manejar de manera segura el comportamiento autónomo de estas tecnologías.

Desde el inicio del año, he enfatizado cómo la inteligencia artificial (IA) transforma la ciberseguridad, la identidad y las operaciones empresariales. Con cada avance tecnológico que aumenta la capacidad, también surgen riesgos ampliados. La IA agente es un claro ejemplo de ello: las máquinas pueden actuar más rápidamente que las personas, pero sus fallos pueden ser igualmente catastróficos.

Intersección entre modelos de confianza y velocidad de máquinas

Los tradicionales marcos de control de acceso fueron creados para ajustarse a ritmos humanos. Los usuarios inician sesión, realizan tareas y luego cierran sesión. Aunque pueden cometer errores, suelen hacerlo de forma suficientemente lenta como para permitir una adaptación de los controles. Sin embargo, la IA opera en un marco de tiempo distinto; los agentes trabajan de forma continua, en múltiples sistemas, y sin signos de fatiga.

Por esta razón, Graham Neray, cofundador y CEO de Oso Security, describe la autorización como «el problema sin resolver más importante del software». Durante nuestra conversación, dijo: «Cualquier empresa que desarrolle software acaba reinventando la autorización desde cero, y la mayoría lo hace mal. Ahora, estamos integrando IA sobre esa base».

El verdadero desafío radica en la infraestructura. Muchas empresas buscan enseñar a los nuevos sistemas a actuar de forma autónoma mientras, simultáneamente, aplican permisos basados en roles estáticos y lógica predefinida. Este enfoque apenas funcionaba para los humanos; para las máquinas, representa una desventaja significativa.

Un agente de IA tiene la capacidad de ejecutar miles de acciones por segundo. Si una de esas acciones se configura incorrectamente o se activa de forma maliciosa, puede propagarse rápidamente, mucho antes de que alguien tenga la oportunidad de intervenir. Un solo permiso excesivo podría conducir a una vulneración significativa.

Desafíos del ROI

Más allá de eso, existe una presión subyacente: la necesidad de demostrar el retorno de la inversión (ROI).

Como explica Todd Thiemann, analista principal en Omdia: «Los equipos de TI enfrentan la presión de demostrar un retorno tangible de la inversión en IA generativa, y los agentes de IA son esenciales para alcanzar eficiencias y generar ROI». Sin embargo, esto puede poner en segundo plano la seguridad, especialmente en un entorno donde la velocidad es esencial.

Este patrón de «primero la innovación, después la seguridad» puede resultar problemático. Según Thiemann, «No es recomendable otorgar todos los permisos que podría tener un humano al agente que actúa en su representación». La carencia de criterios humanos y de contexto en los agentes de IA puede potencialmente llevar a usos indebidos o acciones involuntarias de alto riesgo.

Es común pensar que una IA que opera en nuestro nombre debería tener acceso a todos nuestros permisos, pero esto puede ser peligroso. Si el modelo actúa fuera de lo previsto o se manipula, podría llevar a cabo acciones delicadas sin las autorizaciones necesarias.

Thiemann ilustra esto con un ejemplo práctico: un agente que automatiza la validación de nóminas no debería tener la capacidad de iniciar o aprobar transferencias de dinero, aunque un humano sí pueda hacerlo. «Acciones riesgosas deberían contar con la autorización de un humano y autenticación multifactor robusta», subrayó.

Esto no es solo una recomendación inteligente, sino una estrategia de control crítico.

Redefiniendo los límites de autorización

Neray aborda el mismo problema desde un ángulo diferente, pero contabiliza la misma solución: la autorización debe ser la capa estructural que contenga a los sistemas probabilísticos. «No se puede razonar con un modelo de lenguaje sobre si debería eliminar un archivo», me comentó. «Hay que establecer reglas estrictas que lo prohíban».

Aquí aparece el concepto de privilegio mínimo automatizado: otorgar solo los permisos necesarios por tiempo limitado y revocarlos automáticamente tras completar la tarea. Se trata de concebir el acceso como una transacción, no como un derecho permanente.

He observado esta transformación en otros ámbitos: la monitorización continua ha reemplazado a los controles fijos en la seguridad en la nube y la automatización de decisiones ha tomado el lugar de las aprobaciones manuales en la gobernanza de datos. Ahora, la autorización necesita ese mismo cambio: de un proceso pasivo a uno adaptativo, de un enfoque regulatorio a un control en tiempo real.

Oso Security busca facilitar esta transición, convirtiendo la autorización en una capa modular basada en API, en lugar de depender de códigos dispersos en microservicios. Neray comentó: «Hemos pasado una década simplificando la autenticación con Okta y Auth0. La autorización es el siguiente gran reto».

De gobernanza a acción, no a prohibición

Los CISO están comenzando a reconocer esta realidad. Muchos se involucran en las etapas iniciales de la implementación de IA, no para bloquear la innovación, sino para garantizar su sostenibilidad. Las prohibiciones son ineficaces, las barreras son necesarias.

El reto reside en equilibrar la velocidad y la seguridad, permitiendo que los agentes operen de manera autónoma dentro de límites específicos. En la práctica, esto implica reducir privilegios, implementar controles humanos para acciones sensibles y registrar cada decisión de acceso para facilitar la auditoría.

Tal como señala Thiemann, «Al reducir los privilegios, se minimiza el alcance de errores o incidentes potenciales. Además, el exceso de permisos puede acarrear problemas de auditoría y cumplimiento».

Verificación continua en la confianza

La autonomía no implica eliminar a los humanos del proceso; más bien, redefine su papel. Las máquinas pueden gestionar tareas repetitivas y de bajo riesgo, mientras que los humanos deben seguir siendo la última línea de control para las decisiones críticas.

Las organizaciones que logren este equilibrio estarán en una mejor posición para avanzar rápidamente y con menor tasa de error, respaldadas por la telemetría necesaria. Quienes no logren este ajuste corren el riesgo de frenar la innovación o de dar explicaciones a reguladores e inversores por fallos evitables.

La IA no sólo redefine nuestro futuro tecnológico, sino también lo que se considera aceptable dentro de los márgenes de la seguridad. Lograr una autonomía segura dependerá menos de la sofisticación de los modelos y más de la inteligencia con la que diseñemos sus límites. No necesitamos más potente IA; necesitamos permisos más inteligentes.