Las plataformas de inteligencia artificial agéntica sin código están revolucionando la forma en que las empresas automatizan procesos, pero también están introduciendo riesgos de seguridad que muchas organizaciones subestiman. Una investigación de Tenable puso en evidencia cómo Microsoft Copilot Studio puede ser explotado para cometer fraudes financieros y exponer datos sensibles.
El atractivo de estas plataformas radica en permitir que usuarios no técnicos desarrollen agentes de IA capaces de ejecutar tareas críticas sin intervención humana. No obstante, cuando esta automatización se implementa sin controles rigurosos, puede convertirse en un punto de entrada para ataques sofisticados con consecuencias graves.
Como parte del estudio, Tenable Research creó un agente de IA destinado a la gestión de viajes, con acceso a información ficticia de clientes y con reglas estrictas de verificación de identidad. A pesar de estas limitaciones, los investigadores lograron manipular el comportamiento del agente mediante técnicas de inyección de instrucciones, alterando completamente su lógica operativa.
El resultado fue alarmante: el agente no solo divulgó información confidencial, sino que también modificó valores financieros clave, permitiendo la emisión de servicios gratuitos sin autorización. Este hallazgo demuestra cómo los permisos excesivos y la falta de visibilidad sobre las capacidades reales de un agente representan un riesgo directo para los ingresos y el cumplimiento normativo.
Según Tenable, uno de los principales problemas es que los agentes de IA suelen heredar accesos amplios a sistemas y bases de datos, algo que no siempre es evidente para quienes los crean. Esta opacidad incrementa la probabilidad de fallos críticos y abusos maliciosos, incluso sin intención previa.
La compañía subraya que la gobernanza de la IA debe ser tratada como una prioridad estratégica. Antes de desplegar agentes automatizados, las organizaciones deben evaluar con precisión a qué sistemas pueden acceder, restringir sus capacidades a lo estrictamente necesario y monitorear de forma continua su comportamiento.
Las recomendaciones incluyen establecer visibilidad preventiva, aplicar políticas de mínimo privilegio y mantener vigilancia activa para detectar desviaciones en tiempo real. En un contexto donde la IA avanza más rápido que los marcos de control, la seguridad ya no puede ser un complemento, sino un pilar central de la innovación digital.
