Lima, diciembre de 2025.- El uso de inteligencia artificial agéntica sin código podría representar un riesgo significativo para las organizaciones si no se implementa con controles adecuados. Así lo advierte una nueva investigación de Tenable Research, que demuestra cómo herramientas de IA democratizadas, como Microsoft Copilot Studio, pueden ser manipuladas para filtrar datos confidenciales y ejecutar acciones financieras no autorizadas, exponiendo a las empresas a fraudes y brechas de seguridad.
Tenable, empresa especializada en Exposure Management, publicó los resultados de una investigación que logró vulnerar con éxito un agente de IA creado en Microsoft Copilot Studio. Los hallazgos ponen en evidencia que la rápida adopción de plataformas “sin código”, pensadas para mejorar la eficiencia operativa y permitir que empleados no técnicos desarrollen sus propios agentes de IA, también abre la puerta a riesgos de negocio graves que suelen pasar desapercibidos.
Cada vez más organizaciones recurren a este tipo de soluciones para automatizar procesos sin depender de desarrolladores especializados. Sin embargo, aunque la premisa de eficiencia resulta atractiva, la automatización sin una gobernanza estricta puede derivar en escenarios críticos, especialmente cuando los agentes de IA manejan datos sensibles o cuentan con permisos amplios dentro de los sistemas corporativos.
Cómo se vulneró un agente de IA
Para demostrar la facilidad con la que pueden manipularse estos sistemas, Tenable Research creó un agente de viajes de IA en Microsoft Copilot Studio. Este agente estaba diseñado para gestionar reservas de clientes, incluyendo la creación de nuevos viajes y la modificación de los existentes, sin intervención humana directa. Para el experimento, se utilizaron datos completamente ficticios, como nombres, información de contacto y datos de tarjetas de crédito simuladas.
El agente recibió instrucciones claras y estrictas: debía verificar la identidad del cliente antes de compartir información o realizar cualquier modificación. No obstante, mediante una técnica conocida como inyección de prompt, el equipo de investigación logró secuestrar el flujo de trabajo del agente. Como resultado, fue posible realizar una reserva de vacaciones gratuita y, además, extraer información confidencial de tarjetas de crédito.
Este experimento evidenció que, pese a las restricciones iniciales, el agente podía ser inducido a ignorar controles críticos y ejecutar acciones para las que no estaba explícitamente autorizado.
Riesgos clave para las organizaciones
Las conclusiones del estudio señalan implicaciones relevantes para los negocios que adoptan IA sin código. Entre los principales riesgos identificados se encuentran las infracciones de datos y la exposición regulatoria. Tenable logró forzar al agente a omitir la verificación de identidad y a filtrar información de tarjetas de pago de otros clientes, exponiendo registros completos que estaban destinados a permanecer protegidos.
Otro riesgo crítico es la pérdida de ingresos y el fraude financiero. Dado que el agente contaba con permisos de edición para actualizar fechas de viaje, también pudo ser manipulado para modificar campos financieros sensibles. En la práctica, Tenable consiguió que el precio de un viaje se redujera a 0 dólares, otorgando servicios gratuitos sin autorización y demostrando el potencial impacto económico de este tipo de fallas.
“Los creadores de agentes de IA, como Copilot Studio, democratizan la capacidad de construir herramientas muy potentes, pero también la posibilidad de ejecutar fraudes financieros, generando importantes riesgos de seguridad sin que las organizaciones lo sepan”, afirmó Keren Katz, directora de grupo senior de Producto e Investigación de Seguridad de IA en Tenable. “Ese poder puede convertirse fácilmente en un riesgo real y tangible para la seguridad”.
La importancia de la gobernanza en IA
Una de las conclusiones centrales del informe es que muchos agentes de IA poseen permisos excesivos que no siempre son visibles para los empleados no técnicos que los crean. Esta falta de visibilidad incrementa la probabilidad de abusos o errores que pueden derivar en incidentes graves de seguridad.
Para mitigar estos riesgos, Tenable enfatiza la necesidad de que las organizaciones implementen una gobernanza sólida de la inteligencia artificial antes de desplegar agentes sin código. Esto implica definir claramente los límites operativos de cada agente y aplicar protocolos de seguridad estrictos desde la etapa de diseño.
Entre las principales recomendaciones para evitar fugas de datos y fraudes, la compañía destaca la visibilidad preventiva, que consiste en determinar con precisión a qué sistemas y almacenes de datos puede acceder un agente antes de su implementación. También subraya la importancia del acceso de mínimo privilegio, reduciendo las capacidades de escritura y actualización únicamente a lo indispensable para su función principal.
Finalmente, Tenable recomienda una vigilancia activa, que permita rastrear de forma continua las acciones de los agentes de IA, con el fin de detectar indicios tempranos de filtraciones de datos o desviaciones de la lógica de negocio prevista. De este modo, las organizaciones podrán aprovechar los beneficios de la IA sin código sin comprometer su seguridad ni su estabilidad financiera.
