Las amenazas internas continúan siendo una de las principales preocupaciones para los responsables de ciberseguridad, incluso en un escenario donde el panorama de riesgos es cada vez más fragmentado. Según advierte Proofpoint, la irrupción de la llamada IA agéntica —sistemas autónomos capaces de ejecutar tareas y tomar decisiones en distintos entornos digitales— podría agravar este problema hasta el punto de que los copilotos basados en inteligencia artificial superen a los humanos como origen de filtraciones de datos este mismo año.
La rápida adopción de agentes autónomos por parte de las organizaciones está transformando la forma de trabajar. Estos sistemas pueden navegar por aplicaciones, escribir código o ejecutar procesos en múltiples plataformas. Sin embargo, si están mal configurados o gestionados, también pueden activar flujos de trabajo que expongan información sensible o debiliten los controles de seguridad. En escenarios adversos, incluso podrían ser manipulados para ejecutar acciones no autorizadas.
Desde Proofpoint señalan que los programas tradicionales de gestión del riesgo interno se diseñaron pensando en el comportamiento humano —analizando motivaciones, accesos o controles sobre herramientas como el correo electrónico, la nube o las plataformas de colaboración—. No obstante, la incorporación de la IA introduce nuevas variables de riesgo. “Los agentes no son solo herramientas, sino identidades digitales con privilegios propios, por lo que los equipos de seguridad deberán gestionar también sus accesos, supervisar su comportamiento y evaluar los riesgos que generan”, explican los investigadores de la compañía.
En este nuevo entorno laboral, donde empleados y sistemas de IA trabajan conjuntamente, aumentan los riesgos derivados de comportamientos accidentales o imprudentes. Asistentes basados en grandes modelos de lenguaje como Microsoft Copilot, ChatGPT o Google Gemini pueden facilitar la exposición involuntaria de datos sensibles cuando los usuarios comparten información en sus consultas. A su vez, los agentes de IA podrían resumir documentos internos o extraer datos de fuentes restringidas si no existen controles adecuados.
Esta situación también amplía el potencial impacto de usuarios que anteriormente se consideraban de bajo riesgo. Además, actores maliciosos podrían aprovechar los sistemas de IA mediante instrucciones diseñadas para revelar flujos de trabajo confidenciales o ejecutar ataques, eliminando muchas de las barreras técnicas que antes requerían conocimientos avanzados.
Los expertos también advierten de que los incidentes internos suelen aumentar durante periodos de inestabilidad empresarial, como procesos de contratación agresiva entre competidores, fusiones o adquisiciones. En estos contextos, la combinación de accesos temporales, sistemas en transición y empleados bajo presión puede favorecer malas prácticas o filtraciones de información. Con la ayuda de la IA, además, el espionaje corporativo podría volverse más sencillo al facilitar la investigación de competidores o la imitación de comunicaciones legítimas.
Pese a estos riesgos, la inteligencia artificial también puede convertirse en una aliada clave para la seguridad. Proofpoint prevé que durante 2026 la IA transformará la forma en que las organizaciones detectan, investigan y priorizan los incidentes internos. La tecnología permitirá correlacionar señales aparentemente menores —como intentos de inicio de sesión inusuales o accesos atípicos— para identificar amenazas críticas y analizar grandes volúmenes de datos en cuestión de minutos.
En este nuevo modelo, las organizaciones deberán integrar en una única visión las señales relacionadas con identidades, comportamientos y eventos técnicos, en lugar de analizarlas de forma separada. Esta aproximación permitirá intervenir antes y aplicar controles de seguridad más precisos.
Los especialistas también subrayan la necesidad de establecer políticas claras para el uso de la IA, incluyendo normas de privacidad, criterios éticos y mecanismos de gobernanza que regulen los permisos de los agentes y permitan desactivarlos si es necesario.
“Para adelantarse a los riesgos internos, las organizaciones deberán unificar las señales de identidad, comportamiento y tecnología, adoptar sistemas de detección impulsados por IA y reforzar la gobernanza interfuncional”, concluyen los expertos de Proofpoint. “Solo así podrán mitigar las nuevas amenazas y construir un entorno de trabajo seguro en la colaboración entre humanos y agentes de inteligencia artificial”.

