Las organizaciones enfrentan un desafío creciente en la era de la inteligencia artificial (IA) no autorizada, comúnmente conocida como «shadow AI». Este fenómeno, que se refiere al uso de herramientas de IA fuera del control y supervisión de los equipos de IT, plantea serios riesgos de seguridad y cumplimiento normativo. Desde la fuga accidental de datos hasta la introducción de código defectuoso, el uso desmedido de estas tecnologías puede acarrear consecuencias graves para las empresas.
Históricamente, la gestión de tecnologías de información no autorizadas, o «shadow IT», ha sido un problema para los líderes de seguridad de las organizaciones. Sin embargo, la rápida adopción de herramientas de IA de consumo, como ChatGPT, ha creado un vacío que los empleados están llenando sin esperar una respuesta oficial de sus empresas. Una encuesta sugiere que un 78% de los usuarios de IA utilizan herramientas propias en el trabajo, mientras que un 60% de los líderes de IT se preocupa por la falta de un plan formal relacionado con la implementación de tecnología de IA.
La preocupación no se limita solo a herramientas populares. La IA puede infiltrarse en las empresas a través de extensiones de navegador o funciones habilitadas en software legítimo sin el conocimiento del departamento de IT. Además, se espera que la próxima ola de innovación en IA, centrada en agentes autónomos, presente un riesgo aún mayor si no se implementan las salvaguardias adecuadas. Estos agentes podrían acceder a datos sensibles y realizar acciones no autorizadas sin que nadie lo note.
Los peligros del uso no autorizado de modelos de IA son alarmantes. Cada vez que un empleado introduce información, existe la posibilidad de que datos sensibles, como notas de reuniones o información personal, se compartan inadvertidamente. Esto no solo podría violar regulaciones de protección de datos, sino que también expone a la organización a riesgos relacionados con filtraciones de información y vulnerabilidades en el software. En 2022, el 20% de las organizaciones ya había sufrido una brecha de seguridad vinculada a incidentes de shadow AI, y los costos asociados a estas violaciones pueden ser significativos.
Para mitigar estos riesgos, las organizaciones deben reconocer la realidad del uso de herramientas de IA no autorizadas y desarrollar políticas de uso aceptable adecuadas. Además, es crucial educar a los empleados sobre las posibles repercusiones del uso de tecnologías de shadow AI y establecer un sistema de monitoreo que permita mejorar la visibilidad de estas herramientas en la empresa.
Mantener un equilibrio entre la mitigación de riesgos y el apoyo a la productividad es esencial en el contexto de la ciberseguridad actual. A medida que la IA se convierte en un motor de crecimiento para muchas empresas, los líderes deben actuar con rapidez para abordar los desafíos que presenta el shadow AI, asegurando así la seguridad y el cumplimiento normativo sin frenar la innovación.
Fuente: WeLiveSecurity by eSet.

