La irrupción de los grandes modelos de lenguaje (LLM) ha transformado profundamente la forma en que las personas trabajan, se comunican y desarrollan nuevas ideas. Esta evolución de la inteligencia artificial —ya sea conocida como ChatGPT, Gemini u otras denominaciones— ofrece un enorme potencial para acelerar procesos, generar análisis más profundos y crear herramientas cada vez más avanzadas.
Gracias a su entrenamiento con ingentes cantidades de datos, los LLM no solo destacan por producir textos con un alto grado de similitud al lenguaje humano, sino también por su versatilidad en numerosos ámbitos de aplicación. No obstante, esta expansión conlleva importantes retos. “El uso creciente de estos modelos implica una responsabilidad clara”, advierte Fernando Anaya, country manager de Proofpoint para España y Portugal. “Un fallo puede derivar en consecuencias serias, como la exposición de información sensible, la propagación de contenidos dañinos o engañosos, incumplimientos normativos o una pérdida de confianza en las soluciones de IA”.
Además, estos sistemas pueden cometer errores con gran apariencia de veracidad, lo que dificulta su cuestionamiento a medida que aumenta la dependencia de ellos. Por este motivo, resulta esencial acompañar el desarrollo de modelos más sofisticados con una actitud crítica constante, que permita detectar posibles omisiones, sesgos o interpretaciones incorrectas.
“La ciberseguridad tradicional no se diseñó pensando en los LLM, lo que abre una nueva categoría de vulnerabilidades a las que enfrentarse”, indica Fernando Anaya, de Proofpoint. Lejos de producir resultados predecibles, los LLM generan un lenguaje dinámico y arriesgado que no puede parchearse ni auditarse igual que otros sistemas. Es difícil comprender cómo generan ciertos resultados, puesto que los LLM operan como cajas negras, lo que complica detectar problemas potenciales como la inyección de instrucciones o prompts y el envenenamiento de datos.
Además del ingenio con los comandos a fin de manipular los LLM, los ciberdelincuentes pueden adivinar con qué datos se ha entrenado un modelo o hacer que se conecten a APIs inseguras o plugins de terceros. Otra táctica maliciosa sería sobrecargar los modelos mediante indicaciones largas y repetitivas, lo que puede ralentizar o bloquear los servicios de IA. No obstante, el phishing de ingeniería social a gran escala es actualmente el método más seguido por los atacantes, ya que los LLM facilitan la creación y distribución de mensajes creíbles que imitan la comunicación legítima para robo de credenciales y brechas de datos.
“Cuando se trata de una tecnología que evoluciona de manera tan rápida y poderosa, el desafío es asimismo único; y las medidas de seguridad deben ser sólidas para garantizar la protección de datos y la normativa vigente”, explica el directivo de Proofpoint. No parece que vaya a ir a menos la tendencia de la IA, a medida que los LLM se integren en herramientas cotidianas para los usuarios como Google Workspace y Microsoft 365, de ahí que la defensa necesite mantenerse al día y adaptarse a ese ritmo con el objetivo de revelar cualquier punto ciego en seguridad.
Los riesgos relacionados con LLM no son una preocupación futura. Hace un par de años, los ingenieros de Samsung introdujeron el código fuente e información interna de la compañía en ChatGPT para que les ayudara a depurar código y resumir notas. No había una intención maliciosa detrás, simplemente fue parte de una tarea rutinaria. Sin embargo, dado que ChatGPT almacena los datos introducidos por los usuarios para mejorar su rendimiento, hubo temores de que se filtraran secretos comerciales, por lo que, tras el incidente, Samsung restringió el uso de ChatGPT y creó sus propias herramientas de IA para uso interno. También está el caso de DeepSeek AI, la startup china con un modelo de lenguaje potente y más accesible que otros, pero que almacena los datos de los usuarios en servidores a los que puede acceder el Gobierno chino, lo que suscita preocupaciones en torno a la privacidad y la seguridad de esos datos.
En materia de seguridad con LLM, lo primero es limitar los datos compartidos a lo estrictamente necesario y revisar siempre las respuestas para evitar la exposición de información confidencial. Desde el punto de vista técnico, conviene aplicar controles de acceso basados en roles, personalizar las restricciones de seguridad y realizar auditorías y pruebas de penetración periódicas que contemplen de forma específica los riesgos asociados a los LLM.
“Las estrategias tradicionales de seguridad de datos deben evolucionar para incorporar capacidades adaptativas y mecanismos de respuesta inteligentes adaptados al entorno de la IA, que autentiquen a los usuarios, prevengan el acceso no autorizado y evalúen continuamente cada interacción. Siguiendo este proceso, los LLM se ganarán la confianza y podrá mantenerse abierto el camino hacia nuevas ideas e innovaciones”, puntualiza Fernando Anaya.

