A medida que las herramientas de inteligencia artificial se integran en los entornos corporativos, los expertos advierten: ChatGPT no es confidencial. Su uso imprudente puede convertirse en una puerta de entrada para ciberataques, filtraciones y pérdida de información crítica.
La inteligencia artificial generativa ha entrado con fuerza en la rutina de empresas, gobiernos y usuarios particulares. Herramientas como ChatGPT, de OpenAI, prometen agilidad, productividad y eficiencia. Sin embargo, desde una perspectiva de ciberseguridad, su uso plantea desafíos significativos, especialmente cuando los usuarios no comprenden sus límites en materia de privacidad y protección de datos.
¿Qué nivel de confidencialidad ofrece ChatGPT?
Aunque OpenAI aplica medidas de cifrado y controles de acceso, las versiones más utilizadas —ChatGPT Free y Plus— pueden retener temporalmente las conversaciones para fines de mejora del modelo. Esta práctica, aunque legal y justificada por OpenAI, implica un riesgo de exposición accidental de datos confidenciales.
En cambio, las versiones ChatGPT Team y Enterprise sí ofrecen garantías más sólidas: no almacenan los chats ni los utilizan para entrenar los modelos. Aun así, ningún sistema es infalible y la entrada de información sensible sigue siendo una amenaza potencial.
Datos que nunca deberías introducir en un chatbot
En contextos corporativos, los errores humanos son una de las principales causas de ciberincidentes. Por ello, es fundamental capacitar a los usuarios para que eviten compartir los siguientes tipos de información con ChatGPT u otros modelos de lenguaje:
- Credenciales de acceso, contraseñas y tokens.
- Información personal identificable (PII), como nombres, correos, DNIs o direcciones.
- Datos financieros, cuentas bancarias o números de tarjeta.
- Información sensible de clientes, informes internos o material no publicado.
- Propiedad intelectual o desarrollos estratégicos.
Recordemos: la IA no sustituye al cifrado ni a las políticas de seguridad de la información.
Riesgo de exposición y reutilización
Aunque OpenAI afirma que no utiliza las conversaciones para alimentar el modelo en tiempo real, los datos pueden ser accedidos por personal autorizado, o verse comprometidos por una vulnerabilidad, ataque o error en la cadena de almacenamiento.
Además, en ciertas ocasiones, respuestas generadas por el modelo podrían incluir información previamente compartida por otros usuarios, lo que evidencia la necesidad de cautela en todos los niveles.
Cómo proteger a tu organización del uso indebido de IA
En el entorno empresarial, la adopción segura de IA debe estar respaldada por políticas específicas. Algunas recomendaciones para responsables de seguridad (CISOs) y departamentos IT:
- Implementar políticas de uso responsable de IA, limitando el acceso a tareas no sensibles.
- Autorizar solo versiones con garantías empresariales (como ChatGPT Enterprise).
- Prohibir expresamente el ingreso de información crítica en plataformas no controladas.
- Capacitar a los empleados en ciberhigiene y concienciación sobre privacidad digital.
- Monitorizar y auditar el uso de herramientas de IA en los flujos de trabajo.
¿Y qué dice la política de privacidad de OpenAI?
OpenAI recoge que las conversaciones pueden almacenarse temporalmente, salvo en versiones específicas orientadas a empresas. Aunque se compromete a no compartir los datos con terceros sin consentimiento, no es un entorno diseñado para el tratamiento de datos confidenciales. Tampoco ofrece garantías frente a un acceso no autorizado por parte de actores maliciosos.
Conclusión: la IA no es una zona segura para tus secretos
ChatGPT y otras herramientas basadas en IA generativa ofrecen un enorme potencial. Pero desde el prisma de la ciberseguridad, deben tratarse con extrema precaución. Ingresar datos sensibles en estos sistemas equivale a enviarlos por un canal no cifrado: puede que nada pase… o puede que estés abriendo una brecha crítica.
La seguridad no depende solo de la tecnología, sino del uso que hacemos de ella. Y la IA no es la excepción.
¿Tu organización está usando IA? Es el momento de actualizar tus políticas de seguridad y entrenar a tus equipos. La mejor defensa sigue siendo la prevención.