Microsoft veta DeepSeek por motivos de privacidad: un nuevo dilema para el ecosistema open source

La prohibición de la IA china DeepSeek a los empleados de Microsoft evidencia una tensión creciente entre la apertura del código y la soberanía de los datos

La reciente decisión de Microsoft de prohibir el uso de DeepSeek a nivel interno por razones de seguridad y privacidad ha generado revuelo en el ecosistema tecnológico. La medida no solo refleja el endurecimiento de la rivalidad geopolítica entre Estados Unidos y China, sino que también plantea interrogantes de fondo sobre el futuro de los modelos de inteligencia artificial de código abierto, especialmente cuando su origen geográfico o ideológico puede comprometer la confianza de los usuarios.

El argumento central: la soberanía de los datos

Según confirmó Brad Smith, presidente de Microsoft, en el Senado de EE. UU., uno de los principales motivos del veto es que DeepSeek almacena y procesa datos en servidores ubicados en China, lo que podría exponer información sensible a la vigilancia de agencias del gobierno chino. Esto vulnera uno de los principios esenciales en la gestión moderna de datos: la soberanía del procesamiento.

En un contexto en el que los modelos de lenguaje procesan inputs como correos, resúmenes, ideas de negocio o código fuente, el riesgo de fuga de datos se convierte en un problema de primer orden, tanto para empresas como para gobiernos.

¿Qué pasa cuando el modelo es open source?

Aquí es donde la situación se vuelve más ambigua. Aunque Microsoft ha prohibido el uso de la app de DeepSeek, sí permite el uso del modelo base R1 en Azure, ya que este ha sido publicado como modelo de código abierto. La clave, según la compañía, está en que los usuarios pueden ejecutarlo de forma aislada, sin necesidad de enviar datos a servidores externos.

Eso sí, antes de integrarlo en Azure, los ingenieros de Microsoft intervinieron el modelo, eliminando posibles riesgos y realizando pruebas de seguridad para evitar comportamientos no deseados. Esto plantea una pregunta delicada para la comunidad open source:

¿Cuándo deja de ser “libre” un modelo si debe pasar por controles privados para ser considerado seguro?

Un ecosistema en tensión: apertura vs confianza

La publicación de modelos open source como DeepSeek, LLaMA, Mistral o Falcon ha sido celebrada por permitir auditar, adaptar y mejorar modelos de forma comunitaria. Pero este caso evidencia que la confianza no solo depende del código abierto, sino también del contexto en el que se desarrolla y distribuye.

  • ¿Qué garantías existen sobre la neutralidad del entrenamiento?
  • ¿Qué sesgos, censuras o “puertas traseras” puede haber en un modelo aparentemente abierto?
  • ¿Debe una empresa occidental ejecutar auditorías sobre cualquier modelo externo, aunque sea open source?

Microsoft ha optado por un enfoque mixto: veto a la app, sí al modelo… pero intervenido. Es una solución pragmática, pero también un precedente que podría replicarse en otras compañías tecnológicas o incluso gobiernos.

Privacidad diferencial y riesgo de dependencia

El caso DeepSeek refuerza la idea de que la privacidad ya no es solo una cuestión de datos personales, sino de arquitectura y localización de la inteligencia. Permitir que una IA extranjera procese datos en la nube, aunque sea en formato cifrado o temporal, puede violar normativas como el RGPD en Europa o la Ley de Privacidad del Consumidor de California.

Además, revela una preocupación más estructural: si el ecosistema de modelos open source empieza a depender de tecnologías nacidas fuera del ámbito regulado occidental, incluso el software libre puede convertirse en una vía indirecta de pérdida de control estratégico.


¿Qué futuro para la IA abierta?

La comunidad de desarrolladores deberá enfrentar con realismo este dilema:
¿Puede haber verdadera apertura si no existe confianza soberana sobre los datos y los orígenes del modelo?

El caso DeepSeek sugiere que los modelos open source no están exentos de restricciones. La apertura no equivale automáticamente a seguridad, ni a neutralidad. Y eso obliga a repensar cómo se validan, auditan y distribuyen los modelos en un mundo cada vez más polarizado.

La IA open source necesita nuevas normas de confianza: no basta con abrir el código, hay que demostrar que también se protege al usuario.

fuente: Gizmodo

Scroll al inicio