Google Chrome vuelve a estar en el centro de una polémica sobre privacidad, transparencia y control del dispositivo. El investigador Alexander Hanff, conocido como That Privacy Guy, ha denunciado que el navegador descarga en segundo plano un archivo de alrededor de 4 GB asociado a Gemini Nano, el modelo de Inteligencia Artificial en local de Google. Según su análisis, la descarga se realiza sin un aviso claro al usuario y puede repetirse si el archivo se elimina mientras las funciones relacionadas siguen activas.
La acusación ha generado inquietud porque afecta a una herramienta instalada en millones de ordenadores. Chrome no es una aplicación marginal: para muchas personas es la puerta principal a Internet, al trabajo, al correo, a la banca, a la administración pública y a buena parte de su vida digital. Que un navegador pueda ocupar varios gigabytes de almacenamiento para activar funciones de Inteligencia Artificial sin una explicación visible plantea una pregunta sencilla: ¿hasta qué punto debe decidir el software qué se instala en el equipo del usuario?
Google tiene una explicación técnica para esta clase de descargas. Gemini Nano está diseñado para ejecutar funciones de IA directamente en el dispositivo, lo que puede mejorar la privacidad frente a soluciones que envían datos a la nube. La compañía explica en su documentación para desarrolladores que los modelos integrados en Chrome se descargan por separado, que su tamaño puede variar con las actualizaciones y que determinadas APIs de IA requieren condiciones concretas de hardware, almacenamiento y conexión no medida. Pero una cosa es que exista documentación técnica y otra que el usuario medio reciba una advertencia clara antes de que su equipo descargue varios gigabytes.
Qué es el archivo weights.bin y por qué ocupa tanto
El archivo señalado por Hanff se llama weights.bin y estaría dentro de la carpeta OptGuideOnDeviceModel del perfil de Chrome. En términos sencillos, contiene los pesos del modelo Gemini Nano, es decir, los datos que permiten al modelo funcionar en local. Sin ese archivo, las funciones de IA en el dispositivo no pueden ejecutarse del mismo modo.
Gemini Nano es la versión ligera de la familia Gemini pensada para operar en equipos compatibles. En Chrome puede servir de base para funciones como asistencia de escritura, resumen, traducción, reescritura, revisión de texto o detección local de determinados riesgos. La ventaja teórica es evidente: si el modelo corre en el ordenador, algunas tareas pueden procesarse sin enviar el contenido a servidores externos.
La controversia no está tanto en la existencia de Gemini Nano, sino en la forma de desplegarlo. Hanff sostiene que Chrome evaluó el hardware de su equipo, lo consideró apto y descargó el modelo en segundo plano durante una sesión sin interacción humana. Según su prueba controlada en macOS, el proceso creó el directorio correspondiente y descargó el archivo completo en poco más de catorce minutos.
Otros medios han confirmado la presencia de ese archivo en equipos con Chrome y han señalado que puede reaparecer si se borra sin desactivar las funciones o ajustes relacionados. The Verge explica que los usuarios pueden revisar la carpeta OptGuideOnDeviceModel y desactivar la opción de IA en el dispositivo desde los ajustes de Chrome para evitar que el modelo vuelva a descargarse. Tom’s Guide, con más cautela, apunta que no hay pruebas sólidas de que Chrome lo instale en todos los dispositivos sin ningún tipo de consentimiento, pero sí reconoce una preocupación creciente por la falta de comunicación clara sobre el impacto en almacenamiento.
Este matiz es importante. No conviene convertir la denuncia en una afirmación absoluta sobre todos los usuarios de Chrome. La descarga parece depender de hardware, versión, funciones disponibles y configuración. Pero incluso con esa cautela, el fondo del problema se mantiene: cuando una aplicación descarga un componente de 4 GB, el usuario debería saberlo de forma sencilla, antes de que ocurra, no después de descubrir que su disco tiene menos espacio.
Privacidad local, consentimiento y datos móviles
Google puede defender que ejecutar IA en local protege mejor la privacidad. En muchos casos tiene razón. Procesar una consulta o un texto dentro del dispositivo puede ser menos invasivo que enviarlo a la nube. La propia documentación de Chrome indica que, al usar el modelo en local, los datos no se envían a Google ni a terceros para esa ejecución concreta.
Pero la privacidad no es solo dónde se procesa la información. También es quién decide qué se almacena en el dispositivo, qué se instala, qué recursos se consumen y cómo se informa al usuario. Un modelo local puede ser más privado en su funcionamiento y, aun así, desplegarse de una manera poco transparente.
El asunto también tiene una dimensión práctica. Cuatro gigabytes pueden parecer poco en un ordenador moderno con fibra ilimitada, pero no lo son para todos. Hay usuarios con portátiles de poca capacidad, discos casi llenos, conexiones móviles, tarifas medidas o acceso a Internet caro. Para ellos, una descarga silenciosa de este tamaño no es un detalle menor. Puede consumir datos, ocupar espacio relevante y afectar al rendimiento o a la gestión del equipo.
Hanff también ha planteado un impacto ambiental por la distribución masiva de un archivo de este tamaño. Sus estimaciones sobre emisiones dependen de supuestos difíciles de verificar, como el número exacto de dispositivos afectados y la mezcla energética de cada red. Aun así, la idea general es razonable: distribuir gigabytes a escala global tiene un coste energético y de red. La IA en local no elimina el impacto ambiental; lo desplaza en parte desde el centro de datos hacia millones de dispositivos.
El posible choque con la normativa europea
La parte legal es la más delicada. Hanff sostiene que esta práctica podría vulnerar normas europeas, en especial la Directiva ePrivacy y el Reglamento General de Protección de Datos. Esa afirmación no ha sido probada por un tribunal ni por una autoridad de protección de datos, así que debe tratarse como una interpretación jurídica, no como un hecho cerrado.
La Directiva ePrivacy protege el equipo terminal del usuario y, en términos generales, limita el almacenamiento de información o el acceso a información almacenada en ese equipo salvo que exista consentimiento o una excepción aplicable. El Comité Europeo de Protección de Datos ha recordado que el artículo 5.3 de la directiva se refiere precisamente a operaciones de almacenamiento o acceso en el dispositivo del usuario. El RGPD, por su parte, exige transparencia, licitud y claridad cuando se tratan datos personales.
La cuestión será si descargar un modelo de IA en el dispositivo entra en esos supuestos y, si entra, si Google puede apoyarse en alguna excepción técnica o contractual. No es una respuesta automática. Un navegador descarga constantemente componentes, listas de seguridad, actualizaciones, certificados, reglas, diccionarios y otros archivos necesarios para funcionar. La diferencia aquí es el tamaño, la finalidad y la expectativa del usuario.
Si una función de IA está claramente activada por el usuario y el navegador informa de que necesita descargar un modelo grande para funcionar en local, el debate cambia. Si el archivo llega sin un aviso comprensible, sin opción visible y sin explicación del impacto, el argumento de falta de transparencia gana fuerza.
La IA en el dispositivo necesita nuevas reglas de confianza
La polémica de Chrome forma parte de una tendencia más amplia. Las grandes tecnológicas están llevando modelos de Inteligencia Artificial a navegadores, sistemas operativos, móviles, suites de oficina y aplicaciones de escritorio. Lo hacen porque la IA local puede reducir latencia, mejorar privacidad, ahorrar costes de nube y permitir funciones más rápidas. Pero también aumenta el peso del software y normaliza que los dispositivos de los usuarios se conviertan en parte de la infraestructura de IA de las plataformas.
Ese cambio requiere una relación más honesta con el usuario. Descargar un modelo de varios gigabytes no debería quedar escondido en una carpeta interna ni explicado solo en una página para desarrolladores. Debería aparecer como lo que es: una función relevante, con ventajas y costes. El usuario debería poder decidir si quiere IA local, IA en la nube o ninguna de las dos, y entender qué implica cada opción.
Para Google, el riesgo es de confianza. Chrome ha construido su posición sobre velocidad, compatibilidad y comodidad. Pero la integración de IA cambia la percepción del navegador. Si los usuarios sienten que Chrome instala componentes pesados sin preguntar, pueden ver la IA no como una mejora, sino como otra capa de imposición.
Para los reguladores europeos, el caso puede convertirse en una prueba temprana de cómo aplicar reglas de privacidad a la IA en el dispositivo. Hasta ahora, muchos debates se han centrado en datos enviados a la nube, entrenamiento de modelos o uso de información personal. Pero el despliegue local también importa. El ordenador, el móvil y el navegador son espacios privados, no simples destinos de actualización.
La mejor salida no debería ser bloquear la IA en local, porque puede tener ventajas reales. La solución pasa por consentimiento claro, opciones visibles, información sobre tamaño y consumo, respeto a conexiones medidas y capacidad de desinstalar el modelo sin que vuelva automáticamente. Si una función es buena, debería poder explicarse sin esconder sus costes.
Chrome no es el único software que tendrá que responder a esta pregunta. A medida que Microsoft, Apple, Google, Anthropic, OpenAI y otros integren modelos en aplicaciones cotidianas, el usuario necesitará recuperar una idea básica: su dispositivo no es un terreno libre para desplegar funciones por defecto. La Inteligencia Artificial puede ayudar mucho, pero no debería llegar a escondidas.
Preguntas frecuentes
¿Qué ha descargado Chrome según la denuncia?
El investigador Alexander Hanff afirma que Chrome descarga un archivo llamado weights.bin, de alrededor de 4 GB, asociado a Gemini Nano, el modelo de Inteligencia Artificial en local de Google.
¿Para qué sirve Gemini Nano en Chrome?
Gemini Nano permite ejecutar ciertas funciones de IA directamente en el dispositivo, como escritura asistida, resumen, reescritura, traducción o APIs de IA para desarrolladores, sin depender siempre de la nube.
¿Significa esto que todos los usuarios de Chrome tienen ese archivo?
No necesariamente. La descarga parece depender de la versión de Chrome, el hardware, la configuración y las funciones activadas o disponibles. Aun así, varios medios han confirmado la presencia del archivo en equipos compatibles.
¿Puede borrarse el modelo de IA de Chrome?
Puede eliminarse manualmente, pero puede volver a descargarse si las funciones relacionadas siguen activas. Algunos medios señalan que la forma más práctica es desactivar la opción de IA en el dispositivo o revisar los ajustes y flags relacionados.

