Un impostor logró suplantar la voz del senador Marco Rubio usando inteligencia artificial. Expertos advierten: cualquiera puede ser víctima si comparte su voz en redes sociales.
El avance de la inteligencia artificial ha llegado a un punto en el que ya no es necesario hackear un sistema para robar información: basta con clonar una voz. Un caso reciente ha puesto en alerta a las autoridades estadounidenses y europeas. Varios altos cargos políticos —entre ellos tres ministros de Exteriores, un gobernador y un congresista de EE. UU.— fueron contactados por alguien que imitaba la voz del senador Marco Rubio a través de la aplicación encriptada Signal. La noticia, revelada por The Washington Post, ha vuelto a situar en el centro del debate el uso malicioso de modelos de IA generativa.
Según las autoridades, el objetivo de este intento de suplantación habría sido manipular a los funcionarios para obtener acceso a datos sensibles o cuentas privadas. A día de hoy, no se ha identificado a los responsables, pero todo apunta a una operación sofisticada basada en inteligencia artificial.
Una amenaza en auge: clonación de voz con IA
La técnica utilizada se conoce como voice cloning fraud, o fraude por clonación de voz. Como han explicado expertos de la Charles Sturt University (Australia), con tan solo tres segundos de audio —por ejemplo, un vídeo en TikTok o Instagram— un atacante puede generar una réplica realista de la voz de una persona. El modelo de IA capta patrones de habla, acento, pausas y respiración, y luego puede leer cualquier texto con esa misma voz.
“Es perfectamente posible que alguien reciba una llamada o un mensaje de voz de un familiar suplicando ayuda económica… y no sea esa persona”, alertan los investigadores.
En Estados Unidos, la Oficina Federal de Investigación (FBI) ha emitido alertas que describen estas prácticas como “smishing” (fraudes por SMS) y “vishing” (fraudes por voz), combinaciones modernas de las clásicas estafas de phishing. Estos mensajes suelen incluir enlaces o instrucciones para cambiar a otra plataforma de mensajería, donde continúa la trampa.
Cómo protegerse de estas estafas
Los expertos en ciberseguridad Matthew Wright y Christopher Schwartz, de la Universidad de Rochester, recomiendan desconfiar incluso de llamadas aparentemente familiares. “Si alguien te llama inesperadamente, aunque sea un ser querido, valida su identidad por otro canal antes de seguir la conversación”, escriben en The Conversation.
Tampoco es fiable el identificador de llamadas. Los estafadores pueden falsificarlo fácilmente para que parezca que la llamada proviene de un número conocido.
El FBI, por su parte, recomienda verificar siempre el número llamante: buscarlo en Internet, cotejarlo con el que ya se tiene guardado, y nunca proporcionar datos personales sin confirmar la identidad del interlocutor. Además, es útil prestar atención a detalles sutiles: ¿el tono, el lenguaje o las expresiones suenan diferentes a lo habitual? Podría ser una señal de alerta.
Tabla: Indicadores y consejos para detectar estafas con clonación de voz
Síntoma | Acción recomendada |
---|---|
Llamada inesperada de un conocido | Verifica por mensaje o llamada al número habitual |
Voz que suena como alguien cercano, pero “rara” | Duda y busca confirmar por otro canal |
Enlace para cambiar de plataforma de mensajería | No lo abras sin validar el remitente |
Petición urgente de dinero | Desconfía, aunque sea emocionalmente convincente |
Cambios sutiles en nombres, emails o URLs | Busca diferencias ortográficas o dominios sospechosos |
Contenido muy emocional o que “confirma tus miedos” | Reflexiona antes de actuar: puede estar manipulándote |
Además, los expertos recomiendan establecer “palabras clave” o frases secretas dentro del entorno familiar que permitan autenticar a alguien en una situación de emergencia.
Otro consejo crucial: limitar la cantidad de información personal publicada en redes sociales. Nombres de mascotas, fechas de cumpleaños o incluso segundos de tu voz pueden ser suficientes para alimentar a un modelo malicioso de IA.
¿Qué hacer si se sospecha de una estafa?
Si se recibe un mensaje o llamada sospechosa, se recomienda:
- No interactuar directamente.
- Guardar el número o el audio como evidencia.
- Reportar el incidente al organismo de ciberseguridad correspondiente (como el FBI en EE. UU. o INCIBE en España).
- Informar a la persona cuya identidad ha podido ser suplantada.
Con el desarrollo de la inteligencia artificial, las fronteras entre realidad y simulación son cada vez más difusas. La suplantación de voces no es ciencia ficción, sino una amenaza real y presente.
Fuentes: