La estafa del futuro ya está aquí: así usan los ciberdelincuentes la IA para clonar voces y engañar a políticos y ciudadanos

Un impostor logró suplantar la voz del senador Marco Rubio usando inteligencia artificial. Expertos advierten: cualquiera puede ser víctima si comparte su voz en redes sociales.

El avance de la inteligencia artificial ha llegado a un punto en el que ya no es necesario hackear un sistema para robar información: basta con clonar una voz. Un caso reciente ha puesto en alerta a las autoridades estadounidenses y europeas. Varios altos cargos políticos —entre ellos tres ministros de Exteriores, un gobernador y un congresista de EE. UU.— fueron contactados por alguien que imitaba la voz del senador Marco Rubio a través de la aplicación encriptada Signal. La noticia, revelada por The Washington Post, ha vuelto a situar en el centro del debate el uso malicioso de modelos de IA generativa.

Según las autoridades, el objetivo de este intento de suplantación habría sido manipular a los funcionarios para obtener acceso a datos sensibles o cuentas privadas. A día de hoy, no se ha identificado a los responsables, pero todo apunta a una operación sofisticada basada en inteligencia artificial.

Una amenaza en auge: clonación de voz con IA

La técnica utilizada se conoce como voice cloning fraud, o fraude por clonación de voz. Como han explicado expertos de la Charles Sturt University (Australia), con tan solo tres segundos de audio —por ejemplo, un vídeo en TikTok o Instagram— un atacante puede generar una réplica realista de la voz de una persona. El modelo de IA capta patrones de habla, acento, pausas y respiración, y luego puede leer cualquier texto con esa misma voz.

“Es perfectamente posible que alguien reciba una llamada o un mensaje de voz de un familiar suplicando ayuda económica… y no sea esa persona”, alertan los investigadores.

En Estados Unidos, la Oficina Federal de Investigación (FBI) ha emitido alertas que describen estas prácticas como “smishing” (fraudes por SMS) y “vishing” (fraudes por voz), combinaciones modernas de las clásicas estafas de phishing. Estos mensajes suelen incluir enlaces o instrucciones para cambiar a otra plataforma de mensajería, donde continúa la trampa.

Cómo protegerse de estas estafas

Los expertos en ciberseguridad Matthew Wright y Christopher Schwartz, de la Universidad de Rochester, recomiendan desconfiar incluso de llamadas aparentemente familiares. “Si alguien te llama inesperadamente, aunque sea un ser querido, valida su identidad por otro canal antes de seguir la conversación”, escriben en The Conversation.

Tampoco es fiable el identificador de llamadas. Los estafadores pueden falsificarlo fácilmente para que parezca que la llamada proviene de un número conocido.

El FBI, por su parte, recomienda verificar siempre el número llamante: buscarlo en Internet, cotejarlo con el que ya se tiene guardado, y nunca proporcionar datos personales sin confirmar la identidad del interlocutor. Además, es útil prestar atención a detalles sutiles: ¿el tono, el lenguaje o las expresiones suenan diferentes a lo habitual? Podría ser una señal de alerta.

Tabla: Indicadores y consejos para detectar estafas con clonación de voz

SíntomaAcción recomendada
Llamada inesperada de un conocidoVerifica por mensaje o llamada al número habitual
Voz que suena como alguien cercano, pero “rara”Duda y busca confirmar por otro canal
Enlace para cambiar de plataforma de mensajeríaNo lo abras sin validar el remitente
Petición urgente de dineroDesconfía, aunque sea emocionalmente convincente
Cambios sutiles en nombres, emails o URLsBusca diferencias ortográficas o dominios sospechosos
Contenido muy emocional o que “confirma tus miedos”Reflexiona antes de actuar: puede estar manipulándote

Además, los expertos recomiendan establecer “palabras clave” o frases secretas dentro del entorno familiar que permitan autenticar a alguien en una situación de emergencia.

Otro consejo crucial: limitar la cantidad de información personal publicada en redes sociales. Nombres de mascotas, fechas de cumpleaños o incluso segundos de tu voz pueden ser suficientes para alimentar a un modelo malicioso de IA.

¿Qué hacer si se sospecha de una estafa?

Si se recibe un mensaje o llamada sospechosa, se recomienda:

  • No interactuar directamente.
  • Guardar el número o el audio como evidencia.
  • Reportar el incidente al organismo de ciberseguridad correspondiente (como el FBI en EE. UU. o INCIBE en España).
  • Informar a la persona cuya identidad ha podido ser suplantada.

Con el desarrollo de la inteligencia artificial, las fronteras entre realidad y simulación son cada vez más difusas. La suplantación de voces no es ciencia ficción, sino una amenaza real y presente.

Fuentes:

Scroll al inicio