Jake Moore, asesor global de ciberseguridad de ESET, ha desafiado las suposiciones comunes sobre la efectividad de los sistemas de reconocimiento facial mediante una serie de experimentos prácticos. La tecnología de reconocimiento facial, que se ha integrado en diversas plataformas, desde puertas de embarque en aeropuertos hasta procesos de incorporación de clientes en bancos, se presume que es difícil de falsificar. Sin embargo, las pruebas realizadas por Moore demuestran que esta confianza puede ser peligrosa.
En un primer experimento, Moore utilizó unas gafas inteligentes modificadas que le permitieron identificar a personas en tiempo real. Mientras caminaba por un espacio público, capturó rostros y los comparó con bases de datos disponibles en línea, recibiendo coincidencias de identidad en cuestión de segundos. Aunque esta capacidad podría ser útil para recordarle nombres a asistentes de conferencias, plantea serias preocupaciones sobre su uso indebido por parte de personas malintencionadas.
El segundo experimento tuvo un enfoque diferente: Moore se dirigió al sector financiero, usando imágenes generadas por inteligencia artificial y software accesible para crear una identidad ficticia que le permitió abrir una cuenta bancaria real. El sistema de reconocimiento facial del banco aceptó esta identidad como válida. Tras la prueba, cerró la cuenta y notificó al banco, que posteriormente cerró ese método específico de abuso en la identidad. No obstante, persiste la inquietud sobre cuántas instituciones financieras podrían seguir siendo vulnerables a ataques similares.
En su tercer experimento, Moore se agregó a una lista de vigilancia de reconocimiento facial en una estación de tren de Londres y utilizó un software de intercambio de rostros que superponía la apariencia de Tom Cruise sobre la suya. Mientras pasaba por el área monitorizada, el sistema, utilizado por la policía del Reino Unido, no lo reconoció ni lo alertó, como si no estuviera presente; cualquier búsqueda del CCTV habría mostrado la imagen del famoso actor en su lugar.
Estos experimentos serán presentados en la conferencia RSAC 2026 en San Francisco, programada del 23 al 26 de marzo. Moore hace un llamado a la importancia de realizar simulaciones de ataque y pruebas adversariales en los sistemas de reconocimiento facial, ya que la tecnología, aunque avanzada, revela vulnerabilidades que pueden ser explotadas. La dependencia exclusiva del reconocimiento facial para la verificación de la identidad conlleva más riesgos de lo que muchas personas e instituciones son capaces de apreciar.
Fuente: WeLiveSecurity by eSet.

