Los deepfakes de voz son una nueva amenaza para usuarios y empresas: cada vez más estafadores utilizan inteligencia artificial para imitar voces y engañar en llamadas telefónicas.

Los ciberdelincuentes pueden hacerse pasar por ejecutivos de alguna empresa, proveedores o incluso familiares, generando confianza para facilitar el engaño.

Un ataque típico comienza con la obtención de un breve clip de voz de la víctima, disponible en redes sociales, entrevistas o grabaciones públicas.

Con ese material, los estafadores entrenan un modelo capaz de reproducir frases preestablecidas o responder en tiempo real.

Luego llaman a la persona y, mediante técnicas de ingeniería social, solicitan transferencias de dinero, cambios de contraseñas o datos confidenciales. 

Detectar estas falsificaciones es clave para evitar fraudes financieros y el robo de información sensible.

Señales para identificar un deepfake de voz

Aunque la tecnología mejora cada año, existen indicios que pueden alertar sobre la autenticidad de una llamada:

Los atacantes generan una sensación de urgencia para que la víctima actúe sin pensar. Piden confidencialidad, desalientan consultas con terceros y utilizan datos personales para sonar convincentes.

El objetivo es aumentar las probabilidades de que la persona siga instrucciones sin verificar la autenticidad de la voz.

Las medidas de defensa combinan tecnología, procesos y capacitación como:

Te puede interesar