Los atacantes combinan inteligencia artificial con urgencia y datos personales para aumentar la efectividad de los fraudes telefónicos
30.03.2026 • 08:03hs • Inteligencia artificial
Inteligencia artificial
No es un familiar ni alguien conocido: así funcionan las nuevas estafas con voz clonada
Los deepfakes de voz son una nueva amenaza para usuarios y empresas: cada vez más estafadores utilizan inteligencia artificial para imitar voces y engañar en llamadas telefónicas.
Los ciberdelincuentes pueden hacerse pasar por ejecutivos de alguna empresa, proveedores o incluso familiares, generando confianza para facilitar el engaño.
Un ataque típico comienza con la obtención de un breve clip de voz de la víctima, disponible en redes sociales, entrevistas o grabaciones públicas.
Con ese material, los estafadores entrenan un modelo capaz de reproducir frases preestablecidas o responder en tiempo real.
Luego llaman a la persona y, mediante técnicas de ingeniería social, solicitan transferencias de dinero, cambios de contraseñas o datos confidenciales.
Detectar estas falsificaciones es clave para evitar fraudes financieros y el robo de información sensible.
Señales para identificar un deepfake de voz
Aunque la tecnología mejora cada año, existen indicios que pueden alertar sobre la autenticidad de una llamada:
- La voz se percibe monótona, sin cambios de tono que acompañen la emoción de la situación
- Las frases se extienden sin cortes o aparecen sonidos poco creíbles
- El audio puede tener un matiz metálico o robótico, sobre todo en sistemas menos sofisticados
- El fondo puede ser demasiado limpio, uniforme o directamente inexistente
- El mensaje puede contener respuestas incoherentes o evasivas ante temas inesperados
Los atacantes generan una sensación de urgencia para que la víctima actúe sin pensar. Piden confidencialidad, desalientan consultas con terceros y utilizan datos personales para sonar convincentes.
El objetivo es aumentar las probabilidades de que la persona siga instrucciones sin verificar la autenticidad de la voz.
Las medidas de defensa combinan tecnología, procesos y capacitación como:
- Confirmar solicitudes por otro canal, como correo oficial
- Requerir la autorización de dos personas para transferencias o cambios bancarios
- Establecer contraseñas verbales conocidas solo por los involucrados
- Capacitar a empleados y usuarios sobre este tipo de tácticas de estafa
- Reducir la difusión de la voz