Los ciberdelincuentes utilizan la IA para crear videos y audios falsos cada vez más realistas. Pérdidas millonarias y campañas de desinformación
15.09.2025 • 07:11hs • Ciberseguridad
Ciberseguridad
De Messi a Ferrari: cómo los deepfakes se convirtieron en la nueva arma del cibercrimen
Los ciberdelincuentes encontraron en la inteligencia artificial una herramienta para hacer sus engaños más creíbles y difíciles de detectar. El fenómeno de los deepfakes —audios o videos falsos generados por IA— ya no es exclusivo de personalidades de renombre, sino que también alcanza a empresas y hasta instituciones educativas.
Según ESET Latinoamérica, en los últimos meses se multiplicaron los intentos de estafa con esta modalidad, que tiene como objetivos tanto la obtención de dinero como la propagación de desinformación.
"El avance de la IA permite que estos contenidos parezcan cada vez más reales. Muchos explotan la imagen de figuras públicas o entidades reconocidas como parte de engaños que buscan obtener dinero o información sensible", explicó Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica.
Casos emblemáticos de estafas con deepfakes
- Lionel Messi: se utilizó su imagen en un video falso para promocionar una aplicación fraudulenta llamada Wildcat Dive. Los delincuentes se valieron de fragmentos de entrevistas reales del futbolista para dar credibilidad al engaño.
- Arup: un empleado en Hong Kong transfirió más de u$s25 millones luego de mantener una videollamada con quien creyó que era su director financiero, pero en realidad era un deepfake.
- Ferrari: los atacantes clonaron la voz del CEO Benedetto Vigna para pedir una millonaria transferencia. Un empleado sospechó y evitó el fraude.
- WPP: los ciberdelincuentes suplantaron al CFO de la compañía en una reunión virtual falsa. Gracias a la capacitación de los empleados, el ataque fue detectado y no prosperó.
- Escuela en Baltimore: se difundió un audio manipulado con comentarios racistas y antisemitas atribuidos al director. El hecho se viralizó, generó amenazas y luego se comprobó que era falso.
- Elon Musk: se usó su imagen en anuncios fraudulentos de criptomonedas en redes sociales, con pérdidas superiores a u$s80 millones para más de 7.000 víctimas, según la FTC estadounidense.
- Volodímir Zelensky: en 2022 circuló un video en el que el presidente de Ucrania instaba a sus tropas a rendirse. El mandatario respondió con un mensaje oficial para desmentir la manipulación.
Cómo protegerse de los deepfakes
ESET recomienda adoptar medidas preventivas para no caer en este tipo de engaños:
- Desconfiar de anuncios llamativos que prometan ganancias extraordinarias
- Prestar atención a la calidad del video: errores visuales o de sincronización pueden delatar un fraude
- Usar software de seguridad en todos los dispositivos
- En las empresas, evitar autorizar pagos solo por videollamadas y utilizar códigos internos de validación
- Capacitar a los equipos para detectar señales de alerta
- Aprovechar las herramientas disponibles para identificar deepfakes y combatir la desinformación