La evolución de la inteligencia artificial (IA) en el último tiempo se vio ligada a una serie de amenazas cada vez más sofisticadas en el mundo digital.

Las estafas basadas en deepfakes —videos o imágenes falsos generados por IA que imitan a personas reales— están tomando una dimensión más profesionalizada y peligrosa.

Estafas que hablan y parecen reales

Según un informe de Wired y organizaciones de investigación, existen canales en plataformas como Telegram donde se reclutan personas, llamadas "modelos de IA", para actuar como la cara visible de campañas fraudulentas.

Estos modelos son entrenados con tecnología de deepfake para mantener videollamadas en tiempo real con víctimas, simulando ser alguien de confianza, un interés amoroso o un contacto legítimo.

El uso de estos modelos llegó a niveles alarmantes: algunas "jornadas laborales" implican entre 100 y 150 videollamadas diarias, con horarios que pueden extenderse hasta doce horas.

En muchos casos, las ofertas no detallan el propósito real del trabajo, lo que dificulta saber si los modelos participan voluntariamente o bajo coerción.

Cómo operan y qué buscan los estafadores

Según los especialistas, los ciberdelincuentes utilizan estos deepfakes no solo para parecer reales durante las videollamadas, sino también para construir una relación de confianza con sus víctimas.

De esta forma, la simulación puede dirigirse a obtener dinero, datos personales o a manipular decisiones de inversión y transacciones financieras.

Este tipo de fraude se inscribe dentro de las estafas románticas o financieras, donde la técnica va más allá de simples correos o perfiles falsos: ahora hay interacción directa y en tiempo real, lo que hace que los engaños sean mucho más convincentes y difíciles de detectar.

Estudios recientes estiman que los casos de estafas relacionadas con deepfakes crecieron exponencialmente, y se espera que las pérdidas globales vinculadas a estos fraudes alcancen cifras multimillonarias en los próximos años.

La facilidad con la que se pueden generar videos y audios falsos con apariencia creíble encendió las alarmas en los sectores de ciberseguridad y legal.

No solo las víctimas particulares están en riesgo: actualmente, empresas y organizaciones pueden ser blanco de manipulaciones profundas que parecen legítimas incluso para expertos.

Te puede interesar