Los cibercriminales aprovechan tecnologías como la IA generativa y los modelos de lenguaje (LLM) para hacer que la identidad digital sea menos confiable
13.05.2025 • 18:30hs • Ciberseguridad
Ciberseguridad
¿Cuáles son las 4 ciberamenazas impulsadas por IA más usadas por delincuentes?
La compañía especializada en ciberseguridad, Check Point Software Technologies, publicó su primer Informe sobre Seguridad de Inteligencia Artificial durante su participación en la Conferencia RSA 2025.
El documento ofrece un panorama sobre el uso que hacen los ciberdelincuentes de la IA como herramienta de ataque y brinda una serie de recomendaciones para defenderse de estas amenazas.
La adopción de inteligencia artificial (IA) transforma múltiples sectores, pero también genera una creciente dificultad para diferenciar la información verdadera de la manipulada en el entorno digital.
Los atacantes aprovechan esta confusión o falta de información y aprovechan tecnologías como la IA generativa y los grandes modelos de lenguaje (LLM) para hacer que la identidad digital sea menos confiable.
Las técnicas de suplantación potenciadas por IA, son tan sofisticadas que logran sortear incluso los controles de verificación más robustos, exponiendo a cualquier usuario al riesgo de fraudes masivos. "La rápida adopción de la IA por parte de los ciberdelincuentes ya está transformando el panorama de amenazas", explicó Lotem Finkelstein, director de Check Point Research.
Y añadió: "Si bien algunos servicios clandestinos se han vuelto más avanzados, todo apunta a un cambio inminente: el auge de los gemelos digitales. No se trata solo de imitadores o imitadores, sino de réplicas impulsadas por IA capaces de imitar el pensamiento y el comportamiento humanos".
Técnicas de manipulación más usadas por criminales vía IA
El documento identifica la capacidad de la IA para falsear y modificar identidades digitales como uno de los principales desafíos actuales, y hacer cada vez más difícil distinguir entre lo auténtico y lo manipulado.
Algunos de las técnicas más frecuentes que utilizan los ciberdelincuentes son:
- Suplantación de identidad potenciada por IA e ingeniería social: los criminales digitales usan IA para crear mensajes de phishing verosímiles, audios y videos falsos (deepfakes) generados en tiempo real
- Manipulación de datos y propagación de desinformación: grupos maliciosos intervienen los datos con los que se entrenan los modelos de IA, generando sesgos en los resultados
- Generación de malware y extracción de información mediante IA: los atacantes utilizan IA para desarrollar software malicioso, automatizar ataques DDoS y optimizar el uso de credenciales robadas. Plataformas como Gabbers Shop recurren a estas tecnologías para validar y depurar bases de datos sustraídas, aumentando su valor en el mercado negro
- Uso de armas de IA y secuestro de modelos: desde la apropiación de cuentas de grandes modelos lingüísticos hasta la comercialización de versiones oscuras como FraudGPT y WormGPT.
Los delincuentes están creando herramientas basadas en IA específicamente diseñadas para actividades ilegales en la dark web.
Recomendaciones para la defensa
El informe hace foco en que los equipos de ciberseguridad deben partir del supuesto de que la IA ya está integrada en las operaciones del adversario y sugiere adoptar un enfoque proactivo, que incluya:
- Análisis y detección asistidos por IA: aplicar herramientas basadas en IA para identificar contenido manipulado, como correos falsos y deepfakes
- Verificación de identidad reforzada: superar los métodos convencionales mediante sistemas multicapa capaces de verificar la autenticidad de texto, audio y video, en un entorno donde la identidad digital es fácilmente falsificable
- Inteligencia de amenazas con enfoque en IA: proporcionar a los analistas herramientas que les permitan comprender y responder con rapidez a técnicas impulsadas por inteligencia artificial
"En esta era impulsada por la IA, los equipos de ciberseguridad necesitan adaptarse al ritmo de los atacantes integrándola en sus defensas. Este informe no solo destaca los riesgos, sino que también proporciona la hoja de ruta para proteger los entornos de IA de forma segura y responsable", completó Finkelstein.