Si bien el intento fue detectado a tiempo, marca el inicio de una nueva generación de amenazas adaptadas a la era de la IA. ¿Cómo protegerse?
03.07.2025 • 11:55hs • Ciberseguridad
Ciberseguridad
Detectan el primer malware que manipula la IA de los sistemas de seguridad: ¿qué implica para empresas y usuarios?
La inteligencia artificial, cada vez más utilizada para frenar ciberataques, se encuentra ante un gran desafío que surgió en los últimos días: un malware diseñado para engañarla.
Check Point Research (CPR) identificó el primer caso documentado: un código malicioso subido de forma anónima a VirusTotal en junio de 2025 desde una IP de Países Bajos. Lo novedoso es que incluía un mensaje en lenguaje natural dentro del código, usando prompt injection para manipular al modelo de IA que lo analizaba.
En diálogo con iProUP, Gustavo Aldegani, experto en ciberseguridad con más de 30 años de trayectoria, explica que el prompt injection es "una técnica por medio de la cual un atacante podría forzar la introducción de código de programación en la propia Herramienta Antimalware con IA".
Este código no apunta a cualquier parte, sino que ataca específicamente al modelo LLM (Large Language Model) del sistema, responsable de interpretar y generar lenguaje humano.
El objetivo era lograr que la IA clasificara el archivo como inofensivo, en una maniobra similar a la que se utiliza para confundir asistentes conversacionales, pero orientada a la ciberseguridad. Aun así, el sistema MCP de Check Point consiguió detectarlo como malicioso.
La diferencia con un malware clásico
Aldegani indica que en el caso de las Herramientas de Ciberseguridad con IA, "se aprovecha que el motor de detección ya no es un software rígido sino un LLM entrenado para entender lenguaje humano, y tiene vulnerabilidades propias de su modelo".
El objetivo de esta estrategia "no es evitar que el Sistema de Ciberseguridad vea la amenaza, sino que se confunda y la tome como un componente normal del Sistema".
Por el contrario, el malware clásico intenta ocultar su comportamiento mediante técnicas como cifrado, ofuscación o detención de su ejecución al detectar un entorno de análisis.
"La diferencia fundamental es que ya no hablamos de un ataque a la Infraestructura de Ciberseguridad, sino a la lógica de la IA que intenta reforzar esa infraestructura", señala.
El objetivo de estos nuevos malwares, según detalla el experto en ciberseguridad, "no es evitar que el Sistema de Ciberseguridad vea la amenaza, sino que se confunda y la tome como un componente normal del Sistema", asegura.
Cómo pueden protegerse las empresas y los usuarios
Ni las empresas ni los usuarios pueden corregir los problemas de la IA de una solución de ciberseguridad. No pueden entrenarla, no pueden cambiar su arquitectura interna, y no pueden saber si es vulnerable a prompt injection.
Sin embargo, "lo único que pueden hacer es elegir proveedores que reconozcan el problema y lo estén abordando explícitamente", según señala Aldegani.
En este sentido, enumera algunos consejos para que las empresas tengan en cuenta:
- Exigir evidencia técnica pública de que la solución de Ciberseguridad que usan ha sido evaluada contra ataques de prompt injection o manipulación de IA. Si el proveedor no puede mostrar cómo mitiga eso, o ni siquiera reconoce el riesgo, esa herramienta ya está obsoleta.
- No depender exclusivamente de herramientas que usen modelos LLM para analizar amenazas. Las soluciones basadas en LLM están en una etapa temprana. Tienen buenas capacidades, pero también debilidades que aún no están resueltas. Lo mejor, hoy, es que la IA complemente y no reemplace a las Herramientas convencionales.
- Adoptar configuraciones de seguridad donde el análisis por IA sea una capa adicional, no la única barrera.
- Estar atentos a los falsos negativos, como, por ejemplo, un archivo claramente anómalo que la IA considera benigno pero las herramientas convencionales lo detectan como amenaza.
En el caso de los usuarios, Aldegani recomienda:
- Desconfiar de diagnósticos automáticos generados por Herramientas con IA, especialmente cuando no ofrecen una justificación clara. Si un sistema "explica" que un archivo es seguro, pero lo hace con lenguaje ambiguo o excesivamente positivo, es posible que haya sido influenciado por un prompt injection.
- Preferir herramientas que permitan ver logs, alertas cruzadas y análisis de comportamiento, no sólo texto generado por IA. Cuanto más simple es el diagnóstico, mayor es el riesgo.