La inteligencia artificial, cada vez más utilizada para frenar ciberataques, se encuentra ante un gran desafío que surgió en los últimos días: un malware diseñado para engañarla.

Check Point Research (CPR) identificó el primer caso documentado: un código malicioso subido de forma anónima a VirusTotal en junio de 2025 desde una IP de Países Bajos. Lo novedoso es que incluía un mensaje en lenguaje natural dentro del código, usando prompt injection para manipular al modelo de IA que lo analizaba.

En diálogo con iProUP, Gustavo Aldegani, experto en ciberseguridad con más de 30 años de trayectoria, explica que el prompt injection es "una técnica por medio de la cual un atacante podría forzar la introducción de código de programación en la propia Herramienta Antimalware con IA".

Este código no apunta a cualquier parte, sino que ataca específicamente al modelo LLM (Large Language Model) del sistema, responsable de interpretar y generar lenguaje humano.

El objetivo era lograr que la IA clasificara el archivo como inofensivo, en una maniobra similar a la que se utiliza para confundir asistentes conversacionales, pero orientada a la ciberseguridad. Aun así, el sistema MCP de Check Point consiguió detectarlo como malicioso.

La diferencia con un malware clásico

Aldegani indica que en el caso de las Herramientas de Ciberseguridad con IA, "se aprovecha que el motor de detección ya no es un software rígido sino un LLM entrenado para entender lenguaje humano, y tiene vulnerabilidades propias de su modelo".

El objetivo de esta estrategia "no es evitar que el Sistema de Ciberseguridad vea la amenaza, sino que se confunda y la tome como un componente normal del Sistema".

Por el contrario, el malware clásico intenta ocultar su comportamiento mediante técnicas como cifrado, ofuscación o detención de su ejecución al detectar un entorno de análisis.

"La diferencia fundamental es que ya no hablamos de un ataque a la Infraestructura de Ciberseguridad, sino a la lógica de la IA que intenta reforzar esa infraestructura", señala.

El objetivo de estos nuevos malwares, según detalla el experto en ciberseguridad, "no es evitar que el Sistema de Ciberseguridad vea la amenaza, sino que se confunda y la tome como un componente normal del Sistema", asegura.

Cómo pueden protegerse las empresas y los usuarios

Ni las empresas ni los usuarios pueden corregir los problemas de la IA de una solución de ciberseguridad. No pueden entrenarla, no pueden cambiar su arquitectura interna, y no pueden saber si es vulnerable a prompt injection.

Sin embargo, "lo único que pueden hacer es elegir proveedores que reconozcan el problema y lo estén abordando explícitamente", según señala Aldegani.

En este sentido, enumera algunos consejos para que las empresas tengan en cuenta:

En el caso de los usuarios, Aldegani recomienda:

Te puede interesar