La adopción de la Inteligencia Artificial Generativa en el mundo corporativo ha sido tan veloz que ha pasado por encima de cualquier protocolo de ciberseguridad. Hoy, el 70% de los empleados utiliza herramientas de IA en su jornada diaria, pero lo hace bajo el fenómeno del "Shadow AI": sin el consentimiento ni la supervisión de los departamentos de IT.
Esta adopción "silenciosa" no es una simple falta administrativa; es una puerta abierta a filtraciones de datos que las defensas tradicionales no pueden contener. En este contexto, F5 Labs lanzó sus AI Security Leaderboards, una serie de clasificaciones que identifica los 10 modelos de IA más vulnerables y peligrosos basándose en evidencia técnica de febrero de 2026.
El podio de la seguridad: Ganadores y perdedores
El informe arroja datos contraintuitivos sobre los gigantes del sector. Para los directores de seguridad (CISO), el mensaje es claro: la potencia no siempre es sinónimo de resiliencia.
-
El dominio de Anthropic: Actualmente, los modelos de Anthropic (creadores de Claude) ocupan los niveles más altos de seguridad. Han demostrado una arquitectura más robusta frente a intentos de manipulación.
-
El retroceso de OpenAI: A pesar de su capacidad bruta, los modelos de la familia GPT han caído del nivel superior de seguridad. Se detectaron vulnerabilidades de "cero clics" que afectan su integración. Aunque el nuevo GPT-5.2 mejoró 11 puntos respecto a su versión anterior, sigue por debajo de Anthropic.
-
La brecha de Google Gemini: El informe señala un desequilibrio notable en la herramienta de Google. Posee una gran capacidad de procesamiento pero una seguridad débil, quedando muy lejos de sus principales competidores.
Métricas para "estresar" a la IA
Para alejarse del marketing de los proveedores, F5 Labs implementó dos estándares de medición técnica:
CASI (Comprehensive AI Security Index): Mide qué tan vulnerable es un modelo ante inyecciones de prompts y "jailbreaks" (manipulaciones para forzar respuestas dañinas).
ARS (Agentic Resistance Score): Evalúa la resistencia frente a agentes autónomos que usan "métodos psicológicos" y razonamiento para saltar protecciones en interacciones prolongadas.
Nuevas amenazas: Del "Juego de Palabras" al "MathPrompt"
La seguridad de la IA se ha convertido en una carrera armamentista. El informe advierte sobre técnicas de ataque sofisticadas que logran evadir filtros de seguridad de millones de dólares:
-
WordGame (Juego de Palabras): Los atacantes ocultan intenciones maliciosas dentro de acertijos o juegos de palabras aparentemente inofensivos para ofuscar la lógica del modelo.
-
MathPrompt: Es quizás el más peligroso por su sutileza. Disfraza solicitudes dañinas dentro de problemas matemáticos complejos (álgebra o teoría de conjuntos). El modelo, al tratarlo como un ejercicio educativo, resuelve el problema y revela información sensible sin detectar la intención maliciosa.
La paradoja del "modelo pequeño"
Un dato clave para la toma de decisiones corporativas es que los modelos más pequeños, como el GPT-5-nano, suelen ser más resilientes que sus hermanos mayores. Esto ocurre porque carecen de la sofisticación necesaria para comprender la lógica compleja y estratificada de los ataques avanzados. "A veces, la simplicidad es la mejor defensa", destaca el estudio.
Para los expertos de F5, desplegar modelos de IA no verificados en infraestructura crítica no es innovación, sino negligencia. En un 2026 donde la IA ya es parte del mobiliario de la oficina, la prioridad para las empresas argentinas debe ser auditar qué herramientas están usando sus empleados antes de que el "Shadow AI" provoque un desastre financiero o reputacional.