Para comprender el panorama de amenazas de 2026, es necesario poner el foco en la diferencia entre la IA generativa y los agentes de IA.
La primera piensa: redactar correos electrónicos de phishing o resumir un informe de vulnerabilidad.
La segunda, actúa como si tuviera manos. Con la indicación adecuada, puede iniciar sesión en un CRM, descargar una lista de clientes y enviarla por correo electrónico a la competencia.
Implementar un agente autónomo con IA para automatizar tareas es también crear miles de identidades digitales con acceso a sistemas sensibles.
En este contexto, la moderación de contenido deja lugar a la gestión de permisos. Al otorgar a los agentes de IA la capacidad de actuar en nuestro nombre, activamos miles de "empleados digitales" que nunca duermen ni se quejan, pero que pueden ser fácilmente engañados para que nos traicionen.
A esto, hay que sumar una nueva crisis que asoma en el horizonte: las identidades no humanas (NHI, por sus siglas en inglés).
Luego de dedicar una década a perfeccionar el concepto de zero trust con foco en los seres humanos, incluyendo reconocimiento biométrico, autenticación multifactor o inicios de sesión único, ahora resulta que el usuario principal de las redes ya no serán personas.
Los agentes de IA requieren miles de conexiones autónomas para funcionar y están generando una incontable cantidad de claves API y tokens de servicio.
La próxima gran brecha no implicará el robo de una contraseña, sino una clave API huérfana creada por un agente de IA para una tarea que finalizó hace seis meses. La pregunta pertinente ya no es "¿Quién inicia sesión?", sino "¿Qué inicia sesión?".
De la prevención a la resiliencia
Todo esto ocurre en un contexto en el que, a pesar de la poca experiencia, se acumulan algunos errores significativos. Ya desde este año, presas del pánico, las empresas corrieron a adquirir herramientas específicas de "seguridad de la IA" y terminaron creando otro silo.
Por las malas, aprenderemos la lección: el contexto es clave. No se puede proteger un agente sin comprender la infraestructura en la que se ejecuta, las identidades que hereda ni las vulnerabilidades de su código.
En este terreno, las plataformas de gestión de la exposición permiten mapear la ruta completa de ataque, desde una configuración errónea en la nube hasta la toma de control total por parte del agente.
La "seguridad de la IA" es una ilusión. El verdadero enfoque es la "protección del negocio que utiliza IA". Parece sutil, pero es la diferencia entre concentrarse en un árbol que se quema o atender un incendio forestal completo.
Otra tendencia que asoma con fuerza de cara a 2026 tiene que ver con una evolución de los CISOs, que pasarían de un modelo de "confianza cero" a otro de "inactividad cero".
Así como el CISO de hace 3 años estaba obsesionado con la prevención, ahora el concepto predominante es el de resiliencia. ¿Qué significa esto? Que el éxito radica en la velocidad y la capacidad de recuperación y no en la cantidad de ataques bloqueados.
La ââmentalidad cambió hacia la llamada "regla de las 24 horas": se da por hecho que en algún momento se va a sufrir una vulneración de seguridad, por lo que todo el esfuerzo está puesto en que se puede detectar, contener y recuperarse dentro de las 24 horas de ocurrida, ya que en esa brecha puede contenerse el impacto en el negocio.
Vemos una transición hacia la "seguridad mínima viable": garantizar que el 10% crítico de los activos sea infalible en lugar de proteger superficialmente el 100% del patrimonio.
Latinoamérica: víctima de su agilidad y su creatividad
Algunos de estos desafíos se multiplican cuando hablamos puntualmente de Latinoamérica. La región prospera gracias a la agilidad, desde los flujos de trabajo de WhatsApp hasta las soluciones alternativas creativas.
En 2026, este hábito cultural de velocidad e improvisación se manifestará en un nuevo riesgo: empleados que implementan agentes de IA no autorizados para "resolver más rápido".
¿El riesgo? Una crisis de "agentes fantasma", con acceso a los datos de la empresa, pero sin supervisión de seguridad.
Los empleados ya eluden los controles corporativos para utilizar herramientas de IA gratuitas.
Este fenómeno no se detendrá con los agentes autónomos. Por eso, es necesario gobernar la IA no con prohibiciones, sino con observabilidad: monitorear de manera continua que ningún colaborador le dé de buena fe su contraseña a un agente de IA al azar para "ganar eficiencia".
Entender que basta con una instrucción errónea, una solicitud manipulada o un permiso mal utilizado para que la IA deje de ser el impulsor de productividad idealizado y se constituya en una nueva clase de amenaza interna es el punto de partida para estar bien preparados y evitar tener la organización acaparada por "agentes fantasma" que toman decisiones sin control.
*Por Alejandro Dutto, Director de Ingeniería de Seguridad para Tenable América Latina y Caribe