A medida que la adopción de la IA se acelera y las amenazas cibernéticas se vuelven más sofisticadas, los líderes de seguridad informática reconocen la necesidad de una transformación fundamental en sus prácticas de seguridad.

A pesar de que el 66% de las organizaciones esperan que la IA impacte significativamente en la ciberseguridad, solo el 37% cuenta con procesos para evaluar la seguridad de las herramientas de IA antes de su implementación, según el Global Cybersecurity Outlook del Foro Económico Mundial. Esto resalta la paradoja de la rápida implementación de IA sin las precauciones  adecuadas.

Por su parte, el último informe State of IT de Salesforce reveló que el 48% de los líderes globales de seguridad IT están preocupados porque sus bases de datos no están listas para aprovechar plenamente la IA agéntica, y  a ello se suma que el 55% no tiene plena confianza en sus actuales medidas de seguridad.

El desafío se agrava en un panorama de seguridad cada vez más complejo, donde la intoxicación de los datos —cuando actores maliciosos corrompen intencionalmente datos de entrenamiento de modelos de IA — se ha convertido en una preocupación importante para los líderes de IT.

Si bien los agentes autónomos de IA prometen complementar a los humanos, mejorar la detección de amenazas, acelerar los tiempos de respuesta y liberar a los equipos de seguridad para concentrarse en problemas más complejos, la brecha en infraestructura y el gobierno de los datos limitará su capacidad de proteger la información y garantizar el cumplimiento normativo.

En este contexto no quedan dudas: el camino hacia una IA confiable y con impacto se logra contando con datos de calidad. Para desplegar agentes de IA confiables, las organizaciones necesitan un enfoque holístico que incluya contar con una base de datos bien gobernada, medidas de seguridad implementadas y supervisión continua a lo largo del ciclo de vida de la IA. Así es cómo podemos lograrlo:

Construir un marco moderno de gobierno de datos:

En muchas organizaciones los datos están dispersos en diversos sistemas y archivos, incluyendo información estructurada como bases de datos, y contenido no estructurado como videos, audios y textos de múltiples fuentes.

Las políticas de gobierno tradicionales, a menudo ligadas a plataformas específicas, son insuficientes para el acceso unificado y sin fricciones que requieren los agentes autónomos de IA. Esta fragmentación dificulta la escalabilidad, genera inconsistencias, complica el cumplimiento normativo e incrementa los riesgos de seguridad. Gartner estima que el 60% de los proyectos de IA son abandonados cuando no cuentan con una base de datos sólida, de calidad, con datos que sean una representación fiel de la realidad.   

Para superar esto, la era agéntica exige repensar el gobierno de los datos. El objetivo no es consolidar toda la información en un solo lugar, lo cual suele ser poco práctico. En cambio, requiere un marco basado en la fluidez de los datos, que permita una visión coherente de la información y su contexto asociado sin importar su ubicación física. Este enfoque es esencial para generar confianza en los datos.

Implementar salvaguardas de seguridad y protección:

Más allá de la estructura de gobierno, implementar controles de seguridad y protección robustos es fundamental.

Las empresas necesitan crear entornos seguros para desarrollar y probar rigurosamente agentes de IA. El uso de sandboxes (entornos aislados de prueba) permite a los equipos construir y validar el comportamiento de los agentes utilizando datos reales de forma segura. Especificar instrucciones y alcances así como definir restricciones ayuda a controlar el procesamiento y la toma de decisiones durante las pruebas. Los chequeos de adherencia a instrucciones en esta fase permiten monitorear el comportamiento de los agentes y asegurar que actúen según lo previsto.

Una vez desplegados los agentes, las salvaguardas integradas y la monitorización continua son esenciales. Estos controles guían a los agentes a operar dentro de límites definidos, evitando acciones no intencionadas y detectando comportamientos dañinos. El monitoreo del comportamiento y las capacidades de observabilidad facilitan la resolución de problemas si las políticas o clasificaciones generan resultados inesperados.

Impulsar la sinergia entre humanos y agentes:

La manera más efectiva de aprovechar la mano de obra digital es estableciendo una asociación entre humanos y agentes.

Es clave garantizar que los agentes puedan transferir tareas sin fricciones a contrapartes humanas cuando surjan escenarios complejos. Este enfoque híbrido es central para que las empresas desplieguen agentes de IA con confianza y se espera que sea necesario en la mayoría de los casos de uso en el futuro cercano.

Pero los agentes de IA solo son tan confiables y seguros como los datos con los que trabajan. Para construir esta confianza, las organizaciones deben asegurar acceso unificado a los datos en toda la empresa, contar con potentes herramientas de desarrollo y aplicar medidas de seguridad y gobierno sólidas e integradas.

La capacidad de crear agentes de IA que sean confiables y responsables, y que además generen valor real de negocio y mejoren la experiencia del cliente, será la medida del éxito en la era agéntica.

*Por Marisol Pacchioni, Senior Director Solution Engineering at Salesforce - Marketing Cloud

Te puede interesar