Carlos Lizarralde, , CEO y Co-founder de 7Puentes, advierte sobre la necesidad de que los sistemas operen de forma más segura, ética y transparente
29.07.2025 • 14:30hs • Columna
Columna
Autonomía regulada: la importancia de la gobernanza de los agentes de IA
El potencial de los agentes autónomos de inteligencia artificial (IA) en sectores críticos como el petróleo y gas es enorme: ofrecen mejoras sin precedentes en optimización y eficiencia, además de abrir nuevas fronteras operativas.
Sin embargo, este contexto instala la necesidad de un marco de gobernanza robusto para guiar la autonomía de los agentes de IA, particularmente en entornos de alto riesgo donde la precisión y el control son fundamentales.
Autonomía regulada: la importancia de la gobernanza de los agentes de IA
¿Qué es la gobernanza de la inteligencia artificial? Es aquella que se refiere a los procesos, estándares y barreras que ayudan a garantizar la seguridad y la ética de los sistemas y herramientas de IA. En lo que respecta a la IA agéntica, los marcos de gobernanza deberán actualizarse para tener en cuenta su autonomía.
Con respecto a la IA agente (agentic AI), los marcos de gobernanza deberán actualizarse para tener en cuenta su autonomía. El potencial económico de los agentes es enorme, pero también lo es el panorama de riesgos asociado.
Fomentar que los sistemas inteligentes operen de manera más segura, ética y transparente será una preocupación creciente a medida que los modelos se vuelvan más autónomos. Y los agentes automatizados existen en todas partes, puntualmente en áreas como:
- Servicio al cliente
- Servicios financieros
- Planificación logística
- Mantenimiento predictivo
- Detección de anomalías
Actualmente, existen cuatro dimensiones claves cuando hablamos de gobernanza.
A. Transparencia
Ambos equipos, técnicos y comerciales, pueden comprender cómo funciona el agente de IA. Esto va a garantizar trazabilidad. En el caso de Oil and Gas, por ejemplo, si un agente de IA tiene que decidir cómo actuar ante una fuga de bombeo, allí ya tiene estructurados los pasos a seguir que se realizan bajo un plan de respuesta a emergencia con una constante supervisión del personal.
B. Accountability
Estableciendo una asignación clara de roles para cada etapa de los agentes de IA, lograremos una adecuada gobernanza. Por ejemplo, los científicos de datos pueden ser responsables de la precisión del modelo, los ingenieros de datos de la arquitectura, los equipos legales de la parte de compliance y los equipos de operaciones de monitorear el comportamiento de los agentes en el mundo real.
C. Auditoría continua
Tiene que ser un proceso continuo que implica que la empresa cuente con dashboards con registros, revisiones de sesgo, rendimiento, seguimientos de procesos, solo por mencionar algunos ítems. Esas revisiones periódicas evalúan degradaciones del rendimiento, sesgos, o desviaciones del comportamiento esperado y si es necesario -de manera urgente- pueden desactivar a alguno de los agentes.
D. Human-in-the-loop
Con el humano en el circuito, los mecanismos de bucle garantizan que el personal humano pueda intervenir cuando los agentes se encuentran con nuevas situaciones o decisiones de alto riesgo para que el humano pueda corregir el comportamiento y definir rutas para escalar el problema.
Sin dudas que las organizaciones deben adoptar modelos de gobernanza escalables, implementar protocolos sólidos de infraestructura tecnológica y gestión de riesgos e integrar la supervisión humana en el proceso. Si las organizaciones, especialmente en Oil & Gas, pueden escalar los sistemas de agentes de forma segura, podrán obtener un valor prácticamente ilimitado.
*Por Charly Lizarralde, CEO y Co-founder de 7Puentes