Google DeepMind presentó un plan para cambiar la forma en que los agentes de inteligencia artificial asignan y ejecutan tareas.
Los investigadores Nenad Tomašev, Matija Franklin y Simon Osindero proponen lo que llaman "delegación inteligente de IA": un sistema donde los agentes trabajan con roles claros, contratos verificables, mecanismos de confianza y control de resultados.
El punto de partida es simple: cuando un usuario le pide a un asistente de IA que escriba un correo o agende una reunión, está delegando. Pero los sistemas actuales funcionan con reglas rígidas, sin capacidad de adaptarse ante fallas ni forma de verificar si la tarea se completó bien.
El framework se apoya en cinco pilares: evaluación dinámica del agente antes de asignarle una tarea; ejecución adaptativa que permite cambiar de agente en tiempo real si el contexto lo requiere; transparencia para que cada paso sea auditable; coordinación de mercado donde los agentes compiten por tareas con ofertas y contratos inteligentes; y resiliencia para prevenir fallas en cadena y asignar responsabilidad.
Un aporte central del paper es su modelo de reputación: en lugar de una puntuación genérica, cada agente construye un portafolio de credenciales verificables, certificados digitales firmados que acreditan habilidades específicas. La confianza no se presume, se construye y se comprueba.
El documento también introduce la "descomposición contractual": si una tarea es demasiado compleja para validarse, el sistema la fragmenta en unidades verificables mediante tests automatizados o pruebas criptográficas de conocimiento cero, que permiten confirmar resultados sin exponer los datos.
En el terreno ético, los autores advierten sobre el "des-skilling": si la IA absorbe las tareas rutinarias, las personas pierden la capacidad de intervenir cuando algo falla.
También alertan sobre cadenas de delegación largas donde se diluye la responsabilidad, y proponen "cortafuegos" contractuales que obligan a un agente a asumir todo lo que ocurre aguas abajo o frenar y pedir autorización humana.
El paper señala que protocolos actuales como MCP de Anthropic y A2A de Google cubren solo parte de estas necesidades, y propone extensiones como tokens de autorización que reducen permisos a medida que bajan por la cadena y esquemas de monitoreo ajustables según la sensibilidad de cada tarea.
El framework no es aplicable en su totalidad hoy, pero traza la hoja de ruta para empresas que ya operan con agentes de IA: la delegación debe diseñarse, no improvisarse.