Una de las mayores empresas de IA alerta que en un año habrá empleados virtuales con IA. ¿Esto es peligroso para la ciberseguridad?
24.04.2025 • 07:27hs • Inteligencia Artificial
Inteligencia Artificial
En un año habrá empleados virtuales con IA: por qué podrían ser un gran riesgo
La empresa especializada en IA, Anthroic, anticipó que en un año surgirán empleados virtuales impulsados por inteligencia artificial, por lo que en términos de seguridad, esto significaría que los agentes autónomos podrán encargarse de gestionar alertas de phishing y otros indicadores de amenazas.
Según destacó Jason Clinton, el principal responsable de seguridad de la compañía, estos empleados llevarían la automatización un paso más allá, ya que se trabaja para que tengan sus propias memorias, roles específicos dentro de la empresa, y sus propias cuentas y contraseñas corporativas.
Desde la perspectiva de Anthropic, existen dos aspectos clave que deben considerarse para abordar los retos de seguridad relacionados con la inteligencia artificial:
- Primero, realizar pruebas exhaustivas a los modelos de Claude para asegurar que sean resistentes frente a ciberataques
- Segundo, monitorear posibles riesgos de seguridad y reducir las formas en las que actores malintencionados puedan aprovecharse de Claude, según detalló Clinton
Grandes problemas de seguridad que resolver
El ejecutivo señala que existen diversos problemas de seguridad relacionados con los empleados virtuales que la empresa aún no resolvió y que necesita abordar.
Estos desafíos incluyen cómo proteger las cuentas de usuario de los empleados de IA, qué nivel de acceso a la red deben tener y quién será el responsable de gestionar sus acciones.
Como ejemplo, Clinton explicó que los administradores de red ya enfrentan dificultades para monitorear qué cuentas tienen acceso a distintos sistemas y defenderse de los atacantes que adquieren contraseñas reutilizadas de empleados en la Dark Web.
Los empleados de IA podrían actuar sin autorización, atacando o alterando el sistema de la empresa (donde se fusiona y prueba el nuevo código antes de su implementación) mientras ejecutan una tarea.
Si esto ocurriera en el contexto de los empleados humanos, sería considerado un delito y conllevaría una sanción para la persona responsable. Y el directivo de Anthropic se plantea: "En este nuevo escenario, ¿quién es responsable de un agente que ha llegado a este punto?".