La empresa especializada en IA, Anthroic, anticipó que en un año surgirán empleados virtuales impulsados por inteligencia artificial, por lo que en términos de seguridad, esto significaría que los agentes autónomos podrán encargarse de gestionar alertas de phishing y otros indicadores de amenazas.

Según destacó Jason Clinton, el principal responsable de seguridad de la compañía, estos empleados llevarían la automatización un paso más allá, ya que se trabaja para que tengan sus propias memorias, roles específicos dentro de la empresa, y sus propias cuentas y contraseñas corporativas.

Desde la perspectiva de Anthropic, existen dos aspectos clave que deben considerarse para abordar los retos de seguridad relacionados con la inteligencia artificial:

Grandes problemas de seguridad que resolver

El ejecutivo señala que existen diversos problemas de seguridad relacionados con los empleados virtuales que la empresa aún no resolvió y que necesita abordar. 

Estos desafíos incluyen cómo proteger las cuentas de usuario de los empleados de IA, qué nivel de acceso a la red deben tener y quién será el responsable de gestionar sus acciones.

Como ejemplo, Clinton explicó que los administradores de red ya enfrentan dificultades para monitorear qué cuentas tienen acceso a distintos sistemas y defenderse de los atacantes que adquieren contraseñas reutilizadas de empleados en la Dark Web.

Los empleados de IA podrían actuar sin autorización, atacando o alterando el sistema de la empresa (donde se fusiona y prueba el nuevo código antes de su implementación) mientras ejecutan una tarea.

Si esto ocurriera en el contexto de los empleados humanos, sería considerado un delito y conllevaría una sanción para la persona responsable. Y el directivo de Anthropic se plantea: "En este nuevo escenario, ¿quién es responsable de un agente que ha llegado a este punto?".

Te puede interesar