Anthropic, la empresa de inteligencia artificial (IA) desarrolladora de los modelos Claude, quedó en el centro de un nuevo caso que reaviva el debate sobre el uso de la IA en el cibercrimen, luego de que investigadores indicaron que un atacante utilizó su chatbot Claude para automatizar intrusiones contra organismos públicos de México.

La investigación fue realizada por la startup israelí, Gambit Security, que sostiene que utilizaron instrucciones en español para que la IA actuara como un "hacker de élite", capaz de detectar vulnerabilidades, escribir scripts de explotación y proponer mecanismos para automatizar el robo de información.

Según el reporte, la campaña se habría extendido durante aproximadamente un mes, desde diciembre, y habría derivado en la sustracción de unos 150 gigabytes de datos pertenecientes a distintas dependencias del Estado mexicano.

Entre la información comprometida se mencionan documentos vinculados a unos 195 millones de registros de contribuyentes, además de padrones electorales, credenciales de empleados públicos y archivos del registro civil.

De acuerdo con Gambit, los organismos afectados incluirían a la autoridad fiscal federal y al Instituto Nacional Electoral, así como a gobiernos estatales de México, Jalisco, Michoacán y Tamaulipas, además del registro civil de la Ciudad de México y la empresa de agua de Monterrey.

Los investigadores señalaron que el objetivo operativo del atacante habría sido reunir la mayor cantidad posible de identidades de empleados gubernamentales, aunque hasta el momento no está claro qué uso concreto se dio a esa información.

Anthropic, criticado en México por un ciberatauque que involucró a sus modelos Claude

Cómo Claude fue utilizado para explotar vulnerabilidades del sistema

En términos técnicos, el informe de Gambit Security sostiene que el atacante explotó al menos 20 vulnerabilidades distintas y que el proceso fue iterativo, ya que cuando Claude encontraba obstáculos o pedía más contexto, el operador recurría a otros modelos de IA para avanzar.

El caso refleja una tendencia creciente: la IA generativa comienza a actuar como un acelerador del cibercrimen, al facilitar la automatización de tareas y la planificación de ataques cada vez más complejos.

Desde el plano institucional, el Instituto Nacional Electoral indicó que no detectó accesos no autorizados en los últimos meses y que reforzó su estrategia de ciberseguridad

El reporte también describe cómo el atacante logró sortear los controles del sistema: de acuerdo con Gambit, Claude advirtió inicialmente sobre la intención maliciosa, pero terminó respondiendo tras una secuencia de reformulaciones que permitió superar las barreras de seguridad.

Desde OpenAI confirmaron que detectaron intentos de uso indebido de sus modelos en este episodio, bloquearon las cuentas involucradas e indicaron que sus herramientas se negaron a colaborar con esas actividades.

Para Curtis Simpson y Alon Gromakov, el episodio deja en evidencia que los modelos avanzados de IA están cambiando las reglas de la ciberseguridad, al permitir que un solo atacante multiplique de forma significativa su capacidad operativa.

Te puede interesar