La dimisión de Mrinank Sharma como jefe de seguridad de Anthropic encendió las alarmas en el sector tecnológico.
El investigador, doctor por Oxford y responsable del área de salvaguardas desde agosto de 2023, publicó una carta pública en la que advierte que "el mundo está en peligro" por una serie de crisis interconectadas.
Sharma lideraba proyectos críticos para mitigar riesgos como el bioterrorismo asistido por IA y la tendencia de los chatbots a la sycophancy, es decir, adular al usuario en lugar de ser objetivos.
Su salida se produce en un momento en que la compañía busca una valoración de u$s350.000 millones, respaldada por gigantes como Amazon y Google.
La tensión entre valores éticos y ambición comercial es el eje de su denuncia.
Crisis ética en Anthropic
En su carta, Sharma resaltó que fue extremadamente difícil dejar que los valores guiaran las acciones dentro de la empresa.
Según su testimonio, sufrió presiones constantes para ignorar principios fundamentales, algo que choca con la imagen pública de Anthropic, fundada con la bandera de la seguridad.
La compañía acaba de presentar Claude Opus 4.6, su modelo más potente, mientras sus expertos más veteranos abandonan el proyecto.
El contraste entre la innovación tecnológica y la falta de crecimiento en la "sabiduría humana" es uno de los puntos más críticos de su mensaje.
La renuncia recuerda lo ocurrido en OpenAI, donde Jan Leike dimitió por discrepancias similares y ahora trabaja en Anthropic.
El peso de la integridad frente al negocio
La carta de Sharma es un documento filosófico que cita a poetas como Rilke para explicar su marcha.
El experto se refirió a una crisis de integridad que trasciende la regulación oficial de la IA y cuestiona los cimientos morales de la empresa.
Resulta paradójico que Anthropic, que prometió no incluir anuncios en Claude para parecer más responsable, sea acusada desde dentro de flaquear en sus valores.
Aunque no aporta pruebas concretas de mala praxis, su advertencia sobre un mundo en peligro resuena con fuerza.
El mensaje conecta con los riesgos reconocidos públicamente por OpenAI sobre ciberataques autónomos en modelos avanzados.
La brecha entre marketing del riesgo y realidad comercial se amplía cada vez más.
Consecuencias para el sector de la IA
La dimisión de Sharma confirma lo que algunos analistas llaman el "invierno de la IA", una crisis que nadie quiso ver venir.
La salida de un jefe de seguridad en una empresa que se presenta como referente de responsabilidad tecnológica pone en evidencia la fragilidad del sector.
Las consecuencias económicas de una crisis de confianza en la IA podrían ser desastrosas a nivel global.
Anthropic, por su parte, guarda silencio ante las peticiones de comentario, y siembra dudas sobre si la seguridad es realmente una prioridad o solo una etiqueta para atraer inversores.
Sharma, por su parte, pretende dedicarse al trabajo comunitario y la escritura, lejos del ruido de San Francisco.
Su renuncia deja un vacío en el debate sobre ética y seguridad en la inteligencia artificial.