La carrera por el dominio de la inteligencia artificial (IA) es feroz y no se detiene. En ese contexto, para avanzar algunos casilleros, el gigante estadounidense Google evalúa un nuevo desembolso millonario para reforzar su alianza con Anthropic, la empresa fundada en 2021 por exempleados de OpenAI.
Según documentos judiciales, la compañía de Mountain View invirtió más de u$s3.000 millones en esta startup, a cambio de una una participación de 14%.
Esta nueva ronda de inversión elevaría la valuación de Anthropic a más de u$s350.000 millones, cifra que la posicionaría como uno de los actores más valiosos del ecosistema de IA. Los detalles todavía se negocian, pero se barajan distintas modalidades:
- una inversión y acceso a infraestructura tecnológica, especialmente computación en la nube
- un pagaré convertible
- una ronda de financiación con precio fijado para principios de 2026
Además del apoyo de Google, la startup ya cuenta con respaldo de gigantes como Amazon, que se comprometió a aportar hasta u$s4.000 millones. Gracias a esta doble alianza, Anthropic adopta una arquitectura multicloud que le permite operar con flexibilidad y aprovechar lo mejor de las infraestructuras de Google Cloud y Amazon Web Services.
Esta posición privilegiada le da poder de negociación y acceso a recursos clave para escalar sus desarrollos. Como parte del acuerdo con Google, Anthropic planea utilizar hasta un millón de chips TPU, un salto clave en potencia de cómputo para entrenar sus modelos de lenguaje Claude que compite directamente con ChatGPT, de OpenAI.
El enfoque de Anthropic en seguridad y alineación ética de la IA tiene el interés de grandes tecnológicas, que ven en esta startup una alternativa confiable para integrar inteligencia artificial en sus productos y servicios.
Qué es Anthropic y por qué es uno de los líderes en IA segura y ética
Anthropic es una empresa estadounidense emergente de investigación y desarrollo en inteligencia artificial (IA), fundada en 2021 por exmiembros de OpenAI, incluidos los hermanos Dario y Daniela Amodei.
Esta compañía se consolidó como una figura vital en el ecosistema de AI gracias a su enfoque particular en la seguridad y la ética dentro del desarrollo tecnológico.
Anthropic desarrolló una familia de modelos de lenguaje extensos (LLM), siendo Claude su chatbot más reconocido, diseñado con la finalidad de ser confiable, interpretable y adaptable a diversas tareas a gran escala.
A diferencia de otras compañías en el sector, Anthropic prioriza la seguridad y el despliegue responsable de sus modelos, y evita sacar al mercado productos que no cuentan con medidas robustas para mitigar riesgos.
Este compromiso con la responsabilidad tecnológica se refleja en su estructura como corporación de beneficio público, que legalmente debe equilibrar las ganancias con impactos positivos sobre la sociedad.
Uno de los pilares que distingue a Anthropic es su metodología llamada "Constitutional AI", un sistema diseñado para entrenar modelos que actúen conforme a un conjunto de principios éticos transparentes y auditables.
Más diferenciales del modelo
Este método incluye fases de aprendizaje supervisado y de refuerzo mediante retroalimentación automática, algo que permite que sus modelos como Claude sean a la vez útiles y seguros, reduciendo sesgos y alucinaciones en las respuestas.
La empresa también desarrolló estructuras de gobernanza internas muy avanzadas, como el Long-Term Benefit Trust, que otorga a un grupo de fiduciarios la responsabilidad de velar por los intereses públicos y la dirección ética de la compañía.
Este enfoque pionero en el gobierno corporativo busca integrar la responsabilidad social directamente en el desarrollo tecnológico, no como un añadido posterior sino como parte fundamental desde su creación.
La transparencia y la rendición de cuentas son así aspectos clave de su impulso para lograr un futuro basado en una inteligencia artificial confiable.