Red Hat, Google y Meta colaboran en soluciones de inteligencia artificial para empresas
/https://assets.iproup.com/assets/jpg/2025/05/42900.jpg)
Red Hat, proveedor líder mundial de soluciones open source, anunció dos colaboraciones estratégicas con los gigantes estadounidenses Meta y Google.
En el contexto del Red Hat Summit 2025 realizado en Boston, la firma precisó que con ambas compañías buscan impulsar el desarrollo y la adopción de la IA generativa a nivel corporativo.
Red Hat y Google Cloud trabajan actualmente juntos para facilitar la adopción de la IA generativa en el mundo empresarial.
Esta alianza combina la tecnología de código abierto de Red Hat con la infraestructura avanzada de Google Cloud, incluidos sus modelos de IA abiertos, como Gemma.
Entre los principales avances está el proyecto llm-d, con Google como uno de los impulsores, que busca mejorar la eficiencia y escalabilidad de la IA en distintos entornos.
También se incorporó soporte para vLLM en las TPU de Google Cloud y en máquinas virtuales con GPU, algo que permite realizar inferencias de IA de forma más rápida y eficiente.
Los modelos Gemma 3 estarán disponibles desde el primer día en esta plataforma.
Otro paso importante es la integración del servidor de inferencia de Red Hat en Google Cloud, y la participación de Red Hat en el protocolo Agent2Agent (A2A), que brinda la chance a diferentes agentes de IA de comunicarse entre sí sin importar la plataforma que usen.
"Incorporar el poder de vLLM y las tecnologías open source de Red Hat a Google Cloud y Gemma de Google brinda a los desarrolladores los recursos necesarios para crear soluciones de IA más precisas y de alto rendimiento, impulsadas por capacidades de inferencia optimizadas," explicó Brian Stevens, vicepresidente sénior y director de tecnología, IA, Red Hat.
En esta colaboración, vLLM, un servidor de inferencia de código abierto, cumple un rol clave al hacer que las aplicaciones de IA generativa sean más rápidas y económicas.
Gracias a su integración con las TPU de Google Cloud, se logra un mejor rendimiento y eficiencia. Además, el proyecto llm-d busca facilitar el uso de la IA en sistemas distribuidos, al hacer más simple su implementación.
Por otro lado, el Red Hat AI Inference Server, que ya está disponible en Google Cloud, permite a las empresas ejecutar modelos de IA de forma más eficiente en entornos híbridos, al combinar herramientas creadas por la comunidad con la infraestructura segura y escalable de Google.
Red Hat y Meta también anunciaron un acuerdo de colaboracion para impulsar la inteligencia artificial generativa en empresas.
Como primer paso, anunciaron que los modelos Llama 4 serán compatibles desde su lanzamiento con Red Hat AI y el servidor de inferencia vLLM.
Además, ambas compañías colaborarán para integrar los proyectos de código abierto Llama Stack y vLLM, con el objetivo de crear una base común que facilite y amplíe el acceso al desarrollo de soluciones de IA.
Mike Ferris, vicepresidente sénior y director de estrategias, Red Hat, explicó: "Tanto Red Hat como Meta reconocen que el futuro éxito de la IA exige no sólo avances en los modelos, sino también funciones de inferencia que permitan a los usuarios maximizar las capacidades innovadoras de los modelos de próxima generación".
Y agregó: "Nuestro compromiso conjunto con Llama Stack y vLLM busca hacer realidad la visión de aplicaciones de IA generativa más rápidas, uniformes y de bajo costo, que se ejecuten donde sea necesario en la nube híbrida, independientemente del acelerador o el entorno. Este es el futuro abierto de la IA, que tanto Red Hat como Meta están preparados para afrontar".
Gartner estima que para 2026 más del 80% de los proveedores de software incorporarán IA generativa en sus aplicaciones.
Esto pone de relieve la necesidad de seguir avanzando en bases abiertas e interoperables.
En ese sentido, la alianza entre Red Hat y Meta se propone abordar este reto a través de Llama Stack, un conjunto de componentes y API estandarizados desarrollados por Meta para simplificar el ciclo de vida de las aplicaciones de IA generativa.
vLLM, que ya es compatible con Llama 4 desde su lanzamiento, permite ejecutar modelos de lenguaje grandes de forma más rápida y eficiente.
Red Hat apoyará activamente el desarrollo de Llama Stack, para mostrar su compromiso de dar a los clientes más opciones y flexibilidad en el uso de herramientas de IA.
Además, la integración de vLLM con PyTorch, la plataforma de IA respaldada por Meta, fortalece su posición como una solución destacada para la IA generativa en empresas.