La herramienta fue diseñada para ejecutar modelos de IA de manera eficiente, rápida y económica a gran escala, especialmente en entornos de nube híbrida
21.05.2025 • 19:33hs • Red Hat Summit 2025
Red Hat Summit 2025
Red Hat presentó una solución clave de IA para optimizar la nube híbrida empresarial
Red Hat presentó otra batería de mejoras de su portafolio de inteligencia artificial (IA) diseñados para simplificar las implementaciones de IA generativa a nivel corporativo.
En el contexto del Red Hat Summit 2025, realizado en Boston (EE.UU), anunció el lanzamiento de Red Hat AI Inference Server.
Esta nueva herramienta permite una inferencia más rápida, estable y económica a gran escala en entornos de nube híbrida.
Disponible como solución independiente o integrado en Red Hat OpenShift AI y RHEL AI, este servidor de inferencia está optimizado para implementar aplicaciones inteligentes con mayor eficiencia, flexibilidad y rendimiento.
"Una inferencia más rápida y eficiente se perfila como el nuevo punto de decisión para la innovación en IA generativa", explicó Joe Fernandes, vicepresidente y gerente general, Unidad de Negocio IA, Red Hat.
Como complemento de esta solución, la compañía extendió su catálogo de modelos validados en Hugging Face.
Estos modelos fueron optimizados a través de técnicas de compresión que reducen su tamaño y aumentan la velocidad de inferencia: esta mejora reduce el consume de recursos y los costos operativos.
Red Hat potencia el desarrollo de modelos de IA
Un elemento central de estos anuncios es la incorporación de tecnologías avanzadas como Llama Stack, desarrollado por Meta, y el Modelo de Protocolo de Contexto (MCP) de Anthropic.
Estas tecnologías permiten el uso de API estandarizadas, que simplifican el desarrollo e implementación de aplicaciones y agentes de IA.
A través de una interfaz unificada, es posible acceder a funciones avanzadas como:
- inferencia con vLLM
- generación aumentada por recuperación (RAG)
- evaluación de modelos
- mecanismos de seguridad integrados
Por otra parte, se presentaron mejoras clave en la versión 2.20 de Red Hat OpenShift AI para crear, entrenar, desplegar y monitorear modelos de IA a gran escala.
La compañía ofrece un catálogo de modelos optimizados para facilitar su uso, entrenamiento distribuido vía el Operador de KubeFlow, y una Feature Store basada en Kubeflow Feast para gestionar datos de entrenamiento e inferencia de forma centralizada.
Por su parte, Red Hat Enterprise Linux AI 1.5 incorpora soporte multilingüe mejorado, que incluye español, alemán, francés e italiano, mediante InstructLab, y extiende su disponibilidad a Google Cloud Marketplace, sumándose a AWS y Azure.
Además, el servicio InstructLab en IBM Cloud ya está disponible de forma general, lo que facilita la personalización de modelos con datos propios a mayor escala.