La firma presentó sus primeros microprocesadores de IA para centros de datos, con los que busca competir en un mercado dominado por Nvidia
28.10.2025 • 16:00hs • Para centros de datos
Para centros de datos
Qualcomm desafía el liderazgo de Nvidia en el mercado de chips de IA: sus nuevos lanzamientos
El mercado de aceleradores de inteligencia artificial (IA) para centros de datos está hoy casi monopolizado por Nvidia, que controla más del 90% de la cuota global, según reportes del sector. Este dominio impulsó a la firma a una capitalización superior a los u$s4,5 billones y la convirtió en el referente absoluto de la industria.
En ese contexto, Qualcomm anunció su ingreso al segmento con dos nuevos chips diseñados para competir directamente: AI200 y AI250, orientados a sistemas de inferencia y pensados para integrarse en racks de servidores completos con enfriamiento líquido.
La noticia despertó fuerte interés entre analistas y operadores, dado que cualquier nuevo jugador tiene el potencial de reordenar el ecosistema de proveedores y precios en una industria que mueve billones de dólares.
La apuesta de Qualcomm: del móvil al centro de datos
Tradicionalmente conocida por sus chips Snapdragon, presentes en más de 1.200 millones de teléfonos Android, Qualcomm busca ahora expandirse más allá de la movilidad hacia las infraestructuras de nube y edge computing.
Los nuevos aceleradores AI200 (previsto para 2026) y AI250 (para 2027) utilizan las unidades de procesamiento de IA Hexagon y las NPUs que la compañía ya emplea en sus chips móviles. Según Durga Malladi, gerente general de Qualcomm para centros de datos y edge, la evolución fue natural: "Primero quisimos demostrar nuestra competencia en otros dominios, y una vez que construimos esa fortaleza, fue bastante fácil subir un peldaño al nivel de centro de datos", explicó.
Los chips ofrecerán hasta 768 GB de memoria por tarjeta, una cifra que -según Qualcomm- supera la capacidad actual de las ofertas de Nvidia y AMD. Además, la firma aseguró que los sistemas tendrán menor costo operativo y un consumo energético de 160 kilovatios por rack, comparable al de soluciones basadas en GPU.
Qualcomm anunció su ingreso al segmento con dos nuevos chips diseñados para competir en el mercado
Competencia y primeras alianzas
La compañía ya cuenta con su primer cliente confirmado, la empresa saudí Humain, que planea desplegar sistemas de inferencia basados en Qualcomm con una capacidad de hasta 200 megavatios. Este acuerdo refleja el interés de países y proveedores de servicios en diversificar su base de hardware para IA.
El anuncio de Qualcomm llega en un momento en que grandes laboratorios de IA y hyperscalers -como Google, Amazon, Microsoft y OpenAI- buscan reducir su dependencia de Nvidia. La propia OpenAI anunció recientemente que comprará chips de AMD y evalúa incluso invertir en la compañía.
Según estimaciones de McKinsey, las inversiones en centros de datos alcanzarán USD 6,7 billones hacia 2030, y la mayor parte se destinará a infraestructura basada en chips de IA. Este potencial convierte al segmento en un terreno estratégico para los fabricantes de semiconductores.
Qualcomm centrará su estrategia inicial en procesos de inferencia, dejando fuera -por ahora- los sistemas de entrenamiento de grandes modelos, un terreno aún dominado por las GPUs de Nvidia.
El éxito dependerá de su capacidad para integrarse con los ecosistemas de software existentes y ofrecer interoperabilidad con frameworks de IA populares, además de convencer a los hyperscalers de los beneficios económicos de sus soluciones.
A corto plazo, el mercado reaccionó positivamente: las acciones de Qualcomm subieron 11% tras el anuncio, reflejando el optimismo de los inversores ante una nueva fuente de ingresos y la posibilidad de que la compañía capture parte del mercado más rentable del sector tecnológico.