Qualcomm AI200/250: aceleradores de IA para centros de datos
Qualcomm entra en el mercado de inferencia de IA en centros de datos con los sistemas AI200 y AI250. El enfoque está en una gran memoria por tarjeta y un funcionamiento eficiente en rack a partir de 2026 y 2027, respectivamente. Hasta 768 GB de LPDDR por tarjeta aceleradora, enfriamiento líquido directo y escalado a través de PCIe en el rack así como Ethernet entre racks son características centrales. Ya está planificado un acuerdo de despliegue de 200 MW con Humain, startup saudí, a partir de 2026.
Inferencia de IA de Qualcomm
Qualcomm posiciona las tarjetas aceleradoras AI200 y AI250, así como racks completos para la inferencia de IA en centros de datos. La inferencia significa aquí que modelos ya entrenados responden a las consultas, en lugar de ser entrenados de nuevo. Esto representa en el centro de datos una operación de costo, donde el tamaño de la memoria, el ancho de banda de memoria y la eficiencia energética son decisivos. Los nuevos sistemas se basan en la Hexagon NPU de Qualcomm, que se escaló desde el ámbito móvil para cargas de trabajo de centros de datos. Cada tarjeta AI200 debe llevar hasta 768 GB de memoria LPDDR. Los sistemas usan enfriamiento líquido directo, PCIe para escalar dentro del rack y Ethernet para escalar entre racks. Esto apunta a una mejor TCO gracias a la alta densidad de memoria y la eficiencia. El AI250 se apoya en una arquitectura Near-Memory con más de diez veces el ancho de banda de memoria efectiva, lo que es especialmente relevante para grandes transformadores y contextos largos.
Antecedentes y contexto
El paso de Qualcomm al mercado de centros de datos para inferencia de IA es parte de una estrategia de diversificación para hacerse más independiente del ciclo de teléfonos inteligentes y expandirse a mercados con capex de IA sostenible. Se considera que la inferencia es un mayor generador de costos que el entrenamiento, ya que se escala 24/7 y está estrechamente vinculada al usuario final. Una alta capacidad de RAM por tarjeta puede reducir el particionamiento de modelos, minimizar la carga de comunicaciones y, por ende, disminuir la latencia y el costo por respuesta. La entrada de un gigante de chips móviles en la IA a escala de rack atrae la atención, ya que aborda a actores establecidos como Nvidia y AMD en su mercado principal y ofrece una hoja de ruta anual.

Quelle: computerworld.ch
El chip Qualcomm Cloud AI 100, precursor de la serie AI200/AI250, demuestra el compromiso de Qualcomm con los aceleradores de IA para centros de datos.
La tecnología subyacente, la Hexagon-NPU de Qualcomm, es conocida en el ámbito móvil y se escaló para satisfacer las demandas de cargas de trabajo de centros de datos. Esto permite a Qualcomm aprovechar su conocimiento existente y al mismo tiempo abrir nuevos mercados. El significado estratégico de este paso se enfatiza por la colaboración con Humain, una startup saudita que, con el apoyo del Fondo de Inversión Pública (PIF), busca cubrir toda la cadena de valor de IA, incluyendo centros de datos y grandes modelos de lenguaje en árabe.
El anuncio de AI200 y AI250 tiene lugar en un contexto de creciente demanda de soluciones de inferencia de IA eficientes y potentes. Las empresas buscan formas de reducir los costos operativos de las aplicaciones de IA y al mismo tiempo aumentar el rendimiento. El enfoque de Qualcomm, combinar alta densidad de memoria con eficiencia energética, podría generar una ventaja competitiva.
Quelle: YouTube
El clip de CNBC ofrece más contexto sobre la estrategia de Qualcomm para centros de datos y explica la integración con las pilas de IA existentes de anuncios anteriores.
Estado actual y desarrollo
El desarrollo relacionado con la iniciativa de centros de datos de Qualcomm se ha acelerado en los últimos meses:
- 12.05.2025: Arabia Saudita lanza Humain como empresa de IA impulsada por el PIF con el objetivo de cubrir toda la cadena de valor de IA, incluyendo centros de datos y grandes modelos de lenguaje en árabe. (pif.gov.sa; reuters.com).
- 13.05.2025: Qualcomm y Humain anuncian una cooperación para la construcción de modernos centros de datos de IA y servicios de nube a borde. (qualcomm.com).
- 19.05.2025: Reuters informa sobre los planes de Qualcomm para CPUs personalizadas de centros de datos, que deberían trabajar junto con aceleradores de Nvidia. Esto subraya el regreso de Qualcomm al mercado de DC más allá de los smartphones. (reuters.com).
- 25.08.2025: Reuters informa de avances en la construcción de los centros de datos de Humain en Riad y Dammam con inicio previsto a principios de 2026 y uso de chips estadounidenses. Esto demuestra la masiva expansión de cómputo en la región. (reuters.com).
- 27.10.2025: Qualcomm hace oficial el paso: AI200 (lanzamiento al mercado en 2026) y AI250 (2027) para inferencia a escala de racks, además de racks propios. El precio de las acciones sube notablemente; los sistemas apuntan a una TCO mejor gracias a la alta densidad de memoria y la eficiencia. (reuters.com). Puntos técnicos clave: 768 GB LPDDR por tarjeta, enfriamiento líquido directo, 160 kW por rack, escalado PCIe y escalado Ethernet. (tomshardware.com; constellationr.com). El acuerdo con Humain prevé a partir de 2026 el despliegue de racks AI200/AI250 de 200 MW. (prnewswire.com; reuters.com).
Estos acontecimientos muestran una estrategia clara y un progreso rápido en la implementación de las ambiciones de Qualcomm en centros de datos. La asociación con Humain es una señal temprana y concreta de la aceptación del mercado y la confianza en los nuevos productos.
Análisis e implicaciones
La entrada de Qualcomm en el mercado de inferencia de IA para centros de datos está motivada estratégicamente. La empresa busca independencia del ciclo de los teléfonos inteligentes y quiere invertir en el creciente mercado de CAPEX de IA. La inferencia se identifica como el mayor impulsor de costos en el centro de datos, ya que requiere operación 24/7 y está estrechamente vinculada a los usuarios finales. La alta capacidad de RAM por tarjeta (hasta 768 GB LPDDR) de la AI200 y AI250 debería reducir el particionamiento de modelos, minimizar el tráfico de interconexión y, por ende, disminuir la latencia y el costo por respuesta. Esto es especialmente relevante para grandes modelos de lenguaje (LLMs) y contextos largos.

Quelle: heise.de
La estrategia integral de IA de Qualcomm integra edge computing con soluciones en la nube, donde los aceleradores AI200/AI250 juegan un papel central en la infraestructura de los centros de datos.
El AI250 se apoya en una arquitectura Near-Memory que promete más de diez veces la anchura de banda efectiva de la memoria. Este es un factor decisivo para procesar grandes modelos transformadores y contextos largos, ya que se benefician enormemente de una alta velocidad de memoria. La reacción de los medios a los anuncios de Qualcomm es positiva, ya que la entrada de un gigante de chips móviles en el mercado de IA a escala de rack genera expectación y desafía a Nvidia y AMD en su mercado principal. Qualcomm también planea una hoja de ruta anual, lo que indica un compromiso a largo plazo.
Para los operadores de centros de datos, los nuevos sistemas significan potencialmente una reducción de la TCO y una mayor eficiencia energética por consulta. El enfriamiento líquido directo y la escalabilidad a través de PCIe en el rack, así como Ethernet entre racks, son características técnicas que apuntan a una operación eficiente. El acuerdo de despliegue de 200 MW con Humain a partir de 2026 es una señal contundente de la aceptación del mercado y la confianza en las soluciones de Qualcomm.
Es importante tener en cuenta que la AI200 y la AI250 están diseñadas explícitamente para la inferencia y no para el entrenamiento. Esto es una diferencia crucial frente a muchos otros aceleradores de IA en el mercado y subraya el enfoque de Qualcomm en la operación de modelos de IA. El desafío para Qualcomm será competir contra el ecosistema establecido de Nvidia y ofrecer un soporte de software comparable.
Para los equipos de adquisiciones, es recomendable evaluar la capacidad de suministro para 2026/2027, la integración en topologías CNI/red existentes y la disponibilidad de funciones de Confidential Computing con antelación. La clasificación de los informes de los medios siempre debe complementarse con fuentes primarias y revisiones técnicas para separar el hype de los datos confiables.
Quelle: YouTube
El video proporciona contexto sobre el concepto de AI Factories y ayuda a encuadrar la inferencia a escala de rack desde una perspectiva económica.
Preguntas abiertas y conclusión
A pesar de los anuncios prometedores, algunas preguntas siguen abiertas. El rendimiento concreto por vatio y por dólar de la AI200/AI250 en comparación con racks actuales de Nvidia y AMD, medido con benchmarks estandarizados como MLPerf Inference, aún no está claro. Qualcomm no ha publicado valores de MLPerf Inference ni tokens/s, lo que mantiene la performance relativa sin números. Será crucial cuán rápido la arquitectura Near-Memory del AI250 madure en cargas de trabajo reales y qué madurez de software trae el stack de inferencia de Qualcomm para el lanzamiento al mercado. Aún faltan documentación detallada o whitepapers sobre anchos de banda, latencias y orquestación de Qualcomm.
En resumen, el paso de Qualcomm hacia la inferencia a escala de racks está claramente definido: mucha memoria por tarjeta, enfriamiento eficiente y una hoja de ruta que se desplegará a partir de 2026. Los objetivos de arquitectura, el dimensionamiento de memoria y un gran primer cliente ya están establecidos. Lo que falta son datos de benchmarks duros de la práctica. Para las empresas que planean para 2026/2027, es aconsejable evaluar las opciones ahora, revisar las rutas de software y preparar la adquisición y la planificación energética para los nuevos parámetros.