Qualcomm AI200/250: Ускорители ИИ для центров обработки данных
Qualcomm выходит на рынок инференса ИИ в ЦОД с системами AI200 и AI250. Основное внимание уделяется большому объему памяти на карту и эффективной работе стойки, начиная с 2026 и 2027 годов соответственно. До 768 ГБ LPDDR на карту-ускоритель, прямое жидкостное охлаждение и масштабирование через PCIe внутри стойки, а также Ethernet между стойками являются ключевыми особенностями. Уже запланирована сделка на развертывание мощностью 200 МВт с саудовским стартапом Humain с 2026 года.
Инференс ИИ Qualcomm
Qualcomm позиционирует ускорители AI200 и AI250, а также целые стойки для инференса ИИ в ЦОД. Инференс здесь означает, что уже обученные модели отвечают на запросы, а не обучаются заново. Это представляет собой затратную непрерывную работу в ЦОД, где объем памяти, пропускная способность памяти и энергоэффективность имеют решающее значение. Новые системы основаны на NPU Hexagon от Qualcomm, масштабированной с мобильного сектора для рабочих нагрузок ЦОД. Каждая карта AI200 должна нести до 768 ГБ памяти LPDDR. Системы используют прямое жидкостное охлаждение, PCIe для масштабирования внутри стойки и Ethernet для масштабирования между стойками. Это направлено на повышение общей стоимости владения (TCO) за счет высокой плотности памяти и эффективности. AI250 использует архитектуру ближней памяти с более чем десятикратной эффективной пропускной способностью памяти, что особенно актуально для больших трансформеров и длинных контекстов.
Предыстория и контекст
Шаг Qualcomm на рынок ЦОД для инференса ИИ является частью стратегии диверсификации, направленной на то, чтобы стать менее зависимым от цикла смартфонов и расшириться на рынки с устойчивыми капитальными затратами на ИИ. Инференс рассматривается многими операторами как более значительный фактор затрат, чем обучение, поскольку он масштабируется 24/7 и тесно связан с конечным пользователем. Высокая емкость оперативной памяти на карту может уменьшить сегментирование модели, минимизировать коммуникационные издержки и, таким образом, снизить задержку и стоимость ответа. Выход гиганта мобильных чипов на рынок ИИ в масштабе стойки привлекает внимание, поскольку он обращается к устоявшимся игрокам, таким как Nvidia и AMD, на их основном рынке и обещает ежегодный план развития.

Quelle: computerworld.ch
Чип Qualcomm Cloud AI 100, предшественник серии AI200/AI250, демонстрирует приверженность Qualcomm к ускорителям ИИ для центров обработки данных.
Базовая технология, NPU Hexagon от Qualcomm, известна из мобильного сектора и была масштабирована для требований рабочих нагрузок ЦОД. Это позволяет Qualcomm опираться на существующие ноу-хау и одновременно выходить на новые рынки. Стратегическое значение этого шага подчеркивается сотрудничеством с Humain, саудовским стартапом, который при поддержке Государственного инвестиционного фонда (PIF) стремится охватить всю цепочку создания стоимости ИИ, включая ЦОД и большие арабские языковые модели.
Анонс AI200 и AI250 происходит в контексте, когда спрос на эффективные и высокопроизводительные решения для инференса ИИ постоянно растет. Компании ищут способы снизить эксплуатационные расходы на приложения ИИ и одновременно повысить производительность. Подход Qualcomm, сочетающий высокую плотность памяти с энергоэффективностью, может предложить здесь конкурентное преимущество.
Quelle: YouTube
Клип CNBC дает дополнительный контекст стратегии ЦОД Qualcomm и объясняет взаимосвязь с существующими стеками ИИ из предыдущих анонсов.
Текущее состояние и развитие
Развитие инициативы Qualcomm в области ЦОД ускорилось в последние месяцы:
- 12.05.2025: Саудовская Аравия запускает Humain как компанию ИИ под управлением PIF с целью охвата всей цепочки создания стоимости ИИ, включая ЦОД и большие арабские языковые модели (pif.gov.sa; reuters.com).
- 13.05.2025: Qualcomm и Humain объявляют о сотрудничестве по созданию современных ЦОД ИИ и облачных сервисов «от облака до периферии» (qualcomm.com).
- 19.05.2025: Reuters сообщает о планах Qualcomm по созданию специализированных ЦП для ЦОД, которые будут работать в паре с ускорителями Nvidia. Это подчеркивает возвращение Qualcomm на рынок ЦОД за пределами смартфонов (reuters.com).
- 25.08.2025: Reuters сообщает о прогрессе в строительстве ЦОД Humain в Эр-Рияде и Даммаме с планами запуска в начале 2026 года и использованием американских чипов. Это свидетельствует о массированном наращивании вычислительных мощностей в регионе (reuters.com).
- 27.10.2025: Qualcomm делает шаг официальным: AI200 (выход на рынок 2026) и AI250 (2027) для инференса в масштабе стойки, плюс собственные стойки. Курс акций значительно растет; системы нацелены на улучшенную TCO за счет высокой плотности памяти и эффективности (reuters.com). Технические ключевые моменты: 768 ГБ LPDDR на карту, прямое жидкостное охлаждение, 160 кВт на стойку, масштабирование PCIe и масштабирование Ethernet (tomshardware.com; constellationr.com). Сделка с Humain предусматривает развертывание стоек AI200/AI250 мощностью 200 МВт с 2026 года (prnewswire.com; reuters.com).
Эти события демонстрируют четкую стратегию и быстрый прогресс в реализации амбиций Qualcomm в области ЦОД. Партнерство с Humain является ранним и конкретным признаком принятия рынка и доверия к новым продуктам.
Анализ и последствия
Выход Qualcomm на рынок инференса ИИ для ЦОД стратегически мотивирован. Компания стремится к независимости от цикла смартфонов и хочет инвестировать в растущий рынок капитальных затрат на ИИ. Инференс идентифицируется как более значительный фактор затрат в ЦОД, поскольку он требует круглосуточной работы и тесно связан с конечными пользователями. Высокая емкость оперативной памяти на карту (до 768 ГБ LPDDR) AI200 и AI250 должна уменьшить сегментирование модели, минимизировать трафик межсоединений и, таким образом, снизить задержку и стоимость ответа. Это особенно актуально для больших языковых моделей (LLM) и длинных контекстов.

Quelle: heise.de
Всеобъемлющая стратегия ИИ Qualcomm объединяет периферийные вычисления с облачными решениями, при этом ускорители AI200/AI250 играют центральную роль в инфраструктуре ЦОД.
AI250 использует архитектуру ближней памяти, которая обещает более чем десятикратную эффективную пропускную способность памяти. Это решающий фактор для обработки больших моделей-трансформеров и длинных контекстов, поскольку они сильно выигрывают от высокой пропускной способности памяти. Реакция СМИ на анонс Qualcomm положительная, поскольку выход гиганта мобильных чипов на рынок ИИ в масштабе стойки вызывает ажиотаж и бросает вызов Nvidia и AMD на их основном рынке. Qualcomm также планирует ежегодный план развития, что указывает на долгосрочную приверженность.
Для операторов ЦОД новые системы потенциально означают снижение общей стоимости владения (TCO) и улучшенную энергоэффективность на запрос. Прямое жидкостное охлаждение и масштабирование через PCIe внутри стойки, а также Ethernet между стойками являются техническими особенностями, направленными на эффективную работу. Сделка на развертывание мощностью 200 МВт с Humain с 2026 года является сильным сигналом принятия рынка и доверия к решениям Qualcomm.
Важно отметить, что AI200 и AI250 явно разработаны для инференса, а не для обучения. Это существенное отличие от многих других ускорителей ИИ на рынке и подчеркивает акцент Qualcomm на операционной работе моделей ИИ. Задача Qualcomm будет состоять в том, чтобы пробиться через устоявшуюся экосистему Nvidia и предложить сопоставимую программную поддержку.
Командам по закупкам целесообразно заранее проверить возможность поставки в 2026/2027 годах, интеграцию в существующие топологии CNI/сети и доступность функций конфиденциальных вычислений. Классификация сообщений СМИ всегда должна дополняться первичными источниками и техническими обзорами, чтобы отделить шумиху от надежных данных.
Quelle: YouTube
Видео дает предысторию концепции фабрик ИИ и помогает экономически классифицировать инференс в масштабе стойки.
Открытые вопросы и вывод
Несмотря на многообещающие анонсы, некоторые вопросы остаются открытыми. Конкретная производительность AI200/AI250 на ватт и на доллар по сравнению с текущими стойками Nvidia и AMD, измеренная с помощью стандартизированных тестов, таких как MLPerf Inference, до сих пор неясна. Qualcomm пока не назвал значения MLPerf Inference или токенов/с, что оставляет относительную производительность в цифрах нераскрытой. Решающее значение будет иметь то, как быстро архитектура ближней памяти AI250 созреет в реальных рабочих нагрузках и какую программную зрелость принесет стек инференса Qualcomm к моменту выхода на рынок. Детальная документация или технические документы о пропускной способности, задержках и оркестрации от Qualcomm все еще ожидаются.
Подводя итог, можно сказать, что шаг Qualcomm к инференсу в масштабе стойки четко определен: большой объем памяти на карту, эффективное охлаждение и план развития, который должен быть реализован с 2026 года. Архитектурные цели, конструкция памяти и крупный первый клиент уже подтверждены. Чего еще не хватает, так это жестких данных бенчмарков из практики. Для компаний, которые планируют на 2026/2027 годы, целесообразно оценить варианты сейчас, проверить программные пути и подготовить закупки, а также планирование энергии к новым параметрам.