Qualcomm AI200/250: Ускорители ИИ для центров обработки данных

Avatar
Лиза Эрнст · 27.10.2025 · Технологии · 7 минут

Qualcomm выходит на рынок инференса ИИ в ЦОД с системами AI200 и AI250. Основное внимание уделяется большому объему памяти на карту и эффективной работе стойки, начиная с 2026 и 2027 годов соответственно. До 768 ГБ LPDDR на карту-ускоритель, прямое жидкостное охлаждение и масштабирование через PCIe внутри стойки, а также Ethernet между стойками являются ключевыми особенностями. Уже запланирована сделка на развертывание мощностью 200 МВт с саудовским стартапом Humain с 2026 года.

Инференс ИИ Qualcomm

Qualcomm позиционирует ускорители AI200 и AI250, а также целые стойки для инференса ИИ в ЦОД. Инференс здесь означает, что уже обученные модели отвечают на запросы, а не обучаются заново. Это представляет собой затратную непрерывную работу в ЦОД, где объем памяти, пропускная способность памяти и энергоэффективность имеют решающее значение. Новые системы основаны на NPU Hexagon от Qualcomm, масштабированной с мобильного сектора для рабочих нагрузок ЦОД. Каждая карта AI200 должна нести до 768 ГБ памяти LPDDR. Системы используют прямое жидкостное охлаждение, PCIe для масштабирования внутри стойки и Ethernet для масштабирования между стойками. Это направлено на повышение общей стоимости владения (TCO) за счет высокой плотности памяти и эффективности. AI250 использует архитектуру ближней памяти с более чем десятикратной эффективной пропускной способностью памяти, что особенно актуально для больших трансформеров и длинных контекстов.

Предыстория и контекст

Шаг Qualcomm на рынок ЦОД для инференса ИИ является частью стратегии диверсификации, направленной на то, чтобы стать менее зависимым от цикла смартфонов и расшириться на рынки с устойчивыми капитальными затратами на ИИ. Инференс рассматривается многими операторами как более значительный фактор затрат, чем обучение, поскольку он масштабируется 24/7 и тесно связан с конечным пользователем. Высокая емкость оперативной памяти на карту может уменьшить сегментирование модели, минимизировать коммуникационные издержки и, таким образом, снизить задержку и стоимость ответа. Выход гиганта мобильных чипов на рынок ИИ в масштабе стойки привлекает внимание, поскольку он обращается к устоявшимся игрокам, таким как Nvidia и AMD, на их основном рынке и обещает ежегодный план развития.

Поперек – Чип Qualcomm Cloud AI 100, предшественник серии AI200/AI250, демонстрирует приверженность Qualcomm к ускорителям ИИ для центров обработки данных.

Quelle: computerworld.ch

Чип Qualcomm Cloud AI 100, предшественник серии AI200/AI250, демонстрирует приверженность Qualcomm к ускорителям ИИ для центров обработки данных.

Базовая технология, NPU Hexagon от Qualcomm, известна из мобильного сектора и была масштабирована для требований рабочих нагрузок ЦОД. Это позволяет Qualcomm опираться на существующие ноу-хау и одновременно выходить на новые рынки. Стратегическое значение этого шага подчеркивается сотрудничеством с Humain, саудовским стартапом, который при поддержке Государственного инвестиционного фонда (PIF) стремится охватить всю цепочку создания стоимости ИИ, включая ЦОД и большие арабские языковые модели.

Анонс AI200 и AI250 происходит в контексте, когда спрос на эффективные и высокопроизводительные решения для инференса ИИ постоянно растет. Компании ищут способы снизить эксплуатационные расходы на приложения ИИ и одновременно повысить производительность. Подход Qualcomm, сочетающий высокую плотность памяти с энергоэффективностью, может предложить здесь конкурентное преимущество.

Quelle: YouTube

Клип CNBC дает дополнительный контекст стратегии ЦОД Qualcomm и объясняет взаимосвязь с существующими стеками ИИ из предыдущих анонсов.

Текущее состояние и развитие

Развитие инициативы Qualcomm в области ЦОД ускорилось в последние месяцы:

Эти события демонстрируют четкую стратегию и быстрый прогресс в реализации амбиций Qualcomm в области ЦОД. Партнерство с Humain является ранним и конкретным признаком принятия рынка и доверия к новым продуктам.

Анализ и последствия

Выход Qualcomm на рынок инференса ИИ для ЦОД стратегически мотивирован. Компания стремится к независимости от цикла смартфонов и хочет инвестировать в растущий рынок капитальных затрат на ИИ. Инференс идентифицируется как более значительный фактор затрат в ЦОД, поскольку он требует круглосуточной работы и тесно связан с конечными пользователями. Высокая емкость оперативной памяти на карту (до 768 ГБ LPDDR) AI200 и AI250 должна уменьшить сегментирование модели, минимизировать трафик межсоединений и, таким образом, снизить задержку и стоимость ответа. Это особенно актуально для больших языковых моделей (LLM) и длинных контекстов.

Поперек – Всеобъемлющая стратегия ИИ Qualcomm объединяет периферийные вычисления с облачными решениями, при этом ускорители AI200/AI250 играют центральную роль в инфраструктуре ЦОД.

Quelle: heise.de

Всеобъемлющая стратегия ИИ Qualcomm объединяет периферийные вычисления с облачными решениями, при этом ускорители AI200/AI250 играют центральную роль в инфраструктуре ЦОД.

AI250 использует архитектуру ближней памяти, которая обещает более чем десятикратную эффективную пропускную способность памяти. Это решающий фактор для обработки больших моделей-трансформеров и длинных контекстов, поскольку они сильно выигрывают от высокой пропускной способности памяти. Реакция СМИ на анонс Qualcomm положительная, поскольку выход гиганта мобильных чипов на рынок ИИ в масштабе стойки вызывает ажиотаж и бросает вызов Nvidia и AMD на их основном рынке. Qualcomm также планирует ежегодный план развития, что указывает на долгосрочную приверженность.

Для операторов ЦОД новые системы потенциально означают снижение общей стоимости владения (TCO) и улучшенную энергоэффективность на запрос. Прямое жидкостное охлаждение и масштабирование через PCIe внутри стойки, а также Ethernet между стойками являются техническими особенностями, направленными на эффективную работу. Сделка на развертывание мощностью 200 МВт с Humain с 2026 года является сильным сигналом принятия рынка и доверия к решениям Qualcomm.

Важно отметить, что AI200 и AI250 явно разработаны для инференса, а не для обучения. Это существенное отличие от многих других ускорителей ИИ на рынке и подчеркивает акцент Qualcomm на операционной работе моделей ИИ. Задача Qualcomm будет состоять в том, чтобы пробиться через устоявшуюся экосистему Nvidia и предложить сопоставимую программную поддержку.

Командам по закупкам целесообразно заранее проверить возможность поставки в 2026/2027 годах, интеграцию в существующие топологии CNI/сети и доступность функций конфиденциальных вычислений. Классификация сообщений СМИ всегда должна дополняться первичными источниками и техническими обзорами, чтобы отделить шумиху от надежных данных.

Quelle: YouTube

Видео дает предысторию концепции фабрик ИИ и помогает экономически классифицировать инференс в масштабе стойки.

Открытые вопросы и вывод

Несмотря на многообещающие анонсы, некоторые вопросы остаются открытыми. Конкретная производительность AI200/AI250 на ватт и на доллар по сравнению с текущими стойками Nvidia и AMD, измеренная с помощью стандартизированных тестов, таких как MLPerf Inference, до сих пор неясна. Qualcomm пока не назвал значения MLPerf Inference или токенов/с, что оставляет относительную производительность в цифрах нераскрытой. Решающее значение будет иметь то, как быстро архитектура ближней памяти AI250 созреет в реальных рабочих нагрузках и какую программную зрелость принесет стек инференса Qualcomm к моменту выхода на рынок. Детальная документация или технические документы о пропускной способности, задержках и оркестрации от Qualcomm все еще ожидаются.

Подводя итог, можно сказать, что шаг Qualcomm к инференсу в масштабе стойки четко определен: большой объем памяти на карту, эффективное охлаждение и план развития, который должен быть реализован с 2026 года. Архитектурные цели, конструкция памяти и крупный первый клиент уже подтверждены. Чего еще не хватает, так это жестких данных бенчмарков из практики. Для компаний, которые планируют на 2026/2027 годы, целесообразно оценить варианты сейчас, проверить программные пути и подготовить закупки, а также планирование энергии к новым параметрам.

Teilen Sie doch unseren Beitrag!