Qualcomm AI200/250: مسرّعات الذكاء الاصطناعي لمراكز البيانات

Avatar
ليزا إرنست · 27.10.2025 · تقنية · 7 دقائق

تدخل Qualcomm مع أنظمة AI200 و AI250 في استدلال الذكاء الاصطناعي بمراكز البيانات. التركيز على ذاكرة كبيرة لكل بطاقة وتشغيل رف فعال اعتباراً من 2026 و2027 على التوالي. حتى 768 جيجابايت LPDDR لكل بطاقة مُسرّع، تبريد سائل مباشر وتوسع عبر PCIe في الرف، إضافة إلى إيثرنت بين الرفوف من الميزات الأساسية. صفقة نشر بقدرة 200 ميغاوات مع الشركة الناشئة Humain من المملكة العربية السعودية اعتباراً من 2026

استدلال Qualcomm AI

Qualcomm positioniert die AI200 und AI250 Beschleunigerkarten sowie komplette Racks für KI-Inferenz im Rechenzentrum. Inferenz bedeutet hierbei, dass bereits trainierte Modelle Anfragen beantworten, anstatt neu trainiert zu werden. Dies stellt im Rechenzentrum einen kostentreibenden Dauerbetrieb dar, bei dem Speichergröße, Speicherbandbreite und Energieeffizienz entscheidend sind. Die neuen Systeme basieren auf Qualcomms Hexagon-NPU, die aus dem Mobile-Bereich für Rechenzentrums-Workloads skaliert wurde. Jede AI200-Karte soll bis zu 768 GB LPDDR-Speicher tragen. Die Systeme nutzen direkte Flüssigkeitskühlung, PCIe für Scale-up innerhalb des Racks und Ethernet für Scale-out zwischen Racks. Dies zielt auf eine bessere Total Cost of Ownership (TCO) durch hohe Speicherdichte und Effizienz ab. Der AI250 setzt auf eine Near-Memory-Architektur mit mehr als zehnfacher effektiver Speicherbandbreite, was besonders bei großen Transformatoren und langen Kontexten relevant ist.

الخلفية والسياق

خطوة Qualcomm إلى سوق مراكز البيانات للذكاء الاصطناعي الاستدلالي جزء من استراتيجية تنويع تهدف إلى الحد من الاعتماد على دورة الهواتف الذكية والتوسع إلى أسواق ذات رأس مال استثماري للذكاء الاصطناعي المستدام. يرى كثير من المشغلين أن الاستدلال يمثل تكلفة تشغيلية أكبر من التدريب، لأنه يعمل على مدار الساعة ويُرتبط ارتباطاً وثيقاً بالمستخدم النهائي. يمكن أن تقلل سعة RAM العالية لكل بطاقة من تقشير النماذج (Model-Sharding)، وتقلل حركة الاتصالات وبالتالي تخفض التأخير وتكاليف الردود. دخول عملاق شرائح الهاتف المحمول إلى الذكاء الاصطناعي على نطاق الرف يثير الاهتمام، لأنه يستهدف لاعبين راسخين مثل Nvidia وAMD في سوقهم الأساسية ويَعِد بخارطة طريق سنوية.

عبر – شريحة Qualcomm Cloud AI 100، سلف سلسلة AI200/AI250، تُظهر التزام Qualcomm بمسرعات الذكاء الاصطناعي لمراكز البيانات.

Quelle: computerworld.ch

شريحة Qualcomm Cloud AI 100، سلف سلسلة AI200/AI250، تُظهر التزام Qualcomm بمسرعات الذكاء الاصطناعي لمراكز البيانات.

التقنية الأساسية، Hexagon-NPU من Qualcomm، معروفة من المجال المحمول وتم توسيعها بشكل كبير لتلبية متطلبات أحمال عمل مراكز البيانات. وهذا يمكّن Qualcomm من البناء على المعرفة الموجودة وفي الوقت نفسه استكشاف أسواق جديدة. وتؤكد الشراكة مع Humain، شركة ناشئة سعودية، الأهمية الاستراتيجية لهذه الخطوة، التي تسعى بدعم من صندوق الاستثمارات العامة (PIF) إلى تغطية سلسلة القيمة الكاملة للذكاء الاصطناعي، بما في ذلك مراكز البيانات ونماذج اللغة العربية الكبيرة.

يأتي إعلان AI200 وAI250 في سياق يتزايد فيه الطلب على حلول استدلال ذكاء اصطناعي فعالة وقوية باستمرار. تبحث الشركات عن طرق لخفض تكاليف التشغيل لتطبيقات الذكاء الاصطناعي وفي الوقت نفسه زيادة الأداء. نهج كوالكوم المتمثل في دمج كثافة ذاكرة عالية مع كفاءة الطاقة قد يمنحها ميزة تنافسية هنا.

Quelle: يوتيوب

المقطع من CNBC يوفر سياقاً إضافياً لاستراتيجية Qualcomm لمراكز البيانات ويشرح التداخل مع مجموعات الذكاء الاصطناعي الموجودة من الإعلانات السابقة.

الوضع الحالي والتطور

تقدمت التطورات المرتبطة بمبادرة كوالكوم لمراكز البيانات بشكل أسرع في الأشهر الأخيرة:

هذه الأحداث تُظهر استراتيجية واضحة وتقدمًا سريعًا في تنفيذ طموحات Qualcomm لمراكز البيانات. الشراكة مع Humain هي علامة مبكرة وملموسة على قبول السوق والثقة في المنتجات الجديدة.

التحليل والانعكاسات

دخل Qualcomm إلى سوق استدلال الذكاء الاصطناعي لمراكز البيانات مدفوع بالأغراض الإستراتيجية. تسعى الشركة إلى الاستقلال عن دورة الهواتف الذكية وتستثمر في السوق المتنامي لرأس المال لاستثمار في AI. يتم تعريف الاستدلال كأكبر محرك تكلفة في مركز البيانات، لأنه يتطلب تشغيلًا 24/7، ويرتبط ارتباطاً وثيقًا بالمستخدم النهائي. سعة RAM العالية لكل بطاقة (حتى 768 جيجابايت LPDDR) من AI200 وAI250 تهدف إلى تقليل تقشير النماذج، وتقليل حركة الاتصالات وبالتالي تقليل التأخير وتكاليف لكل استجابة. وهذا ذو صلة خاصة بنماذج اللغة الكبيرة والسياقات الطويلة.

عبر – الاستراتيجية الشاملة للذكاء الاصطناعي من Qualcomm تدمج الحوسبة الطرفية مع حلول سحابية، حيث تلعب مسرعات AI200/AI250 دوراً مركزياً في بنية مراكز البيانات.

Quelle: heise.de

استراتيجية Qualcomm الشاملة للذكاء الاصطناعي تدمج الحوسبة الطرفية مع حلول سحابية، حيث تلعب مسرعات AI200/AI250 دوراً مركزياً في بنية تحتية لمراكز البيانات.

AI250 يعتمد على هندسة Near-Memory مع عرض نطاق ذاكرة فعّال يزيد عن عشرة أضعاف. هذا عامل حاسم لمعالجة نماذج المحولات الكبيرة والسياقات الطويلة، حيث تستفيد من عرض النطاق العالي للذاكرة. الردود الإعلامية على إعلان Qualcomm إيجابية، حيث أن دخول عملاق شريحة الهاتف المحمول إلى سوق الذكاء الاصطناعي عند مستوى الرف يثير الانتباه وي challenge Nvidia وAMD في سوقهما الأساسية. تخطط Qualcomm أيضاً لخارطة طريق سنوية، ما يوحي بالالتزام على المدى الطويل.

بالنسبة لمشغلي مراكز البيانات، قد تعني الأنظمة الجديدة تقليلًا في إجمالي تكلفة الملكية (TCO) وتحسين كفاءة الطاقة لكل طلب. التبريد السائل المباشر والتوسع عبر PCIe في الراك وكذلك Ethernet بین الرفوف هي ميزات تقنية تهدف إلى تشغيل فعال. صفقة الـ200 ميغاوات مع Humain اعتباراً من 2026 هي إشارة قوية على قبول السوق والثقة في حلول Qualcomm.

من المهم ملاحظة أن AI200 وAI250 مصممان صراحة للاستدلال وليس للتدريب. هذا فرق حاسم عن العديد من مسرعات الذكاء الاصطناعي الأخرى في السوق ويؤكد تركيز Qualcomm على التشغيل الفعلي لنماذج الذكاء الاصطناعي. التحدي أمام Qualcomm سيكون في التنافس مع النظام البيئي القائم لـ Nvidia وتوفير دعم برمجي مماثل.

لأغراض فرق الشراء، من المستحسن التحقق مبكرًا من قدرة الإمداد في 2026/2027، والتكامل مع تصاميم CNI/شبكات موجودة، وتوفر ميزات الحوسبة السرّية (Confidential Computing). يجب تعزيز تقييم تقارير الإعلام دائماً بمصادر أولية ومراجعات تقنية، لفصل الضجيج عن البيانات المعتمدة.

Quelle: يوتيوب

يعرض الفيديو خلفية حول مفهوم AI-Factories ويساعد في وضع استدلال Rack-Scale في إطار اقتصادي.

أسئلة مفتوحة وخلاصة

على الرغم من الإعلانات الواعدة، تبقى بعض الأسئلة مفتوحة. الأداء الفعلي لكل وات ولكل دولار لـ AI200/AI250 مقارنة بتشكيلات Nvidia وAMD الحالية غير واضح بعد. لم تذكر Qualcomm حتى الآن قيم MLPerf-Inference أو عدد tokens/ثانية، مما يترك الأداء النسبي بلا أرقام. سيكون من الحاسم مدى سرعة نضوج هندسة Near-Memory لـ AI250 في أحمال العمل الواقعية وما إذا كان Inference Stack من Qualcomm يكتسب النضج قبل بدء السوق. ما زالت الوثائق التفصيلية أو ورقة بيضاء حول عرض النطاقات، زمن الانتقال وتنظيم (Orchestrierung) Qualcomm معلقة.

وباختصار: خطوة Qualcomm نحو استدلال على مستوى الرف محددة بوضوح: ذاكرة كثيرة لكل بطاقة، تبريد فعال وخريطة طريق ستُطرح اعتباراً من 2026. أهداف الهندسة، تصميم الذاكرة ووجود عميل رئيسي كبير قد تم التثبيت. ما يزال هناك نقصٌ في بيانات معيارية قوية من الواقع. للشركات التي تخطط لعامي 2026/2027، من الحكمة تقييم الخيارات الآن، فحص مسارات البرمجيات، واستعداد الشراء وتخطيط الطاقة وفق المعايير الجديدة.

Teilen Sie doch unseren Beitrag!