الحكومة الأمريكية: لاما لذكاء اصطناعي آمن ومفتوح
أدرجت هيئة المشتريات الأمريكية GSA لاما من Meta في برنامج حكومي. وهذا يتيح للوكالات الفدرالية استخدام النموذج ضمن إطار موحد. وتؤكد GSA ذلك في بيان صحفي وتذكر مبادرة OneGov من أجل تسريع وإدخال الذكاء الاصطناعي الآمن في الوكالات الفدرالية.
اعتماد GSA لـلاما
في 22. سبتمبر 2025 أكّدت رويترز، بالاستناد إلى GSA، أن وكالات الحكومة الأمريكية يمكنها استخدام لاما رسميًا. يتم تصنيف لاما كـ "أداة ذكاء اصطناعي معتمدة" ضمن هياكل GSA. يذكر بيان GSA الصحفي بشكل محدد الإدماج في مبادرة OneGov ويرمز إلى مذكرات OMB M-25-21 و M-25-22 كإرشادات سياسية للاستخدام والشراء. سبق وأن وافقت GSA سابقاً على موردين آخرين للذكاء الاصطناعي مثل OpenAI، Google وAnthropic للاستخدام الفيدرالي؛ الآن ينضم Llama إلى تلك القائمة. فيما يتعلق بالسياق الأمني، أعلنت AWS في يونيو 2025 عن FedRAMP High ومستوى DoD IL4/5 لاستخدام Llama و Claude في AWS GovCloud، أي في بيئات حساسة للغاية. تصف Meta إطار OneGov بأنه صديق للتحكم في التكاليف والبيانات، لأن النماذج ذات الأوزان المفتوحة يمكن تشغيلها محلياً.
Quelle: يوتيوب
فهم لاما
لاما هي عائلة من نماذج تُعرف بـ Open-Weights من Meta. أوزان النماذج النهائية متاحة بالمجان يمكن للمطورين تشغيلها محلياً أو في سحابة حكومية. ومع ذلك فإن الشيفرة المصدرية وبيانات التدريب والوصفات ليست مفتوحة بالكامل. لذلك لا تصنف المبادرة مفتوحة المصدر (OSI) لاما صراحة كـ Open Source؛ وهذا مهم لإدراجها بشكل صحيح. أطر إدارة مخاطر الذكاء الاصطناعي من NIST (AI RMF) توفر بالتوازي دليلًا لكيفية إدارة مخاطر الذكاء الاصطناعي لدى الهيئات، بغض النظر عن نوع النموذج. وهي متاحة في NIST AI 100-1 وعلى موقع NIST.

Quelle: unite.ai
لاما: ذكاء مفتوح المصدر في ثوب الشفرة.
المحفزات الأساسية والسياق
إذْنُ لاما من GSA ينبع من عدة أسباب. أولاً الاعتبارات المتعلقة بالتكلفة والسيطرة: النماذج ذات الأوزان المفتوحة تتيح التشغيل الذاتي، مما يحسن السيادة البيانات والتحكم بالتكاليف. كما أشار NTIA إلى وجود تقرير حول هذه النقطة. ثانيًاity: استراتيجية الشراء ذات صلة: تؤكد مذكرة M-25-22 من OMB المنافسة ورصد الأداء وإدارة المخاطر في شراء الذكاء الاصطناعي؛ وتعمل النماذج المفتوحة كوزن مقابل الخدمات الخاصة وتقلل من التبعية للموردين. ثالثاً، الأمن عامل: مع FedRAMP/IL4-5 فإن الاستخدام في بيئات الجهات الحكومية الحساسة يصبح ممكناً. وفي الوقت نفسه تبقى متطلبات الحوكمة عالية: إطار NIST AI RMF يطالب بتقييمات مخاطر موثقة، اختبارات خلو من التحيز، إمكانية التتبع والمراقبة.

Quelle: blog.lilypadnetwork.org
KI im Behördenalltag: Llama als digitaler Assistent für effizientere Prozesse.
التحقق من الحقائق والتوضيحات
مؤكد: تؤكد GSA إدماج Llama في OneGov؛ وتفيد رويترز بأن الاعتماد للبُنى الحكومية أمّن لوكالات الحكومة الأمريكية في 22.09.2025. البيان الصحفي لـ GSA متاح هنا.
مؤكد: تقر مذكرتا OMB M-25-21 و M-25-22 بإطار الاستخدام والشراء في الوكالات الحكومية.
مؤكد: لدى AWS GovCloud دعم لـ Llama/Claude عبر FedRAMP High و DoD IL4/5، ما يتيح النشر في بيئات عالية الحساسية.
غير واضح: مصطلح "Open Source" بمعناه OSI الضيق. لاما لا تعتبر حتى الآن مفتوحة المصدر كما يُفهم عادةً ضمن OSI؛ وقد أكدت OSI ذلك، كما في المقال. يظل تعريف Meta ووجهة نظرها قيد المعالجة. وفقاً لتقرير NTIA، يتم وضع الأوزان المفتوحة خارج إطار البرمجيات المفتوحة بالكامل.
خاطئ/مضلل: "مع اعتماد GSA فإن Llama تلقائياً معتمد من FedRAMP." FedRAMP يوافق على الخدمات السحابية، لا على سلاسل النماذج نفسها؛ المهم هو بيئة التشغيل المعتمدة من قبل الجهات الحكومية وفقاً لإدارة المخاطر وفق NIST AI RMF. معلومات حول FedRAMP متوفرة على fedramp.gov. وتوجد إشارات في FedScoop و NIST AI RMF.

Quelle: kanzlei-herfurtner.de
لاما في غرفة الخادم: الذكاء المفتوح المصدر العمود الفقري لتقنية المعلومات الحكومية.
التداعيات على الوكالات
بالإشعار، يمكن الآن تقييم واستخدام لاما ضمن أطر معيارية، بما في ذلك خيارات self-hosting في GovCloud أو التشغيل المحلي. هذا يختصر مسارات البيانات ويقلل من الاعتماد على مورد واحد، كما أكدت OMB M-25-22. يجب أن تقيم الوكالات وفق NIST AI RMF (Govern, Map, Measure, Manage) وتستخدم دلائل NIST AI Resource Center. NIST AI RMF هو الأساس. بالنسبة للجهات الفنية، تتيح الأوزان المفتوحة سيطرة مفصّلة على التكاليف (وقت GPU، التوسع)، ومسارات تسجيل وتدقيق واضحة، وتكامل في الإجراءات الفنية، طالما تم إقامة التقييم، ومفاهيم أمان الطلب، والاختبار المعاد. مزيد من المعلومات متاح في تقرير NTIA حول Open Model Weights.
Quelle: يوتيوب
أسئلة مفتوحة وآفاق مستقبلية
لا تزال هناك أسئلة. كيف ستُشغِّل الوكالات خصوصيات الرخص والامتثال من Llama، مثل شرط 700 مليون مستخدم يومياً ونِطاقات الاستخدام المقبول، خاصة في المشاريع متعددة الأطراف والشراء؟ توفر شروط الخدمة معلومات محددة وربما تتطلب إذناً خاصاً من Meta. كيف ستدمج الشراءون OMB M-25-22 (شراء الذكاء الاصطناعي) و NIST AI RMF (إدارة المخاطر) في العقود طويلة الأجل وإثباتاتها؟ وأي معايير تقييم ستعتمد كمعيار في القطاع العام لتقييم المقارنات العادلة بين الأوزان المفتوحة والخدمات الملكية كما أشارت إليه خطة الولايات المتحدة للذكاء الاصطناعي؟
اعتماد لاما لهيئات الولايات المتحدة يمثل خطوة عملية نحو مزيد من الاختيار: الأوزان المفتوحة، التشغيل الذاتي، ومسارات الشراء المعيارية يمكن أن تقلل من الاعتماد وتخفض التكاليف ومخاطر البيانات إذا تم تطبيق الحوكمة وهندسة الأمان بشكل صارم. وهذا ما تدعمه تغطية رويترز، وبيان GSA هنا، وOMB M-25-22 . راقبوا جدلية OSI عند اختيار Llama وتحققوا من الترخيص، واعتمدوا NIST AI RMF كدليل رئيسي في المشروع والشراء والتشغيل. هكذا يمكن الاستفادة من النماذج المفتوحة بشكل مسؤول وشفاف في القطاع العام.