US-Regierung: Llama für sichere, offene KI

Avatar
Lisa Ernst · 22.09.2025 · Technik · 5 min

Die US-Beschaffungsbehörde GSA hat Metas Llama in ein Regierungsprogramm aufgenommen. Dies ermöglicht Bundesbehörden die Nutzung des Modells unter einheitlichen Rahmenbedingungen. Die GSA bestätigt dies in einer Pressemitteilung und verweist auf die OneGov-Initiative zur schnelleren, sichereren KI-Einführung in Bundesbehörden.

GSA Approval of Llama

Am 22. September 2025 bestätigte Reuters unter Berufung auf die GSA, dass US-Bundesbehörden Llama offiziell nutzen dürfen. Llama wird als „approved AI tool“ in GSA-Strukturen geführt. Die GSA-Pressemitteilung nennt konkret die Einbindung in die OneGov-Initiative und verweist auf OMB-Memos M-25-21 und M-25-22 als politische Leitplanken für Nutzung und Beschaffung. Bereits zuvor hatte die GSA andere KI-Anbieter wie OpenAI, Google und Anthropic für die Bundesnutzung zugelassen; Llama reiht sich nun dort ein. Für den Sicherheitskontext wichtig: AWS meldete im Juni 2025 FedRAMP „High“ sowie DoD Impact Level 4/5 für die Nutzung von Llama und Claude in AWS GovCloud, also für besonders schutzbedürftige Umgebungen. Meta selbst beschreibt den OneGov-Rahmen als kosten- und datenkontrollfreundlich, da Open-Weights-Modelle lokal betreibbar sind.

Quelle: YouTube

Understanding Llama

Llama ist eine Familie sogenannter Open-Weights-Modelle von Meta. Die fertigen Modellgewichte sind frei verfügbar, sodass Entwickler sie lokal oder in einer Behördencloud betreiben können. Quellcode, Trainingsdaten und -rezepte sind jedoch nicht vollständig offen. Die Open-Source-Initiative (OSI) stuft Llama darum ausdrücklich nicht als Open Source ein; dies ist wichtig für die korrekte Einordnung. Die NIST AI Risk Management Frameworks (AI RMF) liefern parallel dazu einen Leitfaden, wie Behörden KI-Risiken managen sollen, unabhängig vom Modelltyp. Diese sind im NIST AI 100-1 und auf der NIST-Website verfügbar.

Llama: Open-Source-Intelligenz im Code-Gewand.

Quelle: unite.ai

Llama: Open-Source-Intelligenz im Code-Gewand.

Key Drivers & Context

Die Zulassung von Llama durch die GSA ist auf mehrere Motive zurückzuführen. Erstens spielen Kosten- und Kontrollargumente eine Rolle: Open-Weights-Modelle ermöglichen Self-Hosting, was Datensouveränität und Kostensteuerung verbessert. Die NTIA hat hierzu einen Bericht veröffentlicht. Zweitens ist die Beschaffungsstrategie relevant: OMB M-25-22 betont Wettbewerb, Leistungscontrolling und Risikomanagement bei der KI-Beschaffung; offene Modelle dienen als Gegengewicht zu proprietären Diensten und reduzieren Vendor Lock-in. Weitere OMB-Memoranden sind verfügbar. Drittens ist die Sicherheit ein Faktor: Mit FedRAMP/IL4-5 fällt die Hürde, solche Modelle in sensiblen Behördenumgebungen einzusetzen. Gleichzeitig bleibt die Governance-Pflicht hoch: NISTs AI RMF verlangt dokumentierte Risikobewertungen, Unvoreingenommenheitstests, Nachvollziehbarkeit und Monitoring.

KI im Behördenalltag: Llama als digitaler Assistent für effizientere Prozesse.

Quelle: blog.lilypadnetwork.org

KI im Behördenalltag: Llama als digitaler Assistent für effizientere Prozesse.

Fact Check & Clarifications

Belegt: Die GSA bestätigt die OneGov-Einbindung von Llama; Reuters berichtet über die Zulassung für Bundesbehörden am 22.09.2025. Die GSA-Pressemitteilung ist hier verfügbar.

Belegt: OMB M-25-21 und M-25-22 setzen den Rahmen für Nutzung und Beschaffung von KI in Bundesbehörden.

Belegt: AWS GovCloud hat für Llama/Claude FedRAMP „High“ und DoD IL4/5, was den Einsatz in hochsensitiven Umgebungen ermöglicht.

Unklar: „Open Source“ im engen OSI-Sinn. Llama ist nach OSI weiterhin nicht Open Source; Meta spricht von „open source/open models“, OSI widerspricht. Meta's Perspektive ist hier zu finden. Praktisch handelt es sich um Open Weights, nicht um vollständig offene KI, wie der NTIA-Bericht zeigt.

Falsch/Irreführend: „Mit der GSA-Zulassung ist Llama automatisch FedRAMP-autorisiert.“ FedRAMP autorisiert Cloud-Dienste, nicht Modellfamilien an sich; relevant ist die autorisierte Betriebsumgebung (z. B. AWS GovCloud mit den genannten Freigaben) und das behördenseitige Risikomanagement gemäß NIST AI RMF. Informationen zu FedRAMP sind auf fedramp.gov verfügbar. Eine Erklärung findet sich bei FedScoop und das NIST AI RMF.

Llama im Serverraum: Die Open-Source-KI als Rückgrat moderner Behörden-IT.

Quelle: kanzlei-herfurtner.de

Llama im Serverraum: Die Open-Source-KI als Rückgrat moderner Behörden-IT.

Implications for Agencies

Für Behörden bedeutet die Zulassung, dass Llama nun in standardisierten Rahmenbedingungen evaluiert und produktiv gesetzt werden kann, inklusive Self-Hosting-Optionen in GovCloud oder on-prem. Dies verkürzt Datenwege und reduziert Vendor Lock-in, wie in OMB M-25-22 betont. Behörden sollten dabei strikt entlang NIST AI RMF (Govern, Map, Measure, Manage) prüfen und die Playbooks des NIST AI Resource Center nutzen. Das NIST AI RMF ist hierbei die Grundlage. Für Fachbereiche ermöglichen Open-Weights eine feingranulare Kostenkontrolle (GPU-Zeit, Skalierung), klare Logging-/Audit-Pfade und Integrationen in Fachverfahren, solange Evaluierung, Prompt-Sicherheitskonzepte und Red-Teaming etabliert sind. Weitere Informationen finden sich im NTIA-Bericht zu Open Model Weights.

Quelle: YouTube

Open Questions & Future Outlook

Es bleiben offene Fragen. Wie werden Agenturen Lizenz- und Compliance-Besonderheiten von Llama operationalisieren, etwa die 700-Millionen-MAU-Klausel und Akzeptable-Nutzungsbedingungen, gerade bei Mehrparteienprojekten und Zukäufen? Die Lizenz nennt explizit die Schwelle und fordert ggf. gesonderte Genehmigung durch Meta. Wie integrieren Beschaffer OMB M-25-22 (KI-Beschaffung) und NIST AI RMF (Risikosteuerung) in langlaufende Rahmenverträge und Nachweise? Und welche Evaluationsbenchmarks setzen sich im Public Sector als Standard durch, um Open-Weights fair mit proprietären Diensten zu vergleichen, wie im America's AI Action Plan angedeutet?

Die Zulassung von Llama für US-Behörden markiert einen praktischen Schritt hin zu mehr Wahlfreiheit: Offene Gewichte, Self-Hosting und standardisierte Beschaffungswege reduzieren Abhängigkeiten und können Kosten sowie Datenrisiken senken, sofern Governance und Sicherheitsarchitektur konsequent umgesetzt werden. Dies wird durch die Reuters-Meldung, die GSA-Pressemitteilung und OMB M-25-22 belegt. Wer Llama einsetzen will, sollte die OSI-Debatte ernst nehmen, die Lizenz sauber prüfen und das NIST-Risikomanagement als roten Faden in Projekt, Beschaffung und Betrieb legen. So lässt sich der Nutzen offener Modelle im öffentlichen Sektor solide und nachvollziehbar heben.

Teilen Sie doch unseren Beitrag!