Perplexity: Eigenes LLM?
Perplexity setzt auf ein hauseigenes Sprachmodell namens Sonar. Dieses Modell basiert auf offenen Basismodellen von Meta (Llama 3.x) und wurde für die Suche feinabgestimmt. Es handelt sich nicht um ein Foundation-Modell von Grund auf, sondern um einen intern trainierten Ableger mit eigener Infrastruktur und Suchanbindung. Perplexity bietet zudem in Bezahlplänen Drittanbieter-Modelle wie GPT, Claude und Gemini an.
Perplexity Sonar
Perplexity stellte Ende 2023 „PPLX Online LLMs“ vor. Diese Modelle kombinierten Open-Source-Basen (Mistral-7B, Llama2-70B) mit einem eigenen Such-, Index- und Crawl-Stack, um Antworten mit aktuellen Webquellen zu begründen (Quelle). Im Jahr 2025 folgte „Sonar“ als neues In-house-Modell für den Standard-Suchmodus. Laut Perplexity basiert Sonar auf Llama 3.3 70B und ist für Faktentreue und Lesbarkeit optimiert (Quelle). In Zusammenarbeit mit Cerebras wird Sonar auf spezialisierter Inferenz-Infrastruktur betrieben, wobei Durchsätze von bis zu 1.200 Tokens pro Sekunde kommuniziert werden (Quelle).
Perplexity verfolgt mit einem eigenen Modell auf Open-Source-Basis mehrere Motive. Erstens ermöglicht ein In-house-Finetune eine präzise Anpassung an Suchaufgaben, Zitationslogik und Halluzinationskontrolle (Quelle). Zweitens optimiert die dedizierte Inferenz-Infrastruktur (Cerebras) Durchsatz und Latenz, was für ein „Answer Engine“-Produkt entscheidend ist (Quelle). Drittens positioniert sich Perplexity durch die Wahl zwischen eigenen, schnellen, suchbasierten Antworten und teureren Frontier-Modellen, um je nach Anwendungsfall abzuwägen (Quelle). Ein klares „Wir haben ein eigenes Modell“ stärkt die Marke, ohne die Flexibilität zu verlieren, externe Spitzenmodelle bei Bedarf zuzuschalten (Quelle).
Quelle: YouTube
Modell-Ökosystem
Die Perplexity-Plattform bietet ein vielseitiges Modell-Ökosystem. Sonar wird als hauseigenes, suchoptimiertes Modell beschrieben, das auf Llama 3.3 70B basiert und intern weitertrainiert wurde (Quelle). Historisch gab es zudem „PPLX Online LLMs“, die auf Mistral-7B und Llama2-70B aufbauen und mit Perplexitys eigenem Web-Retrieval verbunden sind (Quelle). Parallel dazu bietet Perplexity in den Bezahlplänen auch Drittanbieter-Modelle wie GPT, Claude und Gemini an, die im Interface ausgewählt werden können (Quelle).

Quelle: dhruvirzala.com
In Perplexity Pro können Nutzer zwischen verschiedenen leistungsstarken LLMs wählen, darunter auch Modelle von Drittanbietern.
Das Perplexity-Helpcenter bezeichnet Sonar als „in-house model“ und listet daneben verfügbare Frontier-Modelle in Pro (z. B. GPT, Claude, Gemini), die Nutzer aktiv wählen können (Quelle, Quelle).
Fakten & Behauptungen
Es ist belegt, dass Perplexity mit Sonar ein In-house-Modell für den Standard-Suchmodus betreibt, das auf Llama 3.3 70B aufbaut und auf Faktentreue, Lesbarkeit sowie hohe Geschwindigkeit optimiert ist (Quelle, Quelle). Die Inferenz läuft auf Cerebras-Infrastruktur mit kommunizierten 1.200 Tokens/s (Quelle). Historisch stammen die „PPLX Online“-Modelle von Mistral-7B und Llama2-70B ab und sind mit eigenem Retrieval verknüpft (Quelle). Pro-Abos erlauben die Wahl zwischen Sonar und Drittmodellen wie GPT, Claude oder Gemini (Quelle, Quelle).
Perplexity verweist auf Vereinbarungen, dass Drittanbieter Daten aus Perplexity nicht zum Training nutzen (Quelle).
Unklar bleibt, ob Perplexity je ein vollkommen eigenständiges Foundation-Modell (ohne Open-Source-Basis) trainieren wird; dazu gibt es keine belastbaren Ankündigungen. Die Behauptung, „Perplexity nutzt nur GPT/Claude und hat kein Eigenes“, ist durch die Sonar-Veröffentlichungen widerlegt (Quelle, Quelle).
Datenschutz & Nutzung
Zur Datennutzung betont Perplexity vertragliche Zusicherungen gegenüber Drittanbietern: Daten aus Perplexity sollen nicht zum Training externer Modelle verwendet werden. Zudem gibt es Opt-out-Regelungen für Trainingsnutzung (Quelle, Quelle, Quelle).

Quelle: perplexity.ai
Perplexity.ai kündigt die Einführung ihrer eigenen Online-LLMs an, die auf dem pplx-Modell basieren.
Auswirkungen & Offene Fragen
Für Recherche, News und schnelle Orientierung ist Sonar meist die pragmatische Voreinstellung: schnell, suchgrundiert und mit Quellangaben (Quelle). Bei Bedarf an langer Kettenlogik, Code-Assistenz oder bevorzugten Tool-Aufrufen einer bestimmten Frontier-Familie lohnt das manuelle Umschalten auf GPT, Claude oder Gemini in Pro (Quelle). Für Datenschutzfragen empfiehlt sich ein Blick in die Policy, Opt-out und Enterprise-Infos; relevant ist die Zusicherung, dass Drittanbieter-Modelle Perplexity-Daten nicht zum Training nutzen (Quelle, Quelle, Quelle).
Quelle: YouTube
Offene Fragen betreffen die weitere Entwicklung der Modellfamilie: Wird Sonar langfristig als mehrstufige Linie (z. B. Pro, Reasoning) ausgebaut, und veröffentlichen Anbieter belastbare, unabhängige Benchmarks mit reproduzierbarer Methodik (Quelle)? Wie stabil sind die Zusagen zur Datennutzung in künftigen Verträgen mit Drittanbietern, und gibt es externe Audits oder Trust-Center-Berichte mit Details (Quelle)? Welche Rolle spielt „Deep Research“ für längere, methodische Projekte und welche Modelle werden dort standardmäßig eingesetzt (Quelle)?
Die Frage nach dem „eigenen“ Modell lässt sich klar beantworten: Perplexity betreibt mit Sonar ein In-house-feingetuntes LLM auf Llama-3.x-Basis, zugeschnitten auf schnelle, zitierte Suchantworten und unterstützt von spezieller Inferenz-Hardware (Quelle, Quelle). Gleichzeitig bleibt die Plattform offen für Frontier-Modelle, die je nach Aufgabe gewählt werden können (Quelle). Dies erfordert eine bewusste Abwägung zwischen Tempo, Kosten, Tiefe und Datenschutz sowie eine situative Modellwahl.