Perplexity: LLM proprio?
Perplexity si affida a un modello linguistico proprietario chiamato Sonar. Questo modello si basa sui modelli di base aperti di Meta (Llama 3.x) ed è stato ottimizzato per la ricerca. Non si tratta di un modello di fondazione creato da zero, ma di un ramo interno addestrato con infrastruttura propria e collegamento alla ricerca. Perplexity offre inoltre, nei piani a pagamento, modelli di terze parti come GPT, Claude e Gemini.
Perplexity Sonar
A fine 2023 Perplexity ha presentato i 'PPLX Online LLMs'. Questi modelli hanno combinato basi open-source (Mistral-7B, Llama2-70B) con uno stack di ricerca, indicizzazione e crawling proprio, per fondare risposte con fonti web aggiornate ( Fonte). Nel 2025 è seguito Sonar come nuovo modello in-house per la modalità di ricerca standard. Secondo Perplexity, Sonar si basa su Llama 3.3 70B ed è ottimizzato per accuratezza dei fatti e leggibilità ( Fonte). In collaborazione con Cerebras Sonar viene eseguito su un'infrastruttura di inferenza specializzata, con throughput fino a 1.200 token al secondo ( Fonte).
Perplexity persegue con un proprio modello basato su Open-Source diversi obiettivi. In primo luogo, un finetune in-house consente un'adeguata personalizzazione per compiti di ricerca, logica di citazione e controllo delle allucinazioni ( Fonte). In secondo luogo, l'infrastruttura di inferenza dedicata (Cerebras) ottimizza throughput e latenze, essenziale per un prodotto di tipo "Answer Engine" ( Fonte). In terzo luogo, Perplexity si posiziona offrendo la scelta tra risposte proprie, rapide e basate sulla ricerca e modelli Frontier più costosi, da valutare a seconda del caso d'uso ( Fonte). Un chiaro "Abbiamo un modello proprio" rafforza il marchio senza perdere la flessibilità di includere modelli di punta esterni quando necessario ( Fonte).
Quelle: YouTube
Ecosistema di modelli
La piattaforma Perplexity offre un ecosistema di modelli versatile. Sonar è descritto come modello proprietario, ottimizzato per la ricerca, basato su Llama 3.3 70B e addestrato internamente ulteriormente ( Fonte). Storicamente esistivano anche 'PPLX Online LLMs', basati su Mistral-7B e Llama2-70B e collegati al retrieval web proprio di Perplexity ( Fonte). In parallelo, nell'abbonamento a pagamento Perplexity offre anche modelli di terze parti come GPT, Claude e Gemini, che possono essere selezionati nell'interfaccia ( Fonte).

Quelle: dhruvirzala.com
Il Centro assistenza di Perplexity definisce Sonar come "in-house model" e elenca accanto modelli Frontier disponibili in Pro (es. GPT, Claude, Gemini) che gli utenti possono scegliere attivamente ( Fonte, Fonte).
Fatti e affermazioni
È dimostrato che Perplexity con Sonar gestisce un modello in-house per la modalità di ricerca standard, basato su Llama 3.3 70B ed ottimizzato per l'accuratezza dei fatti, leggibilità e alta velocità ( Fonte, Fonte). L'inferenza avviene su un'infrastruttura Cerebras con flussi di 1.200 token/s comunicati ( Fonte). Storicamente i modelli 'PPLX Online' derivano da Mistral-7B e Llama2-70B e sono collegati a un retrieval proprio ( Fonte). Gli abbonamenti Pro consentono di scegliere tra Sonar e modelli di terze parti come GPT, Claude o Gemini ( Fonte, Fonte).
Perplexity fa riferimento ad accordi secondo cui i dati forniti da terze parti non vengono utilizzati per l'addestramento di Perplexity ( Fonte).
Non è chiaro se Perplexity sia mai in grado di addestrare un modello fondazione completamente indipendente (senza base open-source); non ci sono annunci affidabili a riguardo. L'affermazione, \"Perplexity usa solo GPT/Claude e non ha un proprio modello\", è smentita dalle pubblicazioni su Sonar ( Fonte, Fonte).
Privacy e utilizzo
Per quanto riguarda l'utilizzo dei dati, Perplexity enfatizza impegni contrattuali nei confronti dei fornitori terzi: i dati provenienti da Perplexity non devono essere utilizzati per l'addestramento di modelli esterni. Inoltre esistono regole di opt-out per l'uso nei training ( Fonte, Fonte, Fonte).

Quelle: perplexity.ai
Implicazioni e domande aperte
Per ricerche, notizie e orientamento rapido, Sonar è di solito la scelta pratica: veloce, basata sulla ricerca e con riferimenti alle fonti ( Fonte). Se è necessaria una lunga catena logica, assistenza al codice o richiami di strumenti preferiti di una determinata famiglia Frontier, conviene passare manualmente a GPT, Claude o Gemini in Pro ( Fonte). Per questioni di privacy, è consigliabile consultare la policy, l'opt-out e le informazioni aziendali; rilevante è l'assicurazione che i modelli di terze parti non utilizzano i dati di Perplexity per l'addestramento ( Fonte, Fonte, Fonte).
Quelle: YouTube
Le domande aperte riguardano lo sviluppo ulteriore della famiglia di modelli: Sonar verrà ampliato a lungo termine come linea a più livelli (ad es. Pro, Reasoning), e gli fornitori pubblicheranno benchmark affidabili e indipendenti con metodologia riproducibile ( Fonte)? Quanto sono stabili le promesse relative all'uso dei dati nei futuri contratti con fornitori terzi, e ci sono audit esterni o rapporti del Trust-Center con dettagli ( Fonte)? Qual è il ruolo di \"Deep Research\" per progetti metodologici più lunghi e quali modelli vengono utilizzati come standard lì ( Fonte)?
La domanda sul \"proprio\" modello ha una risposta chiara: Perplexity gestisce con Sonar un LLM finemente addestrato internamente basato su Llama-3.x, adattato a risposte di ricerca rapide e citabili e supportato da hardware di inferenza speciale ( Fonte, Fonte). Allo stesso tempo la piattaforma rimane aperta ai modelli Frontier, che possono essere scelti in base al compito ( Fonte). Ciò richiede una valutazione consapevole tra velocità, costi, profondità e privacy, nonché una scelta di modello in base alla situazione.