Perplexity: LLM proprio?

Avatar
Lisa Ernst · 05.10.2025 · Tecnica · 4 minuti

Perplexity si affida a un modello linguistico proprietario chiamato Sonar. Questo modello si basa sui modelli di base aperti di Meta (Llama 3.x) ed è stato ottimizzato per la ricerca. Non si tratta di un modello di fondazione creato da zero, ma di un ramo interno addestrato con infrastruttura propria e collegamento alla ricerca. Perplexity offre inoltre, nei piani a pagamento, modelli di terze parti come GPT, Claude e Gemini.

Perplexity Sonar

A fine 2023 Perplexity ha presentato i 'PPLX Online LLMs'. Questi modelli hanno combinato basi open-source (Mistral-7B, Llama2-70B) con uno stack di ricerca, indicizzazione e crawling proprio, per fondare risposte con fonti web aggiornate ( Fonte). Nel 2025 è seguito Sonar come nuovo modello in-house per la modalità di ricerca standard. Secondo Perplexity, Sonar si basa su Llama 3.3 70B ed è ottimizzato per accuratezza dei fatti e leggibilità ( Fonte). In collaborazione con Cerebras Sonar viene eseguito su un'infrastruttura di inferenza specializzata, con throughput fino a 1.200 token al secondo ( Fonte).

Perplexity persegue con un proprio modello basato su Open-Source diversi obiettivi. In primo luogo, un finetune in-house consente un'adeguata personalizzazione per compiti di ricerca, logica di citazione e controllo delle allucinazioni ( Fonte). In secondo luogo, l'infrastruttura di inferenza dedicata (Cerebras) ottimizza throughput e latenze, essenziale per un prodotto di tipo "Answer Engine" ( Fonte). In terzo luogo, Perplexity si posiziona offrendo la scelta tra risposte proprie, rapide e basate sulla ricerca e modelli Frontier più costosi, da valutare a seconda del caso d'uso ( Fonte). Un chiaro "Abbiamo un modello proprio" rafforza il marchio senza perdere la flessibilità di includere modelli di punta esterni quando necessario ( Fonte).

Quelle: YouTube

Ecosistema di modelli

La piattaforma Perplexity offre un ecosistema di modelli versatile. Sonar è descritto come modello proprietario, ottimizzato per la ricerca, basato su Llama 3.3 70B e addestrato internamente ulteriormente ( Fonte). Storicamente esistivano anche 'PPLX Online LLMs', basati su Mistral-7B e Llama2-70B e collegati al retrieval web proprio di Perplexity ( Fonte). In parallelo, nell'abbonamento a pagamento Perplexity offre anche modelli di terze parti come GPT, Claude e Gemini, che possono essere selezionati nell'interfaccia ( Fonte).

In Perplexity Pro gli utenti possono scegliere tra diversi LLM potenti, tra cui anche modelli di terze parti.

Quelle: dhruvirzala.com

In Perplexity Pro gli utenti possono scegliere tra diversi LLM potenti, tra cui anche modelli di terze parti.

Il Centro assistenza di Perplexity definisce Sonar come "in-house model" e elenca accanto modelli Frontier disponibili in Pro (es. GPT, Claude, Gemini) che gli utenti possono scegliere attivamente ( Fonte, Fonte).

Fatti e affermazioni

È dimostrato che Perplexity con Sonar gestisce un modello in-house per la modalità di ricerca standard, basato su Llama 3.3 70B ed ottimizzato per l'accuratezza dei fatti, leggibilità e alta velocità ( Fonte, Fonte). L'inferenza avviene su un'infrastruttura Cerebras con flussi di 1.200 token/s comunicati ( Fonte). Storicamente i modelli 'PPLX Online' derivano da Mistral-7B e Llama2-70B e sono collegati a un retrieval proprio ( Fonte). Gli abbonamenti Pro consentono di scegliere tra Sonar e modelli di terze parti come GPT, Claude o Gemini ( Fonte, Fonte).

Perplexity fa riferimento ad accordi secondo cui i dati forniti da terze parti non vengono utilizzati per l'addestramento di Perplexity ( Fonte).

Non è chiaro se Perplexity sia mai in grado di addestrare un modello fondazione completamente indipendente (senza base open-source); non ci sono annunci affidabili a riguardo. L'affermazione, \"Perplexity usa solo GPT/Claude e non ha un proprio modello\", è smentita dalle pubblicazioni su Sonar ( Fonte, Fonte).

Privacy e utilizzo

Per quanto riguarda l'utilizzo dei dati, Perplexity enfatizza impegni contrattuali nei confronti dei fornitori terzi: i dati provenienti da Perplexity non devono essere utilizzati per l'addestramento di modelli esterni. Inoltre esistono regole di opt-out per l'uso nei training ( Fonte, Fonte, Fonte).

Perplexity.ai annuncia l'introduzione dei propri LLM online, basati sul modello pplx.

Quelle: perplexity.ai

Perplexity.ai annuncia l'introduzione dei propri LLM online, basati sul modello pplx.

Implicazioni e domande aperte

Per ricerche, notizie e orientamento rapido, Sonar è di solito la scelta pratica: veloce, basata sulla ricerca e con riferimenti alle fonti ( Fonte). Se è necessaria una lunga catena logica, assistenza al codice o richiami di strumenti preferiti di una determinata famiglia Frontier, conviene passare manualmente a GPT, Claude o Gemini in Pro ( Fonte). Per questioni di privacy, è consigliabile consultare la policy, l'opt-out e le informazioni aziendali; rilevante è l'assicurazione che i modelli di terze parti non utilizzano i dati di Perplexity per l'addestramento ( Fonte, Fonte, Fonte).

Quelle: YouTube

Le domande aperte riguardano lo sviluppo ulteriore della famiglia di modelli: Sonar verrà ampliato a lungo termine come linea a più livelli (ad es. Pro, Reasoning), e gli fornitori pubblicheranno benchmark affidabili e indipendenti con metodologia riproducibile ( Fonte)? Quanto sono stabili le promesse relative all'uso dei dati nei futuri contratti con fornitori terzi, e ci sono audit esterni o rapporti del Trust-Center con dettagli ( Fonte)? Qual è il ruolo di \"Deep Research\" per progetti metodologici più lunghi e quali modelli vengono utilizzati come standard lì ( Fonte)?

La domanda sul \"proprio\" modello ha una risposta chiara: Perplexity gestisce con Sonar un LLM finemente addestrato internamente basato su Llama-3.x, adattato a risposte di ricerca rapide e citabili e supportato da hardware di inferenza speciale ( Fonte, Fonte). Allo stesso tempo la piattaforma rimane aperta ai modelli Frontier, che possono essere scelti in base al compito ( Fonte). Ciò richiede una valutazione consapevole tra velocità, costi, profondità e privacy, nonché una scelta di modello in base alla situazione.

Teilen Sie doch unseren Beitrag!