Perplexity : LLM interne ?
Perplexity mise sur un modèle linguistique interne nommé Sonar. Ce modèle est basé sur des modèles de base ouverts de Meta (Llama 3.x) et a été affiné pour la recherche. Il ne s'agit pas d'un modèle fondation de zéro, mais d'une dérivation entraînée en interne avec une infrastructure et une liaison de recherche propres. Perplexity propose également, dans les plans payants, des modèles de tiers tels que GPT, Claude et Gemini.
Perplexity Sonar
Perplexity a présenté fin 2023 les « PPLX Online LLMs ». Ces modèles combinaient des bases open-source (Mistral-7B, Llama2-70B) avec une pile de recherche, d'indexation et de crawl propres, afin de justifier les réponses avec des sources web actuelles ( Source). En 2025, « Sonar » a suivi comme nouveau modèle interne pour le mode de recherche standard. Selon Perplexity, Sonar est basé sur Llama 3.3 70B et est optimisé pour la fidélité factuelle et la lisibilité ( Source). En collaboration avec Cerebras, Sonar fonctionne sur une infrastructure d'inférence spécialisée, avec des débits allant jusqu'à 1 200 tokens par seconde ( Source).
Perplexity poursuit, avec son propre modèle basé sur l'open-source, plusieurs objectifs. Premièrement, un finetuning en interne permet un ajustement précis aux tâches de recherche, à la logique de citation et au contrôle des hallucinations ( Source). Deuxièmement, l'infrastructure d'inférence dédiée (Cerebras) optimise le débit et la latence, ce qui est crucial pour un produit de type « Answer Engine » ( Source). Troisièmement, Perplexity se positionne en offrant le choix entre ses propres réponses rapides et basées sur la recherche et des modèles Frontier plus coûteux, afin d'évaluer selon le cas d'utilisation ( Source). Un message clair « Nous avons notre propre modèle » renforce la marque, sans perdre la flexibilité d'activer des modèles de pointe externes lorsque nécessaire ( Source).
Quelle: YouTube
Écosystème de modèles
La plateforme Perplexity propose un écosystème de modèles polyvalent. Sonar est décrit comme un modèle interne, optimisé pour la recherche, basé sur Llama 3.3 70B et a été affiné en interne ( Source). Historiquement, il existait aussi des « PPLX Online LLMs », qui reposaient sur Mistral-7B et Llama2-70B et étaient liés à l'extraction Web propre à Perplexity ( Source). Parallèlement, dans les plans payants, Perplexity propose aussi des modèles de tiers tels que GPT, Claude et Gemini, qui peuvent être sélectionnés dans l'interface ( Source).

Quelle: dhruvirzala.com
Le centre d'aide de Perplexity désigne Sonar comme « in-house model » et répertorie en outre les modèles Frontier disponibles dans Pro (par exemple GPT, Claude, Gemini), que les utilisateurs peuvent choisir activement ( Source, Source).
Faits et affirmations
Il est démontré que Perplexity exploite avec Sonar un modèle interne pour le mode de recherche standard, qui est basé sur Llama 3.3 70B et optimisé pour la véracité des faits, la lisibilité et une haute vitesse ( Source, Source). L'inférence fonctionne sur une infrastructure Cerebras avec un débit communiqué de 1 200 tokens/s ( Source). Historiquement, les modèles « PPLX Online » proviennent de Mistral-7B et Llama2-70B et sont liés à leur propre retrieval ( Source). Les abonnements Pro permettent le choix entre Sonar et des modèles tiers tels que GPT, Claude ou Gemini ( Source, Source).
Perplexity renvoie à des accords selon lesquels les données de tiers provenant de Perplexity ne sont pas utilisées pour l'entraînement ( Source).
Reste incertain si Perplexity entraînera un jour un modèle fondation totalement autonome (sans base open-source); il n'y a pas d'annonces solides à ce sujet. L'affirmation « Perplexity n'utilise que GPT/Claude et n'a pas le sien » est réfutée par les publications sur Sonar ( Source, Source).
Protection des données et utilisation
Pour l'utilisation des données, Perplexity met en avant des assurances contractuelles vis-à-vis des tiers: les données provenant de Perplexity ne doivent pas être utilisées pour entraîner des modèles externes. Il existe également des dispositions d'opt-out pour l'utilisation des données d'entraînement ( Source, Source, Source).

Quelle: perplexity.ai
Impact et questions ouvertes
Pour la recherche, les actualités et une orientation rapide, Sonar est généralement la configuration par défaut pragmatique : rapide, guidé par la recherche et avec des sources citées ( Source). Si besoin d'une longue logique en chaîne, d'une assistance au code ou d'appels d'outils privilégiés d'une certaine famille Frontier, il est utile de basculer manuellement vers GPT, Claude ou Gemini dans Pro ( Source). Pour les questions de protection des données, consultez la politique, l'opt-out et les informations d'entreprise ; il est pertinent de garantir que les modèles tiers n'utilisent pas les données Perplexity pour l'entraînement ( Source, Source, Source).
Quelle: YouTube
Les questions ouvertes portent sur l'évolution future de la famille de modèles : Sonar sera-t-il développé à long terme comme une ligne multi-niveaux (par ex. Pro, Reasoning), et les fournisseurs publieront-ils des benchmarks fiables et indépendants avec une méthodologie reproductible ( Source)? Quelle est la stabilité des engagements sur l'utilisation des données dans les futurs contrats avec des tiers, et existe-t-il des audits externes ou des rapports Trust-Center avec des détails ( Source)? Quel rôle joue « Deep Research » pour des projets plus longs et méthodiques et quels modèles y sont utilisés par défaut ( Source)?
La question du modèle « propre » peut être clairement répondue : Perplexity exploite avec Sonar un LLM affiné en interne sur la base de Llama-3.x, adapté à des réponses de recherche rapides et citées et soutenu par du matériel d'inférence spécialisé ( Source, Source). En même temps, la plateforme reste ouverte aux modèles Frontier, qui peuvent être choisis selon la tâche ( Source). Cela nécessite une évaluation consciente entre rapidité, coût, profondeur et protection des données, ainsi qu'un choix de modèle en fonction de la situation.