Perplexity: LLM próprio?
Perplexity baseia-se num modelo de linguagem próprio chamado Sonar. Este modelo baseia-se em modelos-base abertos da Meta (Llama 3.x) e foi ajustado para a pesquisa. Não se trata de um modelo Foundation desde o início, mas sim de uma variante treinada internamente com infraestrutura própria e integração de busca. A Perplexity oferece também, nos planos pagos, modelos de terceiros como GPT, Claude e Gemini.
Perplexity Sonar
A Perplexity apresentou no final de 2023 os „PPLX Online LLMs“. Estes modelos combinavam bases de código aberto (Mistral-7B, Llama2-70B) com uma pilha própria de busca, indexação e rastreio, para fundamentar respostas com fontes web atualizadas ( Fonte). Em 2025, o „Sonar“ seguiu como o novo modelo interno para o modo de pesquisa padrão. Segundo a Perplexity, o Sonar baseia-se no Llama 3.3 70B e é otimizado para fidelidade factual e legibilidade ( Fonte). Em colaboração com a Cerebras, o Sonar opera numa infraestrutura de inferência especializada, com frequências de até 1.200 tokens por segundo ( Fonte).
A Perplexity persegue, com um modelo próprio baseado em código aberto, várias motivações. Em primeiro lugar, um ajuste fino interno permite uma adaptação precisa a tarefas de busca, lógica de citação e controlo de alucinações ( Fonte). Em segundo lugar, a infraestrutura de inferência dedicada (Cerebras) otimiza o rendimento e a latência, o que é crucial para um produto do tipo „Answer Engine“ ( Fonte). Em terceiro lugar, a Perplexity posiciona-se através da escolha entre respostas próprias, rápidas, baseadas em busca, e modelos Frontier mais caros, para avaliar conforme o caso de uso ( Fonte). Uma afirmação clara de „Temos um modelo próprio“ fortalece a marca, sem perder a flexibilidade de ligar modelos de ponta externos quando necessário ( Fonte).
Quelle: YouTube
Ecossistema de modelos
A plataforma Perplexity oferece um ecossistema de modelos versátil. Sonar é descrito como um modelo próprio, otimizado para busca, baseado no Llama 3.3 70B e treinado adicionalmente internamente ( Fonte). Historicamente houve também os „PPLX Online LLMs“, que se baseavam em Mistral-7B e Llama2-70B e estavam ligados ao web-retrieval próprio da Perplexity ( Fonte). Paralelamente, os planos pagos da Perplexity também oferecem modelos de terceiros como GPT, Claude e Gemini, que podem ser selecionados na interface ( Fonte).

Quelle: dhruvirzala.com
O Centro de Ajuda da Perplexity descreve o Sonar como um „modelo interno“ e lista também modelos Frontier disponíveis em Pro (por exemplo, GPT, Claude, Gemini), que os utilizadores podem selecionar ativamente ( Fonte, Fonte).
Fatos e Alegações
Está comprovado que a Perplexity, com o Sonar, opera um modelo interno para o modo padrão de busca, baseado no Llama 3.3 70B e otimizado para fidelidade factual, legibilidade e alta velocidade ( Fonte, Fonte). A inferência funciona numa infraestrutura Cerebras com até 1.200 tokens/s comunicados ( Fonte). Historicamente, os modelos „PPLX Online“ derivam de Mistral-7B e Llama2-70B e estão ligados a um retrieval próprio ( Fonte). Os planos Pro permitem a escolha entre Sonar e modelos de terceiros como GPT, Claude ou Gemini ( Fonte, Fonte).
A Perplexity aponta acordos de que dados de terceiros não são usados para treinar modelos externos a partir da Perplexity ( Fonte).
Resta incerto se a Perplexity algum dia treinará um modelo Foundation completamente independente (sem base Open-Source); não existem anúncios confiáveis nesse sentido. A afirmação de que “Perplexity usa apenas GPT/Claude e não tem o próprio” é refutada pelas publicações do Sonar ( Fonte, Fonte).
Privacidade e Uso
No uso de dados, a Perplexity enfatiza garantias contratuais para terceiros: dados da Perplexity não devem ser usados para treinar modelos externos. Além disso, existem regras de opt-out para uso em treino ( Fonte, Fonte, Fonte).

Quelle: perplexity.ai
Impactos e Questões em aberto
Para pesquisa, notícias e orientação rápida, o Sonar costuma ser a opção prática: rápido, com base na busca e com referências de fontes ( Fonte). Quando houver necessidade de lógica de raciocínio em várias etapas, ajuda de código ou chamadas de ferramenta preferidas de uma determinada família Frontier, vale a pena alternar manualmente para GPT, Claude ou Gemini no Pro ( Fonte). Para questões de privacidade, recomenda-se consultar a política, opt-out e informações para empresas; relevante é a garantia de que modelos de terceiros não utilizam dados da Perplexity para treino ( Fonte, Fonte, Fonte).
Quelle: YouTube
Questões em aberto dizem respeito ao desenvolvimento futuro da família de modelos: o Sonar será expandido a longo prazo como uma linha multi-nível (por exemplo, Pro, Reasoning), e os fornecedores publicar benchmarks confiáveis e independente com metodologia reprodutível ( Fonte)? Quão estáveis são as promessas de uso de dados em futuros contratos com terceiros, e existem auditorias externas ou relatórios de Trust-Center com detalhes ( Fonte)? Qual é o papel do „Deep Research“ para projetos mais longos e metodológicos e quais modelos são usados por padrão lá ( Fonte)?
A questão sobre o modelo 'próprio' pode ser respondida claramente: a Perplexity opera com o Sonar um LLM ajustado internamente com base no Llama-3.x, adaptado para respostas de busca rápidas e citadas, suportado por hardware de inferência especializado ( Fonte, Fonte). Ao mesmo tempo, a plataforma permanece aberta a modelos Frontier, que podem ser escolhidos de acordo com a tarefa ( Fonte). Isto requer uma ponderação consciente entre velocidade, custos, profundidade e privacidade, bem como uma escolha de modelo situacional.