Perplexity: Собственный LLM?

Avatar
Лиза Эрнст · 05.10.2025 · Техника · 4 мин

Perplexity опирается на собственную языковую модель под названием Sonar. Эта модель основана на открытых базовых моделях от Meta (Llama 3.x) и была для поиска доработана. Это не фундаментальная модель с нуля, а внутренне обученный ответвитель с собственной инфраструктурой и поисковым подключением. Perplexity также предлагает в платных планах модели сторонних производителей, таких как GPT, Claude и Gemini.

Perplexity Sonar

Perplexity представила в конце 2023 года „PPLX Online LLMs“. Эти модели сочетали открытые основы (Mistral-7B, Llama2-70B) с собственной поисковой, индексной и краулинг-стеком, чтобы обосновывать ответы актуальными веб-источниками ( Источник). В 2025 году „Sonar“ стал новым внутренним модулем для стандартного режима поиска. По данным Perplexity Sonar основан на Llama 3.3 70B и оптимизирован для точности фактов и читаемости ( Источник). В сотрудничестве с Cerebras Sonar работает на специализированной инференционной инфраструктуре, пропускная способность достигает до 1 200 токенов в секунду ( Источник).

Perplexity преследует несколько мотиваций с собственной моделью на основе открытого исходного кода. Во‑первых, внутренний донастройка обеспечивает точную настройку под задачи поиска, логике цитирования и контролю галлюцинаций ( Источник). Во‑вторых, выделенная инференционная инфраструктура (Cerebras) оптимизирует пропускную способность и задержку, что критично для продукта «Answer Engine» ( Источник). В-третьих Perplexity позиционируется через выбор между своими, быстрыми, основанными на поиске ответами и более дорогими Frontier-моделями, чтобы в зависимости от случая применения взвешивать ( Источник). Четкое «У нас есть собственная модель» укрепляет бренд, не теряя гибкость подключать внешние топ-модели по мере необходимости ( Источник).

Quelle: YouTube

Экосистема моделей

Платформа Perplexity предлагает гибкую экосистему моделей. Sonar описывается как собственная, оптимизированная под поиск модель, основанная на Llama 3.3 70B и внутри компании дополнительно обученная ( Источник). Исторически существовали также „PPLX Online LLMs“, основанные на Mistral-7B и Llama2-70B и связанные с собственным веб‑ретривалом Perplexity ( Источник). Параллельно Perplexity в платных тарифах также предлагает модели сторонних производителей, таких как GPT, Claude и Gemini, которые можно выбрать во интерфейсе ( Источник).

В Perplexity Pro пользователи могут выбирать между различными мощными LLM, включая модели сторонних поставщиков.

Quelle: dhruvirzala.com

В Perplexity Pro пользователи могут выбирать между различными мощными LLM, включая модели сторонних поставщиков.

Центр помощи Perplexity называет Sonar «in-house model» и перечисляет доступные Frontier-модели в Pro (например, GPT, Claude, Gemini), которые пользователи могут активно выбирать ( Источник, Источник).

Факты и утверждения

Известно, что Perplexity с Sonar использует внутришнюю модель для стандартного режима поиска, основанную на Llama 3.3 70B и оптимизированную для точности фактов, читаемости и высокой скорости ( Источник, Источник). Инференс работает на инфраструктуре Cerebras, обеспечивая пропускную способность до 1 200 токенов в секунду ( Источник). Исторически модели «PPLX Online» происходят от Mistral-7B и Llama2-70B и связаны с собственным ретривалом ( Источник). Пользователи Pro‑абонентов могут выбирать между Sonar и моделями сторонних разработчиков, таких как GPT, Claude или Gemini ( Источник, Источник).

Perplexity ссылается на соглашения, что данные сторонних поставщиков не используют Perplexity для обучения ( Источник).

Неясно, будет ли Perplexity когда-либо обучать полностью автономную Foundation-модель (без открытой основы); об этом нет достоверных объявлений. Утверждение, что «Perplexity использует только GPT/Claude и не имеет собственного», опровергнуто публикациями Sonar ( Источник, Источник).

Защита данных и использование

При использовании данных Perplexity подчеркивает договорные гарантии перед третьими лицами: данные из Perplexity не должны использоваться для обучения внешних моделей. Также есть регламенты Opt-out для тренировочного использования ( Источник, Источник, Источник).

Perplexity.ai объявляет о внедрении своих собственных онлайн-LLMs, основанных на модели pplx.

Quelle: perplexity.ai

Perplexity.ai объявляет о внедрении своих собственных онлайн-LLMs, основанных на модели pplx.

Влияние и открытые вопросы

Для исследований, новостей и быстрой ориентации Sonar обычно является прагматичной настройкой: быстрый, поиск-ориентированный и с указанием источников ( Источник). При необходимости длинной цепочки логики, помощи с кодом или предпочтительных вызовов инструментов определённого семейства Frontier стоит вручную переключиться на GPT, Claude или Gemini в Pro ( Источник). Что касается вопросов конфиденциальности, стоит обратиться к политике, Opt-out и корпоративной информации; важно обещание, что данные сторонних моделей не используются Perplexity для обучения ( Источник, Источник, Источник).

Quelle: YouTube

Открытые вопросы касаются дальнейшего развития семейства моделей: будет ли Sonar в долгосрочной перспективе развиваться как многослойная линейка (например, Pro, Reasoning), и публикуют ли поставщики надёжные независимые бенчмарки с воспроизводимой методикой ( Источник)? Насколько стабильны обещания по использованию данных в будущих договорах с сторонними поставщиками, и существуют ли внешние аудиты или отчёты Trust-Center с деталями ( Источник)? Какую роль играет «Deep Research» для длительных, методических проектов и какие модели там используются по умолчанию ( Источник)?

Вопрос о «собственной» модели можно ясно ответить: Perplexity использует Sonar — внутрисистемное тонко настроенное LLM на основе Llama-3.x, адаптированное под быстрые, цитируемые поисковые ответы и поддерживаемое специальным аппаратным ускорением инференса ( Источник, Источник). В то же время платформа остается открытой для Frontier-моделей, которые можно выбирать в зависимости от задачи ( Источник). Это требует сознательного баланса между скоростью, стоимостью, глубиной и конфиденциальностью, а также ситуативного выбора моделей.

Teilen Sie doch unseren Beitrag!