Perplexity: ¿LLM propio?

Avatar
Lisa Ernst · 05.10.2025 · Tecnología · 4 min

Perplexity apuesta por un modelo de lenguaje propio llamado Sonar. Este modelo se basa en modelos base abiertos de Meta (Llama 3.x) y ha sido ajustado para la búsqueda. No se trata de un modelo Foundation desde cero, sino de un derivado entrenado internamente con su propia infraestructura y conexión de búsqueda. Además, en planes de pago, Perplexity ofrece modelos de terceros como GPT, Claude y Gemini.

Perplexity Sonar

A finales de 2023, Perplexity presentó 'PPLX Online LLMs'. Estos modelos combinaban bases de código abierto (Mistral-7B, Llama2-70B) con una pila propia de búsqueda, indexación y rastreo, para fundamentar las respuestas con fuentes web actuales ( Fuente). En 2025, siguió 'Sonar' como nuevo modelo interno para el modo de búsqueda estándar. Según Perplexity, Sonar se basa en Llama 3.3 70B y está optimizado para la exactitud de los hechos y la legibilidad ( Fuente). En cooperación con Cerebras, Sonar se ejecuta en una infraestructura de inferencia especializada, con rendimiento de hasta 1.200 tokens por segundo ( Fuente).

Perplexity persigue con un modelo propio basado en código abierto varios motivos. En primer lugar, un ajuste fino interno permite un ajuste preciso a las tareas de búsqueda, la lógica de citación y el control de alucinaciones ( Fuente). En segundo lugar, la infraestructura de inferencia dedicada (Cerebras) optimiza el rendimiento y la latencia, lo que es crucial para un producto tipo 'Answer Engine' ( Fuente). En tercer lugar, Perplexity se posiciona al elegir entre respuestas propias, rápidas y basadas en búsquedas, y modelos Frontier más caros, para sopesar según el caso de uso ( Fuente). Un claro 'Tenemos un modelo propio' fortalece la marca, sin perder la flexibilidad de activar modelos punta externos cuando sea necesario ( Fuente).

Quelle: YouTube

Ecosistema de modelos

La plataforma Perplexity ofrece un ecosistema de modelos versátil. Sonar se describe como un modelo propio, optimizado para búsquedas, basado en Llama 3.3 70B y entrenado internamente. Fuente). Históricamente, también existieron los 'PPLX Online LLMs', que se basaban en Mistral-7B y Llama2-70B y estaban conectados con la recuperación web propia de Perplexity. Fuente). Paralelamente, en los planes de pago, Perplexity también ofrece modelos de terceros como GPT, Claude y Gemini, que pueden elegirse en la interfaz ( Fuente).

En Perplexity Pro, los usuarios pueden elegir entre varios LLM potentes, incluidos modelos de terceros.

Quelle: dhruvirzala.com

En Perplexity Pro, los usuarios pueden elegir entre varios LLM potentes, incluidos modelos de terceros.

El centro de ayuda de Perplexity se refiere a Sonar como 'modelo interno' y enumera, además, modelos Frontier disponibles en Pro (p. ej., GPT, Claude, Gemini), que los usuarios pueden seleccionar activamente ( Fuente, Fuente).

Hechos y afirmaciones

Está demostrado que Perplexity opera con Sonar un modelo in-house para el modo de búsqueda estándar, basado en Llama 3.3 70B y optimizado para la fidelidad de hechos, legibilidad y alta velocidad ( Fuente, Fuente). La inferencia se ejecuta en infraestructura Cerebras con hasta 1.200 tokens por segundo Fuente). Históricamente, los modelos 'PPLX Online' procedían de Mistral-7B y Llama2-70B y están vinculados a una recuperación propia. Fuente). Las suscripciones Pro permiten elegir entre Sonar y modelos de terceros como GPT, Claude o Gemini ( Fuente, Fuente).

Perplexity señala acuerdos de que los datos de terceros de Perplexity no se usarán para el entrenamiento. Fuente).

Sigue siendo incierto si Perplexity alguna vez entrenará un modelo Foundation completamente independiente (sin base de código abierto); no hay anuncios concluyentes. La afirmación de que ‘Perplexity solo usa GPT/Claude y no tiene uno propio’ está refutada por las publicaciones de Sonar. Fuente, Fuente).

Privacidad y uso

En cuanto al uso de datos, Perplexity señala compromisos contractuales con terceros: los datos de Perplexity no deben utilizarse para entrenar modelos externos. Además, existen reglas de opt-out para el uso en entrenamiento ( Fuente, Fuente, Fuente).

Perplexity.ai anuncia la introducción de sus propios LLMs en línea, basados en el modelo pplx.

Quelle: perplexity.ai

Perplexity.ai anuncia la introducción de sus propios LLMs en línea, basados en el modelo pplx.

Impactos y preguntas abiertas

Para investigación, noticias y una orientación rápida, Sonar suele ser la configuración pragmática por defecto: rápida, basada en búsquedas y con referencias a fuentes ( Fuente). Si se necesita lógica de cadena larga, asistencia de código o llamadas a herramientas de una familia Frontier específica, conviene cambiar manualmente a GPT, Claude o Gemini en Pro ( Fuente). Para preguntas de privacidad, conviene consultar la política, las opciones de opt-out y la información empresarial; es relevante la garantía de que los modelos de terceros no usarán los datos de Perplexity para su entrenamiento ( Fuente, Fuente, Fuente).

Quelle: YouTube

Las preguntas abiertas se refieren al desarrollo futuro de la familia de modelos: ¿Se ampliará Sonar a una línea de varios niveles a largo plazo (p. ej., Pro, Reasoning), y los proveedores publicarán benchmarks fiables e independientes con metodología reproducible ( Fuente)? Qué tan estables son los compromisos de uso de datos en futuros contratos con terceros, y existen auditorías externas o informes de Trust-Center con detalles ( Fuente)? Qué papel juega 'Deep Research' para proyectos más largos y metodológicos y qué modelos se utilizan allí como estándar ( Fuente)?

La pregunta sobre el modelo 'propio' se puede responder claramente: Perplexity opera con Sonar un LLM afinado en casa, basado en Llama-3.x, adaptado para respuestas de búsqueda rápidas y citadas, y soportado por hardware de inferencia específico ( Fuente, Fuente). Al mismo tiempo, la plataforma permanece abierta a modelos Frontier, que pueden elegirse según la tarea ( Fuente). Esto exige una ponderación consciente entre velocidad, costos, profundidad y privacidad, así como una selección de modelos según la situación.

Teilen Sie doch unseren Beitrag!