DeepSeek V3.2­­­­-Exp: Attenzione sparsa e prezzo API

Avatar
Lisa Ernst · 29.09.2025 · Tecnologia · 5 minuti

DeepSeek ha pubblicato con V3.2-Exp un modello intermedio sperimentale basato sull'architettura V3.1. L'introduzione di DeepSeek Sparse Attention (DSA) mira a ridurre il carico di calcolo, soprattutto per contesti lunghi, senza compromettere significativamente la qualità dell'output. In accompagnamento, DeepSeek ha annunciato una notevole riduzione dei prezzi API. Questo passo è interpretato come una preparazione per la prossima generazione del modello e come risposta alla pressione competitiva nel mercato IA.

Panoramica di DeepSeek V3.2-Exp

DeepSeek V3.2-Exp è un modello intermedio sperimentale basato su DeepSeek V3.1 («Terminus»). La novità centrale è la DeepSeek Sparse Attention (DSA). Questa variante di attenzione parsimoniosa riduce il carico di calcolo osservando non più tutti i token precedenti contemporaneamente, ma un sottoinsieme mirato e più piccolo. Ciò abbassa l'uso di memoria e di calcolo e facilita l'elaborazione di input lunghi, come illustrato nella documentazione di vLLM. Documentazione di vLLM. Spiegato. Secondo il produttore, le prestazioni nei benchmark restano all'incirca al livello di V3.1-Terminus.

I file del modello e la descrizione tecnica sono pubblicamente disponibili.. Una Scheda modello su Hugging Face nonché una Rapporto tecnico sono disponibili.. DeepSeek ha pubblicato oggi V3.2-Exp come «passo intermedio» verso la prossima generazione e ha annunciato al contempo una significativa riduzione dei prezzi API di oltre il 50%, come Reuters riporta I documenti API ufficiali citano „50%+“ come innovazione chiave, fanno riferimento alla parità con V3.1-Terminus nei benchmark e confermano la riduzione dei prezzi., V3.1-Terminus rimane temporaneamente accessibile per facilitare i confronti. Questo mette in evidenza la competitività del modello.. Architettura della Native Sparse Attention, che permette l'efficienza e le prestazioni di DeepSeek V3.2-Exp. Architettura della Native Sparse Attention, che permette l'efficienza e le prestazioni di DeepSeek V3.2-Exp. DSA Contesto e motivazioni V3.1-Terminus Questo passo fa parte di una strategia a lungo termine..

Già a febbraio DeepSeek ha ridotto i prezzi off-peak fino al 75% tra le 16:30–00:30 GMT, cosa che è particolarmente utile durante gli orari di lavoro europei, come

Quelle: deepseekv3.org

Già a febbraio DeepSeek ha ridotto i prezzi off-peak fino al 75% tra le 16:30–00:30 GMT, cosa che è particolarmente utile durante gli orari di lavoro europei, come

Reuters riferì

Inoltre DeepSeek aveva annunciato a febbraio 'Native Sparse Attention' come algoritmo e aveva ribadito la divulgazione del codice, il che suggerisce che DSA non sia ad hoc, ma parte di una strategia di efficienza a lungo termine, come. Reuters ha rilevato I media cinesi classificano V3.2-Exp come passo intermedio sperimentale in un rapido ritmo di rilasci (V3.1 in agosto, aggiornamento V3.1 a settembre), come. SCMP ha riportato DeepSeek im Februar „Native Sparse Attention“ Le motivazioni per questo passaggio intermedio sono molteplici. und die Offenlegung von Code bekräftigt, was darauf hindeutet, dass DSA nicht ad hoc, sondern Teil einer langfristigen Effizienzstrategie ist, wie Primo: pressione sui costi e sull'efficienza. Un'attenzione parsimoniosa riduce i costi di inferenza per contesti lunghi, sia per il fornitore sia per gli utenti. In combinazione con prezzi API ridotti, questo migliora la posizione prezzo-prestazioni di DeepSeek.. Secondo: accelerazione del passo/ritmo. Aggiornamenti intermedi frequenti mantengono alta l'attenzione e permettono di testare idee architetturali – qui DSA – nella pratica, prima di introdurre modelli di Next-Gen. V3.2-Exp Terzo: dinamica di mercato e di piattaforma. segnali a basso costo / alta prestazione di DeepSeek hanno già suscitato nel 2025 risposte di mercato; i concorrenti hanno dovuto rivedere le strategie e i prezzi, come (V3.1 im August, V3.1-Update im September), wie die The Guardian ha riferito.

Il video delinea l'idea dietro 'Native Sparse Attention' come contesto per ciò che DeepSeek ora testa in modo mirato con DSA.. Analisi e valutazione. È confermato il rilascio odierno di V3.2-Exp come modello intermedio sperimentale e l'introduzione di DeepSeek Sparse Attention. La riduzione ufficiale del prezzo di oltre il 50% e l'accesso continuato a V3.1-Terminus per i confronti sono anch'essi confermati. Modelli, artefatti e benchmark sono pubblicamente disponibili; la Scheda modello e il Rapporto tecnico indicano la parità con V3.1-Terminus su alcuni benchmark. Architettura della Native Sparse Attention, che permette l'efficienza e le prestazioni di DeepSeek V3.2-Exp.. Architettura della Native Sparse Attention, che permette l'efficienza e le prestazioni di DeepSeek V3.2-Exp.. Non è chiaro come DSA si comporti sotto carico di produzione in catene di strumenti diversificate (RAG, Agents, Tool Use) rispetto a V3.1-Terminus; i primi test della community sono aneddotici. Allo stesso modo non è chiaro quanto sia sostenuta la riduzione dei prezzi e se funzioni uniformemente in tutte le regioni/fusi orari; le meccaniche Off-Peak indicano modelli di prezzo differenziati. L'affermazione 'la prossima generazione è qui' è falsa/fuorviante, poiché V3.2-Exp è espressamente indicato come una fase intermedia, non come un rilascio 'Next-Gen'.. I concorrenti valutano l'influenza di DeepSeek in modo diverso: Anthropic ha parlato di

Quelle: YouTube

quasi nessun effetto

sulla propria strategia e sottolinea partnership a lungo termine invece di semplici transazioni API, come

Business Insider ha riferito. L'amministratore delegato di OpenAI, Sam Altman, ha descritto la concorrenza come «stimolante» e ha annunciato rilasci più veloci di «modelli migliori», come Business Insider ha osservato V3.1-Terminus Nei mercati finanziari all'inizio del 2025 ci sono state reazioni visibili alle iniziative di DeepSeek, modificando la percezione del paradigma prezzo-prestazioni nell'IA.. Effetti e raccomandazioni Per gli sviluppatori, ciò significa che contesti più lunghi diventano economicamente più pratici. Si consiglia di testare V3.2-Exp rispetto alle pipeline attuali (ad es. RAG, Agents, Code-Assist) e di prestare attenzione a latenza, stabilità e costi dei token. DeepSeek mette a disposizione un percorso di confronto verso V3.1-Terminus.; Per le aziende, la competitività dei prezzi aumenta il potere di negoziazione. È consigliabile verificare modelli contrattuali (on-/off-peak), requisiti di dati e conformità e pianificare la diversificazione dei fornitori.. Prezzi dell'API DeepSeek-V3, che evidenziano l'efficienza dei costi per token di input e di output. Prezzi dell'API DeepSeek-V3, che evidenziano l'efficienza dei costi per token di input e di output.; Per l'ecosistema vale: se DSA mantiene quanto promesso, potrebbe diffondersi un'ondata di metodi di attenzione parsimoniosi nei percorsi di inferenza mainstream (ad es.

Ricette vLLM/Guide di distribuzione

Quelle: deepnewz.com

Ricette vLLM/Guide di distribuzione

). Le domande aperte restano: quanto è robusta DSA attraverso domini (Codice, uso di strumenti, multilingue, recupero)? Qui sono utili benchmark aperti e riproducibili e test indipendenti a lungo termine. Quanto sono sostenute le riduzioni dei prezzi attraverso regioni e fasce orarie? Tabelle di prezzi trasparenti e curve di utilizzo reali sarebbero utili. Che ruolo giocano nuove indicazioni di addestramento e infrastruttura (p. es. costi, hardware) per le generazioni future – e come verranno verificate? Conclusione: DeepSeek V3.2-Exp non è un grande colpo, ma un utile prototipo/test. DSA promette meno carico di calcolo per contesti lunghi, e il fornitore lo sostiene con riduzioni dei prezzi e disponibilità aperta. Per sviluppatori e aziende significa confrontare in modo pragmatico, misurare carichi di lavoro reali e rinegoziare gli aspetti di costo – con attenzione a stabilità, conformità e sicurezza futura.;

„fast keinem Einfluss“ und betont langfristige Partnerschaften statt reiner API-Transaktionen, wie . Sam Altman .

. ). .

Quelle: deepseekv3.org

. ; .

Quelle: YouTube

Teilen Sie doch unseren Beitrag!