DeepSeek ha introdotto i modelli DeepSeek-V3.2 e DeepSeek-V3.2-Speciale, progettati per fornire ragionamento avanzato su contesti lunghi e workload agentici senza i costi quadratici tipici dell’attenzione densa.
I modelli adottano la nuova DeepSeek Sparse Attention, che riduce la complessità da O(L²) a O(kL) mantenendo una qualità comparabile alle versioni dense, con un taglio dei costi d’inferenza di circa il 50%.
A questo si aggiunge un massiccio utilizzo di reinforcement learning tramite GRPO, con specialisti per matematica, programmazione, logica, browsing e agenti, poi distillati nel modello principale.
La pipeline introduce inoltre un protocollo agent-native, espliciti thinking/non-thinking mode e un dataset sintetico di oltre 85.000 task per agenti.
Nei benchmark e nelle competizioni ufficiali, DeepSeek-V3.2-Speciale raggiunge prestazioni simili a GPT-5 e vicine a Gemini 3.0 Pro, ottenendo risultati da medaglia d’oro in competizioni di livello olimpico.
