DeepSeek presenta V3.2 e V3.2-Speciale: modelli a contesto lungo con ragionamento da GPT-5 a costi ridotti

DeepSeek ha introdotto i modelli DeepSeek-V3.2 e DeepSeek-V3.2-Speciale, progettati per fornire ragionamento avanzato su contesti lunghi e workload agentici senza i costi quadratici tipici dell’attenzione densa.
I modelli adottano la nuova DeepSeek Sparse Attention, che riduce la complessità da O(L²) a O(kL) mantenendo una qualità comparabile alle versioni dense, con un taglio dei costi d’inferenza di circa il 50%.
A questo si aggiunge un massiccio utilizzo di reinforcement learning tramite GRPO, con specialisti per matematica, programmazione, logica, browsing e agenti, poi distillati nel modello principale.
La pipeline introduce inoltre un protocollo agent-native, espliciti thinking/non-thinking mode e un dataset sintetico di oltre 85.000 task per agenti.
Nei benchmark e nelle competizioni ufficiali, DeepSeek-V3.2-Speciale raggiunge prestazioni simili a GPT-5 e vicine a Gemini 3.0 Pro, ottenendo risultati da medaglia d’oro in competizioni di livello olimpico.

Link alla fonte:
https://www.marktechpost.com/2025/12/01/deepseek-researchers-introduce-deepseek-v3-2-and-deepseek-v3-2-speciale-for-long-context-reasoning-and-agentic-workloads/