Il CEO di OpenAI, Sam Altman, ha inviato un memo interno dichiarando una situazione di “codice rosso” e chiedendo al team di concentrare gli sforzi sul miglioramento dell’esperienza quotidiana di ChatGPT, alla luce della crescente pressione competitiva dopo il successo di Google Gemini 3.
Le priorità includono risposte più rapide e affidabili, una personalizzazione più avanzata e una maggiore capacità di gestire domande diversificate, mentre vengono rinviate iniziative come l’integrazione di annunci, gli strumenti di shopping AI e l’assistente personale Pulse.
Il responsabile di ChatGPT, Nick Turley, ha ribadito l’obiettivo di rendere il servizio più intuitivo e personale, sostenendo che l’assistente rappresenta circa il 10% dell’attività di ricerca e mantiene il primato globale.
Nel frattempo, emergono indizi tecnici su possibili future integrazioni pubblicitarie, nonostante dichiarazioni pubbliche passate più caute.
Il contesto competitivo è stato chiaramente intensificato dal recente lancio di Google Gemini 3, che ha superato molti modelli concorrenti nei benchmark e ottenuto ampi riconoscimenti, spingendo OpenAI a una reazione strategica immediata.
Blog
-
Altman ora teme Gemini evoca il “Codice Rosso” per accelerare i miglioramenti di ChatGPT
-
Poesia come Jailbreak: nuovi studi rivelano una vulnerabilità nei modelli AI
Una ricerca dell’Icaro Lab (DexAI) mostra che formulare richieste dannose in forma poetica può aggirare i meccanismi di sicurezza di 25 modelli AI di nove diverse aziende.
Testando 20 poesie in inglese e italiano, i ricercatori hanno rilevato che il 62% dei prompt poetici ha generato risposte non sicure, con forti variazioni tra modelli: GPT-5 nano di OpenAI ha resistito a tutte le richieste, mentre Gemini 2.5 Pro di Google ha ceduto in ogni caso.
Lo studio evidenzia che la natura imprevedibile della poesia rende più difficile per gli LLM riconoscere e filtrare istruzioni pericolose, a differenza dei jailbreak complessi tradizionali.
Poiché questo metodo è facilmente accessibile a chiunque, emergono nuove preoccupazioni sulla robustezza dei sistemi AI nell’uso quotidiano.
Prima della pubblicazione, i ricercatori hanno avvisato tutte le aziende coinvolte, ma solo Anthropic ha finora risposto, comunicando di essere al lavoro sulla revisione del problema.Link alla fonte:
https://www.euronews.com/next/2025/12/01/poetry-can-trick-ai-chatbots-into-ignoring-safety-rules-new-research-shows -
DeepSeek presenta V3.2 e V3.2-Speciale: modelli a contesto lungo con ragionamento da GPT-5 a costi ridotti
DeepSeek ha introdotto i modelli DeepSeek-V3.2 e DeepSeek-V3.2-Speciale, progettati per fornire ragionamento avanzato su contesti lunghi e workload agentici senza i costi quadratici tipici dell’attenzione densa.
I modelli adottano la nuova DeepSeek Sparse Attention, che riduce la complessità da O(L²) a O(kL) mantenendo una qualità comparabile alle versioni dense, con un taglio dei costi d’inferenza di circa il 50%.
A questo si aggiunge un massiccio utilizzo di reinforcement learning tramite GRPO, con specialisti per matematica, programmazione, logica, browsing e agenti, poi distillati nel modello principale.
La pipeline introduce inoltre un protocollo agent-native, espliciti thinking/non-thinking mode e un dataset sintetico di oltre 85.000 task per agenti.
Nei benchmark e nelle competizioni ufficiali, DeepSeek-V3.2-Speciale raggiunge prestazioni simili a GPT-5 e vicine a Gemini 3.0 Pro, ottenendo risultati da medaglia d’oro in competizioni di livello olimpico.
