Uno studio di Anthropic, “Emergent Introspective Awareness in Large Language Models”, ha analizzato la presunta capacità dei modelli linguistici di comprendere i propri processi interni.
Attraverso la tecnica di concept injection — che consiste nell’inserire vettori concettuali per alterare gli stati neuronali del modello — i ricercatori hanno testato se gli LLM potessero riconoscere modifiche al proprio stato interno.
I risultati mostrano una consapevolezza solo parziale e incoerente: i modelli più avanzati, come Opus 4 e 4.1, hanno riconosciuto correttamente i concetti iniettati in appena il 20–42% dei casi.
Lo studio conclude che esiste una forma embrionale di auto-rilevazione, ma ancora troppo fragile, contingente e non assimilabile alla consapevolezza umana.
Le implicazioni riguardano il limite attuale della “metacognizione artificiale” e la difficoltà di modellarla in modo verificabile.
Tag: Anthropic
-
Anthropic e Washington uniscono le forze per impedire che Claude costruisca una bomba atomica
Anthropic ha avviato una collaborazione con il Dipartimento dell’Energia (DoE) e la National Nuclear Security Administration (Nnsa) degli Stati Uniti per impedire che il suo chatbot Claude venga utilizzato per scopi legati alla costruzione di armi nucleari.
La partnership ha portato allo sviluppo di un “classificatore nucleare”, un filtro capace di individuare conversazioni potenzialmente pericolose, basato su indicatori di rischio definiti dalla Nnsa e testato in ambienti cloud ad alta sicurezza forniti da Amazon Web Services.
Tuttavia, diversi esperti sollevano dubbi sull’efficacia del piano: se i modelli di Anthropic non hanno mai avuto accesso a dati sensibili, la loro capacità di fornire assistenza tecnica in ambito nucleare è praticamente nulla, rendendo la misura più simbolica che concreta.
Alcuni critici temono inoltre che collaborazioni di questo tipo possano dare alle aziende private accesso a informazioni governative riservate, con implicazioni delicate per la sicurezza nazionale.
Anthropic difende la propria iniziativa come un passo proattivo verso la prevenzione di rischi futuri e auspica che il classificatore diventi uno standard di settore.
Link alla fonte: -
Claude introduce la memoria su richiesta: Anthropic sfida direttamente ChatGPT
Anthropic ha lanciato una nuova funzione di memoria su richiesta per il suo chatbot Claude, consentendo agli utenti di recuperare e riassumere conversazioni passate solo quando lo desiderano.
Diversamente da ChatGPT, questa memoria non è persistente: il modello non costruisce un profilo personale, ma risponde a richieste esplicite dell’utente.
La funzione, disponibile su web, desktop e mobile per gli abbonati ai piani Max, Team ed Enterprise, punta a migliorare la continuità dei progetti e l’organizzazione dei flussi di lavoro.
L’iniziativa arriva in un momento di intensa competizione con OpenAI, che ha appena presentato GPT-5, e mentre Anthropic cerca nuovi finanziamenti per una valutazione potenziale di 170 miliardi di dollari.
La mossa rafforza il posizionamento di Claude come alternativa più controllabile e rispettosa della privacy nel panorama dei chatbot avanzati.
Link alla fonte:
Claude non dimentica più nulla: la nuova memoria cambia il modo di lavorare con l’AI
Video ufficiale di presentazione:
