Anthropic ha confermato l’avvio di un’indagine su un presunto accesso non autorizzato al suo nuovo e potente modello AI, Claude Mythos, avvenuto attraverso l’ambiente di un fornitore di terze parti. L’incidente, riportato inizialmente il 21-22 aprile 2026, ha coinvolto un ristretto gruppo di utenti di un forum privato (alcune fonti citano una community su Discord) che sarebbero riusciti a utilizzare il modello senza le autorizzazioni standard, potenzialmente semplicemente modificando il nome del modello in una configurazione. L’azienda ha dichiarato, in ogni caso, di non aver trovato prove di intrusioni nei propri sistemi interni o di un impatto oltre l’ambiente del fornitore esterno coinvolto.
L’allerta globale è scattata a causa del potenziale impatto di Mythos sui sistemi legacy del settore finanziario, considerati particolarmente vulnerabili ad attacchi automatizzati di questo livello. Il Segretario al Tesoro Scott Bessent e il Presidente della Fed Jerome Powell hanno tenuto incontri urgenti a porte chiuse con i CEO delle principali banche americane (tra cui JPMorgan, Citi e Wells Fargo) per avvertirli dei rischi sistemici. Il Governatore della Bank of England ha espresso pubblicamente preoccupazione, affermando che il modello potrebbe “scardinare l’intero mondo del rischio cyber”. Per quanto riguarda la BCE, ha avviato verifiche presso gli istituti di credito dell’eurozona per valutarne la resilienza, mentre Anthropic sta pianificando di estendere l’accesso controllato alle banche europee per test difensivi. Anche le banche centrali di Australia e Nuova Zelanda monitorano attivamente la situazione, temendo che strumenti come Mythos abbassino drasticamente la barriera tecnica necessaria per sferrare attacchi a livello statale.
Per approfondimenti:
https://www.bbc.com/news/articles/cy41zejp9pko
https://www.nytimes.com/2026/04/22/technology/anthropics-mythos-ai.html
