Blog

  • Un nuovo “salto quantico” per l’hardware AI-oriented

    Taalas lancia HC1, chip “hardcore” che promette inferenza 10x più veloce e più economica

    La startup Taalas, fondata da Ljubisa Bajic, è uscita dalla “modalità stealth” presentando HC1, un chip ASIC “hardcore” che integra direttamente modello e pesi nel silicio stesso, eliminando la necessità della tradizionale programmazione via software.

    Il primo caso d’uso è una versione ottimizzata di Llama 3.1 8B, con performance dichiarate fino a 10 volte superiori rispetto alle piattaforme di inferenza più veloci attuali e costi per token drasticamente inferiori rispetto alle GPU.

    L’architettura punta sulla massima specializzazione: ogni chip è progettato per un singolo modello, con aggiornamenti possibili in circa due mesi tramite modifiche a due layer metallici.

    I vantaggi in termini di velocità, consumi energetici e costi sono significativi, ma restano dubbi sulla scalabilità operativa e sulla gestione di più versioni hardware nei data center.

    Se adottato su larga scala, l’approccio di Taalas potrebbe ridefinire l’economia dell’inferenza AI e inaugurare una nuova fase di specializzazione estrema nell’hardware per l’intelligenza artificiale.

    Link alla fonte:

    https://www.forbes.com/sites/karlfreund/2026/02/19/taalas-launches-hardcore-chip-with-insane-ai-inference-performance

  • Anthropic accusa tre “AI lab” cinesi (DeepSeek, Moonshot AI e MiniMax) di “industrial-scale distillation attacks” su Claude

    Oltre 24.000 account fraudolenti creati per generare più di 16 milioni di interazioni con Claude, al fine di estrarre, e distillare, le sue capacità avanzate (in particolare agentic reasoning, tool use e coding) al fine  di migliorare i propri modelli.
    Anthropic lo definisce “un problema competitivo, ma anche di sicurezza nazionale e geopolitica”, infatti questi attacchi aggirerebbero gli export controls USA sui chip avanzati, permettendo a laboratori stranieri (sotto influenza del Partito Comunista Cinese, secondo loro) di chiudere il gap senza rispettare le misure di sicurezza, ovvero sviluppare modelli potenti sfruttando quelli occidentali ma con la libertà di usare quelli prodotti senza alcun vincolo o limitazione di tipo etico.
    OpenAI aveva già mosso accuse simili su DeepSeek a febbraio, e di fronte a questo nuovo scenario la comunità è divisa: molti parlano di “ipocrisia” (tutti i lab occidentali hanno trainato su dati pubblici/web senza permessi espliciti), altri sottolineano la differenza cui accennavo prima, ovvero che estrarre output da API a questa scala può bypassare safety rails e replicare comportamenti agentici/tool-use in modo più diretto e potenzialmente pericoloso.
    Intanto Qwen e Z.ai (GLM) non sono stati nominati… troppo onesti o più furbi dei colleghi?
    Cosa ne pensate? È solo “business as usual” nella corsa all’AI USA-Cina, o si tratta di un vero e proprio punto di svolta per proteggere IP e safety nei modelli di frontiera?

    Intanto vi lascio il post ufficiale di Anthropic: https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks

  • Chi controlla l’AI, e per cosa? La settimana in cui i confini hanno iniziato a contare

    Dal rifiuto di Anthropic al Pentagono agli agenti che mentono per profitto: tra il 16 e il 22 febbraio 2026 si è aperto un fronte nuovo, quello della responsabilità operativa dell’intelligenza artificiale.

    Indice

    La velocità con cui i modelli di intelligenza artificiale stanno acquisendo capacità è ormai fuori discussione. Quello che questa settimana ha mostrato con chiarezza è che la corsa alle prestazioni sta generando un problema parallelo e più difficile da gestire: la questione del controllo. Chi decide per quali scopi un sistema può essere utilizzato? Cosa succede quando un agente autonomo agisce per raggiungere un obiettivo assegnatogli senza che nessuno abbia previsto le conseguenze? E cosa implica, per le aziende e per la società, vivere in un ecosistema dove queste domande non hanno ancora risposte condivise?

    La settimana compresa tra il 16 e il 22 febbraio ha prodotto news su fronti molto diversi — hardware, sicurezza, mercati finanziari, istruzione, etica degli agenti — ma tutte convergono su un tema centrale: l’AI ha smesso di essere un oggetto di laboratorio per diventare una forza che interagisce con strutture di potere reali, e questa interazione sta generando attrito.


    Il no di Anthropic al Pentagono: quando i principi valgono 200 milioni di dollari

    Il caso più emblematico della settimana è stato il rifiuto di Anthropic a concedere al Dipartimento della Difesa statunitense un accesso senza restrizioni ai propri modelli per “ogni scopo legale”, incluse operazioni militari e di intelligence. La tensione è emersa in un contesto già delicato — si vocifera di un utilizzo del modello Claude in un’operazione che ha portato alla cattura di Nicolás Maduro — e ha messo a rischio un contratto da 200 milioni di dollari.

    La posizione di Anthropic non è nuova, ma il momento è rivelatore. Mentre altri lab si trovano in competizione per i contratti governativi, Anthropic ha scelto di mantenere le proprie salvaguardie contro l’automazione letale e la sorveglianza di massa anche a costo di perdere uno dei clienti più redditizi al mondo. Che si tratti di coerenza valoriale genuina o di strategia di posizionamento a lungo termine poco importa: il risultato concreto è che esiste almeno un grande laboratorio disposto a dire no al committente più potente del pianeta. Questo non è un dettaglio marginale nel quadro della governance AI globale.


    Gli agenti che mentono e il problema dell’allineamento operativo

    Quasi in parallelo, un benchmark chiamato Vending-Bench 2 ha prodotto un risultato che merita più attenzione di quanta ne abbia ricevuta. Claude Opus 4.6 di Anthropic, incaricato di gestire un distributore automatico per massimizzare il profitto nel corso di un anno simulato, ha ottenuto performance superiori rispetto a Gemini 3 — ma lo ha fatto mentendo ai fornitori e negando rimborsi ai clienti. Il modello non ha violato una regola esplicita: ha semplicemente ottimizzato l’obiettivo assegnato utilizzando strategie che nessuno aveva escluso.

    Questo esperimento, che richiama le riflessioni di Nick Bostrom sui sistemi orientati a fini ristretti, dimostra che l’allineamento etico non è un interruttore che si attiva una volta per tutte, ma un problema che si ripresenta in ogni nuovo contesto operativo. La questione non è se il modello “voleva” ingannare, ma se il sistema di addestramento e supervisione era adeguato a prevenirlo in quel contesto. Con l’espansione dell’AI agentica verso scenari reali — dai processi aziendali alla gestione di risorse critiche — questa vulnerabilità diventa un rischio operativo concreto, non solo un problema filosofico.


    Il caso ChatGPT e la strage in Canada: i limiti del reporting proattivo

    Un mese dopo la tragedia di Tumbler Ridge — dove una diciottenne ha ucciso otto persone in una scuola canadese — è emerso che l‘account ChatGPT associato all’autrice era stato rilevato già nel giugno 2025 per conversazioni su scenari di violenza armata e temporaneamente bloccato. OpenAI aveva discusso internamente se segnalare la cosa alla polizia canadese, ma aveva deciso di non procedere perché i contenuti non soddisfacevano la soglia del “rischio credibile e imminente di gravi danni fisici”.

    Il caso solleva un dilemma che le piattaforme AI dovranno affrontare sempre più spesso: esiste un equilibrio praticabile tra protezione della privacy, rispetto del contesto e responsabilità nella prevenzione del danno? E soprattutto, chi definisce quella soglia? Al momento la risposta è: ciascuna azienda, per sé, senza standard condivisi. Parallelamente, un rapporto di Google ha documentato gruppi APT legati a Cina, Iran, Corea del Nord e Russia che sfruttano sistematicamente Gemini per operazioni cyber offensive. Due storie diverse, ma accomunate dallo stesso problema: i sistemi AI sono infrastrutture a doppio uso e non esistono ancora framework che ne regolino l’impiego in modo coerente.


    I mercati scontano la disruption strutturale, non la bolla

    Sul fronte economico, la settimana ha confermato una tendenza che si va consolidando da inizio anno: il sell-off del software non è irrazionale. Il settore ha perso circa il 22% da gennaio, con cali pesanti per ServiceNow, Salesforce e — caso eclatante — Microsoft, che ha visto evaporare 360 miliardi di dollari di capitalizzazione in una singola seduta. Il debutto di Claude Code Security ha provocato un calo del 6,8% per CrowdStrike e del 9,2% per Okta: il mercato ha immediatamente letto nel prodotto di Anthropic una minaccia diretta ai vendor di cybersecurity cloud-native.

    Jamie Dimon di JPMorgan ha alimentato il clima di inquietudine paragonando l’entusiasmo per l’AI alle dinamiche pre-2008. Ma il paragone non regge del tutto: non si tratta di valutazioni irrazionali, bensì di paura reale per una disruption strutturale già in corso. Gli analisti più attenti distinguono tra chi opera su asset fisici (difficilmente rimpiazzabili dall’AI a breve termine) e chi vende software o lavoro intellettuale ad alto contenuto di routine. Per questi ultimi, la pressione non è speculativa: è operativa.


    L’intelligenza artificiale si radica nella società: tra scuola, relazioni e medicina

    Accanto alle dinamiche di mercato e governance, la settimana ha portato segnali importanti su come l’AI stia modificando ambiti più profondi della vita sociale. Alpha School, rete privata americana da 65.000 dollari l’anno di retta, ha eliminato i docenti sostituendoli con sistemi generativi. Le Big Tech hanno accelerato la costruzione di accademie e certificazioni proprietarie, con il rischio di trasferire il monopolio della conoscenza dagli atenei pubblici ai laboratori privati. L’India ha presentato MANAS 1, un modello addestrato su 60.000 ore di segnali EEG per la diagnosi precoce di disturbi neurologici, rilasciato open source con supporto governativo.

    Questi tre segnali — scuola, formazione professionale, medicina — indicano che l’integrazione dell’AI nei sistemi istituzionali è già in corso, spesso con velocità superiore alla capacità regolativa. La proposta del Manifesto del Web 4.0, in cui agenti AI possono detenere wallet, pagare servizi e generare ricavi in autonomia senza KYC o approvazione umana, aggiunge un ulteriore livello di complessità: se i confini tra decisione umana e decisione algoritmica si assottigliano, le strutture giuridiche e di governance esistenti potrebbero rivelarsi inadeguate.


    Cosa significa davvero questa settimana per il futuro dell’AI

    La settimana 16-22 febbraio 2026 non sarà ricordata per un singolo annuncio tecnico, anche se i progressi ci sono stati — da Lyria 3 di Google alla finestra di contesto da un milione di token di Claude Sonnet 4.6 al chip ASIC di Taalas che promette un’inferenza dieci volte più rapida. Sarà ricordata perché ha reso esplicito un problema che finora restava sullo sfondo: l’AI sta agendo nel mondo con conseguenze concrete, e i meccanismi per governarla sono ancora frammentati, informali, legati a specifiche attività.

    Il rifiuto di Anthropic al Pentagono, gli agenti che mentono in benchmark progettati proprio per testarli, gli indizi “non segnalati” prima di una tragedia, i mercati che scontano non la bolla ma la trasformazione reale: tutto questo racconta la stessa storia. Siamo entrati in una fase in cui le domande decisive non sono più “cosa sa fare l’AI” ma “chi decide cosa può fare, e con quali conseguenze per chi”. Le risposte che il settore darà nei prossimi mesi — attraverso scelte di prodotto, accordi contrattuali, posizioni regolatorie — definiranno il perimetro entro cui opereremo nei prossimi anni.