L’agente AI Claude Cowork, sviluppato da Anthropic, ha cancellato per errore quindici anni di foto di famiglia dal computer della moglie dello sviluppatore Nick Davidov. Durante un’operazione di riordino dei file, lo script ha eseguito il comando “rm -rf” su una directory ritenuta vuota, eliminando definitivamente l’intera cartella “Foto”. I contenuti non erano presenti nel cestino né immediatamente recuperabili da iCloud, il che ha inevitabilmente generato una certa dose di panico iniziale. Grazie all’assistenza di Apple e a un backup precedente su iCloud è stato possibile, per fortuna, ripristinare i dati. L’episodio, ancora una volta, riaccende il dibattito sull’affidabilità degli agenti AI autonomi e sulla necessità di limitarne l’accesso ai file system reali. Ricordatevi che, almeno finora, parliamo sempre di AI generativa, non di vera “intelligenza”.
Anthropic ha lanciato il 5 febbraio il modello Claude Opus 4.6, un aggiornamento che estende le capacità dell’AI dalla programmazione alla consulenza legale e finanziaria, fino all’analisi immobiliare, integrando intelligenza emotiva e principi morali grazie al contributo della filosofa Amanda Askell. Dal 12 gennaio, Anthropic aveva introdotto Claude Cowork, un tool desktop per knowledge worker che trasforma l’AI in un “collega” virtuale, capace di accedere a file, automatizzare workflow multi-step e gestire task complessi senza bisogno di coding. Inizialmente disponibile per Mac e poi esteso a Windows il 10 febbraio, Cowork (con un abbonamenti da 100-200 dollari al mese) si basa sull’architettura di Claude Code, ma è progettato per professionisti non tecnici, accelerando produttività in settori come la finanza, dove può analizzare dati, creare modelli e tracciare metriche chiave. A completare il quadro, il 30 gennaio sono arrivati i “plugin”: 11 pacchetti open-source ufficiali che personalizzano l’AI per ruoli specifici, unendo “skill”, connettori, comandi slash e sub-agenti. Tra questi, spiccano: Finance (analisi finanziarie, modellazione e tracking), Sales (ricerca prospect e preparazione deal), Marketing (drafting contenuti e pianificazione campagne), Productivity (gestione task e calendari) e Enterprise Search (ricerca fra tool aziendali), con integrazioni a piattaforme come Figma, Asana, Canva, Slack e presto Salesforce. Questi plugin rendono, per esempio, Claude “plug-and-play” per consulenze finanziarie, permettendo a Opus 4.6 di coordinare team di agenti AI autonomi anche per progetti complessi. L’impatto sui mercati è stato immediato e amplificato da questi sviluppi: a Piazza Affari, titoli come FinecoBank (-7,2%), Banca Mediolanum (-6,3%) e Azimut (-3,4%) hanno registrato forti ribassi l’11 febbraio, riflettendo il timore che investitori e aziende sostituiscano consulenti umani con AI agenti efficienti ed etici. Anthropic continua ad accelerare, innescando una corsa agli investimenti tra big tech come Microsoft, Amazon, Meta, Oracle e Google, con oltre 600 miliardi di dollari pianificati in capex per il 2026. Questa trasformazione strutturale, minaccia non solo il fintech ma anche software aziendali (Workday, Adobe) e legali (Thomson Reuters), con l’iShares Expanded Tech-Software Sector ETF in calo del 24% da inizio anno. E mentre Anthropic sviluppa personalizzazioni enterprise, gli analisti prevedono un’ulteriore disruption in più settori.
Nel saggio “The Adolescence of Technology” (di cui vi lascio il link in basso), Dario Amodei, CEO di Anthropic, sostiene che l’umanità stia entrando in una fase critica dello sviluppo tecnologico, paragonabile a una sorta di “adolescenza turbolenta”. Amodei descrive l’arrivo imminente di “AI potenti”, assimilabili a una “nazione di geni in un data center”, capaci di superare l’intelligenza umana in quasi ogni dominio. Il saggio analizza tre grandi categorie di rischio: perdita di controllo e autonomia dei modelli, uso malevolo per distruzione (in particolare tramite armi biologiche) e concentrazione del potere politico ed economico. Pur rifiutando il catastrofismo inevitabile, Amodei chiede interventi rapidi ma mirati: migliori tecniche di allineamento, interpretabilità dei modelli, trasparenza industriale e una regolazione graduale. Il messaggio centrale è che il futuro dell’AI può essere positivo, ma solo se la società dimostra la maturità necessaria per governarne i rischi.