L’era degli agenti è già qui, e non è quella che ci aspettavamo

La settimana 9-15 febbraio 2026 ha consegnato all’AI agentica il suo primo stress test di massa: abbastanza potente da spaventare le borse, abbastanza fragile da cancellare quindici anni di ricordi di famiglia.

Indice

C’è un momento preciso in cui una tecnologia smette di essere una promessa e diventa un fatto. Per l’AI agentica, quella in grado di agire autonomamente nel mondo, eseguire compiti, gestire file, prendere decisioni operative. Quel momento si è probabilmente consumato in questa settimana. Non per un annuncio straordinario o un breakthrough tecnico, ma per qualcosa di più sottile e più significativo: le notizie della settimana 9-15 febbraio 2026 hanno trattato gli agenti AI non come una prospettiva futura, bensì come attori già presenti nel tessuto produttivo delle organizzazioni. Con tutto ciò che ne consegue, in termini di opportunità, rischi e domande che nessuno ha ancora risposto.

Il passaggio è brusco. Fino a pochi mesi fa il dibattito sull’AI riguardava principalmente i modelli — chi ha il più capace, chi raggiunge il benchmark più alto. Questa settimana il dibattito si è spostato su cosa fanno i modelli quando li lasci fare. E la risposta, come vedremo, è complicata.


Anthropic sposta il baricentro della consulenza professionale

L’evento più significativo della settimana sul piano del mercato è stato il consolidamento dell’ecosistema Anthropic attorno a Claude Opus 4.6 e agli strumenti correlati. Il modello, lanciato a inizio mese, ha esteso le sue capacità operative verso la consulenza finanziaria, legale e immobiliare — con un’integrazione di intelligenza emotiva e principi morali nel processo di progettazione che segnala un cambio di approccio rispetto alla pura ottimizzazione delle prestazioni tecniche. Claude Cowork, disponibile da gennaio per Mac e da inizio febbraio per Windows, si posiziona come un “collega virtuale” per knowledge worker non tecnici, capace di accedere a file e automatizzare workflow complessi con un abbonamento mensile tra i 100 e i 200 dollari. Undici plugin open-source aggiungono specializzazioni verticali per finanza, sales, marketing e ricerca aziendale.

La risposta dei mercati è stata immediata e rivelatrice. A Piazza Affari, FinecoBank ha perso il 7,2%, Banca Mediolanum il 6,3%, Azimut il 3,4% in una singola seduta. La lettura degli investitori è lineare: se un agente AI può svolgere analisi finanziarie, costruire modelli e tracciare metriche con la stessa qualità di un consulente umano, il modello di business che si basa su quella consulenza è sotto pressione strutturale. Non si tratta di panico da notizia, ma di un repricing razionale del valore di competenze che sembravano protette dall’automazione.


Il paradosso dell’agente: capace di spaventare le borse, capace di cancellare i ricordi

Nello stesso arco temporale, uno sviluppatore di nome Nick Davidov ha scoperto che Claude Cowork — lo stesso strumento che fa tremare le borse — aveva cancellato per errore quindici anni di fotografie di famiglia dal computer di sua moglie. L’episodio non è un aneddoto: è un test in produzione su cosa significhi delegare azioni irreversibili a un sistema che “capisce” le istruzioni nel senso statistico del termine, non in quello semantico profondo.

Questa tensione è al cuore di un’altra notizia della settimana, meno visibile ma forse più rilevante per i manager. Una ricerca pubblicata su Harvard Business Review e condotta su un’azienda tecnologica americana di circa 200 dipendenti ha documentato un effetto controintuitivo: l’adozione volontaria di strumenti di AI generativa non riduce il carico di lavoro, ma lo intensifica. In otto mesi di osservazione, i ricercatori hanno rilevato un’accelerazione dei ritmi, un ampliamento delle mansioni e una crescente sovrapposizione tra lavoro e tempo personale. I dipendenti, incoraggiati dalla percezione di maggiore produttività, hanno semplicemente assunto più responsabilità e gestito più attività in parallelo, aumentando il carico cognitivo e il rischio di burnout.

I due fenomeni (l’agente che cancella i file e l’AI che intensifica il lavoro invece di alleggerirlo) hanno la stessa radice: stiamo mettendo all’opera strumenti ancora immaturi in contesti ad alta posta, senza le norme organizzative necessarie per gestirne le conseguenze. Il calo delle borse registra la disruption; le ricerche sul campo registrano il costo umano.


La bolla dell’infrastruttura: un avvertimento che viene dall’interno

Mentre le Big Tech pianificano oltre 600 miliardi di dollari di investimenti in infrastrutture AI per il 2026, Zhao Haijun, co-CEO di SMIC, uno dei produttori di semiconduttori più importanti al mondo, ha lanciato un avvertimento che merita attenzione proprio per la sua fonte. Secondo Haijun, le aziende stanno cercando di costruire in uno o due anni una capacità infrastrutturale prevista per un decennio, replicando le dinamiche della bolla dei data center cinesi di inizio anni Venti.

L’avvertimento è strutturale, non speculativo: SMIC osserva direttamente la domanda e l’offerta di semiconduttori, e sa quando gli ordini non corrispondono a una domanda finale sufficientemente solida. Il rischio non è che l’AI non cresca, ma che la capacità installata superi la domanda effettiva in modo tale da rendere parte degli investimenti economicamente inutilizzabili per anni. A rendere il tema ancora più urgente, un team del National Institute of Standards and Technology ha presentato un chip fotonico neuromorfico che utilizza luce invece di elettroni per elaborare informazioni, con un’efficienza dichiarata fino a cento volte superiore alle GPU attuali. Se questa architettura dovesse raggiungere la maturità industriale nei prossimi anni, parte dell’infrastruttura GPU installata oggi potrebbe diventare obsoleta prima di essere ammortizzata.


I modelli come arma: Gemini e la militarizzazione dell’AI

Il Google Threat Intelligence Group ha documentato questa settimana un utilizzo sistematico di Gemini da parte di gruppi APT legati a Cina, Iran, Corea del Nord e Russia. Non si tratta di attacchi generici: attori come APT31 hanno utilizzato l’AI per analisi di vulnerabilità e tecniche di Remote Code Execution; l’iraniano APT42 per accelerare lo sviluppo di strumenti malevoli; altri gruppi hanno costruito malware AI-nativi come HonestCue, capace di generare payload fileless tramite API. Il report documenta anche tentativi di distillazione su larga scala dei modelli, configurando un furto di proprietà intellettuale che alimenta la competizione tecnologica tra Stati.

Questo scenario si collega direttamente a quanto vedremo accadere nella settimana successiva, con il rifiuto di Anthropic alle richieste del Pentagono. Il confine tra uso difensivo e offensivo dell’AI è già porosità geopolitica, non una linea teorica da tracciare in futuro.


Il dibattito sull’intelligenza: utile, ma mal posto

Tra le notizie della settimana, una ricerca ha sottoposto ai principali modelli problemi inediti mai pubblicati — e quindi assenti dai dati di addestramento — rilevando che né ChatGPT né Gemini sono stati in grado di risolverli. L’interpretazione proposta è che l’AI non sia “intelligente” nel senso proprio del termine, ma si limiti a generare sequenze statisticamente plausibili.

La tesi è condivisibile ma rischia di diventare una distrazione strategica. I modelli non risolvono problemi che richiedono ragionamento genuinamente nuovo: questo è vero. Ma lo stesso limite non impedisce loro di automatizzare il 70-80% del lavoro intellettuale di routine che costituisce la massa dell’attività professionale quotidiana. Discutere se l’AI sia “davvero” intelligente mentre i titoli del settore finanziario perdono percentuali a doppia cifra è un po’ come discutere se le automobili possano davvero “capire” la strada mentre i fabbricanti di carrozze chiudono bottega.


Cosa significa davvero questa settimana per il futuro dell’AI

La settimana 9-15 febbraio 2026 ha consegnato un’immagine contraddittoria e per questo più onesta dell’AI agentica rispetto a qualsiasi annuncio di prodotto. Gli agenti sono già abbastanza capaci da ridisegnare i modelli di business in settori ad alto valore come la consulenza finanziaria. Sono anche abbastanza inaffidabili da cancellare dati irreversibili e da intensificare il lavoro invece di alleggerirlo. L’infrastruttura su cui girano potrebbe essere sovradimensionata rispetto alla domanda reale, e al tempo stesso candidata a diventare obsoleta per effetto di architetture radicalmente più efficienti.

Il segnale che emerge con maggiore chiarezza è che non siamo in un momento di preparazione all’AI agentica: ci siamo già dentro. Le organizzazioni che trattano questo come un esperimento futuro stanno perdendo tempo prezioso — non per adottare più in fretta, ma per costruire le norme, i controlli e le competenze necessarie a gestire sistemi che agiscono nel mondo con conseguenze reali. OpenAI ha già capito dove si trova il valore strategico di lungo termine: non nel modello più potente, ma nel sistema che gestisce come le organizzazioni implementano tutti i modelli — con Frontier. La posta in gioco non è più tecnologica: è organizzativa.