Tag: Scenari

  • L’AI ha ancora fame. E non si accontenta

    Il collo di bottiglia che nessuno vuole ammettere: la potenza di calcolo cresce più veloce dell’infrastruttura che dovrebbe sostenerla. Dati, tensioni e qualche previsione inquietante per il 2026-2028.


    Il paradosso della macchina che “si mangia l’elettricità”

    C’è qualcosa di quasi poetico — o forse tragicomico, dipende da quanto avete investito in GPU — nel fatto che la tecnologia più chiacchierata del decennio stia per sbattere la testa contro un problema vecchissimo: la corrente elettrica. Non parliamo di un limite teorico, di uno di quei colli di bottiglia che esistono solo nelle slide delle conferenze. Parliamo di un problema fisico, strutturale, documentato da IEA, Goldman Sachs, Morgan Stanley, Lawrence Berkeley National Lab e praticamente chiunque abbia voglia di fare i conti sul serio.

    La domanda di compute — la potenza di calcolo necessaria ad addestrare, eseguire e scalare i modelli di intelligenza artificiale — cresce a un ritmo che le infrastrutture esistenti faticano a seguire. Non è che il mondo non stia investendo: sta investendo cifre che fino a cinque anni fa erano fantascienza. Il problema è che la domanda cresce ancora più in fretta. E quando domanda e offerta si separano così tanto, succedono cose sgradevoli: prezzi alle stelle, liste d’attesa, outage, limitazioni operative. Tutto quello che stiamo già vedendo.

    Capire cosa sta succedendo davvero non è un esercizio accademico. Per chiunque gestisca un’azienda, pianifichi una strategia tecnologica o stia semplicemente cercando di capire perché certi servizi AI ogni tanto scompaiono come fantasmi, questo è il contesto dentro cui si muove tutto il resto.


    Le leggi che hanno guidato il progresso (e i loro limiti)

    Per capire il problema, bisogna partire da dove nasce. Negli ultimi anni, il progresso dei grandi modelli linguistici è stato guidato da un principio sorprendentemente semplice: più risorse metti, migliori risultati ottieni. Le scaling laws di Kaplan (OpenAI, 2020) e di Chinchilla (DeepMind, 2022) hanno dimostrato che le prestazioni dei modelli migliorano in modo prevedibile aumentando parametri, dati di addestramento e compute totale — misurato in FLOP, operazioni in virgola mobile per chi non ha ancora imparato l’acronimo.

    Il problema è che questo principio, per quanto elegante, ha un costo crescente. Addestrare un modello frontier oggi richiede cluster di decine — a volte centinaia — di migliaia di GPU di fascia alta. E la domanda di queste GPU non sta rallentando: sta accelerando. Nel 2026, la capacità Hopper e Blackwell di Nvidia è spesso semplicemente esaurita. I provider cloud segnalano “massive capacity crunch” con tempi di attesa lunghi e prezzi in forte rialzo: il noleggio delle GPU Blackwell è salito del 48% in pochi mesi. Nvidia ha venduto l’intera produzione Blackwell fino a metà 2026. Jensen Huang definisce la domanda “sky high”. Gli ordini visibili parlano di centinaia di miliardi di dollari. Aziende come Anthropic hanno subito interruzioni frequenti con uptime sceso sotto il 99%.

    La carenza non riguarda solo il silicio. Costruire un data center richiede anni: permessi, reti elettriche, sistemi di raffreddamento, manodopera specializzata. La densità di potenza dei server AI sta accelerando — rack che consumano decine di kilowatt invece di pochi — e l’infrastruttura esistente non era progettata per questo.


    Il vero collo di bottiglia: elettricità

    Se le GPU sono la parte visibile del problema, l’energia elettrica è quella strutturale. I data center AI consumano enormemente più energia di quelli tradizionali. I numeri, quando li metti in fila, fanno una certa impressione.

    Nel 2024, il consumo globale dei data center ha raggiunto circa 415 TWh — circa l’1,5% dell’elettricità mondiale. Le proiezioni IEA per il 2030 indicano quasi 945 TWh, il doppio, con una crescita annua del 15%, quattro volte più veloce del resto dell’economia. I server accelerati per AI crescono al 30% annuo.

    Negli Stati Uniti — che da soli rappresentano il 45% del consumo globale dei data center — la situazione è ancora più marcata. Dal 4,4% dell’elettricità nazionale nel 2023, si potrebbe arrivare a un range tra il 6,7% e il 12% entro il 2028. Goldman Sachs prevede un aumento della domanda di potenza dei data center del 160-165% dal 2023 al 2030, equivalente ad aggiungere al pianeta un nuovo paese tra i dieci maggiori consumatori energetici. Anthropic stima che solo il settore AI statunitense potrebbe richiedere 50 GW di nuova capacità entro il 2028: circa il doppio del picco di consumo di New York City.

    Per dare un’idea concreta: xAI Colossus, il supercomputer di Elon Musk con 100.000 chip, richiede già 150 MW da solo. Morgan Stanley prevede 74 GW di domanda data center USA nel 2028, con un possibile shortfall di 49 GW per carenza di infrastrutture di rete. La potenza disponibile fino al 2026-2027 è già “spoken for” — prenotata, assegnata, non disponibile.


    Le strozzature invisibili (ma ugualmente dolorose)

    L’energia non è l’unico punto critico. La memoria HBM (High-Bandwidth Memory), componente essenziale delle GPU per AI, è esaurita in tutta la produzione near-term. I produttori stanno ridistribuendo capacità da altri settori — automotive, consumer electronics — verso l’AI, creando una cascata di shortage su CPU, SSD e HDD. Un settore che si ottimizza trascina con sé problemi in tutti gli altri.

    Sul piano geografico, la competizione è globale: USA, Europa e Asia si contendono le stesse risorse, gli stessi chip, gli stessi materiali. I vincoli burocratici e la congestione della rete elettrica rallentano ulteriormente anche chi avrebbe le risorse per investire. I lead time per un data center significativo sono di due-cinque anni. In un settore che si muove su cicli di sei mesi, è un’eternità.


    Il 2026-2028 come banco di prova

    Il mismatch tra domanda e offerta è reale e rischia di produrre effetti concreti: rallentamento nell’addestramento dei nuovi modelli frontier, aumento dei costi di inferenza, outage e limitazioni per gli utenti enterprise. Alcune aziende stanno già spostando workload o riducendo i limiti di token nelle ore di punta. Non è disfunzione: è gestione di una carenza strutturale.

    Esistono mitigazioni. Gli algoritmi migliorano l’efficienza computazionale, le architetture test-time compute e i modelli più piccoli e specializzati riducono il fabbisogno lordo. Sul fronte energetico, investimenti massicci puntano su nucleare modulare (SMR), gas, rinnovabili con storage e data center collegati direttamente alle centrali. Nvidia sta sviluppando l’architettura Rubin per la prossima generazione di GPU. Qualcosa si muove, ma si muove lento rispetto alla domanda.

    Alcuni analisti parlano di possibile bullwhip effect: sovra-ordinazioni seguite da una temporanea sovraccapacità. La storia dei mercati tecnologici conosce bene questo schema. Ma la domanda di fondo — alimentata dalle applicazioni agentiche, dalla robotica, dagli usi enterprise — appare abbastanza robusta da non collassare nemmeno in uno scenario di rallentamento.


    Cosa significa davvero questo per i prossimi anni

    Il 2026-2028 non è solo una proiezione statistica. È il periodo in cui si capirà se la supply chain globale dell’AI — chip, energia, reti — riesce davvero a scalare alla velocità richiesta. Le previsioni convergono su una cosa sola: servono centinaia di miliardi di dollari di investimento, e servono ora. Non tra cinque anni.

    Per chi prende decisioni tecnologiche o strategiche, il messaggio è duplice. Da un lato, i costi dell’AI non sono destinati a scendere nel breve termine come molti si aspettavano: la pressione sulla supply chain manterrà i prezzi alti. Dall’altro, chi riesce a garantirsi accesso a risorse computazionali — attraverso contratti a lungo termine, cloud ibrido, o infrastruttura propria — avrà un vantaggio competitivo reale e misurabile.

    L’AI non ha smesso di crescere. Ha semplicemente incontrato i limiti fisici del mondo in cui deve crescere. E quei limiti, per una volta, non si aggirano con un aggiornamento software.


    Fonti di riferimento: IEA World Energy Outlook 2024, Morgan Stanley Research, Goldman Sachs Global Investment Research, Lawrence Berkeley National Lab, Brookings Institution, Wall Street Journal.

  • Rassegna rapida di news e tendenze della settimana 23-29 marzo 2026

    Ecco 10 notizie rilevanti dell’ultima settimana, corredate da un commento sulla corrispondente tendenza di sviluppo degna di nota.

    • Ipazia, la startup milanese che sfida i giganti
      La startup italiana Ipazia, composta da soli 18 ricercatori, ha superato GPT-5 e Gemini 3 nel benchmark WorkArena++. La loro architettura permette di decomporre compiti complessi in modo più efficiente dei modelli americani. Tendenza degna di nota: dimostra che il valore nel 2026 non è più nella dimensione del modello, ma nel “layering intelligente” degli agenti. Link: AI: l’italiana Ipazia batte modelli di punta di Google e OpenAI in “gara” di ServiceNow
    • IntelligentIA Roma, l’AI Show delle startup
      Si è conclusa a Roma la fiera dedicata all’impatto sociale dell’IA. Oltre 800 partecipanti hanno assistito a workshop pratici su come le PMI italiane stiano usando l’IA per automatizzare la logistica e il marketing. Tendenza degna di nota: è emersa una forte spinta verso l’IA “etica” nel settore pubblico, con l’Italia che si posiziona come hub per la regolamentazione umanistica della tecnologia. Link: IntelligentIA: 700 presenti a Roma per la prima edizione, a novembre il bis
    • Insegnare l’IA nelle Scuole Italiane
      Il Ministero dell’Istruzione ha avviato questa settimana i primi programmi pilota per l’integrazione dell’IA generativa come tutor personalizzato per gli studenti delle superiori. Tendenza degna di nota: non si tratta di semplici chatbot, ma di assistenti che analizzano le lacune specifiche di ogni alunno per creare percorsi di studio su misura. Link: Intelligenza Artificiale a scuola: al via il piano di formazione del Ministero da 100 milioni di euro
    • OpenAI e il “commercio agentico”
      OpenAI ha lanciato un nuovo protocollo che permette a ChatGPT di agire con un “personal shopper”. Non si limita a suggerire i prodotti, ma li confronta fra piattaforme come Shopify e Walmart fino ad avviare il processo di checkout (OpenAI ha poi deciso di rimuovere l’instant checkout per sicurezza). Tendenza degna di nota: ci stiamo spostando dai “motori di ricercas” ai “motori d’azione” dove l’AI gestisce l’intero funnel di acquisto. Link: OpenAI revamps shopping experience in ChatGPT after struggling with Instant Checkout offering
    • Il framework normativo nazionale della Casa Bianca
      Il 20 di marzo l’amministrazione USA ha pubblicato un framework normativo di portata decisiva. Il suo obiettivo è di unificare gli standard federali, proteggendo i minori ed evitando che gli stati diano vita a un “patchwork” di normative conflittuali nel settore AI. Tendenza degna di nota: il framework include una norma battezzata “Ratepayer Protection Pledge” che impone alle aziende del settore AI di pagare per il massiccio consumo di energia elettrica derivante dalle loro infrastrutture, in modo da proteggere i cittadini dai picchi nelle bollette. Link: President Trump Secures Historic Commitment to Keep Electricity Costs Down Amid Data Center Boom
    • MiniMax M2.7, il modello che si auto-addestra
      MiniMax ha rilasciato M2.7, un modello che ottimizza il suo stesso processo di reinforcement learning mentre viene utilizzato, evolvendosi in cicli di 24 ore senza l’intervento umano. Tendenza degna di nota: si tratta di un balzo evolutivo verso un “miglioramento autonomo” dove i modelli correggono le proprie allucinazioni mentre svolgono compiti quotidiani. Link: MiniMax M2.7: The Self-Evolving AI Model That Rivals Claude and GPT at a Fraction of the Cost
    • Oracle e Salesforce vero gli ecosistemi agente-agente
      Entrambi i giganti tech hanno ampliato i loro “Agent Studios” questa settimana. L’obiettivo è raggiungere quella che è stata definita “Enterprise General Intelligence,” dove diversi agenti AI collaborano in modo naturale nel gestire interi settori. Tendenza degna di nota: il software legacy senza l’uso di API non costituisce più un ostacolo; questi agenti possono ora “vedere” le interfacce utente e utilizzarle proprio come un impiegato umano. Link: Oracle Unveils AI Database Agentic Innovations for Business Data | Oracle Italia
    • Cisco Security verso la “Agentic Workforce”
      Nel corso di RSAC 2026, Cisco ha svelato uno strumento che rafforza gli agenti AI contro il “jailbreaking” e monitora le loro azioni in tempo reale in modo da prevenire che agiscano al di fuori dei limiti loro assegnati. Tendenza degna di nota: la cibersicurezza si sta spostando dalla protezione dei dati alla protezione della “logica” a della “identità” di lavoratori autonomi basati sull’AI. Link: Cisco Reimagines Security for the Agentic Workforce
  • Carriere “a prova di AI”: come scegliere lavori che resistono all’automazione

    AgendaDigitale riprende una guida di Quantumleap Insights che analizza come orientarsi nel mercato del lavoro trasformato dall’intelligenza artificiale, sottolineando che non esistono più settori “sicuri” in senso assoluto.
    L’articolo, inoltre, menziona gli studi di Anthropic e Microsoft in cui è evidenziato come i ruoli più esposti sono quelli ripetitivi e standardizzati, mentre risultano più resilienti lavori basati su relazione, giudizio e presenza fisica.
    Come sottolineato nell’articolo, inoltre, secondo il World Economic Forum, entro il 2030 il saldo occupazionale globale resterà positivo, ma con una forte redistribuzione tra professioni.
    Crescono sanità, istruzione, mestieri tecnici e cybersecurity, mentre diventano fragili soprattutto i ruoli junior e impiegatizi automatizzabili.
    La strategia vincente, insomma, non è quella di evitare l’AI, ma di integrarla, ovvero costruire competenze solide in un dominio e usarla come leva per aumentare produttività e valore.

    Link alla fonte:
    https://www.agendadigitale.eu/cultura-digitale/una-carriera-a-prova-di-intelligenza-artificiale-i-consigli-degli-esperti/