
Il collo di bottiglia che nessuno vuole ammettere: la potenza di calcolo cresce più veloce dell’infrastruttura che dovrebbe sostenerla. Dati, tensioni e qualche previsione inquietante per il 2026-2028.
Il paradosso della macchina che “si mangia l’elettricità”
C’è qualcosa di quasi poetico — o forse tragicomico, dipende da quanto avete investito in GPU — nel fatto che la tecnologia più chiacchierata del decennio stia per sbattere la testa contro un problema vecchissimo: la corrente elettrica. Non parliamo di un limite teorico, di uno di quei colli di bottiglia che esistono solo nelle slide delle conferenze. Parliamo di un problema fisico, strutturale, documentato da IEA, Goldman Sachs, Morgan Stanley, Lawrence Berkeley National Lab e praticamente chiunque abbia voglia di fare i conti sul serio.
La domanda di compute — la potenza di calcolo necessaria ad addestrare, eseguire e scalare i modelli di intelligenza artificiale — cresce a un ritmo che le infrastrutture esistenti faticano a seguire. Non è che il mondo non stia investendo: sta investendo cifre che fino a cinque anni fa erano fantascienza. Il problema è che la domanda cresce ancora più in fretta. E quando domanda e offerta si separano così tanto, succedono cose sgradevoli: prezzi alle stelle, liste d’attesa, outage, limitazioni operative. Tutto quello che stiamo già vedendo.
Capire cosa sta succedendo davvero non è un esercizio accademico. Per chiunque gestisca un’azienda, pianifichi una strategia tecnologica o stia semplicemente cercando di capire perché certi servizi AI ogni tanto scompaiono come fantasmi, questo è il contesto dentro cui si muove tutto il resto.
Le leggi che hanno guidato il progresso (e i loro limiti)
Per capire il problema, bisogna partire da dove nasce. Negli ultimi anni, il progresso dei grandi modelli linguistici è stato guidato da un principio sorprendentemente semplice: più risorse metti, migliori risultati ottieni. Le scaling laws di Kaplan (OpenAI, 2020) e di Chinchilla (DeepMind, 2022) hanno dimostrato che le prestazioni dei modelli migliorano in modo prevedibile aumentando parametri, dati di addestramento e compute totale — misurato in FLOP, operazioni in virgola mobile per chi non ha ancora imparato l’acronimo.
Il problema è che questo principio, per quanto elegante, ha un costo crescente. Addestrare un modello frontier oggi richiede cluster di decine — a volte centinaia — di migliaia di GPU di fascia alta. E la domanda di queste GPU non sta rallentando: sta accelerando. Nel 2026, la capacità Hopper e Blackwell di Nvidia è spesso semplicemente esaurita. I provider cloud segnalano “massive capacity crunch” con tempi di attesa lunghi e prezzi in forte rialzo: il noleggio delle GPU Blackwell è salito del 48% in pochi mesi. Nvidia ha venduto l’intera produzione Blackwell fino a metà 2026. Jensen Huang definisce la domanda “sky high”. Gli ordini visibili parlano di centinaia di miliardi di dollari. Aziende come Anthropic hanno subito interruzioni frequenti con uptime sceso sotto il 99%.
La carenza non riguarda solo il silicio. Costruire un data center richiede anni: permessi, reti elettriche, sistemi di raffreddamento, manodopera specializzata. La densità di potenza dei server AI sta accelerando — rack che consumano decine di kilowatt invece di pochi — e l’infrastruttura esistente non era progettata per questo.
Il vero collo di bottiglia: elettricità
Se le GPU sono la parte visibile del problema, l’energia elettrica è quella strutturale. I data center AI consumano enormemente più energia di quelli tradizionali. I numeri, quando li metti in fila, fanno una certa impressione.
Nel 2024, il consumo globale dei data center ha raggiunto circa 415 TWh — circa l’1,5% dell’elettricità mondiale. Le proiezioni IEA per il 2030 indicano quasi 945 TWh, il doppio, con una crescita annua del 15%, quattro volte più veloce del resto dell’economia. I server accelerati per AI crescono al 30% annuo.
Negli Stati Uniti — che da soli rappresentano il 45% del consumo globale dei data center — la situazione è ancora più marcata. Dal 4,4% dell’elettricità nazionale nel 2023, si potrebbe arrivare a un range tra il 6,7% e il 12% entro il 2028. Goldman Sachs prevede un aumento della domanda di potenza dei data center del 160-165% dal 2023 al 2030, equivalente ad aggiungere al pianeta un nuovo paese tra i dieci maggiori consumatori energetici. Anthropic stima che solo il settore AI statunitense potrebbe richiedere 50 GW di nuova capacità entro il 2028: circa il doppio del picco di consumo di New York City.
Per dare un’idea concreta: xAI Colossus, il supercomputer di Elon Musk con 100.000 chip, richiede già 150 MW da solo. Morgan Stanley prevede 74 GW di domanda data center USA nel 2028, con un possibile shortfall di 49 GW per carenza di infrastrutture di rete. La potenza disponibile fino al 2026-2027 è già “spoken for” — prenotata, assegnata, non disponibile.
Le strozzature invisibili (ma ugualmente dolorose)
L’energia non è l’unico punto critico. La memoria HBM (High-Bandwidth Memory), componente essenziale delle GPU per AI, è esaurita in tutta la produzione near-term. I produttori stanno ridistribuendo capacità da altri settori — automotive, consumer electronics — verso l’AI, creando una cascata di shortage su CPU, SSD e HDD. Un settore che si ottimizza trascina con sé problemi in tutti gli altri.
Sul piano geografico, la competizione è globale: USA, Europa e Asia si contendono le stesse risorse, gli stessi chip, gli stessi materiali. I vincoli burocratici e la congestione della rete elettrica rallentano ulteriormente anche chi avrebbe le risorse per investire. I lead time per un data center significativo sono di due-cinque anni. In un settore che si muove su cicli di sei mesi, è un’eternità.
Il 2026-2028 come banco di prova
Il mismatch tra domanda e offerta è reale e rischia di produrre effetti concreti: rallentamento nell’addestramento dei nuovi modelli frontier, aumento dei costi di inferenza, outage e limitazioni per gli utenti enterprise. Alcune aziende stanno già spostando workload o riducendo i limiti di token nelle ore di punta. Non è disfunzione: è gestione di una carenza strutturale.
Esistono mitigazioni. Gli algoritmi migliorano l’efficienza computazionale, le architetture test-time compute e i modelli più piccoli e specializzati riducono il fabbisogno lordo. Sul fronte energetico, investimenti massicci puntano su nucleare modulare (SMR), gas, rinnovabili con storage e data center collegati direttamente alle centrali. Nvidia sta sviluppando l’architettura Rubin per la prossima generazione di GPU. Qualcosa si muove, ma si muove lento rispetto alla domanda.
Alcuni analisti parlano di possibile bullwhip effect: sovra-ordinazioni seguite da una temporanea sovraccapacità. La storia dei mercati tecnologici conosce bene questo schema. Ma la domanda di fondo — alimentata dalle applicazioni agentiche, dalla robotica, dagli usi enterprise — appare abbastanza robusta da non collassare nemmeno in uno scenario di rallentamento.
Cosa significa davvero questo per i prossimi anni
Il 2026-2028 non è solo una proiezione statistica. È il periodo in cui si capirà se la supply chain globale dell’AI — chip, energia, reti — riesce davvero a scalare alla velocità richiesta. Le previsioni convergono su una cosa sola: servono centinaia di miliardi di dollari di investimento, e servono ora. Non tra cinque anni.
Per chi prende decisioni tecnologiche o strategiche, il messaggio è duplice. Da un lato, i costi dell’AI non sono destinati a scendere nel breve termine come molti si aspettavano: la pressione sulla supply chain manterrà i prezzi alti. Dall’altro, chi riesce a garantirsi accesso a risorse computazionali — attraverso contratti a lungo termine, cloud ibrido, o infrastruttura propria — avrà un vantaggio competitivo reale e misurabile.
L’AI non ha smesso di crescere. Ha semplicemente incontrato i limiti fisici del mondo in cui deve crescere. E quei limiti, per una volta, non si aggirano con un aggiornamento software.
Fonti di riferimento: IEA World Energy Outlook 2024, Morgan Stanley Research, Goldman Sachs Global Investment Research, Lawrence Berkeley National Lab, Brookings Institution, Wall Street Journal.
