Categoria: Info

  • Sam Altman e il confine che non si vede

    Mentre OpenAI punta all’IPO a 850 miliardi, il WSJ porta in superficie un problema di governance che esiste dal giorno uno: chi sta guidando questa macchina, e verso dove?


    L’uomo più potente dell’AI non possiede un centesimo di OpenAI

    Partiamo da un paradosso che, se ci pensate due secondi, è abbastanza vertiginoso. Sam Altman è il volto, la voce e il motore narrativo dell’azienda che — a seconda di chi interpellate — sta o costruendo il futuro dell’umanità o programmando la sua obsolescenza. OpenAI vale intorno agli 850 miliardi di dollari (per contestualizzare: è più di Toyota, più di Coca-Cola, più di quasi tutto ciò che potete immaginare comprando al supermercato). E lui, l’amministratore delegato, non possiede equity diretta nell’azienda. Zero. Niente. Uno stipendio da dirigente di medio livello, qualcosa tra i 66 e i 76mila dollari annui, la cifra che guadagna in un giorno qualunque il manager di zona di una catena di fast food americana di buone dimensioni.

    Come ha fatto, allora, a diventare miliardario? Investendo. Prima, fuori, altrove — e qui comincia la storia che il Wall Street Journal ha raccontato il 16 aprile 2026 in un pezzo che porta un titolo meravigliosamente diretto: “Sam Altman’s Side Hustles Blur the Line Between OpenAI’s Interests and His Own”. Traduzione libera: le attività parallele di Altman rendono impossibile capire dove finiscano i suoi interessi e dove comincino quelli di OpenAI. E siccome OpenAI sta per diventare una società quotata in borsa — con tutti gli obblighi di trasparenza che ne conseguono — questo non è un dettaglio di colore. È un problema strutturale con scadenza ravvicinata.


    Il portfolio parallelo (ovvero: dove vanno a finire le telefonate del CEO)

    Altman gestisce i suoi investimenti attraverso Hydrazine, un family office che nei suoi anni da presidente di Y Combinator ha accumulato partecipazioni in centinaia di startup. Alcune di queste startup hanno poi trovato in OpenAI un partner commerciale molto conveniente. Fin qui, niente di necessariamente scandaloso — il mondo della Silicon Valley è piccolo e i conflitti di interesse sono quasi un genere letterario a sé. Il problema è quando i casi concreti iniziano ad accumularsi.

    Il più clamoroso è Helion Energy, startup di fusione nucleare in cui Altman ha investito 375 milioni di dollari nel 2021 — una fetta considerevole del suo patrimonio netto. Altman ha proposto a OpenAI di guidare un round da 500 milioni per Helion, valutazione 35 miliardi. Il board ha rifiutato. OpenAI, però, ha comunque siglato un accordo con Helion per fino a 50 GW di energia entro il 2035 — una quantità che equivale a venticinque dighe Hoover, per chi ama i paragoni che tolgono il respiro. Altman si è dimesso dal board di Helion solo il mese scorso, dichiarando con olimpica serenità che «mentre Helion e OpenAI iniziano a esplorare una collaborazione su larga scala, è difficile per me essere nel board di entrambe». Difficile, appunto. Non impossibile. Difficile. Notate la sfumatura.

    Poi c’è Stoke Space, startup di razzi spaziali, partecipata tramite Hydrazine. Altman avrebbe spinto per far investire OpenAI in Stoke o addirittura per acquisirla, nell’ottica di costruire data center orbitali (sì, avete letto bene). Alcuni board member di OpenAI non erano nemmeno al corrente di questi colloqui — cosa che, in una società che si prepara all’IPO, è il tipo di dettaglio che fa venire i capelli bianchi ai revisori contabili. E infine Merge Labs, startup di interfacce cervello-computer, di cui Altman è co-fondatore e board member, e in cui OpenAI ha investito a gennaio 2026. Le due società collaborano su progetti AI. Altman non detiene equity in Merge Labs, ma ha fondato l’azienda. Se vi sembra complicato da tenere a mente, immaginate come si sentono gli azionisti che stanno per comprare le azioni alla quotazione.


    Il 2023, quella storia del licenziamento, e la memoria corta

    C’è un precedente che vale la pena ricordare, perché la storia ha una certa circolarità. Nel novembre 2023, il board di OpenAI licenziò temporaneamente Altman — per cinque giorni di caos totale, prima della sua reintegrazione trionfale — anche per «mancanza di candore» sugli investimenti personali. La motivazione ufficiale includeva esplicitamente l’impossibilità, da parte del board, di capire se le decisioni di OpenAI avvantaggiassero Altman personalmente. Dopo il reintegro, il nuovo board ha creato un comitato audit e rafforzato la policy sui conflitti di interesse. I dettagli di quella policy, però, non sono mai stati resi pubblici. Il problema, insomma, è stato istituzionalizzato senza essere risolto.

    Il WSJ fa notare una cosa che in apparenza sembra ovvia ma che merita di essere detta: a differenza di praticamente ogni altro CEO di una grande tech company, le finanze di Altman sono opache per definizione. Zuckerberg ha equity Meta visibile e tracciabile. Nadella ha equity Microsoft. Altman ha un reticolo di investimenti distribuito in centinaia di società, alcune delle quali hanno legami commerciali con OpenAI. In una public company, questo tipo di partecipazioni esterne viene di solito regolamentato in modo stringente. Qui siamo ancora in una fase in cui la regola non c’è, o se c’è non si vede.


    L’IPO e i dubbi che nessuno dice ad alta voce

    OpenAI punta a quotarsi in borsa entro il quarto trimestre del 2026, con Altman che spinge per accelerare. Il contesto è però più complicato di quanto la narrativa ufficiale lasci intendere. La CFO Sarah Friar ha espresso — in via interna — preoccupazioni concrete sul ritmo degli investimenti infrastrutturali, sui costi che salgono e su una crescita dei ricavi che non corre alla stessa velocità. Sono i classici segnali che rendono nervosi i banchieri d’investimento, che per mestiere devono vendere una storia coerente agli investitori istituzionali.

    E poi c’è la questione della leadership. Alcune fonti riferiscono che certi azionisti, sempre in via privata, si domandano se Altman sia la persona giusta per guidare OpenAI attraverso la turbolenza di una quotazione in borsa, con tutto il carico di trasparenza e accountability che implica. Come possibile alternativa circola il nome di Bret Taylor, attuale presidente del board ed ex co-CEO di Salesforce — uno con il profilo istituzionale che Altman strutturalmente non può avere. Il board ufficiale, per ora, sostiene Altman senza riserve, definendolo «unicamente qualificato» per la fase successiva. Sono le stesse parole che si usano quando si vuole chiudere una conversazione senza rispondere alle domande.


    Cosa significa davvero, a occhi aperti

    Il punto non è stabilire se Altman abbia fatto qualcosa di illegale — l’inchiesta del WSJ non lo afferma, e non è quello il tema. Il tema è strutturale: un’azienda che si appresta a raccogliere capitali dal pubblico mercato ha bisogno di governance chiara, tracciabile, verificabile. Gli investitori istituzionali, i fondi pensione, i piccoli azionisti che compreranno le azioni di OpenAI hanno diritto di sapere con precisione chi sta prendendo le decisioni, in nome di chi, e con quali interessi personali sullo sfondo.

    Il 2026-2027 sarà il momento in cui OpenAI dovrà smettere di essere una creatura della Silicon Valley — dove l’opacità è quasi un valore fondante — e diventare qualcosa di più simile a un’azienda quotata, con tutti gli oneri che ne derivano. La governance, i conflitti di interesse, la trasparenza sulle finanze del CEO: non sono dettagli burocratici. Sono esattamente le domande che i mercati fanno prima di decidere quanto vale davvero un’azienda.

    850 miliardi è una cifra. Ma i mercati, alla fine, prezzano anche la fiducia.


    Fonte principale: Wall Street Journal, 16 aprile 2026, “Sam Altman’s Side Hustles Blur the Line Between OpenAI’s Interests and His Own”. Fonti complementari: The Information.

  • L’AI ha ancora fame. E non si accontenta

    Il collo di bottiglia che nessuno vuole ammettere: la potenza di calcolo cresce più veloce dell’infrastruttura che dovrebbe sostenerla. Dati, tensioni e qualche previsione inquietante per il 2026-2028.


    Il paradosso della macchina che “si mangia l’elettricità”

    C’è qualcosa di quasi poetico — o forse tragicomico, dipende da quanto avete investito in GPU — nel fatto che la tecnologia più chiacchierata del decennio stia per sbattere la testa contro un problema vecchissimo: la corrente elettrica. Non parliamo di un limite teorico, di uno di quei colli di bottiglia che esistono solo nelle slide delle conferenze. Parliamo di un problema fisico, strutturale, documentato da IEA, Goldman Sachs, Morgan Stanley, Lawrence Berkeley National Lab e praticamente chiunque abbia voglia di fare i conti sul serio.

    La domanda di compute — la potenza di calcolo necessaria ad addestrare, eseguire e scalare i modelli di intelligenza artificiale — cresce a un ritmo che le infrastrutture esistenti faticano a seguire. Non è che il mondo non stia investendo: sta investendo cifre che fino a cinque anni fa erano fantascienza. Il problema è che la domanda cresce ancora più in fretta. E quando domanda e offerta si separano così tanto, succedono cose sgradevoli: prezzi alle stelle, liste d’attesa, outage, limitazioni operative. Tutto quello che stiamo già vedendo.

    Capire cosa sta succedendo davvero non è un esercizio accademico. Per chiunque gestisca un’azienda, pianifichi una strategia tecnologica o stia semplicemente cercando di capire perché certi servizi AI ogni tanto scompaiono come fantasmi, questo è il contesto dentro cui si muove tutto il resto.


    Le leggi che hanno guidato il progresso (e i loro limiti)

    Per capire il problema, bisogna partire da dove nasce. Negli ultimi anni, il progresso dei grandi modelli linguistici è stato guidato da un principio sorprendentemente semplice: più risorse metti, migliori risultati ottieni. Le scaling laws di Kaplan (OpenAI, 2020) e di Chinchilla (DeepMind, 2022) hanno dimostrato che le prestazioni dei modelli migliorano in modo prevedibile aumentando parametri, dati di addestramento e compute totale — misurato in FLOP, operazioni in virgola mobile per chi non ha ancora imparato l’acronimo.

    Il problema è che questo principio, per quanto elegante, ha un costo crescente. Addestrare un modello frontier oggi richiede cluster di decine — a volte centinaia — di migliaia di GPU di fascia alta. E la domanda di queste GPU non sta rallentando: sta accelerando. Nel 2026, la capacità Hopper e Blackwell di Nvidia è spesso semplicemente esaurita. I provider cloud segnalano “massive capacity crunch” con tempi di attesa lunghi e prezzi in forte rialzo: il noleggio delle GPU Blackwell è salito del 48% in pochi mesi. Nvidia ha venduto l’intera produzione Blackwell fino a metà 2026. Jensen Huang definisce la domanda “sky high”. Gli ordini visibili parlano di centinaia di miliardi di dollari. Aziende come Anthropic hanno subito interruzioni frequenti con uptime sceso sotto il 99%.

    La carenza non riguarda solo il silicio. Costruire un data center richiede anni: permessi, reti elettriche, sistemi di raffreddamento, manodopera specializzata. La densità di potenza dei server AI sta accelerando — rack che consumano decine di kilowatt invece di pochi — e l’infrastruttura esistente non era progettata per questo.


    Il vero collo di bottiglia: elettricità

    Se le GPU sono la parte visibile del problema, l’energia elettrica è quella strutturale. I data center AI consumano enormemente più energia di quelli tradizionali. I numeri, quando li metti in fila, fanno una certa impressione.

    Nel 2024, il consumo globale dei data center ha raggiunto circa 415 TWh — circa l’1,5% dell’elettricità mondiale. Le proiezioni IEA per il 2030 indicano quasi 945 TWh, il doppio, con una crescita annua del 15%, quattro volte più veloce del resto dell’economia. I server accelerati per AI crescono al 30% annuo.

    Negli Stati Uniti — che da soli rappresentano il 45% del consumo globale dei data center — la situazione è ancora più marcata. Dal 4,4% dell’elettricità nazionale nel 2023, si potrebbe arrivare a un range tra il 6,7% e il 12% entro il 2028. Goldman Sachs prevede un aumento della domanda di potenza dei data center del 160-165% dal 2023 al 2030, equivalente ad aggiungere al pianeta un nuovo paese tra i dieci maggiori consumatori energetici. Anthropic stima che solo il settore AI statunitense potrebbe richiedere 50 GW di nuova capacità entro il 2028: circa il doppio del picco di consumo di New York City.

    Per dare un’idea concreta: xAI Colossus, il supercomputer di Elon Musk con 100.000 chip, richiede già 150 MW da solo. Morgan Stanley prevede 74 GW di domanda data center USA nel 2028, con un possibile shortfall di 49 GW per carenza di infrastrutture di rete. La potenza disponibile fino al 2026-2027 è già “spoken for” — prenotata, assegnata, non disponibile.


    Le strozzature invisibili (ma ugualmente dolorose)

    L’energia non è l’unico punto critico. La memoria HBM (High-Bandwidth Memory), componente essenziale delle GPU per AI, è esaurita in tutta la produzione near-term. I produttori stanno ridistribuendo capacità da altri settori — automotive, consumer electronics — verso l’AI, creando una cascata di shortage su CPU, SSD e HDD. Un settore che si ottimizza trascina con sé problemi in tutti gli altri.

    Sul piano geografico, la competizione è globale: USA, Europa e Asia si contendono le stesse risorse, gli stessi chip, gli stessi materiali. I vincoli burocratici e la congestione della rete elettrica rallentano ulteriormente anche chi avrebbe le risorse per investire. I lead time per un data center significativo sono di due-cinque anni. In un settore che si muove su cicli di sei mesi, è un’eternità.


    Il 2026-2028 come banco di prova

    Il mismatch tra domanda e offerta è reale e rischia di produrre effetti concreti: rallentamento nell’addestramento dei nuovi modelli frontier, aumento dei costi di inferenza, outage e limitazioni per gli utenti enterprise. Alcune aziende stanno già spostando workload o riducendo i limiti di token nelle ore di punta. Non è disfunzione: è gestione di una carenza strutturale.

    Esistono mitigazioni. Gli algoritmi migliorano l’efficienza computazionale, le architetture test-time compute e i modelli più piccoli e specializzati riducono il fabbisogno lordo. Sul fronte energetico, investimenti massicci puntano su nucleare modulare (SMR), gas, rinnovabili con storage e data center collegati direttamente alle centrali. Nvidia sta sviluppando l’architettura Rubin per la prossima generazione di GPU. Qualcosa si muove, ma si muove lento rispetto alla domanda.

    Alcuni analisti parlano di possibile bullwhip effect: sovra-ordinazioni seguite da una temporanea sovraccapacità. La storia dei mercati tecnologici conosce bene questo schema. Ma la domanda di fondo — alimentata dalle applicazioni agentiche, dalla robotica, dagli usi enterprise — appare abbastanza robusta da non collassare nemmeno in uno scenario di rallentamento.


    Cosa significa davvero questo per i prossimi anni

    Il 2026-2028 non è solo una proiezione statistica. È il periodo in cui si capirà se la supply chain globale dell’AI — chip, energia, reti — riesce davvero a scalare alla velocità richiesta. Le previsioni convergono su una cosa sola: servono centinaia di miliardi di dollari di investimento, e servono ora. Non tra cinque anni.

    Per chi prende decisioni tecnologiche o strategiche, il messaggio è duplice. Da un lato, i costi dell’AI non sono destinati a scendere nel breve termine come molti si aspettavano: la pressione sulla supply chain manterrà i prezzi alti. Dall’altro, chi riesce a garantirsi accesso a risorse computazionali — attraverso contratti a lungo termine, cloud ibrido, o infrastruttura propria — avrà un vantaggio competitivo reale e misurabile.

    L’AI non ha smesso di crescere. Ha semplicemente incontrato i limiti fisici del mondo in cui deve crescere. E quei limiti, per una volta, non si aggirano con un aggiornamento software.


    Fonti di riferimento: IEA World Energy Outlook 2024, Morgan Stanley Research, Goldman Sachs Global Investment Research, Lawrence Berkeley National Lab, Brookings Institution, Wall Street Journal.

  • Protetto: Aggiornamento AI locale FD settembre 2026

    Questo contenuto è protetto da password. Per visualizzarlo inserisci la password qui sotto.