Tag: DataCenter

  • SMIC avverte: il boom dei data center per l’AI rischia di trasformarsi in una bolla

    Zhao Haijun, co-CEO di Semiconductor Manufacturing International Co. (SMIC), ha lanciato un allarme sul possibile eccesso di investimenti nei data center dedicati all’intelligenza artificiale, paragonando l’attuale corsa infrastrutturale alla bolla dei data center cinesi dei primi anni 2020.
    Secondo il dirigente, le aziende stanno cercando di costruire in uno o due anni una capacità prevista per un intero decennio, senza una chiara visione sull’effettivo utilizzo futuro.
    Nonostante la forte domanda generata dall’AI generativa e dai large language model – che spinge colossi come Microsoft, Google e Meta a investire miliardi – resta il rischio di sovracapacità e infrastrutture sottoutilizzate.
    L’avvertimento è particolarmente significativo perché proviene da un attore centrale nella filiera globale dei semiconduttori, in grado di osservare direttamente le dinamiche di domanda e offerta.
    Il tema solleva interrogativi su sostenibilità economica, costi energetici e stabilità dell’attuale ciclo di espansione dell’AI.

    Link alla fonte:
    https://www.tomshw.it/hardware/smic-avverte-data-center-ai-rischiano-linutilizzo-2026-02-11

  • NVIDIA presenta Vera Rubin (NVL72): 72 GPU unite da NVLink per spingere l’AI oltre la legge di Moore

    NVIDIA ha svelato “Vera Rubin”, un nuovo supercomputer a scala rack (NVL72) che integra 72 GPU collegate tramite NVLink per operare come un unico sistema ad altissima banda e bassa latenza.
    Il progetto nasce dall’esigenza di colmare il divario tra crescita esplosiva dei modelli AI e limiti fisici/energetici dei data center, puntando su un redesign verticale dell’intero stack: CPU Vera, GPU Rubin, networking ConnectX-9, switch NVLink di nuova generazione e componenti dedicati alla memoria contestuale.
    Tra le innovazioni chiave spiccano l’efficienza “per watt” (cruciale in data center con budget di potenza fisso), nuove logiche di calcolo come NVFP4 TensorCore e un assemblaggio drasticamente semplificato (fino a “zero cavi” e montaggio in pochi minuti) con raffreddamento a liquido ottimizzato.
    L’obiettivo dichiarato è ridurre il costo per token e rendere praticabili carichi di training/inferenza su scala molto più grande, abilitando una nuova ondata di applicazioni e robotica avanzata.

    Link alla fonte:
    https://www.dday.it/redazione/55846/vera-rubin-il-nuovo-super-computer-nvidia-e-un-miracolo-di-ingegneria

  • Il crollo di Oracle evidenzia i limiti strutturali del boom dell’AI: infrastrutture fisiche e debito mettono sotto pressione il mercato

    Il forte calo del titolo Oracle, in discesa del 45% dai massimi, sta diventando un campanello d’allarme per l’intero boom dell’intelligenza artificiale.

    L’azienda ha speso molto più del previsto in investimenti per data center dedicati a OpenAI, finanziando gran parte dell’espansione tramite debito e alimentando i timori degli investitori sulla sostenibilità finanziaria.

    A complicare il quadro emergono limiti fisici: ritardi nella costruzione dei data center, carenze di materiali e lunghi tempi di consegna per componenti critici mostrano che l’AI non può crescere alla velocità del software.

    Anche il mercato obbligazionario sta reagendo negativamente, con rendimenti in aumento e titoli Oracle che iniziano a essere classificati come “spazzatura”.

    Il caso Oracle evidenzia così un doppio vincolo per l’AI: le leggi della fisica e quelle della finanza.

    Link alla fonte:
    https://fortune.com/2025/12/13/oracle-stock-collapse-ai-boom-debt-data-centers-delayed/