Microsoft ha annunciato Maia 200, un nuovo acceleratore di intelligenza artificiale sviluppato specificamente per l’inferenza, segnando un passaggio chiave dalla sperimentazione alla scalabilità operativa dell’AI.
Realizzato con processo produttivo a 3 nanometri da TSMC, il chip integra oltre 140 miliardi di transistor ed è ottimizzato per ridurre costi, latenza e consumi energetici rispetto all’hardware general-purpose.
Secondo l’azienda, Maia 200 offre un miglioramento del 30% nelle prestazioni per dollaro, consentendo di eseguire modelli generativi complessi con meno risorse.
Il chip sarà progressivamente integrato nell’infrastruttura di Microsoft Azure e nei servizi di Microsoft 365 Copilot, con l’obiettivo di rendere l’AI più sostenibile e accessibile su larga scala.
Link alla fonte:
