Tag: EfficienzaEnergetica

  • Chip neuromorfici a micro-LED promettono AI più efficiente sul fronte energetico

    In Germania un consorzio di ricerca guidato dalla Technische Universität Braunschweig sta sviluppando un nuovo tipo di computer neuromorfico basato su micro-LED, pensato per ridurre drasticamente i consumi energetici dell’intelligenza artificiale.
    Il progetto, chiamato BRIGHT (Bringing Light to Microelectronics), punta a sostituire parte dei transistor tradizionali con dispositivi ottici capaci di elaborare informazioni in parallelo, imitando il funzionamento dei neuroni umani.
    Un primo prototipo dimostra la capacità dei LED di riconoscere pattern senza ricorrere a complesse conversioni digitali, con potenziali vantaggi enormi per data center e reti neurali di grandi dimensioni. La sfida principale resta l’integrazione tra circuiti CMOS in silicio e dispositivi in nitruro di gallio, tecnologie finora separate.
    Con un finanziamento di circa 15 milioni di euro e un orizzonte di cinque anni, BRIGHT potrebbe aprire una nuova fase nel rapporto tra AI e consumo energetico.

    Link alla fonte:
    https://www.hdblog.it/hardware/articoli/n646903/chip-neuromorfici-micro-led-ai/

  • Microsoft presenta Maia 200: il chip a 3nm progettato per rivoluzionare l’inferenza AI

    Microsoft ha annunciato Maia 200, un nuovo acceleratore di intelligenza artificiale sviluppato specificamente per l’inferenza, segnando un passaggio chiave dalla sperimentazione alla scalabilità operativa dell’AI.

    Realizzato con processo produttivo a 3 nanometri da TSMC, il chip integra oltre 140 miliardi di transistor ed è ottimizzato per ridurre costi, latenza e consumi energetici rispetto all’hardware general-purpose.

    Secondo l’azienda, Maia 200 offre un miglioramento del 30% nelle prestazioni per dollaro, consentendo di eseguire modelli generativi complessi con meno risorse.

    Il chip sarà progressivamente integrato nell’infrastruttura di Microsoft Azure e nei servizi di Microsoft 365 Copilot, con l’obiettivo di rendere l’AI più sostenibile e accessibile su larga scala.

    Link alla fonte:

    https://www.adnkronos.com/tecnologia/microsoft-maia-200-il-nuovo-chip-per-linferenza-ai-a-3nm_3s3gsc7v70h2Ab1pUa3OhI

  • Verso modelli linguistici più “culturali”: meno parametri, più efficienza

    Negli ultimi anni, lo sviluppo dei modelli linguistici ha segnato un cambiamento di rotta, privilegiando l’efficienza e la qualità dell’addestramento rispetto alla sola crescita dei parametri. L’architettura Transformer del 2017 ha aperto la strada, ma oggi l’attenzione si concentra su modelli più piccoli – i cosiddetti Small Language Models (SLM) – e su metodologie di training più sofisticate. I tre filoni chiave dell’innovazione sono la multimodalità, l’interazione con strumenti esterni e l’ottimizzazione delle tecniche di apprendimento. La nuova sfida consiste nel bilanciare struttura e cultura, puntando su un’intelligenza artificiale meno energivora ma altrettanto performante.

    Link alla fonte:
    https://24plus.ilsole24ore.com/art/le-nuove-strategie-sviluppo-ai-piu-cultura-che-dimensioni-modelli-AHpoirpB