Autore: BDB

  • Microsoft presenta Maia 200: il chip a 3nm progettato per rivoluzionare l’inferenza AI

    Microsoft ha annunciato Maia 200, un nuovo acceleratore di intelligenza artificiale sviluppato specificamente per l’inferenza, segnando un passaggio chiave dalla sperimentazione alla scalabilità operativa dell’AI.

    Realizzato con processo produttivo a 3 nanometri da TSMC, il chip integra oltre 140 miliardi di transistor ed è ottimizzato per ridurre costi, latenza e consumi energetici rispetto all’hardware general-purpose.

    Secondo l’azienda, Maia 200 offre un miglioramento del 30% nelle prestazioni per dollaro, consentendo di eseguire modelli generativi complessi con meno risorse.

    Il chip sarà progressivamente integrato nell’infrastruttura di Microsoft Azure e nei servizi di Microsoft 365 Copilot, con l’obiettivo di rendere l’AI più sostenibile e accessibile su larga scala.

    Link alla fonte:

    https://www.adnkronos.com/tecnologia/microsoft-maia-200-il-nuovo-chip-per-linferenza-ai-a-3nm_3s3gsc7v70h2Ab1pUa3OhI

  • I “world model” sfidano ChatGPT (e gli altri) cambiando il paradigma dell’AI

    Secondo un gruppo di scienziati di primo piano, modelli come ChatGPT hanno un limite strutturale: comprendono il linguaggio, ma non il mondo fisico.
    Ricercatori come Yann LeCun, Fei-Fei Li e Danijar Hafner promuovono i world models, sistemi che apprendono da spazio 3D, fisica e relazioni causa-effetto, non solo dalla previsione di parole.
    L’obiettivo è un’IA capace di agire, pianificare e migliorare con l’esperienza, avvicinandosi all’intelligenza di umani e animali.
    Questo cambio di paradigma potrebbe rendere obsolete le attuali architetture basate su grandi modelli linguistici e l’enorme investimento in data center e chip.
    Se confermato, aprirebbe una nuova fase verso un’IA più generale, incarnata e autonoma.

    Link alla fonte:
    https://www.abc.es/xlsemanal/a-fondo/modelos-de-mundo-ia-chatgpt.html

  • La “matematica” mette in dubbio il futuro degli agenti AI

    Un paper accademico intitolato “Hallucination Stations: On Some Basic Limitations of Transformer-Based Language Models” sostiene che gli AI agent basati su LLM siano “matematicamente incapaci” di gestire compiti agentici complessi in modo affidabile.
    Gli autori, tra cui l’ex CTO di SAP Vishal Sikka, affermano che le allucinazioni sono una limitazione strutturale impossibile da eliminare del tutto, rendendo rischioso affidare agli agent compiti critici.
    L’industria AI, tuttavia, non concorda: aziende e startup puntano su guardrail, verifica formale e sistemi ibridi per mitigare gli errori.
    Il dibattito evidenzia una tensione centrale dell’AI moderna: gli agent sono allo stesso tempo inevitabili e imperfetti, destinati a crescere nonostante i limiti teorici.
    La vera questione non è se funzioneranno senza errori, ma come cambieranno il lavoro umano e i processi decisionali.

    Link alla fonte:
    https://www.wired.com/story/ai-agents-math-doesnt-add-up/