Tag: LLM

  • I “world model” sfidano ChatGPT (e gli altri) cambiando il paradigma dell’AI

    Secondo un gruppo di scienziati di primo piano, modelli come ChatGPT hanno un limite strutturale: comprendono il linguaggio, ma non il mondo fisico.
    Ricercatori come Yann LeCun, Fei-Fei Li e Danijar Hafner promuovono i world models, sistemi che apprendono da spazio 3D, fisica e relazioni causa-effetto, non solo dalla previsione di parole.
    L’obiettivo è un’IA capace di agire, pianificare e migliorare con l’esperienza, avvicinandosi all’intelligenza di umani e animali.
    Questo cambio di paradigma potrebbe rendere obsolete le attuali architetture basate su grandi modelli linguistici e l’enorme investimento in data center e chip.
    Se confermato, aprirebbe una nuova fase verso un’IA più generale, incarnata e autonoma.

    Link alla fonte:
    https://www.abc.es/xlsemanal/a-fondo/modelos-de-mundo-ia-chatgpt.html

  • La “matematica” mette in dubbio il futuro degli agenti AI

    Un paper accademico intitolato “Hallucination Stations: On Some Basic Limitations of Transformer-Based Language Models” sostiene che gli AI agent basati su LLM siano “matematicamente incapaci” di gestire compiti agentici complessi in modo affidabile.
    Gli autori, tra cui l’ex CTO di SAP Vishal Sikka, affermano che le allucinazioni sono una limitazione strutturale impossibile da eliminare del tutto, rendendo rischioso affidare agli agent compiti critici.
    L’industria AI, tuttavia, non concorda: aziende e startup puntano su guardrail, verifica formale e sistemi ibridi per mitigare gli errori.
    Il dibattito evidenzia una tensione centrale dell’AI moderna: gli agent sono allo stesso tempo inevitabili e imperfetti, destinati a crescere nonostante i limiti teorici.
    La vera questione non è se funzioneranno senza errori, ma come cambieranno il lavoro umano e i processi decisionali.

    Link alla fonte:
    https://www.wired.com/story/ai-agents-math-doesnt-add-up/

  • Google scopre che i modelli AI cinesi imitano l’intelligenza collettiva umana

    Un nuovo studio di ricercatori di Google ha analizzato i modelli di ragionamento sviluppati da DeepSeek e Alibaba Cloud, rilevando che il loro funzionamento interno assomiglia ai meccanismi dell’intelligenza collettiva umana.
    In particolare, i modelli DeepSeek R1 e QwQ-32B di Alibaba generano dibattiti interni multi-agente, definiti dai ricercatori “società del pensiero”, in cui interagiscono prospettive e competenze diverse.
    Lo studio suggerisce che la diversità delle prospettive, oltre alla sola scala computazionale, sia un fattore chiave nell’aumento delle capacità di ragionamento dell’AI.
    I risultati, pubblicati su arXiv e non ancora sottoposti a peer review, evidenziano anche la crescente importanza dei modelli open-weight cinesi nella ricerca accademica statunitense.
    Questo approccio potrebbe ridefinire il modo in cui vengono progettati i futuri sistemi di intelligenza artificiale, favorendo architetture di ragionamento collettivo anziché entità isolate.

    Link alla fonte:
    https://amp.scmp.com/tech/tech-trends/article/3340690/google-study-finds-deepseek-alibaba-ai-models-mimic-human-collective-intelligence