Tag: Ragionamento

  • Qwopus porta il ragionamento stile Claude Opus su PC consumer?

    Uno sviluppatore indipendente, Jackrong, ha creato Qwopus, una famiglia di modelli AI open source che replica il ragionamento avanzato di Claude Opus tramite tecniche di distillazione.
    Basato su Qwen3.5-27B di Alibaba, il modello è stato addestrato con dati di “chain-of-thought” per imitare il processo decisionale passo-passo di modelli più potenti.
    La nuova versione Qwopus 3.5-27B v3 introduce un approccio di “allineamento strutturale” e migliora significativamente le performance, raggiungendo oltre il 95% su HumanEval.
    Il sistema è progettato per funzionare localmente su hardware consumer, anche su laptop con GPU limitata, offrendo un’alternativa gratuita alle API proprietarie.
    Questo lo rende particolarmente rilevante per sviluppatori, analisti e utenti attenti alla privacy e ai costi.

    Link alla fonte:
    https://decrypt.co/es/364255/qwopus-modelo-local-claude-opus-razonamiento-gpu?amp=1

  • L’ennesima prova che l’AI non è “intelligente”

    Nel caso abbiate ancora dubbi sull’intelligenza e sulla capacità di comprensione dell’AI “generativa”, vi mostro l’ennesima prova che questi elementi, in sostanza, non esistono.

    Si chiama “AI generativa” perché i modelli su cui si basa attualmente si limitano a generare contenuti seguendo pattern statistici, quindi anche quando vedere un “ragionamento” state osservando una fila di parole infilate una dopo l’altra secondo una serie di calcoli di affinità verbale dell’algoritmo (costruita durante l’addestramento).

    La prova finale: un gruppo di ricercatori ha sottoposto ai modelli di fascia alta di ChatGPT e Gemini una serie di problemi che avevano risolto ma mai pubblicato (di conseguenza l’AI non poteva avere acquisito dei dati dalla loro “lettura”, che peraltro deve riguardare elementi individuati con una certa frequenza per ottenere la sua “attenzione”), e il risultato è stato che nessuno dei due modelli di punta è stato in grado di risolverli.

    Si continua a parlare di AGI, di “agenti”, di “decisioni” da parte dell’AI e di sostituzione dell’essere umano, ma come ho spesso sottolineato finché non cambieranno gli algoritmi possiamo dimenticarci una vera “intelligenza” che dovrebbe essere alla base di tali scenari.

  • Amazon integra l’AI neuro-simbolica per superare i limiti degli LLM

    Amazon sta adottando su larga scala l’AI neuro-simbolica per rendere i sistemi di intelligenza artificiale più affidabili, verificabili e adatti a decisioni critiche.
    Questo approccio combina l’apprendimento statistico dei modelli neurali con il rigore logico dell’AI simbolica, consentendo alle macchine di spiegare e dimostrare i propri ragionamenti.
    La tecnologia è già utilizzata in applicazioni operative come robot di magazzino, assistenti allo shopping e sistemi di sicurezza per la generative AI su Amazon Web Services.
    Con il nuovo modello di ragionamento Nova 2 Lite, Amazon integra il reasoning automatizzato direttamente nel training dei modelli, puntando a ridurre le allucinazioni e ad abilitare l’uso dell’AI in contesti ad alta responsabilità come compliance, finanza e decisioni strategiche.

    Link alla fonte:
    https://www.wired.com/sponsored/story/how-neuro-symbolic-ai-breaks-the-limits-of-llms/