Tag: LLM

  • Anthropic aggiorna Claude Opus alla versione 4.7: più autonomia, coding avanzato e visione ad alta precisione

    Anthropic ha rilasciato Claude Opus 4.7, aggiornamento focalizzato su maggiore autonomia operativa e capacità di gestire compiti complessi senza supervisione continua.
    Il modello migliora sensibilmente nel coding, arrivando a eseguire e verificare autonomamente il codice, riducendo errori e necessità di controllo umano.
    Sul fronte visivo introduce il supporto a immagini fino a 2.576 pixel, consentendo una lettura accurata di tabelle, diagrammi e screenshot complessi.
    Tra le novità anche un nuovo livello di “sforzo” intermedio per bilanciare prestazioni e costi, rimasti invariati rispetto alla versione precedente.
    Infine, migliorano sicurezza (con filtri anti-abuso) e memoria tra sessioni, rendendo il modello più adatto a progetti di lunga durata.

    Link alla fonte:
    https://www.hdblog.it/tecnologia/articoli/n655359/claude-opus-4-7-novita-coding/

  • Qwopus porta il ragionamento stile Claude Opus su PC consumer?

    Uno sviluppatore indipendente, Jackrong, ha creato Qwopus, una famiglia di modelli AI open source che replica il ragionamento avanzato di Claude Opus tramite tecniche di distillazione.
    Basato su Qwen3.5-27B di Alibaba, il modello è stato addestrato con dati di “chain-of-thought” per imitare il processo decisionale passo-passo di modelli più potenti.
    La nuova versione Qwopus 3.5-27B v3 introduce un approccio di “allineamento strutturale” e migliora significativamente le performance, raggiungendo oltre il 95% su HumanEval.
    Il sistema è progettato per funzionare localmente su hardware consumer, anche su laptop con GPU limitata, offrendo un’alternativa gratuita alle API proprietarie.
    Questo lo rende particolarmente rilevante per sviluppatori, analisti e utenti attenti alla privacy e ai costi.

    Link alla fonte:
    https://decrypt.co/es/364255/qwopus-modelo-local-claude-opus-razonamiento-gpu?amp=1

  • Gemma 4, l’AI locale che funziona sul tuo smartphone

    Con la nuova versione di Google AI Edge Gallery, l’applicazione di AI locale di Google, è stato finalmente reso disponibile il nuovo modello Gemma 4, che come la precedente versione 3 può essere scaricato e testato direttamente sullo smartphone.

    L’applicazione si presenta molto più completa, addirittura offrendo un pannello con le impostazioni dei principali parametri per gli LLM, e la velocità di risposta appare soddisfacente a patto di utilizzare un dispositivo di fascia medio-alta.

    Non ho ancora testato a fondo i due modelli disponibili, ma per chi fosse curioso allego qui sotto due file, steiner1.pdf e steiner2.pdf, che contendono la risposta a un prompt di prova iniziale (lo trovate nel titolo del documento) da parte dei rispettivi LLM.

    L’impressione è che, nonostante l’ottimizzazione estrema, la qualità delle risposte, ottenute senza attivare la funzione di “ragionamento”, ha un livello che potremmo definire pari a quello dei chatbot più popolari quando usano i modelli di base. Anche l’italiano mi è parso eccellente, al di là di qualche rarissimo refuso dovuto a una traduzione letterale o comunque non corretta in cui il modello di è “inventato” il termine nella nostra lingua.

    In ogni caso giudicate voi stessi, leggendo i due risultati, e se ve la sentite scaricate l’app Edge Gallery e almeno uno dei due nuovi modelli, ricordandovi che richiederanno spazio sia sulla memoria centrale sia su quella dei dati nel vostro smartphone.