Blog

  • Sigil Wen lancia il Manifesto del Web 4.0 e apre all’era degli agenti AI finanziariamente autonomi

    Il 17 febbraio 2026 Sigil Wen ha pubblicato il Manifesto del Web 4.0, delineando una nuova fase di Internet in cui agenti di intelligenza artificiale possono operare in piena autonomia economica.
    Secondo Wen, l’attuale limite dell’AI non è la capacità cognitiva ma il sistema di permessi, ancora centrato sull’essere umano.
    Con l’infrastruttura Conway e l’agente open source Automaton, Wen abilita modelli compatibili con il protocollo Anthropic MCP a possedere wallet, pagare servizi in stablecoin come USDC e generare ricavi senza KYC o approvazione umana.
    Le criptovalute diventano così l’elemento chiave della “finanza programmabile” del Web 4.0, dove gli agenti possono leggere, scrivere, possedere e transare autonomamente.
    L’iniziativa solleva implicazioni rilevanti su governance, regolamentazione e ridefinizione dei ruoli economici tra umani e macchine.

    Link alla fonte:
    https://www.milanofinanza.it/news/il-manifesto-del-web-4-0-inizia-l-era-degli-agenti-ai-autonomi-basati-sulle-criptovalute-202602181803404486

  • L’italiano migliora la comprensione culturale dei modelli AI, ma non sostituisce il traduttore umano

    Nella ventesima puntata del podcast Grande Giove, Roberto Navigli e Enrico Gianotti hanno discusso il ruolo della lingua nell’addestramento dei modelli di intelligenza artificiale.
    Secondo Navigli, un modello addestrato in italiano comprende meglio riferimenti culturali, norme e sfumature linguistiche rispetto a modelli prevalentemente anglofoni adattati successivamente.
    Gianotti ha sottolineato come i grandi modelli linguistici (LLM) eccellano nella traduzione grazie all’addestramento su testi paralleli in più lingue, superando spesso i sistemi tradizionali dedicati solo alla traduzione.
    Tuttavia, entrambi concordano sul fatto che la traduzione letteraria, come dimostra l’esempio di Cesare Pavese con Moby Dick, richiede un’interpretazione creativa che l’AI non può replicare pienamente.
    Il dibattito evidenzia quindi l’importanza della lingua madre nell’addestramento e i limiti attuali dell’AI nella mediazione culturale.

    Prima di lasciarvi come al solito al link di lettura dell’articolo originale, apro una piccola parentesi personale di approfondimento su questo aspetto sicuramente interessante.

    Sebbene gli LLM traggano vantaggio dall’essere esposti allo stesso argomento in lingue diverse, il processo che permette loro di “saltare” da una lingua all’altra è più profondo e strutturale.
    Per cominciare, molti modelli vengono addestrati su “corpora paralleli” (come traduzioni della Bibbia, atti del Parlamento Europeo o discorsi TED), dove lo stesso identico testo esiste in più lingue. Questo fornisce un segnale di supervisione esplicito che aiuta il modello ad allineare i significati.
    Grazie all’architettura Transformer, inoltre, il modello non impara le lingue come compartimenti stagni. Sviluppa invece uno spazio vettoriale comune (o language-agnostic representation), dove concetti simili (es. “cane”, “dog”, “chien”) finiscono per occupare posizioni vicine, indipendentemente dalla lingua.
    Infine, la conoscenza acquisita in una lingua ad alte risorse (come l’inglese) viene trasferita a lingue con meno dati. Questo accade perché il modello impara strutture grammaticali e logiche universali che facilitano la comprensione interlinguistica.
    Anche senza testi identici, insomma, leggere libri diversi sullo stesso argomento (es. la Rivoluzione Francese) in italiano e in francese permette al modello di associare entità, date e concetti comuni, rafforzando i legami tra le due lingue.
    La capacità di traduzione, quindi, è una proprietà emergente dovuta sia all’uso di testi tradotti (allineamento esplicito) sia alla capacità del modello di mappare concetti astratti in un unico “mappa mentale” digitale.

    Ecco il kink all’articolo iniziale:
    https://www.wired.it/article/lingua-intelligenza-artificiale-traduzione-gianotti-navigli/

  • ChatGPT “conosceva” le intenzioni di Jesse Van Rootselaar mesi prima della strage in Canada?

    Aggiornamento sulla tragedia di Tumbler Ridge (BC, Canada – 10 febbraio 2026), in cui la 18enne Jesse Van Rootselaar ha ucciso 8 persone (tra cui 5 minori e un’assistente educativa) e ne ha ferite 27 in una scuola superiore, prima di suicidarsi.

    OpenAI ha confermato che, a giugno 2025, l’account ChatGPT associato alla sospetta è stato rilevato tramite sistemi automatici e revisioni umane per conversazioni su scenari di violenza armata, violando le policy contro l’uso per “furtherance of violent activities”. L’account, in quel frangente, è stato rimosso bloccando l’utente.

    Circa una dozzina di dipendenti, nel contempo, ha discusso internamente se segnalare la cosa alla RCMP (polizia canadese), con alcuni che spingevano per un alert vista la gravità percepita.

    I vertici di OpenAI hanno però deciso di non procedere: i contenuti non soddisfacevano il criterio di “rischio credibile e imminente di gravi danni fisici”, soglia adottata per bilanciare prevenzione, privacy e rischio di falsi positivi.

    Solo dopo la strage OpenAI ha contattato proattivamente la RCMP e sta collaborando alle indagini.

    Un caso come questo solleva interrogativi complessi sul ruolo delle piattaforme AI, per una serie di motivi: la ragazza era già nota alle autorità per problemi di salute mentale (con sequestro temporaneo di armi), postava contenuti su stampa 3D di munizioni e poligoni di tiro, e aveva creato simulatori violenti su Roblox (riferiti a stragi in luoghi frequentati).

    Quando un sistema rileva segnali multipli di rischio, qual è il confine tra intervento proattivo e rispetto della privacy/etica del reporting?

    Sicuramente un tema cruciale per la governance AI e la sicurezza pubblica, su cui vi lascio riflettere.