Categoria: Info

  • L’italiano migliora la comprensione culturale dei modelli AI, ma non sostituisce il traduttore umano

    Nella ventesima puntata del podcast Grande Giove, Roberto Navigli e Enrico Gianotti hanno discusso il ruolo della lingua nell’addestramento dei modelli di intelligenza artificiale.
    Secondo Navigli, un modello addestrato in italiano comprende meglio riferimenti culturali, norme e sfumature linguistiche rispetto a modelli prevalentemente anglofoni adattati successivamente.
    Gianotti ha sottolineato come i grandi modelli linguistici (LLM) eccellano nella traduzione grazie all’addestramento su testi paralleli in più lingue, superando spesso i sistemi tradizionali dedicati solo alla traduzione.
    Tuttavia, entrambi concordano sul fatto che la traduzione letteraria, come dimostra l’esempio di Cesare Pavese con Moby Dick, richiede un’interpretazione creativa che l’AI non può replicare pienamente.
    Il dibattito evidenzia quindi l’importanza della lingua madre nell’addestramento e i limiti attuali dell’AI nella mediazione culturale.

    Prima di lasciarvi come al solito al link di lettura dell’articolo originale, apro una piccola parentesi personale di approfondimento su questo aspetto sicuramente interessante.

    Sebbene gli LLM traggano vantaggio dall’essere esposti allo stesso argomento in lingue diverse, il processo che permette loro di “saltare” da una lingua all’altra è più profondo e strutturale.
    Per cominciare, molti modelli vengono addestrati su “corpora paralleli” (come traduzioni della Bibbia, atti del Parlamento Europeo o discorsi TED), dove lo stesso identico testo esiste in più lingue. Questo fornisce un segnale di supervisione esplicito che aiuta il modello ad allineare i significati.
    Grazie all’architettura Transformer, inoltre, il modello non impara le lingue come compartimenti stagni. Sviluppa invece uno spazio vettoriale comune (o language-agnostic representation), dove concetti simili (es. “cane”, “dog”, “chien”) finiscono per occupare posizioni vicine, indipendentemente dalla lingua.
    Infine, la conoscenza acquisita in una lingua ad alte risorse (come l’inglese) viene trasferita a lingue con meno dati. Questo accade perché il modello impara strutture grammaticali e logiche universali che facilitano la comprensione interlinguistica.
    Anche senza testi identici, insomma, leggere libri diversi sullo stesso argomento (es. la Rivoluzione Francese) in italiano e in francese permette al modello di associare entità, date e concetti comuni, rafforzando i legami tra le due lingue.
    La capacità di traduzione, quindi, è una proprietà emergente dovuta sia all’uso di testi tradotti (allineamento esplicito) sia alla capacità del modello di mappare concetti astratti in un unico “mappa mentale” digitale.

    Ecco il kink all’articolo iniziale:
    https://www.wired.it/article/lingua-intelligenza-artificiale-traduzione-gianotti-navigli/

  • Se non state usando i task “pianificati” dell’AI vi perdete un sacco di opportunità

    Poco fa Gemini mi ha fornito il suo resoconto settimanale sulle ultime notizie di tecnologia, basato sulle mie istruzioni, e ho potuto farglielo “leggere” semplicemente facendo clic sull’icona dell’altoparlante, come fosse un podcast.

    Anche in questo caso, come sempre, è l’efficacia del prompt che fa la differenza, e quello che ho usato per il test non è neanche tanto elaborato, eppure il risultato è già soddisfacente.

    E voi, per cosa usate già o vorreste usare la pianificazione nel vostro chatbot abituale?

  • L’ennesima prova che l’AI non è “intelligente”

    Nel caso abbiate ancora dubbi sull’intelligenza e sulla capacità di comprensione dell’AI “generativa”, vi mostro l’ennesima prova che questi elementi, in sostanza, non esistono.

    Si chiama “AI generativa” perché i modelli su cui si basa attualmente si limitano a generare contenuti seguendo pattern statistici, quindi anche quando vedere un “ragionamento” state osservando una fila di parole infilate una dopo l’altra secondo una serie di calcoli di affinità verbale dell’algoritmo (costruita durante l’addestramento).

    La prova finale: un gruppo di ricercatori ha sottoposto ai modelli di fascia alta di ChatGPT e Gemini una serie di problemi che avevano risolto ma mai pubblicato (di conseguenza l’AI non poteva avere acquisito dei dati dalla loro “lettura”, che peraltro deve riguardare elementi individuati con una certa frequenza per ottenere la sua “attenzione”), e il risultato è stato che nessuno dei due modelli di punta è stato in grado di risolverli.

    Si continua a parlare di AGI, di “agenti”, di “decisioni” da parte dell’AI e di sostituzione dell’essere umano, ma come ho spesso sottolineato finché non cambieranno gli algoritmi possiamo dimenticarci una vera “intelligenza” che dovrebbe essere alla base di tali scenari.