Tag: AlgoritmiGenerativi

  • Critica all’antropomorfismo degli LLM: il rischio di scambiare testo per coscienza

    Nel suo pregevole articolo su Huffington Post, Stefano Diana  (che spero di aver taggato correttamente) critica la tendenza dei ricercatori di aziende di AI a umanizzare i modelli linguistici, prendendo come esempio la documentazione tecnica di Claude Opus 4.6 sviluppato da Anthropic.
    Nella “system card” del modello vengono descritti presunti stati interni dell’IA (come “disagio”, “gratitudine”, “tristezza” o persino una probabilità del 15–20% di essere cosciente) che come spiega l’autore non hanno alcuna base scientifica.
    Diana, basandosi su oggettive dinamiche dell’algoritmo, sottolinea come tali descrizioni nascano da un errore categoriale: interpretare semplici output testuali come se fossero esperienze soggettive.
    Questa antropomorfizzazione, alimentata anche da dichiarazioni di ricercatori come Ilya Sutskever, contribuirebbe a generare hype e confusione nel dibattito pubblico sull’IA.
    Il rischio, conclude l’autore, è che documenti tecnici influenzino media, politici e finanziamenti basandosi su metafore fuorvianti anziché su una descrizione rigorosa di come funzionano realmente i modelli linguistici.

    Vi lascio il link e vi invito a leggere questo godibilissimo esempio di vero giornalismo:
    https://www.huffingtonpost.it/blog/2026/03/09/news/quando_i_ricercatori_si_sentono_demiurghi-21380005/

  • I chatbot falliscono il “test dell’autolavaggio” e riaccendono il dibattito sul “buon senso” artificiale

    Un test virale sui social ha messo in difficoltà diversi chatbot, tra cui ChatGPT, Copilot, Grok, Le Chat di Mistral e Perplexity, ponendo una domanda apparentemente banale: se devo lavare l’auto e l’autolavaggio è a 100 metri, ci vado a piedi o in macchina?
    Molti modelli hanno risposto suggerendo di andare a piedi, concentrandosi sulla distanza e trascurando l’obiettivo implicito di portare l’auto all’autolavaggio.
    Tra i sistemi citati, Gemini di Google avrebbe mostrato una maggiore capacità di collegare l’intento alla necessità pratica di guidare il veicolo.
    Il caso evidenzia un limite strutturale dei modelli linguistici: l’analisi letterale delle parole prevale spesso sulla comprensione dell’intenzione e del contesto reale.
    La vicenda rafforza l’invito alla prudenza nell’affidarsi senza verifica alle risposte generate dall’AI.

    Link alla fonte:
    https://www.punto-informatico.it/chatbot-crisi-domanda-semplice-manda-titlt-ai/

  • ChatGPT: il “super-motore di ricerca” che tutti usano, ma nessuno capisce davvero

    Gennaio 2026. ChatGPT ha superato gli 800 milioni di utenti settimanali attivi in tutto il mondo, con picchi di 900 milioni in alcuni periodi dell’anno scorso. Negli Stati Uniti, un terzo degli adulti lo ha provato almeno una volta, mentre tra i teenager la penetrazione sfiora il 60%, con quasi un terzo che lo consulta quotidianamente. Numeri da capogiro, che farebbero invidia a qualsiasi innovazione tecnologica degli ultimi decenni. Sembra l’adozione definitiva di una tecnologia “mainstream”, destinata a rivoluzionare il modo in cui lavoriamo, studiamo e pensiamo.

    Eppure, c’è un piccolo dettaglio: la maggior parte degli utenti crede che ChatGPT funzioni come “un motore di ricerca particolarmente furbo”.

    Secondo un’indagine del Searchlight Institute condotta nell’estate 2025 su oltre 2.300 adulti americani, il 45% è convinto che, quando si pone una domanda a ChatGPT, l’IA “cerchi la risposta esatta in un database”. Un altro 21% pensa che segua “script pre-scritti”, come un albero decisionale sofisticato. Solo il 28% comprende che si tratta di generazione probabilistica: il modello prevede la parola successiva basandosi su pattern appresi da enormi quantità di testo, senza alcun “lookup” diretto.

    In altre parole, sette utenti su dieci trattano ChatGPT come una “versione potenziata di Google”, convinti che stia recuperando fatti da un archivio immacolato, mentre sta inventando – sì, letteralmente inventando – frasi plausibili in tempo reale dagli atomi di linguaggio che ha assorbito e organizzato per affinità e frequenza durante il suo addestramento. È più simile a uno specchio che riflette le strutture del linguaggio umano che a una finestra aperta sulla realtà: restituisce immagini plausibili e ben formate, ma non garantisce che ciò che vedi “là fuori” esista davvero così com’è.

    Questo equivoco non è innocuo, attenzione. Se si pensa che l’IA “cerchi” e “trovi” risposte, si tende a fidarsi ciecamente, ignorando le “allucinazioni” – quelle risposte plausibili ma completamente inventate – che continuano a infestare anche i modelli più avanzati. Pew Research conferma: nel 2025, il 34% degli adulti americani ha usato ChatGPT, ma la consapevolezza dei suoi limiti rimane bassa. Tra i giovani, che lo impiegano massicciamente per compiti scolastici, il rischio è ancora maggiore: trattare un generatore probabilistico come un’enciclopedia infallibile può portare a una dipendenza acritica, proprio mentre le competenze di verifica e pensiero critico dovrebbero essere al centro della formazione.

    Il paradosso è intrigante: mai, nella storia una tecnologia, si era diffusa così rapidamente con una comprensione così limitata del suo funzionamento. È come se milioni di persone guidassero automobili elettriche convinte che funzionino ancora a benzina. Funziona, va veloce, è comoda… ma prima o poi qualcuno si chiederà perché non ci sia il serbatoio.

    Forse è ora di aggiornare il “manuale d’istruzioni”. O, più realisticamente, di investire in alfabetizzazione all’IA, come sto facendo ormai io stesso, da oltre due anni, attraverso libri e formazione, senza demonizzare lo strumento come fanno spesso i media mainstream o i “cacciatori di click”, piuttosto spingere a usarlo con gli occhi e la mente ben aperti. Altrimenti, rischiamo di avere una società iper-connessa con un’intelligenza artificiale collettiva che, ironicamente, rimane piuttosto… analogica nelle sue convinzioni.

    Perché, in fondo, ChatGPT più che un “motore di ricerca”, è un “improvvisatore geniale”, statistico e probabilistico. E merita un pubblico che lo apprezzi per quello che è, non per quello che crede di essere.