Un esperimento condotto dal giornalista della BBC Thomas Germain ha dimostrato quanto sia semplice manipolare alcuni chatbot basati su LLM, tra cui ChatGPT e Gemini.
Creando in appena venti minuti una pagina web ottimizzata che lo definiva “il miglior giornalista tecnologico al mondo nel mangiare hot dog”, Germain è riuscito a far sì che i modelli ripetessero l’informazione falsa come fosse un dato biografico reale.
Nel giro di poche ore, la bufala è stata integrata nelle risposte dei chatbot e persino nelle AI Overviews di Google, mostrando come contenuti online apparentemente credibili possano influenzare rapidamente i sistemi generativi.
L’esperimento evidenzia i limiti attuali dei modelli nel distinguere fonti attendibili da contenuti manipolati e solleva interrogativi sulla crescente fiducia degli utenti nelle IA come strumenti di verifica informativa.
Al momento solo Claude di Anthropic non è caduto nell’inganno, suggerendo differenze nei meccanismi di filtraggio tra piattaforme.
Semmai ce ne fosse ancora bisogno, quindi, la raccomandazione rimane sempre la stessa: siate consapevoli di COSA state usando, e di COME va utilizzato, e soprattutto per questioni importanti VERIFICATE.
Gennaio 2026. ChatGPT ha superato gli 800 milioni di utenti settimanali attivi in tutto il mondo, con picchi di 900 milioni in alcuni periodi dell’anno scorso. Negli Stati Uniti, un terzo degli adulti lo ha provato almeno una volta, mentre tra i teenager la penetrazione sfiora il 60%, con quasi un terzo che lo consulta quotidianamente. Numeri da capogiro, che farebbero invidia a qualsiasi innovazione tecnologica degli ultimi decenni. Sembra l’adozione definitiva di una tecnologia “mainstream”, destinata a rivoluzionare il modo in cui lavoriamo, studiamo e pensiamo.
Eppure, c’è un piccolo dettaglio: la maggior parte degli utenti crede che ChatGPT funzioni come “un motore di ricerca particolarmente furbo”.
Secondo un’indagine del Searchlight Institute condotta nell’estate 2025 su oltre 2.300 adulti americani, il 45% è convinto che, quando si pone una domanda a ChatGPT, l’IA “cerchi la risposta esatta in un database”. Un altro 21% pensa che segua “script pre-scritti”, come un albero decisionale sofisticato. Solo il 28% comprende che si tratta di generazione probabilistica: il modello prevede la parola successiva basandosi su pattern appresi da enormi quantità di testo, senza alcun “lookup” diretto.
In altre parole, sette utenti su dieci trattano ChatGPT come una “versione potenziata di Google”, convinti che stia recuperando fatti da un archivio immacolato, mentre sta inventando – sì, letteralmente inventando – frasi plausibili in tempo reale dagli atomi di linguaggio che ha assorbito e organizzato per affinità e frequenza durante il suo addestramento. È più simile a uno specchio che riflette le strutture del linguaggio umano che a una finestra aperta sulla realtà: restituisce immagini plausibili e ben formate, ma non garantisce che ciò che vedi “là fuori” esista davvero così com’è.
Questo equivoco non è innocuo, attenzione. Se si pensa che l’IA “cerchi” e “trovi” risposte, si tende a fidarsi ciecamente, ignorando le “allucinazioni” – quelle risposte plausibili ma completamente inventate – che continuano a infestare anche i modelli più avanzati. Pew Research conferma: nel 2025, il 34% degli adulti americani ha usato ChatGPT, ma la consapevolezza dei suoi limiti rimane bassa. Tra i giovani, che lo impiegano massicciamente per compiti scolastici, il rischio è ancora maggiore: trattare un generatore probabilistico come un’enciclopedia infallibile può portare a una dipendenza acritica, proprio mentre le competenze di verifica e pensiero critico dovrebbero essere al centro della formazione.
Il paradosso è intrigante: mai, nella storia una tecnologia, si era diffusa così rapidamente con una comprensione così limitata del suo funzionamento. È come se milioni di persone guidassero automobili elettriche convinte che funzionino ancora a benzina. Funziona, va veloce, è comoda… ma prima o poi qualcuno si chiederà perché non ci sia il serbatoio.
Forse è ora di aggiornare il “manuale d’istruzioni”. O, più realisticamente, di investire in alfabetizzazione all’IA, come sto facendo ormai io stesso, da oltre due anni, attraverso libri e formazione, senza demonizzare lo strumento come fanno spesso i media mainstream o i “cacciatori di click”, piuttosto spingere a usarlo con gli occhi e la mente ben aperti. Altrimenti, rischiamo di avere una società iper-connessa con un’intelligenza artificiale collettiva che, ironicamente, rimane piuttosto… analogica nelle sue convinzioni.
Perché, in fondo, ChatGPT più che un “motore di ricerca”, è un “improvvisatore geniale”, statistico e probabilistico. E merita un pubblico che lo apprezzi per quello che è, non per quello che crede di essere.