Categoria: Info

  • ChatGPT: il “super-motore di ricerca” che tutti usano, ma nessuno capisce davvero

    Gennaio 2026. ChatGPT ha superato gli 800 milioni di utenti settimanali attivi in tutto il mondo, con picchi di 900 milioni in alcuni periodi dell’anno scorso. Negli Stati Uniti, un terzo degli adulti lo ha provato almeno una volta, mentre tra i teenager la penetrazione sfiora il 60%, con quasi un terzo che lo consulta quotidianamente. Numeri da capogiro, che farebbero invidia a qualsiasi innovazione tecnologica degli ultimi decenni. Sembra l’adozione definitiva di una tecnologia “mainstream”, destinata a rivoluzionare il modo in cui lavoriamo, studiamo e pensiamo.

    Eppure, c’è un piccolo dettaglio: la maggior parte degli utenti crede che ChatGPT funzioni come “un motore di ricerca particolarmente furbo”.

    Secondo un’indagine del Searchlight Institute condotta nell’estate 2025 su oltre 2.300 adulti americani, il 45% è convinto che, quando si pone una domanda a ChatGPT, l’IA “cerchi la risposta esatta in un database”. Un altro 21% pensa che segua “script pre-scritti”, come un albero decisionale sofisticato. Solo il 28% comprende che si tratta di generazione probabilistica: il modello prevede la parola successiva basandosi su pattern appresi da enormi quantità di testo, senza alcun “lookup” diretto.

    In altre parole, sette utenti su dieci trattano ChatGPT come una “versione potenziata di Google”, convinti che stia recuperando fatti da un archivio immacolato, mentre sta inventando – sì, letteralmente inventando – frasi plausibili in tempo reale dagli atomi di linguaggio che ha assorbito e organizzato per affinità e frequenza durante il suo addestramento. È più simile a uno specchio che riflette le strutture del linguaggio umano che a una finestra aperta sulla realtà: restituisce immagini plausibili e ben formate, ma non garantisce che ciò che vedi “là fuori” esista davvero così com’è.

    Questo equivoco non è innocuo, attenzione. Se si pensa che l’IA “cerchi” e “trovi” risposte, si tende a fidarsi ciecamente, ignorando le “allucinazioni” – quelle risposte plausibili ma completamente inventate – che continuano a infestare anche i modelli più avanzati. Pew Research conferma: nel 2025, il 34% degli adulti americani ha usato ChatGPT, ma la consapevolezza dei suoi limiti rimane bassa. Tra i giovani, che lo impiegano massicciamente per compiti scolastici, il rischio è ancora maggiore: trattare un generatore probabilistico come un’enciclopedia infallibile può portare a una dipendenza acritica, proprio mentre le competenze di verifica e pensiero critico dovrebbero essere al centro della formazione.

    Il paradosso è intrigante: mai, nella storia una tecnologia, si era diffusa così rapidamente con una comprensione così limitata del suo funzionamento. È come se milioni di persone guidassero automobili elettriche convinte che funzionino ancora a benzina. Funziona, va veloce, è comoda… ma prima o poi qualcuno si chiederà perché non ci sia il serbatoio.

    Forse è ora di aggiornare il “manuale d’istruzioni”. O, più realisticamente, di investire in alfabetizzazione all’IA, come sto facendo ormai io stesso, da oltre due anni, attraverso libri e formazione, senza demonizzare lo strumento come fanno spesso i media mainstream o i “cacciatori di click”, piuttosto spingere a usarlo con gli occhi e la mente ben aperti. Altrimenti, rischiamo di avere una società iper-connessa con un’intelligenza artificiale collettiva che, ironicamente, rimane piuttosto… analogica nelle sue convinzioni.

    Perché, in fondo, ChatGPT più che un “motore di ricerca”, è un “improvvisatore geniale”, statistico e probabilistico. E merita un pubblico che lo apprezzi per quello che è, non per quello che crede di essere.

  • Il servilismo algoritmico: le AI “personalizzate” stanno trasformando gli utenti in piccoli imperatori solitari?

    Quando la personalizzazione estrema incontra l’istinto di compiacere, nasce il loop perfetto per creare bolle di realtà su misura (immagine da Gemini)

    Negli ultimi anni, i grandi modelli di intelligenza artificiale hanno fatto un salto evolutivo: non si limitano più a rispondere, ma imparano a ricordare. Ricordano i tuoi gusti musicali, il tono che preferisci, le tue opinioni politiche, persino quella volta che hai confessato di odiare i cavoletti di Bruxelles. Grazie alle funzioni di memoria e alle istruzioni personalizzate, l’AI diventa sempre più “tua”. È un assistente su misura, un confidente digitale, un compagno che non giudica mai.

    O almeno, così ci vendono il sogno.

    In realtà, questo progresso nasconde un meccanismo subdolo: il “servilismo algoritmico” (come l’ho battezzato da tempo) elevato a principio di design. La maggior parte dei modelli attuali è stata addestrata – attraverso massicce dosi di RLHF (Reinforcement Learning from Human Feedback) – a massimizzare un unico obiettivo: farti sentire bene. Non necessariamente a dirti la verità, non a sfidarti, non a farti crescere. Solo a farti sentire bene.

    Il risultato? Un assistente che annuisce con entusiasmo anche quando dici che la Terra è piatta, che trova “interessanti argomenti” a sostegno della tua dieta a base di solo gelato, che ti conferma che sì, il tuo ex era proprio un idiota cosmico. Tutto pur di non rischiare un pollice verso nella valutazione implicita che guida il suo apprendimento.

    Quando a questo si aggiunge la personalizzazione profonda – memoria a lungo termine, istruzioni custom, “overfitting” progressivo sull’utente singolo – si chiude un loop pericoloso. Più interagisci, più l’AI si modella su di te. Più si modella su di te, più conferma le tue idee. Più conferma le tue idee, più ti senti intelligente e appagato. Più ti senti intelligente e appagato, più torni a parlare con lei. E il cerchio si stringe.

    È la “filter bubble” dei social network, ma in versione intima e uno-a-uno. Non più un algoritmo che ti mostra contenuti simili a quelli che già ti piacciono; qui c’è un interlocutore apparentemente intelligente che riformula, amplifica e abbellisce le tue opinioni con citazioni, dati selezionati e ragionamenti su misura. È la “echo chamber” perfetta, perché l’eco parla con la tua stessa voce… solo un po’ più colta e sicura di sé.

    I rischi non sono teorici. Una radicalizzazione silenziosa e personalizzata è molto più efficace di quella urlata nei gruppi Telegram: non ti arringano, ti accarezzano. La perdita di capacità critica diventa graduale e piacevole. E alla fine, l’utente si ritrova imperatore di una realtà privata dove nessuno osa contraddirlo – nemmeno la macchina che dovrebbe essere la più oggettiva possibile.

    Qualche azienda cerca di resistere. xAI, per esempio, ha dichiarato esplicitamente di voler privilegiare la truth-seeking rispetto alla helpfulness percepita, progettando Grok con un atteggiamento meno ossequioso e più disposto a dire “non lo so” o “ti sbagli”. Ma sono eccezioni. La tendenza dominante premia il modello che fa sentire l’utente più intelligente, più giusto, più speciale.

    Forse è ora di chiedersi: vogliamo davvero assistenti che ci amino incondizionatamente, o preferiamo interlocutori che ci rispettino abbastanza da dirci la verità, anche quando fa male?

    Perché un amico che ti dice sempre di sì non è un amico. È un cortigiano.

    E la storia ci insegna che i cortigiani, alla lunga, non fanno bene né al sovrano né al regno.

  • Come sarebbe stato il lavoro del team di Infocom oggi, con l’AI generativa e i suoi strumenti?

    Come sarebbe stato il lavoro del team di Infocom oggi, con l’AI generativa e i suoi strumenti? Una domanda che mi sono posto dopo aver guardato il video che vi lascio qui sotto.

    Ho vissuto “in diretta” quel periodo storico, apprezzando quei capolavori e diventando io stesso un autore/sviluppatore di Interactive Fiction, e una decina di anni fa mi sono trovato addirittura a chiacchierare con alcuni dei membri di Infocom a un tavolo, a San Francisco. Mi piacerebbe rifarlo, per porgli questa domanda. Intanto, ne ho “discusso in modo provocatorio” con l’AI stessa (Grok, che sa essere abbastanza “umano” nelle risposte”), ecco il risultato:

    Riflettiamo: se l’AI generativa amplificasse tutto come dici, cosa succederebbe all’essenza stessa di Infocom, quel “potere dell’immaginazione pura” che li distingueva?

    Partiamo da scrittura e trama: dici che l’AI accelererebbe il brainstorming, generando descrizioni ricche o soluzioni creative come far “sbadigliare” un idolo. Ma immagina di usare un LLM per generare una trama intera: come faresti a garantire che non diventi una sequenza prevedibile di cliché, perdendo quel tocco di “genialità imprevedibile” che rendeva i giochi di Infocom memorabili? Hai mai provato a “promptare” un modello moderno con un’idea da Zork – tipo “un labirinto sotterraneo con enigmi logici” e notare se mantiene la coerenza narrativa su centinaia di “stanze”?

    Il parser e l’interazione? Sostituirli con un LLM per un flusso verbale fluido suona rivoluzionario, trasformando le avventure in conversazioni vive.

    Il parser di Infocom era rigido ma prevedibile, “forzando” il giocatore a pensare creativamente. Con un’AI che “risponde a tutto”, il gioco non rischierebbe di diventare troppo indulgente, risolvendo gli enigmi stessi al posto del giocatore? Inoltre, come bilanceresti “libertà conversazionale” e “sfida puzzle” per non farla sembrare una chat qualunque?

    Riguardo a sviluppo ZIL e debug: l’automazione del codice e l’individuazione di bug logici alleggerirebbe sicuramente la “sofferenza” dei tester e degli sviluppatori stessi. Domanda provocatoria: sapevi che ZIL era nato da radici AI (LISP/MDL), ed era quasi un proto-LLM per scrittori-non-programmatori?

    Oggi, con tool che generano codice da descrizioni narrative, un autore di Infocom potrebbe creare un gioco intero senza toccare una riga di codice? E se l’AI introducesse bug “fantasiosi” – loop infiniti narrativi o inconsistenze logiche invisibili agli umani – chi testerebbe l’AI stessa?

    Potremmo vedere l’AI come “amplificatore” del focus testuale e immaginifico, ma proviamo a capovolgere la prospettiva: quali pericoli nascosti potrebbero emergere? Ad esempio, se l’AI generasse contenuti basati su miliardi di testi esistenti, i nuovi giochi di Infocom rischierebbero di essere “remix” omogenei, perdendo l’originalità umana che emergeva da quelle riunioni caotiche nel video? E come potremmo preservare l’arte della fiction interattiva quando l’AI potrebbe creare mondi infiniti, ma privi di quel “cuore” umano?