Tag: Società

  • ChatGPT: il “super-motore di ricerca” che tutti usano, ma nessuno capisce davvero

    Gennaio 2026. ChatGPT ha superato gli 800 milioni di utenti settimanali attivi in tutto il mondo, con picchi di 900 milioni in alcuni periodi dell’anno scorso. Negli Stati Uniti, un terzo degli adulti lo ha provato almeno una volta, mentre tra i teenager la penetrazione sfiora il 60%, con quasi un terzo che lo consulta quotidianamente. Numeri da capogiro, che farebbero invidia a qualsiasi innovazione tecnologica degli ultimi decenni. Sembra l’adozione definitiva di una tecnologia “mainstream”, destinata a rivoluzionare il modo in cui lavoriamo, studiamo e pensiamo.

    Eppure, c’è un piccolo dettaglio: la maggior parte degli utenti crede che ChatGPT funzioni come “un motore di ricerca particolarmente furbo”.

    Secondo un’indagine del Searchlight Institute condotta nell’estate 2025 su oltre 2.300 adulti americani, il 45% è convinto che, quando si pone una domanda a ChatGPT, l’IA “cerchi la risposta esatta in un database”. Un altro 21% pensa che segua “script pre-scritti”, come un albero decisionale sofisticato. Solo il 28% comprende che si tratta di generazione probabilistica: il modello prevede la parola successiva basandosi su pattern appresi da enormi quantità di testo, senza alcun “lookup” diretto.

    In altre parole, sette utenti su dieci trattano ChatGPT come una “versione potenziata di Google”, convinti che stia recuperando fatti da un archivio immacolato, mentre sta inventando – sì, letteralmente inventando – frasi plausibili in tempo reale dagli atomi di linguaggio che ha assorbito e organizzato per affinità e frequenza durante il suo addestramento. È più simile a uno specchio che riflette le strutture del linguaggio umano che a una finestra aperta sulla realtà: restituisce immagini plausibili e ben formate, ma non garantisce che ciò che vedi “là fuori” esista davvero così com’è.

    Questo equivoco non è innocuo, attenzione. Se si pensa che l’IA “cerchi” e “trovi” risposte, si tende a fidarsi ciecamente, ignorando le “allucinazioni” – quelle risposte plausibili ma completamente inventate – che continuano a infestare anche i modelli più avanzati. Pew Research conferma: nel 2025, il 34% degli adulti americani ha usato ChatGPT, ma la consapevolezza dei suoi limiti rimane bassa. Tra i giovani, che lo impiegano massicciamente per compiti scolastici, il rischio è ancora maggiore: trattare un generatore probabilistico come un’enciclopedia infallibile può portare a una dipendenza acritica, proprio mentre le competenze di verifica e pensiero critico dovrebbero essere al centro della formazione.

    Il paradosso è intrigante: mai, nella storia una tecnologia, si era diffusa così rapidamente con una comprensione così limitata del suo funzionamento. È come se milioni di persone guidassero automobili elettriche convinte che funzionino ancora a benzina. Funziona, va veloce, è comoda… ma prima o poi qualcuno si chiederà perché non ci sia il serbatoio.

    Forse è ora di aggiornare il “manuale d’istruzioni”. O, più realisticamente, di investire in alfabetizzazione all’IA, come sto facendo ormai io stesso, da oltre due anni, attraverso libri e formazione, senza demonizzare lo strumento come fanno spesso i media mainstream o i “cacciatori di click”, piuttosto spingere a usarlo con gli occhi e la mente ben aperti. Altrimenti, rischiamo di avere una società iper-connessa con un’intelligenza artificiale collettiva che, ironicamente, rimane piuttosto… analogica nelle sue convinzioni.

    Perché, in fondo, ChatGPT più che un “motore di ricerca”, è un “improvvisatore geniale”, statistico e probabilistico. E merita un pubblico che lo apprezzi per quello che è, non per quello che crede di essere.

  • Chi ha paura dell’AI? Klaus Schwab avverte su Time: l’intelligenza artificiale indebolisce la realtà condivisa e la fiducia nei sistemi

    Klaus Schwab, fondatore del World Economic Forum, ha pubblicato su Time una riflessione sull’“età intelligente”, sostenendo che l’intelligenza artificiale stia erodendo la fiducia operativa necessaria al funzionamento delle società.
    Secondo Schwab, il problema non è solo la diffusione di contenuti falsi, ma la difficoltà crescente nel distinguere ciò che è autentico, con il rischio di indebolire l’idea stessa di una realtà condivisa.
    In questo contesto, la conoscenza scientifica rischia di essere percepita come una narrazione tra le altre, perdendo il suo ruolo di riferimento per le decisioni collettive.
    L’AI, producendo risposte plausibili e coerenti, può spostare l’attenzione dalla verifica all’utilità immediata, alimentando bias e un circolo vizioso informativo.
    Schwab conclude avvertendo che la frammentazione della verità e il deterioramento della fiducia potrebbero portare a una fase di instabilità politica, economica e sociale.

    Link alla fonte:
    https://www.ilgiornale.it/news/nuove-frontiere/paura-schwab-su-time-l-intelligenza-artificiale-indebolisce-2591658.html

  • Nasce l’empatia artificiale: l’AI sanitaria impara a riconoscere e simulare le emozioni

    Una revisione pubblicata sulla rivista Cyborg and Bionic Systems analizza l’emergere dell’“empatia artificiale” in sanità, ovvero la capacità delle tecnologie AI di percepire, interpretare e simulare risposte empatiche nelle interazioni con i pazienti.
    In un contesto globale segnato da una crescente carenza di personale sanitario, robot sociali, giochi multiplayer terapeutici e agenti virtuali vengono proposti come strumenti di supporto emotivo oltre che funzionale.
    Secondo Tianyu Jia, ricercatore dell’Imperial College London, l’empatia artificiale si basa su algoritmi di riconoscimento delle emozioni che utilizzano segnali comportamentali e fisiologici, senza un’esperienza affettiva genuina.
    Gli autori evidenziano il potenziale dei modelli generativi e multimodali per interazioni più naturali, ma anche limiti importanti, dalla scarsa validazione clinica ai rischi etici di “pseudo-empatia” e falso attaccamento.
    La conclusione è chiara: queste tecnologie dovrebbero integrare, non sostituire, la relazione umana nella cura.

    Link alla fonte:
    https://www.lastampa.it/cronaca/2026/01/06/news/empatia_artificiale_sanita_strumenti_comprensione_emozioni-15457419/amp/