In un contesto sempre più dominato dall’intelligenza artificiale, il filosofo Luciano Floridi introduce il concetto di capitale semantico per spiegare ciò che rende l’essere umano insostituibile.
Questo capitale comprende l’insieme di esperienze, cultura, conoscenze e storie personali che danno significato alla nostra vita e orientano le nostre scelte.
Secondo Floridi, l’AI rende più evidente il valore specificamente umano, distinguendo il contributo creativo, critico ed etico dalla semplice automazione.
La valorizzazione del capitale semantico può inoltre ridurre le disuguaglianze sociali e favorire un uso dell’AI come strumento di supporto, non di sostituzione.
In questo scenario, il non profit e l’educazione hanno un ruolo cruciale nel difendere e arricchire la pluralità dei significati contro l’omologazione tecnologica.
Link alla fonte:
https://www.vita.it/storie-e-persone/nellera-dellintelligenza-artificiale-si-salvera-chi-nutrira-il-suo-capitale-semantico/
Tag: Società
-
L’era dell’AI premia chi coltiva il “capitale semantico”, secondo Luciano Floridi
-
ChatGPT: il “super-motore di ricerca” che tutti usano, ma nessuno capisce davvero

Gennaio 2026. ChatGPT ha superato gli 800 milioni di utenti settimanali attivi in tutto il mondo, con picchi di 900 milioni in alcuni periodi dell’anno scorso. Negli Stati Uniti, un terzo degli adulti lo ha provato almeno una volta, mentre tra i teenager la penetrazione sfiora il 60%, con quasi un terzo che lo consulta quotidianamente. Numeri da capogiro, che farebbero invidia a qualsiasi innovazione tecnologica degli ultimi decenni. Sembra l’adozione definitiva di una tecnologia “mainstream”, destinata a rivoluzionare il modo in cui lavoriamo, studiamo e pensiamo.
Eppure, c’è un piccolo dettaglio: la maggior parte degli utenti crede che ChatGPT funzioni come “un motore di ricerca particolarmente furbo”.
Secondo un’indagine del Searchlight Institute condotta nell’estate 2025 su oltre 2.300 adulti americani, il 45% è convinto che, quando si pone una domanda a ChatGPT, l’IA “cerchi la risposta esatta in un database”. Un altro 21% pensa che segua “script pre-scritti”, come un albero decisionale sofisticato. Solo il 28% comprende che si tratta di generazione probabilistica: il modello prevede la parola successiva basandosi su pattern appresi da enormi quantità di testo, senza alcun “lookup” diretto.
In altre parole, sette utenti su dieci trattano ChatGPT come una “versione potenziata di Google”, convinti che stia recuperando fatti da un archivio immacolato, mentre sta inventando – sì, letteralmente inventando – frasi plausibili in tempo reale dagli atomi di linguaggio che ha assorbito e organizzato per affinità e frequenza durante il suo addestramento. È più simile a uno specchio che riflette le strutture del linguaggio umano che a una finestra aperta sulla realtà: restituisce immagini plausibili e ben formate, ma non garantisce che ciò che vedi “là fuori” esista davvero così com’è.
Questo equivoco non è innocuo, attenzione. Se si pensa che l’IA “cerchi” e “trovi” risposte, si tende a fidarsi ciecamente, ignorando le “allucinazioni” – quelle risposte plausibili ma completamente inventate – che continuano a infestare anche i modelli più avanzati. Pew Research conferma: nel 2025, il 34% degli adulti americani ha usato ChatGPT, ma la consapevolezza dei suoi limiti rimane bassa. Tra i giovani, che lo impiegano massicciamente per compiti scolastici, il rischio è ancora maggiore: trattare un generatore probabilistico come un’enciclopedia infallibile può portare a una dipendenza acritica, proprio mentre le competenze di verifica e pensiero critico dovrebbero essere al centro della formazione.
Il paradosso è intrigante: mai, nella storia una tecnologia, si era diffusa così rapidamente con una comprensione così limitata del suo funzionamento. È come se milioni di persone guidassero automobili elettriche convinte che funzionino ancora a benzina. Funziona, va veloce, è comoda… ma prima o poi qualcuno si chiederà perché non ci sia il serbatoio.
Forse è ora di aggiornare il “manuale d’istruzioni”. O, più realisticamente, di investire in alfabetizzazione all’IA, come sto facendo ormai io stesso, da oltre due anni, attraverso libri e formazione, senza demonizzare lo strumento come fanno spesso i media mainstream o i “cacciatori di click”, piuttosto spingere a usarlo con gli occhi e la mente ben aperti. Altrimenti, rischiamo di avere una società iper-connessa con un’intelligenza artificiale collettiva che, ironicamente, rimane piuttosto… analogica nelle sue convinzioni.
Perché, in fondo, ChatGPT più che un “motore di ricerca”, è un “improvvisatore geniale”, statistico e probabilistico. E merita un pubblico che lo apprezzi per quello che è, non per quello che crede di essere.
-
Chi ha paura dell’AI? Klaus Schwab avverte su Time: l’intelligenza artificiale indebolisce la realtà condivisa e la fiducia nei sistemi
Klaus Schwab, fondatore del World Economic Forum, ha pubblicato su Time una riflessione sull’“età intelligente”, sostenendo che l’intelligenza artificiale stia erodendo la fiducia operativa necessaria al funzionamento delle società.
Secondo Schwab, il problema non è solo la diffusione di contenuti falsi, ma la difficoltà crescente nel distinguere ciò che è autentico, con il rischio di indebolire l’idea stessa di una realtà condivisa.
In questo contesto, la conoscenza scientifica rischia di essere percepita come una narrazione tra le altre, perdendo il suo ruolo di riferimento per le decisioni collettive.
L’AI, producendo risposte plausibili e coerenti, può spostare l’attenzione dalla verifica all’utilità immediata, alimentando bias e un circolo vizioso informativo.
Schwab conclude avvertendo che la frammentazione della verità e il deterioramento della fiducia potrebbero portare a una fase di instabilità politica, economica e sociale.Link alla fonte:
https://www.ilgiornale.it/news/nuove-frontiere/paura-schwab-su-time-l-intelligenza-artificiale-indebolisce-2591658.html -
Nasce l’empatia artificiale: l’AI sanitaria impara a riconoscere e simulare le emozioni
Una revisione pubblicata sulla rivista Cyborg and Bionic Systems analizza l’emergere dell’“empatia artificiale” in sanità, ovvero la capacità delle tecnologie AI di percepire, interpretare e simulare risposte empatiche nelle interazioni con i pazienti.
In un contesto globale segnato da una crescente carenza di personale sanitario, robot sociali, giochi multiplayer terapeutici e agenti virtuali vengono proposti come strumenti di supporto emotivo oltre che funzionale.
Secondo Tianyu Jia, ricercatore dell’Imperial College London, l’empatia artificiale si basa su algoritmi di riconoscimento delle emozioni che utilizzano segnali comportamentali e fisiologici, senza un’esperienza affettiva genuina.
Gli autori evidenziano il potenziale dei modelli generativi e multimodali per interazioni più naturali, ma anche limiti importanti, dalla scarsa validazione clinica ai rischi etici di “pseudo-empatia” e falso attaccamento.
La conclusione è chiara: queste tecnologie dovrebbero integrare, non sostituire, la relazione umana nella cura.
Link alla fonte:
https://www.lastampa.it/cronaca/2026/01/06/news/empatia_artificiale_sanita_strumenti_comprensione_emozioni-15457419/amp/ -
“Slop” diventa la parola simbolo della “saturazione digitale” causata dall’AI
Il termine “slop” è stato scelto come parola dell’anno 2025 da Merriam-Webster e The Economist, incarnando il crescente disagio globale verso i contenuti digitali di bassa qualità generati dall’intelligenza artificiale.
In origine usata per indicare scarti o rifiuti, la parola è oggi associata a testi, immagini e video prodotti in massa da sistemi automatici senza valore creativo o informativo.
La rapida diffusione dell’AI generativa, trainata anche da aziende come OpenAI, ha contribuito a inondare il web di materiali superficiali e spesso fuorvianti. Secondo editori e analisti, l’affermazione di “slop” segnala una maggiore consapevolezza critica degli utenti nei confronti di questa deriva.
Il dibattito evidenzia, inoltre, la necessità di distinguere tra l’uso dell’AI come strumento di supporto alla creatività umana e il suo impiego per produrre contenuti inutili e non richiesti. -
Italia in ritardo nella comprensione dell’Intelligenza Artificiale
Un’indagine condotta su 23.216 persone in 30 paesi rivela che l’Italia è penultima nella comprensione dell’IA, con solo il 50% degli intervistati che dichiara di capirne il funzionamento, contro una media globale del 67%. Nonostante ciò, il 46% conosce prodotti e servizi basati sull’IA e oltre la metà ritiene che i vantaggi superino gli svantaggi. L’IA è vista come la tecnologia più impattante per il futuro, ma persistono timori legati a privacy, dipendenza tecnologica e perdita di posti di lavoro. La ricerca evidenzia inoltre come l’IA stia già trasformando il modo in cui gli italiani lavorano e si informano.
Link alla fonte:
https://www.ilsole24ore.com/art/italia-bocciata-comprensione-ia-e-penultima-classifica-30-paesi-fa-peggio-solo-giappone-AHEJQ2vB -
Fidji Simo guida la strategia applicativa di OpenAI: AI come strumento di equità sociale
Fidji Simo, CEO di Instacart ed ex dirigente di Meta, è stata nominata responsabile delle applicazioni di OpenAI. Il suo incarico prevede la trasformazione delle ricerche avanzate dell’azienda in prodotti utili e accessibili, come ChatGPT. Simo ha delineato una visione ambiziosa dell’AI come “grande riequilibratore”, capace di migliorare salute, conoscenza e creatività, con proposte come coach virtuali personalizzati. Intende rafforzare la presenza consumer di OpenAI anche attraverso alleanze strategiche e progetti hardware in collaborazione con Jony Ive. La sua nomina segna un ulteriore passo verso l’adozione diffusa e consapevole dell’intelligenza artificiale nella vita quotidiana.
Link alla fonte:
https://www.wired.it/article/fidji-simo-openai-nuova-dirigente-responsabile-applicazioni-ruolo-idee/
