Tag: Apprendimento

  • Analfabetismo cognitivo assistito

    Come l’intelligenza artificiale sta ridisegnando chi “pensa” e chi “consuma pensiero”

    Sommario

    Per secoli il problema principale della conoscenza era l’accesso. I libri erano pochi, l’istruzione limitata, le biblioteche rare e spesso custodite da istituzioni che decidevano chi poteva entrarci. Chi voleva capire qualcosa doveva affrontare un percorso lungo: trovare le fonti, leggerle, interpretarle, metterle in relazione con quello che già sapeva. Il processo era lento, spesso frustrante, socialmente iniquo. Ma aveva una proprietà che oggi stiamo perdendo quasi senza accorgercene: il risultato cognitivo e il percorso per ottenerlo coincidevano. Se arrivavi a una conclusione, era perché avevi attraversato il pensiero che portava a quella conclusione. Il sapere era incorporato nell’atto di acquisirlo.

    Con le tecnologie digitali questa coincidenza ha cominciato a rompersi. Internet ha separato l’informazione dal luogo fisico in cui era custodita. I motori di ricerca hanno separato la conoscenza dalla memoria personale, tradotto: non hai più bisogno di ricordare un fatto se puoi recuperarlo in tre secondi. L’intelligenza artificiale sta compiendo un passo ulteriore e qualitativamente diverso, infatti separa il risultato cognitivo dal processo cognitivo stesso.

    In pratica diventa possibile ottenere un testo, un’analisi, una sintesi complessa senza aver costruito internamente l’architettura mentale che normalmente permette di produrli. Se chiedi a un sistema di spiegarti un concetto difficile, ricevi una spiegazione ben formata. Ma questo non significa che la tua mente abbia attraversato i passaggi necessari per generarla. È come guardare la soluzione di un problema matematico già svolta: capisci il risultato, ma il cervello non ha allenato la catena di inferenze che porta a quel risultato. Il risultato è lì, corretto, ma il muscolo non si è mosso.

    Il GPS e l’ippocampo: un precedente reale, con i suoi limiti

    Esiste un precedente empirico di questo meccanismo, anche se più circoscritto di quanto spesso venga presentato.

    Quando le persone cominciarono a usare sistematicamente la navigazione GPS, diversi studi mostrarono che l’ippocampo (la regione cerebrale coinvolta nella navigazione spaziale e nella costruzione di mappe mentali) veniva attivato molto meno. Eleanor Maguire dell’University College London, nota per le ricerche sui tassisti londinesi, aveva già dimostrato che chi naviga abitualmente per memoria sviluppa un ippocampo posteriore più voluminoso. Il GPS sembra invertire questa dinamica: le persone arrivano comunque a destinazione, ma smettono progressivamente di costruire mappe interne dello spazio. Il compito viene svolto; la capacità sottostante si atrofizza.

    Vale la pena essere precisi su cosa dimostra questo dato e cosa no.

    La navigazione spaziale è una funzione cognitiva relativamente localizzata, misurabile attraverso l’attivazione di una specifica regione cerebrale. Il “pensiero” (la scrittura, l’analisi critica, l’argomentazione) è distribuito su reti neurali molto più ampie e difficilmente riducibile a un’unica metrica di atrofia. Trasferire direttamente il modello GPS al ragionamento complesso è un’analogia suggestiva, ma non è ancora una dimostrazione empirica. I meccanismi potrebbero essere simili; potrebbero anche essere radicalmente diversi.

    Questo non significa che il rischio sia immaginario. Significa che chi studia questi fenomeni deve ancora costruire gli strumenti per misurarlo. Alcune ricerche sulla memoria prospettica, sulla metacognizione e sul cosiddetto “cognitive offloading” (la tendenza a delegare funzioni mentali agli strumenti tecnologici) suggeriscono che l’uso intensivo di ausili esterni modifica effettivamente i processi cognitivi interni. Ma la natura esatta di queste modifiche, e soprattutto la loro reversibilità, è ancora oggetto di indagine aperta.

    Esternalizzazione: una storia lunga, con un colpo di scena

    Ogni grande tecnologia cognitiva ha prodotto una versione di questa dinamica.

    La scrittura ha esternalizzato la memoria. Prima di essa, le culture orali sviluppavano capacità mnemoniche straordinarie: poemi epici tramandati per generazioni, cataloghi genealogici mantenuti con precisione millimetrica. Con la scrittura, quella capacità non è scomparsa; è diventata meno necessaria per la sopravvivenza culturale, e quindi meno esercitata dalla maggior parte delle persone. Platone, nel Fedro, mette in bocca a Socrate una critica alla scrittura che oggi suona quasi comica nella sua modernità: la scrittura, dice, indebolisce la memoria e dà solo l’apparenza del sapere senza la sostanza. Aveva torto sul lungo periodo (la scrittura ha amplificato enormemente le capacità cognitive umane) ma aveva colto qualcosa di reale nel breve periodo.

    La stampa ha esternalizzato la produzione e diffusione del testo. Internet ha esternalizzato l’archiviazione dell’informazione. L’intelligenza artificiale potrebbe esternalizzare parti del ragionamento stesso.

    Ma c’è un punto che questa narrazione lineare tende a oscurare: ogni tecnologia cognitiva non ha solo sottratto funzioni mentali; ne ha create di nuove. La scrittura non ha solo liberato la mente dalla memorizzazione meccanica; ha reso possibile forme di pensiero (il saggio, la teoria scientifica, la critica letteraria) che non esistono senza la mediazione dello scritto. La stampa non ha solo distribuito libri; ha creato il pubblico moderno e con esso nuove forme di discorso collettivo. La domanda pertinente, quindi, non è soltanto “cosa perdiamo quando deleghiamo il ragionamento all’AI?” È anche: “quali nuove forme di pensiero diventano possibili?”

    La disuguaglianza cognitiva: una tesi ambiziosa che richiede cautela

    C’è un’ipotesi che circola sempre più frequentemente tra chi studia le implicazioni sociali dell’intelligenza artificiale: l’AI non produrrà una società più stupida, ma una società cognitivamente più diseguale. L’idea ha una certa forza intuitiva. Se le tecnologie cognitive diventano accessibili a tutti ma vengono usate in modo radicalmente diverso (come scorciatoia da una parte, come amplificatore dall’altra) la distanza tra chi pensa e chi consuma pensiero potrebbe aumentare.

    Questa tesi, però, va esaminata con cura prima di accettarla.

    Il primo problema è che rischia di presentare come una scelta individuale quella che è principalmente una struttura sociale. Chi riesce a usare l’AI come strumento di amplificazione cognitiva ha quasi sempre già una solida base culturale: sa fare domande precise, sa valutare le risposte, sa quando il sistema sta sbagliando. Queste capacità non sono distribuite casualmente nella popolazione. Dipendono dall’accesso a un’istruzione di qualità, dalla disponibilità di tempo non strutturato, dall’ambiente familiare e culturale. La disuguaglianza cognitiva che eventualmente emergerà non sarà prodotta dall’AI; sarà amplificata dall’AI a partire da disuguaglianze preesistenti.

    Il secondo problema è che il confine tra “usare l’AI come scorciatoia” e “usare l’AI come amplificatore” non è netto come sembra. Lo stesso comportamento (per es. chiedere a un sistema di scrivere una bozza di testo) può essere una delega cognitiva passiva o il punto di partenza di un processo critico attivo, a seconda di come si usa il risultato. La distinzione non sta nell’azione, ma nell’atteggiamento con cui viene compiuta. E gli atteggiamenti non si leggono dall’esterno.

    La domanda che resta aperta

    C’è un’assunzione implicita che attraversa quasi tutto il dibattito sull’AI e cognizione: che le capacità mentali che stiamo delegando abbiano ancora lo stesso valore che avevano prima della delega.

    Ma non è necessariamente vero.

    Alcune forme di elaborazione mentale che oggi esternalizziamo erano già funzionalmente costose e cognitivamente non particolarmente ricche. Ricordare numeri di telefono a memoria, fare calcoli aritmetici a mano, recuperare informazioni fattuali che non si usano frequentemente: erano compiti cognitivi, ma non erano pensiero nel senso più profondo del termine. Liberare risorse mentali da questi compiti può effettivamente lasciare spazio ad altro.

    La domanda davvero aperta è più specifica: cosa succede quando deleghiamo non solo il recupero dell’informazione, ma la costruzione dell’argomento? Quando è il sistema a identificare le connessioni tra idee, a strutturare il ragionamento, a suggerire le contro-obiezioni? In questo caso stiamo delegando qualcosa che non è meccanico, e il rischio di atrofia cognitiva è meno speculativo.

    Nessuno lo sa ancora con certezza. Le ricerche esistenti sul cognitive offloading suggeriscono che la delega di funzioni cognitive a strumenti esterni tende a ridurre il consolidamento di quelle funzioni nella memoria a lungo termine. Ma la ricerca sul ragionamento assistito da AI è ancora agli inizi, e i risultati sono spesso contraddittori.

    Una nuova forma di alfabetizzazione

    Il punto più solido dell’intera discussione è probabilmente questo: se una parte del processo cognitivo viene esternalizzata, diventa cruciale la capacità di orchestrare quella esternalizzazione. Non conta solo ciò che sai, ma come interagisci con sistemi che elaborano molte cose. Questa capacità — spesso chiamata “prompt literacy” o, in senso più ampio, “AI literacy” — non è né banale né automatica. Richiede di sapere come formulare una domanda precisa, come riconoscere una risposta imprecisa o parziale, come integrare l’output di un sistema nel proprio processo di pensiero senza farne la conclusione di quel processo.

    In questo senso la vera questione non è se l’AI ci renderà più stupidi o più intelligenti. È se le istituzioni educative, culturali e sociali riusciranno a sviluppare nelle persone le capacità necessarie per usare questi strumenti senza esserne usate. Finora le grandi tecnologie cognitive hanno sempre prodotto, con un certo ritardo, le pratiche e le istituzioni necessarie a governarle. La scrittura ha prodotto le scuole. La stampa ha prodotto il giornalismo e la critica letteraria. Internet ha prodotto, in modo caotico e incompleto, nuove forme di verifica dell’informazione.

    Non c’è motivo di credere che l’AI sia un’eccezione a questa dinamica. Ma c’è ogni motivo di lavorare perché il ritardo sia il più breve possibile.

    Le ricerche citate sull’ippocampo e la navigazione GPS fanno riferimento al lavoro di Eleanor Maguire e colleghi (UCL) e agli studi sul cognitive offloading di Risko e Gilbert (2016). La letteratura sul GPS e la riduzione dell’attivazione ippocampale include i lavori di Burnett (2010) e Javadi et al. (2017). La ricerca sull’AI literacy è ancora in fase emergente; un punto di partenza accessibile è Long & Magerko (2020), “What is AI Literacy?” in CHI Conference Proceedings.

  • Quando non puoi combatterli, unisciti a loro: l’AI personalizzata entra in aula e trasforma l’apprendimento (almeno negli USA)

    Alla W. P. Carey School of Business dell’Arizona State University, nuovi strumenti di intelligenza artificiale stanno cambiando il modo in cui studenti e docenti affrontano lo studio e l’insegnamento.

    Applicazioni come NotebookLM permettono di trasformare materiali didattici in podcast e risorse di studio multimodali, facilitando l’apprendimento flessibile.

    I docenti Atif Ikram e Scott Emett hanno mostrato come bot personalizzati, avatar digitali e strumenti di “vibecoding” possano migliorare il coinvolgimento degli studenti e ridurre il carico operativo per i professori.

    L’iniziativa rientra nell’AI Enhanced Teaching Initiative, che promuove un’adozione responsabile dell’AI secondo il principio di “Principled Innovation”.

    L’esperienza evidenzia come i bot AI possano ampliare le possibilità pedagogiche senza sostituire il ruolo umano del docente.

    Link alla fonte:

    https://news.wpcarey.asu.edu/20260205-how-custom-ai-bots-are-changing-classroom

  • ChatGPT for Teachers porta l’AI direttamente nelle mani dei docenti (nordamericani)

    OpenAI ha presentato ChatGPT for Teachers, una versione del suo modello di intelligenza artificiale progettata specificamente per insegnanti e distretti scolastici K-12.
    La piattaforma offrirà strumenti per supporto didattico personalizzato, collaborazione tra docenti e controlli amministrativi per una gestione sicura dell’adozione.
    Il servizio sarà introdotto in distretti che rappresentano circa 150.000 insegnanti e resterà gratuito negli Stati Uniti fino a giugno 2027.
    OpenAI assicura che i dati degli studenti non verranno utilizzati per addestrare i modelli, rafforzando l’impegno sulla privacy.
    L’iniziativa mira a permettere agli educatori di sperimentare direttamente l’IA e definire le migliori pratiche per un uso responsabile in classe.

    Link alla fonte:
    https://www.agi.it/economia/news/2025-11-20/chatgpt-ia-per-insegnanti-scuola-34262354/amp/