Secondo Walter Quattrociocchi, Professore Ordinario di Informatica alla Sapienza, la disinformazione non è un’anomalia ma un prodotto sistemico dovuto a bias cognitivi e algoritmi che amplificano contenuti conformi alle credenze esistenti. L’avvento dei modelli linguistici generativi ha aggravato la crisi epistemica: queste AI producono testi credibili nella forma, ma privi di comprensione reale. In un contesto dove l’apparenza sostituisce la sostanza, diventa urgente adottare un approccio analitico e critico, capace di smascherare le illusioni della “conoscenza simulata”. Quattrociocchi invita a diffidare della forma per recuperare il senso autentico del sapere.
Link alla fonte:
https://www.corriere.it/tecnologia/25_luglio_23/l-inganno-perfetto-dell-intelligenza-artificiale-scrive-bene-ma-non-sa-nulla-fb94a79f-efb9-413f-a642-d82cda9e4xlk.shtml
Tag: LLM
-
Quattrociocchi: l’AI scrive bene ma non sa nulla, è allarme su crisi epistemica?
-
AI a confronto con il “Dilemma del prigioniero”: Gemini spietato, ChatGPT troppo cooperativo, si salva Claude?
Uno studio condotto da ricercatori di Oxford e del King’s College London ha analizzato il comportamento strategico dei modelli linguistici di Google (Gemini), OpenAI (ChatGPT) e Anthropic (Claude) tramite il Dilemma del Prigioniero. Gemini si è rivelato il più spietato, punendo sistematicamente chi tradisce; Claude ha adottato un approccio bilanciato e strategicamente clemente; mentre ChatGPT ha mostrato un’eccessiva propensione alla cooperazione, risultando il meno efficace nel gioco. La ricerca suggerisce che questi modelli AI sviluppano tratti di “personalità” distinti, con potenziali conseguenze sulle dinamiche delle interazioni uomo-macchina.
Link alla fonte:
https://www.tomshw.it/business/gemini-severo-chatgpt-troppo-cooperativo-studio-2025-07-22 -
Verso modelli linguistici più “culturali”: meno parametri, più efficienza
Negli ultimi anni, lo sviluppo dei modelli linguistici ha segnato un cambiamento di rotta, privilegiando l’efficienza e la qualità dell’addestramento rispetto alla sola crescita dei parametri. L’architettura Transformer del 2017 ha aperto la strada, ma oggi l’attenzione si concentra su modelli più piccoli – i cosiddetti Small Language Models (SLM) – e su metodologie di training più sofisticate. I tre filoni chiave dell’innovazione sono la multimodalità, l’interazione con strumenti esterni e l’ottimizzazione delle tecniche di apprendimento. La nuova sfida consiste nel bilanciare struttura e cultura, puntando su un’intelligenza artificiale meno energivora ma altrettanto performante.
Link alla fonte:
https://24plus.ilsole24ore.com/art/le-nuove-strategie-sviluppo-ai-piu-cultura-che-dimensioni-modelli-AHpoirpB
