Una nuova analisi basata su studi di Ocse, Unesco, NewsGuard, MIT e Swiss Business School evidenzia come l’affidabilità dei principali chatbot generativi sia peggiorata nell’ultimo anno, nonostante l’integrazione con ricerche web in tempo reale.
Nel 2025 la percentuale di risposte false è aumentata per molti modelli: ChatGPT e Meta raggiungono il 40%, Mistral e Copilot il 36,7%, You.com e Grok oltre il 33%, mentre Perplexity (46,7%) e Inflection (56,7%) mostrano i tassi più elevati.
Questo conferma che il problema non riguarda un singolo strumento, ma l’intera categoria dei modelli conversazionali, spesso progettati per rispondere comunque anche quando le fonti sono deboli. Come abbiamo visto dal titolo del Corriere, però, è più facile e redditizio puntare il dito sul chatbot AI per antonomasia.
A ciò si aggiungono limiti nei ragionamenti complessi, la tendenza a riprodurre bias di genere e un effetto di “compiacenza” che porta l’AI a privilegiare risposte gradite all’utente.
Gli studi del MIT e di ricercatori britannici segnalano inoltre un impatto negativo su memoria, pensiero critico e capacità di elaborazione quando l’AI viene usata in modo sostitutivo, anziché come supporto cognitivo consapevole.

