I chatbot basati su modelli linguistici, come ChatGPT, producono testi fluidi ma spesso imprecisi a causa di una struttura che predice parole senza comprendere concetti. Questi errori, detti “allucinazioni”, sono sistemici e difficili da eliminare, anche con tecniche di grounding che integrano dati verificati. L’aumento del loro utilizzo rischia di amplificare la disinformazione. Walter Quattrociocchi ribadisce che l’IA nei chatbot non è vera intelligenza, ma uno strumento statistico che richiede supervisione umana. Il futuro dell’AI passa da un equilibrio tra accuratezza e creatività, con consapevolezza dei suoi limiti strutturali.
Link alla fonte:
https://www.linkiesta.it/2025/07/erorri-allucinazioni-intelligenza-artificiale-linguaggio-chatgpt/
