OpenAI ammette: le “allucinazioni” dei chatbot non sono eliminabili

Un recente paper dei ricercatori di OpenAI riconosce che le “allucinazioni” dei modelli linguistici come ChatGPT non possono essere completamente risolte con l’approccio attuale.

Il problema deriva dal modo in cui i LLM vengono addestrati: fornire sempre una risposta è più “premiato” che ammettere di non sapere.

Questo meccanismo statistico spinge i modelli a “tirare a indovinare”, generando risposte plausibili ma errate.

OpenAI propone di penalizzare le risposte sbagliate date con sicurezza, incentivando invece l’incertezza, ma ciò implicherebbe un cambio profondo nei sistemi di valutazione e un aumento dei costi computazionali.

Alcuni esperti, come Wei Xing dell’Università di Sheffield, avvertono che un ChatGPT più prudente rischierebbe di diventare meno utile e meno utilizzato, pur guadagnando in affidabilità.

Link alla fonte:

Allucinazioni, la soluzione di OpenAI potrebbe cambiare per sempre ChatGpt | Wired Italia