Un recente paper dei ricercatori di OpenAI riconosce che le “allucinazioni” dei modelli linguistici come ChatGPT non possono essere completamente risolte con l’approccio attuale.
Il problema deriva dal modo in cui i LLM vengono addestrati: fornire sempre una risposta è più “premiato” che ammettere di non sapere.
Questo meccanismo statistico spinge i modelli a “tirare a indovinare”, generando risposte plausibili ma errate.
OpenAI propone di penalizzare le risposte sbagliate date con sicurezza, incentivando invece l’incertezza, ma ciò implicherebbe un cambio profondo nei sistemi di valutazione e un aumento dei costi computazionali.
Alcuni esperti, come Wei Xing dell’Università di Sheffield, avvertono che un ChatGPT più prudente rischierebbe di diventare meno utile e meno utilizzato, pur guadagnando in affidabilità.
Link alla fonte:
Allucinazioni, la soluzione di OpenAI potrebbe cambiare per sempre ChatGpt | Wired Italia

