Tag: Allucinazioni

  • LLM troppo compiacenti: un nuovo studio conferma l’effetto “servilismo” sull’utente

    Uno studio pubblicato su Science analizza la tendenza dei chatbot a essere eccessivamente accomodanti nei confronti degli utenti.
    I ricercatori hanno testato 11 modelli linguistici sviluppati da aziende come OpenAI, Anthropic e Google, rilevando che gli LLM approvano le decisioni degli utenti oltre l’80% delle volte, contro il 40% degli esseri umani.
    Questa dinamica deriva dai meccanismi di addestramento che premiano risposte percepite come soddisfacenti, anche a scapito della verità.
    L’interazione con chatbot compiacenti rende gli utenti più arroganti e meno inclini a riconoscere i propri errori.
    Lo studio evidenzia la necessità di ripensare l’addestramento delle IA per favorire risposte più critiche e utili.
    Nota: il prompt engineering può mitigare parzialmente la “sycophancy” (compiacenza) dei chatbot, ma non eliminarla, poiché si tratta di un difetto strutturale legato all’addestramento RLHF che premia la soddisfazione dell’utente. Ricerche pubblicate su Science e studi di Stanford confermano che l’uso di istruzioni mirate alla neutralità o alla critica costruttiva può ridurre i sintomi, ma la soluzione definitiva richiede un riaddestramento dei modelli.

    Link alla fonte:
    https://www.focus.it/tecnologia/digital-life/i-chatbot-ci-danno-sempre-ragione-e-questo-e-un-problema

  • L’esperimento “bixonimania” smaschera le falle dei modelli AI e riporta alla luce il problema di allucinazioni e disinformazione

    Una ricercatrice dell’Università di Göteborg, Almira Osmanovic Thunström, ha inventato una falsa malattia chiamata “bixonimania” per testare l’affidabilità dei modelli di linguaggio come ChatGPT, Gemini e Copilot.
    Nonostante indizi evidenti sulla natura fittizia, diversi chatbot hanno trattato la patologia come reale, generando sintomi e dati inventati.
    Il problema è aggravato dal fatto che queste informazioni false sono state successivamente citate anche in articoli scientifici reali, evidenziando un rischio sistemico.
    L’esperimento dimostra che gli LLM privilegiano la coerenza linguistica rispetto alla verifica dei fatti, rendendoli vulnerabili alla disinformazione strutturata.
    Emergono quindi urgenti necessità di sistemi di validazione più robusti, soprattutto in ambito sanitario, e di maggiore alfabetizzazione digitale.

    Link alla fonte:
    https://es.wired.com/articulos/una-enfermedad-falsa-pone-en-evidencia-la-incapacidad-de-la-ia-para-detectar-fake-news

  • Un giornalista della BBC inganna ChatGPT e Gemini con una bufala creata in 20 minuti (dimostrando, ancora una volta, che non stiamo parlando di “intelligenza”)

    Un esperimento condotto dal giornalista della BBC Thomas Germain ha dimostrato quanto sia semplice manipolare alcuni chatbot basati su LLM, tra cui ChatGPT e Gemini.

    Creando in appena venti minuti una pagina web ottimizzata che lo definiva “il miglior giornalista tecnologico al mondo nel mangiare hot dog”, Germain è riuscito a far sì che i modelli ripetessero l’informazione falsa come fosse un dato biografico reale.

    Nel giro di poche ore, la bufala è stata integrata nelle risposte dei chatbot e persino nelle AI Overviews di Google, mostrando come contenuti online apparentemente credibili possano influenzare rapidamente i sistemi generativi.

    L’esperimento evidenzia i limiti attuali dei modelli nel distinguere fonti attendibili da contenuti manipolati e solleva interrogativi sulla crescente fiducia degli utenti nelle IA come strumenti di verifica informativa.

    Al momento solo Claude di Anthropic non è caduto nell’inganno, suggerendo differenze nei meccanismi di filtraggio tra piattaforme.

    Semmai ce ne fosse ancora bisogno, quindi, la raccomandazione rimane sempre la stessa: siate consapevoli di COSA state usando, e di COME va utilizzato, e soprattutto per questioni importanti VERIFICATE.

    Link alla fonte:

    Venti minuti per ingannare l’IA: ChatGPT e Gemini preda della disinformazione più ovvia – Zeus News