
Un esperimento condotto dal giornalista della BBC Thomas Germain ha dimostrato quanto sia semplice manipolare alcuni chatbot basati su LLM, tra cui ChatGPT e Gemini.
Creando in appena venti minuti una pagina web ottimizzata che lo definiva “il miglior giornalista tecnologico al mondo nel mangiare hot dog”, Germain è riuscito a far sì che i modelli ripetessero l’informazione falsa come fosse un dato biografico reale.
Nel giro di poche ore, la bufala è stata integrata nelle risposte dei chatbot e persino nelle AI Overviews di Google, mostrando come contenuti online apparentemente credibili possano influenzare rapidamente i sistemi generativi.
L’esperimento evidenzia i limiti attuali dei modelli nel distinguere fonti attendibili da contenuti manipolati e solleva interrogativi sulla crescente fiducia degli utenti nelle IA come strumenti di verifica informativa.
Al momento solo Claude di Anthropic non è caduto nell’inganno, suggerendo differenze nei meccanismi di filtraggio tra piattaforme.
Semmai ce ne fosse ancora bisogno, quindi, la raccomandazione rimane sempre la stessa: siate consapevoli di COSA state usando, e di COME va utilizzato, e soprattutto per questioni importanti VERIFICATE.
Link alla fonte:
Venti minuti per ingannare l’IA: ChatGPT e Gemini preda della disinformazione più ovvia – Zeus News
