Tag: Disinformazione

  • L’esperimento “bixonimania” smaschera le falle dei modelli AI e riporta alla luce il problema di allucinazioni e disinformazione

    Una ricercatrice dell’Università di Göteborg, Almira Osmanovic Thunström, ha inventato una falsa malattia chiamata “bixonimania” per testare l’affidabilità dei modelli di linguaggio come ChatGPT, Gemini e Copilot.
    Nonostante indizi evidenti sulla natura fittizia, diversi chatbot hanno trattato la patologia come reale, generando sintomi e dati inventati.
    Il problema è aggravato dal fatto che queste informazioni false sono state successivamente citate anche in articoli scientifici reali, evidenziando un rischio sistemico.
    L’esperimento dimostra che gli LLM privilegiano la coerenza linguistica rispetto alla verifica dei fatti, rendendoli vulnerabili alla disinformazione strutturata.
    Emergono quindi urgenti necessità di sistemi di validazione più robusti, soprattutto in ambito sanitario, e di maggiore alfabetizzazione digitale.

    Link alla fonte:
    https://es.wired.com/articulos/una-enfermedad-falsa-pone-en-evidencia-la-incapacidad-de-la-ia-para-detectar-fake-news

  • Critica all’antropomorfismo degli LLM: il rischio di scambiare testo per coscienza

    Nel suo pregevole articolo su Huffington Post, Stefano Diana  (che spero di aver taggato correttamente) critica la tendenza dei ricercatori di aziende di AI a umanizzare i modelli linguistici, prendendo come esempio la documentazione tecnica di Claude Opus 4.6 sviluppato da Anthropic.
    Nella “system card” del modello vengono descritti presunti stati interni dell’IA (come “disagio”, “gratitudine”, “tristezza” o persino una probabilità del 15–20% di essere cosciente) che come spiega l’autore non hanno alcuna base scientifica.
    Diana, basandosi su oggettive dinamiche dell’algoritmo, sottolinea come tali descrizioni nascano da un errore categoriale: interpretare semplici output testuali come se fossero esperienze soggettive.
    Questa antropomorfizzazione, alimentata anche da dichiarazioni di ricercatori come Ilya Sutskever, contribuirebbe a generare hype e confusione nel dibattito pubblico sull’IA.
    Il rischio, conclude l’autore, è che documenti tecnici influenzino media, politici e finanziamenti basandosi su metafore fuorvianti anziché su una descrizione rigorosa di come funzionano realmente i modelli linguistici.

    Vi lascio il link e vi invito a leggere questo godibilissimo esempio di vero giornalismo:
    https://www.huffingtonpost.it/blog/2026/03/09/news/quando_i_ricercatori_si_sentono_demiurghi-21380005/

  • Come l’AI trasforma le immagini satellitari in armi di disinformazione nel conflitto Iran-Israele-USA

    Nel conflitto tra Iran, Israele e Stati Uniti sta emergendo una nuova forma di disinformazione: immagini satellitari reali manipolate con l’intelligenza artificiale per simulare distruzioni militari.
    Diverse inchieste di media internazionali come BBC, AFP e NewsGuard hanno identificato casi in cui foto di Google Earth sono state alterate con tecniche di image-to-image per aggiungere crateri, fumo o infrastrutture distrutte.
    Alcuni contenuti virali (come presunti attacchi alla base di Al Udeid in Qatar o all’ambasciata USA a Riad) sono risultati completamente sintetici, pur apparendo credibili grazie alla coerenza con immagini reali.
    La combinazione tra propaganda statale, account pseudo-OSINT e incentivi economici dei social media amplifica la diffusione di questi contenuti.
    Il fenomeno segna un salto qualitativo nella disinformazione di guerra, perché l’AI modifica dettagli realistici invece di creare scene completamente false, rendendo molto più difficile individuare i falsi.

    Link alla fonte:
    https://www.infodata.ilsole24ore.com/2026/03/10/perche-le-immagini-satellitari-della-guerra-in-iran-modificate-con-lai-sono-cosi-convincenti/