Categoria: News

  • Critica all’antropomorfismo degli LLM: il rischio di scambiare testo per coscienza

    Nel suo pregevole articolo su Huffington Post, Stefano Diana  (che spero di aver taggato correttamente) critica la tendenza dei ricercatori di aziende di AI a umanizzare i modelli linguistici, prendendo come esempio la documentazione tecnica di Claude Opus 4.6 sviluppato da Anthropic.
    Nella “system card” del modello vengono descritti presunti stati interni dell’IA (come “disagio”, “gratitudine”, “tristezza” o persino una probabilità del 15–20% di essere cosciente) che come spiega l’autore non hanno alcuna base scientifica.
    Diana, basandosi su oggettive dinamiche dell’algoritmo, sottolinea come tali descrizioni nascano da un errore categoriale: interpretare semplici output testuali come se fossero esperienze soggettive.
    Questa antropomorfizzazione, alimentata anche da dichiarazioni di ricercatori come Ilya Sutskever, contribuirebbe a generare hype e confusione nel dibattito pubblico sull’IA.
    Il rischio, conclude l’autore, è che documenti tecnici influenzino media, politici e finanziamenti basandosi su metafore fuorvianti anziché su una descrizione rigorosa di come funzionano realmente i modelli linguistici.

    Vi lascio il link e vi invito a leggere questo godibilissimo esempio di vero giornalismo:
    https://www.huffingtonpost.it/blog/2026/03/09/news/quando_i_ricercatori_si_sentono_demiurghi-21380005/

  • Avvocati sanzionati se citano sentenze “inventate” dall’AI, dimostrando così di non averle verificate

    Una sentenza del Tribunale di Siracusa (n. 338 del 20 febbraio 2026) stabilisce che un avvocato che utilizza l’intelligenza artificiale senza verificare le fonti può incorrere in responsabilità grave.
    Nel caso esaminato, il difensore aveva inserito in un atto processuale quattro precedenti della Cassazione inesistenti, generati da un sistema di IA.
    Il giudice ha ritenuto che l’uso acritico di strumenti di IA generativa integri colpa grave, perché viola il dovere di lealtà e probità nel processo e può alterare il corretto contraddittorio.
    La decisione si inserisce in un filone già avviato da una pronuncia del Tribunale di Torino del 2025 e richiama l’importanza delle verifiche previste anche dal Regolamento europeo AI Act (Reg. UE 2024/1689).
    Il messaggio per i professionisti legali è chiaro: l’IA può supportare il lavoro, ma la responsabilità finale resta sempre dell’avvocato.

    Link alla fonte:
    https://www.brocardi.it/notizie-giuridiche/avvocato-rischi-condanna-intelligenza-intelligenza-artificiale-senza-verificare/6650.html

  • Come l’AI trasforma le immagini satellitari in armi di disinformazione nel conflitto Iran-Israele-USA

    Nel conflitto tra Iran, Israele e Stati Uniti sta emergendo una nuova forma di disinformazione: immagini satellitari reali manipolate con l’intelligenza artificiale per simulare distruzioni militari.
    Diverse inchieste di media internazionali come BBC, AFP e NewsGuard hanno identificato casi in cui foto di Google Earth sono state alterate con tecniche di image-to-image per aggiungere crateri, fumo o infrastrutture distrutte.
    Alcuni contenuti virali (come presunti attacchi alla base di Al Udeid in Qatar o all’ambasciata USA a Riad) sono risultati completamente sintetici, pur apparendo credibili grazie alla coerenza con immagini reali.
    La combinazione tra propaganda statale, account pseudo-OSINT e incentivi economici dei social media amplifica la diffusione di questi contenuti.
    Il fenomeno segna un salto qualitativo nella disinformazione di guerra, perché l’AI modifica dettagli realistici invece di creare scene completamente false, rendendo molto più difficile individuare i falsi.

    Link alla fonte:
    https://www.infodata.ilsole24ore.com/2026/03/10/perche-le-immagini-satellitari-della-guerra-in-iran-modificate-con-lai-sono-cosi-convincenti/