Blog

  • Altman immagina l’AI come un servizio a consumo: “come elettricità o acqua”

    Sam Altman, CEO di OpenAI, ha proposto una visione in cui l’intelligenza artificiale diventa un’infrastruttura di base accessibile come un servizio pubblico.
    Durante l’U.S. Infrastructure Summit organizzato da BlackRock, Altman ha ipotizzato un modello in cui gli utenti pagano l’IA in base al consumo, simile alle bollette di acqua o elettricità.
    L’idea riflette l’ambizione di rendere la “capacità di intelligenza computazionale” abbondante e disponibile su larga scala per imprese, istituzioni e cittadini.
    Tuttavia, questa prospettiva richiede enormi investimenti in potenza di calcolo e data center, con conseguente aumento dei consumi energetici.
    Il dibattito riguarda quindi sia il modello economico della futura IA sia la sostenibilità energetica delle infrastrutture necessarie.

    Link alla fonte:
    https://www.elconfidencial.com/tecnologia/2026-03-13/sam-altman-pagar-chatgpt-contador-agua-1qrt_4319887/

  • Critica all’antropomorfismo degli LLM: il rischio di scambiare testo per coscienza

    Nel suo pregevole articolo su Huffington Post, Stefano Diana  (che spero di aver taggato correttamente) critica la tendenza dei ricercatori di aziende di AI a umanizzare i modelli linguistici, prendendo come esempio la documentazione tecnica di Claude Opus 4.6 sviluppato da Anthropic.
    Nella “system card” del modello vengono descritti presunti stati interni dell’IA (come “disagio”, “gratitudine”, “tristezza” o persino una probabilità del 15–20% di essere cosciente) che come spiega l’autore non hanno alcuna base scientifica.
    Diana, basandosi su oggettive dinamiche dell’algoritmo, sottolinea come tali descrizioni nascano da un errore categoriale: interpretare semplici output testuali come se fossero esperienze soggettive.
    Questa antropomorfizzazione, alimentata anche da dichiarazioni di ricercatori come Ilya Sutskever, contribuirebbe a generare hype e confusione nel dibattito pubblico sull’IA.
    Il rischio, conclude l’autore, è che documenti tecnici influenzino media, politici e finanziamenti basandosi su metafore fuorvianti anziché su una descrizione rigorosa di come funzionano realmente i modelli linguistici.

    Vi lascio il link e vi invito a leggere questo godibilissimo esempio di vero giornalismo:
    https://www.huffingtonpost.it/blog/2026/03/09/news/quando_i_ricercatori_si_sentono_demiurghi-21380005/

  • Avvocati sanzionati se citano sentenze “inventate” dall’AI, dimostrando così di non averle verificate

    Una sentenza del Tribunale di Siracusa (n. 338 del 20 febbraio 2026) stabilisce che un avvocato che utilizza l’intelligenza artificiale senza verificare le fonti può incorrere in responsabilità grave.
    Nel caso esaminato, il difensore aveva inserito in un atto processuale quattro precedenti della Cassazione inesistenti, generati da un sistema di IA.
    Il giudice ha ritenuto che l’uso acritico di strumenti di IA generativa integri colpa grave, perché viola il dovere di lealtà e probità nel processo e può alterare il corretto contraddittorio.
    La decisione si inserisce in un filone già avviato da una pronuncia del Tribunale di Torino del 2025 e richiama l’importanza delle verifiche previste anche dal Regolamento europeo AI Act (Reg. UE 2024/1689).
    Il messaggio per i professionisti legali è chiaro: l’IA può supportare il lavoro, ma la responsabilità finale resta sempre dell’avvocato.

    Link alla fonte:
    https://www.brocardi.it/notizie-giuridiche/avvocato-rischi-condanna-intelligenza-intelligenza-artificiale-senza-verificare/6650.html