Tag: OpenAI

  • ChatGPT “conosceva” le intenzioni di Jesse Van Rootselaar mesi prima della strage in Canada?

    Aggiornamento sulla tragedia di Tumbler Ridge (BC, Canada – 10 febbraio 2026), in cui la 18enne Jesse Van Rootselaar ha ucciso 8 persone (tra cui 5 minori e un’assistente educativa) e ne ha ferite 27 in una scuola superiore, prima di suicidarsi.

    OpenAI ha confermato che, a giugno 2025, l’account ChatGPT associato alla sospetta è stato rilevato tramite sistemi automatici e revisioni umane per conversazioni su scenari di violenza armata, violando le policy contro l’uso per “furtherance of violent activities”. L’account, in quel frangente, è stato rimosso bloccando l’utente.

    Circa una dozzina di dipendenti, nel contempo, ha discusso internamente se segnalare la cosa alla RCMP (polizia canadese), con alcuni che spingevano per un alert vista la gravità percepita.

    I vertici di OpenAI hanno però deciso di non procedere: i contenuti non soddisfacevano il criterio di “rischio credibile e imminente di gravi danni fisici”, soglia adottata per bilanciare prevenzione, privacy e rischio di falsi positivi.

    Solo dopo la strage OpenAI ha contattato proattivamente la RCMP e sta collaborando alle indagini.

    Un caso come questo solleva interrogativi complessi sul ruolo delle piattaforme AI, per una serie di motivi: la ragazza era già nota alle autorità per problemi di salute mentale (con sequestro temporaneo di armi), postava contenuti su stampa 3D di munizioni e poligoni di tiro, e aveva creato simulatori violenti su Roblox (riferiti a stragi in luoghi frequentati).

    Quando un sistema rileva segnali multipli di rischio, qual è il confine tra intervento proattivo e rispetto della privacy/etica del reporting?

    Sicuramente un tema cruciale per la governance AI e la sicurezza pubblica, su cui vi lascio riflettere.

  • Le Big Tech fondano accademie AI e sfidano l’università pubblica

    Colossi della Silicon Valley come OpenAI, Google e Anthropic stanno accelerando la creazione di proprie accademie e piattaforme formative, con l’obiettivo di formare direttamente sviluppatori e professionisti dell’intelligenza artificiale.
    Iniziative come Claude 101 di Anthropic, OpenAI Academy e Google Cloud Skills Boost offrono percorsi strutturati e certificazioni ufficiali che rischiano di diventare più influenti di una laurea tradizionale nel settore tech
    Questo spostamento del baricentro educativo verso soggetti privati nasce anche dalla lentezza dei sistemi pubblici nell’integrare l’alfabetizzazione algoritmica nei programmi di studio.
    Il risultato potrebbe essere un nuovo monopolio globale della formazione, dove le Big Tech non solo controllano gli strumenti e i dati, ma anche i criteri di certificazione delle competenze.
    Le implicazioni toccano occupazione, equità nell’accesso al sapere e autonomia delle istituzioni accademiche.

    Link alla fonte:
    https://www.avvenire.it/rubriche/artifici/luniversita-del-futuro-e-solo-privata-il-piano-di-openai-e-delle-big-tech_104870

  • L’AI supera una nuova soglia: tra auto-miglioramento, rischi sistemici e tensioni etiche globali

    Un’ondata di innovazioni – dal rilascio di GPT-5.3 Codex di OpenAI e Opus 4.6 di Anthropic fino al modello video Seedance 2.0 di ByteDance – segna quello che diversi osservatori definiscono un punto di svolta per l’intelligenza artificiale.
    L’imprenditore Matt Shumer parla di una fase in cui l’IA non è più solo uno strumento, ma un sistema capace di svolgere e migliorare il lavoro umano, inclusa la programmazione dell’IA stessa.
    Il CEO di Anthropic, Dario Amodei, descrive questa fase come una “adolescenza tecnologica”, con sistemi replicabili su larga scala e potenzialmente superiori agli esperti in molti campi, ma ancora privi di adeguate strutture di governance.
    Tra i rischi emergono manipolazione, sicurezza biologica, concentrazione del potere economico e destabilizzazione democratica, mentre le dimissioni di ricercatori chiave come Mrinank Sharma evidenziano il peso morale interno al settore.
    In parallelo, casi come Seedance 2.0 riaccendono lo scontro su copyright e geopolitica tecnologica, mostrando come la competizione tra aziende e Stati stia accelerando una trasformazione potenzialmente irreversibile.

    Link alla fonte:
    https://www.ilfattoquotidiano.it/2026/02/19/intelligenza-artificiale-balzo-tecnologico-rischi-news/8295880/