Tag: SicurezzaNazionale

  • Il capo ad interim della cybersicurezza USA carica documenti sensibili su un ChatGPT “pubblico”

    Il direttore ad interim della Cybersecurity and Infrastructure Security Agency (CISA), Madhu Gottumukkala, ha caricato documenti governativi sensibili contrassegnati come “for official use only” su una versione standard (quindi non aziendale/riservata) di ChatGPT, facendo scattare allarmi automatici di sicurezza interna.
    L’incidente ha portato il Department of Homeland Security (DHS) ad avviare una valutazione dei danni a livello dipartimentale per verificare eventuali impatti sulla sicurezza nazionale.
    Sebbene i file non fossero classificati, la loro natura sensibile ha sollevato interrogativi sull’uso di strumenti AI pubblici da parte di funzionari con accesso privilegiato.
    Il caso è particolarmente rilevante perché Gottumukkala aveva ottenuto un’autorizzazione speciale per usare ChatGPT, mentre l’app era bloccata per altri dipendenti.
    L’episodio riaccende il dibattito su governance, controlli e rischi dell’adozione dell’AI nella pubblica amministrazione sotto l’agenda pro-AI dell’amministrazione Donald Trump.

    Link alla fonte:
    https://www.politico.com/news/2026/01/27/cisa-madhu-gottumukkala-chatgpt-00749361

  • Anthropic e Washington uniscono le forze per impedire che Claude costruisca una bomba atomica

    Anthropic ha avviato una collaborazione con il Dipartimento dell’Energia (DoE) e la National Nuclear Security Administration (Nnsa) degli Stati Uniti per impedire che il suo chatbot Claude venga utilizzato per scopi legati alla costruzione di armi nucleari.

    La partnership ha portato allo sviluppo di un “classificatore nucleare”, un filtro capace di individuare conversazioni potenzialmente pericolose, basato su indicatori di rischio definiti dalla Nnsa e testato in ambienti cloud ad alta sicurezza forniti da Amazon Web Services.

    Tuttavia, diversi esperti sollevano dubbi sull’efficacia del piano: se i modelli di Anthropic non hanno mai avuto accesso a dati sensibili, la loro capacità di fornire assistenza tecnica in ambito nucleare è praticamente nulla, rendendo la misura più simbolica che concreta.

    Alcuni critici temono inoltre che collaborazioni di questo tipo possano dare alle aziende private accesso a informazioni governative riservate, con implicazioni delicate per la sicurezza nazionale.

    Anthropic difende la propria iniziativa come un passo proattivo verso la prevenzione di rischi futuri e auspica che il classificatore diventi uno standard di settore.

    Link alla fonte:

    Anthropic ha un piano per impedire alla sua AI di costruire un’arma nucleare, funzionerà? | Wired Italia