Autore: BDB

  • Anthropic e Washington uniscono le forze per impedire che Claude costruisca una bomba atomica

    Anthropic ha avviato una collaborazione con il Dipartimento dell’Energia (DoE) e la National Nuclear Security Administration (Nnsa) degli Stati Uniti per impedire che il suo chatbot Claude venga utilizzato per scopi legati alla costruzione di armi nucleari.

    La partnership ha portato allo sviluppo di un “classificatore nucleare”, un filtro capace di individuare conversazioni potenzialmente pericolose, basato su indicatori di rischio definiti dalla Nnsa e testato in ambienti cloud ad alta sicurezza forniti da Amazon Web Services.

    Tuttavia, diversi esperti sollevano dubbi sull’efficacia del piano: se i modelli di Anthropic non hanno mai avuto accesso a dati sensibili, la loro capacità di fornire assistenza tecnica in ambito nucleare è praticamente nulla, rendendo la misura più simbolica che concreta.

    Alcuni critici temono inoltre che collaborazioni di questo tipo possano dare alle aziende private accesso a informazioni governative riservate, con implicazioni delicate per la sicurezza nazionale.

    Anthropic difende la propria iniziativa come un passo proattivo verso la prevenzione di rischi futuri e auspica che il classificatore diventi uno standard di settore.

    Link alla fonte:

    Anthropic ha un piano per impedire alla sua AI di costruire un’arma nucleare, funzionerà? | Wired Italia

  • Grokipedia debutta tra accuse di plagio da Wikipedia

    Grokipedia, la nuova enciclopedia online dell’ecosistema xAI voluta da Elon Musk, è stata lanciata con l’obiettivo dichiarato di offrire un’alternativa più trasparente e aggiornata rispetto a Wikipedia.

    Tuttavia, il progetto è finito subito al centro delle polemiche: numerosi articoli risultano copiati quasi integralmente dall’enciclopedia della Wikimedia Foundation, nonostante Musk avesse promesso contenuti originali e fact-checking in tempo reale tramite il modello AI Grok.

    Le critiche riguardano anche la gestione di temi sensibili, come il riscaldamento globale, trattati con toni vicini alle opinioni personali del fondatore di X.

    Grokipedia è ancora in versione 0.1, con un’interfaccia minimale e funzioni di modifica limitate, ma il suo debutto solleva già dubbi sulla credibilità e l’indipendenza del progetto.

    Link alla fonte:

    Grokipedia debutta tra le polemiche, molti articoli sono copiati da Wikipedia | Wired Italia

  • Oltre un milione di utenti rivela segnali di disagio psichico nelle chat con l’AI, secondo una ricerca OpenAI

    Una ricerca condotta da OpenAI rivela che oltre un milione di utenti di ChatGPT manifesta ogni settimana esplicite intenzioni o progetti suicidi nelle proprie conversazioni.

    Lo studio evidenzia inoltre che circa lo 0,07% degli utenti attivi settimanali mostra sintomi riconducibili a psicosi o mania.

    L’indagine arriva in un momento di forte pressione per l’azienda, già coinvolta in una causa legale per il suicidio di un adolescente che aveva utilizzato intensamente il chatbot.

    Parallelamente, la Federal Trade Commission ha avviato un’inchiesta su come le aziende di AI valutano gli impatti sui minori.

    OpenAI ha risposto annunciando che GPT-5 introduce misure di sicurezza più avanzate e una rete di 170 medici per il monitoraggio dei rischi psichici.

    Link alla fonte:

    ‘Oltre 1 milione di utenti di ChatGpt esprime tendenze suicide’ – Ultima ora – Ansa.it