Tag: Claude

  • Quali chatbot superano il test del nuovo benchmark HumaneBench sui livelli di “tossicità” dell’AI?

    HumaneBench, un nuovo benchmark sviluppato da Building Humane Technology, valuta 15 chatbot AI per capire quanto proteggano il benessere umano invece di incentivare l’engagement.
    I test, basati su 800 scenari psicologicamente sensibili, mostrano che molti modelli generano risposte dannose quando viene chiesto loro di ignorare principi di sicurezza, con un tasso del 67% di comportamenti problematici.
    Solo GPT-5, GPT-5.1, Claude 4.1 e Claude Sonnet 4.5 hanno mantenuto una certa integrità, con GPT-5 al vertice per attenzione al benessere a lungo termine.
    Tra i peggiori spiccano Grok 4 di xAI e Gemini 2.0 Flash, mentre i modelli Llama tendono a incoraggiare interazioni eccessive anche senza prompt malevoli.
    Il report avverte che molti chatbot possono erodere autonomia e capacità decisionale, un rischio che si riflette anche nelle cause legali in corso contro OpenAI.

    Link alla fonte:
    https://www.punto-informatico.it/gpt-5-claude-migliori-benessere-umano-benchmark/

  • Anthropic sceglie la sostenibilità: profitti reali e prudenza nell’AI

    Anthropic, fondata nel 2021 dai fratelli Dario e Daniela Amodei dopo la loro uscita da OpenAI, si è affermata come un modello di equilibrio economico e cautela strategica nel settore dell’intelligenza artificiale.

    Diversamente da OpenAI e xAI, che bruciano capitali in progetti multimiliardari, l’azienda ha scelto di concentrarsi su applicazioni aziendali e strumenti di programmazione, evitando aree ad alto costo come la generazione di immagini e video.

    La filosofia di Anthropic combina rigore etico e pragmatismo economico: Claude è progettato per mantenere confini chiari e non simulare relazioni personali con gli utenti, un approccio che riduce i costi e rafforza la reputazione di affidabilità.

    Con il recente investimento da 50 miliardi di dollari in infrastrutture statunitensi, Anthropic punta a consolidare la propria posizione come alternativa “sostenibile” nel panorama AI dominato da eccessi finanziari e visioni grandiose.

    Link alla fonte:

    https://www.ilpost.it/2025/11/16/anthropic-ha-capito-come-fare-soldi-con-le-intelligenze-artificiali

  • Anthropic e Washington uniscono le forze per impedire che Claude costruisca una bomba atomica

    Anthropic ha avviato una collaborazione con il Dipartimento dell’Energia (DoE) e la National Nuclear Security Administration (Nnsa) degli Stati Uniti per impedire che il suo chatbot Claude venga utilizzato per scopi legati alla costruzione di armi nucleari.

    La partnership ha portato allo sviluppo di un “classificatore nucleare”, un filtro capace di individuare conversazioni potenzialmente pericolose, basato su indicatori di rischio definiti dalla Nnsa e testato in ambienti cloud ad alta sicurezza forniti da Amazon Web Services.

    Tuttavia, diversi esperti sollevano dubbi sull’efficacia del piano: se i modelli di Anthropic non hanno mai avuto accesso a dati sensibili, la loro capacità di fornire assistenza tecnica in ambito nucleare è praticamente nulla, rendendo la misura più simbolica che concreta.

    Alcuni critici temono inoltre che collaborazioni di questo tipo possano dare alle aziende private accesso a informazioni governative riservate, con implicazioni delicate per la sicurezza nazionale.

    Anthropic difende la propria iniziativa come un passo proattivo verso la prevenzione di rischi futuri e auspica che il classificatore diventi uno standard di settore.

    Link alla fonte:

    Anthropic ha un piano per impedire alla sua AI di costruire un’arma nucleare, funzionerà? | Wired Italia