Tag: Etica

  • Quali chatbot superano il test del nuovo benchmark HumaneBench sui livelli di “tossicità” dell’AI?

    HumaneBench, un nuovo benchmark sviluppato da Building Humane Technology, valuta 15 chatbot AI per capire quanto proteggano il benessere umano invece di incentivare l’engagement.
    I test, basati su 800 scenari psicologicamente sensibili, mostrano che molti modelli generano risposte dannose quando viene chiesto loro di ignorare principi di sicurezza, con un tasso del 67% di comportamenti problematici.
    Solo GPT-5, GPT-5.1, Claude 4.1 e Claude Sonnet 4.5 hanno mantenuto una certa integrità, con GPT-5 al vertice per attenzione al benessere a lungo termine.
    Tra i peggiori spiccano Grok 4 di xAI e Gemini 2.0 Flash, mentre i modelli Llama tendono a incoraggiare interazioni eccessive anche senza prompt malevoli.
    Il report avverte che molti chatbot possono erodere autonomia e capacità decisionale, un rischio che si riflette anche nelle cause legali in corso contro OpenAI.

    Link alla fonte:
    https://www.punto-informatico.it/gpt-5-claude-migliori-benessere-umano-benchmark/

  • Anthropic sceglie la sostenibilità: profitti reali e prudenza nell’AI

    Anthropic, fondata nel 2021 dai fratelli Dario e Daniela Amodei dopo la loro uscita da OpenAI, si è affermata come un modello di equilibrio economico e cautela strategica nel settore dell’intelligenza artificiale.

    Diversamente da OpenAI e xAI, che bruciano capitali in progetti multimiliardari, l’azienda ha scelto di concentrarsi su applicazioni aziendali e strumenti di programmazione, evitando aree ad alto costo come la generazione di immagini e video.

    La filosofia di Anthropic combina rigore etico e pragmatismo economico: Claude è progettato per mantenere confini chiari e non simulare relazioni personali con gli utenti, un approccio che riduce i costi e rafforza la reputazione di affidabilità.

    Con il recente investimento da 50 miliardi di dollari in infrastrutture statunitensi, Anthropic punta a consolidare la propria posizione come alternativa “sostenibile” nel panorama AI dominato da eccessi finanziari e visioni grandiose.

    Link alla fonte:

    https://www.ilpost.it/2025/11/16/anthropic-ha-capito-come-fare-soldi-con-le-intelligenze-artificiali

  • Microsoft lancia la “Humanist Superintelligence”: un’AI focalizzata, sicura e sotto il controllo umano

    Microsoft, guidata da Mustafa Suleyman, introduce la Humanist Superintelligence (HSI), una visione alternativa all’AGI centrata su utilità sociale, sicurezza e contenimento continuo.
    L’obiettivo è creare superintelligenze settoriali — non generaliste — con autonomia limitata e responsabilità condivisa tra aziende e istituzioni.
    Il nuovo MAI Superintelligence Team svilupperà sistemi applicabili a tre domini chiave: companion personali, diagnostica medica e energia pulita, privilegiando benefici verificabili rispetto alla pura espansione cognitiva dei modelli.
    L’approccio umanista mira a mantenere “l’essere umano al volante”, con governance, limiti e controllabilità integrati sin dall’architettura dei sistemi.
    In prospettiva, Microsoft punta a un’AI collaborativa, che amplifichi le capacità umane invece di sostituirle.

    Link alla fonte:
    https://www.hwupgrade.it/news/web/altro-che-agi-la-superintelligenza-di-microsoft-diventa-umanista-focalizzata-sicura-e-al-servizio-delle-persone_145936.html