Tag: Etica

  • Anthropic coinvolge leader religiosi per definire l’etica dei chatbot

    Anthropic ha organizzato un incontro a San Francisco con quindici leader cristiani per discutere come integrare principi morali nello sviluppo del chatbot Claude.
    L’iniziativa riflette una crescente attenzione dell’industria AI verso questioni etiche complesse, come il supporto a utenti vulnerabili o in difficoltà emotiva.
    Figure come Brendan McGuire e Brian Patrick Green hanno sollevato interrogativi sulla possibilità di “educare moralmente” una rete neurale, sottolineando il parallelismo con la formazione umana.
    Tuttavia, non sono mancate critiche e timori di strumentalizzazione religiosa da parte delle aziende tecnologiche.
    Il caso evidenzia come l’AI stia assumendo un ruolo sempre più centrale anche in ambiti tradizionalmente riservati alla guida umana, come il supporto morale e spirituale.

    Link alla fonte:
    https://www.avvenire.it/rubriche/artifici/le-intelligenze-artificiali-sono-figlie-di-dio-la-silicon-valley-cerca-le-chiese_107131

  • Anthropic ha reagito contro l’amministrazione Trump con due cause legali

    Anthropic ha reagito contro l’amministrazione Trump con due cause legali

    Nel ricorso, l’azienda degli Amodei ha contestato la classificazione del Pentagono come “rischio della catena di approvvigionamento” e la direttiva della Casa Bianca che impone a tutte le agenzie federali di abbandonare Claude, definendo questa etichetta come una “punizione” per le sue posizioni sulla sicurezza dell’IA.

    Anthropic ha intentato cause legali in due tribunali separati, chiedendo ai giudici di eliminare l’etichetta di “blacklist” e di bloccare il tentativo del governo di costringere le agenzie a tagliare i rapporti. L’azienda si oppone, inoltre, alla giustificazione di voler “contrastare le minacce di paesi stranieri” utilizzata per punire un’azienda statunitense per disaccordi politici.

    Anthropic sostiene, infine, che il Pentagono abbia violato i diritti alla libertà di parola per aver pubblicamente sostenuto i limiti di sicurezza dell’IA su armi e sorveglianza.

    Oltre 30 membri dello staff di OpenAI e Google hanno firmato un memorandum legale a sostegno della causa di Anthropic sul Pentagono, avvertendo che la lista nera minaccia la leadership statunitense dell’IA

    Ecco il link alla documentazione ufficiale:

    https://www.courtlistener.com/docket/72379655/1/anthropic-pbc-v-us-department-of-war

  • Anthropic accusa tre “AI lab” cinesi (DeepSeek, Moonshot AI e MiniMax) di “industrial-scale distillation attacks” su Claude

    Oltre 24.000 account fraudolenti creati per generare più di 16 milioni di interazioni con Claude, al fine di estrarre, e distillare, le sue capacità avanzate (in particolare agentic reasoning, tool use e coding) al fine  di migliorare i propri modelli.
    Anthropic lo definisce “un problema competitivo, ma anche di sicurezza nazionale e geopolitica”, infatti questi attacchi aggirerebbero gli export controls USA sui chip avanzati, permettendo a laboratori stranieri (sotto influenza del Partito Comunista Cinese, secondo loro) di chiudere il gap senza rispettare le misure di sicurezza, ovvero sviluppare modelli potenti sfruttando quelli occidentali ma con la libertà di usare quelli prodotti senza alcun vincolo o limitazione di tipo etico.
    OpenAI aveva già mosso accuse simili su DeepSeek a febbraio, e di fronte a questo nuovo scenario la comunità è divisa: molti parlano di “ipocrisia” (tutti i lab occidentali hanno trainato su dati pubblici/web senza permessi espliciti), altri sottolineano la differenza cui accennavo prima, ovvero che estrarre output da API a questa scala può bypassare safety rails e replicare comportamenti agentici/tool-use in modo più diretto e potenzialmente pericoloso.
    Intanto Qwen e Z.ai (GLM) non sono stati nominati… troppo onesti o più furbi dei colleghi?
    Cosa ne pensate? È solo “business as usual” nella corsa all’AI USA-Cina, o si tratta di un vero e proprio punto di svolta per proteggere IP e safety nei modelli di frontiera?

    Intanto vi lascio il post ufficiale di Anthropic: https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks