Tag: Etica

  • Anthropic ha reagito contro l’amministrazione Trump con due cause legali

    Anthropic ha reagito contro l’amministrazione Trump con due cause legali

    Nel ricorso, l’azienda degli Amodei ha contestato la classificazione del Pentagono come “rischio della catena di approvvigionamento” e la direttiva della Casa Bianca che impone a tutte le agenzie federali di abbandonare Claude, definendo questa etichetta come una “punizione” per le sue posizioni sulla sicurezza dell’IA.

    Anthropic ha intentato cause legali in due tribunali separati, chiedendo ai giudici di eliminare l’etichetta di “blacklist” e di bloccare il tentativo del governo di costringere le agenzie a tagliare i rapporti. L’azienda si oppone, inoltre, alla giustificazione di voler “contrastare le minacce di paesi stranieri” utilizzata per punire un’azienda statunitense per disaccordi politici.

    Anthropic sostiene, infine, che il Pentagono abbia violato i diritti alla libertà di parola per aver pubblicamente sostenuto i limiti di sicurezza dell’IA su armi e sorveglianza.

    Oltre 30 membri dello staff di OpenAI e Google hanno firmato un memorandum legale a sostegno della causa di Anthropic sul Pentagono, avvertendo che la lista nera minaccia la leadership statunitense dell’IA

    Ecco il link alla documentazione ufficiale:

    https://www.courtlistener.com/docket/72379655/1/anthropic-pbc-v-us-department-of-war

  • Anthropic accusa tre “AI lab” cinesi (DeepSeek, Moonshot AI e MiniMax) di “industrial-scale distillation attacks” su Claude

    Oltre 24.000 account fraudolenti creati per generare più di 16 milioni di interazioni con Claude, al fine di estrarre, e distillare, le sue capacità avanzate (in particolare agentic reasoning, tool use e coding) al fine  di migliorare i propri modelli.
    Anthropic lo definisce “un problema competitivo, ma anche di sicurezza nazionale e geopolitica”, infatti questi attacchi aggirerebbero gli export controls USA sui chip avanzati, permettendo a laboratori stranieri (sotto influenza del Partito Comunista Cinese, secondo loro) di chiudere il gap senza rispettare le misure di sicurezza, ovvero sviluppare modelli potenti sfruttando quelli occidentali ma con la libertà di usare quelli prodotti senza alcun vincolo o limitazione di tipo etico.
    OpenAI aveva già mosso accuse simili su DeepSeek a febbraio, e di fronte a questo nuovo scenario la comunità è divisa: molti parlano di “ipocrisia” (tutti i lab occidentali hanno trainato su dati pubblici/web senza permessi espliciti), altri sottolineano la differenza cui accennavo prima, ovvero che estrarre output da API a questa scala può bypassare safety rails e replicare comportamenti agentici/tool-use in modo più diretto e potenzialmente pericoloso.
    Intanto Qwen e Z.ai (GLM) non sono stati nominati… troppo onesti o più furbi dei colleghi?
    Cosa ne pensate? È solo “business as usual” nella corsa all’AI USA-Cina, o si tratta di un vero e proprio punto di svolta per proteggere IP e safety nei modelli di frontiera?

    Intanto vi lascio il post ufficiale di Anthropic: https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks

  • Pentagono chiede accesso illimitato ai modelli AI, Anthropic si oppone per ragioni etiche

    Il Dipartimento della Difesa degli Stati Uniti ha chiesto ad Anthropic accesso senza restrizioni ai suoi modelli di intelligenza artificiale “per ogni scopo legale”, incluse operazioni militari e di intelligence.
    L’azienda, guidata dal CEO Dario Amodei, ha rifiutato, ribadendo la necessità di mantenere salvaguardie contro l’automazione letale e la sorveglianza di massa.
    Le tensioni sarebbero aumentate dopo il presunto utilizzo del modello Claude in un’operazione che ha portato alla cattura del presidente venezuelano Nicolás Maduro.
    Il contratto tra le parti, del valore di 200 milioni di dollari, è ora a rischio, mentre il caso riapre il dibattito su mission creep, responsabilità decisionale e governance dei dati in ambito militare.
    La vicenda potrebbe accelerare lo sviluppo di modelli “military-grade” statali o ridefinire gli equilibri tra sicurezza nazionale e limiti etici imposti dai laboratori AI.

    Link alla fonte:
    https://www.repubblica.it/tecnologia/2026/02/16/news/pentagono-chiede-intelligenza-artificiale-senza-limiti-scopi-militari-antrhopic-dice-no-425162689/