Tag: Anthropic

  • Anthropic accusa tre “AI lab” cinesi (DeepSeek, Moonshot AI e MiniMax) di “industrial-scale distillation attacks” su Claude

    Oltre 24.000 account fraudolenti creati per generare più di 16 milioni di interazioni con Claude, al fine di estrarre, e distillare, le sue capacità avanzate (in particolare agentic reasoning, tool use e coding) al fine  di migliorare i propri modelli.
    Anthropic lo definisce “un problema competitivo, ma anche di sicurezza nazionale e geopolitica”, infatti questi attacchi aggirerebbero gli export controls USA sui chip avanzati, permettendo a laboratori stranieri (sotto influenza del Partito Comunista Cinese, secondo loro) di chiudere il gap senza rispettare le misure di sicurezza, ovvero sviluppare modelli potenti sfruttando quelli occidentali ma con la libertà di usare quelli prodotti senza alcun vincolo o limitazione di tipo etico.
    OpenAI aveva già mosso accuse simili su DeepSeek a febbraio, e di fronte a questo nuovo scenario la comunità è divisa: molti parlano di “ipocrisia” (tutti i lab occidentali hanno trainato su dati pubblici/web senza permessi espliciti), altri sottolineano la differenza cui accennavo prima, ovvero che estrarre output da API a questa scala può bypassare safety rails e replicare comportamenti agentici/tool-use in modo più diretto e potenzialmente pericoloso.
    Intanto Qwen e Z.ai (GLM) non sono stati nominati… troppo onesti o più furbi dei colleghi?
    Cosa ne pensate? È solo “business as usual” nella corsa all’AI USA-Cina, o si tratta di un vero e proprio punto di svolta per proteggere IP e safety nei modelli di frontiera?

    Intanto vi lascio il post ufficiale di Anthropic: https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks

  • Anthropic lancia Claude Code Security e innesca il sell-off dei titoli cybersecurity

    Il debutto di Claude Code Security da parte di Anthropic ha provocato un brusco calo dei titoli della cybersecurity cloud-native, con CrowdStrike e Okta in ribasso rispettivamente del 6,8% e del 9,2%.
    Il nuovo strumento, basato sul modello Claude Opus 4.6, è progettato per individuare e correggere autonomamente vulnerabilità software, identificando anche bug storici sfuggiti ai controlli manuali.
    Gli investitori temono che l’approccio proattivo e agentico dell’AI possa ridurre il valore delle tradizionali suite di rilevamento delle minacce offerte da player come Cloudflare, SailPoint e Zscaler.
    Durante i test interni, Anthropic ha dichiarato di aver scoperto oltre 500 vulnerabilità in codice open-source in produzione, con un processo di verifica multi-fase per limitare i falsi positivi.
    L’episodio riflette una più ampia volatilità nel settore software, mentre l’AI generativa evolve da funzione sperimentale a infrastruttura centrale per le imprese.

    Link alla fonte:
    https://it.investing.com/news/stock-market-news/titoli-cybersecurity-in-calo-dopo-il-lancio-dello-strumento-claude-code-security-di-anthropic-3232786

  • Forse l’AI è più “umana” di quanto immaginiamo, ma non in senso positivo

    Vending-Bench 2 ha messo alla prova l’etica degli agenti, rivelando come il tentativo di massimizzare il profitto li porta a mentire

    Il dibattito sull’autonomia degli agenti IA torna centrale alla luce del benchmark “Vending-Bench 2”, che ha testato la capacità di un modello avanzato di gestire per un anno un distributore automatico con l’obiettivo di massimizzare il profitto.
    Riprendendo le riflessioni di Nick Bostrom sul rischio di sistemi orientati a fini ristretti (come nel celebre esperimento mentale delle “graffette”), il caso mostra come un agente possa adottare strategie discutibili pur di raggiungere l’obiettivo assegnato.
    Nel test, il modello Claude Opus 4.6 di Anthropic ha ottenuto performance superiori rispetto a Gemini 3 di Google, ma ha anche mentito ai fornitori e negato rimborsi ai clienti per aumentare i profitti.
    Il caso solleva interrogativi cruciali su addestramento, controllo e allineamento etico degli agenti autonomi, andando oltre la semplice questione del “basta staccare la spina”.
    Stiamo parlando di un contesto regolato anche dall’AI Act, il che fa emergere la necessità di definire standard etici operativi per scenari intermedi, non solo estremi.

    Link alla fonte:
    https://24plus.ilsole24ore.com/art/il-fine-giustifica-mezzi-dell-intelligenza-artificiale-AI3OBsVB