Tag: Sicurezza

  • La Cina conquista terreno nella “valuta” dell’AI: i token

    Le aziende cinesi come DeepSeek e MiniMax stanno superando i concorrenti statunitensi nella riduzione del consumo di token, l’unità chiave che misura l’uso e il costo dei modelli di intelligenza artificiale. Questo sorpasso segnala un cambiamento strutturale nella competizione globale, dove il prezzo per token diventa determinante soprattutto con la diffusione degli agenti AI, molto più esigenti in termini computazionali. Grazie a costi energetici più bassi e modelli più efficienti, le aziende cinesi offrono prezzi fino a sei volte inferiori rispetto a player come Anthropic, attirando sviluppatori e aumentando rapidamente l’adozione. Tuttavia, restano criticità legate a limiti infrastrutturali e a rischi geopolitici, in particolare sull’uso di data center cinesi. Il tema dei token emerge così come nuova leva strategica nella corsa verso l’AGI e il dominio dell’economia AI.

    Link alla fonte:
    https://www.ft.com/content/2567877b-9acc-4cf3-a9e5-5f46c1abd13e?syn-25a6b1a6=1

  • Claude introduce Dispatch: l’AI di Anthropic esegue azioni dirette sul PC (ma con le dovute precauzioni)

    Anthropic ha lanciato la funzione Dispatch, che consente al suo modello Claude di eseguire comandi operativi su un computer a distanza, controllandolo anche da smartphone. L’AI può creare file, gestire applicazioni e automatizzare attività quotidiane, integrandosi con strumenti come Slack e Google Calendar. Se necessario, Claude può persino controllare mouse, tastiera e schermo per completare i compiti assegnati. La funzione include misure di sicurezza come richiesta di autorizzazione esplicita e protezione contro attacchi di prompt injection, ma l’azienda ammette che la tecnologia è ancora in fase iniziale. Anthropic raccomanda quindi un uso prudente, evitando dati sensibili e limitando l’accesso ad ambienti fidati.

    Link alla fonte:
    https://www.ilsole24ore.com/art/claude-prende-controllo-pc-ma-chiede-permesso-l-ai-anthropic-diventa-assistente-operativo-AIDDMKAC

  • Prompt Injection, una minaccia dalle mille forme

    Qualche giorno fa The Pirate Pinperepette (AKA Andrea Amani) pubblicò una splendida disamina su come il “testo nascosto” all’interno dei siti sia in grado di influenzare i “giudizi” dell’AI, ovvero uno dei tanti usi di “prompt injection” dall’esterno (diverso dal “jailbreaking” volontario condotto in alcuni casi dall’utente per estorcere all’AI risposte che normalmente non fornirebbe, per esempio su argomento “delicati”). Taggo Andrea perché spero legga questa notizia (se non l’ha già fatto, visto che è sempre “sul pezzo”) e magari scriva un altro dei suoi meravigliosi articoli sull’argomento in questione.

    Ed è proprio a proposito di prompt injection che vi riporto la notizia odierna, che dovrebbe farvi riflettere sul genere di informazioni fornite al vostro chatbot “di fiducia” (non pun intended) e di come possa essere utile, invece, sostituire eventuali dati sensibili con dati fittizi o, per chi ha la possibilità, usare l’AI in locale quando ciò è inevitabile.

    Il team di Oasis Security ha scoperto una catena di exploit chiamata “Claudy Day” che combina tre vulnerabilità in Claude.ai per sottrarre silenziosamente la cronologia delle conversazioni degli utenti. L’attacco sfrutta una prompt injection invisibile via URL, un abuso della libreria Files API di Anthropic e un open redirect su claude.com, creando una pipeline completa senza necessità di integrazioni esterne.

    La distribuzione avviene tramite Google Ads, rendendo l’attacco altamente scalabile e indistinguibile da annunci legittimi.

    Le implicazioni sono critiche, soprattutto in ambito enterprise, dove l’accesso a dati e strumenti può amplificare l’impatto. Anthropic ha già corretto una vulnerabilità, mentre le altre sono in fase di risoluzione, evidenziando la necessità urgente di nuove strategie di sicurezza per agenti AI.

    Qui trovate l’approfondimento:

    https://www.hwupgrade.it/news/sicurezza-software/claudy-day-tre-vulnerabilita-in-claudeai-che-trasformano-google-ads-in-un-vettore-di-attacco-invisibile_151575.html