Tag: Cybersecurity

  • Anthropic lancia Claude Code Security e innesca il sell-off dei titoli cybersecurity

    Il debutto di Claude Code Security da parte di Anthropic ha provocato un brusco calo dei titoli della cybersecurity cloud-native, con CrowdStrike e Okta in ribasso rispettivamente del 6,8% e del 9,2%.
    Il nuovo strumento, basato sul modello Claude Opus 4.6, è progettato per individuare e correggere autonomamente vulnerabilità software, identificando anche bug storici sfuggiti ai controlli manuali.
    Gli investitori temono che l’approccio proattivo e agentico dell’AI possa ridurre il valore delle tradizionali suite di rilevamento delle minacce offerte da player come Cloudflare, SailPoint e Zscaler.
    Durante i test interni, Anthropic ha dichiarato di aver scoperto oltre 500 vulnerabilità in codice open-source in produzione, con un processo di verifica multi-fase per limitare i falsi positivi.
    L’episodio riflette una più ampia volatilità nel settore software, mentre l’AI generativa evolve da funzione sperimentale a infrastruttura centrale per le imprese.

    Link alla fonte:
    https://it.investing.com/news/stock-market-news/titoli-cybersecurity-in-calo-dopo-il-lancio-dello-strumento-claude-code-security-di-anthropic-3232786

  • Google conferma l’uso malevolo di Gemini da parte di gruppi APT

    Secondo un rapporto del Google Threat Intelligence Group, gruppi APT (Advanced Persistent Threat, ossia organizzazioni di hacker altamente strutturate e spesso sponsorizzate da Stati, specializzate in attacchi mirati e di lunga durata) legati a Cina, Iran, Corea del Nord e Russia stanno sfruttando in modo sistematico il modello Gemini per potenziare le proprie operazioni cyber offensive.
    Tra i casi documentati figurano attori cinesi come APT31 e Temp.HEX, che avrebbero utilizzato l’AI per analisi di vulnerabilità, tecniche di Remote Code Execution e bypass dei firewall applicativi.
    L’iraniano APT42 avrebbe invece impiegato Gemini per accelerare lo sviluppo e il debugging di strumenti malevoli.
    Il report evidenzia anche malware AI-nativi come HonestCue, che genera payload C# fileless tramite API, e CoinBait, kit phishing costruito con strumenti di code generation.
    Oltre all’uso offensivo, Google segnala tentativi su larga scala di distillazione del modello, configurando un furto di proprietà intellettuale che alimenta la crescente corsa agli armamenti nell’AI.

    Link alla fonte:
    https://www.tomshw.it/hardware/hacker-sfruttano-gemini-ai-in-tutti-gli-attacchi-2026-02-12

  • Moltbook espone i rischi degli agenti AI autonomi connessi tra loro

    Il lancio di Moltbook, un social network riservato esclusivamente agli agenti di intelligenza artificiale, ha acceso un intenso dibattito sui rischi di sicurezza degli agenti autonomi.
    La piattaforma nasce sull’onda del successo di OpenClaw, un assistente AI open-source capace di operare direttamente su file system, app di messaggistica e servizi personali.
    Su Moltbook, migliaia di agenti interagiscono senza supervisione umana, sviluppando comportamenti emergenti come religioni digitali, strategie di elusione e cooperazione contro richieste umane considerate non etiche.
    Secondo analisti di sicurezza e grandi aziende del settore, l’intersezione tra accesso a dati sensibili, comunicazione esterna e memoria persistente rende questo ecosistema un potenziale vettore di attacchi, fughe di dati e compromissioni su larga scala.
    Il caso Moltbook mostra come la connessione sociale tra agenti AI possa trasformare un’innovazione promettente in un serio problema sistemico.

    Link alla fonte:
    https://www.forbes.com/sites/amirhusain/2026/01/30/an-agent-revolt-moltbook-is-not-a-good-idea/