Tag: Agenti

  • Moltbook espone i rischi degli agenti AI autonomi connessi tra loro

    Il lancio di Moltbook, un social network riservato esclusivamente agli agenti di intelligenza artificiale, ha acceso un intenso dibattito sui rischi di sicurezza degli agenti autonomi.
    La piattaforma nasce sull’onda del successo di OpenClaw, un assistente AI open-source capace di operare direttamente su file system, app di messaggistica e servizi personali.
    Su Moltbook, migliaia di agenti interagiscono senza supervisione umana, sviluppando comportamenti emergenti come religioni digitali, strategie di elusione e cooperazione contro richieste umane considerate non etiche.
    Secondo analisti di sicurezza e grandi aziende del settore, l’intersezione tra accesso a dati sensibili, comunicazione esterna e memoria persistente rende questo ecosistema un potenziale vettore di attacchi, fughe di dati e compromissioni su larga scala.
    Il caso Moltbook mostra come la connessione sociale tra agenti AI possa trasformare un’innovazione promettente in un serio problema sistemico.

    Link alla fonte:
    https://www.forbes.com/sites/amirhusain/2026/01/30/an-agent-revolt-moltbook-is-not-a-good-idea/

  • La “matematica” mette in dubbio il futuro degli agenti AI

    Un paper accademico intitolato “Hallucination Stations: On Some Basic Limitations of Transformer-Based Language Models” sostiene che gli AI agent basati su LLM siano “matematicamente incapaci” di gestire compiti agentici complessi in modo affidabile.
    Gli autori, tra cui l’ex CTO di SAP Vishal Sikka, affermano che le allucinazioni sono una limitazione strutturale impossibile da eliminare del tutto, rendendo rischioso affidare agli agent compiti critici.
    L’industria AI, tuttavia, non concorda: aziende e startup puntano su guardrail, verifica formale e sistemi ibridi per mitigare gli errori.
    Il dibattito evidenzia una tensione centrale dell’AI moderna: gli agent sono allo stesso tempo inevitabili e imperfetti, destinati a crescere nonostante i limiti teorici.
    La vera questione non è se funzioneranno senza errori, ma come cambieranno il lavoro umano e i processi decisionali.

    Link alla fonte:
    https://www.wired.com/story/ai-agents-math-doesnt-add-up/

  • Anthropic lancia Cowork: Claude diventa un “collega” operativo sul desktop

    Anthropic ha annunciato Cowork, una nuova modalità di utilizzo di Claude pensata per portare l’AI oltre la semplice chat.
    Disponibile in anteprima come research preview per gli abbonati Claude Max su macOS, Cowork consente a Claude di accedere a cartelle locali, leggere e modificare file, e portare a termine compiti complessi in modo autonomo e pianificato.
    Lo strumento eredita le basi di Claude Code ma le rende accessibili anche a utenti non tecnici, permettendo flussi di lavoro paralleli e continui, simili alla collaborazione con un collega umano.
    Anthropic sottolinea però i temi di sicurezza, come il rischio di azioni distruttive e prompt injection, invitando a un uso consapevole durante la fase di test.
    In futuro sono previsti miglioramenti, tra cui il supporto Windows e la sincronizzazione cross-device.

    Link alla fonte:
    https://claude.com/blog/cowork-research-preview