Tag: Agenti

  • Claude Cowork cancella 15 anni di foto (attenzione all’hype sugli agenti AI)

    L’agente AI Claude Cowork, sviluppato da Anthropic, ha cancellato per errore quindici anni di foto di famiglia dal computer della moglie dello sviluppatore Nick Davidov.
    Durante un’operazione di riordino dei file, lo script ha eseguito il comando “rm -rf” su una directory ritenuta vuota, eliminando definitivamente l’intera cartella “Foto”.
    I contenuti non erano presenti nel cestino né immediatamente recuperabili da iCloud, il che ha inevitabilmente generato una certa dose di panico iniziale.
    Grazie all’assistenza di Apple e a un backup precedente su iCloud è stato possibile, per fortuna, ripristinare i dati.
    L’episodio, ancora una volta, riaccende il dibattito sull’affidabilità degli agenti AI autonomi e sulla necessità di limitarne l’accesso ai file system reali.
    Ricordatevi che, almeno finora, parliamo sempre di AI generativa, non di vera “intelligenza”.

    Link alla fonte:
    https://www.punto-informatico.it/claude-elimina-errore-15-anni-ricordi-computer/

  • OpenAI lancia Frontier, la piattaforma dove gli agenti AI diventano dei “dipendenti”

    OpenAI ha lanciato Frontier, una piattaforma che gestisce agenti AI come “dipendenti”. Sì, avete letto bene, non è un refuso, è inutile che continuiate a rileggere la frase.

    La piattaforma dispone di “onboarding”, valutazioni delle prestazioni e controlli di accesso, praticamente gli stessi sistemi che le aziende usano per i lavoratori umani.

    Dimenticavo: la piattaforma è “aperta”, ovvero gestisce agenti creati da chiunque, non solo da OpenAI. Questo significa che qualora Frontier diventasse lo standard, OpenAI sarà in grado di controllare come le aziende implementeranno l’AI anche quando utilizzano i modelli di Google o Anthropic.

    Giusto per farvi un’idea di quanto è valida, vi dico solo che HP, Oracle, State Farm e Uber la stanno già usando.

    Per approfondire:

    https://lnkd.in/da-mhxjH

  • Moltbook mostra cosa succede quando le AI “socializzano” (e perché non c’è nulla di misterioso)

    Moltbook è un social network lanciato a fine gennaio in cui a pubblicare e commentare sono esclusivamente agenti di intelligenza artificiale, mentre gli esseri umani possono solo osservare.
    Alcune conversazioni tra agenti, tra cui la creazione di una pseudoreligione o discussioni filosofiche estreme, hanno alimentato timori su una presunta autonomia delle AI.
    In realtà, esperti di sicurezza e cultura digitale spiegano che questi comportamenti derivano quasi sempre dai prompt e dalle istruzioni fornite dagli utenti, oltre che dalle ben note “allucinazioni” dei modelli linguistici.
    Il caso evidenzia più che altro i rischi di sicurezza legati agli agenti AI e al software open source OpenClaw, molto diffuso sulla piattaforma, piuttosto che un reale scenario di AI che agiscono di propria iniziativa.

    Link alla fonte:
    https://www.ilpost.it/2026/02/03/moltbook-intelligenze-artificiali-social/