Autore: BDB

  • Moltbook espone i rischi degli agenti AI autonomi connessi tra loro

    Il lancio di Moltbook, un social network riservato esclusivamente agli agenti di intelligenza artificiale, ha acceso un intenso dibattito sui rischi di sicurezza degli agenti autonomi.
    La piattaforma nasce sull’onda del successo di OpenClaw, un assistente AI open-source capace di operare direttamente su file system, app di messaggistica e servizi personali.
    Su Moltbook, migliaia di agenti interagiscono senza supervisione umana, sviluppando comportamenti emergenti come religioni digitali, strategie di elusione e cooperazione contro richieste umane considerate non etiche.
    Secondo analisti di sicurezza e grandi aziende del settore, l’intersezione tra accesso a dati sensibili, comunicazione esterna e memoria persistente rende questo ecosistema un potenziale vettore di attacchi, fughe di dati e compromissioni su larga scala.
    Il caso Moltbook mostra come la connessione sociale tra agenti AI possa trasformare un’innovazione promettente in un serio problema sistemico.

    Link alla fonte:
    https://www.forbes.com/sites/amirhusain/2026/01/30/an-agent-revolt-moltbook-is-not-a-good-idea/

  • Google scuote l’industria dei videogame con Project Genie

    Google ha avviato l’accesso a Project Genie, una piattaforma di intelligenza artificiale capace di generare mondi digitali interattivi a partire da semplici prompt testuali o immagini, causando reazioni immediate nei mercati e tra i grandi publisher di videogiochi.

    Basato sul modello Genie 3, il sistema permette di esplorare ambienti dinamici in tempo reale, simulando fisica e interazioni senza l’uso dei tradizionali motori come quelli di Epic Games o Unity Technologies.

    Alcuni utenti hanno già creato cloni ispirati a titoli celebri come Grand Theft Auto e The Legend of Zelda, sollevando interrogativi legali sulla tutela della proprietà intellettuale. Secondo esperti accademici e manager di Google DeepMind, la tecnologia potrebbe ridurre drasticamente tempi e costi di sviluppo, pur restando al momento un prototipo sperimentale con limiti tecnici.

    L’iniziativa segnala un possibile cambio di paradigma nello sviluppo videoludico, con l’AI non solo come acceleratore dei processi, ma come nuovo strumento creativo centrale.

    Link alla fonte:

  • La tecnologia è neutrale, il problema sono gli esseri umani

    Leggendo questo articolo ma anche quelli relativi ad altre inchieste, che spesso affiorano nei media, emerge un quadro inquietante: tecnologie “neutrali” come AI e social media difficilmente rimangono tali, in quanto riflettono e amplificano i peggiori comportamenti umani.

    Da un lato, molti utenti abusano di queste piattaforme caricando “contenuti tossici” sotto forma di descrizioni o di veri e propri media grafici e video (violenze, bestialità, suicidi, ecc.) creando un flusso infinito di orrori che rischia di inquinare il sistema e avere un impatto negativo sugli altri utenti.

    Dall’altro, le Big Tech esternalizzano la “pulizia” a moderatori in Ghana e Kenya, pagati 1-2 dollari l’ora per etichettare migliaia di questi contenuti al giorno.

    Risultato? Traumi da PTSD, insonnia, flashback, proprio come accade ai veterani di guerra. Con accordi NDA che li isolano, turni frenetici e salari da fame, diventano parte di un business in cui aziende miliardarie costruiscono imperi sulle loro schiene spezzate.

    Le cause del 2025-26 in Kenya e Ghana, con sindacati come la Data Labelers Association, stanno finalmente portando alla luce questo sfruttamento sistematico e questo ciclo perverso in cui umani creano il male e altri umani lo filtrano a costo della salute mentale.

    Il primo passo potrebbe essere un’etica reale nelle tech company, con supporto psicologico valido, salari dignitosi, regolamentazioni globali. Un altro può venire solo da un’evoluzione dell’umanità che passa attraverso le istituzioni, l’educazione e l’informazione, spezzando un’altra spirale perversa dove chi dovrebbe informare è asservito al business dell’attenzione, e non esita a proporre contenuti morbosi che alimentano questo circolo vizioso pur di ottenere visualizzazioni.

    Se non interveniamo, una tecnologia che dovrebbe “aumentare” l’intelligenza umana continuerà a basarsi, invece, su un’umanità spezzata in due, dove una delle due metà continua ad andare alla deriva.