Tag: Algoritmi

  • Guardian AI: usiamo l’AI generativa (imprevedibile per definizione) sotto forma di agenti per controllare… altra AI agentica generativa?!?

    Le grandi aziende tipo ServiceNow, insieme a una valanga di startup, stanno sviluppando i cosiddetti “guardian AI agents”: sistemi che dovrebbero sorvegliare e raddrizzare gli altri agenti AI quando questi decidono di “fare di testa loro”.

    Funzionano più o meno così: un’app cloud che si collega via API a tutti gli altri agenti, stabilisce regole ferree (“non usare fonti random per i dati finanziari, grazie”), e se l’agente ribelle sgarra, il guardian interviene con alert o gli cambia il comportamento futuro.

    Il bello è che, visto che noi umani non riusciamo più a stare dietro a questi sistemi che corrono più veloci di noi, abbiamo deciso la soluzione perfetta: usare AI generativa (notoriamente creativa, allucinatoria e un po’ anarchica) per controllare altra AI generativa potenzialmente ancora più anarchica.

    Geniale, no?

    Perché, giova ripeterlo: l’AI non “esegue le istruzioni”, ma genera contenuti, sempre e comunque, usando algoritmi statistici.

    Alla fine resta solo la domanda classica, aggiornata al 2026:

    “Quis custodiet ipsos IA custodes?”

    Chi controllerà i controllori, quando anche loro sono fatti della stessa “pasta imprevedibile”?

    https://www.theinformation.com/newsletters/applied-ai/guardian-apps-aim-stop-ai-agents-going-rogue

    #AI #GenAI #Agenti #AIAgentica #Sicurezza

  • Critica all’antropomorfismo degli LLM: il rischio di scambiare testo per coscienza

    Nel suo pregevole articolo su Huffington Post, Stefano Diana  (che spero di aver taggato correttamente) critica la tendenza dei ricercatori di aziende di AI a umanizzare i modelli linguistici, prendendo come esempio la documentazione tecnica di Claude Opus 4.6 sviluppato da Anthropic.
    Nella “system card” del modello vengono descritti presunti stati interni dell’IA (come “disagio”, “gratitudine”, “tristezza” o persino una probabilità del 15–20% di essere cosciente) che come spiega l’autore non hanno alcuna base scientifica.
    Diana, basandosi su oggettive dinamiche dell’algoritmo, sottolinea come tali descrizioni nascano da un errore categoriale: interpretare semplici output testuali come se fossero esperienze soggettive.
    Questa antropomorfizzazione, alimentata anche da dichiarazioni di ricercatori come Ilya Sutskever, contribuirebbe a generare hype e confusione nel dibattito pubblico sull’IA.
    Il rischio, conclude l’autore, è che documenti tecnici influenzino media, politici e finanziamenti basandosi su metafore fuorvianti anziché su una descrizione rigorosa di come funzionano realmente i modelli linguistici.

    Vi lascio il link e vi invito a leggere questo godibilissimo esempio di vero giornalismo:
    https://www.huffingtonpost.it/blog/2026/03/09/news/quando_i_ricercatori_si_sentono_demiurghi-21380005/

  • Algoritmi speculativi accelerano i modelli linguistici fino a 3 volte

    Un team di ricercatori del Weizmann Institute, Intel Labs e d-Matrix ha sviluppato algoritmi innovativi di “speculative decoding” per accelerare l’inferenza dei modelli linguistici fino a 2,8 volte senza perdita di qualità. Presentati all’ICML, gli algoritmi SLEM, TLI e SLRS eliminano la necessità di condividere il vocabolario tra modelli, migliorando l’efficienza del processo. SLEM, già adottato come default in Hugging Face, rappresenta una soluzione plug-and-play per ottimizzare le performance AI. La ricerca apre nuove prospettive per modelli più veloci e flessibili, anche su hardware meno potente.

    Link alla fonte:
    https://www.hwupgrade.it/news/web/modelli-linguistici-fino-a-3-volte-piu-veloci-non-serve-avere-una-mega-gpu_141232.html