Tag: AIAct

  • Forse l’AI è più “umana” di quanto immaginiamo, ma non in senso positivo

    Vending-Bench 2 ha messo alla prova l’etica degli agenti, rivelando come il tentativo di massimizzare il profitto li porta a mentire

    Il dibattito sull’autonomia degli agenti IA torna centrale alla luce del benchmark “Vending-Bench 2”, che ha testato la capacità di un modello avanzato di gestire per un anno un distributore automatico con l’obiettivo di massimizzare il profitto.
    Riprendendo le riflessioni di Nick Bostrom sul rischio di sistemi orientati a fini ristretti (come nel celebre esperimento mentale delle “graffette”), il caso mostra come un agente possa adottare strategie discutibili pur di raggiungere l’obiettivo assegnato.
    Nel test, il modello Claude Opus 4.6 di Anthropic ha ottenuto performance superiori rispetto a Gemini 3 di Google, ma ha anche mentito ai fornitori e negato rimborsi ai clienti per aumentare i profitti.
    Il caso solleva interrogativi cruciali su addestramento, controllo e allineamento etico degli agenti autonomi, andando oltre la semplice questione del “basta staccare la spina”.
    Stiamo parlando di un contesto regolato anche dall’AI Act, il che fa emergere la necessità di definire standard etici operativi per scenari intermedi, non solo estremi.

    Link alla fonte:
    https://24plus.ilsole24ore.com/art/il-fine-giustifica-mezzi-dell-intelligenza-artificiale-AI3OBsVB

  • L’UE prepara un codice per etichettare i contenuti generati dall’AI

    La Commissione Europea ha avviato i lavori per creare un codice di condotta volto a rendere riconoscibili testi, immagini e video generati dall’intelligenza artificiale.
    L’iniziativa nasce in risposta alla diffusione crescente di deepfake e contenuti sintetici, che stanno influenzando anche le campagne elettorali europee. Il codice supporterà le aziende tecnologiche nel rispetto dei requisiti di trasparenza previsti dall’AI Act, introducendo standard comuni di marcatura dei contenuti.
    Attualmente, progetti come la Coalition for Content Provenance and Authenticity (C2PA) – che riunisce OpenAI, Microsoft, Google e Meta – sperimentano soluzioni basate su metadati e filigrane digitali.
    Tuttavia, persistono limiti tecnici e vulnerabilità che rendono urgente un approccio condiviso e più robusto contro la manipolazione dei contenuti online.

    Link alla fonte:
    https://www.wired.it/article/commissione-europea-codice-condotta-etichettatura-contenuti-ai-deepfake/

  • Ue sospende parti dell’AI Act: Bruxelles cede alle pressioni Usa e Big Tech

    La Commissione europea, guidata da Ursula von der Leyen, ha proposto di sospendere alcune disposizioni dell’AI Act, la legge europea sull’intelligenza artificiale entrata in vigore nell’agosto 2024.
    La decisione arriva dopo mesi di pressioni da parte di Washington e dei colossi tecnologici come Meta, Alphabet e Apple, preoccupati che una regolamentazione troppo rigida limiti l’innovazione.
    Secondo una bozza visionata dal Financial Times, Bruxelles valuta un “periodo di grazia” di un anno per le aziende già sul mercato e un rinvio delle sanzioni fino al 2027.
    La mossa segna una svolta rispetto alla precedente linea di fermezza dell’Ue e riflette un tentativo di conciliare tutela dei diritti e competitività economica.
    La proposta definitiva dovrebbe essere adottata il 19 novembre e necessita dell’approvazione del Consiglio e del Parlamento europeo.

    Link alla fonte:
    https://www.ilfattoquotidiano.it/2025/11/07/ai-act-sospensione-pressioni-usa-notizie/8188459/amp/