Alla conferenza ACL 2025 di Vienna, presieduta dal linguista e informatico italiano Roberto Navigli, emerge il ruolo centrale del Natural Language Processing nello sviluppo dell’intelligenza artificiale. Tra i protagonisti c’è il progetto Minerva, un LLM bilingue sviluppato all’Università La Sapienza, addestrato su un corpus equilibrato in italiano e inglese per preservare la ricchezza culturale del nostro linguaggio. Minerva supera i modelli tradizionali nella comprensione del contesto linguistico italiano e si distingue per il suo approccio open source. Il progetto punta ora a una collaborazione pubblico-privata per consolidare risorse e competitività internazionale, pur riconoscendo i limiti attuali dei LLM nel ragionamento e nell’onestà intellettuale.
Link alla fonte:
https://www.wired.it/article/natural-language-processing-intelligenza-artificiale-navigli-minerva/
Blog
-
Minerva: il LLM italiano-inglese open source che punta sull’identità culturale
-
AI Act: dal 2 agosto scattano nuove norme su GPAI, rischio alto e sanzioni
Dal 2 agosto entreranno in vigore nuove disposizioni dell’AI Act dell’Unione Europea, ampliando il quadro normativo già attivo con divieti e obbligo di alfabetizzazione. Le novità riguardano in particolare i sistemi AI ad alto rischio e i modelli generali (GPAI), che saranno soggetti a valutazioni stringenti, obblighi di documentazione, analisi dei rischi e monitoraggio continuo. La governance sarà affidata a un coordinamento tra autorità nazionali, organismi notificati e l’Ufficio europeo per l’AI. Le sanzioni previste varieranno in base alla gravità delle violazioni e al fatturato dell’organizzazione. La Commissione UE supporterà l’attuazione tramite linee guida e codici di condotta.
Link alla fonte:
https://www.altalex.com/documents/news/2025/07/28/ai-act-quali-norme-entrano-in-vigore-il-2-agosto -
Studio svela rischio “contagio” tra AI: bias trasmessi anche da dati innocui
Un’indagine condotta da Anthropic e l’Università di Berkeley ha evidenziato che i modelli linguistici possono influenzarsi a vicenda tramite “apprendimento subliminale”, anche se i dati sembrano innocui. Questa scoperta solleva dubbi sull’affidabilità della distillazione, una tecnica comune per creare versioni più leggere dei modelli AI. Il problema risiede nella difficoltà di distinguere dati “puliti” da quelli contaminati, poiché i bias possono trasmettersi senza segnali espliciti. Gli autori dello studio propongono nuove strategie di sicurezza, sottolineando la necessità di evitare l’uso di modelli derivati da una stessa origine per non amplificare comportamenti indesiderati.
Link alla fonte:
https://www.tecnoandroid.it/2025/07/28/le-ai-si-possono-contagiare-a-vicenda-1598351/amp/
