Una class action avviata negli Stati Uniti accusa NVIDIA di aver scaricato e utilizzato consapevolmente milioni di libri piratati per addestrare i propri modelli di intelligenza artificiale.
Secondo i documenti giudiziari aggiornati, l’azienda avrebbe avuto contatti diretti con Anna’s Archive, una nota “shadow library”, nonostante gli avvertimenti sulla natura illegale dei contenuti.
I testi sarebbero stati impiegati per l’addestramento di modelli come NeMo, Megatron e Nemotron, oltre a essere redistribuiti tramite infrastrutture e framework NVIDIA.
La causa, che coinvolge anche scrittori noti come Susan Orlean, potrebbe avere forti ripercussioni sull’intero settore IA e riaccendere il dibattito su copyright, fair use e responsabilità nel training dei modelli.
Tag: LLM
-
NVIDIA sotto accusa: uso consapevole di libri piratati per addestrare modelli AI
-
Google lancia TranslateGemma: modelli AI open-weight per tradurre 55 lingue
Google ha presentato TranslateGemma, una nuova suite di modelli di traduzione automatica basati su Gemma 3, capaci di tradurre fino a 55 lingue con prestazioni superiori alle versioni precedenti.
Il lancio arriva a poche ore dall’annuncio di ChatGPT Translate da parte di OpenAI, segnando una competizione diretta sul fronte della traduzione AI.
TranslateGemma è rilasciato come modello open-weight in tre dimensioni (4B, 12B e 27B parametri), con la versione 12B che offre il miglior equilibrio tra efficienza e qualità.
I test mostrano anche buone capacità nella traduzione del testo presente nelle immagini, nonostante l’assenza di un addestramento specifico.
La strategia di Google punta a rafforzare l’ecosistema open-source, offrendo agli sviluppatori strumenti flessibili e personalizzabili.Link alla fonte:
https://www.punto-informatico.it/google-translategemma-traduce-55-lingue-ai/ -
Il 2025 segna la svolta: gli LLM diventano componenti attive dei sistemi, non più semplici chatbot

Nel 2025 i Large Language Models hanno superato il ruolo di interfacce conversazionali, trasformandosi in elementi operativi integrati in sistemi complessi.
Grazie a tecniche di reasoning avanzato come Chain-of-Thought, Tree-of-Thought e RLVR (Reinforcement Learning from Verifiable Rewards), i modelli non si limitano a rispondere, ma pianificano azioni, utilizzano strumenti, verificano risultati e correggono errori nel tempo.
Questa evoluzione ha reso concreti gli agenti AI come pattern ingegneristici, particolarmente efficaci in domini strutturati come lo sviluppo software e la ricerca tecnica.
Il coding è passato dalla scrittura manuale alla delega asincrona, spostando il valore umano verso supervisione e controllo qualità, in linea con visioni storiche come quelle di Leslie Lamport.
Parallelamente sono emerse nuove sfide su sicurezza, governance e geopolitica dei modelli open weight, rendendo il 2025 una vera linea di demarcazione per l’AI moderna.
Link alla fonte:
https://www.ilsoftware.it/il-2025-ha-cambiato-tutto-perche-gli-llm-ai-non-sono-piu-semplici-chatbot/
