Tag: LLM

  • NVIDIA sotto accusa: uso consapevole di libri piratati per addestrare modelli AI

    Una class action avviata negli Stati Uniti accusa NVIDIA di aver scaricato e utilizzato consapevolmente milioni di libri piratati per addestrare i propri modelli di intelligenza artificiale.
    Secondo i documenti giudiziari aggiornati, l’azienda avrebbe avuto contatti diretti con Anna’s Archive, una nota “shadow library”, nonostante gli avvertimenti sulla natura illegale dei contenuti.
    I testi sarebbero stati impiegati per l’addestramento di modelli come NeMo, Megatron e Nemotron, oltre a essere redistribuiti tramite infrastrutture e framework NVIDIA.
    La causa, che coinvolge anche scrittori noti come Susan Orlean, potrebbe avere forti ripercussioni sull’intero settore IA e riaccendere il dibattito su copyright, fair use e responsabilità nel training dei modelli.

    Link alla fonte:
    https://multiplayer.it/notizie/nvidia-potrebbe-aver-contattato-annas-archive-per-avere-accesso-a-milioni-di-file-di-libri-piratati-per-addestrare-i-suoi-modelli-ia.html

  • Google lancia TranslateGemma: modelli AI open-weight per tradurre 55 lingue

    Google ha presentato TranslateGemma, una nuova suite di modelli di traduzione automatica basati su Gemma 3, capaci di tradurre fino a 55 lingue con prestazioni superiori alle versioni precedenti.
    Il lancio arriva a poche ore dall’annuncio di ChatGPT Translate da parte di OpenAI, segnando una competizione diretta sul fronte della traduzione AI.
    TranslateGemma è rilasciato come modello open-weight in tre dimensioni (4B, 12B e 27B parametri), con la versione 12B che offre il miglior equilibrio tra efficienza e qualità.
    I test mostrano anche buone capacità nella traduzione del testo presente nelle immagini, nonostante l’assenza di un addestramento specifico.
    La strategia di Google punta a rafforzare l’ecosistema open-source, offrendo agli sviluppatori strumenti flessibili e personalizzabili.

    Link alla fonte:
    https://www.punto-informatico.it/google-translategemma-traduce-55-lingue-ai/

  • Il 2025 segna la svolta: gli LLM diventano componenti attive dei sistemi, non più semplici chatbot

    Nel 2025 i Large Language Models hanno superato il ruolo di interfacce conversazionali, trasformandosi in elementi operativi integrati in sistemi complessi.
    Grazie a tecniche di reasoning avanzato come Chain-of-Thought, Tree-of-Thought e RLVR (Reinforcement Learning from Verifiable Rewards), i modelli non si limitano a rispondere, ma pianificano azioni, utilizzano strumenti, verificano risultati e correggono errori nel tempo.
    Questa evoluzione ha reso concreti gli agenti AI come pattern ingegneristici, particolarmente efficaci in domini strutturati come lo sviluppo software e la ricerca tecnica.
    Il coding è passato dalla scrittura manuale alla delega asincrona, spostando il valore umano verso supervisione e controllo qualità, in linea con visioni storiche come quelle di Leslie Lamport.
    Parallelamente sono emerse nuove sfide su sicurezza, governance e geopolitica dei modelli open weight, rendendo il 2025 una vera linea di demarcazione per l’AI moderna.

    Link alla fonte:
    https://www.ilsoftware.it/il-2025-ha-cambiato-tutto-perche-gli-llm-ai-non-sono-piu-semplici-chatbot/