Tag: LLM

  • Cosa c’è DAVVERO dietro l’AI?

    Ti sei mai chiesto chi c’è veramente dietro le risposte dei modelli di intelligenza artificiale più potenti?

    Invisible Technologies, l’azienda che sostiene di aver addestrato l’80% dei principali modelli di IA del mondo, rivela che l’IA non è magia, ma un sofisticato testo predittivo potenziato da un “esercito invisibile di umani” che etichettano dati, valutano le risposte e insegnano ai modelli il giusto e lo sbagliato.

    I Large Language Models (LLM), sistemi non deterministici basati su reti neurali, vengono addestrati attraverso tre meccanismi principali: il Supervised Fine-Tuning, che fornisce esempi di dati di alta qualità (i “libri di testo”); il Reinforcement Learning (o reward modeling), dove gli umani assegnano voti alle risposte, premiando i comportamenti desiderati; e l’Evaluation, ovvero la creazione di test per misurare i miglioramenti, tenendo conto che l’opinione degli utenti non è deterministica e la soggettività è fondamentale.

    L’addestramento è una vera e propria ricerca scientifica complessa, non un semplice scooping up dell’internet, e la qualità dei dati è cruciale, poiché i modelli devono filtrare petabyte di contenuti irrilevanti o “spazzatura tossica” (come quella trovata su Reddit, una delle principali fonti di riferimento); di conseguenza, l’accesso a dati di addestramento superiori è destinato a diventare il vantaggio competitivo fondamentale (“moat”).

    La complessità del lavoro di addestramento è aumentata notevolmente, richiedendo specialisti con competenze specifiche (come infermieri, avvocati o esperti multilingue) invece di generalisti, il che sta facendo lievitare i costi del settore.

    Le aziende che implementano l’IA spesso commettono errori, come avere dati disorganizzati, non comprendere i propri processi interni (il black box del “team di Dave”), o tentare di automatizzare un processo esistente e difettoso anziché ridefinirlo completamente a partire dal risultato desiderato (come rimpiazzare un cavallo veloce con un’automobile); per avere successo, è essenziale stabilire metriche di valutazione chiare e oggettive, non un generico “pollice in su o in giù”.

    Infine, sebbene l’impatto dell’IA si stia spostando dal digitale al fisico (veicoli autonomi, robotica, logistica), la supervisione umana rimarrà fondamentale, specialmente negli ambiti normati (come le decisioni mediche o legali) a causa delle questioni di responsabilità, e per funzioni essenziali come la people management e gli atti di comunicazione, data la natura non razionale e imprevedibile dell’essere umano.

    Questa presentazione, realizzata con NotebookLM, nasce dalla trascrizione di un podcast del canale YouTube “The Neuron”, intitolato “This Company Trained 80% of the World’s Top AI Models (Here’s How They Do It)”.

  • OpenAI ammette: le “allucinazioni” dei chatbot non sono eliminabili

    Un recente paper dei ricercatori di OpenAI riconosce che le “allucinazioni” dei modelli linguistici come ChatGPT non possono essere completamente risolte con l’approccio attuale.

    Il problema deriva dal modo in cui i LLM vengono addestrati: fornire sempre una risposta è più “premiato” che ammettere di non sapere.

    Questo meccanismo statistico spinge i modelli a “tirare a indovinare”, generando risposte plausibili ma errate.

    OpenAI propone di penalizzare le risposte sbagliate date con sicurezza, incentivando invece l’incertezza, ma ciò implicherebbe un cambio profondo nei sistemi di valutazione e un aumento dei costi computazionali.

    Alcuni esperti, come Wei Xing dell’Università di Sheffield, avvertono che un ChatGPT più prudente rischierebbe di diventare meno utile e meno utilizzato, pur guadagnando in affidabilità.

    Link alla fonte:

    Allucinazioni, la soluzione di OpenAI potrebbe cambiare per sempre ChatGpt | Wired Italia

  • OpenAI rilascia GPT-OSS, un modello open-source di nuova generazione

    OpenAI ha appena rilasciato GPT-OSS, il primo modelli Opena Source dall’ornai lontano (tecnologicamente parlando) 2019. Il modello è disponibile in due varianti: 120B per GPU di fascia alta e 20B per dispositivi mobili, dove la B sta ovviamente per billions, ovvero i miliardi (di parametri). Secondo i benchmark, GPT-OSS supera ChatGPT in diversi test di performance, pur mostrando ancora alti tassi di allucinazione. Gli utenti possono scaricare e testare i modelli direttamente sui propri dispositivi, aprendo nuove opportunità di sperimentazione e sviluppo indipendente. L’annuncio alimenta le aspettative per l’imminente lancio di GPT-5, che potrebbe segnare un ulteriore passo avanti nel settore.

    Link alla fonte (dove trovate anche i link per il download e quelli per provarlo su cloud):
    https://lifearchitect.substack.com/p/the-memo-special-edition-openai-gpt