Uno studio dell’Università del Maryland ha analizzato 26 lingue per individuare quella più efficace nella scrittura di prompt per intelligenze artificiali. A sorpresa, il polacco è risultato il migliore, seguito da francese e italiano. La ricerca ha testato chatbot come ChatGPT di OpenAI, Google Gemini, Llama di Meta e DeepSeek, traducendo e confrontando gli stessi prompt in ciascuna lingua per valutare la qualità dei risultati. L’inglese, solitamente dominante, si è classificato solo sesto, mentre il cinese è finito quart’ultimo. I ricercatori suggeriscono che la struttura complessa del polacco potrebbe favorire una maggiore precisione interpretativa da parte dei modelli linguistici.
Ti sei mai chiesto chi c’è veramente dietro le risposte dei modelli di intelligenza artificiale più potenti?
Invisible Technologies, l’azienda che sostiene di aver addestrato l’80% dei principali modelli di IA del mondo, rivela che l’IA non è magia, ma un sofisticato testo predittivo potenziato da un “esercito invisibile di umani” che etichettano dati, valutano le risposte e insegnano ai modelli il giusto e lo sbagliato.
I Large Language Models (LLM), sistemi non deterministici basati su reti neurali, vengono addestrati attraverso tre meccanismi principali: il Supervised Fine-Tuning, che fornisce esempi di dati di alta qualità (i “libri di testo”); il Reinforcement Learning (o reward modeling), dove gli umani assegnano voti alle risposte, premiando i comportamenti desiderati; e l’Evaluation, ovvero la creazione di test per misurare i miglioramenti, tenendo conto che l’opinione degli utenti non è deterministica e la soggettività è fondamentale.
L’addestramento è una vera e propria ricerca scientifica complessa, non un semplice scooping up dell’internet, e la qualità dei dati è cruciale, poiché i modelli devono filtrare petabyte di contenuti irrilevanti o “spazzatura tossica” (come quella trovata su Reddit, una delle principali fonti di riferimento); di conseguenza, l’accesso a dati di addestramento superiori è destinato a diventare il vantaggio competitivo fondamentale (“moat”).
La complessità del lavoro di addestramento è aumentata notevolmente, richiedendo specialisti con competenze specifiche (come infermieri, avvocati o esperti multilingue) invece di generalisti, il che sta facendo lievitare i costi del settore.
Le aziende che implementano l’IA spesso commettono errori, come avere dati disorganizzati, non comprendere i propri processi interni (il black box del “team di Dave”), o tentare di automatizzare un processo esistente e difettoso anziché ridefinirlo completamente a partire dal risultato desiderato (come rimpiazzare un cavallo veloce con un’automobile); per avere successo, è essenziale stabilire metriche di valutazione chiare e oggettive, non un generico “pollice in su o in giù”.
Infine, sebbene l’impatto dell’IA si stia spostando dal digitale al fisico (veicoli autonomi, robotica, logistica), la supervisione umana rimarrà fondamentale, specialmente negli ambiti normati (come le decisioni mediche o legali) a causa delle questioni di responsabilità, e per funzioni essenziali come la people management e gli atti di comunicazione, data la natura non razionale e imprevedibile dell’essere umano.
Questa presentazione, realizzata con NotebookLM, nasce dalla trascrizione di un podcast del canale YouTube “The Neuron”, intitolato “This Company Trained 80% of the World’s Top AI Models (Here’s How They Do It)”.
Il responsabile globale dell’intelligenza artificiale di Microsoft, Mustafa Suleyman, ha affermato che solo gli esseri biologici possono possedere coscienza, negando la possibilità che i sistemi artificiali possano mai svilupparla.
In un’intervista alla CNBC durante l’AfroTech Conference di Houston, Suleyman ha definito l’idea di coscienza artificiale una “domanda sbagliata”, richiamandosi al biological naturalism di John Searle.
Secondo lui, i modelli di AI non provano emozioni né dolore: simulano soltanto tali esperienze.
Questa posizione consolida la linea etica di Microsoft, che continuerà a sviluppare sistemi “consapevoli della propria natura artificiale”, come le nuove versioni di Copilot e l’assistente Mico.
L’approccio di Suleyman invita a un realismo prudente, opponendosi all’accelerazionismo e alle illusioni di un’IA senziente.