L’India ha presentato MANAS 1, un Brain Language Foundation Model addestrato su 60.000 ore di segnali EEG provenienti da oltre 25.000 pazienti, con l’obiettivo di individuare precocemente disturbi neurologici e psichiatrici.
Sviluppato da Intellihealth (NeuroDx) sotto la guida del neurologo Dr. Puneet Agarwal, ex professore dell’AIIMS, il modello è stato rilasciato open source su Hugging Face con il supporto computazionale della Indian AI Mission del Ministero dell’Elettronica e IT.
Con 400 milioni di parametri, MANAS 1 è progettato come modello fondazionale capace di interpretare l’attività elettrica cerebrale, creando la base per strumenti diagnostici dedicati a epilessia, demenza e altre patologie.
In un contesto segnato dalla carenza di specialisti in India, la piattaforma potrebbe supportare screening preliminari nei centri sanitari territoriali, riducendo il ritardo tra insorgenza dei sintomi e diagnosi.
Una versione evoluta, MANAS 2, è attesa nelle prossime settimane.
Link alla fonte:
https://timesofindia.indiatimes.com/india/india-unveils-manas-1-ai-trained-on-60000-hours-of-brainwaves-aims-to-detect-disorders-early/articleshow/128698521.cms
Tag: LLM
-
L’India lancia MANAS 1: il modello AI addestrato su “60.000 ore” di onde cerebrali per ottenere diagnosi neurologiche precoci
-
I chatbot falliscono il “test dell’autolavaggio” e riaccendono il dibattito sul “buon senso” artificiale
Un test virale sui social ha messo in difficoltà diversi chatbot, tra cui ChatGPT, Copilot, Grok, Le Chat di Mistral e Perplexity, ponendo una domanda apparentemente banale: se devo lavare l’auto e l’autolavaggio è a 100 metri, ci vado a piedi o in macchina?
Molti modelli hanno risposto suggerendo di andare a piedi, concentrandosi sulla distanza e trascurando l’obiettivo implicito di portare l’auto all’autolavaggio.
Tra i sistemi citati, Gemini di Google avrebbe mostrato una maggiore capacità di collegare l’intento alla necessità pratica di guidare il veicolo.
Il caso evidenzia un limite strutturale dei modelli linguistici: l’analisi letterale delle parole prevale spesso sulla comprensione dell’intenzione e del contesto reale.
La vicenda rafforza l’invito alla prudenza nell’affidarsi senza verifica alle risposte generate dall’AI.Link alla fonte:
https://www.punto-informatico.it/chatbot-crisi-domanda-semplice-manda-titlt-ai/ -
L’italiano migliora la comprensione culturale dei modelli AI, ma non sostituisce il traduttore umano
Nella ventesima puntata del podcast Grande Giove, Roberto Navigli e Enrico Gianotti hanno discusso il ruolo della lingua nell’addestramento dei modelli di intelligenza artificiale.
Secondo Navigli, un modello addestrato in italiano comprende meglio riferimenti culturali, norme e sfumature linguistiche rispetto a modelli prevalentemente anglofoni adattati successivamente.
Gianotti ha sottolineato come i grandi modelli linguistici (LLM) eccellano nella traduzione grazie all’addestramento su testi paralleli in più lingue, superando spesso i sistemi tradizionali dedicati solo alla traduzione.
Tuttavia, entrambi concordano sul fatto che la traduzione letteraria, come dimostra l’esempio di Cesare Pavese con Moby Dick, richiede un’interpretazione creativa che l’AI non può replicare pienamente.
Il dibattito evidenzia quindi l’importanza della lingua madre nell’addestramento e i limiti attuali dell’AI nella mediazione culturale.Prima di lasciarvi come al solito al link di lettura dell’articolo originale, apro una piccola parentesi personale di approfondimento su questo aspetto sicuramente interessante.
Sebbene gli LLM traggano vantaggio dall’essere esposti allo stesso argomento in lingue diverse, il processo che permette loro di “saltare” da una lingua all’altra è più profondo e strutturale.
Per cominciare, molti modelli vengono addestrati su “corpora paralleli” (come traduzioni della Bibbia, atti del Parlamento Europeo o discorsi TED), dove lo stesso identico testo esiste in più lingue. Questo fornisce un segnale di supervisione esplicito che aiuta il modello ad allineare i significati.
Grazie all’architettura Transformer, inoltre, il modello non impara le lingue come compartimenti stagni. Sviluppa invece uno spazio vettoriale comune (o language-agnostic representation), dove concetti simili (es. “cane”, “dog”, “chien”) finiscono per occupare posizioni vicine, indipendentemente dalla lingua.
Infine, la conoscenza acquisita in una lingua ad alte risorse (come l’inglese) viene trasferita a lingue con meno dati. Questo accade perché il modello impara strutture grammaticali e logiche universali che facilitano la comprensione interlinguistica.
Anche senza testi identici, insomma, leggere libri diversi sullo stesso argomento (es. la Rivoluzione Francese) in italiano e in francese permette al modello di associare entità, date e concetti comuni, rafforzando i legami tra le due lingue.
La capacità di traduzione, quindi, è una proprietà emergente dovuta sia all’uso di testi tradotti (allineamento esplicito) sia alla capacità del modello di mappare concetti astratti in un unico “mappa mentale” digitale.Ecco il kink all’articolo iniziale:
https://www.wired.it/article/lingua-intelligenza-artificiale-traduzione-gianotti-navigli/
