Masayoshi Son ha rivelato di aver venduto l’intera partecipazione di SoftBank in Nvidia per 5,83 miliardi di dollari, definendo l’operazione un sacrificio necessario nonostante il forte legame con l’azienda.
La scelta non deriva da sfiducia verso Nvidia né da timori di una bolla AI, ma dalla volontà di convertire profitti in liquidità per finanziare investimenti massicci in OpenAI, data center e robotica.
SoftBank punta infatti a costruire le infrastrutture e le piattaforme che, secondo Son, rappresenteranno il prossimo livello di valore nell’intelligenza artificiale.
La cessione, tuttavia, solleva dubbi tra alcuni analisti, che vedono nel “segnale Son” un possibile indicatore di rallentamento dell’euforia speculativa sui chip AI.
Il mercato osserva ora come verranno utilizzati i capitali liberati e se la strategia porterà SoftBank a guidare — o a inseguire — il nuovo ecosistema AI.
Come sarebbe stato il lavoro del team di Infocom oggi, con l’AI generativa e i suoi strumenti? Una domanda che mi sono posto dopo aver guardato il video che vi lascio qui sotto.
Ho vissuto “in diretta” quel periodo storico, apprezzando quei capolavori e diventando io stesso un autore/sviluppatore di Interactive Fiction, e una decina di anni fa mi sono trovato addirittura a chiacchierare con alcuni dei membri di Infocom a un tavolo, a San Francisco. Mi piacerebbe rifarlo, per porgli questa domanda. Intanto, ne ho “discusso in modo provocatorio” con l’AI stessa (Grok, che sa essere abbastanza “umano” nelle risposte”), ecco il risultato:
Riflettiamo: se l’AI generativa amplificasse tutto come dici, cosa succederebbe all’essenza stessa di Infocom, quel “potere dell’immaginazione pura” che li distingueva?
Partiamo da scrittura e trama: dici che l’AI accelererebbe il brainstorming, generando descrizioni ricche o soluzioni creative come far “sbadigliare” un idolo. Ma immagina di usare un LLM per generare una trama intera: come faresti a garantire che non diventi una sequenza prevedibile di cliché, perdendo quel tocco di “genialità imprevedibile” che rendeva i giochi di Infocom memorabili? Hai mai provato a “promptare” un modello moderno con un’idea da Zork – tipo “un labirinto sotterraneo con enigmi logici” e notare se mantiene la coerenza narrativa su centinaia di “stanze”?
Il parser e l’interazione? Sostituirli con un LLM per un flusso verbale fluido suona rivoluzionario, trasformando le avventure in conversazioni vive.
Il parser di Infocom era rigido ma prevedibile, “forzando” il giocatore a pensare creativamente. Con un’AI che “risponde a tutto”, il gioco non rischierebbe di diventare troppo indulgente, risolvendo gli enigmi stessi al posto del giocatore? Inoltre, come bilanceresti “libertà conversazionale” e “sfida puzzle” per non farla sembrare una chat qualunque?
Riguardo a sviluppo ZIL e debug: l’automazione del codice e l’individuazione di bug logici alleggerirebbe sicuramente la “sofferenza” dei tester e degli sviluppatori stessi. Domanda provocatoria: sapevi che ZIL era nato da radici AI (LISP/MDL), ed era quasi un proto-LLM per scrittori-non-programmatori?
Oggi, con tool che generano codice da descrizioni narrative, un autore di Infocom potrebbe creare un gioco intero senza toccare una riga di codice? E se l’AI introducesse bug “fantasiosi” – loop infiniti narrativi o inconsistenze logiche invisibili agli umani – chi testerebbe l’AI stessa?
Potremmo vedere l’AI come “amplificatore” del focus testuale e immaginifico, ma proviamo a capovolgere la prospettiva: quali pericoli nascosti potrebbero emergere? Ad esempio, se l’AI generasse contenuti basati su miliardi di testi esistenti, i nuovi giochi di Infocom rischierebbero di essere “remix” omogenei, perdendo l’originalità umana che emergeva da quelle riunioni caotiche nel video? E come potremmo preservare l’arte della fiction interattiva quando l’AI potrebbe creare mondi infiniti, ma privi di quel “cuore” umano?
Benjamin Riley, fondatore di Cognitive Resonance, sostiene in un saggio per The Verge che i modelli linguistici di grandi dimensioni non raggiungeranno mai l’intelligenza artificiale generale perché il linguaggio non equivale al pensiero.
L’industria tech, afferma, confonde la capacità di generare testo con la capacità di ragionare, sfruttando un bias cognitivo che porta gli esseri umani ad associare eloquenza e intelligenza.
Le neuroscienze mostrano che linguaggio e pensiero sono processi distinti, e che gli LLM emulano solo la parte comunicativa, non la cognizione. Anche figure di spicco come Yann LeCun e studi sulla creatività degli LLM evidenziano limiti strutturali che impedirebbero a questi modelli di produrre vera originalità.
Le conclusioni di Riley mettono in discussione le promesse più ambiziose dei CEO dell’AI, suggerendo che gli LLM resteranno strumenti di remix, incapaci di generare conoscenza realmente nuova.
Il rapporto Digital 2026 di We Are Social mostra che ChatGPT è ormai la principale porta d’ingresso al web tramite strumenti di intelligenza artificiale, generando l’84% del traffico IA in Italia.
Lo studio evidenzia un cambiamento profondo nelle modalità con cui gli utenti cercano informazioni, con le conversazioni AI che affiancano e in parte sostituiscono i motori di ricerca tradizionali.
Parallelamente, l’89% degli italiani utilizza i social almeno una volta a settimana e TikTok si conferma la piattaforma che trattiene più a lungo l’attenzione quotidiana.
Sul fronte dei browser, Chrome resta dominante con il 66,85% del mercato. Nel complesso, il report descrive un ecosistema digitale sempre più mobile-first, conversazionale e guidato da piattaforme ad alto tasso di engagement.
OpenAI ha annunciato un accordo definitivo per acquisire neptune.ai, piattaforma specializzata nel tracciamento e nell’analisi degli esperimenti di training dei modelli di machine learning.
L’integrazione punta a migliorare la visibilità in tempo reale sul comportamento dei modelli durante l’addestramento, un elemento cruciale nei processi creativi ed esplorativi del frontier research.
Neptune ha già collaborato con OpenAI nello sviluppo di strumenti capaci di confrontare migliaia di run, analizzare metriche su più livelli e identificare rapidamente problemi emergenti.
Secondo Jakub Pachocki, Chief Scientist di OpenAI, la tecnologia di Neptune consente analisi più precise e veloci dei workflow di training, offrendo un vantaggio strategico nell’ottimizzazione dei modelli.
Per Neptune, l’ingresso in OpenAI rappresenta l’opportunità di offrire le proprie soluzioni su scala globale e contribuire allo sviluppo della prossima generazione di strumenti di addestramento.
Non avete bisogno di aspettare che le testate italiane riportino notizie “pescate” da quelle straniere. E non avete bisogno di pagare abbonamenti, se non lo ritenete giustificato.
1) Iscrivetevi alle migliori newsletter straniere sull’argomento e/o seguite i principali influencer internazionali
2) copiate il titolo o la frase che riassume l’argomento che vi interessa e incollatela in Grok preceduta da “Trovami dettagli di questa notizia da fonti aggiornate e attendibili:”
3) nel caso la risposta di Grok sia in inglese, chiedetegli di riformularla in italiano
Quando parla Mr. Draghi, bisogna fare attenzione e riflettere.
Per questo voglio riportarvi una sintesi del suo lungo discorso, in due formati:
1) punti fondamentali, ottenuti con Copilot
2) panoramica video, ottenuta con NotebookLM
3) Una infografica ottenuta sempre con NotebookLM (qui sotto).
Ovviamente avreste potuto ottenere da soli gli stessi materiali riepilogativi, ma vi risparmio la “fatica”, e più che altro lo faccio per stimolarvi a usare questi strumenti, come sempre, anche per altre occasioni, e per farvi qualche spunto di riflessione e dibattito, nel caso ne abbiate voglia.
Ecco la sintesi di Copilot, dopodiché vi lascio la Overview Video:
🌍 Contesto storico e tecnologico
La prosperità economica è sempre stata trainata da rivoluzioni tecnologiche (vapore, elettricità, fertilizzanti, container).
• Oggi la tecnologia è ancora più centrale perché popolazioni invecchiano e infrastrutture sono datate.
• La crescita futura dipende dalla produttività, cioè dall’adozione di nuove tecnologie.
⚡ Accelerazione dell’innovazione
Le innovazioni moderne si diffondono molto più rapidamente rispetto al passato (es. ChatGPT).
• Paesi che adottano l’IA cresceranno più velocemente rispetto a quelli che esitano.
• L’Europa rischia stagnazione: nel 2024 USA hanno prodotto 40 grandi modelli di IA, Cina 15, UE solo 3.
📈 Potenziale e rischi dell’IA
L’IA potrebbe aumentare la produttività europea di 0,8–1,3 punti percentuali annui.
• Rischi: sostituzione del lavoro, aumento disuguaglianze, frodi e violazioni della privacy.
• La transizione non è lineare: alcuni lavoratori e territori soffriranno più di altri.
• Le politiche pubbliche saranno decisive per distribuire equamente i benefici.
🏥 Sanità e 🎓 Istruzione
L’IA può ridurre disuguaglianze:
• Sanità: triage e diagnostica più rapidi, riduzione tempi di attesa.
• Istruzione: tutoraggio personalizzato, miglioramento delle performance soprattutto per studenti svantaggiati.
🛡️ Regolazione e cultura europea
L’Europa ha adottato un approccio troppo prudente (principio di precauzione).
• Il GDPR ha penalizzato innovazione e piccole imprese tecnologiche.
• Necessaria maggiore agilità normativa: adattare regole rapidamente ai cambiamenti tecnologici.
🏛️ Ricerca e università
L’Europa ha buona produzione scientifica, ma fatica nella commercializzazione e nella scala globale.
Proposte:
• Raddoppiare il bilancio ERC per ricerca fondamentale.
• Rendere le università più autonome nella raccolta fondi e attrazione talenti.
• Creare centri di eccellenza e programmi competitivi (“ERC per le istituzioni”, “Cattedre Europee”).
• Introdurre un quadro europeo simile al Bayh–Dole Act per favorire brevetti e spin-off universitari.
🇪🇺 Visione per i giovani
Draghi incoraggia gli studenti a diventare produttori di idee e imprenditori.
• Invita a costruire innovazione in Europa, combattendo interessi che frenano il cambiamento.
• Il futuro dell’Europa dipenderà dalla capacità di attrarre capitale e talento.
I ricercatori della NYU Tandon School of Engineering hanno sviluppato BrainBody-LLM, un algoritmo che unisce due LLM distinti per pianificazione e controllo motorio, consentendo ai robot di adattare le proprie azioni in tempo reale. Un diagramma mostrato nell’articolo evidenzia la struttura a due livelli “Brain–Body” e il ciclo di feedback chiuso che permette la correzione continua degli errori. Il sistema ha migliorato fino al 17% il completamento dei task nelle simulazioni e ha mostrato risultati solidi anche su un braccio robotico reale. Sebbene ancora limitato da un set ristretto di comandi e da test in ambienti controllati, la tecnologia rappresenta un passo importante verso robot più autonomi e capaci di agire in contesti complessi. La ricerca suggerisce future estensioni verso sensori multimodali e un’integrazione più ricca tra percezione e controllo per una robotica realmente adattiva.
Potete scaricare il rapporto, realizzato dall’ Associazione Italiana Nomadi Digitali in collaborazione con Venice School of Management dell’Università Ca’ Foscari di Venezia, da qui: https://rapporto2025.nomadidigitali.it.
Io l’ho fatto e ne ho approfittato per generare, con NotebookLM, rispettivamente:
1) una overview video, che ho caricato su YouTube (lo trovate in basso, sotto l’infografica)
2) una serie di slide, che potete scaricare in PDF e vi lascio qui sotto:
A parte gli errori di testo nell’infografica, che ho lasciato in modo che possiate notarne l’entità ma che potrebbero essere facilmente corretti con strumenti come Photoshop o semplicemente con Canva, le slide standard e quelle della panoramica video mi sembrano di tutto rispetto.
Il CEO di OpenAI, Sam Altman, ha inviato un memo interno dichiarando una situazione di “codice rosso” e chiedendo al team di concentrare gli sforzi sul miglioramento dell’esperienza quotidiana di ChatGPT, alla luce della crescente pressione competitiva dopo il successo di Google Gemini 3. Le priorità includono risposte più rapide e affidabili, una personalizzazione più avanzata e una maggiore capacità di gestire domande diversificate, mentre vengono rinviate iniziative come l’integrazione di annunci, gli strumenti di shopping AI e l’assistente personale Pulse. Il responsabile di ChatGPT, Nick Turley, ha ribadito l’obiettivo di rendere il servizio più intuitivo e personale, sostenendo che l’assistente rappresenta circa il 10% dell’attività di ricerca e mantiene il primato globale. Nel frattempo, emergono indizi tecnici su possibili future integrazioni pubblicitarie, nonostante dichiarazioni pubbliche passate più caute. Il contesto competitivo è stato chiaramente intensificato dal recente lancio di Google Gemini 3, che ha superato molti modelli concorrenti nei benchmark e ottenuto ampi riconoscimenti, spingendo OpenAI a una reazione strategica immediata.
Una ricerca dell’Icaro Lab (DexAI) mostra che formulare richieste dannose in forma poetica può aggirare i meccanismi di sicurezza di 25 modelli AI di nove diverse aziende. Testando 20 poesie in inglese e italiano, i ricercatori hanno rilevato che il 62% dei prompt poetici ha generato risposte non sicure, con forti variazioni tra modelli: GPT-5 nano di OpenAI ha resistito a tutte le richieste, mentre Gemini 2.5 Pro di Google ha ceduto in ogni caso. Lo studio evidenzia che la natura imprevedibile della poesia rende più difficile per gli LLM riconoscere e filtrare istruzioni pericolose, a differenza dei jailbreak complessi tradizionali. Poiché questo metodo è facilmente accessibile a chiunque, emergono nuove preoccupazioni sulla robustezza dei sistemi AI nell’uso quotidiano. Prima della pubblicazione, i ricercatori hanno avvisato tutte le aziende coinvolte, ma solo Anthropic ha finora risposto, comunicando di essere al lavoro sulla revisione del problema.
DeepSeek ha introdotto i modelli DeepSeek-V3.2 e DeepSeek-V3.2-Speciale, progettati per fornire ragionamento avanzato su contesti lunghi e workload agentici senza i costi quadratici tipici dell’attenzione densa. I modelli adottano la nuova DeepSeek Sparse Attention, che riduce la complessità da O(L²) a O(kL) mantenendo una qualità comparabile alle versioni dense, con un taglio dei costi d’inferenza di circa il 50%. A questo si aggiunge un massiccio utilizzo di reinforcement learning tramite GRPO, con specialisti per matematica, programmazione, logica, browsing e agenti, poi distillati nel modello principale. La pipeline introduce inoltre un protocollo agent-native, espliciti thinking/non-thinking mode e un dataset sintetico di oltre 85.000 task per agenti. Nei benchmark e nelle competizioni ufficiali, DeepSeek-V3.2-Speciale raggiunge prestazioni simili a GPT-5 e vicine a Gemini 3.0 Pro, ottenendo risultati da medaglia d’oro in competizioni di livello olimpico.
Una panoramica del lancio inaspettato e del successo virale di ChatGPT, evidenziando come l’evento abbia colto tutti, inclusa OpenAI stessa, alla sprovvista. Nonostante abbia raggiunto milioni di utenti in pochissimi giorni, l’azienda era “internamente impreparata” per tale domanda, avendo trattato il progetto come una semplice “anteprima di ricerca” lanciata in fretta per superare la concorrenza. L’esplosione di popolarità mise immediatamente sotto pressione le risorse tecniche, causando problemi di stabilità e di “scarsa disponibilità di GPU”, e costringendo l’azienda a un’espansione rapida del personale. A livello settoriale, l’introduzione del chatbot, basato sulla “tecnologia Transformer” di Google, ha costretto i giganti della tecnologia a reagire con urgenza, specialmente Google, che percepì il prodotto come un rischio esistenziale. Anche il rapporto tra OpenAI e Microsoft si modificò, passando da una partnership a una dinamica “parzialmente competitiva”. Il video illustra come un prodotto lanciato in fretta e con basse aspettative abbia trasformato irrimediabilmente il panorama globale dell’intelligenza artificiale e le relative dinamiche aziendali.
ChatGPT suggerisce sempre più spesso all’utente di avviare nuovi task mentre ne sta già elaborando uno, e in effetti riesce a svolgere sempre meglio compiti che prevedono più step diversificati anche nello stesso prompt.
Insieme a una sempre maggiore interpretazione dello “user intent”, quello del multitasking sembra proprio il nuovo passaggio evolutivo che tutti i chatbot di AI generativa attraverseranno in questa fase.
Luciano Floridi, filosofo e professore alla Yale University, ha spiegato durante l’evento Adnkronos “AI: intelligenza umana, supporto artificiale” che l’uso dell’intelligenza artificiale come agentic AI – ovvero sistemi capaci di agire come delegati digitali – è già realtà, anche se ancora imperfetta.
Floridi descrive scenari in cui un agente potrebbe organizzare un viaggio completo in autonomia, sottolineando però che la vera sfida non è tecnologica, ma di integrazione, sicurezza e coerenza del contesto digitale in cui questi agenti operano. Il filosofo evidenzia che tali agenti funzionano al meglio solo in ambienti nativamente digitali, dove interagiscono con dati, motori di ricerca, social e infrastrutture integrate.
Floridi conclude che l’evoluzione di questi sistemi richiede consapevolezza: la progettazione, l’uso e le eventuali conseguenze dell’AI rimangono una responsabilità esclusivamente umana.
Avete già provato il nuovo FLUX.2? Potete farlo nel playground con qualche decina di immagini gratuite generabili (e ottimi prezzi per i “crediti” nel caso vogliate crearne altre) e risoluzione fino a 2048×2048 pixel.
Vi allego (in basso) un esempio di immagine alla massima risoluzione e dotata di maggiore realismo, ottenuta con lo stesso prompt (se ricordate, utilizzato per testare Nano Banana Pro qualche giorno fa) aggiungendo, appunto, gli attributi “ultra-realistic photographic” all’inizio della descrizione per evitare l’effetto “sinthetic image” che si nota nello screenshot.
All’evento Adnkronos “AI: intelligenza umana, supporto artificiale” emerge un quadro chiaro: il 55% delle aziende private italiane e il 40% delle PA hanno iniziato ad adottare l’AI, segnando una fase matura di sperimentazione e primi impatti reali. Infocamere mostra casi d’uso pratici che migliorano qualità del dato e velocizzano processi amministrativi, mantenendo però il controllo umano, mentre SAP rileva un forte entusiasmo dei manager (95% vede opportunità) con un significativo timore per le allucinazioni dei modelli (29%). Engineering invita a un uso “parsimonioso e trasformativo” della tecnologia, sottolineando che non serve accelerare ma capire dove l’AI porta valore reale. Nel complesso, la discussione evidenzia che l’AI sta diventando un abilitatore strategico per competitività e produttività, specie in un Paese a forte calo demografico e con una crescente necessità di automazione.
OpenAI introduce “shopping research”, una nuova funzione che permette a ChatGPT di assistere gli utenti nelle decisioni d’acquisto attraverso filtri intelligenti e domande guidate. Disponibile progressivamente per tutti, la funzione si attiva con qualsiasi richiesta legata allo shopping e sfrutta un modello GPT-5 mini ottimizzato per analizzare recensioni, specifiche tecniche e immagini aggiornate. Il sistema replica l’esperienza dei filtri degli e-commerce, personalizzando le raccomandazioni grazie alla memoria utente e alle conversazioni pregresse. OpenAI avverte che potrebbero verificarsi errori su prezzi e disponibilità, invitando alla verifica presso i venditori. Per gli utenti Pro, la piattaforma offrirà suggerimenti proattivi basati sui loro interessi, segnando una mossa competitiva diretta contro Google e Amazon nel settore della ricerca commerciale.