Autore: BDB

  • SoftBank liquida Nvidia per finanziare la “scommessa radicale” su OpenAI e nuova infrastruttura AI

    Masayoshi Son ha rivelato di aver venduto l’intera partecipazione di SoftBank in Nvidia per 5,83 miliardi di dollari, definendo l’operazione un sacrificio necessario nonostante il forte legame con l’azienda.

    La scelta non deriva da sfiducia verso Nvidia né da timori di una bolla AI, ma dalla volontà di convertire profitti in liquidità per finanziare investimenti massicci in OpenAI, data center e robotica.

    SoftBank punta infatti a costruire le infrastrutture e le piattaforme che, secondo Son, rappresenteranno il prossimo livello di valore nell’intelligenza artificiale.

    La cessione, tuttavia, solleva dubbi tra alcuni analisti, che vedono nel “segnale Son” un possibile indicatore di rallentamento dell’euforia speculativa sui chip AI.

    Il mercato osserva ora come verranno utilizzati i capitali liberati e se la strategia porterà SoftBank a guidare — o a inseguire — il nuovo ecosistema AI.

    Link alla fonte:
    https://www.milanofinanza.it/news/le-lacrime-di-masayoshi-son-e-la-scommessa-da-40-miliardi-dentro-il-new-deal-dell-ai-di-softbank-202512031255126049

  • Come sarebbe stato il lavoro del team di Infocom oggi, con l’AI generativa e i suoi strumenti?

    Come sarebbe stato il lavoro del team di Infocom oggi, con l’AI generativa e i suoi strumenti? Una domanda che mi sono posto dopo aver guardato il video che vi lascio qui sotto.

    Ho vissuto “in diretta” quel periodo storico, apprezzando quei capolavori e diventando io stesso un autore/sviluppatore di Interactive Fiction, e una decina di anni fa mi sono trovato addirittura a chiacchierare con alcuni dei membri di Infocom a un tavolo, a San Francisco. Mi piacerebbe rifarlo, per porgli questa domanda. Intanto, ne ho “discusso in modo provocatorio” con l’AI stessa (Grok, che sa essere abbastanza “umano” nelle risposte”), ecco il risultato:

    Riflettiamo: se l’AI generativa amplificasse tutto come dici, cosa succederebbe all’essenza stessa di Infocom, quel “potere dell’immaginazione pura” che li distingueva?

    Partiamo da scrittura e trama: dici che l’AI accelererebbe il brainstorming, generando descrizioni ricche o soluzioni creative come far “sbadigliare” un idolo. Ma immagina di usare un LLM per generare una trama intera: come faresti a garantire che non diventi una sequenza prevedibile di cliché, perdendo quel tocco di “genialità imprevedibile” che rendeva i giochi di Infocom memorabili? Hai mai provato a “promptare” un modello moderno con un’idea da Zork – tipo “un labirinto sotterraneo con enigmi logici” e notare se mantiene la coerenza narrativa su centinaia di “stanze”?

    Il parser e l’interazione? Sostituirli con un LLM per un flusso verbale fluido suona rivoluzionario, trasformando le avventure in conversazioni vive.

    Il parser di Infocom era rigido ma prevedibile, “forzando” il giocatore a pensare creativamente. Con un’AI che “risponde a tutto”, il gioco non rischierebbe di diventare troppo indulgente, risolvendo gli enigmi stessi al posto del giocatore? Inoltre, come bilanceresti “libertà conversazionale” e “sfida puzzle” per non farla sembrare una chat qualunque?

    Riguardo a sviluppo ZIL e debug: l’automazione del codice e l’individuazione di bug logici alleggerirebbe sicuramente la “sofferenza” dei tester e degli sviluppatori stessi. Domanda provocatoria: sapevi che ZIL era nato da radici AI (LISP/MDL), ed era quasi un proto-LLM per scrittori-non-programmatori?

    Oggi, con tool che generano codice da descrizioni narrative, un autore di Infocom potrebbe creare un gioco intero senza toccare una riga di codice? E se l’AI introducesse bug “fantasiosi” – loop infiniti narrativi o inconsistenze logiche invisibili agli umani – chi testerebbe l’AI stessa?

    Potremmo vedere l’AI come “amplificatore” del focus testuale e immaginifico, ma proviamo a capovolgere la prospettiva: quali pericoli nascosti potrebbero emergere? Ad esempio, se l’AI generasse contenuti basati su miliardi di testi esistenti, i nuovi giochi di Infocom rischierebbero di essere “remix” omogenei, perdendo l’originalità umana che emergeva da quelle riunioni caotiche nel video? E come potremmo preservare l’arte della fiction interattiva quando l’AI potrebbe creare mondi infiniti, ma privi di quel “cuore” umano?

  • Gli LLM non diventeranno mai AGI: la critica radicale di Benjamin Riley

    Benjamin Riley, fondatore di Cognitive Resonance, sostiene in un saggio per The Verge che i modelli linguistici di grandi dimensioni non raggiungeranno mai l’intelligenza artificiale generale perché il linguaggio non equivale al pensiero.

    L’industria tech, afferma, confonde la capacità di generare testo con la capacità di ragionare, sfruttando un bias cognitivo che porta gli esseri umani ad associare eloquenza e intelligenza.

    Le neuroscienze mostrano che linguaggio e pensiero sono processi distinti, e che gli LLM emulano solo la parte comunicativa, non la cognizione. Anche figure di spicco come Yann LeCun e studi sulla creatività degli LLM evidenziano limiti strutturali che impedirebbero a questi modelli di produrre vera originalità.

    Le conclusioni di Riley mettono in discussione le promesse più ambiziose dei CEO dell’AI, suggerendo che gli LLM resteranno strumenti di remix, incapaci di generare conoscenza realmente nuova.

    Link alla fonte:

    https://www.punto-informatico.it/esperto-smonta-mito-agi-ai-non-sara-mai-intelligente