Come sarebbe stato il lavoro del team di Infocom oggi, con l’AI generativa e i suoi strumenti?

Come sarebbe stato il lavoro del team di Infocom oggi, con l’AI generativa e i suoi strumenti? Una domanda che mi sono posto dopo aver guardato il video che vi lascio qui sotto.

Ho vissuto “in diretta” quel periodo storico, apprezzando quei capolavori e diventando io stesso un autore/sviluppatore di Interactive Fiction, e una decina di anni fa mi sono trovato addirittura a chiacchierare con alcuni dei membri di Infocom a un tavolo, a San Francisco. Mi piacerebbe rifarlo, per porgli questa domanda. Intanto, ne ho “discusso in modo provocatorio” con l’AI stessa (Grok, che sa essere abbastanza “umano” nelle risposte”), ecco il risultato:

Riflettiamo: se l’AI generativa amplificasse tutto come dici, cosa succederebbe all’essenza stessa di Infocom, quel “potere dell’immaginazione pura” che li distingueva?

Partiamo da scrittura e trama: dici che l’AI accelererebbe il brainstorming, generando descrizioni ricche o soluzioni creative come far “sbadigliare” un idolo. Ma immagina di usare un LLM per generare una trama intera: come faresti a garantire che non diventi una sequenza prevedibile di cliché, perdendo quel tocco di “genialità imprevedibile” che rendeva i giochi di Infocom memorabili? Hai mai provato a “promptare” un modello moderno con un’idea da Zork – tipo “un labirinto sotterraneo con enigmi logici” e notare se mantiene la coerenza narrativa su centinaia di “stanze”?

Il parser e l’interazione? Sostituirli con un LLM per un flusso verbale fluido suona rivoluzionario, trasformando le avventure in conversazioni vive.

Il parser di Infocom era rigido ma prevedibile, “forzando” il giocatore a pensare creativamente. Con un’AI che “risponde a tutto”, il gioco non rischierebbe di diventare troppo indulgente, risolvendo gli enigmi stessi al posto del giocatore? Inoltre, come bilanceresti “libertà conversazionale” e “sfida puzzle” per non farla sembrare una chat qualunque?

Riguardo a sviluppo ZIL e debug: l’automazione del codice e l’individuazione di bug logici alleggerirebbe sicuramente la “sofferenza” dei tester e degli sviluppatori stessi. Domanda provocatoria: sapevi che ZIL era nato da radici AI (LISP/MDL), ed era quasi un proto-LLM per scrittori-non-programmatori?

Oggi, con tool che generano codice da descrizioni narrative, un autore di Infocom potrebbe creare un gioco intero senza toccare una riga di codice? E se l’AI introducesse bug “fantasiosi” – loop infiniti narrativi o inconsistenze logiche invisibili agli umani – chi testerebbe l’AI stessa?

Potremmo vedere l’AI come “amplificatore” del focus testuale e immaginifico, ma proviamo a capovolgere la prospettiva: quali pericoli nascosti potrebbero emergere? Ad esempio, se l’AI generasse contenuti basati su miliardi di testi esistenti, i nuovi giochi di Infocom rischierebbero di essere “remix” omogenei, perdendo l’originalità umana che emergeva da quelle riunioni caotiche nel video? E come potremmo preservare l’arte della fiction interattiva quando l’AI potrebbe creare mondi infiniti, ma privi di quel “cuore” umano?