Tag: AGI

  • Sarà l’AGI a salvare l’AI dalla “bolla”?

    Un editoriale pubblicato su ZEUS News riflette in modo critico sul futuro dell’intelligenza artificiale dopo l’esplosione di ChatGPT e dei modelli linguistici di grandi dimensioni.
    Secondo l’autore, la narrativa dominante che vede nell’AGI (Intelligenza Artificiale Generale) la soluzione capace di giustificare e sostenere l’attuale bolla finanziaria dell’IA è più una speranza che una strategia concreta.
    L’AGI viene descritta come un obiettivo ancora indefinito, lontano nel tempo e improbabile da raggiungere attraverso la semplice evoluzione di LLM e Transformer.
    Ne deriva l’idea che lo scoppio della bolla dell’IA sia difficilmente evitabile e che non esista, al momento, una “progettualità segreta” in grado di scongiurarlo.
    L’articolo invita quindi a distinguere tra progresso tecnologico reale e aspettative speculative alimentate dal mercato.

    Link alla fonte:
    https://www.zeusnews.it/n.php?c=31651

  • Le Big Tech “cambiano discorso” sull’AI e “mettono da parte” il concetto di AGI

    Le grandi aziende tecnologiche stanno progressivamente abbandonando il termine intelligenza artificiale generale (AGI), considerato sempre più vago e problematico.
    Manager di primo piano di Google, OpenAI e Anthropic riconoscono che l’AGI è difficile da definire e rischia di alimentare aspettative irrealistiche, timori sociali e complicazioni regolatorie.
    Al suo posto, le aziende introducono nuovi concetti come “superintelligenza personale”, “superintelligenza umanista” o “IA potente”, focalizzati su utilità concreta e controllo umano.
    Questo cambio di narrativa è anche strategico: consente di prendere le distanze da scenari allarmistici e da possibili vincoli legali.
    Il risultato è un settore che punta meno su promesse astratte e più su applicazioni pratiche e misurabili.

    Link alla fonte:
    https://www.larazon.es/tecnologia-consumo/grandes-tecnologicas-cambian-discurso-inteligencia-artificial_20251226694e72f4af09df501094426f.html

  • OpenAI: la velocità di digitazione umana è il vero collo di bottiglia verso l’AGI

    Secondo Alexander Embiricos, responsabile dello sviluppo prodotto di Codex in OpenAI, uno dei principali limiti non tecnologici al raggiungimento dell’intelligenza artificiale generale (AGI) è la lentezza con cui gli esseri umani riescono a scrivere prompt e validare il lavoro degli agenti AI.
    In un’intervista, Embiricos ha spiegato che anche con agenti capaci di osservare e assistere il lavoro umano, la necessità di revisione manuale rallenta drasticamente la produttività.
    La strategia di OpenAI punta quindi a sistemi in cui gli agenti siano “utili di default”, riducendo al minimo l’intervento umano.
    Questo approccio potrebbe generare una crescita esponenziale della produttività (“hockey stick growth”), inizialmente per gli early adopter e poi per le grandi aziende.
    Secondo Embiricos, proprio questa accelerazione diffusa sarà il segnale dell’avvicinamento concreto all’AGI.

    Link alla fonte:
    https://www.businessinsider.com/openai-artificial-general-intelligence-bottleneck-human-typing-speed-2025-12