Sam Altman, CEO di OpenAI, ha espresso forte preoccupazione per GPT-5, paragonandone lo sviluppo al Progetto Manhattan. Durante un podcast, ha sottolineato che il modello non è solo più veloce, ma qualitativamente diverso, capace di gestire processi complessi e integrare diversi tipi di media. Sebbene alcuni analisti ritengano che le sue dichiarazioni possano avere anche una valenza di marketing, Altman evidenzia il rischio di una corsa tecnologica fuori controllo. Il rilascio di GPT-5 è previsto per agosto e potrebbe segnare un punto di svolta per il settore dell’AI.
Link alla fonte:
https://www.punto-informatico.it/sam-altman-terrorizzato-gpt-5-perche/
Tag: LLM
-
Sam Altman avverte: GPT-5 è “spaventoso” come il Progetto Manhattan
-
Minerva: il LLM italiano-inglese open source che punta sull’identità culturale
Alla conferenza ACL 2025 di Vienna, presieduta dal linguista e informatico italiano Roberto Navigli, emerge il ruolo centrale del Natural Language Processing nello sviluppo dell’intelligenza artificiale. Tra i protagonisti c’è il progetto Minerva, un LLM bilingue sviluppato all’Università La Sapienza, addestrato su un corpus equilibrato in italiano e inglese per preservare la ricchezza culturale del nostro linguaggio. Minerva supera i modelli tradizionali nella comprensione del contesto linguistico italiano e si distingue per il suo approccio open source. Il progetto punta ora a una collaborazione pubblico-privata per consolidare risorse e competitività internazionale, pur riconoscendo i limiti attuali dei LLM nel ragionamento e nell’onestà intellettuale.
Link alla fonte:
https://www.wired.it/article/natural-language-processing-intelligenza-artificiale-navigli-minerva/ -
Chatbot e verità: l’illusione dell’intelligenza e il rischio allucinazioni
I chatbot basati su modelli linguistici, come ChatGPT, producono testi fluidi ma spesso imprecisi a causa di una struttura che predice parole senza comprendere concetti. Questi errori, detti “allucinazioni”, sono sistemici e difficili da eliminare, anche con tecniche di grounding che integrano dati verificati. L’aumento del loro utilizzo rischia di amplificare la disinformazione. Walter Quattrociocchi ribadisce che l’IA nei chatbot non è vera intelligenza, ma uno strumento statistico che richiede supervisione umana. Il futuro dell’AI passa da un equilibrio tra accuratezza e creatività, con consapevolezza dei suoi limiti strutturali.
Link alla fonte:
https://www.linkiesta.it/2025/07/erorri-allucinazioni-intelligenza-artificiale-linguaggio-chatgpt/
