Blog

  • Tratta gli LLM come strumenti più competenti di te, e scoprirai nuove strategie per ottenere risultati migliori

    Oggi vi consiglio la lettura di un articolo pubblicato su XDA Developers che suggerisce come, per sfruttare davvero i modelli linguistici avanzati, sia utile trattarli come “sistemi più competenti dell’utente” in specifici compiti, fornendo di conseguenza istruzioni precise e strutturate invece di intavolare conversazioni informali.

    Poiché gli LLM operano tramite token e hanno limiti di contesto, in molti casi prompt brevi e diretti possono migliorare l’accuratezza delle risposte, ma l’articolo raccomanda anche di considerare la prima risposta come una bozza e di applicare un metodo “socratico” per verificare e migliorare progressivamente l’output (e qui al caro Gianluigi Bonanomi fischieranno le orecchie).

    Per ridurre le allucinazioni e aumentare la qualità dei risultati è sempre utile, inoltre, integrare fonti esterne tramite tecniche come Retrieval-Augmented Generation (RAG, fondamentale per esempio in NotebookLM) oppure server MCP che colleghi ad applicazioni e fonti esterne, fornendo soprattutto al modello documentazione aggiornata e contesto rilevante.

    Infine, definire chiaramente ruolo del modello e formato dell’output (ad esempio JSON o Markdown) permette di ottenere risposte più strutturate e facilmente automatizzabili.

    Link alla fonte:

    https://www.xda-developers.com/start-treating-your-llms-as-smarter-than-you-because-they-are

  • Usare NotebookLM “al contrario”: il caos come motore di “insight”

    Un articolo di XDA Developers suggerisce un approccio non convenzionale a NotebookLM: invece di caricare documenti ordinati e completi, alimentarlo con materiali disordinati come note grezze, memo vocali, screenshot e idee incomplete.
    Secondo l’autore, questo metodo permette all’AI di individuare schemi nascosti e connessioni tra pensieri non strutturati, funzionando più come un assistente di ricerca che come un semplice “riassuntore”.
    In particolare, le trascrizioni di memo vocali si rivelano preziose perché catturano il processo di ragionamento spontaneo, con dubbi e deviazioni che spesso vengono eliminati nella scrittura.
    Questo uso “caos-first” rende NotebookLM uno strumento per scoprire priorità e intuizioni latenti durante le fasi creative di un progetto.
    L’approccio resta meno adatto quando si lavora con ricerche formali o documenti legali, dove la struttura dei dati è essenziale.

    Link alla fonte:
    https://www.xda-developers.com/notebooklm-backwards-workflow/

  • OpenAI lancia GPT-5.4 Thinking: ragionamento “interattivo” e capacità native di “usare il computer”

    OpenAI ha introdotto GPT-5.4 Thinking, un nuovo modello della linea dedicata al ragionamento avanzato, arrivato pochi giorni dopo GPT-5.3 Instant.
    Il modello consente un processo di ragionamento più interattivo: gli utenti possono interrompere il reasoning in corso, modificare istruzioni o cambiare direzione prima che la risposta sia completata.
    Tra le novità principali c’è anche la capacità nativa di “computer use”, che permette al modello di operare direttamente su applicazioni, browser o ambienti di sviluppo tramite agenti e API.
    GPT-5.4 integra inoltre progressi derivati dalla linea Codex per il coding e introduce miglioramenti nella gestione di documenti complessi come fogli Excel.
    Il modello è già disponibile su ChatGPT per utenti Plus, Team e Pro, ma presenta anche un aumento dei costi dei token di input rispetto alla versione precedente.

    Link alla fonte:
    https://www.dday.it/redazione/56632/lanciato-gpt-54-thinking-puo-usare-il-computer-e-il-ragionamento-puo-essere-interrotto-dallutente