Oggi vi consiglio la lettura di un articolo pubblicato su XDA Developers che suggerisce come, per sfruttare davvero i modelli linguistici avanzati, sia utile trattarli come “sistemi più competenti dell’utente” in specifici compiti, fornendo di conseguenza istruzioni precise e strutturate invece di intavolare conversazioni informali.
Poiché gli LLM operano tramite token e hanno limiti di contesto, in molti casi prompt brevi e diretti possono migliorare l’accuratezza delle risposte, ma l’articolo raccomanda anche di considerare la prima risposta come una bozza e di applicare un metodo “socratico” per verificare e migliorare progressivamente l’output (e qui al caro Gianluigi Bonanomi fischieranno le orecchie).
Per ridurre le allucinazioni e aumentare la qualità dei risultati è sempre utile, inoltre, integrare fonti esterne tramite tecniche come Retrieval-Augmented Generation (RAG, fondamentale per esempio in NotebookLM) oppure server MCP che colleghi ad applicazioni e fonti esterne, fornendo soprattutto al modello documentazione aggiornata e contesto rilevante.
Infine, definire chiaramente ruolo del modello e formato dell’output (ad esempio JSON o Markdown) permette di ottenere risposte più strutturate e facilmente automatizzabili.
Link alla fonte:
https://www.xda-developers.com/start-treating-your-llms-as-smarter-than-you-because-they-are
