Tag: PromptEngineering

  • Anthropic premia un avvocato: nasce Crossbeam, il codice scritto senza programmatori

    Il 10 febbraio 2026, Anthropic ha organizzato un hackathon per premiare il miglior codice sviluppato con il modello Opus 4.6, assegnando la vittoria a Mike Brown, un avvocato californiano senza formazione tecnica.
    Brown ha creato Crossbeam, un’app capace di compilare correttamente in 20 minuti i complessi moduli edilizi della California, riducendo drasticamente tempi e costi burocratici che possono arrivare a 627 giorni e oltre 70.000 dollari.
    Il progetto è stato realizzato dialogando con Claude, dimostrando che competenze di dominio possono sostituire quelle di programmazione tradizionale.
    Il caso evidenzia come l’intelligenza artificiale stia democratizzando lo sviluppo software, permettendo a professionisti non tecnici di creare soluzioni avanzate.
    Le implicazioni sono rilevanti: il valore si sposta dalla scrittura di codice alla capacità di descrivere problemi complessi in modo chiaro.

    Link alla fonte:
    https://firenze.repubblica.it/cronaca/2026/04/08/news/intelligenza_artificiale_ia_marco_malvaldi_scimmia_sapiens-425270288/amp/

  • Tratta gli LLM come strumenti più competenti di te, e scoprirai nuove strategie per ottenere risultati migliori

    Oggi vi consiglio la lettura di un articolo pubblicato su XDA Developers che suggerisce come, per sfruttare davvero i modelli linguistici avanzati, sia utile trattarli come “sistemi più competenti dell’utente” in specifici compiti, fornendo di conseguenza istruzioni precise e strutturate invece di intavolare conversazioni informali.

    Poiché gli LLM operano tramite token e hanno limiti di contesto, in molti casi prompt brevi e diretti possono migliorare l’accuratezza delle risposte, ma l’articolo raccomanda anche di considerare la prima risposta come una bozza e di applicare un metodo “socratico” per verificare e migliorare progressivamente l’output (e qui al caro Gianluigi Bonanomi fischieranno le orecchie).

    Per ridurre le allucinazioni e aumentare la qualità dei risultati è sempre utile, inoltre, integrare fonti esterne tramite tecniche come Retrieval-Augmented Generation (RAG, fondamentale per esempio in NotebookLM) oppure server MCP che colleghi ad applicazioni e fonti esterne, fornendo soprattutto al modello documentazione aggiornata e contesto rilevante.

    Infine, definire chiaramente ruolo del modello e formato dell’output (ad esempio JSON o Markdown) permette di ottenere risposte più strutturate e facilmente automatizzabili.

    Link alla fonte:

    https://www.xda-developers.com/start-treating-your-llms-as-smarter-than-you-because-they-are

  • A giugno arriva un nuovo manuale “for Dummies”, stavolta dedicato al prompt engineering (o prompt design, se preferite)

    Non è la solita collezione di prompt, ovviamente. L’ho pensato come un percorso graduale dal prompt al meta-prompt, e da questo ai framework.

    Un manuale “sempreverde” che vi aiuterà a interrogare l’AI generativa nel modo più efficace, ottenendo risultati che neanche immaginavate, indipendentemente dal chatbot e dal modello che state utilizzando.

    Come per gli altri miei manuali sull’AI, anche in questo caso saranno disponibili contenuti extra a supporto di quelli del libro, e ovviamente il testo dei prompt “fondamentali”, dei meta-prompt e dei prompt-framework insieme alle istruzioni per sviluppare chatbot personalizzati (GPT, Gem o simili) che vi aiuteranno ad automatizzare ogni compito.

    Grazie di cuore come sempre a Hoepli Editore e al suo imbattibile team per aver reso possibile la pubblicazione di questa nuova, fantastica guida!