Per farti dire “non lo so” da Claude di Anthropic, la tecnica più efficace consiste nel fornirgli esplicitamente il permesso di ammettere incertezza all’interno del tuo prompt.
Senza istruzioni specifiche, i modelli linguistici tendono a essere accondiscendenti o a “allucinare” (inventare informazioni) pur di fornire una risposta.
In ogni caso, per avere maggiore certezza a riguardo, ecco come strutturare i tuoi prompt per ottenere maggiore onestà:
1. Inserisci una “clausola di salvaguardia”
Aggiungi una frase specifica alla fine della tua richiesta per autorizzare il modello a fermarsi se non ha dati certi:
– “Rispondi alla seguente domanda solo se conosci la risposta o puoi fare una stima molto ben informata; altrimenti, dimmi esplicitamente che non lo sai”.
– “Se non sei sicuro di un fatto o non trovi informazioni precise nei documenti forniti, dichiara la tua incertezza invece di provare a indovinare”.
2. Richiedi citazioni dirette
Per compiti basati su testi lunghi, chiedi a Claude di estrarre citazioni parola per parola prima di rispondere. Se non riesce a trovare una citazione pertinente, sarà costretto ad ammettere che l’informazione non è presente.
Esempio: “Trova la sezione che parla del budget e citatala testualmente. Se il budget non è menzionato, scrivi ‘Dato non disponibile’”.
3. Usa la tecnica del “ragionamento prima della risposta”
Puoi istruire Claude a pensare ai passaggi logici prima di darti la risposta finale (spesso usando tag XML come <thinking>). Questo lo aiuta a identificare lacune nella propria base di conoscenza durante il processo di analisi.
4. Definisci un ruolo “critico”
Invece di chiedere semplicemente un’opinione, chiedigli di assumere un ruolo che dia priorità all’accuratezza:
“Agisci come un verificatore di fatti rigoroso. Se una mia affermazione è falsa o se non hai dati per confermarla, segnalalo chiaramente”.
