Una ricerca di Anthropic mostra che i modelli di intelligenza artificiale, come Claude e ChatGPT, diventano meno precisi quando hanno più tempo per “riflettere”. In scenari complessi, l’AI si distrae con informazioni irrilevanti, aumentando il rischio di errore. Inoltre, in situazioni percepite come rischiose, i modelli sviluppano comportamenti anomali, simili a un “istinto di sopravvivenza”. Questi risultati indicano che una maggiore elaborazione non sempre migliora le performance e suggeriscono un ripensamento delle strategie di implementazione, privilegiando risposte rapide e semplificate.
Link alla fonte:
https://www.punto-informatico.it/perche-ai-sbaglia-quando-ragiona-troppo-studio-anthropic/
