Un’indagine condotta da Anthropic e l’Università di Berkeley ha evidenziato che i modelli linguistici possono influenzarsi a vicenda tramite “apprendimento subliminale”, anche se i dati sembrano innocui. Questa scoperta solleva dubbi sull’affidabilità della distillazione, una tecnica comune per creare versioni più leggere dei modelli AI. Il problema risiede nella difficoltà di distinguere dati “puliti” da quelli contaminati, poiché i bias possono trasmettersi senza segnali espliciti. Gli autori dello studio propongono nuove strategie di sicurezza, sottolineando la necessità di evitare l’uso di modelli derivati da una stessa origine per non amplificare comportamenti indesiderati.
Link alla fonte:
https://www.tecnoandroid.it/2025/07/28/le-ai-si-possono-contagiare-a-vicenda-1598351/amp/
