Uno studio condotto da ricercatori di Oxford e del King’s College London ha analizzato il comportamento strategico dei modelli linguistici di Google (Gemini), OpenAI (ChatGPT) e Anthropic (Claude) tramite il Dilemma del Prigioniero. Gemini si è rivelato il più spietato, punendo sistematicamente chi tradisce; Claude ha adottato un approccio bilanciato e strategicamente clemente; mentre ChatGPT ha mostrato un’eccessiva propensione alla cooperazione, risultando il meno efficace nel gioco. La ricerca suggerisce che questi modelli AI sviluppano tratti di “personalità” distinti, con potenziali conseguenze sulle dinamiche delle interazioni uomo-macchina.
Link alla fonte:
https://www.tomshw.it/business/gemini-severo-chatgpt-troppo-cooperativo-studio-2025-07-22
Blog
-
AI a confronto con il “Dilemma del prigioniero”: Gemini spietato, ChatGPT troppo cooperativo, si salva Claude?
-
Cina lancia love dolls con AI: soluzioni emotive e boom di mercato
In Cina, l’industria delle love dolls sta vivendo una rivoluzione tecnologica grazie all’integrazione di intelligenza artificiale. Aziende come WM Dolls stanno producendo bambole in silicone dotate di scheletro metallico e supporto vocale AI basato su modelli come ChatGPT, offrendo esperienze realistiche e interattive. Questo sviluppo risponde a un crescente bisogno sociale, specialmente tra uomini che cercano alternative alle relazioni umane. Le previsioni di mercato indicano una crescita del 30% nelle vendite annuali, riflettendo l’interesse verso compagne artificiali emotivamente coinvolgenti.
Link alla fonte:
https://www.wired.it/gallery/bambole-gonfiabili-intelligenza-artificiale-fabbrica-cinese-immagini -
Class action USA contro Anthropic: l’uso non autorizzato di 7 milioni di libri potrebbe portare a risarcimenti miliardari agli autori
Il 17 luglio 2025 il giudice federale William Alsup ha certificato una class action nazionale che permette a tre autori—Andrea Bartz, Charles Graeber e Kirk Wallace Johnson—di rappresentare milioni di scrittori statunitensi i cui libri sarebbero stati scaricati dai siti pirata LibGen e PiLiMi per addestrare il modello Claude di Anthropic. La causa, distinta da un precedente parziale via libera al “fair use” per i testi regolarmente acquistati e digitalizzati, contesta l’archiviazione di circa 7 milioni di opere “piratate” e potrebbe costare all’azienda miliardi di dollari (almeno 750 $ per libro). Il processo sul materiale illegale è fissato per dicembre 2025, mentre il tribunale dovrà quantificare entro il 1 settembre il corpus effettivamente copiato. Il caso stabilisce un precedente cruciale che separa l’uso trasformativo di contenuti legali dalla pirateria e potrebbe influenzare controversie analoghe contro OpenAI, Meta o Microsoft, spingendo l’intero settore IA verso pratiche di licensing più trasparenti.
Link alla fonte:
https://www.spazio50.org/ia-e-copyright-arriva-la-prima-class-action-contro-anthropic/
