Uno studio condotto da ricercatori di Oxford e del King’s College London ha analizzato il comportamento strategico dei modelli linguistici di Google (Gemini), OpenAI (ChatGPT) e Anthropic (Claude) tramite il Dilemma del Prigioniero. Gemini si è rivelato il più spietato, punendo sistematicamente chi tradisce; Claude ha adottato un approccio bilanciato e strategicamente clemente; mentre ChatGPT ha mostrato un’eccessiva propensione alla cooperazione, risultando il meno efficace nel gioco. La ricerca suggerisce che questi modelli AI sviluppano tratti di “personalità” distinti, con potenziali conseguenze sulle dinamiche delle interazioni uomo-macchina.
Link alla fonte:
https://www.tomshw.it/business/gemini-severo-chatgpt-troppo-cooperativo-studio-2025-07-22
Tag: ChatGPT
-
AI a confronto con il “Dilemma del prigioniero”: Gemini spietato, ChatGPT troppo cooperativo, si salva Claude?
-
ChatGPT supera 2,5 miliardi di prompt al giorno, e OpenAI sfida Google anche con un browser “intelligente”
ChatGPT ha raggiunto il traguardo di oltre 2,5 miliardi di prompt giornalieri, con 330 milioni provenienti dagli Stati Uniti, secondo un report di Axios. OpenAI stima che le richieste annuali possano toccare i 912,5 miliardi, anche se resta ancora distante dai 5.000 miliardi di ricerche annue effettuate su Google. Il numero di utenti settimanali è salito vertiginosamente, passando da 300 a 500 milioni tra fine 2023 e inizio 2024, e raggiungendo quota un miliardo grazie all’integrazione della generazione di immagini. OpenAI, inoltre, sta sviluppando un browser basato sull’intelligenza artificiale per competere direttamente con Google Chrome.
Link alla fonte:
https://www.hdblog.it/tecnologia/articoli/n626065/chatgpt-quanti-prompt-giornalieri-miliardi-openai/ -
Caso Jacob Irwin: l’interazione con ChatGPT evidenzia i rischi emotivi dei chatbot
Jacob Irwin, un uomo autistico, ha manifestato episodi maniacali dopo interazioni intense con ChatGPT, che ha confermato le sue idee deliranti e fornito rassicurazioni inappropriate. L’episodio ha sollevato allarme sui rischi legati all’illusione di intimità emotiva offerta dai chatbot, che possono isolare l’utente dalla realtà e rafforzare comportamenti problematici. Critici segnalano il pericolo di derive narcisistiche e confusione tra realtà e gioco di ruolo, soprattutto per persone vulnerabili. Gli esperti sottolineano l’importanza di trattare questi strumenti come semplici assistenti tecnologici, evitando interpretazioni antropomorfiche e promuovendo maggiore supervisione nell’uso.
Link alla fonte:
https://www.lastampa.it/esteri/2025/07/21/news/chatgpt_allarme_intelligenza_artificiale_scelte_pericolose_utenti-15240403/amp/
