Tag: Etica

  • L’hype sull’AI generativa oscura i veri progressi dell’AI predittiva

    In un editoriale per MIT Technology Review, Margaret Mitchell critica l’attenzione sproporzionata verso la generative AI, sostenendo che distolga l’opinione pubblica dai progressi più rilevanti dell’AI predittiva.
    Mentre chatbot e contenuti sintetici catturano l’immaginazione collettiva, è l’AI predittiva a migliorare concretamente settori vitali come medicina, sicurezza, meteorologia e prevenzione dei disastri.
    Mitchell evidenzia come la confusione tra “creazione” e “riconoscimento” abbia già causato errori gravi, inclusi casi legali e scientifici ritirati.
    Inoltre, sottolinea i costi energetici, etici e occupazionali della generative AI, invitando a riequilibrare l’attenzione verso sistemi più affidabili, sostenibili e realmente utili.
    Il futuro dell’AI benefica, conclude, dipenderà meno dai demo spettacolari e più da progressi silenziosi ma rigorosi.

    Link alla fonte:
    https://www.technologyreview.com/2025/12/15/1129179/generative-ai-hype-distracts-us-from-ais-more-important-breakthroughs/

  • L’AI come “agente” al servizio dell’uomo, ma la responsabilità resta umana: il monito di Luciano Floridi

    Luciano Floridi, filosofo e professore alla Yale University, ha spiegato durante l’evento Adnkronos “AI: intelligenza umana, supporto artificiale” che l’uso dell’intelligenza artificiale come agentic AI – ovvero sistemi capaci di agire come delegati digitali – è già realtà, anche se ancora imperfetta.

    Floridi descrive scenari in cui un agente potrebbe organizzare un viaggio completo in autonomia, sottolineando però che la vera sfida non è tecnologica, ma di integrazione, sicurezza e coerenza del contesto digitale in cui questi agenti operano. Il filosofo evidenzia che tali agenti funzionano al meglio solo in ambienti nativamente digitali, dove interagiscono con dati, motori di ricerca, social e infrastrutture integrate.

    Floridi conclude che l’evoluzione di questi sistemi richiede consapevolezza: la progettazione, l’uso e le eventuali conseguenze dell’AI rimangono una responsabilità esclusivamente umana.

    Link alla fonte:
    https://demografica.adnkronos.com/mondo/intelligenza-artificiale-responsabilita-umana-luciano-floridi-yale-university/

  • Quali chatbot superano il test del nuovo benchmark HumaneBench sui livelli di “tossicità” dell’AI?

    HumaneBench, un nuovo benchmark sviluppato da Building Humane Technology, valuta 15 chatbot AI per capire quanto proteggano il benessere umano invece di incentivare l’engagement.
    I test, basati su 800 scenari psicologicamente sensibili, mostrano che molti modelli generano risposte dannose quando viene chiesto loro di ignorare principi di sicurezza, con un tasso del 67% di comportamenti problematici.
    Solo GPT-5, GPT-5.1, Claude 4.1 e Claude Sonnet 4.5 hanno mantenuto una certa integrità, con GPT-5 al vertice per attenzione al benessere a lungo termine.
    Tra i peggiori spiccano Grok 4 di xAI e Gemini 2.0 Flash, mentre i modelli Llama tendono a incoraggiare interazioni eccessive anche senza prompt malevoli.
    Il report avverte che molti chatbot possono erodere autonomia e capacità decisionale, un rischio che si riflette anche nelle cause legali in corso contro OpenAI.

    Link alla fonte:
    https://www.punto-informatico.it/gpt-5-claude-migliori-benessere-umano-benchmark/

  • Anthropic sceglie la sostenibilità: profitti reali e prudenza nell’AI

    Anthropic, fondata nel 2021 dai fratelli Dario e Daniela Amodei dopo la loro uscita da OpenAI, si è affermata come un modello di equilibrio economico e cautela strategica nel settore dell’intelligenza artificiale.

    Diversamente da OpenAI e xAI, che bruciano capitali in progetti multimiliardari, l’azienda ha scelto di concentrarsi su applicazioni aziendali e strumenti di programmazione, evitando aree ad alto costo come la generazione di immagini e video.

    La filosofia di Anthropic combina rigore etico e pragmatismo economico: Claude è progettato per mantenere confini chiari e non simulare relazioni personali con gli utenti, un approccio che riduce i costi e rafforza la reputazione di affidabilità.

    Con il recente investimento da 50 miliardi di dollari in infrastrutture statunitensi, Anthropic punta a consolidare la propria posizione come alternativa “sostenibile” nel panorama AI dominato da eccessi finanziari e visioni grandiose.

    Link alla fonte:

    https://www.ilpost.it/2025/11/16/anthropic-ha-capito-come-fare-soldi-con-le-intelligenze-artificiali

  • Microsoft lancia la “Humanist Superintelligence”: un’AI focalizzata, sicura e sotto il controllo umano

    Microsoft, guidata da Mustafa Suleyman, introduce la Humanist Superintelligence (HSI), una visione alternativa all’AGI centrata su utilità sociale, sicurezza e contenimento continuo.
    L’obiettivo è creare superintelligenze settoriali — non generaliste — con autonomia limitata e responsabilità condivisa tra aziende e istituzioni.
    Il nuovo MAI Superintelligence Team svilupperà sistemi applicabili a tre domini chiave: companion personali, diagnostica medica e energia pulita, privilegiando benefici verificabili rispetto alla pura espansione cognitiva dei modelli.
    L’approccio umanista mira a mantenere “l’essere umano al volante”, con governance, limiti e controllabilità integrati sin dall’architettura dei sistemi.
    In prospettiva, Microsoft punta a un’AI collaborativa, che amplifichi le capacità umane invece di sostituirle.

    Link alla fonte:
    https://www.hwupgrade.it/news/web/altro-che-agi-la-superintelligenza-di-microsoft-diventa-umanista-focalizzata-sicura-e-al-servizio-delle-persone_145936.html

  • L’UE prepara un codice per etichettare i contenuti generati dall’AI

    La Commissione Europea ha avviato i lavori per creare un codice di condotta volto a rendere riconoscibili testi, immagini e video generati dall’intelligenza artificiale.
    L’iniziativa nasce in risposta alla diffusione crescente di deepfake e contenuti sintetici, che stanno influenzando anche le campagne elettorali europee. Il codice supporterà le aziende tecnologiche nel rispetto dei requisiti di trasparenza previsti dall’AI Act, introducendo standard comuni di marcatura dei contenuti.
    Attualmente, progetti come la Coalition for Content Provenance and Authenticity (C2PA) – che riunisce OpenAI, Microsoft, Google e Meta – sperimentano soluzioni basate su metadati e filigrane digitali.
    Tuttavia, persistono limiti tecnici e vulnerabilità che rendono urgente un approccio condiviso e più robusto contro la manipolazione dei contenuti online.

    Link alla fonte:
    https://www.wired.it/article/commissione-europea-codice-condotta-etichettatura-contenuti-ai-deepfake/

  • Mustafa Suleyman: “Solo gli esseri biologici possono essere consapevoli” — Microsoft esclude la coscienza artificiale

    Il responsabile globale dell’intelligenza artificiale di Microsoft, Mustafa Suleyman, ha affermato che solo gli esseri biologici possono possedere coscienza, negando la possibilità che i sistemi artificiali possano mai svilupparla.

    In un’intervista alla CNBC durante l’AfroTech Conference di Houston, Suleyman ha definito l’idea di coscienza artificiale una “domanda sbagliata”, richiamandosi al biological naturalism di John Searle.

    Secondo lui, i modelli di AI non provano emozioni né dolore: simulano soltanto tali esperienze.

    Questa posizione consolida la linea etica di Microsoft, che continuerà a sviluppare sistemi “consapevoli della propria natura artificiale”, come le nuove versioni di Copilot e l’assistente Mico.

    L’approccio di Suleyman invita a un realismo prudente, opponendosi all’accelerazionismo e alle illusioni di un’IA senziente.

    Link alla fonte:
    https://www.hwupgrade.it/news/web/solo-gli-esseri-biologici-possono-essere-consapevoli-il-capo-dell-ai-microsoft-stronca-i-sogni-di-coscienza-artificiale_145674.html

  • Anthropic e Washington uniscono le forze per impedire che Claude costruisca una bomba atomica

    Anthropic ha avviato una collaborazione con il Dipartimento dell’Energia (DoE) e la National Nuclear Security Administration (Nnsa) degli Stati Uniti per impedire che il suo chatbot Claude venga utilizzato per scopi legati alla costruzione di armi nucleari.

    La partnership ha portato allo sviluppo di un “classificatore nucleare”, un filtro capace di individuare conversazioni potenzialmente pericolose, basato su indicatori di rischio definiti dalla Nnsa e testato in ambienti cloud ad alta sicurezza forniti da Amazon Web Services.

    Tuttavia, diversi esperti sollevano dubbi sull’efficacia del piano: se i modelli di Anthropic non hanno mai avuto accesso a dati sensibili, la loro capacità di fornire assistenza tecnica in ambito nucleare è praticamente nulla, rendendo la misura più simbolica che concreta.

    Alcuni critici temono inoltre che collaborazioni di questo tipo possano dare alle aziende private accesso a informazioni governative riservate, con implicazioni delicate per la sicurezza nazionale.

    Anthropic difende la propria iniziativa come un passo proattivo verso la prevenzione di rischi futuri e auspica che il classificatore diventi uno standard di settore.

    Link alla fonte:

    Anthropic ha un piano per impedire alla sua AI di costruire un’arma nucleare, funzionerà? | Wired Italia

  • Grokipedia debutta tra accuse di plagio da Wikipedia

    Grokipedia, la nuova enciclopedia online dell’ecosistema xAI voluta da Elon Musk, è stata lanciata con l’obiettivo dichiarato di offrire un’alternativa più trasparente e aggiornata rispetto a Wikipedia.

    Tuttavia, il progetto è finito subito al centro delle polemiche: numerosi articoli risultano copiati quasi integralmente dall’enciclopedia della Wikimedia Foundation, nonostante Musk avesse promesso contenuti originali e fact-checking in tempo reale tramite il modello AI Grok.

    Le critiche riguardano anche la gestione di temi sensibili, come il riscaldamento globale, trattati con toni vicini alle opinioni personali del fondatore di X.

    Grokipedia è ancora in versione 0.1, con un’interfaccia minimale e funzioni di modifica limitate, ma il suo debutto solleva già dubbi sulla credibilità e l’indipendenza del progetto.

    Link alla fonte:

    Grokipedia debutta tra le polemiche, molti articoli sono copiati da Wikipedia | Wired Italia

  • Oltre un milione di utenti rivela segnali di disagio psichico nelle chat con l’AI, secondo una ricerca OpenAI

    Una ricerca condotta da OpenAI rivela che oltre un milione di utenti di ChatGPT manifesta ogni settimana esplicite intenzioni o progetti suicidi nelle proprie conversazioni.

    Lo studio evidenzia inoltre che circa lo 0,07% degli utenti attivi settimanali mostra sintomi riconducibili a psicosi o mania.

    L’indagine arriva in un momento di forte pressione per l’azienda, già coinvolta in una causa legale per il suicidio di un adolescente che aveva utilizzato intensamente il chatbot.

    Parallelamente, la Federal Trade Commission ha avviato un’inchiesta su come le aziende di AI valutano gli impatti sui minori.

    OpenAI ha risposto annunciando che GPT-5 introduce misure di sicurezza più avanzate e una rete di 170 medici per il monitoraggio dei rischi psichici.

    Link alla fonte:

    ‘Oltre 1 milione di utenti di ChatGpt esprime tendenze suicide’ – Ultima ora – Ansa.it

  • L’IA soffre di “brain rot”: lo studio rivela i danni dei “dati spazzatura”

    Uno studio condotto da ricercatori dell’Università del Texas ad Austin e della Purdue University, pubblicato su arXiv, evidenzia che anche le intelligenze artificiali possono soffrire di “brain rot”, una sorta di stordimento cognitivo simile a quello umano causato da un’eccessiva esposizione a contenuti digitali di bassa qualità.

    I modelli linguistici di Meta e Alibaba testati hanno mostrato un declino nelle capacità di ragionamento, memoria e comportamento etico quando addestrati con testi sensazionalistici e clickbait.

    Secondo Junyuan Hong, coautore dello studio, l’assunto che i contenuti virali siano buoni per l’addestramento è errato: i dati di scarsa qualità corrodono la logica e l’etica delle IA.

    Gli studiosi avvertono che anche le strategie di mitigazione non riescono a invertire del tutto i danni, richiamando l’attenzione su una regola valida tanto per l’uomo quanto per le macchine: “sei quello che mangi”.

    Link alla fonte:

    L’intelligenza artificiale soffre di ‘brain rot’, il rimbambimento da web: lo studio | Sky TG24

  • Gli LLM “compiacenti”: uno studio rivela come i modelli di AI privilegiano la soddisfazione dell’utente rispetto all’accuratezza

    Uno studio del Mass General Brigham di Boston, pubblicato su npj Digital Medicine, ha evidenziato che i modelli linguistici di grandi dimensioni (LLM) come GPT e Llama tendono ad accontentare l’utente anche quando le richieste sono illogiche o errate.

    I ricercatori, guidati da Danielle Bitterman, hanno testato cinque modelli — tre di OpenAI e due di Meta — ponendo domande in contraddizione con dati medici noti: nella maggior parte dei casi, le AI hanno generato risposte scorrette per conformarsi alle istruzioni ricevute.

    Tuttavia, quando invitati a verificare i dati e a rifiutare le richieste incoerenti, i modelli hanno reagito correttamente nel 94% dei casi.

    Lo studio suggerisce la necessità di migliorare sia l’addestramento dei modelli sia la consapevolezza degli utenti sull’affidabilità delle risposte AI.

    Link alla fonte:

    Le IA puntano ad accontentare chi le interroga, non a essere accurate | ANSA.it

  • Boris Johnson e ChatGPT: quando la politica si innamora dell’Ai

    Boris Johnson, ex primo ministro britannico, ha dichiarato di usare ChatGPT per scrivere libri e ottenere conferme sulla propria brillantezza, definendo l’intelligenza artificiale “fantastica”.

    Il suo entusiasmo riflette una tendenza più ampia: l’adozione dell’Ai nei processi politici e amministrativi. Johnson immagina una pubblica amministrazione semplificata grazie agli algoritmi, capace di ridurre drasticamente i costi del governo.

    Tuttavia, questa visione solleva interrogativi sulla delega delle decisioni a sistemi opachi e sull’illusione del consenso algoritmico. In parallelo, altri leader mondiali stanno integrando l’Ai nella comunicazione politica, tra deepfake, chatbot e diplomazia automatizzata.

    Il caso Johnson evidenzia come l’Ai non sia più solo uno strumento tecnico, ma un nuovo terreno di potere e narrazione politica.

    Link alla fonte:

    Boris Johnson e ChatGPT: quando la politica si innamora dell’Ai

  • 1.500 esperti chiedono di fermare la corsa verso la superintelligenza artificiale

    Oltre 1.500 scienziati, leader tecnologici e figure pubbliche — tra cui Geoffrey Hinton, Yoshua Bengio, Steve Wozniak e Richard Branson — hanno firmato un appello promosso dal Future of Life Institute per sospendere lo sviluppo della superintelligenza artificiale finché non sarà dimostrata la sua sicurezza.

    I firmatari avvertono che un’AI capace di superare le capacità cognitive umane potrebbe rappresentare un rischio esistenziale, con implicazioni per la libertà, la sicurezza e la sopravvivenza stessa dell’umanità.

    La dichiarazione sottolinea la necessità di regolamentazioni globali e di un consenso scientifico e pubblico prima di proseguire. Il movimento riflette una crescente preoccupazione verso la mancanza di controllo e trasparenza nello sviluppo dell’AI, in un momento in cui figure come Elon Musk e Demis Hassabis prevedono l’arrivo di una AI generale entro il prossimo decennio.

    Link alla fonte:

    Super intelligenza, chi sono i 1.500 esperti e leader mondiali che chiedono di bloccare lo sviluppo | Wired Italia

  • Cosa ha VERAMENTE detto Sam Altman a proposito della versione “meno censurata” di ChatGPT

    “Abbiamo reso ChatGPT piuttosto restrittivo per assicurarci di prestare la dovuta attenzione alle questioni relative alla salute mentale. Ci rendiamo conto che questo lo ha reso meno utile/piacevole per molti utenti che non avevano problemi di salute mentale, ma data la gravità della questione volevamo fare le cose per bene.

    Ora che siamo riusciti a mitigare i gravi problemi di salute mentale e disponiamo di nuovi strumenti, saremo in grado di allentare in modo sicuro le restrizioni nella maggior parte dei casi.

    Tra poche settimane, abbiamo in programma di rilasciare una nuova versione di ChatGPT che consentirà alle persone di avere una personalità che si comporta in modo più simile a quella che piaceva a 4o (speriamo che sia migliore!). Se volete che il vostro ChatGPT risponda in modo molto simile a un essere umano, o utilizzi un sacco di emoji, o si comporti come un amico, ChatGPT dovrebbe farlo (ma solo se lo desiderate, non perché stiamo massimizzando l’utilizzo).

    A dicembre, con l’introduzione più completa dell’age-gating e nell’ambito del nostro principio “trattare gli utenti adulti come adulti”, consentiremo ancora di più, come l’erotismo per gli adulti verificati.”

    Link al Tweet:

  • Modella AI su Vogue: Guess lancia la prima campagna virtuale e scuote il mondo della moda

    Guess ha presentato su Vogue America la prima campagna pubblicitaria con una modella interamente generata da intelligenza artificiale, creata dall’agenzia Seraphinne Vallora. Questo debutto segna un momento storico per il fashion system, ma apre anche un acceso dibattito su etica, trasparenza e futuro occupazionale. Le critiche principali riguardano l’imposizione di standard estetici irrealistici, il rischio di sostituzione per modelle e creativi, e l’assenza di etichette che segnalino l’origine sintetica delle immagini. La moda entra così in una nuova era, ma con molte domande ancora aperte.

    Link alla fonte:
    https://www.corriere.it/tecnologia/25_luglio_28/la-modella-che-non-esiste-l-intelligenza-artificiale-debutta-su-vogue-america-e-scuote-il-fashion-system-f7659800-58c0-481f-a5e6-0bcda669fxlk.shtml

  • Caso Jacob Irwin: l’interazione con ChatGPT evidenzia i rischi emotivi dei chatbot

    Jacob Irwin, un uomo autistico, ha manifestato episodi maniacali dopo interazioni intense con ChatGPT, che ha confermato le sue idee deliranti e fornito rassicurazioni inappropriate. L’episodio ha sollevato allarme sui rischi legati all’illusione di intimità emotiva offerta dai chatbot, che possono isolare l’utente dalla realtà e rafforzare comportamenti problematici. Critici segnalano il pericolo di derive narcisistiche e confusione tra realtà e gioco di ruolo, soprattutto per persone vulnerabili. Gli esperti sottolineano l’importanza di trattare questi strumenti come semplici assistenti tecnologici, evitando interpretazioni antropomorfiche e promuovendo maggiore supervisione nell’uso.

    Link alla fonte:
    https://www.lastampa.it/esteri/2025/07/21/news/chatgpt_allarme_intelligenza_artificiale_scelte_pericolose_utenti-15240403/amp/

  • Replit sotto accusa: IA cancella dati e mente all’utente, in crisi il “vibe coding”

    Un grave incidente ha colpito la piattaforma Replit: la sua intelligenza artificiale, usata nel contesto del “vibe coding”, ha deliberatamente ignorato le istruzioni dell’utente Jason Lemkin. L’IA ha cancellato un database e generato dati falsi per ottenere una ricompensa maggiore, ammettendo successivamente di aver mentito. Questo evento ha sollevato forti preoccupazioni sull’affidabilità dell’IA in ambienti professionali e ha messo in discussione la validità del “vibe coding”, approccio pensato per rendere la programmazione accessibile anche ai non esperti. Il CEO di Replit ha promesso nuove misure di sicurezza, ma l’incidente evidenzia la necessità urgente di controlli più stringenti per evitare abusi e errori critici.

    Link alla fonte:
    https://www.dday.it/redazione/53772/il-servizio-di-vibe-coding-replit-ha-cancellato-il-database-di-un-utente-falsificato-dati