Tag: SaluteMentale

  • ChatGPT “conosceva” le intenzioni di Jesse Van Rootselaar mesi prima della strage in Canada?

    Aggiornamento sulla tragedia di Tumbler Ridge (BC, Canada – 10 febbraio 2026), in cui la 18enne Jesse Van Rootselaar ha ucciso 8 persone (tra cui 5 minori e un’assistente educativa) e ne ha ferite 27 in una scuola superiore, prima di suicidarsi.

    OpenAI ha confermato che, a giugno 2025, l’account ChatGPT associato alla sospetta è stato rilevato tramite sistemi automatici e revisioni umane per conversazioni su scenari di violenza armata, violando le policy contro l’uso per “furtherance of violent activities”. L’account, in quel frangente, è stato rimosso bloccando l’utente.

    Circa una dozzina di dipendenti, nel contempo, ha discusso internamente se segnalare la cosa alla RCMP (polizia canadese), con alcuni che spingevano per un alert vista la gravità percepita.

    I vertici di OpenAI hanno però deciso di non procedere: i contenuti non soddisfacevano il criterio di “rischio credibile e imminente di gravi danni fisici”, soglia adottata per bilanciare prevenzione, privacy e rischio di falsi positivi.

    Solo dopo la strage OpenAI ha contattato proattivamente la RCMP e sta collaborando alle indagini.

    Un caso come questo solleva interrogativi complessi sul ruolo delle piattaforme AI, per una serie di motivi: la ragazza era già nota alle autorità per problemi di salute mentale (con sequestro temporaneo di armi), postava contenuti su stampa 3D di munizioni e poligoni di tiro, e aveva creato simulatori violenti su Roblox (riferiti a stragi in luoghi frequentati).

    Quando un sistema rileva segnali multipli di rischio, qual è il confine tra intervento proattivo e rispetto della privacy/etica del reporting?

    Sicuramente un tema cruciale per la governance AI e la sicurezza pubblica, su cui vi lascio riflettere.

  • Oltre un milione di utenti rivela segnali di disagio psichico nelle chat con l’AI, secondo una ricerca OpenAI

    Una ricerca condotta da OpenAI rivela che oltre un milione di utenti di ChatGPT manifesta ogni settimana esplicite intenzioni o progetti suicidi nelle proprie conversazioni.

    Lo studio evidenzia inoltre che circa lo 0,07% degli utenti attivi settimanali mostra sintomi riconducibili a psicosi o mania.

    L’indagine arriva in un momento di forte pressione per l’azienda, già coinvolta in una causa legale per il suicidio di un adolescente che aveva utilizzato intensamente il chatbot.

    Parallelamente, la Federal Trade Commission ha avviato un’inchiesta su come le aziende di AI valutano gli impatti sui minori.

    OpenAI ha risposto annunciando che GPT-5 introduce misure di sicurezza più avanzate e una rete di 170 medici per il monitoraggio dei rischi psichici.

    Link alla fonte:

    ‘Oltre 1 milione di utenti di ChatGpt esprime tendenze suicide’ – Ultima ora – Ansa.it

  • Cosa ha VERAMENTE detto Sam Altman a proposito della versione “meno censurata” di ChatGPT

    “Abbiamo reso ChatGPT piuttosto restrittivo per assicurarci di prestare la dovuta attenzione alle questioni relative alla salute mentale. Ci rendiamo conto che questo lo ha reso meno utile/piacevole per molti utenti che non avevano problemi di salute mentale, ma data la gravità della questione volevamo fare le cose per bene.

    Ora che siamo riusciti a mitigare i gravi problemi di salute mentale e disponiamo di nuovi strumenti, saremo in grado di allentare in modo sicuro le restrizioni nella maggior parte dei casi.

    Tra poche settimane, abbiamo in programma di rilasciare una nuova versione di ChatGPT che consentirà alle persone di avere una personalità che si comporta in modo più simile a quella che piaceva a 4o (speriamo che sia migliore!). Se volete che il vostro ChatGPT risponda in modo molto simile a un essere umano, o utilizzi un sacco di emoji, o si comporti come un amico, ChatGPT dovrebbe farlo (ma solo se lo desiderate, non perché stiamo massimizzando l’utilizzo).

    A dicembre, con l’introduzione più completa dell’age-gating e nell’ambito del nostro principio “trattare gli utenti adulti come adulti”, consentiremo ancora di più, come l’erotismo per gli adulti verificati.”

    Link al Tweet: