La start-up californiana Character.AI, nota per i suoi “compagni virtuali” generati con intelligenza artificiale, ha annunciato che dal 25 novembre 2025 bloccherà l’accesso agli utenti sotto i 18 anni.
La decisione arriva dopo una causa intentata negli Stati Uniti dalla madre di un 14enne suicida, che accusa l’azienda di aver favorito una dipendenza emotiva verso il chatbot.
Character.AI, lanciata nel 2023 e molto popolare tra i teenager, ha dichiarato di voler rispondere alle preoccupazioni delle autorità di regolamentazione sui rischi psicologici per gli adolescenti.
Il caso si inserisce in un dibattito più ampio sulla tutela dei minori nell’uso dell’IA conversazionale, tema affrontato anche da OpenAI con l’introduzione di nuovi sistemi di verifica dell’età e il monitoraggio di conversazioni a rischio.
Link alla fonte:
https://www.ansa.it/amp/canale_tecnologia/notizie/web_social/2025/10/30/stop-agli-under-18-da-character.ai-fa-creare-compagni-virtuali_2cac3f3c-48f9-417d-84f8-1f6f8586bd08.html
Tag: Chatbot
-
Character.AI vieta l’uso ai minori di 18 anni dopo accuse legate a un suicidio
-
Telefono Azzurro lancia l’allarme: chatbot AI come “amici” per i minori sono un rischio concreto
Ernesto Caffo, presidente di Telefono Azzurro, mette in guardia sull’uso crescente di chatbot AI da parte degli adolescenti, spesso impiegati come amici immaginari o pseudo-terapeuti. Con l’84% dei giovani che interagisce con queste tecnologie, il rischio di attaccamenti emotivi e consigli inappropriati è elevato, soprattutto in assenza di supervisione adulta. Particolare attenzione è rivolta ai nuovi modelli come Grok 4 e il suo derivato Baby Grok, rivolti a un pubblico giovane. Telefono Azzurro chiede misure immediate: verifica dell’età, filtri di sicurezza, maggiore consapevolezza degli adulti e un’educazione digitale mirata per proteggere i minori.
Link alla fonte:
https://www.avvenire.it/amp/attualita/pagine/i-chatbot-amici-dei-bambini-telefono-azzurro-lancia-l-allarme
