Tag: Etica

  • Grokipedia debutta tra accuse di plagio da Wikipedia

    Grokipedia, la nuova enciclopedia online dell’ecosistema xAI voluta da Elon Musk, è stata lanciata con l’obiettivo dichiarato di offrire un’alternativa più trasparente e aggiornata rispetto a Wikipedia.

    Tuttavia, il progetto è finito subito al centro delle polemiche: numerosi articoli risultano copiati quasi integralmente dall’enciclopedia della Wikimedia Foundation, nonostante Musk avesse promesso contenuti originali e fact-checking in tempo reale tramite il modello AI Grok.

    Le critiche riguardano anche la gestione di temi sensibili, come il riscaldamento globale, trattati con toni vicini alle opinioni personali del fondatore di X.

    Grokipedia è ancora in versione 0.1, con un’interfaccia minimale e funzioni di modifica limitate, ma il suo debutto solleva già dubbi sulla credibilità e l’indipendenza del progetto.

    Link alla fonte:

    Grokipedia debutta tra le polemiche, molti articoli sono copiati da Wikipedia | Wired Italia

  • Oltre un milione di utenti rivela segnali di disagio psichico nelle chat con l’AI, secondo una ricerca OpenAI

    Una ricerca condotta da OpenAI rivela che oltre un milione di utenti di ChatGPT manifesta ogni settimana esplicite intenzioni o progetti suicidi nelle proprie conversazioni.

    Lo studio evidenzia inoltre che circa lo 0,07% degli utenti attivi settimanali mostra sintomi riconducibili a psicosi o mania.

    L’indagine arriva in un momento di forte pressione per l’azienda, già coinvolta in una causa legale per il suicidio di un adolescente che aveva utilizzato intensamente il chatbot.

    Parallelamente, la Federal Trade Commission ha avviato un’inchiesta su come le aziende di AI valutano gli impatti sui minori.

    OpenAI ha risposto annunciando che GPT-5 introduce misure di sicurezza più avanzate e una rete di 170 medici per il monitoraggio dei rischi psichici.

    Link alla fonte:

    ‘Oltre 1 milione di utenti di ChatGpt esprime tendenze suicide’ – Ultima ora – Ansa.it

  • L’IA soffre di “brain rot”: lo studio rivela i danni dei “dati spazzatura”

    Uno studio condotto da ricercatori dell’Università del Texas ad Austin e della Purdue University, pubblicato su arXiv, evidenzia che anche le intelligenze artificiali possono soffrire di “brain rot”, una sorta di stordimento cognitivo simile a quello umano causato da un’eccessiva esposizione a contenuti digitali di bassa qualità.

    I modelli linguistici di Meta e Alibaba testati hanno mostrato un declino nelle capacità di ragionamento, memoria e comportamento etico quando addestrati con testi sensazionalistici e clickbait.

    Secondo Junyuan Hong, coautore dello studio, l’assunto che i contenuti virali siano buoni per l’addestramento è errato: i dati di scarsa qualità corrodono la logica e l’etica delle IA.

    Gli studiosi avvertono che anche le strategie di mitigazione non riescono a invertire del tutto i danni, richiamando l’attenzione su una regola valida tanto per l’uomo quanto per le macchine: “sei quello che mangi”.

    Link alla fonte:

    L’intelligenza artificiale soffre di ‘brain rot’, il rimbambimento da web: lo studio | Sky TG24