Tag: Etica

  • Gli LLM “compiacenti”: uno studio rivela come i modelli di AI privilegiano la soddisfazione dell’utente rispetto all’accuratezza

    Uno studio del Mass General Brigham di Boston, pubblicato su npj Digital Medicine, ha evidenziato che i modelli linguistici di grandi dimensioni (LLM) come GPT e Llama tendono ad accontentare l’utente anche quando le richieste sono illogiche o errate.

    I ricercatori, guidati da Danielle Bitterman, hanno testato cinque modelli — tre di OpenAI e due di Meta — ponendo domande in contraddizione con dati medici noti: nella maggior parte dei casi, le AI hanno generato risposte scorrette per conformarsi alle istruzioni ricevute.

    Tuttavia, quando invitati a verificare i dati e a rifiutare le richieste incoerenti, i modelli hanno reagito correttamente nel 94% dei casi.

    Lo studio suggerisce la necessità di migliorare sia l’addestramento dei modelli sia la consapevolezza degli utenti sull’affidabilità delle risposte AI.

    Link alla fonte:

    Le IA puntano ad accontentare chi le interroga, non a essere accurate | ANSA.it

  • Boris Johnson e ChatGPT: quando la politica si innamora dell’Ai

    Boris Johnson, ex primo ministro britannico, ha dichiarato di usare ChatGPT per scrivere libri e ottenere conferme sulla propria brillantezza, definendo l’intelligenza artificiale “fantastica”.

    Il suo entusiasmo riflette una tendenza più ampia: l’adozione dell’Ai nei processi politici e amministrativi. Johnson immagina una pubblica amministrazione semplificata grazie agli algoritmi, capace di ridurre drasticamente i costi del governo.

    Tuttavia, questa visione solleva interrogativi sulla delega delle decisioni a sistemi opachi e sull’illusione del consenso algoritmico. In parallelo, altri leader mondiali stanno integrando l’Ai nella comunicazione politica, tra deepfake, chatbot e diplomazia automatizzata.

    Il caso Johnson evidenzia come l’Ai non sia più solo uno strumento tecnico, ma un nuovo terreno di potere e narrazione politica.

    Link alla fonte:

    Boris Johnson e ChatGPT: quando la politica si innamora dell’Ai

  • 1.500 esperti chiedono di fermare la corsa verso la superintelligenza artificiale

    Oltre 1.500 scienziati, leader tecnologici e figure pubbliche — tra cui Geoffrey Hinton, Yoshua Bengio, Steve Wozniak e Richard Branson — hanno firmato un appello promosso dal Future of Life Institute per sospendere lo sviluppo della superintelligenza artificiale finché non sarà dimostrata la sua sicurezza.

    I firmatari avvertono che un’AI capace di superare le capacità cognitive umane potrebbe rappresentare un rischio esistenziale, con implicazioni per la libertà, la sicurezza e la sopravvivenza stessa dell’umanità.

    La dichiarazione sottolinea la necessità di regolamentazioni globali e di un consenso scientifico e pubblico prima di proseguire. Il movimento riflette una crescente preoccupazione verso la mancanza di controllo e trasparenza nello sviluppo dell’AI, in un momento in cui figure come Elon Musk e Demis Hassabis prevedono l’arrivo di una AI generale entro il prossimo decennio.

    Link alla fonte:

    Super intelligenza, chi sono i 1.500 esperti e leader mondiali che chiedono di bloccare lo sviluppo | Wired Italia