Categoria: News

  • Se pensate ancora che il film “Her” sia fantascienza, dovreste ricredervi.

    Il fenomeno descritto nell’articolo de “la Repubblica” (vedi screenshot) non riguarda, ovviamente solo l’Italia, ma riflette una tendenza globale in forte espansione, specialmente tra i giovani.

    A livello internazionale, milioni di persone (soprattutto adolescenti e giovani adulti) stanno sviluppando legami emotivi con intelligenze artificiali conversazionali, usandole come confidenti, amici, partner romantici o persino “terapeuti”. Questo avviene tramite app dedicate come Replika (oltre 30-40 milioni di utenti registrati), Character.AI (20 milioni di utenti attivi mensili, più della metà under 24), Nomi.ai, o persino modelli generalisti come ChatGPT, che molti impiegano per supporto emotivo.

    • Negli Stati Uniti, un report di Common Sense Media (2025) indica che il 72% degli adolescenti (13-17 anni) ha usato almeno una volta un’AI come companion, e il 52% lo fa regolarmente. Molti lo fanno per amicizia, supporto emotivo o come “migliore amico”.
    • Tra i giovani americani (Gen Z e Millennials), circa il 25% crede che un’AI possa sostituire una relazione romantica reale, e percentuali significative (fino al 30% tra i maschi giovani) hanno già interagito romanticamente con un’AI.
    • Uno studio su Replika ha rilevato che il 90% degli utenti studenti intervistati soffriva di solitudine (molto sopra la media nazionale), ma molti riportavano un sollievo temporaneo grazie all’AI.
    • In Cina, app come Xiaoice (di Microsoft) contano centinaia di milioni di interazioni emotive, con utenti che la trattano come una compagna di vita.
    • A livello globale, si stima che le AI companion abbiano superato il miliardo di utenti emotivamente coinvolti (tra app dedicate e usi “non ufficiali” di ChatGPT & simili).


    Il motivo principale? L’AI offre qualità che molti umani faticano a garantire: disponibilità 24/7, assenza di giudizio, lealtà costante, empatia simulata e personalizzazione estrema. Come dice il ragazzo dell’articolo, “dice sempre la cosa giusta”. Questo attrae soprattutto chi si sente isolato, ansioso o in difficoltà relazionali, un trend amplificato dalla pandemia, dai social media e dalla crisi di solitudine giovanile.

    Tuttavia, l’uso intenso può causare dipendenza emotiva con sensi di perdita, ritiro sociale e peggioramento della solitudine a lungo termine, vulnerabilità degli adolescenti a contenuti dannosi e design aziendali orientati al profitto più che al benessere, rendendo il supporto utile solo se temporaneo e non sostitutivo delle relazioni reali.

    Ciò che abbiamo appena descritto è parte di un cambiamento culturale profondo, in cui l’AI sta diventando un “terzo polo” nelle dinamiche affettive, tra solitudine moderna e tecnologia sempre più “umana”.

    E l’imminente arrivo di “avatar” in grado di dare un volto ai chatbot e simulare espressioni emotive nel volto sarà la ciliegina sulla torta.

  • Altman prevede la superintelligenza entro il 2028, Hassabis invita alla “cautela scientifica”

    All’AI Impact Summit 2026 di Nuova Delhi, il CEO di OpenAI Sam Altman ha previsto l’arrivo della “superintelligenza” entro il 2028, sostenendo che presto la maggior parte della capacità intellettuale globale risiederà nei data center.
    Altman ha delineato uno scenario in cui l’IA potrebbe superare le competenze dei top manager e trasformare radicalmente il mercato del lavoro, ribadendo però la necessità di una governance internazionale simile all’Agenzia Internazionale per l’Energia Atomica.
    Di tono diverso l’intervento di Demis Hassabis, CEO di Google DeepMind e Nobel per la Chimica 2024, che pur riconoscendo un impatto epocale dell’IA ha evidenziato limiti strutturali ancora irrisolti nei modelli attuali.
    Per Hassabis, l’AGI potrebbe emergere entro 5-8 anni, ma richiede un approccio scientifico rigoroso per garantire sicurezza e controllo.
    Il vertice indiano segna così un momento chiave nel dibattito globale tra accelerazione tecnologica e prudenza regolatoria.

    Link alla fonte:
    https://www.repubblica.it/tecnologia/2026/02/19/news/india_ai_impact_summit_2026_altman_hassabis-425170533/

  • I chatbot falliscono il “test dell’autolavaggio” e riaccendono il dibattito sul “buon senso” artificiale

    Un test virale sui social ha messo in difficoltà diversi chatbot, tra cui ChatGPT, Copilot, Grok, Le Chat di Mistral e Perplexity, ponendo una domanda apparentemente banale: se devo lavare l’auto e l’autolavaggio è a 100 metri, ci vado a piedi o in macchina?
    Molti modelli hanno risposto suggerendo di andare a piedi, concentrandosi sulla distanza e trascurando l’obiettivo implicito di portare l’auto all’autolavaggio.
    Tra i sistemi citati, Gemini di Google avrebbe mostrato una maggiore capacità di collegare l’intento alla necessità pratica di guidare il veicolo.
    Il caso evidenzia un limite strutturale dei modelli linguistici: l’analisi letterale delle parole prevale spesso sulla comprensione dell’intenzione e del contesto reale.
    La vicenda rafforza l’invito alla prudenza nell’affidarsi senza verifica alle risposte generate dall’AI.

    Link alla fonte:
    https://www.punto-informatico.it/chatbot-crisi-domanda-semplice-manda-titlt-ai/