All’AI Impact Summit 2026 di Nuova Delhi, il CEO di OpenAI Sam Altman ha previsto l’arrivo della “superintelligenza” entro il 2028, sostenendo che presto la maggior parte della capacità intellettuale globale risiederà nei data center.
Altman ha delineato uno scenario in cui l’IA potrebbe superare le competenze dei top manager e trasformare radicalmente il mercato del lavoro, ribadendo però la necessità di una governance internazionale simile all’Agenzia Internazionale per l’Energia Atomica.
Di tono diverso l’intervento di Demis Hassabis, CEO di Google DeepMind e Nobel per la Chimica 2024, che pur riconoscendo un impatto epocale dell’IA ha evidenziato limiti strutturali ancora irrisolti nei modelli attuali.
Per Hassabis, l’AGI potrebbe emergere entro 5-8 anni, ma richiede un approccio scientifico rigoroso per garantire sicurezza e controllo.
Il vertice indiano segna così un momento chiave nel dibattito globale tra accelerazione tecnologica e prudenza regolatoria.
Link alla fonte:
https://www.repubblica.it/tecnologia/2026/02/19/news/india_ai_impact_summit_2026_altman_hassabis-425170533/
Tag: Superintelligenza
-
Altman prevede la superintelligenza entro il 2028, Hassabis invita alla “cautela scientifica”
-
Microsoft lancia la “Humanist Superintelligence”: un’AI focalizzata, sicura e sotto il controllo umano
Microsoft, guidata da Mustafa Suleyman, introduce la Humanist Superintelligence (HSI), una visione alternativa all’AGI centrata su utilità sociale, sicurezza e contenimento continuo.
L’obiettivo è creare superintelligenze settoriali — non generaliste — con autonomia limitata e responsabilità condivisa tra aziende e istituzioni.
Il nuovo MAI Superintelligence Team svilupperà sistemi applicabili a tre domini chiave: companion personali, diagnostica medica e energia pulita, privilegiando benefici verificabili rispetto alla pura espansione cognitiva dei modelli.
L’approccio umanista mira a mantenere “l’essere umano al volante”, con governance, limiti e controllabilità integrati sin dall’architettura dei sistemi.
In prospettiva, Microsoft punta a un’AI collaborativa, che amplifichi le capacità umane invece di sostituirle.Link alla fonte:
https://www.hwupgrade.it/news/web/altro-che-agi-la-superintelligenza-di-microsoft-diventa-umanista-focalizzata-sicura-e-al-servizio-delle-persone_145936.html -
1.500 esperti chiedono di fermare la corsa verso la superintelligenza artificiale
Oltre 1.500 scienziati, leader tecnologici e figure pubbliche — tra cui Geoffrey Hinton, Yoshua Bengio, Steve Wozniak e Richard Branson — hanno firmato un appello promosso dal Future of Life Institute per sospendere lo sviluppo della superintelligenza artificiale finché non sarà dimostrata la sua sicurezza.
I firmatari avvertono che un’AI capace di superare le capacità cognitive umane potrebbe rappresentare un rischio esistenziale, con implicazioni per la libertà, la sicurezza e la sopravvivenza stessa dell’umanità.
La dichiarazione sottolinea la necessità di regolamentazioni globali e di un consenso scientifico e pubblico prima di proseguire. Il movimento riflette una crescente preoccupazione verso la mancanza di controllo e trasparenza nello sviluppo dell’AI, in un momento in cui figure come Elon Musk e Demis Hassabis prevedono l’arrivo di una AI generale entro il prossimo decennio.
Link alla fonte:
