All’AI Impact Summit 2026 di Nuova Delhi, il CEO di OpenAI Sam Altman ha previsto l’arrivo della “superintelligenza” entro il 2028, sostenendo che presto la maggior parte della capacità intellettuale globale risiederà nei data center.
Altman ha delineato uno scenario in cui l’IA potrebbe superare le competenze dei top manager e trasformare radicalmente il mercato del lavoro, ribadendo però la necessità di una governance internazionale simile all’Agenzia Internazionale per l’Energia Atomica.
Di tono diverso l’intervento di Demis Hassabis, CEO di Google DeepMind e Nobel per la Chimica 2024, che pur riconoscendo un impatto epocale dell’IA ha evidenziato limiti strutturali ancora irrisolti nei modelli attuali.
Per Hassabis, l’AGI potrebbe emergere entro 5-8 anni, ma richiede un approccio scientifico rigoroso per garantire sicurezza e controllo.
Il vertice indiano segna così un momento chiave nel dibattito globale tra accelerazione tecnologica e prudenza regolatoria.
Link alla fonte:
https://www.repubblica.it/tecnologia/2026/02/19/news/india_ai_impact_summit_2026_altman_hassabis-425170533/
Blog
-
Altman prevede la superintelligenza entro il 2028, Hassabis invita alla “cautela scientifica”
-
I chatbot falliscono il “test dell’autolavaggio” e riaccendono il dibattito sul “buon senso” artificiale
Un test virale sui social ha messo in difficoltà diversi chatbot, tra cui ChatGPT, Copilot, Grok, Le Chat di Mistral e Perplexity, ponendo una domanda apparentemente banale: se devo lavare l’auto e l’autolavaggio è a 100 metri, ci vado a piedi o in macchina?
Molti modelli hanno risposto suggerendo di andare a piedi, concentrandosi sulla distanza e trascurando l’obiettivo implicito di portare l’auto all’autolavaggio.
Tra i sistemi citati, Gemini di Google avrebbe mostrato una maggiore capacità di collegare l’intento alla necessità pratica di guidare il veicolo.
Il caso evidenzia un limite strutturale dei modelli linguistici: l’analisi letterale delle parole prevale spesso sulla comprensione dell’intenzione e del contesto reale.
La vicenda rafforza l’invito alla prudenza nell’affidarsi senza verifica alle risposte generate dall’AI.Link alla fonte:
https://www.punto-informatico.it/chatbot-crisi-domanda-semplice-manda-titlt-ai/ -
Anthropic lancia Claude Code Security e innesca il sell-off dei titoli cybersecurity
Il debutto di Claude Code Security da parte di Anthropic ha provocato un brusco calo dei titoli della cybersecurity cloud-native, con CrowdStrike e Okta in ribasso rispettivamente del 6,8% e del 9,2%.
Il nuovo strumento, basato sul modello Claude Opus 4.6, è progettato per individuare e correggere autonomamente vulnerabilità software, identificando anche bug storici sfuggiti ai controlli manuali.
Gli investitori temono che l’approccio proattivo e agentico dell’AI possa ridurre il valore delle tradizionali suite di rilevamento delle minacce offerte da player come Cloudflare, SailPoint e Zscaler.
Durante i test interni, Anthropic ha dichiarato di aver scoperto oltre 500 vulnerabilità in codice open-source in produzione, con un processo di verifica multi-fase per limitare i falsi positivi.
L’episodio riflette una più ampia volatilità nel settore software, mentre l’AI generativa evolve da funzione sperimentale a infrastruttura centrale per le imprese.
