Un’ondata di innovazioni – dal rilascio di GPT-5.3 Codex di OpenAI e Opus 4.6 di Anthropic fino al modello video Seedance 2.0 di ByteDance – segna quello che diversi osservatori definiscono un punto di svolta per l’intelligenza artificiale.
L’imprenditore Matt Shumer parla di una fase in cui l’IA non è più solo uno strumento, ma un sistema capace di svolgere e migliorare il lavoro umano, inclusa la programmazione dell’IA stessa.
Il CEO di Anthropic, Dario Amodei, descrive questa fase come una “adolescenza tecnologica”, con sistemi replicabili su larga scala e potenzialmente superiori agli esperti in molti campi, ma ancora privi di adeguate strutture di governance.
Tra i rischi emergono manipolazione, sicurezza biologica, concentrazione del potere economico e destabilizzazione democratica, mentre le dimissioni di ricercatori chiave come Mrinank Sharma evidenziano il peso morale interno al settore.
In parallelo, casi come Seedance 2.0 riaccendono lo scontro su copyright e geopolitica tecnologica, mostrando come la competizione tra aziende e Stati stia accelerando una trasformazione potenzialmente irreversibile.
Link alla fonte:
https://www.ilfattoquotidiano.it/2026/02/19/intelligenza-artificiale-balzo-tecnologico-rischi-news/8295880/
Blog
-
L’AI supera una nuova soglia: tra auto-miglioramento, rischi sistemici e tensioni etiche globali
-
Gli infostealer colpiscono OpenClaw: rubati token e chiavi API degli agenti AI locali
Un’infezione attribuita a una variante del malware infostealer Vidar ha portato alla prima esfiltrazione documentata dei file di configurazione di OpenClaw, framework di assistente AI agentica eseguibile in locale.
Secondo i ricercatori di Hudson Rock, sono stati sottratti token di autenticazione, chiavi crittografiche pubbliche e private e file di memoria persistente dell’agente, elementi che potrebbero consentire la completa compromissione dell’identità digitale della vittima.
Il malware ha sfruttato routine generiche di scansione alla ricerca di file sensibili, individuando directory come “.openclaw” e file quali “openclaw.json” e “device.json”. Particolarmente critici risultano anche i file di memoria (“soul.md”, “AGENTS.md”, “MEMORY.md”), che contengono contesto operativo e dati personali, trasformando gli agenti IA in nuovi bersagli ad alto valore per il cybercrime.
L’episodio segna un cambio di paradigma: dagli account tradizionali si passa al furto della “identità operativa” degli assistenti IA, con rilevanti implicazioni per utenti e aziende che adottano soluzioni agentiche.Link alla fonte:
https://www.hwupgrade.it/news/sicurezza-software/openclaw-sotto-attacco-i-malware-infostealer-puntano-sugli-agenti-ia-locali_150196.html -
Alpha School sostituisce i docenti con l’AI: polemiche su errori, sorveglianza e rette da 65mila dollari
La rete privata americana Alpha School, fondata ad Austin nel 2014 da MacKenzie Price con il sostegno del miliardario Joe Liemandt, ha eliminato i docenti sostituendoli con sistemi di intelligenza artificiale generativa per l’insegnamento delle materie accademiche.
Il modello “2-Hour Learning” promette apprendimento personalizzato e rapido, ma diverse inchieste giornalistiche hanno denunciato contenuti copiati da piattaforme gratuite, errori frequenti nelle lezioni e sistemi di sorveglianza algoritmica punitiva sugli studenti.
Nonostante le critiche, il progetto ha ricevuto l’appoggio pubblico di Donald Trump e della sua amministrazione, che lo considerano un esempio coerente con la strategia federale di promozione dell’educazione all’IA.
Intanto crescono i dubbi di genitori ed esperti sull’efficacia pedagogica del modello e sulla sostenibilità di una retta annuale fino a 65.000 dollari, mentre Alpha continua a espandersi negli Stati Uniti.Link alla fonte:
https://www.repubblica.it/tecnologia/2026/02/18/news/alpha_school_scuola_privata_intelligenza_artificiale_docenti_come_funziona-425166806/
