Il Dipartimento della Difesa degli Stati Uniti ha chiesto ad Anthropic accesso senza restrizioni ai suoi modelli di intelligenza artificiale “per ogni scopo legale”, incluse operazioni militari e di intelligence.
L’azienda, guidata dal CEO Dario Amodei, ha rifiutato, ribadendo la necessità di mantenere salvaguardie contro l’automazione letale e la sorveglianza di massa.
Le tensioni sarebbero aumentate dopo il presunto utilizzo del modello Claude in un’operazione che ha portato alla cattura del presidente venezuelano Nicolás Maduro.
Il contratto tra le parti, del valore di 200 milioni di dollari, è ora a rischio, mentre il caso riapre il dibattito su mission creep, responsabilità decisionale e governance dei dati in ambito militare.
La vicenda potrebbe accelerare lo sviluppo di modelli “military-grade” statali o ridefinire gli equilibri tra sicurezza nazionale e limiti etici imposti dai laboratori AI.
Link alla fonte:
https://www.repubblica.it/tecnologia/2026/02/16/news/pentagono-chiede-intelligenza-artificiale-senza-limiti-scopi-militari-antrhopic-dice-no-425162689/
Tag: Etica
-
Pentagono chiede accesso illimitato ai modelli AI, Anthropic si oppone per ragioni etiche
-
L’hype sull’AI generativa oscura i veri progressi dell’AI predittiva
In un editoriale per MIT Technology Review, Margaret Mitchell critica l’attenzione sproporzionata verso la generative AI, sostenendo che distolga l’opinione pubblica dai progressi più rilevanti dell’AI predittiva.
Mentre chatbot e contenuti sintetici catturano l’immaginazione collettiva, è l’AI predittiva a migliorare concretamente settori vitali come medicina, sicurezza, meteorologia e prevenzione dei disastri.
Mitchell evidenzia come la confusione tra “creazione” e “riconoscimento” abbia già causato errori gravi, inclusi casi legali e scientifici ritirati.
Inoltre, sottolinea i costi energetici, etici e occupazionali della generative AI, invitando a riequilibrare l’attenzione verso sistemi più affidabili, sostenibili e realmente utili.
Il futuro dell’AI benefica, conclude, dipenderà meno dai demo spettacolari e più da progressi silenziosi ma rigorosi.Link alla fonte:
https://www.technologyreview.com/2025/12/15/1129179/generative-ai-hype-distracts-us-from-ais-more-important-breakthroughs/ -
L’AI come “agente” al servizio dell’uomo, ma la responsabilità resta umana: il monito di Luciano Floridi
Luciano Floridi, filosofo e professore alla Yale University, ha spiegato durante l’evento Adnkronos “AI: intelligenza umana, supporto artificiale” che l’uso dell’intelligenza artificiale come agentic AI – ovvero sistemi capaci di agire come delegati digitali – è già realtà, anche se ancora imperfetta.
Floridi descrive scenari in cui un agente potrebbe organizzare un viaggio completo in autonomia, sottolineando però che la vera sfida non è tecnologica, ma di integrazione, sicurezza e coerenza del contesto digitale in cui questi agenti operano. Il filosofo evidenzia che tali agenti funzionano al meglio solo in ambienti nativamente digitali, dove interagiscono con dati, motori di ricerca, social e infrastrutture integrate.
Floridi conclude che l’evoluzione di questi sistemi richiede consapevolezza: la progettazione, l’uso e le eventuali conseguenze dell’AI rimangono una responsabilità esclusivamente umana.
Link alla fonte:
https://demografica.adnkronos.com/mondo/intelligenza-artificiale-responsabilita-umana-luciano-floridi-yale-university/
