Tag: Anthropic

  • L’AI supera una nuova soglia: tra auto-miglioramento, rischi sistemici e tensioni etiche globali

    Un’ondata di innovazioni – dal rilascio di GPT-5.3 Codex di OpenAI e Opus 4.6 di Anthropic fino al modello video Seedance 2.0 di ByteDance – segna quello che diversi osservatori definiscono un punto di svolta per l’intelligenza artificiale.
    L’imprenditore Matt Shumer parla di una fase in cui l’IA non è più solo uno strumento, ma un sistema capace di svolgere e migliorare il lavoro umano, inclusa la programmazione dell’IA stessa.
    Il CEO di Anthropic, Dario Amodei, descrive questa fase come una “adolescenza tecnologica”, con sistemi replicabili su larga scala e potenzialmente superiori agli esperti in molti campi, ma ancora privi di adeguate strutture di governance.
    Tra i rischi emergono manipolazione, sicurezza biologica, concentrazione del potere economico e destabilizzazione democratica, mentre le dimissioni di ricercatori chiave come Mrinank Sharma evidenziano il peso morale interno al settore.
    In parallelo, casi come Seedance 2.0 riaccendono lo scontro su copyright e geopolitica tecnologica, mostrando come la competizione tra aziende e Stati stia accelerando una trasformazione potenzialmente irreversibile.

    Link alla fonte:
    https://www.ilfattoquotidiano.it/2026/02/19/intelligenza-artificiale-balzo-tecnologico-rischi-news/8295880/

  • Pentagono chiede accesso illimitato ai modelli AI, Anthropic si oppone per ragioni etiche

    Il Dipartimento della Difesa degli Stati Uniti ha chiesto ad Anthropic accesso senza restrizioni ai suoi modelli di intelligenza artificiale “per ogni scopo legale”, incluse operazioni militari e di intelligence.
    L’azienda, guidata dal CEO Dario Amodei, ha rifiutato, ribadendo la necessità di mantenere salvaguardie contro l’automazione letale e la sorveglianza di massa.
    Le tensioni sarebbero aumentate dopo il presunto utilizzo del modello Claude in un’operazione che ha portato alla cattura del presidente venezuelano Nicolás Maduro.
    Il contratto tra le parti, del valore di 200 milioni di dollari, è ora a rischio, mentre il caso riapre il dibattito su mission creep, responsabilità decisionale e governance dei dati in ambito militare.
    La vicenda potrebbe accelerare lo sviluppo di modelli “military-grade” statali o ridefinire gli equilibri tra sicurezza nazionale e limiti etici imposti dai laboratori AI.

    Link alla fonte:
    https://www.repubblica.it/tecnologia/2026/02/16/news/pentagono-chiede-intelligenza-artificiale-senza-limiti-scopi-militari-antrhopic-dice-no-425162689/

  • Anthropic potenzia Claude Sonnet 4.6 con 1 milione di token e focus sul coding

    Anthropic ha rilasciato Claude Sonnet 4.6, aggiornando il modello intermedio della famiglia Claude a poche settimane dal debutto di Claude Opus 4.6.
    La novità principale è l’introduzione, in beta, di una finestra di contesto fino a un milione di token, che consente di analizzare interi codebase, contratti o raccolte di paper in un’unica richiesta.
    Il modello migliora inoltre nelle attività di coding, nell’aderenza alle istruzioni e nell’uso del computer, ottenendo risultati di rilievo in benchmark come SWE-Bench, OS World e ARC-AGI-2.
    Pur restando dietro a modelli più grandi come Gemini 3 Deep Think e una versione ottimizzata di GPT-5.2, Sonnet 4.6 si propone come il miglior compromesso tra prestazioni e costi per utenti Free e Pro.

    Link alla fonte:
    https://www.punto-informatico.it/claude-sonnet-4-6-coding-migliore-finestra-contesto-enorme/