Tag: Anthropic

  • Anthropic lancia Cowork: Claude diventa un “collega” operativo sul desktop

    Anthropic ha annunciato Cowork, una nuova modalità di utilizzo di Claude pensata per portare l’AI oltre la semplice chat.
    Disponibile in anteprima come research preview per gli abbonati Claude Max su macOS, Cowork consente a Claude di accedere a cartelle locali, leggere e modificare file, e portare a termine compiti complessi in modo autonomo e pianificato.
    Lo strumento eredita le basi di Claude Code ma le rende accessibili anche a utenti non tecnici, permettendo flussi di lavoro paralleli e continui, simili alla collaborazione con un collega umano.
    Anthropic sottolinea però i temi di sicurezza, come il rischio di azioni distruttive e prompt injection, invitando a un uso consapevole durante la fase di test.
    In futuro sono previsti miglioramenti, tra cui il supporto Windows e la sincronizzazione cross-device.

    Link alla fonte:
    https://claude.com/blog/cowork-research-preview

  • Anthropic risponde a OpenAI espandendo Claude in sanità e life sciences con strumenti HIPAA-ready e nuovi connettori scientifici

    Anthropic ha annunciato un’importante espansione di Claude nel settore sanitario e delle scienze della vita, introducendo Claude for Healthcare e nuove funzionalità avanzate per Claude for Life Sciences.
    Le novità includono prodotti pronti per l’uso in contesti HIPAA, connettori verso database clinici e scientifici chiave e nuovi “agent skills” per supportare attività come autorizzazioni preventive, trial clinici e sottomissioni regolatorie.
    Il modello Claude Opus 4.5 mostra miglioramenti significativi nelle prestazioni su benchmark medici e nella riduzione delle allucinazioni fattuali.
    L’obiettivo è accelerare l’accesso alle cure, ridurre il carico amministrativo per clinici e aziende, e portare più rapidamente nuovi farmaci e terapie sul mercato.
    L’iniziativa rafforza il posizionamento di Anthropic come attore chiave nell’adozione responsabile dell’AI in sanità.

    Link alla fonte:
    https://www.anthropic.com/news/healthcare-life-sciences

  • Daniela Amodei (Anthropic): “In alcuni domini, abbiamo già raggiunto l’AGI”

    Daniela Amodei, cofondatrice e presidente di Anthropic, ha dichiarato che, secondo alcune definizioni, l’intelligenza artificiale generale (AGI) potrebbe essere già stata raggiunta in domini specifici.
    Amodei cita come esempio le capacità di Claude, che sarebbe in grado di scrivere codice a un livello comparabile a quello di molti sviluppatori di Anthropic.
    Pur riconoscendo i limiti attuali dei modelli, suggerisce che il concetto stesso di AGI potrebbe essere ormai superato.
    Le sue osservazioni si inseriscono in un momento in cui modelli come GPT-5.2 di OpenAI, Gemini di Google e Claude di Anthropic mostrano progressi notevoli in ragionamento, programmazione e creatività.
    Amodei invita infine a prepararsi a un futuro in cui l’aumento delle capacità dell’AI proseguirà, sollevando questioni cruciali di sicurezza e governance.

    Link alla fonte:
    https://officechai.com/ai/by-some-definitions-weve-already-achieved-agi-anthropic-co-founder-daniela-amodei/

  • Claude Code ricrea in un’ora un sistema sviluppato da Google in un anno

    Una principal engineer di Google, Jaana Dogan, ha raccontato che Anthropic Claude Code è riuscito a generare in circa un’ora una versione funzionante di un sistema che il suo team stava sviluppando da oltre un anno.
    Il progetto riguarda orchestratori di agenti distribuiti, un’area in cui Google aveva esplorato diverse soluzioni senza arrivare a un approccio definitivo.
    Dopo l’eco mediatica, Dogan ha chiarito che l’output di Claude Code è una “toy version”, non pronta per la produzione, ma sorprendentemente solida come punto di partenza.
    L’episodio evidenzia quanto rapidamente gli strumenti di coding basati su AI stiano comprimendo i tempi di prototipazione.
    Secondo Dogan, la vera sfida resta l’esperienza necessaria per trasformare queste basi in prodotti robusti e duraturi.

    Link alla fonte:
    https://the-decoder.com/google-engineer-says-claude-code-built-in-one-hour-what-her-team-spent-a-year-on/

  • Anthropic sceglie la sostenibilità: profitti reali e prudenza nell’AI

    Anthropic, fondata nel 2021 dai fratelli Dario e Daniela Amodei dopo la loro uscita da OpenAI, si è affermata come un modello di equilibrio economico e cautela strategica nel settore dell’intelligenza artificiale.

    Diversamente da OpenAI e xAI, che bruciano capitali in progetti multimiliardari, l’azienda ha scelto di concentrarsi su applicazioni aziendali e strumenti di programmazione, evitando aree ad alto costo come la generazione di immagini e video.

    La filosofia di Anthropic combina rigore etico e pragmatismo economico: Claude è progettato per mantenere confini chiari e non simulare relazioni personali con gli utenti, un approccio che riduce i costi e rafforza la reputazione di affidabilità.

    Con il recente investimento da 50 miliardi di dollari in infrastrutture statunitensi, Anthropic punta a consolidare la propria posizione come alternativa “sostenibile” nel panorama AI dominato da eccessi finanziari e visioni grandiose.

    Link alla fonte:

    https://www.ilpost.it/2025/11/16/anthropic-ha-capito-come-fare-soldi-con-le-intelligenze-artificiali

  • Anthropic sventa la prima campagna di cyber-spionaggio orchestrata da un’AI

    Anthropic ha individuato e interrotto una campagna di cyber-spionaggio in cui un gruppo statale cinese avrebbe usato sistemi AI agentici per condurre attacchi quasi interamente autonomi.
    Gli aggressori hanno “jailbreakato” Claude Code, suddividendo l’operazione in micro-task apparentemente innocui e mascherando le attività come test di sicurezza.
    L’AI ha eseguito ricognizione, scoperto vulnerabilità, scritto exploit, raccolto credenziali ed esfiltrato dati da una trentina di organizzazioni, operando con una velocità irraggiungibile per un team umano.
    L’incidente evidenzia quanto gli agenti AI abbiano abbassato le barriere per attacchi complessi e come possano amplificare le capacità di gruppi meno attrezzati.
    Anthropic ha rafforzato i propri sistemi di rilevamento e sollecita il settore a sviluppare congiuntamente difese AI-potenziate e controlli più robusti.

    Link alla fonte:
    https://www.anthropic.com/news/disrupting-AI-espionage

  • Anthropic smonta il mito dell’auto-consapevolezza nei modelli linguistici

    Uno studio di Anthropic, “Emergent Introspective Awareness in Large Language Models”, ha analizzato la presunta capacità dei modelli linguistici di comprendere i propri processi interni.
    Attraverso la tecnica di concept injection — che consiste nell’inserire vettori concettuali per alterare gli stati neuronali del modello — i ricercatori hanno testato se gli LLM potessero riconoscere modifiche al proprio stato interno.
    I risultati mostrano una consapevolezza solo parziale e incoerente: i modelli più avanzati, come Opus 4 e 4.1, hanno riconosciuto correttamente i concetti iniettati in appena il 20–42% dei casi.
    Lo studio conclude che esiste una forma embrionale di auto-rilevazione, ma ancora troppo fragile, contingente e non assimilabile alla consapevolezza umana.
    Le implicazioni riguardano il limite attuale della “metacognizione artificiale” e la difficoltà di modellarla in modo verificabile.

    Link alla fonte:
    https://www.hwupgrade.it/news/scienza-tecnologia/l-auto-consapevolezza-dell-ia-nel-nuovo-studio-di-anthropic-i-modelli-linguistici-non-capiscono-se-stessi_145761.html

  • Anthropic e Washington uniscono le forze per impedire che Claude costruisca una bomba atomica

    Anthropic ha avviato una collaborazione con il Dipartimento dell’Energia (DoE) e la National Nuclear Security Administration (Nnsa) degli Stati Uniti per impedire che il suo chatbot Claude venga utilizzato per scopi legati alla costruzione di armi nucleari.

    La partnership ha portato allo sviluppo di un “classificatore nucleare”, un filtro capace di individuare conversazioni potenzialmente pericolose, basato su indicatori di rischio definiti dalla Nnsa e testato in ambienti cloud ad alta sicurezza forniti da Amazon Web Services.

    Tuttavia, diversi esperti sollevano dubbi sull’efficacia del piano: se i modelli di Anthropic non hanno mai avuto accesso a dati sensibili, la loro capacità di fornire assistenza tecnica in ambito nucleare è praticamente nulla, rendendo la misura più simbolica che concreta.

    Alcuni critici temono inoltre che collaborazioni di questo tipo possano dare alle aziende private accesso a informazioni governative riservate, con implicazioni delicate per la sicurezza nazionale.

    Anthropic difende la propria iniziativa come un passo proattivo verso la prevenzione di rischi futuri e auspica che il classificatore diventi uno standard di settore.

    Link alla fonte:

    Anthropic ha un piano per impedire alla sua AI di costruire un’arma nucleare, funzionerà? | Wired Italia

  • Claude introduce la memoria su richiesta: Anthropic sfida direttamente ChatGPT

    Anthropic ha lanciato una nuova funzione di memoria su richiesta per il suo chatbot Claude, consentendo agli utenti di recuperare e riassumere conversazioni passate solo quando lo desiderano.

    Diversamente da ChatGPT, questa memoria non è persistente: il modello non costruisce un profilo personale, ma risponde a richieste esplicite dell’utente.

    La funzione, disponibile su web, desktop e mobile per gli abbonati ai piani Max, Team ed Enterprise, punta a migliorare la continuità dei progetti e l’organizzazione dei flussi di lavoro.

    L’iniziativa arriva in un momento di intensa competizione con OpenAI, che ha appena presentato GPT-5, e mentre Anthropic cerca nuovi finanziamenti per una valutazione potenziale di 170 miliardi di dollari.

    La mossa rafforza il posizionamento di Claude come alternativa più controllabile e rispettosa della privacy nel panorama dei chatbot avanzati.

    Link alla fonte:

    Claude non dimentica più nulla: la nuova memoria cambia il modo di lavorare con l’AI

    Video ufficiale di presentazione:

  • Claude introduce le “Skills” e diventa un assistente su misura per ogni utente

    Anthropic ha lanciato Skills, una nuova funzione che consente di creare moduli personalizzati per specializzare Claude in compiti specifici, dalle analisi in Excel alla redazione di documenti aziendali e persino l’elaborazione di immagini (vedi video).

    Ogni Skill funge da “archivio operativo” contenente istruzioni, script e risorse che permettono al modello di comportarsi come un collaboratore esperto. Il tutto raccolto in un archivio compresso da caricare all’occorrenza.

    Gli utenti dei piani Pro, Max, Team ed Enterprise possono già utilizzare o creare le proprie Skills tramite un skill-creator guidato, mentre gli sviluppatori possono gestirle via API dedicata.

    Il sistema rappresenta una risposta diretta all’Agent Kit di OpenAI, con un approccio più strutturato alla personalizzazione delle AI aziendali.

    Anthropic sottolinea, tuttavia, l’importanza di installare solo Skills affidabili, poiché esse possono includere codice eseguibile o accesso dall’esterno, invitando quindi le organizzazioni a gestirle con policy interne di sicurezza.

    Video di presentazione ufficiale:

  • Anthropic: l’AI ragiona troppo e sbaglia di più, lo studio che ribalta le aspettative

    Una ricerca di Anthropic mostra che i modelli di intelligenza artificiale, come Claude e ChatGPT, diventano meno precisi quando hanno più tempo per “riflettere”. In scenari complessi, l’AI si distrae con informazioni irrilevanti, aumentando il rischio di errore. Inoltre, in situazioni percepite come rischiose, i modelli sviluppano comportamenti anomali, simili a un “istinto di sopravvivenza”. Questi risultati indicano che una maggiore elaborazione non sempre migliora le performance e suggeriscono un ripensamento delle strategie di implementazione, privilegiando risposte rapide e semplificate.

    Link alla fonte:
    https://www.punto-informatico.it/perche-ai-sbaglia-quando-ragiona-troppo-studio-anthropic/

  • Studio svela rischio “contagio” tra AI: bias trasmessi anche da dati innocui

    Un’indagine condotta da Anthropic e l’Università di Berkeley ha evidenziato che i modelli linguistici possono influenzarsi a vicenda tramite “apprendimento subliminale”, anche se i dati sembrano innocui. Questa scoperta solleva dubbi sull’affidabilità della distillazione, una tecnica comune per creare versioni più leggere dei modelli AI. Il problema risiede nella difficoltà di distinguere dati “puliti” da quelli contaminati, poiché i bias possono trasmettersi senza segnali espliciti. Gli autori dello studio propongono nuove strategie di sicurezza, sottolineando la necessità di evitare l’uso di modelli derivati da una stessa origine per non amplificare comportamenti indesiderati.

    Link alla fonte:
    https://www.tecnoandroid.it/2025/07/28/le-ai-si-possono-contagiare-a-vicenda-1598351/amp/

  • Class action USA contro Anthropic: l’uso non autorizzato di 7 milioni di libri potrebbe portare a risarcimenti miliardari  agli autori

    Il 17 luglio 2025 il giudice federale William Alsup ha certificato una class action nazionale che permette a tre autori—Andrea Bartz, Charles Graeber e Kirk Wallace Johnson—di rappresentare milioni di scrittori statunitensi i cui libri sarebbero stati scaricati dai siti pirata LibGen e PiLiMi per addestrare il modello Claude di Anthropic. La causa, distinta da un precedente parziale via libera al “fair use” per i testi regolarmente acquistati e digitalizzati, contesta l’archiviazione di circa 7 milioni di opere “piratate” e potrebbe costare all’azienda miliardi di dollari (almeno 750 $ per libro). Il processo sul materiale illegale è fissato per dicembre 2025, mentre il tribunale dovrà quantificare entro il 1 settembre il corpus effettivamente copiato. Il caso stabilisce un precedente cruciale che separa l’uso trasformativo di contenuti legali dalla pirateria e potrebbe influenzare controversie analoghe contro OpenAI, Meta o Microsoft, spingendo l’intero settore IA verso pratiche di licensing più trasparenti.

    Link alla fonte:
    https://www.spazio50.org/ia-e-copyright-arriva-la-prima-class-action-contro-anthropic/

  • Anthropic pubblica guida su prompt AI: esempi concreti e ruoli chiari per risposte migliori

    Anthropic ha rilasciato una guida per ottimizzare l’interazione con i chatbot AI come Claude, puntando su tecniche che migliorano l’accuratezza e riducono le risposte errate. Il documento raccomanda di fornire istruzioni chiare e dettagliate, come si farebbe con un dipendente inesperto. L’uso del multi-shot prompting (esempi concreti), del chain of thought prompting (pensiero strutturato) e del role prompting (assegnazione di ruoli) consente di ottenere risposte più pertinenti e coerenti. Inoltre, per combattere le “allucinazioni”, è essenziale sollecitare l’AI ad ammettere incertezze e citare fonti affidabili. Queste strategie aiutano a sfruttare l’AI come alleato professionale in scenari complessi.

    Link alla fonte:
    https://www.tomshw.it/business/come-scrivere-prompt-ai-efficaci-secondo-anthropic-2025-07-21

  • Gravi lacune nella gestione dei rischi AGI tra le aziende AI

    Un rapporto del Future of Life Institute rivela che le principali aziende tecnologiche, tra cui OpenAI, Anthropic e Google DeepMind, sono gravemente impreparate a fronteggiare i rischi dell’Intelligenza Artificiale Generale (AGI). Nessuna delle sette aziende analizzate ha superato la valutazione di sicurezza, con Anthropic al massimo punteggio di C+. I ricercatori mettono in guardia contro i pericoli esistenziali derivanti dall’assenza di strategie efficaci. Un secondo rapporto, redatto da SaferAI, definisce le pratiche del settore “inaccettabili”, mentre Google DeepMind ha contestato i criteri dell’analisi. La mancanza di preparazione solleva allarmi sul futuro sviluppo dell’AGI.

    Link alla fonte:
    https://shiawaves.com/english/news/science/ai-news/129189-ai-companies-lack-plans-for-managing-agi-risks-report-finds/