Tag: Anthropic

  • Class action USA contro Anthropic: l’uso non autorizzato di 7 milioni di libri potrebbe portare a risarcimenti miliardari  agli autori

    Il 17 luglio 2025 il giudice federale William Alsup ha certificato una class action nazionale che permette a tre autori—Andrea Bartz, Charles Graeber e Kirk Wallace Johnson—di rappresentare milioni di scrittori statunitensi i cui libri sarebbero stati scaricati dai siti pirata LibGen e PiLiMi per addestrare il modello Claude di Anthropic. La causa, distinta da un precedente parziale via libera al “fair use” per i testi regolarmente acquistati e digitalizzati, contesta l’archiviazione di circa 7 milioni di opere “piratate” e potrebbe costare all’azienda miliardi di dollari (almeno 750 $ per libro). Il processo sul materiale illegale è fissato per dicembre 2025, mentre il tribunale dovrà quantificare entro il 1 settembre il corpus effettivamente copiato. Il caso stabilisce un precedente cruciale che separa l’uso trasformativo di contenuti legali dalla pirateria e potrebbe influenzare controversie analoghe contro OpenAI, Meta o Microsoft, spingendo l’intero settore IA verso pratiche di licensing più trasparenti.

    Link alla fonte:
    https://www.spazio50.org/ia-e-copyright-arriva-la-prima-class-action-contro-anthropic/

  • Anthropic pubblica guida su prompt AI: esempi concreti e ruoli chiari per risposte migliori

    Anthropic ha rilasciato una guida per ottimizzare l’interazione con i chatbot AI come Claude, puntando su tecniche che migliorano l’accuratezza e riducono le risposte errate. Il documento raccomanda di fornire istruzioni chiare e dettagliate, come si farebbe con un dipendente inesperto. L’uso del multi-shot prompting (esempi concreti), del chain of thought prompting (pensiero strutturato) e del role prompting (assegnazione di ruoli) consente di ottenere risposte più pertinenti e coerenti. Inoltre, per combattere le “allucinazioni”, è essenziale sollecitare l’AI ad ammettere incertezze e citare fonti affidabili. Queste strategie aiutano a sfruttare l’AI come alleato professionale in scenari complessi.

    Link alla fonte:
    https://www.tomshw.it/business/come-scrivere-prompt-ai-efficaci-secondo-anthropic-2025-07-21

  • Gravi lacune nella gestione dei rischi AGI tra le aziende AI

    Un rapporto del Future of Life Institute rivela che le principali aziende tecnologiche, tra cui OpenAI, Anthropic e Google DeepMind, sono gravemente impreparate a fronteggiare i rischi dell’Intelligenza Artificiale Generale (AGI). Nessuna delle sette aziende analizzate ha superato la valutazione di sicurezza, con Anthropic al massimo punteggio di C+. I ricercatori mettono in guardia contro i pericoli esistenziali derivanti dall’assenza di strategie efficaci. Un secondo rapporto, redatto da SaferAI, definisce le pratiche del settore “inaccettabili”, mentre Google DeepMind ha contestato i criteri dell’analisi. La mancanza di preparazione solleva allarmi sul futuro sviluppo dell’AGI.

    Link alla fonte:
    https://shiawaves.com/english/news/science/ai-news/129189-ai-companies-lack-plans-for-managing-agi-risks-report-finds/