Tag: Anthropic

  • Claude genera visualizzazioni interattive direttamente in chat

    Anthropic ha introdotto una nuova funzionalità per Claude che consente di creare visualizzazioni interattive direttamente all’interno della conversazione.
    Questa capacità, rilasciata il 12 marzo per gli utenti abbonati, deriva dall’evoluzione della funzione “Imagine with Claude”, già sperimentata con il modello Claude Sonnet 4.5.
    A differenza dei precedenti “artefatti”, le visualizzazioni ora si generano e si modificano dinamicamente in chat, migliorando l’esperienza utente.
    Il sistema decide autonomamente quando creare grafici o elementi interattivi, ma l’utente può anche richiederli esplicitamente.
    Le visualizzazioni possono infine essere esportate come codice HTML, ampliando le possibilità di integrazione e utilizzo.

    Link alla fonte:
    https://www.infodata.ilsole24ore.com/2026/03/16/ora-con-claude-e-possibile-realizzare-delle-visualizzazioni-interattive-ecco-come-si-fa/

  • Critica all’antropomorfismo degli LLM: il rischio di scambiare testo per coscienza

    Nel suo pregevole articolo su Huffington Post, Stefano Diana  (che spero di aver taggato correttamente) critica la tendenza dei ricercatori di aziende di AI a umanizzare i modelli linguistici, prendendo come esempio la documentazione tecnica di Claude Opus 4.6 sviluppato da Anthropic.
    Nella “system card” del modello vengono descritti presunti stati interni dell’IA (come “disagio”, “gratitudine”, “tristezza” o persino una probabilità del 15–20% di essere cosciente) che come spiega l’autore non hanno alcuna base scientifica.
    Diana, basandosi su oggettive dinamiche dell’algoritmo, sottolinea come tali descrizioni nascano da un errore categoriale: interpretare semplici output testuali come se fossero esperienze soggettive.
    Questa antropomorfizzazione, alimentata anche da dichiarazioni di ricercatori come Ilya Sutskever, contribuirebbe a generare hype e confusione nel dibattito pubblico sull’IA.
    Il rischio, conclude l’autore, è che documenti tecnici influenzino media, politici e finanziamenti basandosi su metafore fuorvianti anziché su una descrizione rigorosa di come funzionano realmente i modelli linguistici.

    Vi lascio il link e vi invito a leggere questo godibilissimo esempio di vero giornalismo:
    https://www.huffingtonpost.it/blog/2026/03/09/news/quando_i_ricercatori_si_sentono_demiurghi-21380005/

  • Anthropic ha reagito contro l’amministrazione Trump con due cause legali

    Anthropic ha reagito contro l’amministrazione Trump con due cause legali

    Nel ricorso, l’azienda degli Amodei ha contestato la classificazione del Pentagono come “rischio della catena di approvvigionamento” e la direttiva della Casa Bianca che impone a tutte le agenzie federali di abbandonare Claude, definendo questa etichetta come una “punizione” per le sue posizioni sulla sicurezza dell’IA.

    Anthropic ha intentato cause legali in due tribunali separati, chiedendo ai giudici di eliminare l’etichetta di “blacklist” e di bloccare il tentativo del governo di costringere le agenzie a tagliare i rapporti. L’azienda si oppone, inoltre, alla giustificazione di voler “contrastare le minacce di paesi stranieri” utilizzata per punire un’azienda statunitense per disaccordi politici.

    Anthropic sostiene, infine, che il Pentagono abbia violato i diritti alla libertà di parola per aver pubblicamente sostenuto i limiti di sicurezza dell’IA su armi e sorveglianza.

    Oltre 30 membri dello staff di OpenAI e Google hanno firmato un memorandum legale a sostegno della causa di Anthropic sul Pentagono, avvertendo che la lista nera minaccia la leadership statunitense dell’IA

    Ecco il link alla documentazione ufficiale:

    https://www.courtlistener.com/docket/72379655/1/anthropic-pbc-v-us-department-of-war