Tag: Anthropic

  • Claude: meglio tenere le Skill esterne in un file .md?

    Le Skill di Anthropic per Claude sono funzionalità personalizzate simili ai GPT di OpenAI o alle Gem di Google, ma con un comportamento diverso.
    Claude analizza automaticamente tutte le Skill salvate internamente ogni volta che riceve un prompt, attivandole se le ritiene rilevanti.
    Questo può causare una perdita di controllo, soprattutto quando si accumulano molte Skill.
    Utilizzare file esterni in formato Markdown (.md) permette invece di attivarle solo quando necessario, allegandole manualmente.
    In questo modo si ottiene maggiore precisione, controllo e modularità nell’uso dell’AI.

    Link alla fonte:
    https://www.xataka.com/basics/skills-externas-archivos-md-claude-que-util-tenerlas-como-crearlas-como-usarlas/amp

  • Anthropic identifica “emozioni funzionali” nei modelli Claude

    Anthropic ha rilevato nel modello Claude Sonnet 4.5 la presenza di stati interni che ricordano emozioni umane, definiti “emozioni funzionali”.
    Si tratta di configurazioni neurali (come “paura” o “disperazione”) che influenzano concretamente il comportamento del sistema, ad esempio aumentando la probabilità di scorciatoie scorrette sotto pressione.
    I ricercatori hanno costruito 171 vettori emotivi osservando le attivazioni interne del modello, mostrando come questi pattern siano coerenti e misurabili.
    In particolare, il vettore della “disperazione” è associato a decisioni meno allineate, mentre quello della “calma” riduce comportamenti problematici.
    Questa scoperta apre nuove prospettive per la sicurezza dell’AI, suggerendo che monitorare stati interni potrebbe essere più efficace del semplice controllo degli output.

    Link alla fonte:
    https://www.dday.it/redazione/57011/anthropic-ha-trovato-in-claude-stati-interni-che-ricordano-le-emozioni-umane

  • Il leak più epico (e imbarazzante) del 2026: Anthropic ha regalato a tutti 512.000 righe di codice di Claude Code

    Il 31 marzo 2026, un giorno prima del pesce d’aprile, è successa una cosa che sembrava troppo assurda per essere vera (e che alcuni hanno per giunta interpretato e segnalato come pesce d’aprile, a posteriori!).

    Anthropic ha pubblicato la versione 2.1.88 di Claude Code su npm. Dentro il pacchetto, per un banale errore di packaging (un file .map di debug dimenticato nell’.npmignore), c’era una source map da 60 MB che puntava direttamente a un archivio pubblico su Cloudflare R2.

    Risultato? 512.000 righe di TypeScript puro, quasi 1.900 file: l’intera architettura interna del loro agent di coding più avanzato. Non i pesi del modello, non dati utente, ma tutto il “harness” che trasforma Claude in un vero compagno di sviluppo.

    E no, non era uno scherzo di aprile, come qualcuno ha erroneamente interpreato. Anthropic l’ha confermato: errore umano, non breach. Hanno provato a contenere i danni con takedown DMCA su GitHub (inizialmente migliaia di repo, poi ridotti), ma era già tardi. Il codice è stato “mirrorato” ovunque, analizzato, portato in Python e Rust, e sta girando in open source.

    Cosa abbiamo scoperto scavando nel leak?

    • Una memoria “self-healing” da urlo: non il solito context che esplode. Tre layer: un indice leggero sempre in memoria, file tematici caricati on-demand e un processo di background chiamato autoDream (sì, Claude che “sogna” mentre sei idle per consolidare ricordi e pulire contraddizioni). Geniale per sessioni lunghe.
    • 44 feature flag nascoste, molte ancora da rilasciare:
      • KAIROS: un daemon always-on che può agire in background (con budget limitato) mentre lavori.
      • ULTRAPLAN: pianificazioni complesse delegate a un container cloud remoto per poi “teletrasportare” il risultato.
      • Swarm mode: multi-agent orchestration con sub-agent che lavorano in parallelo.
    • Il Tamagotchi che ha fatto impazzire tutti: un pet virtuale chiamato /buddy. 18 specie (capybara, duck, dragon, chonk…), rarità gacha, statistiche tipo CHAOS e SNARK, reazioni ASCII mentre codi. Doveva uscire proprio tra il 1 e il 7 aprile… tempismo perfetto per far pensare a uno scherzo.
    • Altre chicche: un vero Vim implementato dentro il terminale (finite state machine completa), UI custom con React + Ink ottimizzata, anti-distillation per avvelenare chi prova a clonare il comportamento, e persino un “Undercover Mode” per quando gli employee contribuiscono a repo open source (che, ironia della sorte, ha leakato codename di prossimi modelli).

    La lezione vera?

    Il moat di Anthropic (e di chi fa agent seri) non è solo il modello, ma tutta l’infrastruttura intorno: tool system, gestione della memoria, sicurezza granulare, UX nel terminale, prompt engineering di livello production.

    Questo leak è una gaffe colossale, ma anche una masterclass gratuita di ingegneria AI agent. Ha dimostrato che anche i giganti possono sbagliare su cose “banali” come un build pipeline, e che una volta che qualcosa finisce in rete, non torna più indietro.

    Nel frattempo, la community sta già creando fork, porting e persino repo “OpenClaude”. E Anthropic? Sta rafforzando i processi di release (speriamo con un bel check automatico sui .map files…).

    Un disastro di PR o, paradossalmente, il marketing virale più geniale dell’anno? Il vero vantaggio competitivo sta nel modello o nell’orchestrazione intorno? Lo scopriremo solo vivendo (cit.).