Non lo so, ma possiamo provare a indovinare. Ho appena sviluppato un suo “gemello digitale cognitivo” (basato sul mio prossimo libro), se vuoi testarlo ecco il link:
https://chatgpt.com/g/g-69bc1c1a470c8191b10f0e52b80371e3-steve-jobs-cdt


Non lo so, ma possiamo provare a indovinare. Ho appena sviluppato un suo “gemello digitale cognitivo” (basato sul mio prossimo libro), se vuoi testarlo ecco il link:
https://chatgpt.com/g/g-69bc1c1a470c8191b10f0e52b80371e3-steve-jobs-cdt


nthropic annuncia ufficialmente il raddoppio delle risorse di utilizzo di Claude per un periodo limitato, ovvero al di fuori delle “ore d’ufficio” dal lunedì al venerdì e durante tutte le 24 ore nei weekend, ma solo fino al 28 marzo.
Questa “concessione” vale anche per gli utenti della versione gratuita, e si estende quindi alle opzioni disponibili in questa versione.
Se non avete ancora usato intensivamente strumenti che di solito fanno un uso massiccio di risorse (Cowork, modello Opus, progetti ricchi di contenuti, ecc.) è sicuramente il momento di farlo, per valutare ancora meglio le capacità di questa splendida piattaforma.
Qui il comunicato ufficiale con i dettagli:
https://support.claude.com/en/articles/14063676-claude-march-2026-usage-promotion
Qualche giorno fa The Pirate Pinperepette (AKA Andrea Amani) pubblicò una splendida disamina su come il “testo nascosto” all’interno dei siti sia in grado di influenzare i “giudizi” dell’AI, ovvero uno dei tanti usi di “prompt injection” dall’esterno (diverso dal “jailbreaking” volontario condotto in alcuni casi dall’utente per estorcere all’AI risposte che normalmente non fornirebbe, per esempio su argomento “delicati”). Taggo Andrea perché spero legga questa notizia (se non l’ha già fatto, visto che è sempre “sul pezzo”) e magari scriva un altro dei suoi meravigliosi articoli sull’argomento in questione.
Ed è proprio a proposito di prompt injection che vi riporto la notizia odierna, che dovrebbe farvi riflettere sul genere di informazioni fornite al vostro chatbot “di fiducia” (non pun intended) e di come possa essere utile, invece, sostituire eventuali dati sensibili con dati fittizi o, per chi ha la possibilità, usare l’AI in locale quando ciò è inevitabile.
Il team di Oasis Security ha scoperto una catena di exploit chiamata “Claudy Day” che combina tre vulnerabilità in Claude.ai per sottrarre silenziosamente la cronologia delle conversazioni degli utenti. L’attacco sfrutta una prompt injection invisibile via URL, un abuso della libreria Files API di Anthropic e un open redirect su claude.com, creando una pipeline completa senza necessità di integrazioni esterne.
La distribuzione avviene tramite Google Ads, rendendo l’attacco altamente scalabile e indistinguibile da annunci legittimi.
Le implicazioni sono critiche, soprattutto in ambito enterprise, dove l’accesso a dati e strumenti può amplificare l’impatto. Anthropic ha già corretto una vulnerabilità, mentre le altre sono in fase di risoluzione, evidenziando la necessità urgente di nuove strategie di sicurezza per agenti AI.
Qui trovate l’approfondimento: