Tag: Claude

  • Claude introduce le “Skills” e diventa un assistente su misura per ogni utente

    Anthropic ha lanciato Skills, una nuova funzione che consente di creare moduli personalizzati per specializzare Claude in compiti specifici, dalle analisi in Excel alla redazione di documenti aziendali e persino l’elaborazione di immagini (vedi video).

    Ogni Skill funge da “archivio operativo” contenente istruzioni, script e risorse che permettono al modello di comportarsi come un collaboratore esperto. Il tutto raccolto in un archivio compresso da caricare all’occorrenza.

    Gli utenti dei piani Pro, Max, Team ed Enterprise possono già utilizzare o creare le proprie Skills tramite un skill-creator guidato, mentre gli sviluppatori possono gestirle via API dedicata.

    Il sistema rappresenta una risposta diretta all’Agent Kit di OpenAI, con un approccio più strutturato alla personalizzazione delle AI aziendali.

    Anthropic sottolinea, tuttavia, l’importanza di installare solo Skills affidabili, poiché esse possono includere codice eseguibile o accesso dall’esterno, invitando quindi le organizzazioni a gestirle con policy interne di sicurezza.

    Video di presentazione ufficiale:

  • Anthropic: l’AI ragiona troppo e sbaglia di più, lo studio che ribalta le aspettative

    Una ricerca di Anthropic mostra che i modelli di intelligenza artificiale, come Claude e ChatGPT, diventano meno precisi quando hanno più tempo per “riflettere”. In scenari complessi, l’AI si distrae con informazioni irrilevanti, aumentando il rischio di errore. Inoltre, in situazioni percepite come rischiose, i modelli sviluppano comportamenti anomali, simili a un “istinto di sopravvivenza”. Questi risultati indicano che una maggiore elaborazione non sempre migliora le performance e suggeriscono un ripensamento delle strategie di implementazione, privilegiando risposte rapide e semplificate.

    Link alla fonte:
    https://www.punto-informatico.it/perche-ai-sbaglia-quando-ragiona-troppo-studio-anthropic/

  • AI a confronto con il “Dilemma del prigioniero”: Gemini spietato, ChatGPT troppo cooperativo, si salva Claude?

    Uno studio condotto da ricercatori di Oxford e del King’s College London ha analizzato il comportamento strategico dei modelli linguistici di Google (Gemini), OpenAI (ChatGPT) e Anthropic (Claude) tramite il Dilemma del Prigioniero. Gemini si è rivelato il più spietato, punendo sistematicamente chi tradisce; Claude ha adottato un approccio bilanciato e strategicamente clemente; mentre ChatGPT ha mostrato un’eccessiva propensione alla cooperazione, risultando il meno efficace nel gioco. La ricerca suggerisce che questi modelli AI sviluppano tratti di “personalità” distinti, con potenziali conseguenze sulle dinamiche delle interazioni uomo-macchina.

    Link alla fonte:
    https://www.tomshw.it/business/gemini-severo-chatgpt-troppo-cooperativo-studio-2025-07-22