La startup francese Mistral AI ha raccolto 830 milioni di euro per sviluppare infrastrutture AI in Europa, anche in collaborazione con NVIDIA.
Nonostante la crescita, il divario con OpenAI e Anthropic resta enorme, soprattutto per la capacità di raccolta capitali negli Stati Uniti.
Il caso evidenzia un limite strutturale europeo: capitali e investimenti finiscono spesso oltreoceano, rallentando lo sviluppo locale.
La Francia, però, emerge come eccezione grazie a politiche industriali attive e a un ecosistema startup consolidato.
L’Italia prova a recuperare terreno con iniziative come MIND e TEF, ma soffre ancora di minore supporto politico e strategico.
Blog
-
Mistral sfida i colossi AI: Europa in ritardo ma la Francia accelera
-
Claude: meglio tenere le Skill esterne in un file .md?
Le Skill di Anthropic per Claude sono funzionalità personalizzate simili ai GPT di OpenAI o alle Gem di Google, ma con un comportamento diverso.
Claude analizza automaticamente tutte le Skill salvate internamente ogni volta che riceve un prompt, attivandole se le ritiene rilevanti.
Questo può causare una perdita di controllo, soprattutto quando si accumulano molte Skill.
Utilizzare file esterni in formato Markdown (.md) permette invece di attivarle solo quando necessario, allegandole manualmente.
In questo modo si ottiene maggiore precisione, controllo e modularità nell’uso dell’AI.Link alla fonte:
https://www.xataka.com/basics/skills-externas-archivos-md-claude-que-util-tenerlas-como-crearlas-como-usarlas/amp -
Qwen3.5-9B “Uncensored” elimina i filtri e riaccende il dibattito sulla sicurezza dell’AI
È stata pubblicata su Hugging Face una versione modificata del modello Qwen3.5-9B, classificata come “Uncensored”, ovvero che rimuove completamente i meccanismi di rifiuto delle risposte.
L’autore, HauhauCS, sostiene che il modello non abbia subito modifiche ai dati o alle capacità, ma solo la rimozione dei filtri, ottenendo 0 rifiuti su 465 test.
Il modello mantiene caratteristiche avanzate come multimodalità, supporto a oltre 200 lingue e contesto fino a 1 milione di token.
Come sappiamo, questo tipo di “modifiche” solleva forti preoccupazioni legate all’uso improprio e alla sicurezza, soprattutto in ambito open source dove tali strumenti sono facilmente accessibili, e il caso evidenzia il crescente conflitto tra apertura tecnologica e necessità di governance etica dell’intelligenza artificiale.
Nota: i modelli “uncensored” sono versioni di LLM (come Llama o Mistral) private dello strato di sicurezza RLHF/DPO, quindi progettate per non rifiutare alcuna richiesta e garantire libertà operativa totale. Sebbene utili per narrativa matura, ricerca accademica o analisi di contenuti sensibili, l’assenza di filtri trasferisce l’intera responsabilità etica e legale sui contenuti generati all’utente, rendendoli inadatti a contesti aziendali, educativi o per minori. Per la maggior parte degli utilizzi, i modelli standard con filtri attivi rimangono la scelta più sicura e coerente.
