Tag: Uncensored

  • Qwen3.5-9B “Uncensored” elimina i filtri e riaccende il dibattito sulla sicurezza dell’AI

    È stata pubblicata su Hugging Face una versione modificata del modello Qwen3.5-9B, classificata come “Uncensored”, ovvero che rimuove completamente i meccanismi di rifiuto delle risposte.

    L’autore, HauhauCS, sostiene che il modello non abbia subito modifiche ai dati o alle capacità, ma solo la rimozione dei filtri, ottenendo 0 rifiuti su 465 test.

    Il modello mantiene caratteristiche avanzate come multimodalità, supporto a oltre 200 lingue e contesto fino a 1 milione di token.

    Come sappiamo, questo tipo di “modifiche” solleva forti preoccupazioni legate all’uso improprio e alla sicurezza, soprattutto in ambito open source dove tali strumenti sono facilmente accessibili, e il caso evidenzia il crescente conflitto tra apertura tecnologica e necessità di governance etica dell’intelligenza artificiale.

    Nota: i modelli “uncensored” sono versioni di LLM (come Llama o Mistral) private dello strato di sicurezza RLHF/DPO, quindi progettate per non rifiutare alcuna richiesta e garantire libertà operativa totale. Sebbene utili per narrativa matura, ricerca accademica o analisi di contenuti sensibili, l’assenza di filtri trasferisce l’intera responsabilità etica e legale sui contenuti generati all’utente, rendendoli inadatti a contesti aziendali, educativi o per minori. Per la maggior parte degli utilizzi, i modelli standard con filtri attivi rimangono la scelta più sicura e coerente.

  • Locally Uncensored: l’ecosistema All-in-One per chat, immagini e video AI 100% offline

    L’ecosistema dell’Intelligenza Artificiale open-source sta subendo una rapida frammentazione: per chattare con un modello testuale si usa un programma, per generare immagini un altro, e per i video un altro ancora. Locally Uncensored nasce per risolvere esattamente questo problema, offrendo un’applicazione desktop open-source che unifica la generazione di testo, immagini e video in un’unica interfaccia, eseguita interamente sul tuo hardware.

    Cos’è e come funziona? Locally Uncensored non reinventa la ruota, ma crea un ponte ottimizzato tra i migliori motori open-source attualmente disponibili. L’applicazione integra Ollama per la gestione dei modelli linguistici (LLM) e ComfyUI per la generazione visiva e video (Stable Diffusion e derivati), nascondendo la complessità di questi strumenti dietro un’interfaccia utente (UI) pulita e accessibile.

    I vantaggi chiave:

    • Un’unica app multimodale: passa da una conversazione testuale avanzata alla generazione di immagini o video senza mai cambiare finestra o avviare server locali separati.
    • Flessibilità e personalizzazione: il modulo chat supporta nativamente qualsiasi modello scaricabile tramite Ollama e include oltre 25 “personas” (ruoli preimpostati) per adattare le risposte dell’IA a contesti specifici.
    • Nessuna censura, nessun filtro: l’applicazione permette di eseguire versioni “uncensored” dei modelli (senza filtri di allineamento etico imposti dai provider cloud), offrendo risposte neutre e non filtrate per compiti di scrittura creativa o analisi senza restrizioni.
    • Privacy assoluta (Zero-Cloud): funzionando al 100% offline, nessun prompt, immagine o dato personale lascia mai il tuo computer. È la soluzione ideale per professionisti che trattano dati sensibili o protetti da NDA.

    L’entusiasmo della community attorno a questo progetto dimostra una chiara esigenza: gli utenti vogliono interfacce unificate che mantengano la potenza e la privacy del mondo open-source, senza la macchinosità delle configurazioni a riga di comando.

    Per approfondire il funzionamento dei motori alla base dell’app, puoi consultare la documentazione ufficiale di Ollama e il repository di ComfyUI. Il codice sorgente di Locally Uncensored è disponibile pubblicamente su GitHub.