Tag: Multimodalità

  • Dopo ChatGPT e Claude, anche Gemini introduce simulazioni interattive direttamente in chat

    Google Gemini compie un significativo salto evolutivo introducendo modelli interattivi e simulazioni dinamiche direttamente all’interno della chat.
    Gli utenti non sono più limitati a contenuti statici, ma possono esplorare concetti complessi attraverso visualizzazioni manipolabili in tempo reale.
    Questa innovazione consente, ad esempio, di modificare parametri fisici come velocità o gravità per osservare l’impatto su sistemi come le orbite celesti.
    La funzionalità apre nuove possibilità per l’apprendimento e l’analisi, rendendo l’AI uno strumento più immersivo e sperimentale.
    Il rollout è in corso a livello globale e accessibile tramite il modello Pro sulla piattaforma ufficiale.

    Link alla fonte: 
    https://andreagaleazzi.com/news/gemini-introduce-simulazioni-interattive-modelli-esplorabili-direttamente-in-chat/

    Una piccola precisazione: funzionalità di questo tipo erano già state introdotte dai principali concorrenti nel mese di marzo 2026.
    OpenAI ha rilasciato per ChatGPT spiegazioni visive interattive focalizzate su materie STEM, con grafici animati e slider per modificare variabili in tempo reale (disponibili anche agli utenti gratuiti).
    Pochi giorni dopo, Anthropic ha integrato in Claude visualizzazioni “living” inline (chiamate spesso interactive visuals o whiteboard visualizations), capaci di generare diagrammi, dashboard e vere e proprie mini-app modificabili durante la conversazione.
    L’aggiornamento di Gemini si inserisce quindi in una rapida evoluzione del settore, con un’enfasi particolare su simulazioni fisiche e modelli 3D esplorabili direttamente nella chat.

  • Meta rilancia l’AI con Muse Spark e punta su salute e social

    Meta, rappresentata dal suo fondatore Mark Zuckerberg, ha presentato Muse Spark, un nuovo modello multimodale pensato per rilanciare la propria strategia AI dopo le difficoltà di Llama 4.
    Il sistema è già disponibile negli Stati Uniti e sarà progressivamente integrato in piattaforme chiave come WhatsApp, Instagram e Facebook, oltre che negli occhiali smart Ray-Ban Meta.
    Muse Spark introduce funzionalità avanzate come modalità di ragionamento “Thinking” e sub-agenti paralleli per migliorare velocità ed efficienza.
    Il focus strategico si sposta anche sulla salute digitale, con capacità di analisi di immagini e dati medici, sebbene restino dubbi sull’affidabilità.
    L’obiettivo futuro è personalizzare le risposte AI sfruttando i contenuti social e sviluppare modelli open-source della famiglia Muse.

    Link alla fonte:
    https://www.adnkronos.com/tecnologia/ia-meta-lancia-muse-spark-per-dimenticare-il-flop-di-llama-4_6svkip8QQLEHYVpZuAUxK2

  • Locally Uncensored: l’ecosistema All-in-One per chat, immagini e video AI 100% offline

    L’ecosistema dell’Intelligenza Artificiale open-source sta subendo una rapida frammentazione: per chattare con un modello testuale si usa un programma, per generare immagini un altro, e per i video un altro ancora. Locally Uncensored nasce per risolvere esattamente questo problema, offrendo un’applicazione desktop open-source che unifica la generazione di testo, immagini e video in un’unica interfaccia, eseguita interamente sul tuo hardware.

    Cos’è e come funziona? Locally Uncensored non reinventa la ruota, ma crea un ponte ottimizzato tra i migliori motori open-source attualmente disponibili. L’applicazione integra Ollama per la gestione dei modelli linguistici (LLM) e ComfyUI per la generazione visiva e video (Stable Diffusion e derivati), nascondendo la complessità di questi strumenti dietro un’interfaccia utente (UI) pulita e accessibile.

    I vantaggi chiave:

    • Un’unica app multimodale: passa da una conversazione testuale avanzata alla generazione di immagini o video senza mai cambiare finestra o avviare server locali separati.
    • Flessibilità e personalizzazione: il modulo chat supporta nativamente qualsiasi modello scaricabile tramite Ollama e include oltre 25 “personas” (ruoli preimpostati) per adattare le risposte dell’IA a contesti specifici.
    • Nessuna censura, nessun filtro: l’applicazione permette di eseguire versioni “uncensored” dei modelli (senza filtri di allineamento etico imposti dai provider cloud), offrendo risposte neutre e non filtrate per compiti di scrittura creativa o analisi senza restrizioni.
    • Privacy assoluta (Zero-Cloud): funzionando al 100% offline, nessun prompt, immagine o dato personale lascia mai il tuo computer. È la soluzione ideale per professionisti che trattano dati sensibili o protetti da NDA.

    L’entusiasmo della community attorno a questo progetto dimostra una chiara esigenza: gli utenti vogliono interfacce unificate che mantengano la potenza e la privacy del mondo open-source, senza la macchinosità delle configurazioni a riga di comando.

    Per approfondire il funzionamento dei motori alla base dell’app, puoi consultare la documentazione ufficiale di Ollama e il repository di ComfyUI. Il codice sorgente di Locally Uncensored è disponibile pubblicamente su GitHub.