Blog

  • Un GPT per risolvere i problemi in modo “aristotelico”

    Ho preso ispirazione da un prompt “aristotelico” per creare un GPT che assiste nella risoluzione di problemi anche complessi. Si chiama “Aristotle First Principles Engine”.

    Il GPT non si limita a usare la logica di Aristotele, ma ne emula il metodo di scomposizione analitica con questa metodologia:

    – Fase 1 (Assumption Autopsy): corrisponde alla ricerca dei “pregiudizi” o delle opinioni comuni (endoxa) che Aristotele esaminava prima di definire una verità. Serve a liberare il campo da ciò che non è dimostrato.

    – Fase 2 (Irreducible Truths): è l’applicazione pura del concetto di “verità indimostrabile”. Il prompt cerca i mattoni fondamentali (empirici o logici) che non possono essere ulteriormente ridotti, esattamente come il principio di non-contraddizione è la base della logica.

    – Fase 3 (Reconstruction from Zero): rispecchia l’approccio deduttivo. Una volta stabiliti i principi primi, si ricostruisce l’intero sistema (la soluzione) assicurandosi che ogni passaggio sia coerente con quei principi (evitando contraddizioni).

    – Qualità (Irreducible or just beliefs?): questo controllo riflette il rigore aristotelico: una verità prima non può essere un’opinione, deve essere necessaria.

    In breve, le istruzioni del GPT trasformano la filosofia di Aristotele in un algoritmo di problem solving che ignora la tradizione per basarsi solo su ciò che è logicamente innegabile.

    Se hai un problema specifico che vorresti provare a “dare in pasto” al GPT, eccoti il link diretto:

    https://chatgpt.com/g/g-69c7a940f14081918b541a14c9c9d911-aristotle-first-principles-engine

  • Rassegna news di tendenza del 27-28 marzo 2026

    Ecco un rapido elenco delle principali notizie AI delle ultime 24 ore (27-28 marzo 2026), da fonti attendibili come Reuters, Bloomberg, WSJ, NYT, Fortune e TechCrunch. Ho selezionato solo gli sviluppi che indicano tendenze importanti: efficienza computazionale, AI agentica nel lavoro ed enterprise, geopolitica/hardware Cina-USA, regolamentazione e governance dei contenuti.

    1. Google annuncia una svolta nell’AI che riduce drasticamente l’uso della memoria per LLM

    Google ha presentato un algoritmo che taglia di almeno 6 volte la memoria necessaria per eseguire parti specifiche dei large language models (ne ho parlato qui), creando una “frattura” nel mercato dei chip di memoria (HBM vs. DRAM tradizionali). Tendenza: spostamento dallo scaling computazionale puro verso ottimizzazioni di efficienza e riduzione costi energetici e di inferenza, con un impatto su investimenti hardware AI. Link: Bloomberg – AI Breakthrough From Google Exposes Divide in Memory Stocks

    2. Apple assume ex-dirigente Google per guidare il marketing AI e spingere il rilancio di Siri

    Apple ha nominato Lilian Rincon (ex Google, responsabile shopping e assistant) come VP di product marketing per l’AI, mentre prepara una versione di Siri potenziata basata su tecnologia Gemini. Tendenza: Big Tech consumer accelerano sul fronte marketing e integrazione agentica/assistenti per recuperare terreno, con enfasi su user experience e adozione di massa. Link: Reuters – Apple hires ex-Google executive to head AI marketing amid push to improve Siri

    3. Huawei: il nuovo chip AI trova interesse da parte di ByteDance e Alibaba, che preparano per l’ordine

    I test del chip AI di Huawei (alternativo a Nvidia) sono andati bene; grandi aziende tech cinesi pianificano ordini per inference computing, spinti anche dall’adozione di agenti open-source. Tendenza: accelerazione della self-reliance cinese nell’hardware AI e shift da training a deployment/inferenza reale, con implicazioni geopolitiche sulla supply chain globale. Link: Reuters – Huawei’s new AI chip finds favour with ByteDance, Alibaba which plan to place orders

    4. Wikipedia vieta articoli generati o riscritti con AI (ma permette l’editing di base)

    La piattaforma ha aggiornato le linee guida: proibito usare LLM per generare/riscrivere contenuti, per evitare violazioni delle policy su accuratezza e originalità; consentito solo copy-editing umano supervisionato. Tendenza: crescente attenzione alla governance dei contenuti e lotta contro allucinazioni/spam AI nelle piattaforme knowledge-based; spinta verso responsabilità umana. Link: The Verge – Wikipedia bans AI-generated articles | TechCrunch

    5. NeurIPS inverte il ban su paper da entità sanzionate USA dopo boicottaggio cinese

    La nota conferenza sull’AI ha annunciato il ritiro della policy (emessa “per errore”) che escludeva ricercatori da entità colpite da sanzioni USA, dopo la protesta della federazione tech cinese. Tendenza: tensioni geopolitiche nel mondo della ricerca AI; necessità di collaborazione internazionale nonostante restrizioni export e sanzioni. Link: Reuters – Top AI conference reverses ban on papers from US-sanctioned entities after Chinese boycott

    6. Dibattito su AI agentica: leader HR e podcast sottolineano impatto economico e gestione

    I leader HR avvertono che gli agenti AI non vanno gestiti come umani; il podcast con Jack Clark (Anthropic) esplora la velocità di disruption economica attuale e futura. Tendenza: maturazione del discorso su AI agentica da tool a “collega” autonomo, con focus su skill gap, produttività e policy per mitigare l’effetto displacement. Link: WSJ – America’s HR Leaders Say We’re Thinking About AI Agents All Wrong | NYT Hard Fork – How Fast Will A.I. Agents Rip Through the Economy?

    Tendenze generali emerse nelle ultime 24 ore

    • Efficienza oltre lo scaling: algoritmi per ridurre risorse per memoria/calcolo (Google) e ottimizzazioni di inferenza dominano, mentre l’hype su nuovi modelli frontier si raffredda.
    • Geopolitica hardware e ricerca: la Cina avanza su chip “domestici” e agenti open; tensioni su conferenze e sanzioni evidenziano frammentazione globale.
    • Governance e contenuti: Wikipedia impone limiti chiari all’uso di AI generativa; dibattiti su come gestire agenti nel lavoro e società.
    • Enterprise/consumer execution: Apple rafforza marketing AI, mentre agentic AI entra nel dibattito HR e policy.

    Il settore mostra segni di consolidamento: più enfasi su sostenibilità computazionale, applicazioni reali e framework regolatori/geopolitici rispetto a annunci spettacolari. Il panorama resta dinamico, con attenzione crescente a costi, affidabilità e impatti macro. Per i dettagli, consulta i link diretti.

  • Vittoria legale per OpenAI: il tribunale di Roma annulla la multa da 15 milioni di euro

    Il Tribunale di Roma ha annullato la sanzione da 15 milioni di euro inflitta dal Garante per la protezione dei dati personali a OpenAI per presunte violazioni del GDPR legate a ChatGPT.
    La decisione arriva dopo un lungo contenzioso iniziato nel 2023 con il blocco temporaneo del servizio in Italia e proseguito con la sanzione del 2024 e la sospensione cautelare nel 2025.
    Sebbene le motivazioni della sentenza non siano ancora disponibili, il caso evidenzia le difficoltà di applicare le norme tradizionali sulla protezione dei dati ai sistemi di intelligenza artificiale generativa.
    La pronuncia potrebbe ridimensionare il ruolo delle autorità nazionali e rafforzare la necessità di un quadro normativo più specifico, come quello previsto dall’AI Act.
    Nel complesso, la vicenda segna un passaggio cruciale nel bilanciamento tra innovazione tecnologica e tutela dei diritti fondamentali.

    Link alla fonte:
    https://www.altalex.com/documents/news/2026/03/27/openai-tribunale-roma-annulla-sanzione-garante-privacy