Jack Dorsey ha annunciato il taglio di oltre 4.000 dipendenti di Block Inc., riducendo l’organico da circa 10.000 a meno di 6.000 persone.
Secondo il CEO, la diffusione interna di strumenti di intelligenza artificiale permette a team più piccoli di essere molto più produttivi, rendendo possibile un nuovo modello organizzativo.
Dopo l’annuncio, il titolo dell’azienda è salito del 24% in after-hours, segnalando l’approvazione degli investitori.
Tuttavia, il cambio di narrativa è evidente: undici mesi prima la stessa azienda aveva escluso esplicitamente che i tagli fossero legati all’IA.
Il caso riaccende il dibattito su quanto l’IA stia realmente sostituendo lavoro umano e quanto venga usata come giustificazione strategica per ristrutturazioni aziendali.
Categoria: News
-
Block licenzia 4.000 dipendenti citando l’AI… e il mercato premia la ristrutturazione
-
ChatGPT potrebbe imitare lo stile di scrittura degli utenti con nuovi template personalizzati
Una fuga di notizie suggerisce che OpenAI stia lavorando a nuove funzionalità per rendere ChatGPT più capace di adattarsi allo stile di scrittura degli utenti.
Alcuni screenshot condivisi su X dall’ingegnere AI Tibor Blaho mostrerebbero un sistema di template nei “blocchi di scrittura” che permetterebbe di caricare esempi di email, articoli o documenti per insegnare al modello il proprio stile.
Tra le novità emergerebbero anche strumenti più avanzati per la composizione di email, una modalità di scrittura a schermo intero e la possibilità di salvare bozze in formato Markdown.
Un’altra funzione chiamata “Animate” consentirebbe invece di trasformare rapidamente immagini generate dall’AI in animazioni video.
Sebbene le funzionalità siano ancora in fase di sviluppo, indicano la direzione di OpenAI verso strumenti sempre più personalizzabili e multimodali.
Link alla fonte:
https://www.hdblog.it/applicazioni/articoli/n650534/chatgpt-indiscrezioni-nuove-funzioni/ -
Tratta gli LLM come strumenti più competenti di te, e scoprirai nuove strategie per ottenere risultati migliori
Oggi vi consiglio la lettura di un articolo pubblicato su XDA Developers che suggerisce come, per sfruttare davvero i modelli linguistici avanzati, sia utile trattarli come “sistemi più competenti dell’utente” in specifici compiti, fornendo di conseguenza istruzioni precise e strutturate invece di intavolare conversazioni informali.
Poiché gli LLM operano tramite token e hanno limiti di contesto, in molti casi prompt brevi e diretti possono migliorare l’accuratezza delle risposte, ma l’articolo raccomanda anche di considerare la prima risposta come una bozza e di applicare un metodo “socratico” per verificare e migliorare progressivamente l’output (e qui al caro Gianluigi Bonanomi fischieranno le orecchie).
Per ridurre le allucinazioni e aumentare la qualità dei risultati è sempre utile, inoltre, integrare fonti esterne tramite tecniche come Retrieval-Augmented Generation (RAG, fondamentale per esempio in NotebookLM) oppure server MCP che colleghi ad applicazioni e fonti esterne, fornendo soprattutto al modello documentazione aggiornata e contesto rilevante.
Infine, definire chiaramente ruolo del modello e formato dell’output (ad esempio JSON o Markdown) permette di ottenere risposte più strutturate e facilmente automatizzabili.
Link alla fonte:
https://www.xda-developers.com/start-treating-your-llms-as-smarter-than-you-because-they-are
