Tag: Contenuti

  • Slop Evader filtra i contenuti AI e riporta il web all’era pre-ChatGPT

    Secondo una ricerca di Graphite, oltre la metà dei nuovi contenuti pubblicati online oggi è generata da intelligenza artificiale, superando quelli creati da esseri umani.
    In risposta a questa tendenza nasce Slop Evader, un’estensione per browser che mostra esclusivamente risultati pubblicati prima del 30 novembre 2022, data del lancio pubblico di ChatGPT (e per chi si stesse chiedendo “e per quelli cui viene volutamente cambiata la data di pubblicazione?” Farà fede quella di indicizzazione, probabilmente).
    Lo strumento, sviluppato dall’artista e ricercatrice Tega Brain, utilizza l’API di ricerca di Google per garantire contenuti sicuramente prodotti da mani umane.
    L’obiettivo è contrastare la perdita di fiducia nel web, sempre più “inquinato” da testi, immagini e video generati da modelli linguistici.
    Il progetto si inserisce in un dibattito più ampio sull’impatto economico e culturale dell’uso massivo di IA generativa per aumentare traffico e ridurre i costi editoriali.

    Link alla fonte:
    https://www.genbeta.com/navegadores/mitad-internet-se-crea-ia-esta-extension-para-navegadores-te-devuelve-internet-libre-efectos-chatgpt

  • Google Discover: oltre metà dei contenuti sono già riassunti generati con AI in alcuni Paesi

    Un’analisi di Marfeel rivela che in Paesi come Stati Uniti, Brasile e Messico oltre il 50% dei contenuti mostrati su Google Discover è costituito da riassunti generati dall’intelligenza artificiale.
    Questi testi sintetizzano notizie prodotte dai media, ma spesso rimandano a video di YouTube invece che ai siti originali degli editori, riducendo il traffico verso le testate.
    Il cambiamento trasforma Discover da canale di distribuzione a strumento di controllo dell’attenzione, con potenziali effetti negativi sui ricavi dei media.
    La tendenza solleva anche dubbi sull’affidabilità: studi della Unione Europea di Radiodiffusione indicano che i modelli linguistici commettono errori o imprecisioni nel 45% dei casi.
    Nonostante ciò, Google continua a sperimentare il modello in mercati chiave prima di un’eventuale estensione globale.

    Link alla fonte:
    https://www.eldiario.es/tecnologia/mitad-contenidos-recomendador-noticias-google-generados-ia-paises_1_12858384.html

  • “Slop” diventa la parola simbolo della “saturazione digitale” causata dall’AI

    Il termine “slop” è stato scelto come parola dell’anno 2025 da Merriam-Webster e The Economist, incarnando il crescente disagio globale verso i contenuti digitali di bassa qualità generati dall’intelligenza artificiale.
    In origine usata per indicare scarti o rifiuti, la parola è oggi associata a testi, immagini e video prodotti in massa da sistemi automatici senza valore creativo o informativo.
    La rapida diffusione dell’AI generativa, trainata anche da aziende come OpenAI, ha contribuito a inondare il web di materiali superficiali e spesso fuorvianti. Secondo editori e analisti, l’affermazione di “slop” segnala una maggiore consapevolezza critica degli utenti nei confronti di questa deriva.
    Il dibattito evidenzia, inoltre, la necessità di distinguere tra l’uso dell’AI come strumento di supporto alla creatività umana e il suo impiego per produrre contenuti inutili e non richiesti.

    Link alla fonte:
    https://www.infobae.com/tecno/2025/12/20/la-palabra-slop-se-convirtio-en-el-simbolo-del-hartazgo-digital-ante-la-avalancha-de-contenido-generado-por-inteligencia-artificial/

  • L’AI scrive bene, ma senza “esperienza” e profondità di contenuto: lo studio di Matteo Bona svela cosa manca ai testi generati dalle macchine

    Uno studio del ricercatore astigiano Matteo Bona e di tre colleghi italiani confronta sistematicamente testi umani e testi prodotti da modelli linguistici per individuare differenze strutturali profonde. L’analisi, presentata in India e in arrivo a un convegno della Sapienza, evidenzia che l’AI produce frasi corrette ma prive di elementi narrativi chiave come il “cronotopo”, ovvero l’intreccio naturale tra spazio e tempo che caratterizza la memoria e la scrittura umana. I ricercatori rilevano inoltre una generale superficialità dei contenuti generati dall’AI, spesso incapaci di restituire profondità culturale, soggettiva ed esperienziale. Lo studio utilizza confronti numerici su decine di testi umani e centinaia di testi artificiali per dimostrare quantitativamente questi scarti. I risultati suggeriscono direzioni future per modelli più sofisticati e strumenti capaci di colmare i gap narrativi dell’AI.

    Link alla fonte:
    https://www.lastampa.it/asti/2025/12/08/news/ricercatore_bona_testi_ai_dimostriamo_numeri-15426652/

  • NotebookLM diventa ancora più potente e flessibile

    Osservate, nell’immagine, il pannello a destra di NotebookLM e noterete due nuovi strumenti: Infografica e Presentazione.

    Entrambi sfruttano la potenza di generazione grafica di Nano Banana, come è già avvenuto con le Overview Video. Ma non finisce qui, perché sia in questi nuovi strumenti sia nelle panoramiche video ora potete personalizzare lo stile della grafica, ottenendo proprio il genere di immagini che serve al vostro materiale di comunicazione.

    A quanto pare, Google ha smesso di annunciare e poi rimandare, e implementa finalmente le novità rendendole disponibili a livello globale, alleluia!

  • Aranzulla: “Con l’IA il mio sito perde il 25%, ma il problema è per tutti gli autori del web”

    Salvatore Aranzulla, famoso fondatore di Aranzulla.it, denuncia a Fanpage.it un calo del 25% nel traffico del suo sito a causa dell’intelligenza artificiale e delle nuove modalità di ricerca di Google, come Gemini e AI Overview.

    L’IA, rielaborando i contenuti originali per fornire risposte dirette agli utenti, riduce drasticamente l’accesso ai siti editoriali e quindi i loro ricavi pubblicitari.

    Aranzulla sottolinea che il problema non riguarda solo lui — che dichiara di poter “vivere di rendita” — ma soprattutto collaboratori, autori e giornalisti che dipendono da un ecosistema ormai non sostenibile.

    Aranzulla auspica, inoltre, una regolamentazione urgente sul diritto d’autore e propone modelli di compensazione per l’uso dei contenuti da parte delle IA, avvertendo che senza incentivi economici il web rischia di svuotarsi di contenuti di qualità.

    L’intervista completa qui:

    Aranzulla a Fanpage.it: “Con l’IA il mio sito perde il 25%. Io vivo di rendita ma c’è un problema per tutti”

  • L’IA soffre di “brain rot”: lo studio rivela i danni dei “dati spazzatura”

    Uno studio condotto da ricercatori dell’Università del Texas ad Austin e della Purdue University, pubblicato su arXiv, evidenzia che anche le intelligenze artificiali possono soffrire di “brain rot”, una sorta di stordimento cognitivo simile a quello umano causato da un’eccessiva esposizione a contenuti digitali di bassa qualità.

    I modelli linguistici di Meta e Alibaba testati hanno mostrato un declino nelle capacità di ragionamento, memoria e comportamento etico quando addestrati con testi sensazionalistici e clickbait.

    Secondo Junyuan Hong, coautore dello studio, l’assunto che i contenuti virali siano buoni per l’addestramento è errato: i dati di scarsa qualità corrodono la logica e l’etica delle IA.

    Gli studiosi avvertono che anche le strategie di mitigazione non riescono a invertire del tutto i danni, richiamando l’attenzione su una regola valida tanto per l’uomo quanto per le macchine: “sei quello che mangi”.

    Link alla fonte:

    L’intelligenza artificiale soffre di ‘brain rot’, il rimbambimento da web: lo studio | Sky TG24

  • Reddit fa causa a Perplexity AI per scraping illegale di contenuti

    Reddit ha intentato una causa federale contro Perplexity AI e tre società di data scraping — Oxylabs UAB, AWMProxy e SerpApi — accusandole di aver estratto illegalmente contenuti dalla piattaforma per addestrare modelli di intelligenza artificiale.

    Secondo la denuncia, le aziende avrebbero aggirato le protezioni anti-scraping di Reddit e prelevato materiale anche tramite i risultati di ricerca di Google.

    Reddit sostiene di aver condotto un test “trappola” che ha dimostrato il comportamento illecito di Perplexity, rilevando l’apparizione di un contenuto creato ad hoc nei risultati del motore di risposta AI.

    La piattaforma chiede al tribunale di vietare immediatamente lo scraping e di ottenere il risarcimento dei profitti generati. Il caso si inserisce in un crescente contenzioso tra aziende tecnologiche sui limiti legali dell’uso di dati web per l’addestramento dei modelli linguistici.

    Link alla fonte:

    Perplexity beccata con le mani nel sacco con una trappola: e Reddit la porta in tribunale | Hardware Upgrade

  • Wikipedia rischia l’invisibilità… e l’AI generativa contribuisce parecchio

    La Wikimedia Foundation ha segnalato un calo significativo del traffico umano su Wikipedia, dovuto al crescente utilizzo di chatbot e motori di ricerca basati sull’IA che forniscono risposte dirette senza rimandare al sito.

    Secondo Marshall Miller, Senior Director of Product, questa tendenza minaccia la sostenibilità del progetto, riducendo volontari e donazioni.

    Nonostante i modelli linguistici di aziende come OpenAI e Meta si basino fortemente sui contenuti di Wikipedia, la visibilità dell’enciclopedia libera diminuisce.

    Nel 2025 si è registrato un calo dell’8% delle visualizzazioni rispetto al 2024, aggravato dalla scoperta di traffico automatizzato.

    Per reagire, Wikimedia punta su nuove policy di uso responsabile dei contenuti, strumenti di tracciamento e collaborazioni con piattaforme social e tecnologiche.

    Miller invita infine gli utenti a “cliccare i link” e sostenere la “conoscenza umana verificata”.

    Link alla fonte:

    Wikipedia rischia di diventare invisibile. Le risposte le dà l’IA e gli utenti visitano meno l’enciclopedia online | DDay.it

  • “Internet è morto”: l’allarme del co-fondatore di Reddit sul futuro dell’autenticità online

    Alexis Ohanian, co-fondatore di Reddit, ha dichiarato che “internet è pressoché morto”, sostenendo che la rete è ormai invasa da contenuti generati da intelligenze artificiali.

    Nel suo intervento al podcast TBPN, Ohanian ha denunciato la perdita di autenticità sul web, dominato da post e immagini prodotti da chatbot e generatori automatici.

    Questa tendenza, alimentata anche dalla crescente dipendenza degli utenti da strumenti come ChatGPT al posto dei motori di ricerca, rischia di creare un circolo vizioso: meno contenuti umani, meno materia prima per addestrare le AI.

    Ohanian prevede però una rinascita “verificabilmente umana”, con nuovi social network basati su interazioni reali e spontanee.

    Anche Sam Altman di OpenAI ha espresso preoccupazioni simili, ipotizzando che i bot potrebbero conquistare il web entro pochi anni.

    Link alla fonte:

    “Internet è morto”, il pronostico apocalittico del co-fondatore di Reddit