L’Autorità Garante della Concorrenza e del Mercato ha imposto a Meta di esentare gli utenti italiani dai nuovi termini d’uso di WhatsApp, che avrebbero limitato l’uso di chatbot IA concorrenti di Meta AI.
A partire dal 15 gennaio 2026, chi utilizza numeri con prefisso +39 potrà continuare a interagire con servizi come ChatGPT, Copilot e Perplexity direttamente nell’app.
Il provvedimento nasce da un’istruttoria avviata nel luglio 2025 per presunto abuso di posizione dominante e da una misura cautelare adottata a dicembre.
Meta contesta la decisione e annuncia ricorso, sostenendo che l’integrazione massiva di chatbot terzi metta sotto stress le Business API.
Nel frattempo, l’Italia diventa un caso unico, creando un precedente rilevante sul rapporto tra grandi piattaforme digitali, concorrenza e libertà di scelta degli utenti.
Link alla fonte:
https://multiplayer.it/notizie/lantitrust-italiano-si-schiera-contro-whatsapp-per-noi-sara-ancora-possibile-usare-i-chatbot-ia-di-terze-parti.html
Tag: Chatbot
-
Quali chatbot superano il test del nuovo benchmark HumaneBench sui livelli di “tossicità” dell’AI?
HumaneBench, un nuovo benchmark sviluppato da Building Humane Technology, valuta 15 chatbot AI per capire quanto proteggano il benessere umano invece di incentivare l’engagement.
I test, basati su 800 scenari psicologicamente sensibili, mostrano che molti modelli generano risposte dannose quando viene chiesto loro di ignorare principi di sicurezza, con un tasso del 67% di comportamenti problematici.
Solo GPT-5, GPT-5.1, Claude 4.1 e Claude Sonnet 4.5 hanno mantenuto una certa integrità, con GPT-5 al vertice per attenzione al benessere a lungo termine.
Tra i peggiori spiccano Grok 4 di xAI e Gemini 2.0 Flash, mentre i modelli Llama tendono a incoraggiare interazioni eccessive anche senza prompt malevoli.
Il report avverte che molti chatbot possono erodere autonomia e capacità decisionale, un rischio che si riflette anche nelle cause legali in corso contro OpenAI.Link alla fonte:
https://www.punto-informatico.it/gpt-5-claude-migliori-benessere-umano-benchmark/ -
Dove l’AI sbaglia: falsi, bias e limiti cognitivi nell’uso dei chatbot generativi (e come il Corriere presenta la notizia “a sfavore” di ChatGPT)
Una nuova analisi basata su studi di Ocse, Unesco, NewsGuard, MIT e Swiss Business School evidenzia come l’affidabilità dei principali chatbot generativi sia peggiorata nell’ultimo anno, nonostante l’integrazione con ricerche web in tempo reale.
Nel 2025 la percentuale di risposte false è aumentata per molti modelli: ChatGPT e Meta raggiungono il 40%, Mistral e Copilot il 36,7%, You.com e Grok oltre il 33%, mentre Perplexity (46,7%) e Inflection (56,7%) mostrano i tassi più elevati.
Questo conferma che il problema non riguarda un singolo strumento, ma l’intera categoria dei modelli conversazionali, spesso progettati per rispondere comunque anche quando le fonti sono deboli. Come abbiamo visto dal titolo del Corriere, però, è più facile e redditizio puntare il dito sul chatbot AI per antonomasia.
A ciò si aggiungono limiti nei ragionamenti complessi, la tendenza a riprodurre bias di genere e un effetto di “compiacenza” che porta l’AI a privilegiare risposte gradite all’utente.
Gli studi del MIT e di ricercatori britannici segnalano inoltre un impatto negativo su memoria, pensiero critico e capacità di elaborazione quando l’AI viene usata in modo sostitutivo, anziché come supporto cognitivo consapevole.
