Tag: USA

  • Come l’AI trasforma le immagini satellitari in armi di disinformazione nel conflitto Iran-Israele-USA

    Nel conflitto tra Iran, Israele e Stati Uniti sta emergendo una nuova forma di disinformazione: immagini satellitari reali manipolate con l’intelligenza artificiale per simulare distruzioni militari.
    Diverse inchieste di media internazionali come BBC, AFP e NewsGuard hanno identificato casi in cui foto di Google Earth sono state alterate con tecniche di image-to-image per aggiungere crateri, fumo o infrastrutture distrutte.
    Alcuni contenuti virali (come presunti attacchi alla base di Al Udeid in Qatar o all’ambasciata USA a Riad) sono risultati completamente sintetici, pur apparendo credibili grazie alla coerenza con immagini reali.
    La combinazione tra propaganda statale, account pseudo-OSINT e incentivi economici dei social media amplifica la diffusione di questi contenuti.
    Il fenomeno segna un salto qualitativo nella disinformazione di guerra, perché l’AI modifica dettagli realistici invece di creare scene completamente false, rendendo molto più difficile individuare i falsi.

    Link alla fonte:
    https://www.infodata.ilsole24ore.com/2026/03/10/perche-le-immagini-satellitari-della-guerra-in-iran-modificate-con-lai-sono-cosi-convincenti/

  • Anthropic ha reagito contro l’amministrazione Trump con due cause legali

    Anthropic ha reagito contro l’amministrazione Trump con due cause legali

    Nel ricorso, l’azienda degli Amodei ha contestato la classificazione del Pentagono come “rischio della catena di approvvigionamento” e la direttiva della Casa Bianca che impone a tutte le agenzie federali di abbandonare Claude, definendo questa etichetta come una “punizione” per le sue posizioni sulla sicurezza dell’IA.

    Anthropic ha intentato cause legali in due tribunali separati, chiedendo ai giudici di eliminare l’etichetta di “blacklist” e di bloccare il tentativo del governo di costringere le agenzie a tagliare i rapporti. L’azienda si oppone, inoltre, alla giustificazione di voler “contrastare le minacce di paesi stranieri” utilizzata per punire un’azienda statunitense per disaccordi politici.

    Anthropic sostiene, infine, che il Pentagono abbia violato i diritti alla libertà di parola per aver pubblicamente sostenuto i limiti di sicurezza dell’IA su armi e sorveglianza.

    Oltre 30 membri dello staff di OpenAI e Google hanno firmato un memorandum legale a sostegno della causa di Anthropic sul Pentagono, avvertendo che la lista nera minaccia la leadership statunitense dell’IA

    Ecco il link alla documentazione ufficiale:

    https://www.courtlistener.com/docket/72379655/1/anthropic-pbc-v-us-department-of-war

  • Anthropic: blackout di Claude tra disservizi e tensioni con il Pentagono (e intanto OpenAI perde consensi, anzi guadagna dissenso)

    Claude.ai di Anthropic ha subito oggi un blackout che ha generato migliaia di segnalazioni e disagi per gli utenti, coinvolgendo sia il chatbot sia il servizio di coding Claude Code. L’azienda ha parlato di «errori significativi» in alcuni servizi, precisando che le API risultano operative mentre sono in corso indagini sulle cause del problema.
    L’episodio arriva in un momento delicato in cui Anthropic, guidata dal ceo Dario Amodei, avrebbe perso un contratto con il Pentagono dopo aver ribadito le proprie “linee rosse” contro l’uso militare dell’AI per sorveglianza di massa e armi autonome letali.
    Nel contempo, OpenAI ha annunciato un accordo con il Dipartimento della Difesa Usa, alimentando il dibattito sull’impiego bellico dell’intelligenza artificiale.
    Il blackout, pur critico sul piano operativo, ha riacceso l’attenzione su Claude nel confronto competitivo con ChatGPT, e sui social diversi utenti hanno invitato a “mollare” il chatbot di OpenAI dopo la notizia dell’intesa con il Pentagono, segnalando come le scelte etiche delle aziende stiano diventando un fattore sempre più rilevante nella percezione e nel posizionamento dei principali modelli AI.

    Link alla fonte:
    https://www.milanofinanza.it/news/claude-di-anthropic-in-blackout-utenti-nel-caos-202603021622045679