Tag: Etica

  • L’UE prepara un codice per etichettare i contenuti generati dall’AI

    La Commissione Europea ha avviato i lavori per creare un codice di condotta volto a rendere riconoscibili testi, immagini e video generati dall’intelligenza artificiale.
    L’iniziativa nasce in risposta alla diffusione crescente di deepfake e contenuti sintetici, che stanno influenzando anche le campagne elettorali europee. Il codice supporterà le aziende tecnologiche nel rispetto dei requisiti di trasparenza previsti dall’AI Act, introducendo standard comuni di marcatura dei contenuti.
    Attualmente, progetti come la Coalition for Content Provenance and Authenticity (C2PA) – che riunisce OpenAI, Microsoft, Google e Meta – sperimentano soluzioni basate su metadati e filigrane digitali.
    Tuttavia, persistono limiti tecnici e vulnerabilità che rendono urgente un approccio condiviso e più robusto contro la manipolazione dei contenuti online.

    Link alla fonte:
    https://www.wired.it/article/commissione-europea-codice-condotta-etichettatura-contenuti-ai-deepfake/

  • Mustafa Suleyman: “Solo gli esseri biologici possono essere consapevoli” — Microsoft esclude la coscienza artificiale

    Il responsabile globale dell’intelligenza artificiale di Microsoft, Mustafa Suleyman, ha affermato che solo gli esseri biologici possono possedere coscienza, negando la possibilità che i sistemi artificiali possano mai svilupparla.

    In un’intervista alla CNBC durante l’AfroTech Conference di Houston, Suleyman ha definito l’idea di coscienza artificiale una “domanda sbagliata”, richiamandosi al biological naturalism di John Searle.

    Secondo lui, i modelli di AI non provano emozioni né dolore: simulano soltanto tali esperienze.

    Questa posizione consolida la linea etica di Microsoft, che continuerà a sviluppare sistemi “consapevoli della propria natura artificiale”, come le nuove versioni di Copilot e l’assistente Mico.

    L’approccio di Suleyman invita a un realismo prudente, opponendosi all’accelerazionismo e alle illusioni di un’IA senziente.

    Link alla fonte:
    https://www.hwupgrade.it/news/web/solo-gli-esseri-biologici-possono-essere-consapevoli-il-capo-dell-ai-microsoft-stronca-i-sogni-di-coscienza-artificiale_145674.html

  • Anthropic e Washington uniscono le forze per impedire che Claude costruisca una bomba atomica

    Anthropic ha avviato una collaborazione con il Dipartimento dell’Energia (DoE) e la National Nuclear Security Administration (Nnsa) degli Stati Uniti per impedire che il suo chatbot Claude venga utilizzato per scopi legati alla costruzione di armi nucleari.

    La partnership ha portato allo sviluppo di un “classificatore nucleare”, un filtro capace di individuare conversazioni potenzialmente pericolose, basato su indicatori di rischio definiti dalla Nnsa e testato in ambienti cloud ad alta sicurezza forniti da Amazon Web Services.

    Tuttavia, diversi esperti sollevano dubbi sull’efficacia del piano: se i modelli di Anthropic non hanno mai avuto accesso a dati sensibili, la loro capacità di fornire assistenza tecnica in ambito nucleare è praticamente nulla, rendendo la misura più simbolica che concreta.

    Alcuni critici temono inoltre che collaborazioni di questo tipo possano dare alle aziende private accesso a informazioni governative riservate, con implicazioni delicate per la sicurezza nazionale.

    Anthropic difende la propria iniziativa come un passo proattivo verso la prevenzione di rischi futuri e auspica che il classificatore diventi uno standard di settore.

    Link alla fonte:

    Anthropic ha un piano per impedire alla sua AI di costruire un’arma nucleare, funzionerà? | Wired Italia