fbpx

Prevenire la diffusione della disinformazione generata dall’intelligenza artificiale

Scienze e tecnologia - Agosto 27, 2023

Sono passati più di 60 anni da quando la nozione di intelligenza artificiale è stata proposta e studiata per la prima volta a quando l’umanità ha raggiunto le sue capacità attuali. Nell’ultimo decennio il campo dell’Intelligenza Artificiale (IA) è progredito in modo considerevole, ma mai come negli ultimi due anni, quando una serie di fattori si sono uniti in modo quasi ideale e hanno fornito all’umanità programmi spettacolari come ChatGPT.

La Commissione europea richiede alle piattaforme online di identificare chiaramente i contenuti – immagini (foto e video), suoni, testi – generati dall’intelligenza artificiale (AI). Vera Jourova, vicepresidente della Commissione europea per i valori e la trasparenza, ha rivolto l’appello ai firmatari del codice di buone pratiche dell’UE contro la disinformazione, che ha incontrato di recente a Bruxelles. Si tratta di una nuova misura della strategia della Commissione per prevenire la diffusione della disinformazione, in particolare quella online, per garantire la protezione dei valori europei e dei sistemi democratici.

L’esecutivo dell’UE vuole attuare questa misura immediatamente, anche se le piattaforme più grandi, con oltre 45 milioni di utenti attivi nell’UE, saranno soggette agli obblighi del nuovo Digital Services Act (DSA) solo a partire dal25 agosto. Il regolamento richiede “l’uso di una marcatura visibile” per garantire che “il contenuto audio o video generato o manipolato sia riconoscibile”.

Il Codice di condotta non è giuridicamente vincolante.

Il Codice di condotta contro la disinformazione, firmato nel 2022, che non è giuridicamente vincolante, riunisce circa 40 organizzazioni, tra cui Facebook, Google, YouTube e TikTok. È interessante notare che Twitter ha recentemente lasciato il gruppo.

”I firmatari che integrano l’intelligenza artificiale generativa nei loro servizi, come Bing Chat per Microsoft e Bard per Google, dovrebbero integrare le necessarie salvaguardie in modo che questi servizi non possano essere utilizzati da attori malintenzionati che generano disinformazione”, ha dichiarato Vera Jourova.

D’altra parte, i firmatari che dispongono di servizi in grado di diffondere disinformazione generata dall’intelligenza artificiale dovrebbero mettere in atto una tecnologia per riconoscere questi contenuti e indicarli chiaramente agli utenti, ha aggiunto il funzionario dell’UE.

Il regolamento AI vieta la manipolazione “deliberata”.

L’Unione Europea sta attualmente negoziando una legislazione specifica sull’intelligenza artificiale che preveda obblighi di trasparenza per i generatori di contenuti editoriali ChatGPT. Dopo mesi di intense discussioni, alla fine di aprile gli eurodeputati hanno raggiunto un accordo politico provvisorio sul primo regolamento sull’intelligenza artificiale al mondo. L’Artificial Intelligence (AI) Act è una proposta legislativa per regolamentare l’intelligenza artificiale in base al suo potenziale di causare danni e influenzare le intenzioni di voto degli utenti dei social media. Il testo, che probabilmente subirà delle modifiche, dovrebbe essere sottoposto al voto del Parlamento europeo. I suoi principi includono l’agenzia e la supervisione umana, la solidità tecnica e la sicurezza, la privacy e la governance dei dati, la trasparenza, il benessere sociale e ambientale, la diversità, la non discriminazione e l’equità.

Uno degli argomenti più controversi dei negoziati ha riguardato i sistemi di intelligenza artificiale che non hanno uno scopo specifico. Il risultato – provvisorio – è stato quello di imporre obblighi più severi a una sottocategoria di IA generica, che comprende modelli come GhatGPT. Ha inoltre stabilito che i modelli di IA generativa devono essere progettati e sviluppati nel rispetto delle leggi e dei diritti fondamentali dell’UE, compresa la libertà di espressione.

Un altro argomento politicamente sensibile è stato il tipo di applicazioni di IA che dovrebbero essere vietate perché considerate un rischio inaccettabile. Ciò ha portato alla proposta di vietare gli strumenti di IA per il monitoraggio generale della comunicazione interpersonale, ma la proposta è stata abbandonata. D’altra parte, è stata introdotta un’estensione del divieto sui software di identificazione biometrica. Inizialmente il divieto si applicava solo in tempo reale, il software di riconoscimento poteva essere utilizzato solo ex-post per reati gravi e con l’approvazione preventiva del giudice.

Il regolamento AI vieta anche la manipolazione “intenzionale”. La parola “intenzionale” è stata oggetto di dibattito, in quanto gli oppositori di questa formulazione hanno sostenuto che l’intenzionalità potrebbe essere difficile da dimostrare, ma alla fine è stata confermata. Allo stesso tempo, è stata raggiunta la formula che vieta l’uso di software di intelligenza artificiale per il riconoscimento delle emozioni nei settori dell’applicazione della legge, della gestione delle frontiere, dell’occupazione e dell’istruzione.

Il divieto di polizia predittiva imposto dai deputati è stato esteso dai reati penali a quelli amministrativi, sulla base dello scandalo olandese degli assegni familiari che ha portato migliaia di famiglie a essere erroneamente perseguite per frode a causa di un algoritmo difettoso utilizzato dall’intelligenza artificiale.

Infine, i modelli di IA ad alto rischio sono stati classificati in un allegato. In altre parole, un modello ad alto rischio sarà considerato un modello che presenta un rischio significativo per la salute, la sicurezza o i diritti fondamentali. Allo stesso modo, anche l’IA utilizzata per gestire infrastrutture critiche, come le reti energetiche o i sistemi di gestione delle acque, sarà classificata come ad alto rischio se comporta un grave rischio ambientale.

Gli eurodeputati hanno anche incluso misure aggiuntive per il processo con cui i fornitori di modelli di IA ad alto rischio possono elaborare dati sensibili, come l’orientamento sessuale o le credenze religiose, per rilevare predisposizioni negative. In particolare, per consentire il trattamento di questo particolare tipo di dati, i pregiudizi non devono essere rilevabili attraverso un trattamento sintetico, anonimo, pseudonimizzato o criptato dei dati. Inoltre, la valutazione deve avvenire in un ambiente controllato. I dati sensibili non possono essere trasmessi ad altre parti e devono essere cancellati dopo la valutazione dei pregiudizi. I fornitori devono inoltre documentare i motivi per cui è stato effettuato il trattamento dei dati. L’intelligenza artificiale (AI) è considerata una “tecnologia che definisce il futuro”.

Che cos’è esattamente l’IA e come sta già influenzando le nostre vite? Definizione di intelligenza artificiale

L’intelligenza artificiale è considerata centrale per la trasformazione digitale della società ed è diventata una priorità per l’Unione Europea, come risulta dai suoi documenti ufficiali. Si prevede che le applicazioni future porteranno enormi cambiamenti nella società, ma l’IA è già presente nella nostra vita quotidiana. L’IA è la capacità di una macchina di imitare le funzioni umane come il ragionamento, l’apprendimento, la pianificazione e la creatività. L’intelligenza artificiale consente ai sistemi tecnici di percepire l’ambiente in cui operano, di elaborare questa percezione e di risolvere i problemi, agendo per raggiungere un determinato obiettivo. Il computer riceve i dati (già preparati o raccolti attraverso i propri sensori, come una telecamera), li elabora e reagisce.

I sistemi di intelligenza artificiale sono in grado di adattare il loro comportamento in una certa misura, analizzando gli effetti delle azioni precedenti e operando in modo autonomo. Alcune tecnologie di IA esistono da più di 50 anni, ma l’aumento della potenza di calcolo, la disponibilità di enormi quantità di dati e nuovi algoritmi hanno portato a grandi progressi nell’IA negli ultimi anni.

Come viene utilizzata la tecnologia deep fake o di propaganda?

I media di oggi sono colpiti dai grandi problemi creati dall’Intelligenza Artificiale che sta “creando scompiglio nel mondo dei media”. Uno studio di Reporter senza frontiere (RSF) ha analizzato lo stato del giornalismo in 180 Paesi, tenendo conto dei cambiamenti politici, sociali e tecnologici.

I risultati sono preoccupanti. Il notevole sviluppo dell’intelligenza artificiale sta creando ancora più problemi ai media. Il rapporto afferma che l’industria della disinformazione sta diffondendo contenuti manipolativi su larga scala, come ha dimostrato un’indagine del consorzio Forbidden Stories, e che l’intelligenza artificiale non tiene conto dei requisiti del giornalismo di qualità.

Un programma di intelligenza artificiale (la quinta versione di Midjourney) che genera immagini ad altissima definizione in risposta a richieste verbali ha alimentato i social media con “foto” false sempre più plausibili e non rilevabili. Molti di questi post diventano virali. Il giornalismo di interesse pubblico ha dovuto affrontare una forte concorrenza da parte di narrazioni fuorvianti e fake news promosse da alcuni media e politici e da software di intelligenza artificiale, soprattutto nel contesto della pandemia di Covid-19 e, più recentemente, della guerra in Ucraina. Purtroppo, ci sono abbastanza persone che tendono a fidarsi di informazioni false, che a volte convergono con la propaganda russa e alimentano la sfiducia nei media.