fbpx

Legge sull’intelligenza artificiale approvata dal Parlamento europeo

Scienze e tecnologia - Marzo 28, 2024

La legge europea sull’intelligenza artificiale, nota come AI Act, una novità mondiale, è stata recentemente adottata dal Parlamento europeo a larga maggioranza. La legge è il risultato di oltre tre anni di preoccupazioni a Bruxelles per affrontare le nuove sfide del settore, che sono emerse nell’ultimo decennio a un ritmo rapido. Lo sviluppo senza precedenti dei sistemi di intelligenza artificiale, che ha comportato anche una serie di rischi, ha dato origine a fenomeni indesiderati come i deep fake. Il testo di legge è stato concepito sia per tutelare i diritti fondamentali dei cittadini, la democrazia e lo stato di diritto, sia per stimolare l’innovazione e la ricerca, con l’obiettivo dichiarato di affermare l’Europa come leader nel settore. La nuova legislazione introduce due livelli di governance per il controllo dell’applicazione della legge, uno nazionale e uno europeo, con la creazione di nuove autorità da parte degli Stati membri e dell’UE. In linea di principio, gli Stati membri avranno due anni di tempo per implementare le sue disposizioni dopo l’entrata in vigore, ma alcuni dei divieti della legge entreranno in vigore dopo mezzo anno dall’adozione.

In Romania, la legge contro il deep fake è in discussione in Parlamento

Sebbene gli Stati membri abbiano finora intrapreso solo timidi passi in questo settore, ci sono stati tentativi di regolamentazione nazionale in questo campo, tra cui in Romania, dove un progetto di legge per combattere la falsificazione profonda è arrivato in Parlamento. Estremamente controversa, secondo alcuni ispirata al modello cinese – perché punisce il falso profondo con il carcere – la proposta di legge si è impantanata nel dibattito parlamentare. Ma ora che la legge sull’IA è stata adottata, il testo potrebbe essere migliorato o, come sostengono alcuni, potrebbe essere redatto un nuovo testo per soddisfare i requisiti della legislazione europea.

“L’UE ha mantenuto la sua promessa. Abbiamo collegato il concetto di intelligenza artificiale ai valori fondamentali che sono alla base delle nostre società. Tuttavia, c’è ancora molto lavoro da fare, che va oltre la legge sull’intelligenza artificiale. L’intelligenza artificiale ci spingerà a ripensare il contratto sociale alla base delle nostre democrazie, i nostri modelli educativi, i nostri mercati del lavoro e il modo in cui facciamo la guerra. L’AI Act è un punto di partenza per un nuovo modello di governance basato sulla tecnologia. Ora dobbiamo concentrarci sulla messa in pratica di questa legge”, ha dichiarato Dragoș Tudorache, co-relatore della commissione Libertà civili del Parlamento europeo.

Anche un altro correlatore, Brando Benifei, ha sottolineato l’importanza dell’istituzione del nuovo Ufficio europeo per l’AI, che “aiuterà le aziende a iniziare a conformarsi alle norme prima della loro entrata in vigore”.

Il regolamento si trova attualmente nella cosiddetta procedura di rettifica e dovrebbe essere adottato nei prossimi mesi, entro la fine della legislatura. Dopodiché, dovrà ricevere anche l’approvazione formale del Consiglio europeo. L’entrata in vigore è prevista 20 giorni dopo la pubblicazione nella Gazzetta Ufficiale e sarà pienamente applicabile entro 24 mesi da tale data, ad eccezione dei divieti sulle pratiche vietate che dovranno essere rispettati già dopo sei mesi. Inoltre, i codici di condotta dovranno essere pronti dopo 9 mesi, le norme di carattere generale, compresa la governance, dovranno essere applicate dopo 12 mesi e gli obblighi per i regimi ad alto rischio dopo 36 mesi.

Secondo il comunicato stampa ufficiale del Parlamento europeo pubblicato dopo l’adozione, il regolamento impone obblighi sull’intelligenza artificiale, a seconda dei rischi potenziali e dell’impatto previsto. In particolare, vieta alcune applicazioni e impone obblighi ad altre. Inoltre, impone pesanti multe in caso di non conformità. Le nuove norme vietano alcune applicazioni di intelligenza artificiale che minacciano i diritti dei cittadini, tra cui i sistemi di categorizzazione biometrica. Saranno vietati anche il riconoscimento delle emozioni nei luoghi di lavoro e nelle scuole, il social scoring, la polizia predittiva (quando si basa esclusivamente sul profilo di una persona o sulla valutazione delle sue caratteristiche) e l’IA che manipola il comportamento umano o sfrutta le vulnerabilità delle persone.

I sistemi di IA per scopi generali (GPAI) e i modelli GPAI su cui si basano devono soddisfare determinati requisiti di trasparenza, tra cui il rispetto della legge sul copyright dell’UE e la pubblicazione di sintesi dettagliate dei contenuti utilizzati per la formazione. Inoltre, le immagini, i contenuti audio e video artificiali o manipolati (“deep fake”) devono essere chiaramente etichettati come tali.

La legge europea definisce per la prima volta i sistemi ad alto rischio e li sottopone a regole severe. Inizia classificando i sistemi di IA in base al rischio e impone gradualmente regole in base al rischio, fino al divieto totale di alcuni di essi. In altre parole, quanto più rischiosa è l’applicazione, tanto più rigide sono le regole. Pertanto, i sistemi di raccomandazione dei contenuti o i filtri antispam avranno regole più semplici da rispettare e saranno considerati “a rischio limitato”. In sostanza, dovranno solo dire agli utenti che sono alimentati dall’intelligenza artificiale. Altri sistemi creati dall’IA “ad alto rischio” saranno soggetti a un controllo più rigoroso. Pertanto, sono vietati alcuni usi di alcuni di questi “sistemi ad alto rischio”, in particolare quelli basati sul riconoscimento biometrico, basati su caratteristiche sensibili e sulla raccolta non mirata di immagini da Internet o da filmati di telecamere a circuito chiuso per la creazione di banche dati di riconoscimento facciale. Ad esempio, sono vietate le valutazioni sociali che regolano il comportamento delle persone, il riconoscimento delle emozioni a scuola o sul posto di lavoro e alcuni tipi di polizia predittiva. Le eccezioni sono consentite per reati gravi come il rapimento o il terrorismo. In questi casi sarà consentito scansionare i volti delle persone in pubblico utilizzando sistemi di identificazione biometrica a distanza. Per altri sistemi di IA ad alto rischio – che hanno un potenziale significativo di danneggiare la salute, la sicurezza, i diritti fondamentali, l’ambiente, la democrazia e lo stato di diritto – sono previsti alcuni obblighi.

I cittadini hanno il diritto di lamentarsi dei sistemi di intelligenza artificiale

Esempi di usi dell’IA ad alto rischio sono le infrastrutture critiche, l’istruzione e la formazione, l’occupazione, i servizi pubblici e privati essenziali (ad esempio, sanità, banche), alcuni sistemi di applicazione della legge, la gestione della migrazione e delle frontiere, la giustizia e i processi democratici (ad esempio, l’influenza sulle elezioni). Tali sistemi devono valutare e ridurre i rischi, mantenere i registri di utilizzo, essere trasparenti e accurati e fornire una supervisione umana. Secondo il comunicato stampa ufficiale del Parlamento europeo, i cittadini avranno anche il diritto di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che riguardano i loro diritti. Il pacchetto di leggi sull’IA prevede la supervisione dell’applicazione di queste norme, con l’istituzione di un ufficio presso la Commissione europea. Sono previste anche multe pari al 7% del fatturato per le aziende non conformi. Questa legislazione europea è una grande vittoria nella lotta contro i pericoli di un uso irresponsabile delle tecnologie basate sull’IA e un enorme passo avanti rispetto all’approccio adottato all’estero. Negli Stati Uniti, la sicurezza sul campo si basa sull’impegno congiunto delle principali aziende del settore – tra cui Google, Meta, Amazon, Microsoft e OpenIA – a implementare misure per segnalare i contenuti generati dall’intelligenza artificiale.

Video falsi profondi usati per le truffe online

All’inizio di quest’anno, il ministro dell’Energia rumeno Sebastian Burduja ha annunciato che avrebbe presentato una denuncia penale dopo che il suo volto era stato utilizzato in un video falso. Anche il governatore della Banca Nazionale di Romania, Mugur Isărescu, è stato vittima di questa manipolazione online. In entrambi i casi, il volto di un funzionario è stato utilizzato per promuovere investimenti inesistenti. Subito dopo, è stata presentata al Parlamento di Bucarest un’iniziativa legislativa da parte di due deputati rumeni per combattere questo fenomeno di deep fake, che prevede pene detentive per chi viene riconosciuto colpevole di aver realizzato tali video. Il progetto di legge ha suscitato un ampio dibattito pubblico, con alcune ONG per i diritti umani che sostengono che tale iniziativa violerebbe la libertà di espressione. Altre voci hanno sostenuto l’iniziativa legislativa, chiedendo sanzioni severe nei casi in cui tali video abbiano un grave impatto emotivo o finanziario. L’intero dibattito – al di là del modo un po’ troppo iroso in cui è nato il progetto di legge – rivela fondamentalmente la necessità di una regolamentazione – anche a livello nazionale – in questo settore. Dopo che la forma adottata dalla Camera dei Deputati era radicalmente diversa da quella del Senato – quest’ultimo imponeva solo sanzioni pecuniarie per gli autori di falsi profondi, mentre i deputati si spingevano fino a una pena detentiva – il progetto è stato rinviato alle commissioni specializzate per l’esame. Il che, secondo l’eurodeputato Dragoș Tudorache, sarebbe una buona cosa, perché a suo avviso l’adozione della legge può aspettare e la Romania dovrebbe seguire le linee della legge sugli AI nella sua stesura.

“Direi che la legge sul deep fake nel Parlamento rumeno potrebbe forse aspettare, perché di fatto, attraverso la legge sull’AI stiamo regolamentando anche quest’area di responsabilità per i deep fake. Quindi, in sostanza, una volta sola non è un’opzione. La legge così come arriverà a livello europeo sarà attuata in Romania o dovrà essere attuata. Quanto sarà difficile, ripeto, dipende dalla capacità che lo Stato rumeno avrà di attrarre le persone giuste per il ruolo riconosciuto dalla legge a queste autorità (…)”, ha detto Dragos Tudorache.

Una lettera aperta di Active Watch, sostenuta da altre nove organizzazioni per i diritti umani, ha sottolineato che il testo contiene ambiguità e termini o espressioni che mostrano una comprensione superficiale del fenomeno. Questa opinione è stata condivisa anche dal Consiglio legislativo e dall’autorità di regolamentazione del settore audiovisivo CAN.

“Non ci sono eccezioni per proteggere forme di libertà di espressione, come l’uso di contenuti falsificati per scopi pamphletistici o artistici o in produzioni commerciali (pubblicità) o nell’industria cinematografica, come già avviene nella pratica e come previsto nella prossima legislazione europea”, denuncia Active Watch.