fbpx

L’Europa, primo continente a regolamentare l’IA

Legale - Febbraio 9, 2024

L’anno scorso è stata approvata a livello europeo una legislazione globale senza precedenti, che ha reso l’Europa il primo continente a imporre regole sull’uso dell’intelligenza artificiale (AI). Il progetto di legge è stato presentato dalla Commissione nell’aprile 2021 e adottato dal Parlamento europeo due anni e mezzo dopo. Il processo normativo è stato influenzato dall’avvento di ChatGPT – il generatore di testi sviluppato da un’azienda californiana, che ha messo in luce, oltre alle potenzialità dell’IA, i rischi del suo utilizzo – ed è stato incentivato dallo slancio del fenomeno del deep fake – ovvero il furto di identità, che si basa sulla tecnologia di manipolazione dei video.

La forma del testo di legge dovrebbe essere approvata in aprile dal Consiglio europeo e gli Stati membri avranno due anni per attuarla. Resta da vedere quanti di loro riusciranno a rispettare la scadenza, dato che alcuni – come la Romania – stanno adottando solo ora strategie nazionali di IA. Ma un Paese europeo ha anticipato tutti, compresa Bruxelles, e ha già istituito un’agenzia per la supervisione dell’IA. Questo è il caso della Spagna, che ha iniziato a prendere provvedimenti per la sua realizzazione molto prima dell’entrata in vigore della legislazione europea nel 2022. In questo modo l’AESIA – Agencia Espaniol de Supervision de la Inteligencia Artificial – al di là del suo ruolo interno, sarà in grado di assistere gli organismi di Bruxelles nell’attuazione della legislazione sull’IA in modo più rapido ed efficiente.

La legge europea definisce per la prima volta i sistemi ad alto rischio e li sottopone a regole severe

La legislazione europea nel campo dell’IA è stata concepita sulla base della necessità di mantenere un equilibrio tra la protezione della democrazia e dei diritti umani fondamentali e l’incoraggiamento della ricerca, dell’innovazione e degli investimenti nel settore. Si parte dalla classificazione dei sistemi di IA in base ai rischi e si impongono gradualmente regole in base a questi rischi, fino al divieto totale di alcuni di essi.

In altre parole, quanto più rischiosa è l’applicazione, tanto più rigide sono le regole. Pertanto, i sistemi di raccomandazione dei contenuti o i filtri antispam avranno regole più semplici da rispettare e saranno considerati “a rischio limitato”. In sostanza, dovranno solo dire agli utenti che sono alimentati dall’intelligenza artificiale. Altri sistemi creati dall’IA “ad alto rischio” saranno soggetti a controlli più severi. I dispositivi medici, ad esempio, dovranno fornire dati di qualità superiore e informazioni chiare agli utenti.

Alcuni usi di alcuni di questi “sistemi ad alto rischio”, in particolare quelli che si basano sul riconoscimento biometrico, come le valutazioni sociali che regolano il comportamento delle persone, il riconoscimento delle emozioni a scuola o sul posto di lavoro e persino alcuni tipi di polizia predittiva, sono completamente vietati. Anche i sistemi di riconoscimento facciale della Cina rientrano in questa categoria, in contrasto con i principi delle democrazie liberali. Ma anche in una democrazia sono necessarie alcune eccezioni per reati gravi come il rapimento o il terrorismo. In questi casi, sarà consentito scansionare i volti delle persone in pubblico utilizzando sistemi di identificazione biometrica a distanza.

Il pacchetto di leggi sull’IA prevede la supervisione dell’applicazione di queste norme, con l’istituzione di un ufficio presso la Commissione europea. Sono inoltre previste pesanti multe per le aziende che non si adeguano, stimate al 7% del fatturato o a 35 milioni di euro. Questa legislazione europea è una grande vittoria nella lotta contro i pericoli di un uso irresponsabile delle tecnologie basate sull’IA e un enorme passo avanti rispetto all’approccio adottato all’estero. Negli Stati Uniti, la sicurezza sul campo si basa sull’impegno congiunto delle principali aziende del settore – tra cui Google, Meta, Amazon, Microsoft e OpenIA – a implementare misure per segnalare i contenuti generati dall’intelligenza artificiale.

La Romania si lancia nella guerra al deep fake con un disegno di legge che non lo vieta

La regolamentazione di questo settore è tanto più importante in quanto la tecnologia di manipolazione video è diventata sempre più sofisticata e accessibile al pubblico. Il deep faking, originariamente utilizzato per creare contenuti pornografici non consensuali, è diventato in pochi anni una potente arma di disinformazione e manipolazione dell’opinione pubblica. C’è quindi un timore giustificato in tutto lo spettro politico europeo che la tecnologia basata sull’intelligenza artificiale possa essere utilizzata in campagne diffamatorie, per influenzare le campagne elettorali o per imporre importanti misure politiche. Tra i primi a cadere vittima di queste pratiche ci sono stati gli ex presidenti degli Stati Uniti Barack Obama e Donald Trump, e tra le vittime ci sono stati anche la defunta Regina Elisabetta II e Papa Francesco. Più recentemente, il deep fake ha colpito anche la periferia europea, con immagini falsificate del presidente moldavo Maia Sandu che hanno fatto il giro di internet.

In questo contesto di preoccupazione per la lotta al deep-fake, in Romania – un Paese che attualmente non ha una strategia nazionale per l’IA – è emersa una proposta di legge che non vieta tali immagini, ma ne richiede solo la segnalazione. Secondo i promotori, “il pubblico deve essere informato sui contenuti falsi”. Finora il progetto di legge non è stato né adottato né respinto.

Il governo di Bucarest non ha ancora una strategia per l’intelligenza artificiale.

Il Ministero della Digitalizzazione ha recentemente presentato una versione aggiornata del progetto di strategia sull’IA per il 2019. Per dimostrare la serietà del suo lavoro, il responsabile della digitalizzazione ha anche preparato la decisione con cui la strategia sarà adottata dal governo. L’adozione era inizialmente prevista per il 2020, e da allora e fino ad oggi, è stato istituito un comitato per l’IA per raccogliere “iniziative nel campo”, ci sono state consultazioni con aziende ed enti di ricerca, c’è stato persino un gruppo di lavoro congiunto del ministero con un’università (l’Università Tecnica di Cluj, città che è diventata il principale polo di sviluppo dell’IT in Romania) e, infine, il Ministero della Ricerca ha sviluppato “un quadro strategico”. Dopo diversi cambi di portafogli negli ultimi governi di Bucarest, il progetto è stato ripreso l’anno scorso dal giovane ministro della Digitalizzazione, Bogdan Ivan.

In occasione del lancio della strategia all’inizio di quest’anno, ha assicurato che il documento include le proposte del Comitato rumeno per l’IA, che a sua volta ha tenuto conto dei risultati delle consultazioni con gli esperti. L’obiettivo della strategia, in breve, sarebbe quello di “proteggere i diritti dei romeni nell’ambiente online”. Allo stesso tempo, il ministro rumeno ha sottolineato che la strategia si ispira “alle azioni concrete” proposte a livello europeo, ma è “saldamente ancorata alle realtà e alle esigenze specifiche del contesto rumeno”.

La spiegazione di questo ancoraggio alle “esigenze rumene” è che la strategia rumena in materia di IA è stata sviluppata su … Fondi europei, ottenuti per l’attuazione del “Quadro strategico per l’adozione e l’utilizzo di tecnologie innovative nella Pubblica Amministrazione 2021 -2027”, finanziato dal Programma operativo dell’UE per la capacità amministrativa 2014-2020.

I “notevoli” risultati della Romania nel campo della preparazione all’implementazione delle tecnologie di IA nella pubblica amministrazione sono evidenziati nell’Oxford Insights Index, in cui la Romania si colloca al 64° posto nel mondo e all’ultimo nell’Europa orientale. La regione è molto indietro rispetto all’Europa occidentale, secondo la classifica stilata dalla società britannica che consiglia governi e aziende sulle opportunità dell’IA. Nel rapporto, che prende in esame 193 Paesi, tre Stati membri dell’UE in Europa occidentale figurano tra i primi 10, guidati dagli Stati Uniti: Francia (6°), Germania (8°) e Paesi Bassi (10°).

La lezione spagnola su come uno Stato membro può fornire un aiuto concreto nell’attuazione della legislazione a livello di UE

Un Paese che se la cava molto meglio di altri membri del blocco UE è, come già detto, la Spagna. Anche se in questa classifica si trova 17 posizioni dietro l’ultimo della top 10, al 27° posto, la Spagna è il primo Paese dell’UE ad aver già istituito un’agenzia con un ruolo nell’elaborazione delle leggi sull’IA. Ha già un ufficio a A Coruna, il centro finanziario e industriale della Galizia. Secondo il governo di Madrid, il progetto ha un budget iniziale di 5 milioni di euro e uno staff di 23 persone, con l’intenzione di aggiungerne altre quest’anno.

L’AESIA sarà l’attore chiave nella gestione e nella guida dell’ecosistema spagnolo dell’IA e, fino all’entrata in vigore della legislazione europea, effettuerà una supervisione volontaria del settore, mantenendo i contatti con l’ecosistema europeo e generando ambienti di test regolari per i sistemi di IA ad alto rischio. Pertanto, AESIA ha già iniziato a lavorare con una sandbox dedicata alle aziende spagnole. Le sandbox sono ambienti di prova che hanno lo scopo di mostrare come qualcosa, ad esempio una tecnologia, può funzionare prima del lancio. Ma sono utili anche per la legislazione. Ed è proprio questo che farà l’AESIA, fornendo le conclusioni di esercizi pratici che faciliteranno eventuali modifiche alla legislazione prima dell’attuazione.