fbpx

Istituito l’Ufficio UE per l’intelligenza artificiale

Legale - Marzo 18, 2024

L’Ufficio supervisionerà l’attuazione della legge sull’AI

Nel febbraio 2024 è entrata in vigore la decisione della Commissione europea che ha istituito l’Ufficio europeo per l’intelligenza artificiale all’interno della Direzione generale per le reti, i contenuti e le tecnologie di comunicazione (DG CNECT), come una sorta di agenzia interna alla Commissione stessa. Sicuramente rappresenta una novità importante e una dimostrazione dell’interesse dell’UE in materia; tuttavia, le sue funzioni appaiono ridimensionate rispetto alla volontà iniziale del Parlamento europeo, che aveva previsto la creazione di un organismo in grado di centralizzare l’applicazione di tutti gli standard di IA.

L’ACT dell’intelligenza artificiale: cos’è e cosa fa

L’Ufficio avrà il compito di facilitare l’attuazione dell’Artificial Intelligence Act, che rappresenterà – una volta approvato – il primo regolamento al mondo sull’utilizzo dell’IA e che fa parte della Strategia Digitale dell’UE, attraverso la quale l’Unione Europea vuole garantire uno sviluppo e un utilizzo più attento e ponderato di questa nuova tecnologia. Il regolamento affonda le sue radici nella Strategia Europea sull’Intelligenza Artificiale, presentata nel 2018, e nel Libro Bianco sull’IA, presentato nel 2020, e rappresenta la scelta dell’Unione Europea di intervenire per prima e in modo incisivo sul tema, al fine di influenzare e non subire il processo di sviluppo della governance della tecnologia.

L’Intelligenza Artificiale (IA) rappresenta oggi una delle grandi sfide dell’umanità, per il suo immenso potenziale – che alcuni definiscono addirittura rivoluzionario – ma anche per i suoi grandi rischi. L’uso dell’IA in campi come la medicina, l’istruzione e l’ingegneria apre la possibilità di grandi e rapide trasformazioni che possono portare miglioramenti significativi nella vita di tutti noi. Tuttavia, è necessario non trascurare il pericolo per gli individui e per la società nel suo complesso che l’uso di tale tecnologia può avere quando non è adeguatamente regolamentato.

Il primo quadro legislativo volto a regolamentare l’intelligenza artificiale e il suo utilizzo è stato presentato dalla Commissione europea nell’aprile 2021, ma solo nel dicembre 2023 il Parlamento europeo e il Consiglio europeo sono riusciti a raggiungere un accordo provvisorio.

Dopo un primo via libera al testo da parte del Consiglio dell’Unione europea, il Parlamento europeo ha votato la propria proposta, che è stata adottata a larga maggioranza, con 499 voti a favore, 28 contrari e 93 astensioni, e che comprendeva l’estensione dell’elenco delle applicazioni ad alto rischio e delle pratiche di IA vietate. Il testo è stato la base per i negoziati tra il Parlamento, la Commissione europea e il Consiglio europeo.

La bozza di regolamento contiene già proposte relative al calcolo delle possibili sanzioni da imporre alle aziende che violano le regole stabilite da Bruxelles.

Valutazione del rischio e principi per una buona legge

L’AI Act mira a promuovere lo sviluppo dell’IA in tutti i 27 Stati membri, ma con principi e regole chiare da seguire, anche per prevenire e affrontare i potenziali rischi che questa nuova tecnologia pone in termini di sicurezza e diritti. Saranno vietati i sistemi di intelligenza artificiale ritenuti pericolosi per la sicurezza, il sostentamento e i diritti fondamentali dei cittadini europei e di tutte le persone (su una scala di 4 livelli, identificati come “rischio minimo”, “rischio limitato”, “rischio elevato” e “rischio inaccettabile”). Un rischio classificato come inaccettabile e quindi vietato è, ad esempio, il punteggio sociale utilizzato dal governo cinese; inaccettabile è anche considerato il condizionamento psicologico esercitato da alcuni messaggi pubblicitari. Un rischio elevato è considerato, ad esempio, la selezione del personale o gli interventi effettuati con la chirurgia assistita. Un rischio basso è considerato, ad esempio, quello dei chatbot. Infine, i videogiochi e i sistemi antispam sono considerati a basso rischio.

Ma quali sono i punti cruciali per l’emanazione di una legislazione valida e definitiva? Sicuramente, nella sua versione finale, il regolamento dovrebbe affrontare innanzitutto il tema della sicurezza, al fine di stabilire standard di qualità per prevenire i danni derivanti da un uso improprio o da possibili malfunzionamenti dei sistemi di IA nei confronti degli utenti. È inoltre importante chiarire chi sarà legalmente responsabile delle scelte (e quindi degli eventuali errori) dell’IA, in modo da garantire i cittadini in caso di danni. Un altro fattore chiave è garantire che le scelte fatte dall’IA siano trasparenti e comprensibili per gli esseri umani. Infine, non meno importante è la questione della privacy, che appare sempre più come un’area chiave da proteggere.

I compiti dell’Ufficio AI

L’Ufficio avrà innanzitutto il compito di redigere linee guida e orientamenti che possano facilitare un uso chiaro della legislazione in materia. Il regolamento chiarisce che l’Ufficio non sostituisce né scavalca in alcun modo le competenze specifiche degli Stati membri e delle autorità nazionali competenti, ma deve essere inteso come un organo di supporto e di orientamento.

L’Ufficio lavorerà quindi a livello nazionale ed europeo per facilitare l’armonizzazione e l’applicazione della legislazione sull’IA, monitorando i cosiddetti sistemi di IA per scopi generali (GPAI), cioè i sistemi che utilizzano l’IA, e sviluppando metodologie per valutare i modelli di utilizzo (ad esempio il GPT-4 di OpenAI, responsabile del chatbot ChatGPT).

L’Ufficio dovrà inoltre gestire le regole da applicare ai sensi del nuovo regolamento rispetto ai sistemi di intelligenza artificiale che sono già soggetti ad altri regolamenti dell’UE, come il Digital Service Act sui social media.

Una breve panoramica del contesto internazionale

Mentre l’Unione Europea lavora per l’emanazione definitiva del regolamento sull’intelligenza artificiale, anche altri organismi internazionali stanno concentrando la loro attenzione sulla necessità di controllare lo sviluppo e la governance di questa nuova tecnologia e della sua applicazione.

L’Organizzazione delle Nazioni Unite per l’Educazione, la Scienza e la Cultura (UNESCO), agenzia specializzata delle Nazioni Unite con l’obiettivo di promuovere la pace e la sicurezza nel mondo, ha emanato la “Raccomandazione sull’etica dell’intelligenza artificiale”, adottata da tutti i 193 Stati membri. L’UNESCO ha voluto concentrarsi su quattro valori fondamentali, collegati a dieci principi generali che tutelano l’essere umano nell’uso etico dell’IA.

A livello di Nazioni Unite, il Segretario Generale Guterres ha istituito un comitato di alto livello sulla cooperazione digitale per facilitare un dialogo costruttivo sulle possibilità offerte dalla tecnologia per migliorare il benessere umano, affrontando ovviamente i rischi e prevenendo i danni. Alcune delle raccomandazioni contenute in “The age of digital interdependence – Report of the UN Secretary-General’s High-level Panel on Digital Cooperation” (L’era dell’interdipendenza digitale – Rapporto del gruppo di alto livello del Segretario generale delle Nazioni Unite sulla cooperazione digitale) sottolineano la necessità di sistemi intelligenti in grado di spiegare le loro decisioni. Un altro tema emerso è l’importanza di poter identificare chiaramente di chi è la responsabilità dell’utilizzo, in caso di danni.

Anche il vicesegretario generale delle Nazioni Unite Amina J. Mohammed, nel suo intervento all’evento “Advancing the Global Goals with artificial intelligence”, ha affrontato il tema dello sviluppo dell’intelligenza artificiale, definendola uno dei progressi più importanti del nostro tempo, ad esempio per l’uso che se ne sta già facendo in alcuni settori strategici come l’automazione industriale. Tuttavia, il vice segretario ha voluto sottolineare anche i rischi associati a un uso non etico e non regolamentato dell’IA, come l’aumento delle disuguaglianze o il pericolo di manipolazione dei processi politici e delle informazioni.