fbpx

Se înființează Oficiul UE pentru inteligență artificială

Legal - martie 18, 2024

Oficiul va supraveghea punerea în aplicare a Legii privind IA

În februarie 2024, a intrat în vigoare decizia Comisiei Europene, prin care a fost înființat Biroul European de Inteligență Artificială în cadrul Direcției Generale pentru Rețele de Comunicații, Conținut și Tehnologii (DG CNECT), ca un fel de agenție internă în cadrul Comisiei. Cu siguranță reprezintă o noutate importantă și o demonstrație a interesului UE în această chestiune; cu toate acestea, funcțiile sale par să fi fost reduse în comparație cu dorințele inițiale ale Parlamentului European, care a avut în vedere crearea unui organism care ar putea centraliza aplicarea tuturor standardelor IA.

ACT privind inteligența artificială: ce este și ce face

Oficiul va avea sarcina de a facilita punerea în aplicare a Legii privind inteligența artificială, care va reprezenta – atunci când va fi aprobată în cele din urmă – primul regulament din lume privind utilizarea inteligenței artificiale și care face parte din Strategia digitală a UE, prin care Uniunea Europeană dorește să asigure o dezvoltare și o utilizare mai atentă și mai ponderată a acestei noi tehnologii. Regulamentul își are rădăcinile în Strategia europeană privind inteligența artificială, prezentată încă din 2018, și în Cartea albă privind inteligența artificială, prezentată în 2020, și reprezintă alegerea Uniunii Europene de a interveni prima și incisiv asupra subiectului, pentru a influența și nu a fi supusă procesului de dezvoltare a guvernanței tehnologiei.

Inteligența artificială (AI) reprezintă astăzi una dintre marile provocări cu care se confruntă omenirea, datorită potențialului său imens – pe care unii îl numesc chiar revoluționar – dar și a riscurilor mari. Utilizarea inteligenței artificiale în domenii precum medicina, educația și ingineria deschide posibilitatea unor transformări mari și rapide care pot aduce îmbunătățiri semnificative în viața noastră, a tuturor. Cu toate acestea, este necesar să nu neglijăm pericolul pe care îl poate avea pentru indivizi și pentru societate în ansamblu utilizarea unei astfel de tehnologii în cazul în care aceasta nu este reglementată în mod corespunzător.

Primul cadru legislativ menit să reglementeze inteligența artificială și utilizarea acesteia a fost prezentat de Comisia Europeană în aprilie 2021, dar abia în decembrie 2023 Parlamentul European și Consiliul European au reușit să ajungă la un acord provizoriu.

După un prim aviz favorabil al textului de către Consiliul Uniunii Europene, Parlamentul European a votat propria propunere, care a fost adoptată cu o largă majoritate, cu 499 de voturi pentru, 28 împotrivă și 93 de abțineri, și care includea extinderea listei de aplicații cu risc ridicat și de practici interzise în domeniul IA. Textul a stat la baza negocierilor dintre Parlament, Comisia Europeană și Consiliul European.

Proiectul de regulament conține deja propuneri referitoare la calcularea posibilelor sancțiuni care ar putea fi impuse companiilor care încalcă normele stabilite de Bruxelles.

Evaluarea riscurilor și principii pentru o lege bună

Legea privind inteligența artificială urmărește să încurajeze dezvoltarea inteligenței artificiale în toate cele 27 de state membre, dar cu principii și reguli clare care trebuie respectate, nu în ultimul rând pentru a preveni și a aborda potențialele riscuri pe care această nouă tehnologie le prezintă în ceea ce privește securitatea și drepturile. Sistemele de inteligență artificială care vor fi considerate periculoase pentru securitatea, mijloacele de trai și drepturile fundamentale ale cetățenilor europeni și ale tuturor oamenilor (pe o scară de 4 niveluri, identificate ca „risc minim”, „risc limitat”, „risc ridicat” și „risc inacceptabil”) vor fi interzise. Un risc clasificat ca inacceptabil și, prin urmare, interzis este, de exemplu, scorul social utilizat de guvernul chinez; inacceptabilă este considerată și condiționarea psihologică exercitată de anumite mesaje publicitare. Un risc ridicat este considerat, de exemplu, selecția personalului sau operațiile efectuate prin intermediul chirurgiei asistate. Un risc scăzut este considerat, de exemplu, chatbots. În cele din urmă, jocurile video și sistemele antispam sunt considerate a fi un risc scăzut.

Dar care sunt punctele cruciale pentru adoptarea unei legislații bune și definitive? În mod cert, în versiunea sa finală, regulamentul ar trebui să abordeze în primul rând problema securității, pentru a stabili standarde de calitate care să prevină daunele cauzate de utilizarea abuzivă sau de o eventuală funcționare defectuoasă a sistemelor de inteligență artificială față de utilizatori. De asemenea, este important să se clarifice cine va fi responsabil din punct de vedere juridic pentru alegerile făcute (și, prin urmare, pentru orice greșeli comise) de AI, astfel încât cetățenii să poată fi garantați în caz de daune. Un alt factor cheie este acela de a asigura că alegerile făcute de AI sunt transparente și ușor de înțeles pentru oameni. Nu în ultimul rând, nu mai puțin importantă este problema vieții private, care pare să fie din ce în ce mai mult un domeniu cheie care trebuie protejat.

Sarcinile Biroului AI

Oficiul va avea, în primul rând, sarcina de a elabora orientări și ghiduri care pot facilita utilizarea clară a legislației relevante. Regulamentul precizează în mod clar că Oficiul nu va înlocui și nici nu va anula în vreun fel competențele specifice ale statelor membre și ale autorităților naționale responsabile, ci ar trebui să fie înțeles ca un organism de sprijin și de îndrumare.

Prin urmare, Oficiul va lucra la nivel național și european pentru a facilita armonizarea și aplicarea legislației privind IA, monitorizând așa-numitele sisteme de IA cu scop general (GPAI), adică sistemele care utilizează IA, și dezvoltând metodologii pentru evaluarea modelelor de utilizare (de exemplu, GPT-4 al OpenAI, care este responsabil pentru chatbotul ChatGPT).

De asemenea, Oficiul va trebui să gestioneze normele care urmează să fie aplicate în temeiul noului regulament în ceea ce privește sistemele de inteligență artificială care fac deja obiectul altor regulamente ale UE, cum ar fi Legea privind serviciile digitale referitoare la social media.

O scurtă prezentare a contextului internațional

În timp ce Uniunea Europeană lucrează la adoptarea finală a Regulamentului privind inteligența artificială, și alte organisme internaționale își concentrează atenția asupra necesității de a controla dezvoltarea și guvernanța acestei noi tehnologii și a aplicării sale.

Organizația Națiunilor Unite pentru Educație, Știință și Cultură (UNESCO), care este o agenție specializată a Națiunilor Unite cu scopul de a promova pacea și securitatea în lume, a emis „Recomandarea privind etica inteligenței artificiale”, adoptată de toate cele 193 de state membre. UNESCO a dorit să se concentreze pe patru valori fundamentale, legate de zece principii generale care protejează ființa umană în utilizarea etică a IA.

La nivelul Organizației Națiunilor Unite, Secretarul General Guterres a înființat un comitet la nivel înalt pentru cooperare digitală pentru a facilita un dialog constructiv privind posibilitățile oferite de tehnologie pentru a promova bunăstarea umană, abordând în același timp, bineînțeles, riscurile și prevenind daunele. Unele dintre recomandările incluse în „Era interdependenței digitale – Raport al Grupului la nivel înalt al Secretarului General al ONU privind cooperarea digitală” subliniază necesitatea unor sisteme inteligente care să își poată explica deciziile. O altă temă care a reieșit aici este importanța de a putea identifica în mod clar a cui este responsabilitatea de a le utiliza, în caz de daune.

Secretarul general adjunct al ONU, Amina J. Mohammed, a abordat, de asemenea, în discursul său la evenimentul „Advancing the Global Goals with artificial intelligence”, subiectul dezvoltării inteligenței artificiale, descriind-o ca fiind unul dintre cele mai importante progrese ale timpului nostru, de exemplu datorită utilizării care se face deja în anumite sectoare strategice, cum ar fi automatizarea industrială. Cu toate acestea, secretarul adjunct a ținut să sublinieze și riscurile asociate utilizării neetice și nereglementate a inteligenței artificiale, cum ar fi creșterea inegalităților sau pericolul de manipulare a proceselor politice și a informațiilor.