fbpx

Actul privind inteligența artificială adoptat de Parlamentul European

Stiinta si Tehnologie - martie 28, 2024

Legea europeană privind inteligența artificială, cunoscută sub numele de Actul privind inteligența artificială, o premieră mondială, a fost adoptată recent de Parlamentul European cu o largă majoritate. Legea este rezultatul a mai mult de trei ani de preocupare la Bruxelles pentru a aborda noile provocări în domeniu, care au apărut în ultimul deceniu într-un ritm rapid. Odată cu dezvoltarea fără precedent a sistemelor de inteligență artificială, care a adus și o serie de riscuri, au apărut fenomene nedorite, cum ar fi deep fakes. Textul legii a fost conceput atât pentru a proteja drepturile fundamentale ale cetățenilor, democrația și statul de drept, cât și pentru a stimula inovarea și cercetarea, cu scopul declarat de a face din Europa un lider în acest domeniu. Noua legislație introduce două niveluri de guvernanță pentru supravegherea aplicării legii – unul național și unul european, atât statele membre, cât și UE creând noi autorități în acest scop. În principiu, statele membre vor avea la dispoziție doi ani pentru a pune în aplicare dispozițiile sale după intrarea în vigoare, dar unele dintre interdicțiile din lege vor intra în vigoare la jumătate de an de la adoptare.

În România, legea împotriva falsului în adâncime se află în dezbatere parlamentară

Deși statele membre nu au luat până acum decât măsuri timide în acest domeniu, au existat încercări de reglementare națională în acest domeniu, inclusiv în România, unde un proiect de lege pentru combaterea falsului profund a ajuns în Parlament. Extrem de controversat, unii spun că este inspirat de modelul chinezesc – deoarece pedepsește falsul profund cu închisoarea – proiectul de lege s-a împotmolit în dezbaterea parlamentară. Dar acum că legea privind IA a fost adoptată, textul ar putea fi îmbunătățit sau, așa cum susțin unii, ar putea fi redactat unul nou pentru a îndeplini cerințele legislației europene.

„UE și-a respectat promisiunea. Am legat conceptul de inteligență artificială de valorile fundamentale care stau la baza societăților noastre. Cu toate acestea, mai sunt multe de făcut, care merg dincolo de legea privind IA în sine. Inteligența artificială ne va împinge să regândim contractul social care stă la baza democrațiilor noastre, a modelelor noastre de educație, a piețelor noastre de muncă și a modului în care purtăm războaiele. Legea privind IA este un punct de plecare pentru un nou model de guvernanță construit în jurul tehnologiei. Acum trebuie să ne concentrăm pe punerea în practică a acestei legi”, a declarat Dragoș Tudorache, co-raportor al Comisiei pentru libertăți civile din Parlamentul European.

Un alt coraportor, Brando Benifei, a subliniat, de asemenea, importanța înființării noului Birou european de evaluare a impactului, care „va ajuta companiile să înceapă să se conformeze normelor înainte ca acestea să intre în vigoare”.

Regulamentul se află în prezent în așa-numita procedură de rectificare și se așteaptă să fie adoptat în lunile următoare, până la sfârșitul mandatului parlamentar. După aceea, va avea nevoie și de aprobarea oficială a Consiliului European. Se preconizează că va intra în vigoare la 20 de zile de la publicarea în Jurnalul Oficial și va fi pe deplin aplicabilă în termen de 24 de luni de la această dată, cu excepția interdicțiilor privind practicile interzise, care vor trebui respectate deja după șase luni. De asemenea, codurile de bune practici trebuie să fie gata după 9 luni, normele cu scop general, inclusiv guvernanța, vor trebui aplicate după 12 luni, iar obligațiile pentru sistemele cu risc ridicat – după 36 de luni.

Potrivit comunicatului de presă oficial al Parlamentului European emis după adoptare, regulamentul impune obligații privind inteligența artificială, în funcție de riscurile potențiale și de impactul așteptat al acesteia. Mai exact, interzice anumite aplicații și impune obligații pentru altele. De asemenea, impune amenzi mari în caz de nerespectare. Noile norme interzic anumite aplicații de inteligență artificială care amenință drepturile cetățenilor, inclusiv sistemele de clasificare biometrică. Vor fi interzise, de asemenea, recunoașterea emoțiilor la locul de muncă și în școli, scorarea socială, poliția predictivă (atunci când se bazează exclusiv pe profilarea unei persoane sau pe evaluarea caracteristicilor acesteia) și inteligența artificială care manipulează comportamentul uman sau exploatează vulnerabilitățile oamenilor.

Sistemele de inteligență artificială de uz general (GPAI) și modelele GPAI pe care se bazează acestea trebuie să îndeplinească anumite cerințe de transparență, inclusiv respectarea legislației UE privind drepturile de autor și publicarea unor rezumate detaliate ale conținutului utilizat pentru instruire. În plus, imaginile, conținutul audio sau video artificial sau manipulat („deep fakes”) trebuie să fie etichetate în mod clar ca atare.

Legislația UE definește pentru prima dată sistemele cu risc ridicat și le supune unor reguli stricte. Acesta începe prin a clasifica sistemele de inteligență artificială în funcție de risc și impune treptat reguli în funcție de risc, până la interzicerea totală a unora dintre ele. Cu alte cuvinte, cu cât este mai riscantă o aplicație, cu atât mai stricte sunt regulile. Astfel, sistemele de recomandare de conținut sau filtrele de spam vor avea reguli mai ușor de respectat și vor fi considerate „cu risc limitat”. În esență, acestea vor trebui doar să le spună utilizatorilor că sunt alimentate de inteligența artificială. Alte sisteme create de inteligența artificială cu „risc ridicat” vor fi supuse unei examinări mai riguroase. Astfel, sunt interzise anumite utilizări ale unora dintre aceste „sisteme cu risc ridicat”, și anume cele bazate pe recunoașterea biometrică, bazate pe trăsături sensibile, precum și colectarea fără scop precis de imagini de pe internet sau de pe înregistrări CCTV pentru crearea de baze de date de recunoaștere facială. De exemplu, sunt interzise evaluarea socială care reglementează comportamentul oamenilor, recunoașterea emoțiilor la școală sau la locul de muncă și unele tipuri de poliție predictivă. Ca excepții, acestea sunt permise pentru infracțiuni grave, cum ar fi răpirea sau terorismul. În aceste cazuri, va fi permisă scanarea fețelor oamenilor în public cu ajutorul sistemelor de identificare biometrică la distanță. Pentru alte sisteme de inteligență artificială cu risc ridicat – care au un potențial semnificativ de a afecta sănătatea, siguranța, drepturile fundamentale, mediul, democrația și statul de drept – sunt prevăzute anumite obligații.

Cetățenii au dreptul de a se plânge de sistemele AI

Printre exemplele de utilizări cu risc ridicat ale IA se numără infrastructura critică, educația și formarea profesională, ocuparea forței de muncă, serviciile publice și private esențiale (de exemplu, asistența medicală, serviciile bancare), anumite sisteme de aplicare a legii, migrația și gestionarea frontierelor, justiția și procesele democratice (de exemplu, influențarea alegerilor). Astfel de sisteme trebuie să evalueze și să reducă riscurile, să mențină jurnalele de utilizare, să fie transparente și precise și să asigure o supraveghere umană. Cetățenii vor avea, de asemenea, dreptul de a depune plângeri cu privire la sistemele de inteligență artificială și de a primi explicații cu privire la deciziile bazate pe sisteme de inteligență artificială cu risc ridicat care le afectează drepturile, potrivit comunicatului oficial al Parlamentului European. Pachetul de legi privind inteligența artificială prevede supravegherea aplicării acestor norme, cu un birou care urmează să fie înființat în cadrul Comisiei Europene. De asemenea, sunt prevăzute amenzi de 7% din cifra de afaceri pentru societățile care nu respectă legislația. Această legislație europeană reprezintă o mare victorie în lupta împotriva pericolelor legate de utilizarea iresponsabilă a tehnologiilor bazate pe inteligența artificială și un pas înainte uriaș în comparație cu abordarea de peste ocean. În SUA, siguranța în domeniu se bazează pe un angajament comun al marilor companii din domeniu – inclusiv Google, Meta, Amazon, Microsoft și OpenIA – de a implementa măsuri pentru a semnala conținutul generat de inteligența artificială.

Videoclipuri false de mare adâncime folosite pentru escrocherii online

La începutul acestui an, ministrul român al Energiei, Sebastian Burduja, a anunțat că va depune o plângere penală după ce chipul său a fost folosit într-o înregistrare video deep fake. Guvernatorul Băncii Naționale a României, Mugur Isărescu, a fost și el victima unei astfel de manipulări online. În ambele cazuri, chipul unui oficial a fost folosit pentru a promova investiții inexistente. Imediat după aceea, în Parlamentul de la București a fost depusă o inițiativă legislativă de către doi europarlamentari români pentru combaterea acestui fenomen de deep fake, care prevede pedepse cu închisoarea pentru cei care se fac vinovați de realizarea unor astfel de filmulețe. Proiectul de lege a stârnit numeroase dezbateri publice, unele ONG-uri pentru drepturile omului susținând că o astfel de măsură ar încălca libertatea de exprimare. Alte voci au susținut inițiativa legislativă, solicitând sancțiuni dure în cazurile în care astfel de videoclipuri au un impact emoțional sau financiar grav. Întreaga dezbatere – dincolo de modul mai degrabă heirupic în care a luat naștere proiectul de lege – relevă, în esență, necesitatea unei reglementări – inclusiv la nivel național – în acest domeniu. După ce forma adoptată de Camera Deputaților a fost radical diferită de cea a Senatului – acesta din urmă impunând doar sancțiuni financiare pentru autorii de falsuri profunde, în timp ce deputații au mers până la pedeapsa cu închisoarea – proiectul a fost retrimis la comisiile de specialitate pentru examinare. Ceea ce, în opinia europarlamentarului Dragoș Tudorache, ar fi un lucru bun, pentru că, în opinia sa, adoptarea legii mai poate aștepta, iar România ar trebui să urmeze liniile Legii IA în elaborarea ei.

„Aș spune că legea falsului în adâncime din Parlamentul României poate că mai poate aștepta, pentru că, de fapt, prin Legea IA reglementăm și acest domeniu de responsabilitate pentru falsurile în adâncime. Deci, practic, o dată nu este o opțiune. Legea, așa cum va veni de la nivel european, va fi implementată în România sau va trebui să fie implementată. Cât de greu va fi, repet, depinde de capacitatea pe care o va avea statul român de a atrage oamenii potriviți pentru rolul recunoscut de lege pentru aceste autorități (…)”, a declarat Dragoș Tudorache.

O scrisoare deschisă din partea Active Watch, susținută de alte nouă organizații pentru drepturile omului, a subliniat că textul conține ambiguități și termeni sau expresii care arată o înțelegere superficială a fenomenului. Acest punct de vedere a fost împărtășit și de Consiliul Legislativ și de autoritatea de reglementare în domeniul audiovizualului, CAN.

„Nu există nicio excepție pentru a proteja forme de libertate de exprimare, cum ar fi utilizarea de conținuturi false profunde în scopuri pamfletariste sau artistice sau în producții comerciale (reclame) sau în industria cinematografică, așa cum se întâmplă deja în practică și cum prevede viitoarea legislație europeană”, acuză Active Watch.