fbpx

Ustawa o sztucznej inteligencji przyjęta przez Parlament Europejski

Nauka i technologia - 28 marca, 2024

Europejskie prawo dotyczące sztucznej inteligencji, znane jako AI Act, jako pierwsze na świecie, zostało niedawno przyjęte przez Parlament Europejski zdecydowaną większością głosów. Ustawa jest wynikiem ponad trzyletnich starań Brukseli, aby sprostać nowym wyzwaniom w tej dziedzinie, które pojawiły się w ciągu ostatniej dekady w szybkim tempie. Wraz z bezprecedensowym rozwojem systemów sztucznej inteligencji, który przyniósł również szereg zagrożeń, pojawiły się niepożądane zjawiska, takie jak głębokie fałszerstwa. Tekst ustawy został zaprojektowany tak, aby zarówno chronić podstawowe prawa obywateli, demokrację i praworządność, ale także stymulować innowacje i badania, z deklarowanym celem ustanowienia Europy liderem w tej dziedzinie. Nowe przepisy wprowadzają dwa poziomy zarządzania nadzorem nad egzekwowaniem prawa – jeden krajowy i jeden europejski, przy czym zarówno państwa członkowskie, jak i UE tworzą w tym celu nowe organy. Zasadniczo państwa członkowskie będą miały dwa lata na wdrożenie przepisów po ich wejściu w życie, ale niektóre z zakazów wejdą w życie pół roku po ich przyjęciu.

W Rumunii trwa debata parlamentarna nad ustawą przeciwko deep fake

Chociaż państwa członkowskie do tej pory podjęły jedynie nieśmiałe kroki w tym obszarze, podjęto próby krajowych regulacji w tej dziedzinie, w tym w Rumunii, gdzie projekt ustawy mającej na celu zwalczanie głębokiego fałszerstwa trafił do parlamentu. Niezwykle kontrowersyjna, niektórzy twierdzą, że wzorowana na modelu chińskim – ponieważ karze głębokie fałszerstwo więzieniem – ustawa ugrzęzła w debacie parlamentarnej. Jednak teraz, gdy ustawa o sztucznej inteligencji została przyjęta, jej tekst może zostać poprawiony lub, jak twierdzą niektórzy, może zostać opracowany nowy, aby spełnić wymogi prawa europejskiego.

„UE dotrzymała swojej obietnicy. Powiązaliśmy koncepcję sztucznej inteligencji z podstawowymi wartościami, które leżą u podstaw naszych społeczeństw. Przed nami jednak wiele pracy, która wykracza poza samą ustawę o sztucznej inteligencji. Sztuczna inteligencja zmusi nas do ponownego przemyślenia umowy społecznej leżącej u podstaw naszych demokracji, naszych modeli edukacji, naszych rynków pracy i sposobu prowadzenia wojny. Ustawa o sztucznej inteligencji jest punktem wyjścia dla nowego modelu zarządzania opartego na technologii. Teraz musimy skupić się na wprowadzeniu tego prawa w życie” – powiedział Dragoș Tudorache, współsprawozdawca Komisji Wolności Obywatelskich w Parlamencie Europejskim.

Inny współsprawozdawca, Brando Benifei, również podkreślił znaczenie utworzenia nowego Europejskiego Urzędu ds. Informacji, który „pomoże firmom rozpocząć przestrzeganie przepisów przed ich wejściem w życie”.

Rozporządzenie jest obecnie w tak zwanej procedurze naprawczej i oczekuje się, że zostanie przyjęte w nadchodzących miesiącach, przed końcem kadencji parlamentu. Następnie musi ona zostać formalnie zatwierdzona przez Radę Europejską. Oczekuje się, że wejdzie ona w życie 20 dni po opublikowaniu w Dzienniku Urzędowym i będzie w pełni stosowana w ciągu 24 miesięcy od tej daty, z wyjątkiem zakazów niedozwolonych praktyk, które będą musiały być przestrzegane już po sześciu miesiącach. Ponadto kodeksy postępowania muszą być gotowe po 9 miesiącach, zasady ogólnego przeznaczenia, w tym zarządzania, będą musiały być stosowane po 12 miesiącach, a obowiązki dotyczące programów wysokiego ryzyka – po 36 miesiącach.

Zgodnie z oficjalnym komunikatem prasowym Parlamentu Europejskiego wydanym po przyjęciu rozporządzenia, nakłada ono obowiązki na sztuczną inteligencję, w zależności od potencjalnego ryzyka i oczekiwanego wpływu. W szczególności zakazuje niektórych aplikacji i nakłada obowiązki na inne. Nakłada również wysokie grzywny za nieprzestrzeganie przepisów. Nowe przepisy zakazują niektórych zastosowań sztucznej inteligencji, które zagrażają prawom obywateli, w tym systemów kategoryzacji biometrycznej. Rozpoznawanie emocji w miejscach pracy i szkołach, scoring społecznościowy, predykcyjne działania policyjne (oparte wyłącznie na profilowaniu osoby lub ocenie jej cech) oraz sztuczna inteligencja, która manipuluje ludzkim zachowaniem lub wykorzystuje słabości ludzi, również zostaną zakazane.

Systemy sztucznej inteligencji ogólnego przeznaczenia (GPAI) i modele GPAI, na których są oparte, muszą spełniać określone wymogi w zakresie przejrzystości, w tym zgodności z prawem autorskim UE i publikacji szczegółowych streszczeń treści wykorzystywanych do szkolenia. Ponadto sztuczne lub zmanipulowane obrazy, treści audio lub wideo („deep fakes”) muszą być wyraźnie oznaczone jako takie.

Prawo UE po raz pierwszy definiuje systemy wysokiego ryzyka i poddaje je rygorystycznym zasadom. Zaczyna się od klasyfikacji systemów sztucznej inteligencji według ryzyka i stopniowo nakłada zasady w zależności od ryzyka, aż do całkowitego zakazu niektórych z nich. Innymi słowy, im bardziej ryzykowna aplikacja, tym bardziej rygorystyczne zasady. W związku z tym systemy rekomendacji treści lub filtry antyspamowe będą miały łatwiejsze zasady do przestrzegania i zostaną uznane za „ograniczone ryzyko”. Zasadniczo będą musieli tylko powiedzieć użytkownikom, że są zasilani przez sztuczną inteligencję. Inne systemy „wysokiego ryzyka” stworzone przez sztuczną inteligencję będą podlegać bardziej rygorystycznej kontroli. W związku z tym niektóre zastosowania niektórych z tych „systemów wysokiego ryzyka”, a mianowicie te oparte na rozpoznawaniu biometrycznym, oparte na wrażliwych cechach i nieukierunkowanym gromadzeniu obrazów z Internetu lub nagrań CCTV w celu tworzenia baz danych rozpoznawania twarzy, są zabronione. Na przykład ocena społeczna, która reguluje zachowanie ludzi, rozpoznawanie emocji w szkole lub w miejscu pracy, a także niektóre rodzaje policji predykcyjnej są zabronione. W drodze wyjątku są one dozwolone w przypadku poważnych przestępstw, takich jak porwanie lub terroryzm. W takich przypadkach dozwolone będzie skanowanie twarzy ludzi w miejscach publicznych za pomocą zdalnych systemów identyfikacji biometrycznej. W przypadku innych systemów AI wysokiego ryzyka – które mają znaczny potencjał szkodzenia zdrowiu, bezpieczeństwu, prawom podstawowym, środowisku, demokracji i praworządności – przewidziano pewne obowiązki.

Obywatele mają prawo do składania skarg na systemy AI

Przykłady zastosowań AI wysokiego ryzyka obejmują infrastrukturę krytyczną, edukację i szkolenia, zatrudnienie, podstawowe usługi prywatne i publiczne (np. opiekę zdrowotną, bankowość), niektóre systemy egzekwowania prawa, migrację i zarządzanie granicami, wymiar sprawiedliwości i procesy demokratyczne (np. wpływanie na wybory). Takie systemy muszą oceniać i ograniczać ryzyko, prowadzić dzienniki użytkowania, być przejrzyste i dokładne oraz zapewniać ludzki nadzór. Obywatele będą mieli również prawo do składania skarg dotyczących systemów sztucznej inteligencji i otrzymywania wyjaśnień na temat decyzji opartych na systemach sztucznej inteligencji wysokiego ryzyka, które mają wpływ na ich prawa, zgodnie z oficjalnym komunikatem prasowym Parlamentu Europejskiego. Pakiet ustaw o sztucznej inteligencji przewiduje nadzór nad stosowaniem tych zasad, z biurem, które ma zostać utworzone w ramach Komisji Europejskiej. Grzywny w wysokości 7% obrotu są również przewidziane dla firm nieprzestrzegających przepisów. To europejskie prawodawstwo jest wielkim zwycięstwem w walce z niebezpieczeństwami nieodpowiedzialnego korzystania z technologii opartych na sztucznej inteligencji i ogromnym krokiem naprzód w porównaniu z podejściem zagranicznym. W Stanach Zjednoczonych bezpieczeństwo w tej dziedzinie opiera się na wspólnym zobowiązaniu głównych firm w tej dziedzinie – w tym Google, Meta, Amazon, Microsoft i OpenIA – do wdrożenia środków w celu oznaczenia treści generowanych przez sztuczną inteligencję.

Fałszywe filmy wideo wykorzystywane do oszustw internetowych

Na początku tego roku rumuński minister energetyki Sebastian Burduja ogłosił, że złoży skargę karną po tym, jak jego twarz została wykorzystana w fałszywym filmie wideo. Prezes Narodowego Banku Rumunii, Mugur Isărescu, również padł ofiarą takiej internetowej manipulacji. W obu przypadkach twarz urzędnika została wykorzystana do promowania nieistniejących inwestycji. Natychmiast po tym, dwóch rumuńskich posłów do Parlamentu Europejskiego w Bukareszcie zgłosiło inicjatywę ustawodawczą mającą na celu zwalczanie tego zjawiska głębokiego fałszerstwa, która przewiduje kary więzienia dla osób uznanych za winne tworzenia takich filmów. Projekt ustawy wywołał szeroką debatę publiczną, a niektóre organizacje pozarządowe zajmujące się prawami człowieka argumentowały, że takie posunięcie naruszyłoby wolność słowa. Inne głosy poparły inicjatywę ustawodawczą, wzywając do surowych kar w przypadkach, gdy takie filmy mają poważny wpływ emocjonalny lub finansowy. Cała debata – poza dość hejterskim sposobem, w jaki powstał projekt ustawy – zasadniczo ujawnia potrzebę regulacji – w tym na szczeblu krajowym – w tym obszarze. Po tym, jak forma przyjęta przez Izbę Deputowanych radykalnie różniła się od tej przyjętej przez Senat – ten ostatni nakładał jedynie kary finansowe na sprawców głębokich fałszerstw, podczas gdy deputowani posunęli się nawet do kary pozbawienia wolności – projekt został odesłany do rozpatrzenia przez wyspecjalizowane komisje. Co, według europosła Dragoșa Tudorache, byłoby dobrą rzeczą, ponieważ jego zdaniem przyjęcie ustawy może poczekać, a Rumunia powinna podążać za liniami IA Act podczas jej opracowywania.

„Powiedziałbym, że ustawa o głębokich podróbkach w rumuńskim parlamencie może poczekać, ponieważ w rzeczywistości poprzez ustawę o IA regulujemy również ten obszar odpowiedzialności za głębokie podróbki. Zasadniczo więc, raz nie jest opcją. Prawo, które przyjdzie z poziomu europejskiego, zostanie wdrożone w Rumunii lub będzie musiało zostać wdrożone. Jak trudne to będzie, powtarzam, zależy od zdolności państwa rumuńskiego do przyciągnięcia odpowiednich ludzi do roli uznanej przez prawo dla tych organów (…)”, powiedział Dragos Tudorache.

W liście otwartym Active Watch, popartym przez dziewięć innych organizacji praw człowieka, wskazano, że tekst zawiera niejasności i terminy lub wyrażenia, które świadczą o powierzchownym zrozumieniu zjawiska. Pogląd ten podzieliła również Rada Legislacyjna i regulator rynku audiowizualnego CAN.

„Nie ma wyjątków chroniących formy wolności słowa, takie jak wykorzystanie głęboko fałszywych treści do celów pamfletowych lub artystycznych lub w produkcjach komercyjnych (reklamach) lub w przemyśle filmowym, jak to już ma miejsce w praktyce i jak przewidziano w przyszłym prawodawstwie europejskim”, zarzuca Active Watch.