fbpx

Europa, pierwszy kontynent, który reguluje IA

Nauka i technologia - 9 lutego, 2024

W ubiegłym roku na szczeblu UE uzgodniono bezprecedensowe globalne przepisy, czyniąc Europę pierwszym kontynentem, który narzucił zasady korzystania ze sztucznej inteligencji – AI. Projekt ustawy został przedstawiony przez Komisję w kwietniu 2021 r. i przyjęty przez Parlament Europejski dwa i pół roku później. Na proces regulacyjny wpłynęło pojawienie się ChatGPT – generatora tekstu opracowanego przez kalifornijską firmę, który uwypuklił, poza potencjałem sztucznej inteligencji, ryzyko związane z jej wykorzystaniem – i został wzmocniony przez dynamikę zjawiska deep fake – tj. kradzieży tożsamości, która opiera się na technologii manipulacji wideo.

Forma tekstu ustawy powinna zostać zatwierdzona w kwietniu przez Radę Europejską, a następnie państwa członkowskie będą miały dwa lata na jej wdrożenie. Dopiero okaże się, ile z nich zdoła dotrzymać terminu, ponieważ niektóre – na przykład Rumunia – dopiero teraz przyjmują krajowe strategie AI. Ale jeden kraj europejski wyprzedził wszystkich – w tym Brukselę – i już utworzył agencję nadzorującą sztuczną inteligencję. Tak jest w przypadku Hiszpanii, która zaczęła podejmować kroki w celu jego ustanowienia na długo przed wejściem w życie przepisów UE w 2022 roku. W ten sposób AESIA – Agencia Espaniol de Supervision de la Inteligencia Artificial – poza swoją wewnętrzną rolą, będzie w stanie pomóc organom brukselskim w szybszym i skuteczniejszym wdrażaniu przepisów dotyczących sztucznej inteligencji.

Prawo europejskie po raz pierwszy definiuje systemy wysokiego ryzyka i poddaje je rygorystycznym zasadom

Europejskie prawodawstwo w dziedzinie sztucznej inteligencji zostało opracowane w oparciu o potrzebę zachowania równowagi między ochroną demokracji i podstawowych praw człowieka a zachęcaniem do badań, innowacji i inwestycji w tej dziedzinie. Zaczyna się od klasyfikacji systemów AI według ryzyka i stopniowo nakłada zasady zgodnie z tym ryzykiem, aż do całkowitego zakazu niektórych z nich.

Innymi słowy, im bardziej ryzykowna aplikacja, tym bardziej rygorystyczne zasady. W związku z tym systemy rekomendacji treści lub filtry antyspamowe będą miały łatwiejsze zasady do przestrzegania i zostaną uznane za „ograniczone ryzyko”. Zasadniczo będą musieli tylko powiedzieć użytkownikom, że są zasilani przez sztuczną inteligencję. Inne systemy „wysokiego ryzyka” stworzone przez sztuczną inteligencję będą podlegać ściślejszej kontroli. Na przykład urządzenia medyczne będą musiały dostarczać dane wyższej jakości i jasne informacje dla użytkowników.

Niektóre zastosowania niektórych z tych „systemów wysokiego ryzyka”, w szczególności te, które opierają się na rozpoznawaniu biometrycznym, takie jak oceny społeczne, które regulują zachowanie ludzi, rozpoznawanie emocji w szkole lub w miejscu pracy, a nawet niektóre rodzaje policji predykcyjnej, są całkowicie zakazane. Chińskie systemy rozpoznawania twarzy również należą do tej kategorii, co jest sprzeczne z zasadami liberalnych demokracji. Ale nawet w demokracji pewne wyjątki są konieczne w przypadku poważnych przestępstw, takich jak porwanie lub terroryzm. W takich przypadkach dozwolone będzie skanowanie twarzy ludzi w miejscach publicznych za pomocą zdalnych systemów identyfikacji biometrycznej.

Pakiet ustaw o sztucznej inteligencji przewiduje nadzór nad stosowaniem tych zasad, z biurem, które ma zostać utworzone w ramach Komisji Europejskiej. Istnieją również wysokie grzywny dla firm, które nie zastosują się do przepisów, szacowane na 7% obrotu lub 35 mln euro. To europejskie prawodawstwo jest wielkim zwycięstwem w walce z niebezpieczeństwami nieodpowiedzialnego korzystania z technologii opartych na sztucznej inteligencji i ogromnym krokiem naprzód w porównaniu z podejściem zagranicznym. W Stanach Zjednoczonych bezpieczeństwo w tej dziedzinie opiera się na wspólnym zobowiązaniu głównych firm w tej dziedzinie – w tym Google, Meta, Amazon, Microsoft i OpenIA – do wdrożenia środków w celu oznaczenia treści generowanych przez sztuczną inteligencję.

Rumunia angażuje się w wojnę z deep fake’ami, wprowadzając ustawę, która ich nie zakazuje

Regulacja tego obszaru jest tym ważniejsza, że technologia manipulacji wideo staje się coraz bardziej wyrafinowana i dostępna dla ogółu społeczeństwa. Deep faking, pierwotnie wykorzystywany do tworzenia niekonsensownych treści pornograficznych, w ciągu zaledwie kilku lat stał się potężną bronią w dezinformacji i manipulacji opinią publiczną. Istnieje zatem uzasadniona obawa w całym europejskim spektrum politycznym, że technologia oparta na sztucznej inteligencji może zostać wykorzystana w kampaniach oszczerstw, do wpływania na kampanie wyborcze lub do narzucania ważnych środków politycznych. Jednymi z pierwszych osobistości, które padły ofiarą takich praktyk, byli byli prezydenci USA Barack Obama i Donald Trump, a wśród ofiar znaleźli się zmarła królowa Elżbieta II i papież Franciszek. Niedawno głębokie fałszerstwo uderzyło również w europejskie peryferia, a w Internecie pojawiły się sfałszowane zdjęcia prezydenta Mołdawii Mai Sandu.

Na tle obaw związanych ze zwalczaniem deep-fake, w Rumunii – kraju, który obecnie nie ma krajowej strategii AI – pojawił się projekt ustawy, która nie zakazuje takich obrazów, a jedynie wymaga ich oznaczania. Według inicjatorów „opinia publiczna musi być informowana o fałszywych treściach”. Jak dotąd projekt ustawy nie został ani przyjęty, ani odrzucony.

Rząd w Bukareszcie nie ma jeszcze strategii dotyczącej sztucznej inteligencji

Ministerstwo Cyfryzacji przedstawiło niedawno zaktualizowaną wersję projektu strategii AI na 2019 rok. Aby pokazać, że poważnie podchodzi do swojej pracy, szef cyfryzacji przygotował również decyzję, na mocy której strategia zostanie przyjęta przez rząd. Przyjęcie było początkowo planowane na 2020 r., a od tego czasu do chwili obecnej powołano komitet ds. sztucznej inteligencji w celu zebrania „inicjatyw w tej dziedzinie”, przeprowadzono konsultacje z firmami i jednostkami badawczymi, powstała nawet wspólna grupa robocza ministerstwa z uniwersytetem (Uniwersytet Techniczny w Klużu, miasto, które stało się głównym biegunem rozwoju IT w Rumunii), a wreszcie Ministerstwo Badań opracowało „ramy strategiczne”. Po kilku zmianach właścicieli teczek w ostatnich rządach w Bukareszcie, projekt został przejęty w zeszłym roku przez młodego ministra cyfryzacji, Bogdana Ivana.

Podczas inauguracji strategii na początku tego roku zapewnił, że dokument zawiera propozycje Rumuńskiego Komitetu ds. Sztucznej Inteligencji, który z kolei wziął pod uwagę wyniki konsultacji z ekspertami. Krótko mówiąc, celem strategii byłaby „ochrona praw Rumunów w środowisku online”. Jednocześnie rumuński minister podkreślił, że strategia jest inspirowana „konkretnymi działaniami” zaproponowanymi na szczeblu UE, ale jest „mocno zakorzeniona w specyficznych realiach i potrzebach rumuńskiego kontekstu”.

Wyjaśnieniem tego zakotwiczenia w „rumuńskich potrzebach” jest to, że rumuńska strategia AI została opracowana na… Fundusze europejskie, pozyskane na realizację projektu „Ramy strategiczne na rzecz przyjęcia i wykorzystania innowacyjnych technologii w administracji publicznej w latach 2021-2027”, finansowanego z unijnego Programu Operacyjnego „Zdolności administracyjne” na lata 2014-2020.

„Niezwykłe” wyniki „osiągnięć” Rumunii w dziedzinie gotowości do wdrażania technologii sztucznej inteligencji w rządzie odnotowano w indeksie Oxford Insights, w którym Rumunia zajmuje 64. miejsce na świecie i ostatnie w Europie Wschodniej. Według rankingu opracowanego przez brytyjską firmę, która doradza rządom i firmom w zakresie możliwości związanych ze sztuczną inteligencją, region ten jest daleko w tyle za Europą Zachodnią. W raporcie, który analizuje 193 kraje, trzy państwa członkowskie UE w Europie Zachodniej znalazły się w pierwszej dziesiątce, na czele z USA – Francja (6.), Niemcy (8.) i Holandia (10.).

Hiszpańska lekcja na temat tego, jak jedno państwo członkowskie może zapewnić konkretną pomoc we wdrażaniu ogólnounijnego prawodawstwa

Jednym z krajów, który radzi sobie znacznie lepiej niż inni członkowie bloku UE, jest, jak wspomniano powyżej, Hiszpania. Chociaż w tym rankingu Hiszpania znajduje się 17 miejsc za ostatnią w pierwszej dziesiątce, na 27. miejscu, jest pierwszym krajem UE, który już utworzył agencję odgrywającą rolę w tworzeniu prawa w zakresie sztucznej inteligencji. Posiada już biuro w A Coruna, finansowym i przemysłowym centrum Galicji. Według rządu w Madrycie, ma on również początkowy budżet w wysokości 5 mln euro i zatrudnia 23 pracowników, a w tym roku planowane jest zwiększenie ich liczby.

AESIA będzie kluczowym graczem w zarządzaniu i kierowaniu hiszpańskim ekosystemem sztucznej inteligencji, a do czasu wejścia w życie europejskich przepisów będzie sprawować dobrowolny nadzór nad tą dziedziną, współpracując z europejskim ekosystemem i generując regularne środowiska testowe dla systemów sztucznej inteligencji wysokiego ryzyka. W związku z tym AESIA rozpoczęła już prace nad piaskownicą dedykowaną hiszpańskim firmom. Piaskownice to środowiska testowe, które mają na celu pokazanie, jak coś – na przykład technologia – może działać przed uruchomieniem. Ale są one również przydatne w prawodawstwie. I to jest dokładnie to, co zrobi AESIA, aby dostarczyć wnioski z praktycznych ćwiczeń, które ułatwią ewentualne zmiany w przepisach przed ich wdrożeniem.