fbpx

Powstaje unijne biuro ds. sztucznej inteligencji

Prawna - 18 marca, 2024

Urząd będzie nadzorował wdrażanie ustawy o sztucznej inteligencji

W lutym 2024 r. weszła w życie decyzja Komisji Europejskiej, na mocy której Europejskie Biuro Sztucznej Inteligencji zostało utworzone w ramach Dyrekcji Generalnej ds. Sieci Komunikacyjnych, Treści i Technologii (DG CNECT), jako rodzaj wewnętrznej agencji w samej Komisji. Z pewnością stanowi on ważną nowość i dowód zainteresowania UE tą kwestią; wydaje się jednak, że jego funkcje zostały ograniczone w porównaniu z początkowymi życzeniami Parlamentu Europejskiego, który przewidywał utworzenie organu, który mógłby scentralizować stosowanie wszystkich standardów AI.

Ustawa o sztucznej inteligencji: czym jest i co robi

Urząd będzie miał za zadanie ułatwić wdrożenie ustawy o sztucznej inteligencji, która – po ostatecznym zatwierdzeniu – będzie stanowić pierwsze na świecie rozporządzenie w sprawie wykorzystania sztucznej inteligencji i która jest częścią strategii cyfrowej UE, poprzez którą Unia Europejska chce zapewnić bardziej ostrożny i przemyślany rozwój i wykorzystanie tej nowej technologii. Rozporządzenie jest zakorzenione w europejskiej strategii na rzecz sztucznej inteligencji, która została przedstawiona w 2018 r., oraz w białej księdze na temat sztucznej inteligencji, przedstawionej w 2020 r., i stanowi decyzję Unii Europejskiej o pierwszej i zdecydowanej interwencji w tym temacie, aby wpływać na proces rozwoju zarządzania technologią, a nie podlegać mu.

Sztuczna inteligencja (AI) stanowi obecnie jedno z największych wyzwań stojących przed ludzkością, ze względu na swój ogromny potencjał – który niektórzy nazywają nawet rewolucyjnym – ale także z ogromnym ryzykiem. Wykorzystanie sztucznej inteligencji w dziedzinach takich jak medycyna, edukacja i inżynieria otwiera możliwość wielkich i szybkich transformacji, które mogą przynieść znaczną poprawę życia nas wszystkich. Nie należy jednak zapominać o zagrożeniu dla jednostek i całego społeczeństwa, jakie może nieść ze sobą korzystanie z takiej technologii, jeśli nie jest ona odpowiednio uregulowana.

Pierwsze ramy prawne mające na celu uregulowanie sztucznej inteligencji i jej wykorzystania zostały przedstawione przez Komisję Europejską w kwietniu 2021 r., ale dopiero w grudniu 2023 r. Parlament Europejski i Rada Europejska zdołały osiągnąć wstępne porozumienie.

Po wstępnym zatwierdzeniu tekstu przez Radę Unii Europejskiej, Parlament Europejski głosował nad własną propozycją, która została przyjęta znaczną większością głosów, przy 499 głosach za, 28 przeciw i 93 wstrzymujących się, i która obejmowała rozszerzenie listy zastosowań wysokiego ryzyka i zakazanych praktyk AI. Tekst był podstawą negocjacji między Parlamentem, Komisją Europejską i Radą Europejską.

Projekt rozporządzenia zawiera już propozycje dotyczące obliczania możliwych sankcji nakładanych na firmy, które naruszają zasady określone przez Brukselę.

Ocena ryzyka i zasady dobrego prawa

AI Act ma na celu wspieranie rozwoju sztucznej inteligencji we wszystkich 27 państwach członkowskich, ale z jasnymi zasadami i regułami, których należy przestrzegać, między innymi w celu zapobiegania i przeciwdziałania potencjalnym zagrożeniom, jakie ta nowa technologia stwarza pod względem bezpieczeństwa i praw. Systemy sztucznej inteligencji, które zostaną uznane za niebezpieczne dla bezpieczeństwa, środków do życia i praw podstawowych obywateli europejskich i wszystkich ludzi (w czterostopniowej skali, określonej jako „minimalne ryzyko”, „ograniczone ryzyko”, „wysokie ryzyko” i „niedopuszczalne ryzyko”), zostaną zakazane. Ryzyko sklasyfikowane jako niedopuszczalne, a zatem zabronione, to na przykład wynik społeczny stosowany przez rząd Chin; za niedopuszczalne uważa się również uwarunkowania psychologiczne wywierane przez niektóre przekazy reklamowe. Za wysokie ryzyko uważa się na przykład dobór personelu lub operacje przeprowadzane za pomocą chirurgii wspomaganej. Za niskie ryzyko uważa się na przykład chatboty. Wreszcie, gry wideo i systemy antyspamowe są uważane za niskie ryzyko.

Ale jakie są kluczowe punkty dla uchwalenia dobrych, ostatecznych przepisów? Z pewnością w swojej ostatecznej wersji rozporządzenie powinno przede wszystkim odnosić się do kwestii bezpieczeństwa, w celu ustanowienia standardów jakości, aby zapobiec szkodom wynikającym z niewłaściwego użycia lub możliwego nieprawidłowego działania systemów AI wobec użytkowników. Ważne jest również wyjaśnienie, kto będzie prawnie odpowiedzialny za wybory dokonywane (a tym samym za wszelkie błędy) przez sztuczną inteligencję, tak aby obywatele mogli mieć gwarancję w przypadku szkód. Innym kluczowym czynnikiem jest zapewnienie, że wybory dokonywane przez sztuczną inteligencję są przejrzyste i zrozumiałe dla ludzi. Ostatnią, ale nie mniej ważną kwestią jest prywatność, która coraz częściej wydaje się być kluczowym obszarem wymagającym ochrony.

Zadania biura ds. sztucznej inteligencji

Urząd będzie miał przede wszystkim za zadanie opracowanie wytycznych i wskazówek, które mogą ułatwić jasne stosowanie odpowiednich przepisów. Rozporządzenie wyjaśnia, że Urząd nie zastąpi ani w żaden sposób nie uchyli szczególnych kompetencji państw członkowskich i odpowiedzialnych organów krajowych, ale powinien być rozumiany jako organ wspierający i prowadzący.

Urząd będzie zatem pracował na szczeblu krajowym i unijnym, aby ułatwić harmonizację i egzekwowanie przepisów dotyczących sztucznej inteligencji, monitorując tak zwane systemy sztucznej inteligencji ogólnego przeznaczenia (GPAI), tj. systemy wykorzystujące sztuczną inteligencję, oraz opracowując metodologie oceny wzorców użytkowania (np. GPT-4 OpenAI, który jest odpowiedzialny za chatbota ChatGPT).

Urząd będzie również musiał zarządzać zasadami, które mają być stosowane na mocy nowego rozporządzenia w odniesieniu do systemów sztucznej inteligencji, które już podlegają innym przepisom UE, takim jak ustawa o usługach cyfrowych w mediach społecznościowych.

Krótki przegląd kontekstu międzynarodowego

Podczas gdy Unia Europejska pracuje nad ostatecznym przyjęciem rozporządzenia w sprawie sztucznej inteligencji, inne organy międzynarodowe również koncentrują swoją uwagę na potrzebie kontrolowania rozwoju i zarządzania tą nową technologią i jej zastosowaniem.

Organizacja Narodów Zjednoczonych do spraw Oświaty, Nauki i Kultury (UNESCO), która jest wyspecjalizowaną agencją ONZ mającą na celu promowanie pokoju i bezpieczeństwa na świecie, wydała „Zalecenie w sprawie etyki sztucznej inteligencji”, przyjęte przez wszystkie 193 państwa członkowskie. UNESCO chciało skupić się na czterech podstawowych wartościach, powiązanych z dziesięcioma ogólnymi zasadami, które chronią człowieka w etycznym wykorzystaniu sztucznej inteligencji.

Na szczeblu Organizacji Narodów Zjednoczonych sekretarz generalny Guterres powołał komitet wysokiego szczebla ds. współpracy cyfrowej, aby ułatwić konstruktywny dialog na temat możliwości oferowanych przez technologię w celu poprawy dobrobytu ludzi, przy jednoczesnym uwzględnieniu zagrożeń i zapobieganiu szkodom. Niektóre z zaleceń zawartych w „The age of digital interdependence – Report of the UN Secretary-General’s High-level Panel on Digital Cooperation” podkreślają potrzebę inteligentnych systemów, które potrafią wyjaśnić swoje decyzje. Innym tematem, który również się tu pojawił, jest znaczenie możliwości jasnego określenia, kto jest odpowiedzialny za ich użycie w przypadku uszkodzenia.

Zastępca sekretarza generalnego ONZ Amina J. Mohammed, w swoim przemówieniu podczas wydarzenia „Realizacja globalnych celów dzięki sztucznej inteligencji”, również poruszyła temat rozwoju sztucznej inteligencji, opisując ją jako jeden z najważniejszych postępów naszych czasów, na przykład ze względu na jej wykorzystanie w niektórych strategicznych sektorach, takich jak automatyka przemysłowa. Zastępca sekretarza chciał jednak również zwrócić uwagę na zagrożenia związane z nieetycznym i nieuregulowanym wykorzystaniem sztucznej inteligencji, takie jak wzrost nierówności lub niebezpieczeństwo manipulacji procesami politycznymi i informacjami.