fbpx

Przyjęcie AI Act przez Radę Europejską: Krok naprzód w regulowaniu sztucznej inteligencji

Prawna - 28 maja, 2024

Rada Unii Europejskiej zatwierdziła niedawno ustawę o sztucznej inteligencji (AI Act), co stanowi znaczący przełom w regulacjach dotyczących sztucznej inteligencji (AI). Przepisy te stanowią duży krok naprzód dla Unii Europejskiej, pozycjonując ją jako światowego lidera w zakresie regulacji nowych technologii. AI Act ma na celu stworzenie jasnych i spójnych ram regulacyjnych dla wykorzystania sztucznej inteligencji, przy jednoczesnym zapewnieniu ochrony praw podstawowych obywateli europejskich.

Zarządzanie szansami i zagrożeniami związanymi ze sztuczną inteligencją na poziomie UE

Ustawa o sztucznej inteligencji wynika z potrzeby zarządzania szansami i zagrożeniami związanymi ze sztuczną inteligencją. Komisja Europejska podkreśliła znaczenie zrównoważonego podejścia, które promuje innowacje technologiczne, jednocześnie chroniąc podstawowe wartości UE. Rozporządzenie ma zastosowanie do wszystkich podmiotów, publicznych i prywatnych, które opracowują lub wykorzystują systemy sztucznej inteligencji na rynku europejskim, niezależnie od ich lokalizacji geograficznej.
Jednym z najważniejszych aspektów prawa AI jest precyzyjna definicja systemu AI. Zgodnie z tekstem, system sztucznej inteligencji to zestaw technologii zdolnych do działania z różnym stopniem autonomii i dostosowywania się do otrzymywanych danych wejściowych. Systemy te mogą generować dane wyjściowe, takie jak prognozy, treści, zalecenia lub decyzje, które mają wpływ na środowisko fizyczne lub wirtualne.

Klasyfikacja ryzyka

Rozporządzenie przyjmuje podejście oparte na ryzyku i klasyfikuje systemy AI w czterech kategoriach: niskiego, ograniczonego, wysokiego i niedopuszczalnego ryzyka. Każda kategoria wiąże się z innymi obowiązkami i wymaganiami dla deweloperów i użytkowników. Niedopuszczalne systemy ryzyka, takie jak te wykorzystywane do kontroli społecznej lub manipulacji zachowaniem, są zakazane. Systemy wysokiego ryzyka muszą spełniać rygorystyczne wymogi zgodności, zanim zostaną wprowadzone na rynek.

Zwolnienia i wyłączone wnioski dotyczące obronności i bezpieczeństwa narodowego

Nie wszystkie systemy sztucznej inteligencji mieszczą się w wąskim zakresie rozporządzenia. Istnieją wyłączenia dla systemów wykorzystywanych do celów wojskowych, obronnych lub bezpieczeństwa narodowego, a także tych wykorzystywanych w badaniach naukowych lub udostępnianych jako oprogramowanie open source. Ponadto ustawa o sztucznej inteligencji nie ma zastosowania do użytku osobistego przez osoby prywatne, zgodnie z modelem RODO.

Skutki dla przedsiębiorstw: obowiązki w zakresie oceny ryzyka i wymogi zgodności

Ustawa o sztucznej inteligencji nakłada znaczące obowiązki na firmy, które opracowują lub wykorzystują systemy sztucznej inteligencji. Muszą one dokładnie ocenić ryzyko związane z ich systemami i zapewnić, że spełniają one wymogi zgodności określone w ustawie. Kary za nieprzestrzeganie przepisów mogą wynieść do 35 milionów euro lub 7% globalnego rocznego obrotu firmy, w zależności od tego, która z tych kwot jest wyższa.

Harmonogram zapewnienia zgodności

Przedsiębiorstwa i organy administracji publicznej będą miały rozłożony w czasie okres na dostosowanie się do nowych przepisów. Zakazane systemy muszą zostać wyeliminowane w ciągu sześciu miesięcy od wejścia w życie rozporządzenia. Ogólne zasady zarządzania wejdą w życie w ciągu dwunastu miesięcy, natomiast pełne wdrożenie rozporządzenia spodziewane jest w ciągu dwóch lat.
Przyjęcie ustawy o sztucznej inteligencji zostało przyjęte z zadowoleniem przez wielu europejskich ekspertów i polityków. Prawie plebiscytowe głosowanie w Parlamencie Europejskim, z 523 głosami za, 46 przeciw i 49 wstrzymującymi się, pokazuje szeroki konsensus co do potrzeby uregulowania AI. Niektórzy krytycy obawiają się jednak, że zbyt sztywne regulacje mogą stłumić innowacje i sprawić, że europejskie firmy będą mniej konkurencyjne niż te w innych regionach świata.
AI Act jest decydującym krokiem w kierunku zrównoważonej i przyszłościowej regulacji sztucznej inteligencji w Europie. Nie tylko chroni prawa obywateli europejskich, ale także ustanawia globalny precedens w zarządzaniu nowymi technologiami. Przedsiębiorstwa będą musiały stawić czoła poważnym wyzwaniom związanym z adaptacją, ale UE zapewnia jasne ramy, aby zapewnić, że sztuczna inteligencja jest rozwijana i wykorzystywana w sposób bezpieczny i etyczny.
Ustawa o sztucznej inteligencji będzie miała ogromny wpływ na rozwój i wykorzystanie sztucznej inteligencji w nadchodzących latach, stawiając Europę w centrum globalnej sceny jako lidera w dziedzinie regulacji technologicznych.