fbpx

Sztuczna inteligencja, Komisja wzywa rządy do mianowania członków Rady

Nauka i technologia - 12 kwietnia, 2024

W tym tygodniu Unia Europejska planuje wysłać komunikat do rządów krajowych z prośbą o wyznaczenie odpowiednich organów regulacyjnych ds. sztucznej inteligencji, jak ogłosił Roberto Viola, dyrektor generalny ds. cyfrowych w Komisji Europejskiej, 3 kwietnia. Komisja ogłosiła również utworzenie Europejskiego Urzędu ds. Sztucznej Inteligencji, który ma służyć jako nowy ogólnounijny organ regulacyjny ds. sztucznej inteligencji, działający w ramach Dyrekcji Generalnej ds. Sieci Komunikacyjnych, Treści i Technologii (DG CNECT).

Urząd ten ma za zadanie nadzorować, nadzorować i egzekwować przepisy dotyczące sztucznej inteligencji odnoszące się do modeli i systemów sztucznej inteligencji ogólnego przeznaczenia (GPAI) w 27 państwach członkowskich UE. Jego mandat obejmuje analizę nieoczekiwanego ryzyka systemowego, ocenę możliwości, badanie modeli sztucznej inteligencji oraz dochodzenie w sprawie możliwych naruszeń lub nieprzestrzegania przepisów. AI zainicjuje dobrowolne kodeksy postępowania dla deweloperów AI, których przestrzeganie będzie oznaczało zgodność z ustalonymi standardami.

Jak będzie działać Rada ds.

Biuro ds. sztucznej inteligencji ma odgrywać kluczową rolę w zacieśnianiu międzynarodowej współpracy w zakresie sztucznej inteligencji dla UE oraz we wzmacnianiu więzi między Komisją Europejską a sektorem akademickim, w tym nadchodzącym Komitetem Niezależnych Ekspertów Naukowych. Ma ona na celu ułatwienie wspólnych wysiłków 27 państw członkowskich w zakresie uchwalania przepisów, poprzez działania takie jak wspólne badania, i będzie funkcjonować jako administracyjne ramię Rady AI, rządowego forum na rzecz harmonizacji między krajowymi organami regulacyjnymi. Ponadto biuro będzie wspierać tworzenie regulowanych stref eksperymentalnych, umożliwiając firmom testowanie innowacji AI w regulowanym otoczeniu. Ma również na celu dostarczanie danych, wiedzy specjalistycznej i wsparcia małym i średnim przedsiębiorstwom, aby pomóc w zapewnieniu zgodności z przepisami.

Rada ds. AI, składająca się z delegata z każdego państwa członkowskiego, EIOD i Biura ds. AI (dwaj ostatni jako obserwatorzy bez prawa głosu), ma za zadanie zapewnić jednolitość i koordynację egzekwowania przepisów przez właściwe organy krajowe.
Biuro AI będzie działać jako sekretariat Rady, organizując spotkania na wniosek przewodniczącego i ustalając porządek obrad.
Rada będzie wspierać Urząd ds. AI w kierowaniu organami krajowymi w opracowywaniu piaskownic regulacyjnych oraz we wspieraniu współpracy i wymiany informacji między nimi.

Przy wsparciu Urzędu ds. AI władze krajowe państw członkowskich są zobowiązane do przestrzegania AI Act, europejskiego aktu prawnego mającego na celu regulowanie AI za pomocą ram opartych na ryzyku. Państwa członkowskie mają roczny termin na ustanowienie krajowych organów regulacyjnych ds. sztucznej inteligencji, które wspólnie utworzą Radę ds. sztucznej inteligencji, podmiot mający na celu standaryzację wdrażania prawa w całej UE.

Przepisy dotyczące sztucznej inteligencji, które mają zostać opublikowane w Dzienniku Urzędowym UE i wejść w życie w czerwcu, kategoryzują systemy sztucznej inteligencji według poziomu ryzyka od niskiego do wysokiego i zostały ratyfikowane przez prawodawców w zeszłym miesiącu. Zakazy wynikające z ustawy o sztucznej inteligencji będą egzekwowane do końca roku, podczas gdy ogólne przepisy dotyczące sztucznej inteligencji będą miały zastosowanie od czerwca 2025 r., a przepisy dotyczące systemów wysokiego ryzyka zostaną aktywowane trzy lata później.

Rekrutacja na stanowiska polityczne i techniczne w biurze ds. sztucznej inteligencji już trwa, przyciągając znaczną liczbę kandydatów i wykazując duże zainteresowanie tą dziedziną. Wybór dyrektora Biura ds. AI rozpocznie się dopiero po pełnym przyjęciu ustawy o AI.

Ustawa o sztucznej inteligencji, będąca pierwszą szczegółową regulacją dotyczącą sztucznej inteligencji wprowadzoną przez duży organ regulacyjny, podzieli aplikacje AI na trzy poziomy ryzyka. Niedopuszczalne zastosowania ryzyka, takie jak obsługiwane przez państwo mechanizmy oceny społecznej podobne do tych w Chinach, zostaną zakazane. Aplikacje wysokiego ryzyka, takie jak narzędzia do sprawdzania CV, będą musiały spełniać określone kryteria regulacyjne. Wreszcie, aplikacje, które nie są kategorycznie zabronione lub uznane za wysoce ryzykowne, będą podlegać minimalnym regulacjom.