fbpx

Основана е канцеларијата на ЕУ за вештачка интелигенција

Правни - март 18, 2024

Канцеларијата ќе го надгледува спроведувањето на Законот за вештачка интелигенција

Во февруари 2024 година, стапи на сила одлуката на Европската комисија, преку која беше формирана Европската канцеларија за вештачка интелигенција во рамките на Генералниот директорат за комуникациски мрежи, содржина и технологии (DG CNECT), како еден вид внатрешна агенција во самата Комисија. Тоа секако претставува важна новина и демонстрација на интересот на ЕУ за ова прашање; сепак, се чини дека неговите функции се намалени во споредба со првичните желби на Европскиот парламент, кој предвидуваше создавање на тело кое би можело да ја централизира примената на сите стандарди за вештачка интелигенција.

АКТ за вештачка интелигенција: што е тоа и што прави

Канцеларијата ќе има задача да го олесни спроведувањето на Законот за вештачка интелигенција, кој ќе претставува – кога конечно ќе биде одобрен – првата регулатива во светот за употреба на вештачка интелигенција и која е дел од Дигиталната стратегија на ЕУ, преку која Европската унија сака да обезбеди повнимателен и повнимателен развој и употреба на оваа нова технологија. Регулативата е вкоренета во Европската стратегија за вештачка интелигенција, која беше претставена уште во 2018 година, и Белата книга за вештачка интелигенција, претставена во 2020 година, и го претставува изборот на Европската Унија да интервенира на темата прво и инцизивно, со цел да се влијае, а не да биде подложен на развојниот процес на управувањето со технологијата.

Вештачката интелигенција (ВИ) денес претставува еден од најголемите предизвици со кои се соочува човештвото, поради неговиот огромен потенцијал – кој некои го нарекуваат дури и револуционерен – но и со големи ризици. Употребата на ВИ во области како што се медицината, образованието и инженерството отвора можност за големи и брзи трансформации кои можат да донесат значителни подобрувања во животот на сите нас. Сепак, неопходно е да не се занемари опасноста за поединците и општеството во целина што може да ја има употребата на таква технологија таму каде што не е соодветно регулирана.

Првата законска рамка насочена кон регулирање на вештачката интелигенција и нејзината употреба беше претставена од Европската комисија во април 2021 година, но дури во декември 2023 година Европскиот парламент и Европскиот совет успеаја да постигнат привремен договор.

По првичното одобрение за текстот од страна на Советот на Европската унија, Европскиот парламент гласаше за сопствениот предлог, кој беше усвоен со големо мнозинство, со 499 гласа за, 28 против и 93 воздржани, а во кој беа вклучени проширување на листата на апликации со висок ризик и забранети практики за вештачка интелигенција. Текстот беше основа за преговори меѓу Парламентот, Европската комисија и Европскиот совет.

Нацрт-регулативата веќе содржи предлози за пресметка на можни санкции што треба да се воведат за компаниите што ги прекршуваат правилата поставени од Брисел.

Проценка на ризик и принципи за добар закон

Актот за вештачка интелигенција има за цел да го поттикне развојот на вештачката интелигенција во сите 27 земји-членки, но со јасни принципи и правила кои мора да се следат, не само за да се спречат и да се решат потенцијалните ризици што оваа нова технологија ги носи во однос на безбедноста и правата. Системи за вештачка интелигенција кои ќе се сметаат за опасни за безбедноста, егзистенцијата и основните права на европските граѓани и на сите луѓе (на скала од 4 нивоа, идентификувани како „минимален ризик“, „ограничен ризик“, „висок ризик“ и „неприфатлив ризик’) ќе биде забрането. Ризик класифициран како неприфатлив и затоа забранет е, на пример, социјалната оценка што ја користи владата на Кина; неприфатливо се смета и психолошкото условување кое го вршат одредени рекламни пораки. Висок ризик се смета, на пример, изборот на персонал или операциите извршени со помош на хируршка интервенција. Низок ризик се сметаат, на пример, чат-ботови. Конечно, видео игрите и антиспам системите се сметаат за низок ризик.

Но, кои се клучните точки за донесување на добра, конечна легислатива? Секако, во својата конечна верзија, регулативата пред сè треба да се занимава со прашањето на безбедноста, со цел да се постават стандарди за квалитет за да се спречи оштетување од злоупотреба или евентуално неисправно функционирање на системите за вештачка интелигенција кон корисниците. Исто така, важно е да се разјасни кој ќе биде правно одговорен за направените избори (а со тоа и за сите направени грешки) од ВИ, за да може граѓаните да се гарантираат во случај на штета. Друг клучен фактор е да се обезбеди дека изборите направени од вештачката интелигенција се транспарентни и разбирливи за луѓето. Последно, но не и најмалку важно, не помалку важно е прашањето на приватноста, кое се повеќе се чини дека е клучна област што треба да се заштити.

Задачите на Канцеларијата за вештачка интелигенција

Канцеларијата ќе има, пред сè, задача да изготви насоки и насоки кои можат да го олеснат јасното користење на релевантното законодавство. Регулативата јасно става до знаење дека Канцеларијата нема да ги замени или на кој било начин ги поништи специфичните надлежности на одговорните земји-членки и националните власти, туку треба да се сфати како тело за поддршка и водич.

Затоа, Канцеларијата ќе работи на национално и на ниво на ЕУ за да го олесни усогласувањето и спроведувањето на законодавството за вештачка интелигенција, следејќи ги таканаречените системи за вештачка интелигенција за општа намена (GPAI), т.е. системи кои користат вештачка интелигенција и развивање методологии за евалуација на моделите на употреба (на пр. GPT-4 на OpenAI, кој е одговорен за четботот ChatGPT).

Канцеларијата, исто така, ќе треба да управува со правилата што ќе се применуваат според новата регулатива во однос на системите за вештачка интелигенција кои веќе се предмет на други регулативи на ЕУ, како што е Законот за дигитални услуги за социјалните медиуми.

Краток преглед на меѓународниот контекст

Додека Европската унија работи на конечното донесување на Регулативата за вештачка интелигенција, другите меѓународни тела исто така го фокусираат своето внимание на потребата да се контролира развојот и управувањето со оваа нова технологија и нејзината примена.

Организацијата на Обединетите нации за образование, наука и култура (УНЕСКО), која е специјализирана агенција на Обединетите нации со цел промовирање на мирот и безбедноста во светот, издаде „Препорака за етиката на вештачката интелигенција“, усвоена од сите 193 земји членки. УНЕСКО сакаше да се фокусира на четири основни вредности, поврзани со десет општи принципи кои го штитат човечкото суштество при етичката употреба на вештачката интелигенција.

На ниво на Обединетите нации, генералниот секретар Гутереш формираше комитет на високо ниво за дигитална соработка за да го олесни конструктивниот дијалог за можностите што ги нуди технологијата за унапредување на човековата благосостојба, притоа секако справувајќи се со ризиците и спречувајќи штети. Некои од препораките вклучени во „Доба на дигитална меѓузависност – Извештај на панелот на високо ниво на генералниот секретар на ОН за дигитална соработка“ ја нагласуваат потребата од интелигентни системи кои можат да ги објаснат нивните одлуки. Друга тема што исто така се појави овде е важноста да може јасно да се идентификува чија е одговорноста да ги користи, во случај на штета.

Заменик-генералниот секретар на ОН, Амина Џ. на пример поради употребата што веќе се прави од него во одредени стратешки сектори како што е индустриската автоматизација. Сепак, заменик-секретарот сакаше да ги истакне и ризиците поврзани со неетичката и нерегулирана употреба на вештачката интелигенција, како што е зголемувањето на нееднаквоста или опасноста од манипулација со политичките процеси и информации.