fbpx

EU:s kontor för artificiell intelligens inrättas

Juridisk - mars 18, 2024

Byrån kommer att övervaka genomförandet av AI-lagen

I februari 2024 trädde Europeiska kommissionens beslut i kraft, genom vilket Europeiska byrån för artificiell intelligens inrättades inom generaldirektoratet för kommunikationsnät, innehåll och teknik (GD CNECT), som ett slags internt organ inom själva kommissionen. Det är förvisso en viktig nyhet och ett bevis på EU:s intresse för denna fråga, men dess funktioner verkar ha minskats jämfört med Europaparlamentets ursprungliga önskemål, där man hade tänkt sig att inrätta ett organ som skulle kunna centralisera tillämpningen av alla AI-standarder.

Artificiell intelligens ACT: vad det är och vad det gör

Byrån kommer att ha till uppgift att underlätta genomförandet av lagen om artificiell intelligens, som – när den slutligen godkänns – kommer att utgöra världens första förordning om användning av AI och som ingår i EU:s digitala strategi, genom vilken Europeiska unionen vill säkerställa en mer noggrann och genomtänkt utveckling och användning av denna nya teknik. Förordningen har sin grund i den europeiska strategin för artificiell intelligens, som presenterades 2018, och vitboken om AI, som presenterades 2020, och utgör EU:s val att ingripa i frågan först och på ett kraftfullt sätt, för att påverka och inte vara underkastad utvecklingsprocessen för styrningen av tekniken.

Artificiell intelligens (AI) är idag en av de största utmaningarna för mänskligheten, på grund av dess enorma potential – som vissa till och med kallar revolutionär – men också med stora risker. Användningen av AI inom områden som medicin, utbildning och teknik öppnar möjligheten för stora och snabba omvandlingar som kan medföra betydande förbättringar i livet för oss alla. Det är dock nödvändigt att inte förbise den fara för individer och samhället som helhet som användningen av sådan teknik kan medföra om den inte regleras på lämpligt sätt.

Den första lagstiftningsramen som syftar till att reglera artificiell intelligens och dess användning lades fram av Europeiska kommissionen i april 2021, men det var inte förrän i december 2023 som Europaparlamentet och Europeiska rådet lyckades nå en preliminär överenskommelse.

Efter ett första klartecken till texten från Europeiska unionens råd hade Europaparlamentet röstat om sitt eget förslag, som antogs med stor majoritet, 499 röster för, 28 emot och 93 nedlagda röster, och som innehöll en utvidgning av förteckningen över högrisktillämpningar och förbjudna AI-metoder. Texten låg till grund för förhandlingarna mellan parlamentet, Europeiska kommissionen och Europeiska rådet.

Utkastet till förordning innehåller redan förslag om beräkning av eventuella sanktioner som skall åläggas företag som bryter mot de regler som fastställts av Bryssel.

Riskbedömning och principer för en god lagstiftning

AI Act syftar till att främja utvecklingen av AI i alla 27 medlemsländer, men med tydliga principer och regler som måste följas, inte minst för att förebygga och hantera de potentiella risker som denna nya teknik utgör när det gäller säkerhet och rättigheter. AI-system som anses vara farliga för EU-medborgarnas och alla människors säkerhet, försörjning och grundläggande rättigheter (på en skala med fyra nivåer, identifierade som ”minimal risk”, ”begränsad risk”, ”hög risk” och ”oacceptabel risk”) kommer att förbjudas. En risk som klassificeras som oacceptabel och därför förbjuden är t.ex. den sociala poäng som används av Kinas regering; oacceptabel anses också vara den psykologiska betingning som utövas av vissa reklambudskap. En hög risk anses föreligga t.ex. vid val av personal eller operationer som utförs med hjälp av assisterad kirurgi. En låg risk anses till exempel vara chatbots. Slutligen anses videospel och antispamsystem utgöra en låg risk.

Men vilka är de avgörande punkterna för att anta en bra, slutlig lagstiftning? I sin slutliga version bör förordningen först och främst ta upp säkerhetsfrågan, i syfte att fastställa kvalitetsstandarder för att förhindra skador från missbruk eller eventuella funktionsfel hos AI-system gentemot användare. Det är också viktigt att klargöra vem som är juridiskt ansvarig för de val som görs (och därmed för eventuella misstag) av AI, så att medborgarna kan garanteras i händelse av skada. En annan viktig faktor är att se till att de val som AI gör är transparenta och begripliga för människor. Sist men inte minst, och inte mindre viktigt, är frågan om integritet, som alltmer framstår som ett nyckelområde som måste skyddas.

AI-kontorets uppgifter

Byrån kommer först och främst att ha till uppgift att utarbeta riktlinjer och anvisningar som kan underlätta en tydlig användning av den relevanta lagstiftningen. I förordningen klargörs att byrån inte kommer att ersätta eller på något sätt åsidosätta de särskilda befogenheter som medlemsstaterna och de ansvariga nationella myndigheterna har, utan bör ses som ett stödjande och vägledande organ.

Byrån kommer därför att arbeta på nationell nivå och EU-nivå för att underlätta harmonisering och tillämpning av AI-lagstiftning, övervaka så kallade General-Purpose AI-system (GPAI), dvs. system som använder AI, och utveckla metoder för att utvärdera användningsmönster (t.ex. OpenAI:s GPT-4, som är ansvarig för chattboten ChatGPT).

Byrån kommer också att behöva hantera de regler som ska tillämpas enligt den nya förordningen med avseende på system för artificiell intelligens som redan omfattas av andra EU-förordningar, såsom lagen om digitala tjänster på sociala medier.

En kort översikt över det internationella sammanhanget

Medan Europeiska unionen arbetar för att slutligt anta förordningen om artificiell intelligens, riktar andra internationella organ också sin uppmärksamhet mot behovet av att kontrollera utvecklingen och styrningen av denna nya teknik och dess tillämpning.

FN:s organisation för utbildning, vetenskap och kultur (UNESCO), som är ett specialorgan inom FN med syfte att främja fred och säkerhet i världen, utfärdade ”Recommendation on the Ethics of Artificial Intelligence”, som antogs av alla 193 medlemsländer. UNESCO ville fokusera på fyra kärnvärden, kopplade till tio allmänna principer som skyddar människan i den etiska användningen av AI.

På FN-nivå inrättade generalsekreterare António Guterres en högnivåkommitté för digitalt samarbete för att underlätta en konstruktiv dialog om de möjligheter som tekniken erbjuder för att främja människors välbefinnande, samtidigt som man naturligtvis hanterar risker och förhindrar skada. I några av rekommendationerna i ”The age of digital interdependence – Report of the UN Secretary-General’s High-level Panel on Digital Cooperation” betonas behovet av intelligenta system som kan förklara sina beslut. Ett annat tema som också framkom här är vikten av att tydligt kunna identifiera vems ansvar det är att använda dem, i händelse av skada.

FN:s vice generalsekreterare Amina J. Mohammed tog i sitt tal vid evenemanget ”Advancing the Global Goals with artificial intelligence” också upp utvecklingen av artificiell intelligens och beskrev den som ett av vår tids viktigaste framsteg, till exempel på grund av den användning som redan görs inom vissa strategiska sektorer som industriell automation. Men vice ministern ville också lyfta fram riskerna med oetisk och oreglerad användning av AI, t.ex. ökad ojämlikhet eller risken för manipulation av politiska processer och information.