fbpx

Strategia AI i potencjalny wpływ na prawa własności intelektualnej

Nauka i technologia - 20 sierpnia, 2025

W dniu 8 lipca 2025 r. Wspólna Komisja ds. Sztucznej Inteligencji irlandzkiego parlamentu zwołała dyskusję z pierwszą irlandzką minister stanu ds. sztucznej inteligencji, Niamh Smyth, w celu zbadania pierwszej krajowej strategii AI, AI: Here for Good, i jej dostosowania do unijnej ustawy o sztucznej inteligencji.

Ten ostatni ma na celu przyjęcie ram opartych na ryzyku w celu uregulowania sztucznej inteligencji, zakazując praktyk takich jak scoring społecznościowy i nakazując ochronę przed dyskryminacją, podczas gdy wdrożenie w Irlandii, które ma być w pełni operacyjne do sierpnia 2026 r., przyjmuje coś, co zostało nazwane modelem rozproszonym, z ośmioma właściwymi organami, w tym Komisją Ochrony Danych i Irlandzką Komisją Praw Człowieka i Równości, których zadaniem jest egzekwowanie zgodności, w szczególności w zakresie praw podstawowych.

Podczas gdy debata Wspólnego Komitetu, pomyślana jako „przegląd sytuacji w kraju”, poruszyła kilka krytycznych kwestii, od konkurencyjności gospodarczej po transformację społeczną, jeden temat okazał się szczególnie kontrowersyjny: wykorzystanie sztucznej inteligencji w branżach kreatywnych i jego konsekwencje dla praw własności intelektualnej (IP).

Kwestia ta, poruszona przez socjaldemokratyczną posłankę Sinéad Gibney i powtórzona przez posła Paula Murphy’ego, nie tylko odzwierciedlała rosnące napięcie między wspieraniem innowacji a ochroną praw artystów i twórców, ale także ujawniła linię podziału w irlandzkiej strategii AI, która może mieć głębokie konsekwencje dla praw człowieka.

Posłanka Sinéad Gibney skupiła się na wykorzystaniu sztucznej inteligencji w marketingu i sztuce, kwestionując sposób, w jaki strategia Irlandii odnosi się do potencjalnej kradzieży własności intelektualnej.

Zauważyła, że systemy sztucznej inteligencji, w szczególności modele generatywne, często opierają się na zbiorach danych, które zawierają materiały chronione prawem autorskim pobrane z Internetu bez zgody twórców. Praktyka ta, jak argumentowała, grozi wykorzystywaniem artystów i podważaniem ich praw ekonomicznych i twórczych.

Zastępca Paul Murphy wzmocnił te obawy, powołując się na niedawny przypadek Conora Kosticka, członka Irlandzkiego Związku Pisarzy, który odkrył, że 52 jego prace, w tym 24 książki, zostały wykorzystane bez pozwolenia do szkolenia modeli sztucznej inteligencji Meta.

Murphy zapytał, czy takie modele powinny być dopuszczone do działania poza standardowymi ramami praw autorskich, na co minister Smyth odpowiedział jednoznacznie: „Nie”.

Ta wymiana zdań wykrystalizowała jednak krytyczną kwestię praw człowieka: prawo do kontrolowania własnej twórczości jako własności intelektualnej nie jest jedynie dobrem ekonomicznym, ale kamieniem węgielnym osobistej autonomii i wolności wypowiedzi.

Artykuł 27 Powszechnej Deklaracji Praw Człowieka uznaje prawo każdego do „ochrony moralnych i materialnych interesów wynikających z jakiejkolwiek produkcji naukowej, literackiej lub artystycznej”.

Zezwalając systemom sztucznej inteligencji na wykorzystywanie materiałów chronionych prawem autorskim, Irlandia ryzykuje naruszenie tej zasady, potencjalnie dławiąc wolność artystyczną i źródła utrzymania.

W ramach odpowiedzi na te obawy minister Smyth uznała znaczenie ochrony własności intelektualnej, wskazując na przepisy zawarte w unijnej ustawie o sztucznej inteligencji, które od sierpnia 2025 r. będą wymagać od dostawców technologii przestrzegania praw autorskich i ujawniania danych szkoleniowych organom regulacyjnym na żądanie. Potwierdziła również, że do sierpnia 2026 r. dalsze obowiązki zapewnią możliwość identyfikacji treści generowanych przez sztuczną inteligencję w formatach nadających się do odczytu maszynowego, co zwiększy przejrzystość.

Jednak zapytany przez Gibneya o to, czy Irlandia rozważy wprowadzenie krajowych przepisów w celu wyeliminowania luk w unijnej ustawie o sztucznej inteligencji, w szczególności w odniesieniu do kradzieży dzieł sztuki, Smyth przyznał, że jest „za wcześnie, by o tym mówić”, ale wyraził otwartość na ten pomysł.

Odpowiedź ta, choć pragmatyczna, pozostawiła niektórych członków komisji zaniepokojonych brakiem równowagi w irlandzkim podejściu, które wydaje się przedkładać innowacje biznesowe nad solidną ochronę twórców.

Ten brak konkretnych zobowiązań w zakresie przeciwdziałania kradzieży własności intelektualnej jest szczególnie uderzający, biorąc pod uwagę dziedzictwo kulturowe Irlandii, zwłaszcza gdy weźmie się pod uwagę ogromne wysiłki podjęte w celu promowania gigantów literackich, takich jak Joyce i Heaney, jako kluczowych ambasadorów irlandzkiego sektora kreatywnego.

Jednak strategia AI: Here for Good, jak zauważyli członkowie komisji, kładzie nacisk na wsparcie biznesowe, z niewielką wzmianką o zabezpieczeniach dla artystów.

Twierdzenie strategii, że unijna ustawa o sztucznej inteligencji nakłada „niewiele lub nie nakłada żadnych obowiązków” na firmy wykorzystujące sztuczną inteligencję do zwiększania produktywności, budzi obawy, że branże kreatywne mogą być narażone na wykorzystywanie przez gigantów technologicznych.

Szersze implikacje są oczywiste, biorąc pod uwagę, że debata na temat własności intelektualnej dotyczy nie tylko praw autorskich; przecina się ona z wolnością słowa i sprawiedliwością gospodarczą.

Artyści polegają na swojej pracy zarówno pod względem ekspresji, jak i źródła utrzymania. Jeśli systemy sztucznej inteligencji mogą swobodnie zbierać ich dzieła, grozi to dewaluacją ich pracy i uciszeniem ich głosów, ponieważ mogą nie mieć zasobów, aby konkurować z treściami generowanymi przez sztuczną inteligencję zalewającymi rynek.

Ta dynamika dotyka również wolności słowa, ponieważ jeśli firmy technologiczne zdominują tworzenie treści oparte na sztucznej inteligencji, mogą kształtować narracje i estetykę w sposób, który przedkłada interesy komercyjne nad różnorodne głosy.

Dyskusja komisji na temat proponowanej piaskownicy regulacyjnej, mającej zapewnić startupom wytyczne prawne i środowisko testowe, była również centralnym punktem debaty.

Podczas gdy minister Smyth określił go jako narzędzie wspierające innowacje w granicach prawa, Gibney zakwestionował sposób, w jaki poradziłby sobie z ryzykiem związanym z danymi osobowymi na żywo, co wiąże się z prawami do prywatności.

Otwartość ministra Smytha na krajowe ustawodawstwo mające na celu usunięcie tych luk jest pozytywnym sygnałem, ale potrzebne są konkretne działania, aby uspokoić artystów i chronić ich prawa.

Jednym z potencjalnych rozwiązań jest wzmocnienie egzekwowania praw autorskich w irlandzkich ramach AI. Mogłoby to obejmować wymóg uzyskania wyraźnej zgody na dane treningowe, wymaganie rekompensaty dla twórców, których prace są wykorzystywane, oraz ustanowienie przejrzystej ścieżki audytu dla modeli AI.

Ponadto Irlandia mogłaby wykorzystać swoją prezydencję w UE w 2026 r., aby opowiadać się za bardziej rygorystyczną ochroną własności intelektualnej na szczeblu europejskim, pozycjonując się jako orędownik zarówno innowacji, jak i praw człowieka.

Świadomość społeczna i edukacja, jak podkreśliło wielu członków komisji, są również kluczowe. Poprzez włączenie umiejętności korzystania ze sztucznej inteligencji do szkół i programów społecznościowych, Irlandia może umożliwić obywatelom poruszanie się po cyfrowym krajobrazie i bronienie swoich praw.

Planowana kampania na rzecz umiejętności korzystania ze sztucznej inteligencji dla osób starszych, skierowana do 60 000 osób, jest krokiem we właściwym kierunku, ale potrzebne są szersze wysiłki w celu zniwelowania przepaści cyfrowej.

Ostatecznie debata Wspólnej Komisji w dniu 8 lipca 2025 r. ujawniła ambitną wizję Irlandii dotyczącą sztucznej inteligencji, ale także ujawniła krytyczny martwy punkt: ochronę własności intelektualnej jako prawa człowieka.

Obawy zgłoszone przez posłów Gibneya i Murphy’ego podkreślają potrzebę bardziej zrównoważonego podejścia, które chroni twórców, jednocześnie wspierając innowacje.

W miarę jak Irlandia przygotowuje się do wdrożenia unijnej ustawy o sztucznej inteligencji i ustanowienia krajowego biura ds. sztucznej inteligencji, musi zapewnić, że jej strategia nie będzie traktować priorytetowo zysków ekonomicznych kosztem wolności artystycznej i sprawiedliwości gospodarczej.

Niezajęcie się tymi kwestiami grozi podważeniem zaufania publicznego i utrwaleniem nierówności, podważając roszczenia Irlandii do etycznego przywództwa w dziedzinie sztucznej inteligencji. Droga naprzód wymaga odważnych działań, zarówno legislacyjnych, jak i kulturowych, aby zapewnić, że sztuczna inteligencja służy wspólnemu dobru, zgodnie ze strategią ministra Smytha.

Podczas debaty poruszono również kwestię możliwości egzekwowania prawa. Kilku posłów wyraziło obawy, że irlandzki rozproszony model regulacyjny może osłabić odpowiedzialność, ponieważ osiem właściwych organów ma za zadanie sprawować nadzór, ale żaden organ nie ponosi ostatecznej odpowiedzialności. Krytycy ostrzegali, że takie rozdrobnienie grozi niespójnym stosowaniem prawa i może pozostawić luki, które mogą zostać wykorzystane przez większe firmy technologiczne posiadające zasoby do poruszania się po złożonych strukturach nadzoru. Obawy te potęgują wyniki Irlandii w zakresie egzekwowania przepisów o ochronie danych, gdzie krytycy zarzucali Komisji Ochrony Danych zbyt powolne działania przeciwko międzynarodowym firmom z siedzibą w Dublinie.

Kolejną nierozwiązaną kwestią jest finansowanie. Strategia AI: Here for Good zobowiązuje Irlandię do realizacji ambitnych celów, od zachęt badawczych po kampanie informacyjne, ale bez jasności co do trwałego wsparcia finansowego. Członkowie komisji zastanawiali się, czy organy regulacyjne, uniwersytety i branże kreatywne otrzymają odpowiednie zasoby, aby zapewnić prawdziwą równowagę między innowacjami a ochroną praw. Bez znaczących inwestycji strategia może stać się w dużej mierze dokumentem symbolicznym, a nie praktycznymi ramami.

Pod tym względem debata ujawniła fundamentalne napięcie: czy Irlandia wykorzysta sztuczną inteligencję do wzmocnienia swojej pozycji gospodarczej jako europejskiego centrum technologicznego, czy też przekalibruje swój model, aby również bronić swoich zobowiązań w zakresie kultury i praw człowieka.