fbpx

Zapobieganie rozprzestrzenianiu się dezinformacji generowanych przez sztuczną inteligencję

Nauka i technologia - 27 sierpnia, 2023

Minęło ponad 60 lat od czasu, gdy pojęcie sztucznej inteligencji zostało po raz pierwszy zaproponowane i zbadane, a ludzkość osiągnęła swoje obecne możliwości. W ciągu ostatniej dekady dziedzina sztucznej inteligencji (AI) znacznie się rozwinęła, ale nigdy szybciej niż w ciągu ostatnich dwóch lat, kiedy wiele czynników połączyło się w niemal idealny sposób i zapewniło ludzkości spektakularne programy, takie jak ChatGPT.

Komisja Europejska wymaga, aby platformy internetowe wyraźnie identyfikowały treści – obrazy (zdjęcia i filmy), dźwięki, teksty – generowane przez sztuczną inteligencję (AI). Wiceprzewodnicząca Komisji Europejskiej ds. wartości i przejrzystości Vera Jourova zwróciła się z apelem do sygnatariuszy kodeksu najlepszych praktyk UE w zakresie zwalczania dezinformacji, z którymi spotkała się niedawno w Brukseli. Jest to nowy środek w strategii Komisji mający na celu zapobieganie rozprzestrzenianiu się dezinformacji, zwłaszcza dezinformacji w Internecie, w celu zapewnienia ochrony europejskich wartości i systemów demokratycznych.

Władze wykonawcze UE chcą wdrożyć ten środek natychmiast, chociaż największe platformy, z ponad 45 milionami aktywnych użytkowników w UE, będą podlegać obowiązkom wynikającym z nowej ustawy o usługach cyfrowych (DSA) dopiero od25 sierpnia. Rozporządzenie wymaga „stosowania widocznych oznaczeń” w celu zapewnienia, że „wygenerowane lub zmanipulowane treści audio lub wideo są rozpoznawalne”.

Kodeks postępowania nie jest prawnie wiążący

Kodeks postępowania przeciwko dezinformacji, podpisany w 2022 r., który nie jest prawnie wiążący, zrzesza około 40 organizacji, w tym Facebook, Google, YouTube i TikTok. Co ciekawe, Twitter niedawno opuścił grupę.

„Sygnatariusze, którzy integrują generatywną sztuczną inteligencję w swoich usługach, takich jak Bing Chat dla Microsoft i Bard dla Google, powinni zintegrować niezbędne zabezpieczenia, aby usługi te nie mogły być wykorzystywane przez złośliwe podmioty generujące dezinformację” – powiedziała Vera Jourova.

Z drugiej strony, sygnatariusze, którzy mają usługi mogące rozpowszechniać dezinformację generowaną przez sztuczną inteligencję, powinni wdrożyć technologię rozpoznawania takich treści i wyraźnego wskazywania ich użytkownikom, dodał unijny urzędnik.

Rozporządzenie w sprawie sztucznej inteligencji zakazuje „celowej” manipulacji

Unia Europejska negocjuje obecnie szczegółowe przepisy dotyczące sztucznej inteligencji, które określałyby obowiązki w zakresie przejrzystości dla twórców treści redakcyjnych ChatGPT. Po miesiącach intensywnych dyskusji, pod koniec kwietnia posłowie osiągnęli wstępne porozumienie polityczne w sprawie pierwszego na świecie rozporządzenia dotyczącego sztucznej inteligencji. Ustawa o sztucznej inteligencji (AI) to wniosek ustawodawczy mający na celu uregulowanie sztucznej inteligencji w oparciu o jej potencjał do wyrządzania szkód i wpływania na zamiary wyborcze użytkowników mediów społecznościowych. Oczekuje się, że tekst, który prawdopodobnie ulegnie zmianom, zostanie poddany pod głosowanie w Parlamencie Europejskim. Jego zasady obejmują ludzką sprawczość i nadzór, solidność techniczną i bezpieczeństwo, prywatność i zarządzanie danymi, przejrzystość, dobrobyt społeczny i środowiskowy, różnorodność, niedyskryminację i sprawiedliwość.

Jeden z najbardziej kontrowersyjnych tematów dyskusji w negocjacjach dotyczył systemów sztucznej inteligencji, które nie mają określonego celu. Rezultatem – wstępnym – było nałożenie bardziej rygorystycznych obowiązków na podkategorię sztucznej inteligencji ogólnego przeznaczenia, która obejmuje modele takie jak GhatGPT. Ustalono również, że generatywne modele sztucznej inteligencji powinny być projektowane i rozwijane zgodnie z przepisami UE i prawami podstawowymi, w tym wolnością wypowiedzi.

Innym drażliwym politycznie tematem był rodzaj aplikacji AI, które powinny zostać zakazane, ponieważ są uważane za niedopuszczalne ryzyko. Doprowadziło to do propozycji zakazania narzędzi AI do ogólnego monitorowania komunikacji interpersonalnej, ale propozycja ta została porzucona. Z drugiej strony wprowadzono rozszerzenie zakazu stosowania oprogramowania do identyfikacji biometrycznej. Początkowo zakaz ten obowiązywał tylko w czasie rzeczywistym, oprogramowanie rozpoznające mogło być używane tylko ex-post w przypadku poważnych przestępstw i za uprzednią zgodą sądu.

Rozporządzenie AI zakazuje również „celowej” manipulacji. Słowo „umyślny” było przedmiotem debaty, ponieważ przeciwnicy tego sformułowania argumentowali, że umyślność może być trudna do udowodnienia, ale ostatecznie zostało ono utrzymane. Jednocześnie osiągnięto formułę, w której korzystanie z oprogramowania AI do rozpoznawania emocji jest zabronione w obszarach egzekwowania prawa, zarządzania granicami, zatrudnienia i edukacji.

Zakaz policji predykcyjnej został rozszerzony z przestępstw kryminalnych na wykroczenia administracyjne, w oparciu o holenderski skandal z zasiłkami na dzieci, który doprowadził do niesłusznego oskarżenia tysięcy rodzin o oszustwo z powodu wadliwego algorytmu wykorzystywanego przez sztuczną inteligencję.

Wreszcie, modele AI wysokiego ryzyka zostały sklasyfikowane w załączniku. Oznacza to, że model wysokiego ryzyka będzie uważany za taki, który stwarza znaczące ryzyko dla zdrowia, bezpieczeństwa lub praw podstawowych. Podobnie, sztuczna inteligencja wykorzystywana do zarządzania infrastrukturą krytyczną, taką jak sieci energetyczne lub systemy zarządzania wodą, będzie również klasyfikowana jako wysokie ryzyko, jeśli wiąże się z poważnym zagrożeniem dla środowiska.

Posłowie uwzględnili również dodatkowe środki dotyczące procesu, w ramach którego dostawcy modeli sztucznej inteligencji wysokiego ryzyka mogą przetwarzać wrażliwe dane, takie jak orientacja seksualna lub przekonania religijne, w celu wykrycia negatywnych predyspozycji. W szczególności, aby umożliwić przetwarzanie tego konkretnego rodzaju danych, uprzedzenia nie mogą być wykrywalne poprzez syntetyczne, anonimowe, pseudonimowe lub zaszyfrowane przetwarzanie danych. Ponadto ocena musi odbywać się w kontrolowanym środowisku. Dane wrażliwe nie mogą być przekazywane innym stronom i muszą zostać usunięte po przeprowadzeniu oceny stronniczości. Dostawcy muszą również udokumentować, dlaczego doszło do przetwarzania danych. Sztuczna inteligencja (AI) jest uważana za „technologię definiującą przyszłość”.

Czym dokładnie jest sztuczna inteligencja i jak już wpływa na nasze życie? Definicja sztucznej inteligencji

Sztuczna inteligencja jest postrzegana jako klucz do cyfrowej transformacji społeczeństwa i stała się priorytetem dla Unii Europejskiej, co znajduje odzwierciedlenie w jej oficjalnych dokumentach. Oczekuje się, że przyszłe zastosowania przyniosą ogromne zmiany w społeczeństwie, ale sztuczna inteligencja jest już obecna w naszym codziennym życiu. Sztuczna inteligencja to zdolność maszyny do naśladowania ludzkich funkcji, takich jak rozumowanie, uczenie się, planowanie i kreatywność. Sztuczna inteligencja pozwala systemom technicznym postrzegać środowisko, w którym działają, przetwarzać tę percepcję i rozwiązywać problemy, działając w celu osiągnięcia określonego celu. Komputer odbiera dane (już przygotowane lub zebrane za pomocą własnych czujników, takich jak kamera), przetwarza je, a następnie reaguje.

Systemy AI są w stanie do pewnego stopnia dostosować swoje zachowanie, analizując skutki poprzednich działań i działając autonomicznie. Niektóre technologie sztucznej inteligencji istnieją już od ponad 50 lat, ale zwiększona moc obliczeniowa, dostępność ogromnych ilości danych i nowe algorytmy doprowadziły w ostatnich latach do znacznych postępów w tej dziedzinie.

W jaki sposób wykorzystywana jest technologia deep fake lub propaganda?

Dzisiejsze media borykają się z dużymi problemami stworzonymi przez sztuczną inteligencję, która „sieje spustoszenie w świecie mediów”. W badaniu przeprowadzonym przez Reporterów bez Granic (RSF) przeanalizowano stan dziennikarstwa w 180 krajach, biorąc pod uwagę zmiany polityczne, społeczne i technologiczne.

Wyniki są niepokojące. Niezwykły rozwój sztucznej inteligencji stwarza jeszcze więcej problemów dla mediów. W raporcie stwierdzono, że przemysł dezinformacyjny rozpowszechnia manipulacyjne treści na dużą skalę, jak wykazało dochodzenie przeprowadzone przez konsorcjum Forbidden Stories, a sztuczna inteligencja nie bierze pod uwagę wymogów jakości dziennikarstwa.

Program sztucznej inteligencji (piąta wersja Midjourney), który generuje obrazy w bardzo wysokiej rozdzielczości w odpowiedzi na monity słowne, zasila media społecznościowe coraz bardziej wiarygodnymi i niewykrywalnymi fałszywymi „zdjęciami”. Wiele z tych postów staje się wirusowych. Dziennikarstwo w interesie publicznym stanęło w obliczu ogromnej konkurencji ze strony wprowadzających w błąd narracji i fałszywych wiadomości promowanych przez niektóre media i polityków oraz oprogramowanie sztucznej inteligencji, zwłaszcza w kontekście pandemii Covid-19, a ostatnio wojny na Ukrainie. Niestety, jest wystarczająco dużo osób, które mają tendencję do ufania fałszywym informacjom, które czasami zbiegają się z rosyjską propagandą i podsycają nieufność do mediów.