Wpływ sztucznej inteligencji na demokrację i wybory – raport CETaS przy instytucie Alana Turinga

ai sztuczna inteligencja praca biuro
Rosyjskie sieci dezinformacji w Polsce. Ujawniono, jak próbują „wbić klin” w społeczeństwoShutterstock
dzisiaj, 07:58

Myślisz, że potrafisz odróżnić prawdę od dezinformacji? Rosyjskie grupy wpływu już teraz manipulują odpowiedziami w Twoim ulubionym czacie AI, a politycy coraz chętniej sięgają po deepfake’i, by uderzyć w konkurencję. Sam Stockwell, analityk czołowego brytyjskiego think-tanku, ujawnia kulisy cyfrowej wojny o nasze głosy i ostrzega: największe zagrożenie dla demokracji pojawia się dopiero po zamknięciu lokali wyborczych.

 *  Sam Stockwell z Centre for Emerging Technology and Security (CETaS), think-tanku przy Instytucie Alana Turinga - brytyjskim narodowym ośrodku badań nad sztuczną inteligencją

 Czy da się zmierzyć wpływ AI na demokrację?

 Wokół wpływu AI na demokrację i wybory narosło wiele mitów. W Centre for Emerging Technology and Security przy brytyjskim Instytucie Alana Turinga przygotowaliśmy serię raportów, w których analizujemy artykuły prasowe, informacje rządów i instytucji wyborczych, aby zrozumieć wpływ deepfake’ów i innych szkodliwych wytworów generatywnej AI na dotyczących wyborów na całym świecie.

Nasz pomysł polegał na zebraniu przykładów z różnych wyborów, a następnie zidentyfikowaniu podobieństw dotyczących tego, kto tworzył te treści, jak używana była sztuczna inteligencja, jaki wpływ wywarły te treści. Sprawdzaliśmy też reakcje użytkowników, np. komentarze, na temat, viralowych deepfake’ów, dotyczących polityków w czasie wyborów.

Jakkolwiek trudno nam zrozumieć, czy deepfake'i przyczyniły się samodzielnie do zmian wyników wyborów, bo nawet jeśli ktoś polubi deepfake lub udostępni go w mediach społecznościowych, to przecież nie wiemy, jak ostatecznie zagłosował w wyborach.

Na decyzję o tym oddamy głos, wpływa wiele czynników: rodzina, przyjaciele, względy ideologiczne. Zauważyliśmy jednak, że większość deepfake'ów szybko się rozprzestrzeniania się w sieci, ale też równie szybko gaśnie zainteresowanie nimi. Stają się viralami na 2-3 dni, może tydzień, a potem zainteresowanie nimi stygnie w czasie kampanii wyborczej. Wynika to w dużej mierze z ogromnej ilości treści, z jaką mamy do czynienia w sieci każdego dnia – łatwo jest zapomnieć o pojedynczym deepfake’u, jeśli później nie pojawia się on już w mediach społecznościowych. W rezultacie zmniejsza to prawdopodobieństwo ich wpływu na wyniki wyborów w porównaniu z innymi rodzajami ingerencji.

Czy odkryliście, jak Rosja próbuje wpływać na wybory w innych krajach?

Odkryliśmy wiele sieci dezinformacji, powiązanych z Rosją, które próbowały promować prokremlowskie, antyukraińskie narracje w krajach w czasie przed wyborami. Widzieliśmy więc przypadki, w których grupy powiązane z Rosją promowały artykuły generowane przez sztuczną inteligencję, które wyglądały jak oficjalne wiadomości. Miało to na celu wywieranie wpływu na jednostki w określonych kwestiach, na przykład dotyczących wojny na Ukrainie.

Rosja jest zainteresowana kształtowaniem dyskursu publicznego, narracji i poglądów obywateli w całym regionie środkowej i wschodniej Europy ze względu na ich położenie geograficzne. W Polsce, podobnie jak np. na Węgrzech, Czechach czy krajach bałtyckich, odkryliśmy, że wiele operacji dezinformacyjnych było skierowane wobec partii lub kandydatów popierających kontynuację pomocy wojskowej i finansowej dla Ukrainy, aby podważyć popularność . W Polsce próbowano wbić klin między różne części polskiego społeczeństwa, niekoniecznie tworzono nowe narracje, ale podsycano trwające wewnętrzne konflikty.

Jak media społecznościowe, a w szczególności popularny teraz TikTok wpływają wybory?

Z powodu tego, że wiele osób czerpie swoje informacje z internetu, media społecznościowe odgrywają ważną rolę w kształtowaniu narracji wokół wyborów i konkretnych kandydatów. W przypadku Rumunii w zeszłym roku widzieliśmy, jak znaczącą rolę odegrał Tik Tok, dając Calinowi Georgescu mu preferencyjne miejsce, w którym mógł promować swoją kampanię.   

Część jego treści nie została oznaczona, jako polityczna lub dotycząca wyborów, podczas gdy inni kandydaci mieli takie oznaczenia, przez co ich treści nie zyskiwały takiej widoczności lub nie były wzmacniane przez algorytmy w przeciwieństwie do treści Georgescu, których algorytmy nie zawsze uznawały za polityczne.

W końcu media społecznościowe same w sobie odgrywają znaczącą rolę w kształtowaniu postaw i wyników wyborów, podczas gdy sztuczna inteligencja dodaje jedynie kolejny sposób, aby wpływać na to jak wyborcy będą głosować.

 Inny rodzaj wykorzystania AI jaki zaobserwowaliśmy to treści generowane przez AI, które tworzyły same partie. Politycy, którzy startowali w wyborach publikowali reklamy generowane przez sztuczną inteligencję, a nawet w niektórych przypadkach deepfake’i wymierzone w swoich rywali, często nieoznaczone jako materiał wygenerowany przez AI.

W Polsce też zdarzają się takie sytuacje

W 2024 roku, pojawił się deepfake dotyczący Donalda Tuska, który został udostępniony przez innego kandydata. A ostatnio widzieliśmy falę materiałów na TiKToku promujących wystąpienie Polski z Unii Europejskiej.

Opisaliście też wpływ deepfakeów na czas już po zakończeniu wyborów

Tak, widzimy wpływ AI nie tylko na kampanię wyborczą, a także na czas powyborczy. Na przykład po ostatnich wyborach prezydenckich, kilka lat temu, były doniesienia o fałszerstwach wyborczych. Ludzie rzekomo twierdzili, że wybory mogły zostać sfałszowane pomimo braku dowodów. Część tych treści obejmowała obrazy i filmy wygenerowane przez sztuczną inteligencję, które rzekomo przedstawiały fałszowanie wyborów lub nielegalne wyrzucanie kart do głosowania. Wyglądały one bardzo realistycznie, a ze względu na powszechną dostępność narzędzi opartych na sztucznej inteligencji każdy może je obecnie z łatwością stworzyć. Zdemaskowanie fakenewsa nie dość że bywa trudne to nawet kiedy się to uda, najczęściej szkody zostały już wyrządzone. Istnieją realne powody do niepokoju co do tego, jak sztuczna inteligencja wpłynie na okres po wyborach, ponieważ może to podważyć zaufanie do uczciwości samych wyborów i doprowadzić do konieczności ich powtórzenia

 W raporcie piszecie, że ci, którzy produkują deepfake’i kierują się też motywami finansowymi

Niepokoi nas to, że w mediach społecznościowych algorytmy promują głównie treści sensacyjne, clickbaitowe, kontrowersyjne, a czasem nawet zwodnicze. Opłaca się więc je produkować, bo można na nich zarobić. Niektórzy wykorzystują taką okazję. Nie interesuje ich wpływanie na wybory, a chcą po prostu zarobić na kliknięciach i reklamach, a czasem generują deepfake’i, w których politycy rzekomo promują jakieś programy finansowe, które okazują się być scamem. Platformy nie zawsze wykrywają takie treści.

Co regulatorzy i rządy mogą z tym zrobić?

Sztuczna inteligencja może być wykorzystywana zarówno do szkodliwych celów jak i pożytecznych. W niektórych krajach kandydaci korzystali z narzędzi sztucznej inteligencji do tłumaczenia, aby dotrzeć do szerszego grona wyborców. Na przykład w Indiach, kilka lat temu, niektórzy kandydaci wykorzystali narzędzia sztucznej inteligencji, aby przetłumaczyć swój manifest na siedem lub osiem różnych języków.

Obecnie problem polega na tym, że nie ma zbyt wielu etycznych ani społecznie odpowiedzialnych standardów jeśli chodzi o użycie wykorzystania sztucznej inteligencji w polityce, a w szczególności w kampaniach wyborczych. Powinien zostać wprowadzony nowy nakaz zobowiązujący polityków do oznaczania wszystkich publikowanych treści AI. Obowiązywać powinien też nakaz usunięcia deepfake’a zniesławiającego innego kandydata lub mogącego spowodować krzywdę fizyczną, nakłaniającego do przemocy lub stanowiącego inne poważne zagrożenie dla bezpieczeństwa publicznego.

Nie należy jednak demonizować samej technologii, a skupić się na jej zastosowaniu. Bez regulacji platformy mediów społecznościowych niewiele robią, żeby skuteczniej rozwiązywać tego typu problemy. Mam nadzieję, że akt o usługach cyfrowych, który jest obecnie wdrażany w różnych krajach Unii Europejskiej, w znacznym stopniu przyczyni się do faktycznego zobowiązania firm do przeciwdziałania tym zagrożeniom. Jednym z nich będzie na przykład umożliwienie badaczom, naukowcom i dziennikarzom dostępu do danych z mediów społecznościowych, aby mogli zgłaszać lub identyfikować materiały lub treści nielegalne lub szkodliwe. Nowe przepisy wprowadzają też kary, na przykład finansowe, jeśli platformy nie będą przestrzegać tych zasad. Myślę więc, że takie regulacje byłyby bardzo pomocne.

Zrobiliście też raport o użyciu AI podczas sytuacji kryzysowych

Analizowaliśmy w nim skutki różnych kryzysów takich jak ataki terrorystyczne, incydenty dot. bezpieczeństwa narodowego i konflikty międzynarodowe. Ustalenie odpowiedzialnych za zamach i ich motywów jak również zweryfikowanie faktów zajmuje czas. I tutaj pojawia się przestrzeń na rozprzestrzenianie się dezinformacji i sianie zamętu. W Wielkiej Brytanii, kilka lat temu, gdy doszło do serii ataków w Southport, pojawiło się wiele spekulacji na temat sprawców. Niestety fałszywe informacje o tym, kim był podejrzany, skłoniło ludzi do stosowania przemocy wobec określonych grup społecznych. W naszych badaniach, chcieliśmy przyjrzeć się zatem, w jaki sposób sztuczna inteligencja może pogorszyć sytuację w przyszłych kryzysach, poprzez szerzenie teorii spiskowych, sianie zamętu lub manipulowanie opinią publiczną.

Odkryliśmy wiele wytworów AI, udających nagrania z miejsca ataku, relacje naocznych świadków. Oczywiście wiele osób dała się nabrać. Innym obszarem, który zaobserwowaliśmy, było data poisoning – czyli zatruwanie danych AI. W przypadku nowych incydentów ludzie szukają odpowiedzi w chatbotach AI. Te chatboty pobierają dane z internetu, ponieważ nie mają niczego na ten temat w swoich danych treningowych.

Przeszukują więc internet i media społecznościowe, ale korzystają też z treści, które każdy może edytować, takie jak Wikipedia. Było kilka przypadków, gdy powiązane z rosją grupy próbowały edytować strony Wikipedii. Zalewały też sieć fałszywymi artykułami z „Prawdy”, aby wpłynąć na odpowiedzi chatbotów. Użytkownik może nie być świadomy, skąd pochodzą informacje, które widzi w chacie AI. To realny problem, ponieważ coraz więcej osób czerpie informacje z chatbotów opartych na sztucznej inteligencji.

Od tego czasu zaobserwowaliśmy również, jak dezinformacja generowana przez sztuczną inteligencję stała się istotnym elementem trwającego konfliktu Izraela i Stanów Zjednoczonych z Iranem. Realistyczne filmy wygenerowane przez sztuczną inteligencję, przedstawiające ataki rakietowe na budynki, zestrzelenie samolotów, a nawet zdjęcia satelitarne pokazujące sfabrykowane zniszczenia, stały się w ostatnich tygodniach hitem w mediach społecznościowych. Niestety, treści te służą jedynie wprowadzaniu ludzi w błąd co do rzeczywistej sytuacji na miejscu i zanieczyszczaniu naszego ekosystemu informacyjnego w czasie, gdy bycie na bieżąco z faktami jest ważniejsze niż kiedykolwiek wcześniej.

Przy korzystaniu z takich chatów, trzeba pytać je o źródła

Niestety nawet jeśli chat powołuje się na BBC, Reuters’a czy Polską Agencję Prasową, potrafi przeinaczyć oryginalną treść. Wszyscy obecnie korzystają z Gemini lub Copilot w Google, żeby pomóc sobie w czynnościach i zadaniach związanych z pracą. Niestety nie każdy wchodzi w oryginalne linki, które są źródłem informacji, a które chat podaje. Potrzebujemy znacznie więcej edukacji i wskazówek dotyczących tego, jak ludzie powinni korzystać z chatbotów w sposób bardziej odpowiedzialny.

W jednym z raportów opisaliście rozwój humanoidalnych robotów AI. Takie roboty są już spotykane np. w USA, ale w Chinach są one produkowane przez rząd

W Chinach obserwuje się obecnie intensywne działania mające na celu wykorzystanie partnerstw publiczno-prywatnych do wspierania innowacji, w ramach których rząd finansuje prywatne start-upy lub firmy technologiczne w celu opracowania takich urządzeń. Istnieje cały szereg szkód i zagrożeń wynikających z integracji sztucznej inteligencji z urządzeniami fizycznymi. Taki humanoid może wyrządzić krzywdę fizyczną osobie albo wyrządzić szkodę otoczeniu, jeśli system bazowy, system sztucznej inteligencji w ich wnętrzu, zostanie przejęty, zhakowany lub uszkodzony. Film publikowane w mediach społecznościowych pokazują, że czasem faktycznie te systemy się psują. Niektóre z tych filmów są bardzo zabawne, ale inne dość niepokojące, gdzie na przykład robot przestał działać i biegał machając rękoma i nogami dookoła i mógł zranić kogoś.

 

Pozostaje też kwestia tego kto ma nadzór nad takim robotem, ponieważ może on nagyrwać i zbierać dane o swoim otoczeniu, o nawykach życiowych i zainteresowaniach ludzi. Część tych danych może zostać wykorzystana przez firmy do profilowania i pokazywania spersonalizowanych reklam np. w mediach społecznościowych. Poza tym nie wiemy czy te firmy nie udostępniają dane komuś trzeciemu. A co, jeśli dojdzie do wycieku danych? Hakerzy, oszuści, mogą uzyskać do nich dostęp, stalkerzy, przemocowi byli mężowie lub żony również mogą potencjalnie zdobyć te informacje i namierzyć swoje ofiary. Jednym z problemów jest też to o czym wspomniałaś, że wiele takich robotów pochodzi z Chin. A tam już w ogóle nie wiemy co dzieje się z danymi.

 

Aczkolwiek należy odnotować, że takie urządzenia mają też zalety. Osoby z ograniczoną mobilnością, mogą wykorzystać z nich jako asystentów domowych. Robot mógłby robić zakupy, przygotowywać posiłki czy napoje. Widzę też zastosowanie takich agentów w czasie katastrof, mogłyby na przykład pracować w niebezpiecznym środowisku, chociażby pomagając wydobywać ludzi spod gruzów zawalonego budynku albo z pomieszczeń w których wykryto trujący gaz. Podobnie jest ze zwykłą sztuczną inteligencją. Może dawać nam korzyści lub stwarzać zagrożenia i trzeba o tym pamiętać.

Autopromocja
381367mega.png
381364mega.png
381208mega.png
Źródło: gazetaprawna.pl

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.