Przygotowany przez PO wyborczy spot z wykorzystaniem technologii deepfake to ryzyko dla stabilności informacyjnej państwa.

Użycie w trwającej kampanii wyborczej materiału syntetycznego – deepfake'u – stworzonego przez generatywną sztuczną inteligencję (AI), to precedens na skalę światową. Takie osiągnięcie może sobie przypisać PO. W materiale zostały przeplecione sejmowe wypowiedzi Mateusza Morawieckiego i lektora, który – głosem Morawieckiego – odczytuje treść e-maili, mających być autorstwa premiera, a które poznaliśmy po włamaniu na skrzynkę ministra Dworczyka. W spocie tym nie zaznaczono faktu stworzenia materiału przez AI.

Decydując się na takie wykorzystanie deepfake’u, PO potencjalnie otworzyła puszkę Pandory. To działanie podważające zaufanie do polityki oraz nowych technologii. Podobne do tego, którym niedawno „popisał się” były już minister zdrowia. Ujawnienie przez niego poufnych danych z recepty wystawionej lekarzowi krytykującemu rząd mocno podkopało zaufanie do cyfryzacji systemów państwowych (mimo dymisji ministra wciąż nie podjęto działań zmierzających do odbudowy tego zaufania).

W marcu 2020 r. na łamach DGP opisywałem możliwości zastosowania technologii deepfake w polityce. Nie ma powodu jej demonizowania, uczciwie przedstawiłem dwie strony medalu. Pisałem zarówno o zastosowaniu pozytywnym – możliwości szerszego dotarcia do elektoratu z informacjami, jak i o negatywnym – tworzeniu fałszywych i oszukańczych treści. W ciągu tych ponad trzech lat wiele się zmieniło: technologia osiągnęła wyższy poziom, zaś standardy polityczne się obniżyły.

Obecnie kształtują się normy odpowiedzialnego oraz kulturalnego stosowania tej technologii. Chodzi o to, że niektórzy odbiorcy mogą nie domyślić się, że pewne zajścia – czy to na filmach, czy w zapisach dźwiękowych – w rzeczywistości nie miały miejsca. I trudno im się dziwić, bo kto ma czas na nieustanną i dogłębną analizę treści oraz śledzenie sytuacji społeczno-politycznej? Jeśli ktoś konsumuje informacje sporadycznie – może zostać łatwo wprowadzony w błąd.

Unia Europejska, pracując nad AI Act, aktem o sztucznej inteligencji (pierwsze w świecie regulacje dotyczące AI), przewidziała m.in. obowiązek informowania o wykorzystaniu sztucznej inteligencji do generowania treści. Rozważa się, aby jego zaniechanie wiązało się z karami liczonymi w milionach euro. Zasady korzystania z mediów społecznościowych (Facebook czy Twitter/X) też przewidują podstawy do blokowania takich materiałów i kont ich szerzących. Być może trochę łagodzi te obostrzenia orzecznictwo Europejskiego Trybunału Praw Człowieka, który mocno opowiada się za gwarancjami dla wolności ekspresji politycznej. Nie zmienia to jednak faktu, że oznaczenie „sztucznych” treści to potrzeba cywilizacyjna.

Brak oznaczenia w materiale PO każe postawić pytania: czy chodzi o celowe wprowadzanie w błąd? Czy nie jest to oznaka nieświadomości aspektów debaty cyfrowej i polityki cyfryzacji? Wśród lepiej zorientowanych wyborców i ekspertów może to wzbudzić obawy o to, czy politycy są odpowiednio przygotowani do zajęcia się współczesnymi problemami. Czy naprawdę chciano wysłać taki sygnał? Wątpliwe.

Przyznajmy też uczciwie, że w wewnętrznej prezydenckiej kampanii w obozie republikanów w USA też wypuszczono deepfake. Sztab DeSantisa zmontował materiał z „wypowiedziami” czytanymi przez lektora głosem Trumpa. Porównywanie tego z sytuacją w Polsce jest jednak nie na miejscu. U nas trwa gorąca kampania do parlamentu, a nie żadne wewnętrzne debaty w ramach partii politycznej.

Techniczne stworzenie syntetycznych materiałów AI jest trywialnie proste. Wystarczy próbka dźwięku ofiary i sprokurowana treść do wypowiedzenia/odczytania. Krótkie obliczenia i zrobione. W ciągu sekund. Są już nawet oferowane usługi klonowania głosu. Wobec tego dziś dostęp do takich rozwiązań może mieć każdy.

Firma Apple chce np. oferować funkcje syntetycznego tworzenia głosu właściciela smartfona – by odpowiadać dzwoniącym, informując np. o byciu zajętym – i jest to etyczne, bo użytkownik urządzenia wyraża na to zgodę. Ale gdy chce się w ten technologiczny sposób mieszać w debacie publicznej – staje się to „skomplikowane”. Wyobraźmy sobie, że wiele „sztucznych” materiałów tworzy rosyjski wywiad wojskowy i swoimi kanałami kolportuje do polskich odbiorców. Albo że w mediach społecznościowych tworzy się fałszywy obraz – deepfake z ukraińskim prezydentem Zełenskim (co zresztą miało już miejsce). Albo że przejmuje się cyberatakiem kontrolę nad telewizją i emituje się syntetyczny obraz głowy państwa. Tak jak to było z prezydentem Rosji w 2023 r., kiedy to hakerzy przejęli kontrolę nad rosyjską telewizją w obwodzie biełgorodzkim.

Nie wystarczy jedynie stworzyć materiału – trzeba jeszcze dotrzeć do odbiorców. W przypadku Platformy uczyniono to za pośrednictwem kanałów w mediach społecznościowych. Co więcej, jeden z liderów PO Borys Budka zapewniał, że spot jest w porządku, że nie trzeba oznaczać treści wygenerowanej przez AI. Czym uwiarygodnił fakt braku znajomości standardów cyfrowych. W późniejszych filmikach dodano jednak oznaczenie, że „lektor jest wygenerowany przez sztuczną inteligencję”, uczyniono to jednak nieodpowiednio i wciąż niejednoznacznie, bo nie zaznaczono, że użytych „słów” nie „wypowiedziano” naprawdę. Dla pełnej jasności trzeba by zaznaczyć np. tak: „osoba nie wypowiedziała tych słów, głos wygenerowano AI”.

Konsekwencje wprowadzenia metod deepfake do polityki mogą być opłakane. Czy mielibyśmy uznać to za nową normalność? Czy wobec tego dopuszczalne byłoby wypuszczenie filmiku deepfake z Donaldem Tuskiem i Manfredem Weberem, którzy umawiają się na rzekome wspólne działania na szkodę Polski? To hipotetyczna sytuacja, ale za pomocą generatywnego AI można stworzyć obraz Webera, niemieckiego polityka, który mówiłby płynną polszczyzną. Nawet cytował wiersze Kochanowskiego, choćby „Na sokalskie mogiły”, opiewający śmierć dla ojczyzny jako największy honor i zaszczyt.

Za pomocą technologii generatywnego AI można też stworzyć materiał przedstawiający debatę wyborczą. Jeden prawdziwy kandydat mógłby tak „rozmawiać” z syntetycznie stworzonym konkurentem. I jednemu z takich „aktorów” można by włożyć w usta dowolne treści. Oczywiście brzmienie i ton głosu byłyby właściwe dla tej osoby. Co więcej, można też zrobić taką „debatę” między kilkoma „osobami”, które są sztuczne. Materiał byłby na tyle realistyczny, że widz nie zauważyłby różnicy. Natomiast kwestie do wypowiedzi mogłyby – na żywo – dostarczać syntezatorowi sztaby wyborcze. Brzmi niewiarygodnie? Ale to już możliwe. We Francji ktoś już robi taką „sesję pytań do prezydenta Macrona” i taki „Macron” odpowiada. Działa to także w systemie na żywo.

Ku przestrodze – jest też kwestia momentu. Czy normalne byłoby wypuszczenie materiału deepfake np. o 23.59 w piątek przed rozpoczęciem ciszy wyborczej? Wtedy strona tak „zaatakowana” nie mogłaby się już do tego odnieść. Czy tego właśnie chcemy? ©Ⓟ

Dr Łukasz Olejnik, niezależny badacz i konsultant cyberbezpieczeństwa, fellow Genewskiej Akademii Międzynarodowego Prawa Humanitarnego, autor książki „Filozofia cyberbezpieczeństwa”