Węgierska kampania wyborcza przeniosła się na TikToka, gdzie deepfake’i i AI tworzyły realistyczną propagandę trudną do odróżnienia od prawdy. Przez trzy dni w tym cyfrowym chaosie sprawdzałam, czy łatwo dam się oszukać – o efektach autorskiego eksperymentu kampanijnego pisze specjalistka od strategii politycznych.
Amerykański pięściarz i youtuber Jake Paul transmituje nagranie w lesie, z przyklęku. Niepozornie przesuwa aparat w lewo, kierując go na grupę wyborczyń Fideszu w podeszłym wieku. Kobiety chóralnie śpiewają: „Wiktorze, nasz królu, jesteśmy jednością”. Ubrane w pomarańczowe stroje wyglądają jak postacie z sekty. Kłaniają się workowi ziemniaków – to symbol wyborczego przekupstwa i węgierskiej biedy. Jedna z seniorek w końcu odwraca się, a celebryta z wrzaskiem rzuca się do ucieczki. Efekt? 160 tysięcy wyświetleń.
To rolka wygenerowana przez AI, która ma wspierać węgierską partię Tisza. W podobnym nagraniu, hiperrealistyczny Jake Paul krzyczy „Tisza naprzód!”. Otoczony jest seniorkami ubranymi w pomarańcz (kolor kojarzony z konkurencyjnym Fideszem), które rozjuszone rzucają się na niego. Blisko pół miliona wyświetleń.
To jedno z prominentnych kont, które umknęło uwadze analityków monitorujących węgierską kampanię wyborczą. Ci słusznie skupili się na monitorowaniu prorządowej siatki kont szkalujących opozycyjnego kandydata na premiera Pétera Magyara i jego stronników. A te można liczyć w setkach. Niezależny portal „VSquare”, a po nim „Financial Times” opisały zaangażowanie Kremla w uruchamianie farm trolli masowo produkujących treści AI na potrzeby węgierskiej kampanii.
Trzy dni na TikToku w środku kampanii na Węgrzech
Przed wyborami spędzam trzy dni na węgierskim TikToku. Większość generowanych przez AI filmów to syntetyczna propaganda płynąca z trollerskich kont. Na ekranie pojawia się uśmiechnięty Magyar, przedstawiany jako pachołek Brukseli: „Milczę, bo moi zwierzchnicy w Brukseli zabronili mi bronić ojczyzny”. Scrollując dalej, trafiam na rybaka opowiadającego o Magyarze-imprezowiczu, który „nawet karpia poczęstowałby proszkiem”. Kilka klików dalej – animowany bohater narodowy János Hunyadi przekonuje, że Magyar wciągnie Węgry do wojny w Ukrainie.
Choć Fidesz wygrywa wojnę na zasoby, Tisza bije go na głowę zasięgami. W Budapeszcie mówi mi o tym Péter Krekó, kierujący think tankiem Political Capital oraz koordynujący badania nad dezinformacją w węgierskim Obserwatorium Mediów Cyfrowych. Według prowadzonych przez niego zestawień porównujących po 20 czołowych kont obydwu partii, opozycja generowała dwa razy tyle zasięgów co ugrupowanie Viktora Orbána.
Fidesz, Tisza i wojna na zasięgi w sieci
Duża część tego sukcesu płynie z fanowskich montaży oraz oficjalnego konta Pétera Magyara, nie zaś farm botów czy treści generowanych za pomocą sztucznej inteligencji. Tych ostatnich Tisza wręcz nie używa. Większość treści AI publikowanych przez konta powiązane z Fideszem – takie jak animacje z Magyarem czy historycznymi postaciami – są dość łatwe do rozpoznania jako wygenerowane przez sztuczną inteligencję. W trakcie swojej trzydniowej „tiktokowej immersji” trafiam jednak na kilka wyjątków. Konta takie jak wspomniany deepfake’owy Jake Paul czy profil @pannavarga.96 sprawiły, że – posiłkując się naszym narodowym frazeologizmem – dałam się wpuścić w maliny. To tam wzburzone, realistyczne postacie w nagraniach kręconych „z ręki” opowiadają o pustych portfelach obywateli i luksusowych jachtach Orbána.
Nawet jako ekspertka od kampanii wyborczych i jakby było tego mało – natywna użytkowniczka mediów społecznościowych, spędziłam kwadrans, zapętlając nagranie z młodą kobietą opowiadającą o wyprzedawaniu węgierskiej ziemi chińskim fabrykom baterii. Ku własnemu zdziwieniu nie byłam w stanie jednoznacznie stwierdzić, czy to prawdziwa osoba. Diabeł bowiem tkwi w szczegółach. W których?
Efekt potwierdzenia i podatność na dezinformację
Dlaczego jedne treści wyglądają na AI, a inne są realistyczne? „Zaawansowane narzędzia AI pozwalają na tzw. motion tracking (śledzenie ruchu) lub swap-face (podmiana twarzy).” To metody tworzenia treści, w których żywy człowiek nagrywa swoją wypowiedź do kamery z naturalną mimiką, mruganiem i minami, a następnie to nagranie jest przerabiane na awatara poprzez deepfake lub podmianę twarzy. „Wtedy efekt jest najbardziej naturalny i trudny do rozpoznania” – tłumaczy Maciej Łuczyński, z zarządu agencji marketingowej Grandson Media.
Dobromir Ciaś, założyciel technologicznej spółki Edge NPD zajmującej się walką z dezinformacją i botami, ujmuje to prościej: przez pierwsze lata rozwoju sztuczna inteligencja miała poważny problem z realistycznym odwzorowaniem twarzy w wideo. „Ludzie są ewolucyjnie wyczuleni na mimikę. Wychwytujemy nawet drobne nienaturalności i mikroekspresje, które sprawiają, że «coś nie gra». Dlatego wczesne deepfake’i były łatwe do rozpoznania – zawsze było w nich coś nie tak.”
Dobromir Ciaś podkreśla, że sama technologia nie jest najważniejsza. „Nawet słaby deepfake zadziała, jeśli trafia w to, w co odbiorcy już chcą wierzyć. W psychologii i w dezinformacji jest to bardzo mocno wykorzystywane.” Zjawisko, do którego nawiązuje mój rozmówca, to efekt potwierdzenia (z ang. confirmation bias): błąd poznawczy, który utwierdza nas w „nieomylności”. Otóż „jeśli materiał potwierdza jakąś naszą wersję rzeczywistości, to obniżamy próg krytyki czy podejrzliwości. Jesteśmy skłonni i bardziej otwarci na przyjmowanie pewnych komunikatów, nawet jeżeli dla zewnętrznego obserwatora one wyglądają mało wiarygodnie. Na to liczą twórcy dezinformacji” – mówi Ciaś.
Dopytuję o stronę techniczną, a w odpowiedzi dowiaduję się, że starsze modele słabo symulowały fizyczność. „To się nieprawdopodobnie zmienia” – mówi Ciaś. „To, do czego mamy dostęp w 2026 r., potrafi bardzo wiernie replikować rzeczywistość i mimikę znanych osób.”
Węgierska kampania przekonała mnie, że to, co opisuję, stanowi wielki problem na polskie wybory w 2027 roku. Wniosek jest taki: nieważne czy dobry, zły czy brzydki, deepfake działa. Nawet ten, na który wyborca w teorii się nie powinien nabrać. A wiarygodny, dobrze imitujący rzeczywistość – tym bardziej.
Dobra wiadomość jest taka, że nie tylko ja dałam się wpuścić w maliny. Zła: tkwimy w tym wszyscy.
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.
Wpisz adres e-mail wybranej osoby, a my wyślemy jej bezpłatny dostęp do tego artykułu