Głównym celem kampanii dezinformacyjnych jest wywołanie wrażenia, że demokracje są nieefektywne i skorumpowane. Częścią tych wysiłków jest próba podważenia zaufania obywateli do procesu wyborczego - mówi Darren Linvill, profesor komunikacji na Clemson University, jeden z szefów Media Forensic Lab, interdyscyplinarnego zespołu zajmującego się badaniem dezinformacji w internecie.

Z Darrenem Linvillem rozmawia Emilia Świętochowska
Darren Linvill, profesor komunikacji na Clemson University, jeden z szefów Media Forensic Lab, interdyscyplinarnego zespołu zajmującego się badaniem dezinformacji w internecie / Materiały prasowe / Fot. Materiały prasowe
Czego najbardziej obawia się pan przed nadchodzącymi wyborami prezydenckimi?

Tego, czego obecnie nie jesteśmy w stanie przewidzieć. Nowych, kreatywnych form manipulacji. Siłą rzeczy nie mogę pani teraz precyzyjnie powiedzieć, co to będzie. Mamy w Stanach takie określenie: „październikowa niespodzianka” (October surprise). To nieoczekiwana informacja pojawiająca się na finiszu kampanii, która może odwrócić los wyborów w listopadzie. Czasem jest prawdziwa, a sztab, który ją ujawnia, czekał tylko na właściwy moment. Ale bardzo często jest całkiem fałszywa. Okazuje się elementem dezinformacji. I obawiam się, że tak będzie tym razem – że szkodliwi aktorzy, w tym przedstawiciele państw, a zwłaszcza Rosji i Chin, użyją nowoczesnych technologii, żeby na ostatniej prostej wpłynąć na wyborców. W szczególności niepokoi mnie to, co się może wydarzyć na szczeblu lokalnym.

A co może się wydarzyć?

Wielu ludzi uważa dziś, żeby nie dać się złapać na deepfaki Trumpa, Bidena, Macrona i innych znanych polityków. Ale mogą nie być już tak czujni wobec deepfake’ów przedstawicieli swoich okręgów czy stanowych legislatorów.

Ma pan w głowie jakiś konkretny scenariusz?

Wyobraźmy sobie, że ktoś za pomocą sztucznej inteligencji stworzy imitację głosu szefa lokalnej komisji wyborczej, a następnie wykorzysta ją, aby skontaktować się z prawdziwymi urzędnikami, którzy nadzorują przebieg głosowania na poziomie hrabstwa czy stanu. I ten audio deepfake np. mówi im w ostatniej chwili, że wybory w danym lokalu z jakiegoś powodu nie mogą się odbyć i trzeba je przenieść do innej lokalizacji. Chodzi o to, aby wywołać chaos. Ludzie mają po wszystkim nabrać wątpliwości, czy głosowanie przebiegło prawidłowo. I właśnie ta możliwość ingerencji w proces demokratyczny niepokoi mnie najbardziej. Wybory muszą budzić społeczne zaufanie. Mówiąc inaczej, obywatele muszą mieć przekonanie, że są one uczciwe, bezpieczne i wolne od manipulacji. To fundament demokracji.

W okresie kampanii prezydenckiej w 2016 r. deepfaki wyglądały jeszcze bardzo nieporadnie i nie odegrały w niej żadnej roli. Za to po raz pierwszy usłyszeliśmy wtedy o Agencji Badań Internetowych (Internet Research Agency – IRA), rosyjskiej farmie trolli, która promowała kandydaturę Donalda Trumpa. Dowiedzieliśmy się też, jak skuteczne cyberataki potrafią przeprowadzać agenci Kremla, czego koronnym przykładem było włamanie hakerów GRU do systemu informatycznego kierownictwa Partii Demokratycznej. Prywatne e-maile wykradzione przez nich ze skrzynek bliskich współpracowników Hillary Clinton wylądowały m.in. w WikiLeaks. Od tamtego czasu nastąpił ogromny postęp technologiczny. Czy pojawiły się całkiem nowe taktyki i metody dezinformacji w internecie? Czy może te stare stały się po prostu bardziej wyrafinowane?

I jedno, i drugie. Przynajmniej w anglojęzycznym internecie nie widzimy już tak często kont w rodzaju tych, które trolle IRA prowadziły w 2016 r. czy jeszcze podczas kampanii prezydenckiej w 2020 r. Mam tu na myśli starannie skonstruowane profile, które miesiącami, a czasem nawet latami budowały swoją bazę obserwujących – tzw. organicznych użytkowników – aby rozpowszechniać wśród nich dezinformację. Widzimy natomiast coraz nowsze i bardziej wyrafinowane sposoby używania botów. Rozwój sztucznej inteligencji i innych technologii ogromnie ułatwił też generowanie fałszywych treści sprofilowanych pod określonych użytkowników. Coraz częściej widzimy, że Rosjanie i Chińczycy wykorzystują te narzędzia do tworzenia już nie tylko fake newsów, lecz także całych portali internetowych, które na pierwszy rzut oka mogą wyglądać jak autentyczne serwisy informacyjne czy strony rzeczywistych tytułów prasowych. Ponadto jest coraz więcej przykładów bardzo starych form perswazji – np. podrzucania fałszywych doniesień prawdziwym mediom i przez prawdziwych ludzi, również w innych krajach. Dokładnie w taki sam sposób, jak robiło to KGB w czasach zimnej wojny.

Zajrzałam na te strony internetowe fałszywych gazet, o których pan mówi. Mają nawet nazwy łudząco przypominające znane amerykańskie tytuły prasowe, jak „New York News Daily” (prawdziwa to „New York Daily News”). Są i takie, które przywłaszczają sobie nazwy i sznyt autentycznych publikacji wydawanych w odległej przeszłości – np. „Chicago Chronicle” (ukazywała się w latach 1895–1907). A zatem mamy teraz już nie tylko fake newsy, lecz nawet fake media. Czy wiadomo, ile osób odwiedza te strony internetowe, jaki mają one zasięg?

Nie, ale one nie zostały stworzone po to, żeby ludzie zaczytywali się w publikowanych tam „newsach”, choć z pewnością Rosjanie nie posiadaliby się z radości, gdyby tak było. Te fałszywe strony mają sprawiać wrażenie autentycznych i wiarygodnych mediów po to, żeby ich narracje roznosiły się w mediach społecznościowych i angażowały użytkowników. Jak? Poprzez prawdziwych ludzi. Rosjanie płacą np. influencerom za kolportowanie linków z dezinformacją. Albo korzystają z pomocy swoich bardziej tradycyjnych sprzymierzeńców – zachodnich rusofilów, którzy popierają politykę Kremla: anglojęzycznych, francuskojęzycznych, niemieckojęzycznych itd. To m.in. ludzie, którzy pracują dla RT, mający swoje grono obserwujących na platformach społecznościowych. Jak opublikują jakąś kłamliwą historię, a użytkownicy ją podchwycą i rozpowszechnią, to szybko może ona zacząć żyć w internecie własnym życiem, „oczyszczając się” z rosyjskich śladów z każdym kolejnym udostępnieniem.

To takie pranie kłamstw?

Tak. Na to, że Rosjanie nie stworzyli tych fałszywych stron internetowych, żeby ludzie je naprawdę czytali, wskazuje choćby to, że nie mają one profili na platformach społecznościowych. A przecież dla prawdziwych mediów to dziś jeden z głównych sposobów rozpowszechniania swoich treści.

Na marginesie – jak potoczyły się losy Agencji Badań Internetowych? Jej właściciel, Jewgienij Prigożin, nie żyje.

Została przejęta przez innych ludzi. Zmieniła mechanizmy funkcjonowania, ale spora część struktury została nienaruszona. To wciąż bardzo znaczący gracz w rosyjskojęzycznym internecie. Bo głównym celem operacji IRA i całej sieci medialnej Prigożina zawsze było rosyjskie społeczeństwo. I tak jest nadal.

Jakie wątki i narracje przewijają się teraz w kremlowskiej dezinformacji najczęściej?

Rosjanie są teraz bardzo skupieni na osłabieniu pozycji NATO i wsparcia Zachodu dla Ukrainy. Bezpośrednim celem ataków jest przede wszystkim Wołodymyr Zełenski. Na stronach fałszywych mediów pojawiały się ostatnio narracje m.in. o tym, że za pieniądze od sojuszników kupuje sobie luksusowe jachty czy posiadłość na Florydzie. Ogólnie widać duże starania o stworzenie wrażenia, że Ukraina jest bardzo skorumpowanym krajem. Dążenie do podważenia zachodniego sojuszu to także jeden z ważnych powodów, dla których Rosjanie podejmują próby wpłynięcia na wybory prezydenckie w Ameryce – ich wynik będzie mieć duże znaczenie dla dalszych losów wojny.

Czy sądzi pan, że te operacje przynoszą efekty?

Tak, w pewnych grupach. Mam w szczególności na myśli osoby, które już wcześniej były podejrzliwe wobec Ukrainy czy uważały, że Zachód nie powinien jej pomagać. W takich przypadkach rosyjskie kłamstwa i dezinformacja tylko umacniają ich przekonania.

W ostatnich kilku latach w kolejnych krajach pojawiały się zarzuty, że podczas wyborów doszło do oszustw. Oczywiście flagowym przykładem jest spiskowa narracja Donalda Trumpa o „skradzionej prezydenturze”, ale podobne oskarżenia krążyły też w państwach europejskich czy azjatyckich. Według raportu, który amerykański wywiad rozesłał parę miesięcy temu kanałami dyplomatycznymi, to już fenomen globalny. Czy można stwierdzić, że te fałszywe zarzuty bezpośrednio inspirują Rosjanie?

Jest zawsze bardzo trudno przypisać im konkretne rzeczy, choć czasem to możliwe. Tak samo trudno jest określić, jakie są szersze efekty rosyjskich operacji wpływu. Natomiast nie ma wątpliwości co do tego, że głównym celem kampanii dezinformacyjnych prowadzonych przez państwa autokratyczne jest wywołanie wrażenia, że demokracje są nieefektywne i skorumpowane. A częścią tych wysiłków jest próba podważenia zaufania obywateli do procesu wyborczego. I, niestety, sądzę, że w pewnym stopniu odniosły one sukces.

Ale nie da się precyzyjnie określić, jaką rolę odegrała w tym rosyjska dezinformacja?

Nie, to niemożliwe. Nie da się przecież przeprowadzić badania z udziałem grupy kontrolnej. Nie jestem w stanie sprawdzić, jak wyglądałyby wybory prezydenckie w 2016 r. czy w 2020 r., gdyby usunąć z nich oddziaływanie rosyjskiej dezinformacji. A trzeba przecież wziąć jeszcze pod uwagę efekt domina: rosyjscy agenci wpływają na swoich influencerów, ci wpływają na swoich obserwujących, tamci na innych użytkowników itd. Nie da się tego rozplątać.

Tak jak w tej spiskowej narracji o skorumpowaniu Joego Bidena i jego syna przez ukraińskiego oligarchę, właściciela konglomeratu gazowego Burisma.

Tak. Tam wszędzie widać rosyjskie ślady. Jeśli ktoś pyta o skuteczną kremlowską dezinformację, to trudno o lepszy przykład. Była też historia z kradzieżą e-maili Johna Podesty podczas kampanii wyborczej w 2016 r. (Podesta był szefem sztabu kandydatki demokratów Hillary Clinton; jego e-maile, które opublikowała WikiLeaks, dotyczyły przeważnie spraw organizacyjnych, lecz zdaniem zwolenników teorii spiskowych zawierały one zakodowany przekaz – red.).

Czy Rosjanie dobrze zacierają ślady?

To zależy. Czasem odnoszę wrażenie, że nawet się za bardzo nie starają. Dlaczego? Dlatego że nie mają powodów, żeby to robić. Jeśli zostaną złapani, to i tak nie poniosą konsekwencji. Co z tego, że amerykańska prokuratura zaocznie wniesie akty oskarżenia przeciwko paru osobom, skoro one i tak za nic nie odpowiedzą. A ludzie, którzy chcą wierzyć w kłamstwa Rosjan, i tak będą w nie wierzyć.

W dyskusjach o rosyjskiej dez informacji ciągle wraca pytanie: czy platformy społecznościowe robią wystarczająco dużo, żeby z nią walczyć?

(śmiech) Absolutnie nie. Ani trochę. To żart.

Nie spodziewałam się odpowiedzi twierdzącej, ale nie sądziłam, że aż tak rozśmieszę pana tym pytaniem.

Platformy już wcześniej nie robiły zbyt wiele, żeby walczyć z dezinformacją, a teraz robią jeszcze mniej. Krajobraz polityczny w Stanach Zjednoczonych pozwolił im na krok wstecz bez żadnych reperkusji. Gdy Elon Musk przejął Twittera i praktycznie skasował ogromną część praktyk moderacji treści – a niektóre były bardzo skuteczne – dał przykład innym platformom. Zaczęły się zastanawiać, po co mają wyrzucać pieniądze na walkę z dezinformacją, skoro nie poniosą konsekwencji, jeśli przestaną. Więc przestały. Jeśli jest jeszcze jakaś moderacja, to tylko dlatego, że platformy zmusiła do tego Unia Europejska, nie USA.

Czyli platformy zwyczajnie nie mają zachęty, by tępić dezinformację?

Mają wręcz zachętę, by robić na tym polu mniej. A jeśli w ogóle coś robią, to tylko wtedy, gdy nie muszą wydawać na to pieniędzy. Meta wprowadza teraz pewne zmiany, które mogą przynieść efekty, jednak nie przewiduję, że będą one znaczące. Chodzi o ograniczenie treści politycznych, które wyświetlają się użytkownikom na Instagramie. Ale to nie jest to samo co moderacja.

Czy wraz z rozwojem generatywnej AI i dużych modeli językowych powinniśmy się w niedalekiej przyszłości spodziewać „dezinformacji na sterydach”?

Myślę, że dalej będzie wyścig między szkodliwymi graczami a ludźmi, którzy próbują zahamować szerzenie się dezinformacji. Wszyscy dziś mówią o zagrożeniach związanych ze sztuczną inteligencją. I nie mam wątpliwości, że stworzy ona nowe problemy w walce z dezinformacją – czego przykładem są te strony internetowe udające prawdziwe portale informacyjne – ale AI daje nam też nowe atuty. Wykorzystujemy ją do identyfikowania fałszywych kont i sieci czy zmanipulowanych narracji.

Jak wynika z raportu specjalnego prokuratora Roberta Muellera na temat ingerencji Kremla w amerykańskie wybory w 2016 r., ludzie z ekipy Donalda Trumpa co najmniej 140 razy kontaktowali się z Rosjanami i przedstawicielami WikiLeaks. Czy teraz będą ostrożniejsi?

To skomplikowana kwestia. Nie widzę powodów, dla których obóz Trumpa miałby wchodzić w kontakty z Rosjanami. To ma same złe strony. Trzeba jednak jasno rozgraniczyć dwie rzeczy. Mówienie o tym, że Rosjanie prowadzą kampanię dezinformacji, to co innego niż mówienie o współpracy Trumpa z Rosjanami. Zaznaczam to, dlatego że wielu ludzi te rzeczy łączy. I w związku z tym atakuje nasze badania.

Jak to? Za co?

Uważają, że już samo zajmowanie się rosyjską dezinformacją to zamach na Trumpa. A to przecież całkiem co innego. Mnie chodzi po prostu o to, żeby nasze wybory były wolne od obcej ingerencji.

Czyli ktoś pana atakuje za badania nad rosyjską dezinformacją? Nie rozumiem…

Ależ oczywiście. To jest właśnie amerykańska polityka.

Kto konkretnie pana atakuje?

Głównie politycy i media. Przeciwko naszemu zespołowi trwa nawet dochodzenie w Kongresie. Musieliśmy przekazać nasze e-maile komisji ds. wymiaru sprawiedliwości Izby Reprezentantów. ©Ⓟ