Zamieszanie wokół kampanii wyborczej w Rumunii – gdzie wykorzystano zatrudnionych na specjalnej platformie influencerów do pisania na TikToku i subtelne techniki manipulacji podprogowej – doprowadziło do unieważnienia wyników wyborów. To sytuacja bezprecedensowa w państwie UE. Czy odpowiedzią na takie działania może być cenzura w stylu sowieckim?
Digital Services Act już dziś daje podstawy prawne do usuwania treści z internetu. W ekstremalnych przypadkach umożliwia on blokadę całych platform internetowych. Teraz Polska, a konkretnie Ministerstwo Cyfryzacji, musi określić zasady i procedury stosowania. To decyzja polityczna, którą muszą podjąć wicepremier Gawkowski i premier Tusk. Jak uniknąć sytuacji, w której blokady stałyby się narzędziem politycznej kontroli, używanym pod błahymi pretekstami? Artykuł 54 konstytucji zakazuje jakiejkolwiek cenzury prewencyjnej. Jakiejkolwiek. Nie ma miejsca na wyjątki określane ustawą.
Problem dezinformacji, jednej z metod operacji propagandowych, jest poważny. Widzieliśmy to wielokrotnie. Wobec Polski stale są tworzone ofensywne przekazy informacyjne, np. w kontekście wojennym. Ostatnio temat wpływu o charakterze politycznym ujawnił się podczas wyborów prezydenckich w Rumunii. Nie dziwi więc to, że państwa chcą coś zrobić.
Kompleksowego podejścia wciąż nie ma. Nie mamy ośrodka zajmującego się bezpieczeństwem informacyjnym. Taki powinien powstać w strukturach cywilnych i wojskowych, najlepiej w ramach Wojsk Obrony Cyberprzestrzeni, na co wskazują pierwsze miesiące wojny w Ukrainie.
Są za to pojedyncze działania. Na przykład ostatnio Ministerstwo Cyfryzacji i NASK postanowiło zwiększać świadomość społeczeństwa. W spotach postaci z groteskowymi uszami i zdeformowanymi twarzami miały symbolizować trolle – personifikację zagrożeń, takich jak skłócanie społeczeństwa czy podważanie zaufania do państwa.
Budowanie świadomości to jeden z kluczowych filarów walki z dezinformacją, ale takie przedstawienie problemu budzi wątpliwości. Infantylizacja poważnego zagrożenia przez groteskę może działać przeciwnie do zamierzeń. Owszem, trollami mogą być uczniowie, studenci, znudzeni internauci albo wąsaty wujek na wigilii. Lecz prawdziwe zagrożenie płynie od profesjonalnych operatorów, niedziałających dla rozrywki – państwowych agencji medialnych, firm PR. I cyberjednostek obcych państw. Takie organizacje jak rosyjska „fabryka trolli” z Petersburga stosowały technologie i profesjonalistów do tego, by wpływać na społeczeństwa. To poważne operacje, a nie knucie przez amatorską grupkę postaci w pieczarze na wyspie z wulkanem.
Działania profesjonalnych propagandystów lub operatorów informacyjnych często nie polegają na tworzeniu nowych konfliktów. To kosztowne i trudne. Zamiast tego wykorzystują oni istniejące tematy, opinie i podziały społeczne, wpisując się w niektóre z nich. Jeśli społeczeństwo dzieli się na grupy „za” i „przeciw” w jakiejś sprawie, operatorzy manipulują napięciami, wspierając jedną lub obie strony. Tak działały narracje wokół zmian klimatycznych, szczepionek, praw osób LGBT, a kto wie, być może nawet różnic w wieku emerytalnym kobiet i mężczyzn – jako element rozgrywania tożsamościowej walki płci.
Problematycznym przykładem może być wspomniany spot, w którym postaci z groteskowymi twarzami sugerują, że temat powikłań po szczepionkach miał zostać wymyślony. Powikłania po szczepieniach, choć rzadkie, są faktem medycznym, co łatwo zweryfikować. Taki przekaz może podważać wiarygodność kampanii edukacyjnej i prowadzić do odwrotnych do zamierzonych skutków, gdy odbiorcy uznają go za dezinformację. Ktoś mógłby przypadkiem uznać, że w niektórych spotach zastosowano techniki manipulacji, takie jak chochoł (fałszywe przedstawienie stanowiska, np. przez uproszczenie problemu do absurdalnych twierdzeń) oraz przesada (wyolbrzymienie lub trywializacja zagrożeń). W tym przypadku wyolbrzymienie problemu może sugerować, że twórcy chcą twierdzić, że temat powikłań po szczepionkach to w całości wymyślony temat. Profesjonaliści wiedzą, że do propagandy najlepiej używać informacji prawdziwych lub trudnych do zweryfikowania. Rozumiem twórców spotu – chcieli uprościć przekaz, by trafić do szerokiego odbiorcy. Pytanie jednak, czy wybrana forma nie zostanie uznana za nadużycie lub próbę ośmieszenia realnych problemów. Grupa nie powinna odbierać treści jako manipulacji.
Gdy się ogląda kolejne spoty, widzi się schemat: proste pytanie (np. „jak ośmieszyć państwo?”), propozycje działań i zwykłego człowieka, czytającego później coś w internecie. I to ma sens! Brakuje wyjaśnienia, jak takie operacje docierają do ludzi – same przecież tego nie robią! Takie uproszczenie to być może konieczność wynikająca z krótkiego formatu spotu, ale efekt końcowy może budzić wątpliwości.
Gdy państwowi agresorzy traktują metody informacyjnego wpływu jak element strategii, sprowadzanie ich do groteski może być szkodliwe. Lekceważenie zagrożenia informacyjnego działa na naszą niekorzyść. Na ile powinno pozwalać sobie w kwestii inżynierii społecznej państwo z doświadczeniem dekad opresji komunistycznej? Decyzje w sprawie kompleksowego zabezpieczenia przestrzeni informacyjnej mogą mieć fundamentalne znaczenie także dla wolności słowa. ©℗