Autopromocja

NASK zbadał, czy platformy reagują na zgłaszanie fake newsów

Nowy szef Naukowej i Akademickiej Sieci Komputerowej (NASK) widzi instytut w roli regionalnego lidera w obszarze cyberbezpieczeństwa
Raport Ośrodka Analizy Dezinformacji NASK pt. „Reakcja platform społecznościowych na zgłoszenia w 2025 roku”.Shutterstock / Fot. Adam Stepien / Agencja Wyborcza.pl
5 marca, 19:07

Fake newsy dotyczące sytuacji geopolitycznej, a także zdrowia, podszywanie się pod wizerunek znanych polityków oraz dezinformacja w kampanii przed wyborami regularnie pojawiają się w mediach społecznościowych. A jak reagują na to platformy internetowe? Na to pytanie odpowiada raport Ośrodka Analizy Dezinformacji NASK pt. „Reakcja platform społecznościowych na zgłoszenia w 2025 roku”.

W 2025 roku zgłoszono łącznie 46 tys. 511 materiałów. Platformy usunęły 12 proc. zgłoszonych treści, czyli 5572 materiały, a moderacji poddano 68 proc. zgłoszonych treści, a więc 31 tys. 638 materiałów. Platformy odrzuciły jednak 20 proc. zgłoszeń, czyli 9301 przypadków.

Z raportu wynika, że platformy Google (Ads i YouTube) odrzuciły 91,13 proc. zgłoszeń, czyli 1480 przypadków. Moderacji poddano mniej niż 0,25 proc. zgłoszonych treści, czyli 4 materiały. Platformy usunęły 8,62 proc. zgłoszonych treści, czyli 140 materiałów.

Jak podaje NASK, administratorzy Threads (Meta) odrzucili 91 proc. zgłoszeń, czyli 202 przypadki, i usunęli 9 proc. zgłoszonych treści, czyli 20 materiałów.

Z kolei Instagram (Meta) odrzucił 71,5 proc. zgłoszeń, czyli 271 przypadków. Moderacji poddano 1,6 proc. zgłoszonych treści, czyli 6 materiałów. Platforma usunęła 26,9 proc. zgłoszonych treści, czyli 102 materiały.

Facebook (Meta) odrzucił 50 proc. zgłoszeń, czyli 4276 przypadków. Moderacji poddał 10 proc. zgłoszonych treści, czyli 840 materiałów. Platforma usunęła 40 proc. zgłoszonych treści, czyli 3399 materiałów.

TikTok odrzucił 27 proc. zgłoszeń, czyli 480 przypadków. Moderacji poddano 3 proc. zgłoszonych treści, czyli 55 materiałów. Platforma usunęła 70 proc. zgłoszonych treści, czyli 1233 materiały.

Platformy Telegram, LinkedIn, Discord oraz Bluesky odrzuciły wszystkie przesłane zgłoszenia. Było to odpowiednio 12 przypadków na platformie Telegram, 18 na platformie LinkedIn, 15 na platformie Discord i 3 na platformie Bluesky.

Platformy moderują coraz więcej treści

W raporcie czytamy, że na przestrzeni 2025 roku znacząco wzrósł udział zgłoszeń poddanych moderacji – w I kwartale treści zakwalifikowane do tej kategorii stanowiły 4 proc. wszystkich zgłoszeń, natomiast w IV kwartale moderacji zostało poddanych już 71 proc. zgłoszonych materiałów.

Zdaniem autorów raportu na prezentowane dane wpływ miały zgłoszenia profili zaangażowanych w operacje Undercut oraz Overload, których aktywność nasiliła się w drugiej połowie 2025 roku. W odpowiedzi na zgłoszenia platformy decydowały o zawieszeniu działalności tych kont. Takie działanie jest klasyfikowane według przyjętej metodologii jako moderacja treści.

Dezinformacja. Operacje Overload i Undercut

W IV kwartale 2025 r. na platformie X analitycy OAD NASK wykryli siatki botów działające w ramach operacji Overload i Undercut. Overload miała na celu tworzenie i rozpowszechnianie nieprawdziwych informacji, tak aby instytucje skupiały swoje działania na ich weryfikowaniu, co odwraca uwagę od innych działań wrogich podmiotów. Celem Undercut jest przedstawianie Ukrainy i kwestii jej pomocy w negatywnym świetle.

Zgłoszone przez OAD NASK konta działające w ramach operacji Overload i Undercut rozpowszechniały między innymi wpisy zawierające nieprawdziwe i manipulacyjne treści związane z wyborami w Mołdawii, a także przedstawiały pomoc Ukrainie jako szkodliwą dla polskich interesów. Administracja platformy X usunęła większość kont powiązanych z operacjami.

W raporcie przedstawiono reakcje platform społecznościowych na incydenty zgłoszone przez analityków OAD NASK. W 2025 roku materiały przekazano do takich serwisów jak: X, TikTok, Threads, Facebook, Instagram, Google (Ads i YouTube), Telegram, LinkedIn, Discord i Bluesky.

W raporcie zawarto też konkretne przykłady z 2025 roku.

Kampania wyborcza

Ważnym tematem jest dezinformacja w kontekście wyborów prezydenckich. OAD NASK monitorował też przestrzeń informacyjną pod tym kątem.

Z badań wynika, że w I kwartale do platform społecznościowych przekazano zgłoszenia dotyczące 168 materiałów. 8 z nich (5 proc.) zostało usuniętych, z kolei 4 (2 proc.) zostały poddane moderacji.

156 zgłoszeń (93 proc.) zostało odrzuconych. Dotyczyły one rzekomej ingerencji Unii Europejskiej i państw sojuszniczych w proces wyborczy. Zgłaszano również wpisy, które sugerowały, że w przypadku wygranej lub przegranej określonego kandydata (występowały różne konfiguracje) wybory zostaną unieważnione lub powtórzone ze względu na oskarżenia o fałszowanie głosów. W badanym okresie pojawiały się także przykłady wykorzystywania wizerunku kandydatów w materiałach typu deepfake.

NASK podkreśla, że brak reakcji platform społecznościowych na zgłoszone materiały sprawił, że dotarły one do szerokiego grona użytkowników.

Incydent z dronami

Nieprawdziwą narrację w internecie NASK zauważył też po naruszeniu naszej przestrzeni powietrznej w nocy z 9 na 10 września 2025 roku.

Do szczególnie niebezpiecznych treści, w ocenie NASK, „należały te, które sugerowały, że w Polsce rozpoczęła się wojna, i inne fałszywe informacje na temat bieżącej sytuacji militarnej. Mimo zgłoszeń dokonanych przez zespół OAD NASK do administracji portali społecznościowych wiele publikacji pozostawało dostępnych lub poddanych moderacji jedynie w ograniczonym zakresie”.

NASK zaobserwował też, że niektóre z dezinformacyjnych wpisów ze zdjęciami sugerowały, że w odpowiedzi na incydent z dronami polskie wojska zostały skierowane na granicę z Białorusią, co miało wskazywać na dążenie Polski do eskalacji i agresji wymierzonej w sąsiedni kraj.

Mimo przedstawienia punktowi kontaktowemu platformy X dowodów, że dołączone do wpisów zdjęcia zostały zrobione w innych okolicznościach, platforma nie zdecydowała się na ich zablokowanie. Reakcja administracji ograniczyła się do umieszczenia przy wpisach adnotacji, z której użytkownicy mogli dowiedzieć się, że zdjęcia są „wyświetlane bez kontekstu”. Jest to jednak komunikat niejasny, nieinformujący wprost o dezinformującym charakterze wpisu.

Według fałszywej narracji incydent z dronami był ukraińską prowokacją, mającą na celu włączenie Polski do wojny z Rosją. Według NASK platformy nie reagowały odpowiednio. Jednak TIkTOK usunął wygenerowane przez AI nagranie Natalii Panczenko, która wypowiada się w wulgarny sposób o Polakach, którzy obwiniają Ukrainę za incydent z dronami, oraz grozi, że Rosja zniszczy Polskę.

NASK zaobserwował też siatki botów. Zespół OAD NASK zidentyfikował tego typu aktywność na platformach X oraz Facebook. Platforma X zareagowała na zgłoszenie, usuwając część kont. Facebook natomiast tylko w nielicznych przypadkach zdecydował się na oznaczenie postów jako „fałszywych informacji”, jednak same konta nie zostały zablokowane i wciąż aktywnie działają.

A jak platformy reagowały na „szon patrole”?

"To zjawisko polegające na publikacji w mediach społecznościowych zdjęć dziewczynek, które zdaniem ich kolegów wyglądały wyzywająco. Zdjęcia te wysyłali ich rówieśnicy. Materiały z nim związane pojawiły się przede wszystkim na platformach Instagram oraz TikTok. W przypadku Instagrama były to konta zawierające listy profilów, mające prawdopodobnie na celu piętnowanie osób, do których należały. Na platformie TikTok natomiast publikowano filmy wygenerowane przy pomocy sztucznej inteligencji, nawiązujące do samego zjawiska oraz promujące je. Treści te zostały zgłoszone przez zespół OAD NASK do obu platform. Administracja serwisu TikTok usunęła niemal wszystkie wskazane materiały. W przypadku platformy Instagram jedynie część profili została usunięta, mimo że wszystkie materiały miały podobny charakter."

W raporcie uwzględniono zgłoszenia wewnętrzne, pochodzące z codziennego monitoringu mediów społecznościowych, prowadzonego przez OAD NASK przez siedem dni w tygodniu, a także zgłoszenia zewnętrzne, przesłane przez obywateli, instytucje bądź służby za pomocą zewnętrznych formularzy na stronach: nask.pl, bezpiecznewybory.pl1 oraz na skrzynkę e-mail: dezinformacja@nask.pl.

Autopromocja
381367mega.png
381364mega.png
381208mega.png
Źródło: GazetaPrawna.pl / Dziennik Gazeta Prawna

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.