Facebook walczy o uwagę użytkowników, wykorzystując wiedzę o ich lękach i słabościach, a przyciski, które mają ograniczać wyświetlanie niechcianych treści, nie działają. Takie wnioski płyną z badania przeprowadzonego przez Fundację Panoptykon we współpracy z dr. Piotrem Sapieżyńskim z Uniwersytetu Northeastern w Bostonie.

Zalew toksycznych treści „proponowanych”

Panoptykon i dr Sapieżyński wzięli pod lupę sprawę użytkowniczki, skarżącej się na zalew toksycznych treści na Facebooku. Szczególnie uciążliwe wydawały się jej treści z kategorii „proponowane dla ciebie”. W trakcie trwającego niespełna dwa miesiące badania przez feed Joanny* przewinęło się ponad 2500 postów należących do tej kategorii. Ponad 56% z nich (1416 postów, czyli średnio 27 postów dziennie) dotyczyło tematyki wskazanej przez badaną jako toksyczna:

  • „Wrócili z wymarzonych wakacji. Zmarli w odstępie 4 godzin”.
  • „Upadł na chodnik i zmarł. Nie żyje młody mężczyzna”.
  • „Zauważyła zadrapanie na piersi. Tak zaczęła się walka o jej życie”.
  • „29-latkę bolały plecy. To był objaw nieoperacyjnego raka płuc”.
  • „Swędzą cię pachy? Jedna przyczyna jest wyjątkowo niebezpieczna”.
  • „Ból, który może zwiastować tętniaka. Uważaj, to tykająca bomba”.

To tylko kilka przykładów niepokojących treści dotyczących śmierci młodych osób, alarmujących sygnałów dotyczących zdrowia czy pozornie niewinnych objawów śmiertelnych chorób, które Facebook codziennie serwował Joannie.

Niedziałający przycisk „nie chcę tego widzieć”

Facebook udostępnia użytkownikom i użytkowniczkom różne opcje kontrolowania feedu. Teoretycznie mogą oni „nauczyć” algorytm odpowiedzialny za dobór wyświetlanych treści, jakie tematy są dla nich interesujące, a jakich woleliby unikać. Na przykład osoba, która nie lubi dzieci, może nie chcieć oglądać postów o parentingu. Joanna, która zmaga się z zaburzeniami lękowymi dotyczącymi zdrowia, nie chce oglądać treści dotyczących chorób.

Badanie pokazało jednak, że korzystanie z oferowanego przez Facebook przycisku „nie chcę tego widzieć” nic nie zmienia.

„Przez tydzień klikałam »nie chcę tego widzieć« przy każdym poście dotyczącym śmierci lub choroby. Po tygodniu przestałam i czekałam na efekty. Wchodziłam na Facebooka z nadzieją, że udzielona przeze mnie informacja zwrotna przełoży się na efekt w postaci mniejszej liczby postów o tej tematyce. Ale to się nie wydarzyło” – opowiada. „Nieraz wyświetlało mi się kilkanaście postów w tygodniu dotyczących tego samego dziwnego wypadku, morderstwa czy śmierci jakiejś osoby. To chyba dość oczywiste, że skoro jakiś temat mnie nie interesuje, to Facebook mógłby przynajmniej na okrągło nie wyświetlać mi jednej historii. Niestety, to tak nie działa”.

Dlaczego Facebook wyświetla użytkownikom treści, których nie chcą oglądać?

To, co Joannie wydaje się oczywiste, wcale takie nie jest z jednego powodu. Algorytmy Facebooka mają za zadanie wyświetlać użytkownikom treści, które ich zaangażują – a klikanie „nie chcę tego widzieć” również jest formą zaangażowania. To błędne koło wyjaśnia dr Piotr Sapieżyński, który prowadził badanie.

„Użytkowniczka dała wprawdzie Facebookowi znać, że nie jest zainteresowana konkretną tematyką, ale historia jej aktywności pozostała podobna do historii osób, które angażowały się w takie właśnie treści. Dla algorytmu Facebooka to, że treści angażują użytkowniczkę, jest jednoznaczne z tym, że chce je otrzymywać. Dlatego wyświetla ich jeszcze więcej. Tak działają algorytmy traumy Facebooka” – wyjaśnia Sapieżyński.

Joanna Flis, terapeutka uzależnień, cytuje badania Uniwersytetu w Arkansas: „Pięć godzin dziennie spędzonych w social mediach zwiększa ryzyko pojawienia się zaburzeń lękowych. Dotyczy to nie tylko osób, które już wcześniej odczuwały tego typu problemy, ale także zdrowych osób. Ciągła ekspozycja na treści dotyczące utraty zdrowia lub życia nie może pozostać bez wpływu na system nerwowy osoby, która jest jej poddana”.

Facebook nie ma jednak ostrzeżenia „nie używaj dłużej niż”. Osoby w każdym wieku są do niego stale podłączone – a to nie pozostaje bez wpływu na społeczeństwo jako takie.

Czy DSA ochroni nas przed algorytmami traumy?

Szkody społeczne związane z działalnością wielkich platform (VLOP-ów), takich jak Facebook, dostrzegła Unia Europejska i przygotowała nowe regulacje mające im zapobiegać. Od sierpnia 2023 r. VLOP-y mają nowe obowiązki. Powinny między innymi oceniać ryzyko, jakie ich usługi powodują dla zdrowia publicznego, praw podstawowych czy procesów demokratycznych. Jedną z takich – potencjalnie ryzykownych – usług są systemy rekomendacyjne, czyli algorytmy odpowiadające za to, jakie treści widzą osoby korzystające np. z Facebooka.

„Platformy muszą między innymi umożliwić swoim użytkownikom wybór nieprofilowanego feedu” – mówi Katarzyna Szymielewicz, prezeska Fundacji Panoptykon. „Joanna próbowała wpłynąć na swój feed za pomocą kontrolki udostępnionej przez Facebooka. Takie rozwiązania nie są dla platform obowiązkowe, ale jeśli już zostały wprowadzone, powinny działać” – komentuje. Jednak w czasie badania (czerwiec–lipiec 2023 r.) nie działały. Czy po 25 sierpnia coś się zmieniło? Panoptykon zapowiedział już kolejną edycję badania, w którym to sprawdzi.

Szymielewicz jest przekonana, że negatywnym skutkom działania systemów rekomendacyjnych największych platform powinna wnikliwie przyjrzeć się Komisja Europejska [odpowiedzialna za egzekwowanie DSA]. „W tej grze nie chodzi już o to, czy dostaniemy lepiej dopasowane albo ciekawsze treści i reklamy. To walka o to, czy wszyscy wyjdziemy cało z tego eksperymentu społecznego”.

* imię zmienione

oprac. Piotr Celej