Facebook musiał osiągnąć pełnoletność, żeby dorośli zainteresowali się losem dzieci w social mediach. W USA rodzice składają pozwy przeciwko platformom internetowym, a Europa temperuje je karami od regulatorów i nowymi przepisami.

Stajesz przed lustrem, bierzesz jakiś kabel i zaciskasz sobie na szyi tak długo, aż nie zemdlejesz” – przed takim wyzwaniem miała stanąć 10-letnia Amerykanka Nylah Anderson. Popularne w sieciach społecznościowych tzw. black-out challenge okazało się dla dziewczynki tragiczne w skutkach – zamiast na krótko stracić przytomność, udusiła się.
Podobnie jak ośmioletnia Lalani Walton i dziewięcioletnia Arriani Arroyo. Ich rodzice szukają sprawiedliwości przed amerykańskimi sądami. Winą za śmierć dziecka oskarżają TikToka i jego algorytm rekomendacyjny. To on miał podsunąć dziewczynkom nieodpowiednie do wieku treści.
Jak podkreślają rodzice, nie chodzi o pieniądze, lecz o to, by z ich koszmaru wnioski wyciągnęli inni opiekunowie, a także państwowi regulatorzy i same platformy. Rychło w czas. Potrzeba było prawie 20 lat i wielu dziecięcych tragedii, by dorośli zaczęli zastanawiać się, jak ochronić najmłodszych w social mediach.

Metaanoreksja

Na początek garść statystyk. 13 proc. młodszych dzieci i aż 15 proc. młodzieży jest uzależnionych od social mediów – tak wynika z badania przeprowadzonego przez Biuro Rzecznika Praw Dziecka. Co trzeci nastolatek spędza na popularnych platformach kilka godzin dziennie, a wielu nawet pół dnia. Uczniowie pytani przez ankieterów o próby odstawienia smartfona, przyznawali, że chcą to robić, ale nie wiedzą jak. „Czują się źle, gdy są poza siecią, a korzystanie z social mediów jest ich sposobem na poprawę samopoczucia. To objawy uzależnienia” – uważa rzecznik praw dziecka Mikołaj Pawlak.
Potwierdzają to podobne badania na całym świecie. A platformy doskonale zdają sobie z tego sprawę. Meta, spółka Marka Zuckerberga, już kilka lat temu przeprowadziła wewnętrzny audyt, który wykazał, że Instagram wpływa negatywnie na kondycję psychiczną nastolatek, wystawionych na nieustanną ocenę innych – m.in. u dziewczyn cierpiących na anoreksję przyczynia się do pogorszenia choroby, u niektórych doprowadza nawet do nasilenia myśli samobójczych. Raport został ujawniony przez „Wall Street Journal” po tym, jak dziesiątki tysięcy wewnętrznych dokumentów przekazała dziennikarzom była pracownica Facebooka Frances Haugen. – Dokumenty, które ujawniłam, pokazują, że Facebook regularnie zwodził nas w kwestii tego, co jasno wynikało z jego własnych badań na temat bezpieczeństwa dzieci i jego roli w rozprzestrzenianiu nienawistnych i polaryzujących informacji. Odpowiedzią na tę alarmującą sytuację powinny być nowe zasady i standardy – mówiła Haugen w październiku 2021 r. podczas przesłuchania w Parlamencie Europejskim. – Produkty Facebooka szkodzą naszym dzieciom, podsycają podziały społeczne i osłabiają demokrację – dodawała. Jej zdaniem dziś platformy działają podobnie jak w przeszłości przemysł tytoniowy: oszukują klientów, że ich produkty są bezpieczne, inwestując miliardy dolarów w marketing, przychylność ekspertów i polityków.
Zwłaszcza ci ostatni mają tu wiele do zrobienia. Tak uznał sędzia Paul S. Diamond z sądu okręgowego we wschodniej Pensylwanii, który rozpatrywał sprawę wspomnianej na początku Nylah Anderson, która udusiła się, wykonując tiktokowe wyzwanie. Pod koniec października orzekł on, że nie można wyciągnąć konsekwencji wobec platform internetowych w związku ze śmiercią 10-latki, bo na mocy Communications Decency Act nie odpowiadają one za treści tworzone przez użytkowników. A jeśli ktoś ma zdecydować inaczej, to tylko Kongres, uchwalając nowe prawo.
Rodzice i wychowawcy jednak się nie poddają. W ubiegły piątek szkoły publiczne z Seattle złożyły pozew przeciwko kilku big techom, obarczając je winą za pogarszający się stan zdrowia psychicznego młodzieży, a także coraz poważniejszego kryzysu wśród najmłodszych. W pozwie przekonują, że platformy celowo wykorzystały podatność młodych mózgów na dostarczane przez nie bodźce do osiągnięcia zysku.

Instagram jak Marlboro

Klimat dla big techów powoli się zmienia. Jeszcze kilka lat temu Facebook mógł snuć plany stworzenia Instagram Kids, czyli platformy dla dzieci w wieku 10–12 lat. Dziś przygniata go ciężar grzywien, które nakładają na niego krajowe sądy i regulatorzy zajmujący się ochroną danych.
W połowie ubiegłego roku irlandzka Komisja Ochrony Danych (DPC), odpowiednik polskiego Urzędu Ochrony Danych Osobowych, nakazała firmie Marka Zuckerberga zapłacić 405 mln euro za naruszenie praw najmłodszych użytkowników Instagrama (europejska siedziba Mety mieści się właśnie w Irlandii). To druga największa kara w historii wdrażania RODO, czyli unijnego rozporządzenia o ochronie danych.
Toczące się od września 2020 r. dochodzenie wykazało, że jeśli osoba przed 18. rokiem życia korzysta z instagramowego konta w wersji dla biznesu, jej e-mail i telefon stają się publicznie dostępne. Dodatkowo, kiedy niepełnoletni użytkownik rozpoczyna przygodę z serwisem, zgodnie z domyślnymi ustawieniami profilu wszystkie treści, które publikuje, są widoczne dla wszystkich. Spółka oczywiście odwołała się od decyzji DPC, argumentując, że już rok temu poradziła sobie z tymi problemami.
Nie tylko Meta jest na celowniku. DPC rozpoczęło też dochodzenie w sprawie TikToka, medium społecznościowego należącego do chińskiej firmy ByteDance (jej europejski oddział również jest w Irlandii). Również w tym przypadku regulator miał zastrzeżenia do domyślnych ustawień prywatności platformy dla osób niepełnoletnich. Wątpliwości wzbudził także sposób, w jaki TikTok weryfikuje wiek użytkowników.
O ile postępowanie z inicjatywy DPC jeszcze trwa, o tyle chiński serwis za podobne uchybienia dostał już karę w Danii. Tamtejszy urząd ochrony danych, Autoriteit Persoonsgegevens, nakazał właścicielowi aplikacji zapłacić 750 tys. euro za to, że nie przetłumaczył informacji dotyczących prywatności na duński. Podczas rejestracji można było przeczytać je jedynie po angielsku, co – zdaniem regulatora – ograniczało dzieciom możliwość zrozumienia zasad.
Pozew przeciwko Tik Tokowi za słabą ochronę dzieci złożyła też duńska organizacja pozarządowa Take Back Your Privacy. „Po pierwsze aplikacja nie ma odpowiednich mechanizmów do weryfikacji wieku użytkownika ani tego, czy rodzice wyrażają zgodę na rejestrację dziecka w aplikacji. Po drugie nie zapewnia odpowiednich informacji o prywatności i prawach konsumenta. Po trzecie naraża dzieci na krzywdę. Aplikacja nie zapewnia bezpieczeństwa, dane użytkowników przesyłane są do Chin, a algorytm podpowiada im szkodliwe treści” – argumentują przedstawiciele NGO. Domagają się od platformy 2 mld euro odszkodowania.
Problemy z ochroną dzieci w sieci dotyczą nie tylko sfery social mediów, lecz także świata gier komputerowych. Przed świętami Bożego Narodzenia sektorem gier wideo wstrząsnęła decyzja amerykańskiej Federalnej Komisji Handlu (FTC), która wymierzyła Epic Games, jednemu z największych dostawców tego typu rozrywki, 0,5 mld dol. kary za to, jak spółka obchodziła się z najmłodszymi klientami.
O co chodzi? Pięć lat temu Epic Games wypuściła na rynek grę Fortnite. Prosta strzelanka podbiła serca ponad 400 mln graczy. Fortnite umożliwia także interakcje między użytkownikami. Okazało się, że gra jest tak skonstruowana, że ułatwia dorosłym graczom kontaktować się z najmłodszymi. „Przez cały czas dzieci były zastraszane i nękane, także seksualnie, za pomocą Fortnite” – wyjaśniali przedstawiciele FTC.
To nie koniec zarzutów. W grze można też skorzystać z dziesiątek płatnych funkcji, takich jak kupowanie wyposażenia dla postaci. Śledczy wykryli, że Fortnite wykorzystuje do ich sprzedawania tzw. dark patterns, czyli układy interfejsów, które skłaniają użytkownika do zachowań pożądanych przez platformę. Zdaniem FTC interfejs Fortnite’a był na tyle nieintuicyjny i podstępny, że wystarczyło nacisnąć jeden przycisk, by serwis naliczył opłatę. „Gracze mogli zostać obciążeni opłatami podczas próby aktywacji gry z trybu uśpienia lub podczas ładowania ekranu” – napisano w skardze. Epic Games postanowiło zaakceptować karę bez dalszej sądowej batalii. Spółka podkreśla, że chce być liderem zmian w sektorze gier wideo.

Niech odpowie prezes

Coraz częściej ochrona dzieci w sieci jest też przedmiotem specjalnych regulacji. Jeśli chodzi o Stany Zjednoczone, najbardziej zaawansowane przepisy uchwaliła Kalifornia. Zgodnie z przyjętym we wrześniu 2022 r. prawem o bezpieczeństwie dzieci w internecie domyślne ustawienia prywatności dla nastoletnich użytkowników platform muszą być najbardziej rygorystyczne.
W Wielkiej Brytanii trwa natomiast gorąca dyskusja na temat Online Safety Bill, ustawy przygotowanej po samobójstwie 14-letniej Molly Russell. Prokurator dowodzi, że dziewczynka targnęła się na swoje życie z powodu depresji i innych skutków stykania się ze szkodliwymi treściami online.
Propozycja przepisów, przedstawiona w parlamencie w maju 2021 r., zakłada, że platformy społecznościowe będą mogły być pociągnięte do odpowiedzialności za treści niebezpieczne dla dzieci. Ofcom, czyli brytyjska agencja regulująca rynek mediów i telekomunikacji, będzie mogła nałożyć na nie grzywnę wynoszącą maksymalnie równowartość 10 proc. obrotów.
Choć wszyscy zgadzają się, że najmłodsi użytkownicy sieci wymagają większej ochrony, o jej zakres wciąż trwa parlamentarna batalia. Początkowo ustawa miała nakazywać platformom usuwanie treści, które są „legalne, ale krzywdzące”. Krytycy przekonywali jednak, że byłoby to rażące naruszenie wolności słowa, dlatego zapis ten ostatecznie zniknął z projektu.
Presję na rząd w sprawie jego przywrócenia wywierają organizacje charytatywne. Według sondażu przeprowadzonego na zlecenie National Society for the Prevention of Cruelty to Children 80 proc. dorosłych Brytyjczyków jest za tym, by platformy ponosiły odpowiedzialność za podsuwanie dzieciom szkodliwych treści.
Przepisy chroniące najmłodszych przyjęła już UE. Na mocy aktu o usługach cyfrowych (DSA), zatwierdzonego przez Radę Europejską w październiku 2022 r., nie będzie można wykorzystywać danych dzieci, aby wyświetlać im reklamy. Wielkie platformy zostały również zobowiązane do regularnego oceniania systemowych ryzyk, jakie wiążą się z ich usługami.

Blokada rodzicielska

Czy to wystarczy? Nie ma dobrej odpowiedzi na to pytanie. Jak tłumaczył w wywiadzie dla DGP pełnomocnik rządu ds. cyberbezpieczeństwa Janusz Cieszyński, przepisy to za mało, by uczynić internet miejscem bezpieczniejszym dla najmłodszych. – Konieczne są wspólne działania administracji, przedstawicieli biznesu oraz niezależnych organizacji. Zwłaszcza przedsiębiorcy są istotni, gdyż to oni często jako pierwsi są w stanie rozpoznać, że oferowane przez nich usługi są wykorzystywane w tym niegodziwym celu. Z tego względu uważamy za konieczne, by wprowadzili oni określone zasady postępowania z takimi materiałami – mówił Janusz Cieszyński.
Sęk w tym, że przedsiębiorcy się do tego nie kwapią. Kiedy rząd poprosił operatorów sieci, by wymyślili mechanizm, który uniemożliwiłby najmłodszym dostęp do pornografii, firmy niczego nie ustaliły. Rząd zaproponował więc własną regulację. Dopiero wtedy przedsiębiorcy zaczęli debatować nad możliwością wdrożenia różnych rozwiązań. Projekt ustawy o ochronie małoletnich przed dostępem do treści nieodpowiednich w internecie zakłada, że dostawcy internetu mają zapewnić rodzicom narzędzia ochrony rodzicielskiej (propozycja jest na etapie konsultacji).
Magdalena Bigaj, prezeska fundacji Instytut Cyfrowego Obywatelstwa, uważa, że bez wielostronnej współpracy nie będzie dobrych efektów. – Już w tej chwili mamy prawa, na podstawie których można by rozszerzyć ochronę najmłodszych w sieci. Najważniejszym jest Konwencja o prawach dziecka. Problem polega na tym, że po stronie branży nowych technologii nie ma dobrej woli, a zatem potrzebujemy wobec nich narzędzi przymusu – mówi ekspertka. Jako przykład podaje to, że social media nie radzą sobie z weryfikacją wieku nowych użytkowników.
Naturalnie w dbaniu o bezpieczeństwo najmłodszych w internecie pierwsze skrzypce grają rodzice. A ci często nie zdają sobie sprawy z zagrożeń, jakie niosą serwisy społecznościowe. – Pracowałem niedawno z grupą chłopców. Rozmawialiśmy o tym, jakie mają restrykcje w korzystaniu z internetu. Wszyscy mieli jakieś ograniczenia co do komputera, ale przyznawali, że smartfona te limity nie obowiązują, więc mogą grać, ile chcą – opowiada Marek, drużynowy harcerski.
Obserwacje te potwierdza Magdalena Bigaj. – Rodzice często nie wiedzą albo ignorują fakt, że ich 10-latka ma konto na Instagramie. Z niewiadomych mi przyczyn nie przywiązują wagi do tego, że granica wieku w takich serwisach to zwykle 13 lat. I jest ona po coś – dzieci nie umieją weryfikować informacji, nie są odporne na przemocowe treści. Jeżeli wpadną w króliczą norę informacji o zmianach klimatycznych, to mogą nabawić się depresji. Jeśli zobaczą urwane kończyny dzieci z Ukrainy, mogą przeżyć traumę. A takie filmy podpowiadają im algorytmy – wyjaśnia prezeska Instytutu Cyfrowego Obywatelstwa. I dodaje, że często to sami dorośli wpychają dzieci do mediów społecznościowych, np. nauczyciel prowadzący rozmowę klasową na Messengerze. Jest to też często forma komunikacji w drużynie harcerskiej czy klubie sportowym. – Aby lepiej zadbać o dzieci, z jednej strony potrzebne są regulacje, ale z drugiej – świadomość problemów, jakie mogą wynikać z korzystania z serwisów – zaznacza Magdalena Bigaj. ©℗