Zgodnie z regulaminem TikTok konto mogą posiadać osoby, które ukończyły 13 lat. W praktyce zapis ten ma charakter wyłącznie deklaratywny. Jak wynika z analiz organizacji społecznych oraz badań prowadzonych wśród dzieci i rodziców, z aplikacji aktywnie korzysta około 1,5 mln dzieci w Polsce w wieku od 7 do 13 lat.

– Te dzieci nie powinny tam być, a mimo to są – często za wiedzą i zgodą rodziców – podkreśliła edukatorka medialna, ekspertka Fundacji Bonum Humanum Agnieszka Taper.

Zdaniem socjolożki skala obecności dzieci na TikToku nie jest efektem pojedynczych zaniedbań, lecz konsekwencją społecznej normalizacji wczesnego kontaktu z mediami społecznościowymi. Podczas warsztatów prowadzonych w szkołach podstawowych dzieci wprost przyznają, że przy zakładaniu konta świadomie zawyżają wiek. W wielu przypadkach robią to przy cichej akceptacji dorosłych, którzy uznają, że „skoro wszyscy mają”, ich dziecko nie powinno być wyjątkiem.

Kontrola rodzicielska na TikToku – iluzja bezpieczeństwa

Jednym z kluczowych problemów jest zaufanie, jakim rodzice obdarzają narzędzia kontroli rodzicielskiej oferowane przez platformę. Jak pokazuje raport Fundacji Kids Alert, mechanizmy te mają bardzo ograniczony zakres. Pozwalają głównie na ustawienie limitu czasu korzystania z aplikacji, nie dając rodzicom realnego wglądu w historię wyszukiwań, zapisywane treści, komentarze ani – co kluczowe – rekomendacje algorytmu.

Rodzice często zakładają, że skoro dziecko „tylko ogląda filmiki”, ryzyko jest niewielkie. Tymczasem – jak podkreślają eksperci – TikTok nie jest neutralnym medium, a strumień treści nie ma charakteru losowego.

– To, co widzi dorosły użytkownik TikToka, nie ma niemal nic wspólnego z tym, co wyświetla się dzieciom – wskazuje Taper.

Algorytm TikToka – personalizacja oparta na emocjach i deficytach

Mechanizm działania algorytmu TikToka pozostaje jednym z najbardziej agresywnych systemów personalizacji treści na świecie. Aplikacja analizuje nie tylko polubienia czy komentarze, ale również czas oglądania, moment przewinięcia filmu, tempo reakcji i mikrozachowania użytkownika. Na tej podstawie budowany jest profil emocjonalny odbiorcy.

– Algorytmy analizują reakcje, emocje i zachowania użytkowników, a następnie podsuwają kolejne materiały, często coraz bardziej skrajne lub nieadekwatne do wieku – zaznaczyła Taper.

Badania prowadzone w Polsce i za granicą potwierdzają, że do dzieci trafiają treści dotyczące samookaleczeń, samobójstw, zaburzeń odżywiania, przemocy psychicznej i seksualizacji. Dla dzieci w wieku 7–13 lat są to przekazy, których nie potrafią ocenić ani zakwestionować.

– Dzieci nie mają jeszcze kompetencji emocjonalnych i poznawczych, by filtrować takie treści. One często traktują je jako normę społeczną – podkreśliła ekspertka.

„To nie medium społecznościowe, to narzędzie wpływu”

Na systemowy charakter zagrożenia zwraca uwagę prof. Mariusz Jędrzejko. W rozmowie z PAP podkreślił, że TikTok znacząco różni się od klasycznych platform społecznościowych.

– To narzędzie permanentnego wpływu, oparte na jednym z najbardziej agresywnych algorytmów personalizujących treści na świecie. Dorosły dostaje rozrywkę, dziecko – przekaz dopasowany do jego lęków, deficytów i potrzeby akceptacji. To nie komunikacja, to modelowanie zachowań – ocenił.

Jędrzejko zwrócił uwagę, że algorytmy gromadzą ogromne ilości danych: behawioralne, lokalizacyjne, czasowe i emocjonalne. – Następnie podaje się treści częściowo prawdziwe, wyrwane z kontekstu, atrakcyjnie opakowane. To dezinformacja w rozrywkowej formie. I to nie jest przypadek – zaznaczył.

Samobójstwa nastolatków i powtarzalne schematy treści

W ostatnich miesiącach opinię publiczną poruszyły przypadki samobójstw nastolatków, których profile w mediach społecznościowych zawierały niemal identyczne treści pożegnalne, te same hashtagi i identyczne podkłady muzyczne. TikTok konsekwentnie zaprzecza istnieniu „trendów” związanych z autoagresją.

Eksperci zwracają jednak uwagę, że jest to zabieg językowy. Jeżeli treści o podobnym charakterze są masowo rekomendowane określonej grupie wiekowej, mamy do czynienia z realnym zjawiskiem społecznym.

– Jeżeli dane treści osiągają masowe zasięgi i są kierowane do wrażliwej grupy wiekowej, to mamy do czynienia z realnym zjawiskiem społecznym – podkreślił prof. Jędrzejko. – Dzieci nie są zdolne do pełnej refleksji moralnej, a platforma umywa ręce.

Stanowisko TikToka: „99 procent treści usuwanych proaktywnie”

Biuro prasowe TikToka w stanowisku przekazanym PAP zapewniło, że platforma nie zezwala na treści promujące samobójstwa i samookaleczenia. Jak poinformowano, ponad 99 proc. treści naruszających zasady społeczności usuwanych jest proaktywnie, jeszcze zanim zostaną zgłoszone przez użytkowników, a wyszukiwanie określonych fraz jest blokowane.

Eksperci podkreślają jednak, że same deklaracje nie rozwiązują problemu, skoro dzieci wciąż trafiają na treści potencjalnie szkodliwe, a algorytm nie rozróżnia wrażliwości odbiorcy.

Smartfon w rękach trzylatka – norma, nie wyjątek

Na szerszy kontekst kulturowy zwraca uwagę Michał Twardosz, prezes Fundacji Projekt.pl i organizator konferencji „Uwaga Smartphone”.

– Rodzice bardzo często nie widzą albo nie chcą widzieć tego, co dzieje się w świecie cyfrowym ich dzieci. Prawo w tej sferze jest w dużej mierze martwe, a egzekwowanie regulaminów platform praktycznie nie istnieje – ocenił.

Z badań prowadzonych w szkołach podstawowych wynika, że pierwszy smartfon trafia dziś nawet do trzylatków. – Rodzice tłumaczą to względami bezpieczeństwa albo przekonaniem, że dziecko szybciej zdobędzie kompetencje cyfrowe. Tymczasem badania jasno pokazują, że nadmierna ekspozycja ekranowa zaburza rozwój kompetencji matematycznych i poznawczych. To dokładnie odwrotny efekt od zamierzonego – podkreślił Twardosz.

Eksperci wskazują również na normalizację obecności ekranów w życiu najmłodszych: zabawkowe smartfony dla niemowląt, uchwyty na telefony montowane przy nocnikach czy w samochodach.

– To wszystko podprogowo uczy, że smartfon jest naturalnym przedłużeniem życia od pierwszych miesięcy – zaznaczył Twardosz.

Odpowiedzialność moralna i regulacje państwowe

Zdaniem prof. Jędrzejki problem wykracza poza psychologię i edukację.

– Jeżeli wiemy, że dane narzędzie szkodzi dzieciom, a mimo to je utrzymujemy, to jest to działanie niemoralne. Tu nie ma ideologii – są fakty i odpowiedzialność – podkreślił.

Coraz więcej państw decyduje się na zaostrzenie regulacji. W Australii minimalny wiek użytkownika TikToka podniesiono do 16 lat. Eksperci zgodnie wskazują jednak, że same zakazy nie wystarczą bez szeroko zakrojonych kampanii edukacyjnych skierowanych do rodziców.

– Brak decyzji też jest decyzją – i zapłacą za nią dzieci. Każdy miesiąc zwłoki to kolejne dane, kolejne zaburzenia i kolejne realne szkody – zaznaczył Jędrzejko.