Od piątku najwięksi gracze internetowi muszą się w Unii Europejskiej stosować do nowych zasad dotyczących m.in. moderacji treści i wyświetlania reklam.

Przepisy rozporządzenia 2022/2065 – Akt o usługach cyfrowych (dalej: DSA) obowiązują na razie bardzo duże platformy (VLOP) i wyszukiwarki (VLOSE) oraz najpopularniejsze media społecznościowe.

– Inni dostawcy usług pośrednich – np. portale internetowe z sekcjami komentarzy – będą się musieli stosować do tej regulacji dopiero od lutego – mówi Dorota Głowacka, prawniczka z Fundacji Panoptykon.

Shadowbany bez cienia wątpliwości

– Najbardziej odczuwalne zmiany dotyczą doboru i moderacji treści – wskazuje Dorota Głowacka.

Kto nie chce, aby algorytmy dobierały treści, jakie ogląda, wchodząc na platformę (tzw. feed), od piątku może z takiej personalizacji zrezygnować. Serwisy muszą bowiem oferować co najmniej system rekomendacyjny, który nie bazuje na przetwarzaniu danych osobowych. Dominującą alternatywą jest najprostsza kolejność chronologiczna – np. na Facebooku z dodatkowym podziałem (ulubione, znajomi itd.).

– Nie jest to może najszczęśliwszy wybór, ponieważ większość z nas oczekuje jednak jakiejś selekcji informacji, ale z punktu widzenia ochrony prywatności takie rozwiązanie wydaje się bezpieczniejsze – uważa Dorota Głowacka. Niektóre serwisy umożliwiały to wcześniej, ale w sposób mało przyjazny dla użytkownika. – Teraz opcje zarządzania treściami muszą być łatwo dostępne i skuteczne. Daje to możliwość „wylogowania” się z podstawowego systemu rekomendacyjnego, którego głównym celem jest wzbudzić jak największe zaangażowanie i na maksymalnie długi czas przykuć nas do ekranów, przez co w praktyce feed niektórych użytkowników jest nafaszerowany toksycznymi dla nich treściami – dodaje.

Najwięksi gracze musieli też opublikować swoje polityki w zakresie moderacji. – Jest w nich dużo klauzul otwartych, nieścisłych, co wciąż pozostawia platformom pole do podejmowania uznaniowych decyzji o usuwaniu treści czy blokowaniu kont – mówi dr Iga Małobęcka-Szwast, radca prawny z kancelarii Wardyński i Wspólnicy. – Na pewno jednak cały proces moderacji jest teraz bardziej przewidywalny i czytelniejszy dla użytkownika, niż było to przed DSA – zaznacza Dorota Głowacka.

Akt rozwiał też tajemnice wokół tzw. shadowbanów. Dotychczas użytkownicy Instagrama i innych mediów społecznościowych mogli się tylko domyślać, dlaczego nagle skurczyło się grono odbiorców ich treści. Teraz każdy, komu platforma ograniczy zasięg, dostanie informację z wyjaśnieniem.

Z udziałem człowieka

To samo dotyczy usuwania wpisów i blokowania kont. – Osoby, które czuły się niesprawiedliwie zablokowane albo którym bez podawania szczegółowego uzasadnienia usunięto wpisy, dotychczas nie miały realnej szansy dowiedzieć się, dlaczego tak się stało, ani skutecznie kwestionować takich decyzji – przypomina Dorota Głowacka.

DSA wymaga od platform, aby w zrozumiały sposób uzasadniały decyzje o usuwaniu treści i blokowaniu kont. – Muszą też umożliwić skuteczne odwołanie się – tak, by użytkownik mógł przedstawić swoje argumenty, a ostateczne decyzje były podejmowane z udziałem człowieka, a nie wyłącznie przez algorytm – wyjaśnia prawniczka.

Dodaje, że zwiększenie transparentności decyzji moderacyjnych, obowiązek zapewnienia skutecznych procedur odwoławczych i odpowiedniej liczby moderatorów we wszystkich językach świadczenia usług oraz inne wymogi DSA powinny się przełożyć na lepszą jakość moderacji. – Dzięki temu powinno być mniej błędnych decyzji, a błędy, które się pojawią, powinno być łatwiej „odkręcić” – mówi Dorota Głowacka.

Pod szczególną ochroną są najmłodsi użytkownicy: big techy nie mogą już profilować reklam na podstawie danych osobowych dzieci. Wobec dorosłych nie wolno do tego celu używać danych wrażliwych: np. informacji o stanie zdrowia, nałogach, wyznaniu, poglądach czy orientacji seksualnej.

Michał Sałajczyk z kancelarii Baker McKenzie Krzyżowski i Wspólnicy zwraca uwagę na jeszcze inny aspekt nowych zasad reklamowych dla bardzo dużych platform i wyszukiwarek. – Muszą udostępniać repozytorium reklam zawierające każdą reklamę razem z danymi – kto był reklamodawcą, do jakich grup reklama trafiła, według jakich kryteriów była profilowana – wskazuje.

Dotychczas Facebook i Google robiły to w odniesieniu do reklam politycznych. Michał Sałajczyk uważa, że dla branży reklamowej będą to cenne informacje. – Takie dane to potencjalnie źródło przewagi konkurencyjnej. Można na tej podstawie też wnioskować, jakie rodzaje reklamy najlepiej się sprawdzają, i na tej podstawie planować swoje działania – mówi Michał Sałajczyk.

Skargi na Berdyczów

DSA wprowadza też zakaz stosowania zwodniczych interfejsów. Są to np. okienka dotyczące ciasteczek, gdzie zgodzić się na śledzenie możemy jednym przyciskiem, natomiast odmówienie wymaga przeklikania się przez wiele pól. – Podobnie manipuluje się innymi wyborami: np. kto ma dostęp do treści, jakie publikujemy w mediach społecznościowych (domyślnie wszyscy). To wielkie pole do nadużyć i egzekwowanie tego zakazu nie będzie łatwe – uważa Iga Małobęcka-Szwast.

Co może zrobić użytkownik, który natknie się na zwodniczy interfejs?

– Skargi w zakresie nieprzestrzegania DSA zgodnie z art. 53 aktu można wnosić do koordynatorów ds. usług cyfrowych państw członkowskich – odpowiada dr Małobęcka-Szwast. Koordynator dokonuje oceny skargi i, w stosownych przypadkach, przekazuje ją swojemu odpowiednikowi w kraju, gdzie platforma ma europejską siedzibę (w wielu przypadkach będzie to więc Irlandia), albo – gdy sprawa dotyczy platform VLOP i wyszukiwarek VLOSE – Komisji Europejskiej. W odniesieniu do największych podmiotów krajowy koordynator może egzekwować DSA, jeśli Komisja nie wszczęła postępowania w sprawie tego samego naruszenia i nie dotyczy ono przepisów adresowanych tylko do nich (rozdział III sekcja 5 DSA).

Iga Małobęcka-Szwast wskazuje tu jednak na poważny problem: większość państw członkowskich, w tym Polska, nie powołała jeszcze koordynatora (trzeba to zrobić do 17 lutego 2024 r.). – Wydaje się więc, że do tego czasu użytkownicy nie będą mieli jak poskarżyć się np. na zwodnicze interfejsy. Bez koordynatorów art. 53 jest obecnie martwy – mówi prawniczka.

Ci sami koordynatorzy będą też certyfikować specjalne organy pozasądowe – wyższą instancję w sporach między użytkownikami a platformami np. w sprawie blokady konta.

Alternatywnym rozwiązaniem jest zwrócenie się do sądu. – Z tym że w Polsce nie jest to dziś efektywna droga: np. nasza sprawa z Facebookiem, w której wspieramy inną organizację zablokowaną przez tę platformę, toczy się od 2019 r. Należałoby więc stworzyć w prawie krajowym realną możliwość szybkiej ścieżki dostępu do sądu w tego rodzaju przypadkach – stwierdza Dorota Głowacka. ©℗

ikona lupy />
Najwięksi gracze na rynku / Dziennik Gazeta Prawna - wydanie cyfrowe