– Prywatna cenzura nie tylko nie przybliży nas do skutecznej walki z nienawistnymi treściami, ale wręcz przeciwnie – dodatkowo wzmacnia dyskryminację – mówi - Dorota Głowacka prawniczka fundacji Panoptykon.
Po pierwsze, że zablokowanie SIN bez uzasadnienia i bez stworzenia możliwości realnego odwołania się od takiej decyzji jest bezprawne i narusza dobra osobiste organizacji. Interpretujemy to jako silny sygnał wskazujący, że co do zasady wszystkie platformy powinny odpowiednio wyjaśniać takie decyzje i stworzyć skuteczną ścieżkę odwoławczą dla swoich użytkowników. Platformy nie mogą więc zupełnie uznaniowo decydować, kogo i kiedy zablokować, a do niedawna w praktyce tak to właśnie często wyglądało.
Po drugie, sąd potwierdził, że istnieje możliwość zakwestionowania decyzji o usunięciu konta przed niezależnym organem. Oznacza to, że jako użytkownicy nie jesteśmy skazani na to, że platformy podejmują ostateczne decyzje w tym zakresie, ale są sytuacje, w których możemy skorzystać z istniejących w Polsce przepisów, żeby taką decyzję zweryfikować przed sądem. To ważne, ponieważ w kwestiach związanych z realizacją swobody wypowiedzi to właśnie sądy, a nie prywatne podmioty powinny mieć ostatnie słowo.
Trzeci ważny aspekt tego wyroku to kwestia jurysdykcji. Polski sąd potwierdził, że jest właściwy do rozpoznania sprawy polskiego użytkownika platformy należącej do spółki, która swoją europejską siedzibę ma w Irlandii.
Teoretycznie nie. To, co przytrafiło się SIN, czyli nietransparentna i arbitralna blokada, nie powinno się już wydarzyć, ponieważ DSA mówi wprost o obowiązku uzasadniania decyzji o usunięciu konta czy treści i nakazuje platformom zapewnić odpowiednią możliwość odwołania się.
To będzie oznaczało naruszenie DSA i w takiej sytuacji teoretycznie można się poskarżyć do koordynatora usług cyfrowych. Teoretycznie – dlatego że w Polsce tego koordynatora jeszcze nie powołano.
Niezależnie od tego, w wypadku decyzji moderacyjnych, z którymi się nie zgadzamy merytorycznie – nawet jeśli wszystkie standardy proceduralne zostały spełnione – użytkownik, zgodnie z DSA, ma dwie opcje. Dotyczy to zarówno decyzji o usunięciu konta, jak i sytuacji odwrotnej, gdy zgłaszam treść, która w moim poczuciu jest nielegalna, a platforma odmawia jej usunięcia.
Jedną jest zakwestionowanie decyzji przed sądem na gruncie przepisów krajowych. Nasza sprawa jest w tym kontekście o tyle przełomowa, że po raz pierwszy przesądzono, że w określonych okolicznościach można wykorzystać w tym celu przepisy o ochronie dóbr osobistych.
Na razie niestety tak. Te organy może stworzyć państwo lub podmioty prywatne – ale zgodnie z DSA muszą one być certyfikowane przez krajowego koordynatora do spraw usług cyfrowych, który m.in. musi zapewnić, że będą one spełniały odpowiednie kryteria.
Ta opcja ma duże zalety z punktu widzenia użytkowników. Postępowania przed pozasądowymi organami rozstrzygania sporów mają być dla nich bezpłatne albo opłata ma być nieznaczna. Dodatkowo te organy mają rozpoznawać sprawy co do zasady w ciągu 90 dni – jak to zestawimy z naszym prawie pięcioletnim postępowaniem do wyroku w pierwszej instancji, to jest rzeczywiście bardzo szybko. Natomiast podstawową wadą jest to, że decyzje tych organów nie są formalnie wiążące dla platform.
W żadnym momencie tego procesu nie chodziło nam o to, aby platformy nie mogły blokować nielegalnych treści. Doskonale sobie zdajemy sprawę z tego, że platformy są wykorzystywane do rozpowszechnia różnych rodzajów bezprawnych treści, w tym skrajnie szkodliwych, takich jak mowa nienawiści czy nawoływanie do przemocy. Platformy powinny takie treści usuwać.
DSA utrzymuje znaną już z wcześniejszych regulacji zasadę ograniczonej, warunkowej odpowiedzialności platform, która motywuje je do tego, aby nie pozostawały obojętne wobec bezprawnych treści zamieszczanych przez użytkowników. W uproszczeniu: platforma nie odpowiada za takie treści, dopóki nie ma o nich wiedzy, ale kiedy się o nich dowie – np. gdy ktoś je zgłosi – ma obowiązek je zablokować, jeśli chce dalej korzystać z wyłączenia odpowiedzialności. Jeżeli nie zareaguje, mimo wiedzy o bezprawnej treści, to może sama ponieść za nią odpowiedzialność, niezależnie od odpowiedzialności autora postu.
Wspieramy absolutnie to, że platformy powinny się włączać w walkę z bezprawnymi treściami, i nie chcemy im wiązać rąk. Jednocześnie zależy nam na tym, aby nie blokowały nadmiarowo – tak jak w przypadku SIN – treści, które nie tylko nie były nielegalne, lecz także realizowały ważny interes publiczny. Sprawa SIN nie była odosobnionym przypadkiem tego rodzaju, w przeszłości z niejasnych przyczyn z platform znikały np. relacje z protestów społecznych, fotografie historyczne, publikacje dokumentujące brutalność policji, sztuka czy satyra. Błędy w ocenie treści czy obrazu oczywiście mogą się zdarzyć, ale chodzi o to, aby taką pomyłkę można było odkręcić, co do tej pory było bardzo trudne.
Problem nadmiarowego usuwania treści – tzw. prywatna cenzura – dotyczy szczególnie pewnych grup: np. osób LGBT albo czarnoskórych kobiet. Są badania wskazujące, że te grupy są bardziej narażone na zablokowanie. A jednocześnie często te same grupy są również szczególnie narażone na ataki w sieci, np. homofobiczną mowę nienawiści. ©℗