Michał Gramatyka, wiceminister cyfryzacji: Jeżeli nie uda się w rozsądny sposób ująć w projekcie patostreamów, zostawimy w nim tylko przepisy dotyczące pornografii. Mam jednak nadzieję, że się uda. Jest wielu mądrych ludzi, którzy alarmują, jak szkodliwe dla dzieciaków mogą być takie „wyzwania”.
- Co znajdzie się w nowej wersji rządowego projektu ustawy
- Po co strony internetowe mają przeprowadzać analizy ryzyka
- Patostreamy - czyli jakie wyzwania to treści szkodliwe
- Weryfikacja wieku - jak to zrobić dobrze
- Obywatelski projekt ustawy o ochronie dzieci przed pornografią
Rzeczywiście ten raport jest wstrząsający, chociaż nie mówi niczego, czego byśmy już nie wiedzieli. Podobne prawidłowości widzieliśmy wcześniej w badaniach NASK. Tu jednak mamy wyniki pozyskane w oparciu o narzędzia analityczne badające korzystanie z internetu. A badania NASK bazowały na deklaracjach.
Dzieciaki sięgają po pornografię. Nastolatki czerpią wiedzę o życiu seksualnym z filmów pornograficznych. To niszczy młode umysły. Potem nastolatki nie są w stanie odpowiedzieć na pytanie, czy te filmy pokazują zachowania naturalne, czy udawane. Czy to się dzieje naprawdę, czy może na pokaz. Niektórzy nie są w stanie później budować relacji partnerskich. Sam znam takie sytuacje.
A najgorsze, że pierwszy kontakt z internetową pornografią najczęściej następuje przypadkiem. To są często treści podsyłane przez algorytm, obrazki, których młody człowiek nie szuka.
Na pewno. Pracujemy nad tym od dawna. W Ministerstwie Cyfryzacji jeszcze na początku ubiegłego roku powołaliśmy grupę roboczą – przedstawicieli polskich uczelni, stowarzyszeń i instytucji – wszystkich zainteresowanych. Wypracowaliśmy projekt ustawy, który ostatnio opublikowaliśmy (projekt ustawy o ochronie małoletnich przed dostępem do treści szkodliwych w internecie, nr z wykazu: UD179 – red.).
Co znajdzie się w nowej wersji rządowego projektu ustawy
Moich wątpliwości nie budzą. Ale od początku. Przede wszystkim to jest bardzo wstępna wersja tego projektu. Przed uzgodnieniami międzyresortowymi i przed publicznym wysłuchaniem. Zaprosiliśmy wszystkich do Ministerstwa Cyfryzacji na środę (12 marca – red.). Generalnie projekt dotyczy dwóch rodzajów treści: pornograficznych, których nie definiujemy, oraz szkodliwych, które dopiero na definicję czekają.
Oczywiście, inaczej ustawa w tym zakresie nie zadziała. Potrzebę sformułowania definicji treści szkodliwych, wypracowanej w trójkącie: MC, MEN, Ministerstwo Sprawiedliwości, zgłosił Zespół Programowania Prac Rządu.
Po co strony internetowe mają przeprowadzać analizy ryzyka
Portale oferujące treści pornograficzne muszą wprowadzić weryfikację wieku. Natomiast analiza ryzyka odnosi się do szerszego zakresu treści, oprócz pornograficznych obejmie też pozostałe treści szkodliwe. Jeśli wyjdzie z niej, że kontent może zaszkodzić dzieciom, dana część portalu powinna być kierowana tylko do dorosłych.
W takiej sytuacji również należy ograniczyć dzieciom do nich dostęp. Pod warunkiem oczywiście, że uda nam się wypracować sensowną i precyzyjną, prawną definicję treści szkodliwych. Jeśli nie, to wymóg ograniczenia dostępu będzie dotyczył tylko pornografii.
Ale taki jest nasz cel, to znaczy taki jest cel tej analizy ryzyka. Wzorem brytyjskim, analiza jest po to, by te części portali, które mogą zaszkodzić dzieciom, były dostępne tylko dla dorosłych. Weźmy duży portal aukcyjny z szeroką ofertą filmów erotycznych – czy dzieci powinny oglądać ich reklamy? Na stacjach benzynowych gazety dla dorosłych stały zwykle wysoko na stojakach, z zasłoniętymi okładkami. Ze względu na dobro dzieci.
Co pornografią jest, a co nie jest, wszyscy wiedzą. „Wie” to w szczególności prawo karne, bo są na ten temat tomy orzecznictwa. „Wiedzą” też platformy internetowe, bo przecież ich algorytmy bardzo trafnie wycinają takie treści.
Chciałem uniknąć przeniesienia ciężaru dyskusji z celu naszej ustawy na rozważania, czym jest pornografia. Dlatego postanowiliśmy jej nie definiować. Słuszność naszego rozumowania potwierdza m.in. opinia prof. Michała Romanowskiego, znanego prawniczego autorytetu.
Patostreamy - czyli jakie wyzwania to treści szkodliwe
Po dyskusji w Zespole Programowania Prac Rządu zostawiliśmy otwartą furtkę dla sformułowania tej definicji. Chcemy objąć projektem patostreamy, challenge'e i tym podobne. Tyle że stworzenie takiej definicji wymaga dużej pracy.
Wyzwania typu: wypijmy 20 piw i zobaczmy, co się z nami stanie. Albo: napijmy się wybielacza i zobaczmy, jak nasz organizm zareaguje. Albo: skoczmy z mostu, a nuż nam się uda. Ostatnio na TikToku popularny jest challenge: pokaż mi, jakich używasz narkotyków.
Pamiętam, „ice bucket challenge” – w zimie dzieciaki oblewały się wodą. Bardzo trudno jest przeprowadzić taką granicę – które z tych wyzwań są albo mogą być szkodliwe, a które nie. Dlatego zostawiliśmy to do ustalenia na etapie konsultacji międzyresortowych.
To, jak pornografia działa na młode umysły, jest jasne, zbadane, zidentyfikowane. Natomiast to, jak działają patostreamy czy takie właśnie wyzwania, zachęty do zachowań groźnych dla zdrowia – tego jeszcze nie wiemy.
Gdybym podczas naszej rozmowy napił się piwa, to takie zachowanie w jakimś dalekim horyzoncie może rzutować na moje zdrowie. Ale czy jest treścią szkodliwą? Nie wiadomo.
To jest właśnie praca do wykonania. Jeżeli nie uda się w rozsądny sposób ująć tych patostreamów, zostawimy w projekcie tylko przepisy dotyczące pornografii. Mam jednak nadzieję, że się uda.
Jest wielu mądrych ludzi, którzy alarmują, jak szkodliwe dla dzieciaków mogą być takie „wyzwania”. A chodzi przecież o to, żeby to prawo było precyzyjne, dostosowane do rzeczywistości. No i żeby nie ograniczać w nadmierny sposób wolności korzystania z internetu dorosłym.
Ustawa, w kontrze do DSA (unijne rozporządzenie – Akt o usługach cyfrowych – red.) ma dotyczyć treści legalnych, ale szkodliwych dla dzieci. Z tym, co nielegalne, problemu nie będzie, bo zostanie opisane we wdrożeniu DSA.
Minister Dariusz Standerski mocno się stara, żeby były. Ja też robię, co mogę. Między innymi udało się przekonać prezesa UKE do stworzenia departamentu zajmującego się właśnie unijnymi, cyfrowymi przepisami.
Ale rzeczywiście to niedobrze, że jesteśmy ostatnim krajem europejskim, który nie zaimplementował DSA. To uregulowanie zapewnia m.in. ścieżkę odwoławczą od decyzji wielkich platform. Dziś, gdy znika post czy cały profil, możemy pisać na Berdyczów. A wielkie amerykańskie firmy wracają do umownej wolności słowa. Umownej, bo jak się okazało, że co drugi post Elona Muska dostaje notkę społecznościową, to X szybciutko przeprojektował mechanizm działania tych notek. Negatywne komentarze pod postami Muska też znikają. Czyżby wolnością słowa według big techów było tylko to, co one za tę wolność uznają?
Weryfikacja wieku - jak to zrobić dobrze
Zacznijmy od tego, co mamy dziś. Żeby uzyskać dostęp do treści pornograficznych, trzeba postawić ptaszek w kratce z napisem „mam 18 lat, wchodzę dalej”. Co się wtedy dzieje? Cała odpowiedzialność za korzystanie z tej strony zostaje przeniesiona z dostawcy na użytkownika. Czy to jest wystarczające zabezpieczenie? Moim zdaniem nie. Każdy tę kratkę może kliknąć i nikt nie weryfikuje, czy to jest prawdziwa odpowiedź.
Co proponujemy? Przeniesienie odpowiedzialności na pornobiznes. Oni mają dwie grupy klientów – tych, którzy im płacą, i tych, którzy anonimowo korzystają z zasobów bezpłatnych. Większość korzystających płaci za dostęp do pornografii. Z nimi nie ma problemu, bo serwisy pornograficzne weryfikują ich na podstawie płatności.
Taki rodzic się o tym prędzej czy później dowie. Można założyć, że ogromna większość klientów płacących to dorośli. Druga grupa to klienci anonimowi. I to dla nich potrzebujemy mechanizmu weryfikacyjnego. Musi on, po pierwsze, zapewnić prywatność: jedyną daną, którą przekazuję, jest to, że jestem albo nie jestem pełnoletni. Nic więcej. Po drugie, mechanizm nie może bazować na technologiach biometrycznych. Zabraniamy w ustawie ich używania. Biometrię wykorzystują automaty sprzedające energetyki w Żabce Nano – moje 20-letnie dziecko nie jest w stanie ich kupić, bo algorytm ciągle mu mówi, że nie jest dorosłe. A TikTok jest pełen sposobów na oszukanie automatu: pokazanie zdjęcia, zrobienie odpowiedniej miny, doklejenie sobie wąsów i tak dalej. Więc to nie jest dobry mechanizm.
Kiedyś w Centralnym Ośrodku Informatyki był projekt pozwalający na wykorzystanie wystawcy dokumentu jako „zaufanej trzeciej strony”. Dzielimy się z nią swoją tożsamością (np. w mObywatelu), ale to my decydujemy o tym, jakie dane przekazujemy. Wyobrażam sobie taki algorytm, który generuje kod QR z tylko jedną daną: jestem pełnoletni. Zaufana trzecia strona generuje dla nas ten kod – którego można użyć do weryfikacji na stronie pornograficznej czy gdziekolwiek indziej – i nie przekazuje naszych danych dalej, bo jest zaufana. A dostawca treści pornograficznych wie o mnie dwie rzeczy: że jestem pełnoletni i że ten kod QR jest zweryfikowany przez wystawcę dokumentu. Całkiem dobrze wymyślone.
Mówię tylko, jak to sobie wyobrażam. Na pewno weryfikacja wieku przestanie być problemem, gdy zostanie wdrożony eIDAS-2, czyli unijne rozporządzenie o identyfikacji elektronicznej i usługach zaufania. W myśl nowych przepisów to my będziemy decydować, jakie atrybuty naszego dokumentu pokazać. Z całego naszego elektronicznego dowodu osobistego będziemy mogli np. udostępnić tylko informację o pełnoletniości. Będziemy też mogli posługiwać się pseudonimem w internetowych transakcjach. No i gdy wejdzie eIDAS-2, nikt nie będzie musiał się zastanawiać, czy to jest informacja zweryfikowana. „Dowód z wiedzą zerową” załatwi sprawę. Komisja Europejska rozpisała zresztą postępowanie na dostarczenie takiej technologii w skali całej Unii. Z jednej strony ma ona zapewniać prywatność i anonimowość, a z drugiej – służyć weryfikacji, czy ktoś jest dorosły.
W przyszłym roku musimy mieć pełną implementację eIDAS-2. Nasza ustawa na pewno nie wejdzie w życie wcześniej. Trafi pewnie do Sejmu latem, a zaplanowaliśmy sześciomiesięczną vacatio legis. Do tego czasu rynek identyfikacji siłą rzeczy się zmieni, właśnie z powodu eIDAS-2.
Obywatelski projekt ustawy o ochronie dzieci przed pornografią
Rozwiązania zawarte w tym projekcie są podobne do naszych.
Mam nadzieję, że nie wszystkie, bo ten projekt idzie trochę za daleko.
Poparłem podczas I czytania, żeby nie wypadł w ogóle z Sejmu. Mamy taką zasadę – my, Polska 2050 Szymona Hołowni – że projekty obywatelskie powinny wędrować do prac w komisji. Doceniam rozwiązania, które są w projekcie Ordo Iuris, ale jestem w stanie pokazać też jego słabe strony. Na przykład w ich projekcie uwzględniono tylko pornografię. Została ona tam zdefiniowana, co jest niepotrzebne. Nie ma natomiast żadnych sankcji, a więc brak instrumentów, które wymuszałyby stosowanie przepisów.
To odcięcie od usług płatniczych również mnie nie przekonuje. Myślę, że najlepsze, co możemy zrobić, to wspólnie pracować w Sejmie nad oboma projektami.
Czy komunikatory i poczta internetowa będą skanowane dla dobra dzieci?
Myślę, że tak, bo komunikatory to już sfera prywatnej korespondencji. Zresztą na ich temat toczy się zupełnie inna dyskusja, związana z CSAM (materiały przedstawiające seksualne wykorzystywanie dzieci, z ang. child sexual abuse material – red.).
Będziemy w końcu musieli zająć stanowisko, które będzie jakimś balansem pomiędzy prywatnością a dobrem dzieci.
Za chwilę nasza prezydencja się skończy i prawdopodobnie w tej sprawie nie posuniemy się daleko. Ale to nie jest pytanie do mnie, bo ja nad tym nie pracuję. Natomiast widzę potrzebę dyskusji na ten temat, bo komunikatory to chyba jeden z najpowszechniejszych kanałów rozpowszechniania materiałów typu CSAM. A są one jeszcze gorsze niż pornografia, bo chodzi o obrazy seksualnego wykorzystywania dzieci – materiały pochodzące z przestępstwa.
Nowe obowiązki UKE
Wkrótce. Pewnie w kwietniu skierujemy go do Sejmu. Decydowaliśmy ostatnio, gdzie skoncentrujemy obowiązki wynikające z DGA. Pewną rolę odegrają UODO i UOKiK, ale głównym organem będzie Urząd Komunikacji Elektronicznej. Skoro już i tak będzie dbał o przestrzeganie dyrektywy Digital Single Market (będzie prowadził mediacje między wydawcami a big techami w sprawie opłat licencyjnych – red.), będzie miał u siebie też akt o usługach cyfrowych...
No a jaki inny urząd może to wziąć? Przecież nie Generalna Dyrekcja Dróg Krajowych i Autostrad (śmiech). UKE przestaje być organem, który dba tylko o zarządzanie częstotliwościami i o pocztę. Ewoluuje w stronę brytyjskiego Ofcomu.
Zaraz po DGA. O ile nie spodziewam się większego problemu z DGA w Sejmie, bo łatwo jest pokazać potrzebę wprowadzenia tych rozwiązań (ponowne wykorzystanie niektórych kategorii chronionych danych będących w posiadaniu podmiotów sektora publicznego – red.), to przy Data Act, który dotyczy dostępu do internetu rzeczy, danych gromadzonych m.in. przez producentów inteligentnych zegarków czy samochodów – pewnie dyskusja będzie bardziej skomplikowana. ©℗