Najprostszym rozwiązaniem na deepfake'i jest zgłoszenie platformie [WYWIAD]

Deepfake
Najprostszym rozwiązaniem na deepfake'i jest zgłoszenie tej treści platformieShutterStock / MDV Edwards
dzisiaj, 17:30

- Najprostszym rozwiązaniem na deepfake'i jest zgłoszenie takiej treści platformie. Nawet jeśli nie stanowi nielegalnej treści, wciąż warto go zgłosić - mówi w rozmowie z DGP dr Dorota Głowacka, prawniczka z Fundacji Panoptykon.

W weekend pojawiły się pogłoski o śmierci premiera Izraela Binjamina Netanjahu, spekulacje te rozgorzały m.in. po tym, jak biuro premiera opublikowało wideo z jego wystąpieniem. Internauci uważali, że to deepfake, ponieważ dostrzegli, że Netanjahu 6 palców. Ostatecznie plotki to zdementowało biuro premiera Izraela. A on sam wstawił do internetu wideo, na którym pokazuje całą swoją dłoń. O to jak reagować na deepfake'i zapytaliśmy prawnik z Fundacji Panoptykon dr Dorotę Głowacką.

Co zrobić, gdy treść, którą widzimy w internecie wydaje nam się podejrzana, jak możemy ją zweryfikować? Gdzie możemy zgłosić deepfake?

Najprostszym rozwiązaniem jest zgłoszenie takiej treści platformie - w zależności od tego, z jakim dokładnie materiałem mamy do czynienia - jako treści bezprawnej albo niezgodnej z regulaminem danej usługi. Jeśli dany deepfake będzie jednocześnie naruszał prawo, platforma ma obowiązek zareagować na zgłoszenie i usunąć taki materiał - jeśli tego nie zrobi (mimo wiedzy o bezprawnym charakterze takiej treści), sama naraża się na to, że może ponieść za nią odpowiedzialność.

Jeśli dany deepfake nie stanowi nielegalnej treści, wciąż warto go zgłosić platformie. Większość z dużych platform społecznościowych ma różne wewnętrzne polityki dotyczące rozpowszechniania nieautentycznych treści, w tym wytworzonych przy pomocy narzędzi AI i - zgodnie z własnym regulaminem - powinna na takie zgłoszenie zareagować, usuwając problematyczny materiał z serwisu, odpowiednio go oznaczając czy ograniczając jego zasięgi.

Jeśli zgłosimy platformie, że dana treść jest nieprawdziwa, a platforma nie zareaguje, co możemy jeszcze zrobić? Jakie są prawne możliwości?

To zależy od tego, czy deepfake ma charakter bezprawny czy nie. W przypadku zgłoszenia bezprawnych treści, zasady odpowiedzialności platformy za nie oraz jej obowiązki wobec zgłaszającego określa Akt o usługach cyfrowych. Platforma ma obowiązek stworzyć odpowiednią ścieżkę zgłaszania bezprawnych treści, potwierdzić otrzymanie zgłoszenia, rozpatrzyć je „w sposób terminowy, niearbitralny i obiektywny oraz z zachowaniem należytej staranności” oraz powiadomić zgłaszającego o swojej decyzji. Jeśli zdecyduje o tym, aby nie usuwać zgłoszonego materiału, musi zapewnić zgłaszającemu możliwość odwołania w ramach platformy. Jeśli to nie pomoże, osoba zgłaszająca może rozważyć różne zewnętrzne mechanizmy postępowania, dzięki którym możliwe jest kwestionowanie decyzji moderacyjnych platform: skargę do organu pozasądowego rozstrzygania sporów, skierowanie sprawy do sądu czy - w niektórych przypadkach - także skargę do koordynatora ds. usług cyfrowych. Wszystkie ww. ścieżki, które mogą wesprzeć walkę z bezprawnymi treściami na platformach, opisujemy szczegółowo w przewodniku o Akcie o usługach cyfrowych, który wydamy w drugiej połowie marca.

Jeśli dany deepfake nie miał charakteru bezprawnego, a platforma ignoruje nasze zgłoszenie, na gruncie Aktu o usługach cyfrowych mamy znacznie bardziej ograniczone możliwości działania. Może być ciężko wyegzekwować np. usuniecie takiego materiału. Nie oznacza to jednak, że platformy są zupełnie zwolnione z podejmowania jakichkolwiek działań, wobec tego typu treści. Powinny na nie reagować, zwłaszcza jeśli np. wprowadzają w błąd, w ramach ograniczania tzw. systemowych ryzyk, które generują ich usługi. Dlatego mimo wszystko warto zgłaszać takie sytuacje, np. koordynatorom ds. usług cyfrowych, którzy dzielą się taką wiedzą z Komisją Europejską. Jeśli Komisja będzie miała wystarczające dane, żeby stwierdzić, że brak reakcji platformy stanowi w takich przypadkach systemowy problem, może sięgnąć po różne środki, aby "przymusić" platformę do zmiany takiej praktyki.

Czy takie same działania możemy podjąć, jeśli chodzi o treści z zagranicznych kont?

Ta kwestia nie ma w tym przypadku znaczenia.

A co zrobić, jeśli taki deepfake dotyczy nas, gdy ktoś wykorzysta nasz wizerunek?

Jeśli stało się to bez naszej zgody, wtedy najczęściej oznacza to, że mamy do czynienia z deepfake'iem, który jednocześnie stanowi nielegalną treść, bezprawnie wykorzystując nasz wizerunek. W zależności o okoliczności i charakterystyki danego materiału, możemy wówczas mówić o tym, że doszło np. do naruszenia naszych dóbr osobistych, a czasem nawet także do przestępstwa. Zastosowanie znajdą wówczas opisane wyżej mechanizmy dotyczące walki z bezprawnymi treściami, które oferuje Akt o uslugach cyfrowych.

Samo DSA skupia się na odpowiedzialności platform, natomiast niezależnie od tego możliwe jest podjęcie (nawet równoległych) działań wobec osoby, która zamieściła w sieci nielegalną treść. Osobę taką można na początek wezwać do jej natychmiastowego usunięcia. Potem można rozważyć też dalsze działania prawne, aby pociągnąć ją do odpowiedzialności - np. pozew o ochronę dóbr osobistych czy zgłoszenie do organów ścigania, które mogą wszcząć przeciwko takiej osobie postępowanie karne, jeśli sporna treść wypełnia znamiona przestępstwa.

Autopromocja
381367mega.png
381364mega.png
381208mega.png
Źródło: GazetaPrawna.pl / Dziennik Gazeta Prawna

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.