Ostatnimi czasy głośna była sprawa dotycząca wygenerowania za pomocą AI oraz upubliczniania nagiego wizerunku uczennicy. Organy ścigania początkowo odmówiły wszczęcia śledztwa w tej sprawie. Zmieniły zdanie dopiero po interwencji prezesa UODO.
Kolejny problem z deepfake’ami to oszustwa finansowe. Wizerunek znanych osób często wykorzystywany jest do tworzenia przez naciągaczy reklam, namawiających do inwestowania pieniędzy. Opisywane problemy poruszane były na niedawnej konferencji zorganizowanej przez Urząd Ochrony Danych Osobowych.
Dylematy organów ścigania
Podczas wydarzenia zastępca komendanta Centralnego Biura Zwalczania Cyberprzestępczości (CBZC) insp. Michał Pudło mówił m.in. o tym, że kwalifikacje prawne, które dotykają tej materii, nie są jasne.
Odnosząc się do sytuacji przerobienia zdjęcia uczennicy, przeanalizował konkretne przepisy, m.in. art. 202 par. 3 kodeksu karnego, który mówi, że „kto w celu rozpowszechniania produkuje, utrwala lub sprowadza, przechowuje lub posiada albo rozpowszechnia lub prezentuje treści pornograficzne z udziałem małoletniego albo treści pornograficzne związane z prezentowaniem przemocy lub posługiwaniem się zwierzęciem, podlega karze pozbawienia wolności od lat 2 do 15”.
W ocenie insp. Pudło nie jest jasne, jak rozumieć użyty w tym przepisie zwrot „z udziałem małoletniego”.
- Mieliśmy zdjęcie dziewczynki opublikowane na Facebooku i ktoś do tego dorobił treść pornograficzną przy pomocy AI. Powstaje więc pytanie, czy można mówić w takiej sytuacji, czy były to treści „z udziałem małoletniego” czy nie? Orzecznictwo nie jest w tej kwestii jednolite – mówił.
Insp. Pudło miał też wątpliwości co do stosowania w takich przypadkach art. 202 par. 4b k.k. Zgodnie z tym przepisem, „kto produkuje, rozpowszechnia, prezentuje, przechowuje lub posiada treści pornograficzne przedstawiające wytworzony albo przetworzony wizerunek małoletniego uczestniczącego w czynności seksualnej podlega karze pozbawienia wolności do lat 3”. Pudło, odnosząc się do sytuacji ze zdjęciem dziewczynki, rozważał, czy fakt, że była ona naga wystarcza, aby można było zastosować cytowany przepis.
W ocenie zastępcy komendanta CBZC należałoby doprecyzować pewne zapisy. Jako dobry przykład takiego doprecyzowania podał rozwiązanie z włoskiego kodeksu karnego, zgodnie z którym „kto produkuje, rozpowszechnia, prezentuje, przechowuje lub posiada obrazy, filmy lub głosy wytworzone, przetworzone bądź zmienione w szczególności za pomocą systemów sztucznej inteligencji i mogące wprowadzić w błąd co do ich prawdziwości, przez co wyrządza szkodę majątkową, podlega karze pozbawienia wolności do lat 5”.
Dziurawa ochrona
Przed deepfakami nie do końca chronią nas również przepisy unijne. Tym bardziej że nie implementowaliśmy ani AI Aktu, ani Aktu o usługach cyfrowych (ustawę, która miała wdrożyć ten drugi akt, zawetował ostatnio prezydent, a Ministerstwo Cyfryzacji przygotowało już kolejne rozwiązania, które zmierzają do tego celu).
Adwokat dr Karolina Mania z Katedry Zarządzania Strategicznego UJ, współautorka raportu „Deepfake i nadużycia na tle seksualnym – prawo wobec wyzwań syntretycznych mediów”, zwracała uwagę, że tematyka deepfake w UE chroniona jest wielopoziomowo, systemowo.
- Mamy kilka źródeł prawa, które aktywizują się, kiedy mamy do czynienia z deepfakeami: to DSA w przypadku treści już opublikowanych i AI Act, który ma być dedykowany dla tych, którzy projektują te systemy i dla użytkowników - mówiła.
Dr Mania podczas konferencji wskazała też na unijną dyrektywę w sprawie zwalczania przemocy wobec kobiet i przemocy domowej, której Polska jeszcze nie implementowała.
- Polska ma możliwość zaimplementowania tej treści dyrektywy, tworząc rozwiązania dedykowane względem cyberprzemocy wobec kobiet – podkreślała prelegentka.
Jeśli chodzi zaś o DSA, to w ocenie dr Mani zawarte w tym akcie rozwiązania nie do końca chronią nas przed deepfake’ami. Po pierwsze, jak uzasadniała, brak jest w nim dookreślenia czasu, w jakim platforma ma zareagować i usunąć materiał. Po drugie, użytkownik sam musi zainicjować proces do tego zmierzający. I po trzecie, każde zgłoszenie dotyczy osobnego posta, więc naruszyciel, zanim cała procedura się zakończy, zdąży rozpowszechnić plik na innych portalach. Nie ma też osobnej ścieżki zgłaszania naruszeń typu deepfake pornography, które bardzo mocno godzą w dobra osobiste.
Ministerstwo dostrzega problem
Do problemu deepfake’ów odniosło się także Ministerstwo Cyfryzacji odpowiadając na interpelację poselską. Wiceminister Standerski napisał, że w celu ochrony obywateli przed nadużyciami związanymi z wykorzystaniem sztucznej inteligencji procedowany jest projekt ustawy o systemach sztucznej inteligencji, który zapewni skuteczne wdrożenie AI Act w Polsce.
Wskazał, że art. 50 ust. 2 unijnego rozporządzenia nakłada na dostawców systemów AI generujących treści obowiązek, aby wyniki systemu AI zostały oznakowane w formacie nadającym się do odczytu maszynowego i były wykrywalne jako sztucznie wygenerowane lub zmanipulowane.
Wiceminister poinformował też, że art. 50 ust. 4 AI Act stanowi, że „podmioty stosujące system AI, który generuje obrazy, treści audio lub wideo stanowiące treści deepfake lub który manipuluje takimi obrazami lub treściami, ujawniają, że treści te zostały sztucznie wygenerowane lub zmanipulowane”.Standerski wskazał, że art. 50 rozporządzenia 2024/1689 będzie stosowany bezpośrednio od 2 sierpnia 2026 r. na terenie całej Unii Europejskiej.
Ministerstwo Cyfryzacji dostrzega potrzebę zapewnienia obywatelom skutecznych i szybkich mechanizmów reagowania na rozpowszechnianie szkodliwych treści typu deepfake. Dlatego, jak napisał wiceminister, w ramach projektu ustawy o systemach sztucznej inteligencji przewidziano możliwość złożenia skargi na naruszenie przepisów AI Act do nowego organu nadzoru nad rynkiem sztucznej inteligencji – Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji.
Apel prezesa UODO
O ochronę obywateli przed deepfake’ami upomina się prezes UODO Mirosław Wróblewski. Jego zdaniem, w obecnym porządku prawnym UE, którego ramy określają między innymi AI Act i DSA oraz w naszych regulacjach krajowych, takich jak kodeks cywilny, kodeks karny czy prawo autorskie, mamy zapewnioną jedynie wybiórczą i niewystarczającą odpowiedź na wielopłaszczyznowe zagrożenia ze strony technologii deepfake. Prezes UODO jest jednak przekonany, że można to zmienić. Uważa, że szansą na poprawę sytuacji jest m.in. ponowne – po niedawnym wecie prezydenta – podjęcie prac nad przepisami mającymi wdrożyć DSA.
Wróblewski zauważa, że w materii zawetowanej ustawy nie było regulacji odnoszących się wprost do przeciwdziałania deepfake’om. „Teraz można się tym zająć jeszcze lepiej, przeanalizować możliwe rozwiązania i wypracować bardziej spójne ramy prawne w celu skutecznej ochrony przed tą technologią i jej skutkami” – podkreśla organ.
Prezes UODO w sprawie deepfake pisał do MC. W odpowiedzi resort również powołał się na unijne przepisy, tak jak w odpowiedzi na interpelację. Poza DSA i AI Act, wymieniono też, że w projekcie rozporządzenia Cyfrowy Omnibus Komisja Europejska zaproponowała, żeby Europejskiemu Urzędowi ds. Sztucznej Inteligencji (AI Office) przy Komisji Europejskiej nadano uprawnienia, które ułatwią skuteczne wdrażanie obowiązków dotyczących wykrywania i oznaczania sztucznie generowanych lub zmanipulowanych treści.
Prezes UODO uważa jednak, że te regulacje prawne i działania KE nie dają narzędzi do pełnej i skutecznej ochrony przed konsekwencjami nadużyć związanych z technologią deepfake. „W porządku prawnym Unii Europejskiej brakuje kompleksowych przepisów odnośnie zwalczania nielegalnych treści wygenerowanych tą technologią” – pisze Wróblewski w korespondencji skierowanej do MC.
Prezes UODO, tak jak insp. Pudło, również ceni włoskie rozwiązania prawne umożliwiające walkę z opisywanym problemem. Wróblewski zwraca uwagę, że włoska ustawa o sztucznej inteligencji została skonstruowana jako element szerszego systemu regulacyjnego, który obejmuje ochronę danych osobowych, określa odpowiedzialność cywilną oraz wpływa na odpowiedzialność karną i na ochronę praw konsumentów. Jednym z działań wchodzących w skład tego procesu była nowelizacja włoskiej ustawy karnej, wprowadzająca definicję przestępstwa polegającego na nielegalnym rozpowszechnianiu sfałszowanych lub zmodyfikowanych treści cyfrowych wygenerowanych z wykorzystaniem sztucznej inteligencji.
Wróblewski podkreśla, że niezbędne jest wdrożenie do polskiego prawa rozwiązań, które systemowo uregulują kwestie związane z przeciwdziałaniem i ochroną obywateli przed negatywnymi skutkami technologii deepfake - zarówno na płaszczyźnie administracyjnej, karnej i skarbowej karnej, jak i sądowej.