Prezes UODO zawiadomił prokuraturę, o tym, że w mediach społecznościowych ktoś umieścił pod postem nauczycielki jej zdjęcie przerobione za pomocą AI, tak że wygląda na nagą. W ocenie prezesa UODO doszło do naruszenia art. 107 ustawy o ochronie danych osobowych.
PUODO zawiadomił o zdarzeniu Prokuraturę Rejonową Warszawa-Śródmieście. Urząd poinformował, że nauczycielka, której wizerunek został zmanipulowany, napisała o zdarzeniu: „moje zdjęcie zostało przerobione (ROZEBRANE) za pomocą AI przez jakiegoś obleśnego typa a następnie umieszczone w internecie. Czuję się paskudnie, czuję się skrzywdzona i nawet mówienie sobie, że przecież to nie było moje ciało, niewiele pomaga”.
Prezes UODO zawiadamia prokuraturę. A co mówi prawo o "rozbieraniu" przez AI
Według art. 107 ust. 1 ustawy o ochronie danych osobowych, kto przetwarza dane osobowe, choć ich przetwarzanie nie jest dopuszczalne albo do ich przetwarzania nie jest uprawniony, podlega grzywnie, karze ograniczenia wolności albo pozbawienia wolności do lat dwóch.
Prezes UODO informuje, że „taki czyn stanowi przestępstwo powszechne, ścigane z urzędu, z oskarżenia publicznego. Niedopuszczalnym przetwarzaniem danych jest w takim przypadku przetwarzanie danych bez podstawy prawnej, gdy nie występuje żadna z przesłanek legalizacyjnych przetwarzania danych określonych w RODO (art. 6 i 9). W szczególności, nie uzyskano zgody osoby, której dane dotyczą na przetwarzanie jej danych osobowych w jednym lub większej liczbie określonych celów”.
Prezes UODO zwrócił uwagę, że w polskim porządku prawnym dotychczas nie stworzono definicji legalnej, która opisywałaby przedmiotowe zjawisko, co wymusza odniesienie do legislacji unijnej.
Definicja deepfakeów, którą należy się posiłkować, zawarta została w artykule 3 pkt 60 Rozporządzenia o sztucznej inteligencji (AI Act), zgodnie z którym są to: „wygenerowane przez AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe”.
W tej sprawie doszło do zmanipulowania wizerunku pokrzywdzonej bez jej zgody, przy wykorzystaniu jej ogólnodostępnych zdjęć przy wykorzystaniu narzędzi sztucznej inteligencji. Takie zjawisko jest odrębną kategorią deepfakeów.
Opisaną ją m.in. w publikacji „Deepfakes i nadużycia na tle seksualnym – prawo wobec wyzwań syntetycznych mediów” (M. Łabuz, dr hab. M. Małecki, adw. dr K. Mania, Obserwatorium Demokracji Cyfrowej 2025), jako non-consensual synthetic intimate imagery (NSII). Jak wskazują autorzy publikacji, „NSII jest dominującym przejawem wykorzystania deepfakes w formie wideo – stanowi ponad 90% z nich. W blisko 100% przypadków NSII w formie deepfakes dotyka kobiet, co prowadzi do wiktymizacji tysięcy z nich na całym świecie, a także przyczynia się do wzmacniania stereotypów płciowych oraz uprzedmiotowienia kobiet, wywierając trudny do skwantyfikowania wpływ na społeczeństwo”.
Parlament Europejski chce zakazu systemów AI typu „nudifier”
W czwartek Parlament Europejski przyjął poprawkę do Digital Omnibus on AI, która wprowadza do AI Actu, przepis zakazujący systemów typu „nudifier”, czyli takich które za pomocą AI „rozbierają” ludzi.
W komunikacie PE podano, że zakaz ma dotyczyć takich systemów, które „wykorzystują sztuczną inteligencję do tworzenia lub modyfikowania obrazów o charakterze jednoznacznie seksualnym lub intymnym, przedstawiających rozpoznawalną, prawdziwą osobę bez jej zgody”.
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.
Wpisz adres e-mail wybranej osoby, a my wyślemy jej bezpłatny dostęp do tego artykułu