Popularność narzędzi opartych na sztucznej inteligencji (AI) nieustannie wzrasta (patrz: infografika). Szczególnym zainteresowaniem cieszy się ChatGPT, czyli narzędzie służące do generowania treści opartych na danych zaczytywanych z publicznie dostępnych źródeł. Coraz większym problemem okazuje się jednak to, skąd czat czerpie informacje przekazywane swoim użytkownikom.

Jak twierdzą odpowiadające za nie spółki, narzędzia AI karmią się treściami wytworzonymi przez naukowców, dziennikarzy, autorów piosenek i książek, ale wyłącznie w celach szkoleniowych. Następnie dostarczone uprzednio dane są usuwane, a algorytmy czatu samo dzielnie generują treści podsuwane swoim użytkownikom. W ten sposób nie dochodzi do naruszenia praw autorskich.

AI: trening czy kopiowanie?

Inaczej było w przypadku dziewięciu niemieckich muzyków, m.in. Kristiny Bach oraz Rolfa Zuckowski’ego. Ich teksty piosenek zostały wprost zaserwowane przez ChatGPT jako odpowiedzi na pytania zadane przez użytkowników. Okazało się zatem, że po „treningu” te treści nie zostały usunięte z pamięci czata. Sprawa trafiła do Wyższego Krajowego Sądu w Monachium (sprawa nr I 42 O 14139/24), a pozew przeciwko dwóm spółkom z grupy OpenAI złożyła Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte (GEMA), czyli organizacja odpowiedzialna za zarządzanie prawami autorskimi twórców (odpowiednik polskiego ZAiKS-u).

W wytoczonej przeciwko właścicielom ChataGPT argumentacji wskazywano, że teksty piosenek były słowo w słowo reprodukowane przez czat, co wskazuje na to, że ten miał do nich bezpośredni dostęp. Broniące się spółki wskazywały zaś, że algorytmy nie kopiowały cudzej twórczości, a w odpowiedzi na zadawane im pytania samodzielnie odzwierciedlały to, czego się nauczyły na podstawie dostarczonych im uprzednio danych. Ta argumentacja nie spotkała się ze zrozumieniem sądu w Monachium, który w nieprawomocnym wyroku z 11 listopada br. nakazał spółkom z grupy OpenAI usunięcie przechowywanych w pamięci czatu tekstów piosenek, zaprzestanie ich dalszego wykorzystywania oraz wypłatę odszkodowania za ten proceder.

Jak dotąd w Polsce nie zapadło żadne tego typu orzeczenie, jednak w ubiegłym tygodniu media informowały o pozwie złożonym w Sądzie Okręgowym w Warszawie przez lektora Jarosława Łukomskiego. Jego głos został, bez jego wiedzy, wykorzystany w reklamie przydomowych oczyszczalni ścieków. Można się spodziewać, że wraz ze wzrostem popularności AI tego typu spraw będzie więcej.

Zapytaliśmy prawników, czy wyrok niemieckiego sądu to zwiastun podobnych rozstrzygnięć również w Polsce.

– Będzie on istotnym punktem odniesienia nie tylko dla autorów tekstów piosenek, lecz także dla twórców działających we wszelkich innych branżach kreatywnych. Może skłonić firmy rozwijające technologie AI do uczestnictwa w negocjacjach licencyjnych w celu zapewnienia wynagrodzenia polskim autorom – mówi Aleksandra Kuc-Makulska, radca prawny i rzecznik patentowy z kancelarii DWF.

– W przypadku braku porozumienia z platformami takimi jak OpenAI twórcy będą mogli dochodzić roszczeń przed polskimi sądami. Do czasu wypracowania jednolitej linii orzeczniczej na poziomie krajowym i europejskim nie można jednak przesądzić, czy krajowe sądy podzielą interpretację zaprezentowaną przez sąd w Monachium – dodaje mec. Kuc-Makulska.

Jak wykazać naruszenie prawa autorskiego?

Paulina Maślak-Stępnikowska, radca prawny z kancelarii WKB Lawyers, zwraca uwagę na złożoność tego problemu. Jak wskazuje, unijna dyrektywa 2019/790, tzw. DSM, wprowadziła wyjątki dotyczące eksploracji tekstów i danych (TDM), które pozwalają kopiować utwory w celu trenowania algorytmów. Jest to możliwe tylko wtedy, gdy materiały są legalnie i publicznie dostępne oraz nie zostały objęte sprzeciwem (opt-out).

– Polska wdrożyła te zasady w 2024 r., dodając do prawa autorskiego dwa nowe wyjątki: dla badań naukowych oraz dla celów komercyjnych. W tym drugim przypadku twórca może zastrzec sprzeciw, który musi być wyrażony w sposób zrozumiały dla maszyn. Brak takiego zastrzeżenia oznacza zgodę na wykorzystanie danych – wyjaśnia mec. Maślak-Stępnikowska.

Czy zatem polscy twórcy stracili podstawy do składania pozwów przeciwko spółkom zarządzającym narzędziami AI? Niekoniecznie.

– W praktyce wiele modeli trenowano jednak na danych zebranych przed wprowadzeniem wyjątków TDM, a więc bez jasnej zgody twórców. AI Act potwierdza, że użycie chronionych utworów do trenowania modeli ogólnego przeznaczenia ingeruje w autorskie prawa majątkowe. Jeśli więc w danych treningowych znalazły się utwory objęte ochroną, a twórca wyraził sprzeciw lub wykorzystanie nie mieści się w wyjątkach TDM, może dojść do naruszenia prawa – zaznacza Paulina Maślak-Stępnikowska.

Jak wykazać, że doszło do naruszenia? Nasza rozmówczyni wylicza, co konkretnie należałoby udowodnić. Po pierwsze, twórca musiałby wskazać, jakie konkretnie utwory wykorzystano (może to zrobić na podstawie dokumentacji wymaganej od dostawców AI). Po drugie, trzeba by wykazać brak zgody autora albo skuteczny opt-out (wyrażenie sprzeciwu wobec wykorzystania należących do niego treści). Po trzecie, autor wykorzystanego utworu musiałby dokładnie opisać związek między użyciem swojego dzieła a działaniem modelu, czyli w praktyce wskazać podobieństwa między wygenerowaną treścią a oryginałem.

– W Polsce nie ma jeszcze orzeczeń dotyczących takich spraw, ale można się spodziewać, że sądy będą korzystały z podejścia znanego z postępowań przeciw dużym modelom językowym. Kluczowe będzie jednak to, czy twórca zdoła zdobyć i przedstawić odpowiednie dowody, co w praktyce może się okazać najtrudniejszym elementem sporu – prognozuje mec. Maślak-Stępnikowska.

Popularność narzędzi AI systematycznie wzrasta
ikona lupy />
Popularność narzędzi AI systematycznie wzrasta / Dziennik Gazeta Prawna - wydanie cyfrowe