Przed sądem w Budapeszcie toczy się sprawa pomiędzy węgierskim wydawcą serwisu internetowego a firmą Google, do której należy duży model językowy (LLM) Gemini, do lutego ub.r. funkcjonujący pod nazwą Bard.

O co chodzi w sporze między wydawcą a dostawcą AI?

Spór dotyczy publikacji prasowych o węgierskim piosenkarzu, w tym artykułu o jego planie wprowadzenia delfinów do akwarium nad Balatonem. Poproszona o streszczenie publikacji na ten temat, sztuczna inteligencja Google’a udzieliła szczegółowej odpowiedzi, która zawierała streszczenie informacji z artykułów prasowych wydawcy. Ten uznał, że Google naruszył jego prawa pokrewne, podając do publicznej wiadomości i zwielokrotniając publikacje bez jego zgody i nie wypłacając rekompensaty. W związku z tym skierował sprawę do sądu.

Big tech nie zgadza się z zarzutami wydawcy i uważa, że odpowiedź wygenerowana przez Gemini nie stanowi publicznego udostępnienia ani zwielokrotnienia artykułu prasowego. A gdyby nawet przyjąć takie domniemanie, to byłoby to według Google’a objęte wyjątkiem przewidzianym dla eksploracji tekstów i danych (TDM, od: text and data mining) w art. 4 dyrektywy 2019/790 w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym (dyrektywy DSM). Google argumentuje też, że treść odpowiedzi udzielonej przez jego chatbota nie jest tożsama z treścią artykułów wydawcy, lecz odnosi się tylko do niektórych zawartych tam faktów. By rozstrzygnąć tę sprawę, budapesztański sąd zwrócił się z pytaniem prejudycjalnym do Trybunału Sprawiedliwości Unii Europejskiej (sprawa C-250/25).

To pierwsze pytania do TSUE dotyczące AI i prawa autorskiego

– Sprawa jest precedensowa i będzie miała ogromne znaczenie dla całej branży – podkreśla dr Damian Flisak, radca prawny. Z kolei dr Zbigniew Okoń, senior counsel w kancelarii Rymarz Zdort Maruta, zaznacza, że to pierwsze pytania do TSUE dotyczące prawa autorskiego i sztucznej inteligencji. Jak wyjaśnia, problemy prawne w tej dziedzinie pojawiają się zarówno na etapie szkolenia modeli AI, jak i w trakcie użytkowania. Pierwszy dotyczy tego, czy w trakcie trenowania (na wejściu) mamy do czynienia z ingerencją w prawa wyłączne, a jeżeli tak, to czy można takie działania podejmować bez zezwolenia uprawnionego, np. w ramach tzw. web scrapingu („skrobania” publicznie dostępnych stron internetowych przy użyciu oprogramowania lub innego zautomatyzowanego systemu).

– Jak się wydaje, dominuje obecnie podejście, zgodnie z którym takie działanie ingeruje w prawa autorskie i prawa pokrewne (stanowi „zwielokrotnianie”), ale ma swoją podstawę w wyjątku dla eksploracji tekstu i danych (TDM), który pozwala na takie działania w tych przypadkach, w których uprawniony nie zastrzegł praw w odpowiedni sposób – mówi Zbigniew Okoń. Tego dotyczą pytania 2 i 3 (patrz: infografika). Pozostałe odnoszą się do tego, co mamy na wyjściu, czyli odpowiedzi udzielanych przez AI.

– Pamiętajmy, że model językowy nie przechowuje bezpośrednio artykułów prasowych i innych treści wykorzystanych do szkolenia. On przechowuje pewien zestaw danych liczbowych, wyrażających pewne wzorce, korelacje wynikające z obliczeń przeprowadzonych na danych treningowych. Nie jest więc „kopią” ani „zbiorem” danych wykorzystanych do treningu. Upraszczając, nie cytuje więc artykułów, lecz przewiduje, co statystycznie powinno być dalej – wyjaśnia dr Okoń.

Czy model AI może streszczać publikacje wydawców?

– To nie jest typowa sytuacja, którą prawodawca miał przed oczami, kiedy ustanawiał prawo pokrewne wydawców prasowych w dyrektywie DSM. Mam poważne wątpliwości, czy rzeczywiście tego rodzaju wykorzystywanie, z jakim mamy do czynienia w przypadku modeli językowych AI, można usprawiedliwić eksploracją tekstów i danych – komentuje dr Flisak. Wskazuje, że istotne znaczenie ma ekonomiczna perspektywa sporu wydawcy z dostawcą AI.

– Jeśli w przypadku prawa pokrewnego celem prawodawcy było ekonomiczne zabezpieczenie interesów wydawców i zrekompensowanie im inwestycji poniesionych na publikacje prasowe, to ochrona prawna powinna być szeroka. Działanie AI wyzyskuje wartość ekonomiczną publikacji prasowych tworzonych przez wydawców. A że robi to pod pozorem uczenia się, prawdopodobieństwa, odnoszenia się do promptu, niecelowego działania czy halucynacji, to nie ma znaczenia. Prawo autorskie nie zważa na intencje naruszenia, lecz bada podstawy prawne powielenia treści. W tym świetle działanie dostawcy AI jest nieuczciwe – mówi Damian Flisak.

Inaczej widzi to Zbigniew Okoń. – Jeżeli Gemini nie zwrócił fragmentu artykułu, tylko jego streszczenie, to mam wątpliwości, czy w ogóle doszło do publicznego udostępnienia publikacji prasowej. Moim zdaniem prawo pokrewne wydawców prasowych, które obejmuje publiczne udostępnienie publikacji prasowych lub ich fragmentów w sposób umożliwiający dostęp przez odbiorców w miejscu i czasie przez nich wybranym, nie obejmuje streszczeń i nie może ograniczać możliwości przekazywania faktów i informacji zawartych w tych artykułach – uważa dr Okoń.

Wydawcy apelują o uregulowanie problemu AI

Ochrona treści przed bezprawnym wykorzystywaniem przez AI to dla wydawców prasowych być albo nie być. Dlatego Izba Wydawców Prasy (należy do niej Infor PL, wydawca DGP) wraz ze Stowarzyszeniem Dziennikarzy i Wydawców Repropol zwróciła się do Henny Virkkunen, wiceprzewodniczącej Komisji Europejskiej ds. suwerenności technologicznej, bezpieczeństwa i demokracji, w sprawie kodeksu postępowania dla dostawców sztucznej inteligencji ogólnego przeznaczenia (GPAI – obejmuje to LLM). Kodeks ma m.in. określić zasady dotyczące praw autorskich, które dostawcy GPAI powinni wdrożyć, aby wykazać zgodność z unijnym prawem autorskim. Jednak w kolejnych wersjach projektu wymogi w tym zakresie są coraz bardziej rozmyte.

„Wnosimy jedynie o wprowadzenie oczywistej i niepodważalnej zasady – jeśli korzystasz z cudzej pracy, podziel się zyskiem. Niestety, obecne przepisy nie urzeczywistniają tej zasady” – piszą IWP i Repropol. Argumentują, że brak zdecydowanych i szybkich działań na tym polu „zagraża istnieniu profesjonalnych, rzetelnych wydawców prasowych i dziennikarzy, podważając jeden z filarów demokracji”, a co więcej zabije to „cały sektor kreatywny, gdyż twórcy i producenci kultury zostaną zastąpieni przez technologicznych gigantów”.

Podobnie widzi to europejska branża kreatywna, która zaapelowała do Henny Virkkunen m.in. o „spójne egzekwowanie obowiązujących praw autorskich – w tym wobec globalnych firm technologicznych”. W liście organizacji Creators for Europe United czytamy, że „miliardy dzieł twórczych są wykorzystywane jako podstawa systemów AI bez naszej wiedzy, zgody i wynagrodzenia”.

Co może zrobić TSUE?

Zbigniew Okoń podkreśla, że odpowiedź trybunału będzie miała ogromne znaczenie nie tylko dla wydawców, lecz także z punktu widzenia prawa do wolności wypowiedzi i informacji. – Myślę, że trybunał weźmie pod uwagę ten aspekt sprawy i będzie ostrożny. Jednocześnie spór pokazuje zmianę funkcji wyszukiwarek, jaką obserwujemy w wyniku rozwoju AI. Do tej pory wydawcy chcieli być indeksowani w wyszukiwarkach, bo choć nie jest to łatwa relacja, to jednak wyszukiwarki generują ruch na stronach wydawców. AI zaburza dotychczasową ekonomię obiegu informacji, ponieważ w odpowiedzi na pytania wyświetla streszczenia artykułów, więc użytkownicy nie mają już potrzeby wchodzenia na stronę wydawcy – stwierdza dr Okoń.

Uważa za prawdopodobne, że TSUE nie udzieli odpowiedzi na wszystkie pytania węgierskiego sądu, a nawet je zmodyfikuje. - Bezpośrednio z roszczeniami powoda wiążą się pytania pierwsze i czwarte. Pozostałe sprawiają wrażenie, jakby miały raczej zaspokajać ciekawość sądu. Jest też możliwe, że TSUE pominie wątek AI, a skupi się np. na tym, jak daleko sięga prawo pokrewne wydawcy prasowego: czy obejmuje wykorzystywania faktów zawartych w publikacjach prasowych i czy udostępnienie takiej publikacji w formie streszczenia ingeruje w to prawo - wskazuje Zbigniew Okoń. ©℗

ikona lupy />
O co pyta węgierski sąd / Dziennik Gazeta Prawna - wydanie cyfrowe