Od soboty, 2 sierpnia, będą stosowane kolejne przepisy aktu o sztucznej inteligencji (AI Aktu), w tym te dotyczące modeli sztucznej inteligencji ogólnego przeznaczenia (GPAI). Dostawcy wprowadzający takie modele do obrotu w Unii Europejskiej będą musieli wykazać ich zgodność z AI Aktem. W przypadku modeli wprowadzonych do obrotu wcześniej na spełnienie obowiązków wynikających z unijnej regulacji są jeszcze dwa lata.

Jednym ze sposobów wykazania zgodności z AI Aktem jest podpisanie kodeksu postępowania w zakresie GPAI. Kodeks nie zadowala jednak żadnej ze stron: ani wydawców (to na ich treściach szkolone są modele sztucznej inteligencji), ani dostawców AI.

Doktor Zbigniew Okoń, senior counsel w kancelarii Rymarz Zdort Maruta, uważa, że obecna wersja kodeksu – w porównaniu z trzema poprzednimi projektami – przechyla szalę na korzyść podmiotów praw autorskich. Ale Izba Wydawców Prasy (jej członkiem jest Infor PL, wydawca DGP) nadal zabiega o poprawienie kodeksu. Obecną wersję opublikowano wprawdzie jako finalną, lecz nie została ona jeszcze zatwierdzona (tj. uznana za odpowiednią) przez Radę ds. Sztucznej Inteligencji, w której zasiadają przedstawiciele państw członkowskich UE (Radę ds. AI).

Czy kodeks dla dostawców AI można jeszcze zmienić?

– To ostatni moment, by doprecyzować pewne kwestie. Nie ma już przestrzeni na duże zmiany, ale na pewno można coś uzupełnić – mówi dr Damian Flisak, radca prawny, of counsel w kancelarii prawnej Lubasz i Wspólnicy.

Wydawcy obawiają się przede wszystkim, że jeżeli dokonają zastrzeżenia wyłączającego utwory spod reguły dozwolonego użytku TDM (opt-out), tak by nie służyły do szkolenia modeli GPAI – to w konsekwencji znikną one też z wyszukiwarek. Dlatego wzmocnienie zabezpieczenia przed takim skutkiem ubocznym jest ich kluczowym postulatem. Kodeks ogranicza się w tym zakresie do zachęcenia dostawców GPAI, aby niwelowali to zjawisko (patrz: ramka).

– To zdecydowanie za mało. Negatywne konsekwencje powinny być wprost zakazane. W przeciwnym razie groźba ograniczenia widoczności treści może mieć efekt mrożący i powstrzymać wydawców przed ochroną ich praw – uważa Damian Flisak. W kodeksie brakuje ponadto stwierdzenia, że opt-out może być skutecznie dokonany w języku naturalnym.

Zbigniew Okoń zwraca uwagę, że położenie nacisku na plik robots.txt jako metodę dokonywania zastrzeżenia może być dla wydawców kłopotliwe. - To niewątpliwie najszerzej akceptowany standard blokujący boty. Problem w tym, że dla wydawców, którzy chcą wykluczyć uczenie maszynowe, ale zachować indeksakcję ich treści dla wyszukiwarek, jest to metoda niesatysfakcjonująca. Owszem, można wymienić w pliku najbardziej znane boty, ale w ten sposób opt-out nigdy nie obejmie wszystkich dostawców AI – wyjaśnia.

Czego jeszcze oczekują wydawcy?

– W sferze werbalnej kwestia zabezpieczenia praw autorskich została w kodeksie dostrzeżona. Środowisku wydawców zależy jednak na tym, aby przybrało to wymiar bardziej praktyczny. Żeby nie poprzestawać na rytualnym napomnieniu o potrzebie przestrzegania unijnego prawa autorskiego, lecz wprowadzić realne mechanizmy zabezpieczające – podkreśla dr Flisak.

Takim mechanizmem mogłoby być zobowiązanie dostawców do weryfikacji legalności danych do szkolenia modeli GPAI pochodzących od podmiotów trzecich. – Dostawca będzie wprawdzie odpowiadał za legalność źródeł i wykluczone ma być korzystanie ze źródeł pirackich, tj. urzędowo uznanych za pirackie. Środowisko posiadaczy praw wolałoby jednak, żeby dostawcy nie ograniczali się do sprawdzenia rejestrów, lecz zostali zmotywowani do proaktywnego podejścia do identyfikacji stron pirackich – stwierdza Damian Flisak.

Proponowane poprawki dotyczą też m.in. mechanizmu zgłaszania naruszeń praw autorskich. – Doprecyzowanie, że zgłoszeń można dokonywać w każdym języku wspólnoty, zwiększy skuteczność tego mechanizmu – mówi Damian Flisak.

Przyznaje jednak, że mimo zastrzeżeń kodeks w pewnym stopniu poprawi sytuację wydawców. – Obecna wersja uwzględnia m.in. postulat zakazu trenowania AI na treściach dostępnych za paywallem lub w modelu subskrypcyjnym. Nie jest to więc dokument pozbawiony pozytywnego znaczenia dla branży – podsumowuje dr Flisak.

Zbigniewa Okonia nie dziwi krytyka ze strony wydawców. – Wydawcy zawsze będą niezadowoleni, dopóki nie napisze się wprost, że za wykorzystanie ich treści w każdym wypadku trzeba płacić. Rozumiem ich postawę, ale nie uważam, żeby kodeks był właściwym narzędziem do rozwiązania tego problemu – komentuje.

Którzy dostawcy AI popierają kodeks?

Zamiar podpisania kodeksu – z zastrzeżeniem formalnego zatwierdzenia jego obecnej wersji przez Radę ds. AI – ogłosiła już firma OpenAI (ChatGPT). Prezes Microsoftu Brad Smith powiedział Reutersowi, że jego firma prawdopodobnie postąpi tak samo.

Sygnatariuszem kodeksu nie zostanie natomiast Meta. Joel Kaplan, dyrektor spółki ds. globalnych, poinformował o tym w serwisie LinkedIn, argumentując, że kodeks „wprowadza szereg wątpliwości prawnych” dla twórców modeli GPAI i wykracza poza zakres AI Aktu.

Meta należy do Stowarzyszenia Przemysłu Komputerowego i Komunikacyjnego (CCIA Europe), którego członkami są też m.in. Apple, X i Google. – Bez znaczących usprawnień sygnatariusze pozostają w niekorzystnej sytuacji w porównaniu z podmiotami niebędącymi sygnatariuszami – ocenia kodeks Boniface de Champris, starszy menedżer ds. polityki w CCIA Europe. Jego zdaniem dokument nakłada na dostawców AI nieproporcjonalne obciążenia.

Zbigniew Okoń uważa, że postawa Mety to logiczne podejście, w sytuacji gdy kodeks zmienił się w koncert życzeń. – Pamiętajmy, że kodeks nie jest obowiązkowy i nie stanowi źródła prawa. Jest tylko sposobem wykazania zgodności z AI Aktem, co można też osiągnąć inną drogą – wskazuje.

Dodaje, że z punktu widzenia dostawcy AI wysiłek włożony w zastosowanie się do kodeksu nie przyniesie żadnych konkretnych korzyści. – Nie zapewni m.in. ochrony przed roszczeniami o naruszenie praw autorskich. Jeśli chodzi o korzyści, mamy tylko deklaracje Komisji Europejskiej o łagodnym traktowaniu sygnatariuszy kodeksu, do czego zresztą nie widzę podstawy prawnej – podkreśla dr Okoń.

W pytaniach i odpowiedziach dotyczących kodeksu na stronie KE stwierdzono m.in., że do 2 sierpnia 2026 r. sygnatariuszom kodeksu, którzy „nie wywiążą się w pełni ze wszystkich zobowiązań” natychmiast po jego podpisaniu, unijny urząd ds. AI nie zarzuci naruszenia AI Aktu. Zamiast tego „będzie gotowy do współpracy w celu znalezienia sposobów zapewnienia pełnej zgodności”. Kary zaczną być nakładane dopiero od 2 sierpnia 2026 r.

Czy kodeks dla dostawców GPAI będzie skuteczny?

– Twórcy kodeksu przedobrzyli. Wykroczyli poza delegację wynikającą z art. 56 AI Aktu, niepotrzebnie próbując rozwiązać wszystkie problemy występujące na styku prawa autorskiego i sztucznej inteligencji – mówi Zbigniew Okoń.

Spodziewa się, że z tego powodu kodeks będzie miał mniejsze znaczenie, niż potencjalnie mógłby mieć. – Gdyby miał węższy zakres, np. ograniczony do formy opt-outu, to nawet przy dość ostrych rozwiązaniach dostawcom AI łatwiej byłoby go zaakceptować. W obecnej formie niewiele załatwi, bo można się spodziewać, że jego adopcja będzie ograniczona – argumentuje Zbigniew Okoń.

Czy przedstawiciel Polski w Radzie ds. AI będzie zabiegał o zmiany w kodeksie? Resort cyfryzacji odparł, że analizuje sprawę, i poprosił resort kultury o ocenę zapisów dotyczących praw autorskich. To ostatnie ministerstwo nie odpowiedziało jednak na nasze pytania. ©℗

ikona lupy />
Z rekomendacji dla dostawców GPAI / Dziennik Gazeta Prawna - wydanie cyfrowe