Wydawcy chcą wprowadzenia przepisów dotyczących karmienia cyfrowych algorytmów.
Podczas gdy wydawcy prasowi, w Polsce i na świecie, próbują zagwarantować sobie pozycję negocjacyjną w sporach z koncernami technologicznymi (big techami), te już coraz bardziej przypominają wydawców; m.in. o tym przedstawiciele mediów (w tym serwisów cyfrowych) będą rozmawiać z politykami w ramach rozpoczynającego się 10 września Forum Prawa Autorskiego.
Na przykład wyszukiwarka internetowa już nie tylko agreguje treści, lecz także sama je generuje. – Google Search to już Google Answers, usługa prezentująca odpowiedzi. Użytkownik coraz rzadziej przechodzi do strony źródłowej, z której Google pozyskał informacje – mówi mec. Jacek Wojtaś, ekspert Izby Wydawców Prasy i REPROPOLU. Inaczej widzi to Google. Zdaniem Liz Reid, szefowej Google Search, dzięki nowemu podejściu użytkownikowi ma być oferowana większa niż dotychczas różnorodność treści, a strony źródłowe zawierające najwięcej trafnych informacji mają zyskiwać więcej ruchu. A jednak, by móc wygenerować nowego typu odpowiedź, algorytmy uczą się m.in. na treściach dziennikarskich. Domyślnie – za darmo.
AI Overviews i SearchGPT
W piątek, 26 lipca, polski internet przepełniła euforia po przyjętych przez Sejm poprawkach do nowych przepisów o prawie autorskim i prawach pokrewnych. Było to uzasadnione, bo w nowelizacji, będącej implementacją unijnej dyrektywy DSM, wydawcom przyznano nowe prawo pokrewne – do wyłącznej eksploatacji online utworów prasowych. Wydawcy wywalczyli też wsparcie państwa w negocjowaniu z big techami wynagrodzeń za udostępnianie treści oraz publikowanie ich krótkich omówień. Za to nowe przepisy praktycznie nie odnoszą się do generatywnej sztucznej inteligencji, która wkroczyła na rynek wyszukiwania online.
Tymczasem w czwartek, 25 lipca, na stronie internetowej OpenAI, twórcy ChatGPT, pojawił się komunikat: „Testujemy SearchGPT (…), który dostarczy szybkich i aktualnych odpowiedzi na podstawie czytelnych i trafnych źródeł”. Oznacza to, że wkrótce pojawi się kolejna wyszukiwarka, która będzie przekazywać użytkownikowi odpowiedzi. Ten nowy silnik ma być częścią popularnego interfejsu ChatGPT. SearchGPT to odpowiedź OpenAI (i stojącego za nim koncernu Microsoft) na usługę Google’a – AI Overviews. Ta została oficjalnie udostępniona w maju i polega na tym, że w odpowiedzi na zapytanie wyszukiwarka zwraca najpierw wygenerowany tekst zamiast tradycyjnego zestawu odsyłaczy do stron internetowych.
Co w tym dziwnego? Nie jest to doświadczenie, do którego przywykliśmy, używając przez ponad 20 lat z Google’a. Zasadniczo, największa wyszukiwarka świata działa w ten sposób: 1) za pomocą robotów webowych (crawlerów) skanuje sieć internetową oraz i kopiuje odwiedzone strony; 2) indeksuje oraz rankinguje strony internetowe według specjalnego algorytmu (obecnie to kilkaset kryteriów); 3) wyświetla w interfejsie użytkownika odpowiednio uszeregowany zestaw odsyłaczy do zadanego pytania. Obecnie dochodzi kolejny proces: treści z różnych źródeł zostają przetworzone w ramach transformatora, czyli dużego modelu językowego trenowanego na wielkich zbiorach danych. Właśnie ta zmiana przekłada się na nowe doświadczenie, którego użytkownik doświadcza w interfejsie SERP (Search Engine Results Page), czyli na stronie wyników wyszukiwania – otrzymuje on odpowiedź, tak jakby wyszukiwarka z nim rozmawiała.
Choć Google i inne podmioty rynku wyszukiwania online (Bing czy Yahoo!) przez lata udoskonalały SERP-y, do tej pory użytkownik otrzymywał zestawienie linków prowadzących do stron internetowych z treściami – w tym do stron popularnych mediów. Niektóre odsyłacze były okraszone dłuższym lub krótszym wprowadzeniem, inne zdjęciem czy materiałem wideo albo w ogóle były elementem większego boksu multimedialnego. Jednak AI Overviews to coś innego.
Inteligencja w wyszukiwarce
AI Overviews testowaliśmy w USA (wyniki były generowane 26 lipca w Filadelfii, między godz. 19.45 a 20.45 czasu polskiego; przeanalizowano 30 fraz i słów kluczowych). Gdy zapytaliśmy o „10 najlepszych kierunków wakacyjnych w USA”, na samej górze SERP wyświetlił lity tekst: „W Stanach Zjednoczonych znajdziemy wiele ciekawych destynacji wakacyjnych, włączając w to parki narodowe, miasta i inne…”. Zarazem pod tym wygenerowanym przez sztuczną inteligencję wprowadzeniem znajdowały się odsyłacze do kilku artykułów na ten temat, np. do U.S. News Travel czy CNBC. Były ułożone horyzontalnie – w postaci tzw. karuzeli. Niżej Google podaje wygenerowane opisy sześciu najciekawszych miejsc do odwiedzenia – każdy jest opatrzony zdjęciem i linkiem prowadzącym do strony internetowej.
W tym miejscu kończy się część przygotowana przez AI Overviews, o czym informuje zastrzeżenie: „Eksperymentalne zastosowanie generatywnej sztucznej inteligencji. Dowiedz się więcej”. Użytkownik może nacisnąć ikonkę łapki w górę lub w dół, by ocenić swoje doświadczenie. Niżej na SERP znajdziemy już typowy układ treści: zestawienia linków do artykułów lub wideo.
Zasadniczo cała górna część SERP, to, co najbardziej przyciąga uwagę użytkownika, to multimedialny utwór Google’a stworzony na podstawie danych, których źródła rankingowały jego algorytmy i z których uczył się jego model językowy. Zastosowanie wyrazu „utwór” stanowi prowokację – albowiem twórcą utworu, według polskiego prawa, może być wyłącznie osoba fizyczna, z pewnością nie algorytm.
Amerykańskie firmy specjalizujące się w optymalizacji serwisów i treści pod silniki wyszukiwania przyglądają się działaniu AI Overviews. Analizują m.in. częstotliwość pojawiania się streszczeń w odpowiedzi na zapytania. W grudniu 2023 r., jeszcze przed oficjalnym startem usługi, firma BrightEdge twierdziła, że nawet dla 84 proc. wyszukiwań może się uruchomić generatywne doświadczenie wyszukiwania (SGE – Search Generative Experience). Później, gdy Google nadał SGE rynkową nazwę AI Overviews, częstotliwość ta miała spaść poniżej 15 proc. (czerwiec 2024 r.), a obecnie – poniżej 7 proc. (lipiec 2024 r.). O kolejnych testach generatywnej usługi Google’a, prowadzonych na zbiorach danych uwzględniających od 2 tys. do kilkuset tysięcy słów kluczowych, informuje serwis Search Engine Land.
Zdolność produkowania takich odpowiedzi polega na wykorzystaniu algorytmów dużych modeli językowych (LLM), trenowanych na nieprzebranych ilościach treści, w tym artykułach prasowych dostępnych w sieci. Choć technologią tą Google dysponuje od lat, to niszowi konkurenci zaprezentowali ją w formie, która obecnie podbija rynek. Pierwsze interfejsy pozwalające zwykłemu człowiekowi korzystać z efektów działania tych algorytmów przedstawiono pod koniec 2022 r. – były to ChatGPT oraz Perplexity.ai. OpenAI podaje, że w ciągu pierwszych pięciu dni ChatGPT przyciągnął 1 mln użytkowników; według Similarweb w listopadzie 2022 r. wygenerował 152 mln wizyt, w kwietniu 2024 r. prawie 2 mld. Później ruch spadł. Prawdopodobnie to właśnie ogromna popularność tych interfejsów była katalizatorem prac nad Google AI Overviews.
Nieśmiałe prawo i głodne algorytmy
Choć wykorzystywanie przez big techy wszelkiego rodzaju treści i informacji dostępnych w sieci, w tym dziennikarskich, do uczenia algorytmów trwa od co najmniej kilkunastu miesięcy, to polski ustawodawca na razie się tym nie zajął. – W polskiej implementacji DSM nie zadbano o to, aby big techy musiały płacić wydawcom za to, że wykorzystują ich treści do szkolenia algorytmów. Pojawił się wprawdzie, w dziale dotyczącym dozwolonego użytku, art. 263. Jest w nim mowa o eksploracji tekstów i danych dla celów komercyjnych, ale jest to przepis bardzo problematyczny. Przewiduje, że można w ten sposób wykorzystywać teksty, o ile uprawniony, czyli wydawca, tego nie zastrzeże. Nie ma jednak mowy o tym, jak takie zastrzeżenie miałoby wyglądać. Nie ma także mowy o wynagrodzeniu za takie wykorzystywanie treści. Nie jest powiedziane, że takie zastrzeżenie będzie skuteczne – mówi mec. Jacek Wojtaś z Izby Wydawców Prasy.
AI Overviews działa od maja w USA, a od połowy sierpnia także w Wielkiej Brytanii, Indiach, Japonii, Indonezji, Meksyku i Brazylii. Można także testować ją w wielu krajach w ramach Search Labs, ale nie w Polsce. Marta Jóźwiak, dyrektor komunikacji Google’a na Europę Środkowo-Wschodnią, przekazała, że na razie nie ma jeszcze terminu wdrożenia AI Overviews w Europie. Na stronie Google’a można przeczytać za to wypowiedź Liz Reid o planach udostępnienia AI Overviews ponad miliardowi ludzi do końca tego roku. Z kolei OpenAI twierdzi, że usługę SearchGPT najpierw będzie testować na niewielkiej grupie użytkowników i przy współpracy z ograniczoną liczbą wydawców. Warto zwrócić uwagę, że rozwiązanie OpenAI będzie automatycznie dostępne dla właściciela drugiej najpopularniejszej wyszukiwarki – Bing. Microsoft jest bowiem kluczowym inwestorem OpenAI.
Być może wydawcy prasowi nie powinni się bać generatywnej sztucznej inteligencji. W przypadku naszego testu odpowiedzi AI przybierały wyłącznie formę poradniczą i dotyczyły konkretnej dziedziny: podróży. Gdy zapytania dotyczyły innego obszaru, np. kulinariów, wyszukiwarka zwracała linki – najwyżej znajdowały się te z przepisami w formie wideo. Co ważne: AI Overviews nie uruchomiło się dla żadnego z zapytań newsowych (wprowadzano zapytania dotyczące poparcia Baracka Obamy dla Kamali Harris czy otwarcia igrzysk olimpijskich w Paryżu). Generatywny opis nie pojawiał się ani wtedy, gdy wprowadzano polecenie: „Podaj biografię Donalda Trumpa”, ani gdy pytano: „Jaki jest życiorys Donalda Trumpa?”.
Marta Jóźwiak z Google’a wyjaśnia, że celem jest, by AI Overviews nie pojawiały się w odniesieniu do typowych newsów, gdzie liczą się zarazem aktualność i oparcie w faktach. Prawdopodobieństwo pojawienia się streszczeń ma za to wzrastać, gdy użytkownik będzie dopytywać o informacje z danej dziedziny, np. ogrodnictwa. Z tej wypowiedzi wynika, że Google eksperymentuje z usługą. To charakterystyczne dla nowych technologii. W teorii innowacji istnieje pojęcie projektu dominującego (dominant design). Pojawienie się takiego dominującego, obowiązującego kształtu danego rozwiązania to punkt przełomowy w cyklu technologicznym i sygnalizuje już dojrzałość rynku.
Nie ma jednak wątpliwości co do tego, że skoro algorytmy potrafią wyprodukować odpowiedź poradniczą, to potrafią wyprodukować też każdą inną – także streszczenie ostatnich wydarzeń prezydenckiej kampanii czy porównanie programów partii. Do tego, przy wykorzystaniu systemów uczenia maszynowego wyszukiwarka przestanie na pewnym etapie tylko udzielać odpowiedzi, a umożliwi znacznie więcej form interakcji człowiek–maszyna. Interfejsy generatywnej sztucznej inteligencji już dziś służą ludziom do kreowania pomysłów, przetwarzania zdjęć, muzyki i wideo, projektowania, tworzenia narracji czy analizowania danych.
To, jakim partnerem w tych interakcjach będzie dla nas wyszukiwarka, zależy m.in. od treści, na których uczą się jej algorytmy. Domyślnie – uczą się one na olbrzymich zbiorach danych. Na jakiej podstawie? Przede wszystkim w ramach dozwolonego użytku, którego zakres definiują same big techy, bo prawo jeszcze za tym nie nadąża. Także w ramach umów z podmiotami będącymi właścicielami treści, np. z wydawcami. Na przykład OpenAI podpisał umowy o współpracy z firmą Axel Springer (2023 r.) i News Corp (2024 r.). Zarazem to właśnie dyrektor technologii OpenAI Mira Murati nie potrafiła w marcu tego roku odpowiedzieć na pytania dziennikarki „The Wall Street Journal”, na jakich danych trenowano ich nowatorskie rozwiązanie Sora – zdolne do zamieniania tekstu na wysokiej jakości wideo. Czy były to filmy z YouTube’a lub Facebooka? – Nie jestem pewna. Jeśli były publicznie dostępne, to mogły być to takie treści – odpowiadała.
Marta Jóźwiak przypomina ogólne stanowisko Google’a w sprawie karmienia algorytmów: „Uważamy, że trenowanie LLM-ów jest korzystnym, transformacyjnym wykorzystaniem otwartych zasobów treści internetowych, wspierającym rozwój innowacji, nauki i kreatywności. Szanujemy i przestrzegamy globalnych praw autorskich i traktujemy tę odpowiedzialność poważnie”.
W datowanym na 28 marca liście do premiera Donalda Tuska polscy wydawcy prasowi i dziennikarze apelowali, by przy okazji implementacji dyrektywy DSM zakazać komercyjnym podmiotom uczenia ich algorytmów na podstawie podlegających ochronie prawno-autorskiej utworów: „Z rozczarowaniem odnotowaliśmy, że w ostatniej wersji ustawy projektodawca wycofał się z propozycji wyłączenia możliwości trenowania generatywnych algorytmów sztucznej inteligencji przez podmioty komercyjne. Dążenie do uzyskania równowagi pomiędzy postępem technologicznym a dbałością o zapewnienie wysokiego poziomu ochrony twórców uważamy za fundamentalną powinność prawodawcy”.
Jak wyjaśnia mec. Jacek Wojtaś, wydawcy od początku prac nad implementacją unijnej dyrektywy postulowali, by wykorzystanie treści do trenowania przez big techy ich algorytmów mogło się odbywać wyłącznie za zgodą uprawnionego i na podstawie podpisanej umowy licencyjnej. I aby tego typu wykorzystanie podlegało opłacie. Takich zapisów nie uwzględniono w znowelizowanej ustawie o prawie autorskim.
– W trakcie konsultacji mówiono nam: „Nie ruszajmy na razie AI, bo pojawi się akt w sprawie AI, który będzie to regulował” – wspomina mec. Wojtaś. Chodzi o akt o sztucznej inteligencji w UE (AI Act), pionierski w skali światowej zestaw przepisów mający zapewnić rozwój nowatorskich usług na terenie Unii w sposób etyczny i bezpieczny. Wszedł w życie 1 sierpnia, jednak nie odpowiada na obawy wydawców i twórców. – Akt powstawał w latach 2020–2022, kiedy nie było jeszcze wiadomo, do czego zdolne są systemy AI. Regulacja nie wnosi prawie nic do przepisów dotyczących prawa autorskiego. Co prawda w akcie pojawił się art. 54a, który mówi, że dostawca systemów AI powinien się stosować do prawa krajowego, jednak w prawie krajowym nie ma nic szczegółowego na ten temat – mówi mec. Wojtaś.
Dlatego, jak twierdzi, wydawcy poruszą temat podczas Forum Prawa Autorskiego, które zostało zwołane przez posłów Koalicji Obywatelskiej z sejmowej komisji kultury i środków przekazu. Jak się dowiadujemy, przedstawiciele Google’a też będą obecni. – Cieszymy się z możliwości udziału w nadchodzącym forum i zaplanowanych przez organizatorów dyskusjach – mówi Marta Jóźwiak z Google’a.
Media i Google – frenemies
Gdy 15 maja Sundar Pichai, prezes Google’a, ogłosił uruchomienie AI Overviews, Danielle Coffey, przewodnicząca News/Media Alliance, stowarzyszenia skupiającego ponad 2 tys. wydawców w USA i Kanadzie, stwierdziła, że usługa spowoduje „katastrofalne skutki” dla mediów newsowych. Dlaczego wydawcy obawiają się AI w wyszukiwarce? Upraszczając: uważają, że ludzie będą zaspokajać ciekawość odpowiedzią wygenerowaną przez AI i przestaną klikać w odsyłacze do stron (na SERP będzie coraz mniej odsyłaczy albo wcale), więc będą tracić ruch z platform, a zatem i pieniądze z reklamy; oraz że nie dostaną należnego im wynagrodzenia za treści (newsy, artykuły, które wytworzyli ich dziennikarze), na podstawie których big techy trenują i będą trenować algorytmy.
Relację Google’a z wydawcami doskonale opisuje pojęcie frenemies. Sięga ono czasów zimnej wojny i oznacza partnerstwo, w które jest wpisana rywalizacja, a nawet wrogość. Wydawcy potrzebują Google’a – nie tylko jako źródła ruchu, lecz także jako dostawcy nowatorskich rozwiązań w obszarze reklamy cyfrowej. Google zaś potrzebuje wydawców – dzięki nim może zaoferować użytkownikom ważne dla nich, aktualne i jakościowe informacje.
Być może jednak Google za bardzo rozpycha się na rynku mediów newsowych. Zaledwie cztery lata po debiucie wyszukiwarki, już w 2002 r., firma uruchomiła dedykowaną temu rynkowi usługę Google News. Ale rozwijała ją nie tylko jako specjalny silnik wyszukiwania, lecz także jako serwis (Wiadomości) i osobną aplikację mobilną. Google News szybko zaczął przyciągać większy ruch niż strony internetowe największych portali newsowych, czyli zaczął z nimi konkurować. W 2019 r. Google News funkcjonował już w 141 krajach, oferując usługę w 41 językach. Zarazem jednak – ze względu na prezentowanie linków do artykułów źródłowych – Google News prowadził do serwisów newsowych strumienie użytkowników (i strumienie przychodów). Z biegiem lat wydawcy zaczęli więc dostosowywać nie tylko architekturę stron internetowych, lecz także ważne praktyki redakcyjne pod Google’a, aby ich treści mogły być jak najlepiej pozycjonowane w wyszukiwarce.
Niedawno wydawcy zaczęli zmieniać taktykę: pozywać Google’a i domagać się od regulatorów w Europie i USA wsparcia w przywracaniu rynkowej równowagi (np. wydawca „Daily Mail” w 2021 r. m.in. za manipulowanie wynikami wyszukiwania czy grupa wydawców z Axel Springer i Schibsted na czele na początku 2024 r. za nadużywanie dominującej pozycji na rynku reklamy), spisywać z Google’em umowy o współpracy (np. wielu wydawców na świecie podpisało w ramach Google Show Case. W Polsce np. „Rzeczpospolita”, Wprost.pl, naTemat.pl, DoRzeczy.pl i liczne redakcje lokalne. Google prezentuje ich newsy w specjalnym boksie, a redakcje zyskują prawo do decydowania o tym, w jaki sposób są one zajawiane. Google w ramach licencji wypłaca im wynagrodzenia).
Ponadto wielu wydawców współpracuje z Google’em w ramach Google News Initiative (GNI). W raporcie za 2021 r. GNI chwaliła się, że od uruchomienia inicjatywy w 2018 r. wsparła media (w tym m.in. DGP) , głównie lokalne, kwotą 300 mln dol. Przychody Google’a w 2023 r. wyniosły ponad 300 mld dol. Media porozumiewają się też z innymi big techami. Na podstawie umowy News Corp z OpenAI ta pierwsza udostępnia treści tworzone przez należące do niej „The Wall Street Journal”, „The New York Post” czy „The Sunday Times” do trenowania algorytmów ChatGPT (który uruchamia usługę SearchGPT).
Czy ludzie przestaną klikać w linki, gdy AI Overviews dostarczy odpowiedzi? Niektóre branżowe serwisy internetowe w USA zaczynają już publikować pierwsze wyniki testów, które mają wskazywać, że po uruchomieniu AI Overviews wybranym wydawcom zmniejszają się zarówno liczba wyświetleń, jak i współczynnik klikalności (CTR). Nie ma jednak jeszcze badań, które dostarczyłyby wiarygodnych danych. Marta Jóźwiak z Google’a podkreśla, że SERP z AI Overviews wcale nie jest pozbawiony linków do źródeł. I przypomina słowa szefowej Google Search o testach, które wykazały, że ludzie chętniej klikają w linki pojawiające się przy streszczeniach niż te stanowiące po prostu element tradycyjnych zestawień.
Mecenasa Wojtasia martwi nie tylko ewentualny spadek ruchu wskutek uruchomienia AI Overviews, lecz także wskutek wyrażenia przez wydawcę braku zgody na wykorzystywanie jego treści do szkolenia algorytmów. W nowych przepisach o dozwolonym użytku, w art. 263, mowa jest o zastrzeżeniu, które może poczynić uprawniony (wydawca), by jego treści nie mogły być „eksplorowane dla celów komercyjnych”. – Nie wiadomo, czy takie zastrzeżenie nie spowoduje spadku pozycji treści wydawcy w wynikach wyszukiwania – mówi prawnik.
Marta Jóźwiak tłumaczy, że wydawcy mogą decydować o tym, czy ich witryny mają pomagać ulepszać algorytmy (obecne i kolejne generacje modeli) dzięki narzędziu Google-Extended. – Korzystanie z Google-Extended nie ma wpływu na pozycję witryny w wynikach wyszukiwania – zapewnia. Czy polscy wydawcy zwracali się do Google’a z prośbą o wyjaśnienie tej procedury? – Nie monitorujemy zapytań poszczególnych wydawców do naszych zespołów, jednak wielokrotnie publicznie i bezpośrednio przedstawicielom mediów tłumaczyliśmy, jak działa Google-Extended – odpowiada Jóźwiak.
Wydawcy boją się spadku ruchu z Google’a – zarówno z wyszukiwarki, jak i z innych usług (Discover, YT). Choć redakcje nie chwalą się publicznie, jaka jest struktura ich ruchu internetowego, zwykle jest to miks ruchu bezpośredniego (direct), ruchu z wyszukiwania (search), z agregatorów oraz z usług takich jak Google Discover, ruchu z social mediów (np. Facebooka) czy z innych stron internetowych. Ruch z Google’a może ważyć nawet ponad 50 proc. całego wyniku portalu newsowego. W artykule „The Wall Street Journal” z grudnia 2023 r. czytamy, że z Google’a pochodzi aż 40 proc. wizyt, które odnotowuje magazyn „The Atlantic”. Wyobraźmy sobie, że giganci polskiego internetu, jak Onet, Wp.pl czy Interia, którzy miesięcznie generują grubo ponad 300 mln wizyt, mają strukturę ruchu taką jak „The Atlantic”. Co by się stało? Straciliby część przychodów z reklamy programatycznej (to sposób zakupu i sprzedaży przestrzeni reklamowej online za pomocą technologii automatycznych, opartych na danych i algorytmach), ale wciąż byliby liderami.
Dotychczas zresztą Google’owi udawało się skutecznie przekonywać sądy, że nie mogą karać go za to, jak kogo widać w wyszukiwarce. Wiele takich spraw, jeszcze z pierwszej dekady XXI w., przeanalizowała Tansy Woan w artykule „Searching for an Answer: Can Google Legally Manipulate Search Engine Result” z 2013 r. Zwróciła w nim uwagę, że choć obniżenie pozycji danej strony internetowej w rankingu Google’a może skutkować spadkiem przychodów właściciela tejże, to nie ma on prawa domagać się rekompensaty. Wcześniej nie miał bowiem prawa do ustalonej pozycji w wynikach wyszukiwania, a zatem nie może być mowy o tym, że Google pozbawia go jakiegoś prawa.
Nowi gatekeeperzy
Jak w tym kontekście rozumieć ogłoszone właśnie w Polsce zwycięstwo mediów w walce o zabezpieczenie wynagrodzeń z tytułu wykorzystywania ich treści przez gigantów technologicznych? Z pewnością jest ono ważne, ale to trochę tak, jakby producenci sprzętu fotograficznego wyegzekwowali od państwa pomoc prawną w negocjowaniu cen za klisze fotograficzne po premierze smartfonów.
Polska właśnie zaktualizowała przepisy o prawie autorskim i prawach pokrewnych w związku z unijną dyrektywą przyjętą 17 kwietnia 2019 r. Państwa miały ją wdrożyć poprzez odpowiednie nowelizacje przepisów krajowych do 7 czerwca 2021 r., ale żadne nie dotrzymało tego terminu – pandemia skierowała uwagę urzędników na inne sprawy. My wprowadzamy zmiany jako ostatni. Robimy to już nie tylko po debiucie interfejsów generatywnej sztucznej inteligencji, lecz także po włączeniu tego typu usługi do dominującej wyszukiwarki.
Choć na świecie trwa zaawansowany proces uczenia algorytmów na bazie wszelkich możliwych, technicznie dostępnych danych, nowe polskie przepisy nie precyzują, jaki zakres dziennikarskich treści można eksplorować ani czy należy się za to właścicielowi praw majątkowych zapłata. Wydawcy zastrzegają, że nie są przeciwko platformom i sztucznej inteligencji. – Chcemy, aby obowiązywała prosta zasada: jeśli korzystasz z cudzej twórczości i na tym zarabiasz, podziel się zyskiem – mówi mec. Wojtaś. Platformy przekonują, że nie są przeciwko mediom. – Ulepszając wyszukiwarkę, przywiązujemy ogromną wagę do wspierania otwartego internetu, pomagając firmom, wydawcom i twórcom się rozwijać. W każdym miesiącu użytkownicy klikają i przechodzą z wyszukiwarki Google’a i Wiadomości (Google News) na strony wydawców ponad 24 mld razy – przekonuje Marta Jóźwiak z Google’a.
I jedni, i drudzy odgrywają w coraz bardziej cyfrowym społeczeństwie ogromną rolę – realizują prawa obywateli w zakresie dostępu do informacji, rozpowszechniania informacji czy wyrażania poglądów. Dlatego właśnie regulatorzy muszą interesować się i mediami, i platformami, a także ich wzajemnymi relacjami. Wśród tych podmiotów z pewnością wyróżnia się Google, największa wyszukiwarka, skupiająca 80 proc. globalnego ruchu związanego z wyszukiwaniem z urządzeń stacjonarnych i ponad 95 proc. ruchu z urządzeń mobilnych (dane za StatCounter). „Bez zbędnej przesady można stwierdzić, że istnieć znaczy być zindeksowanym przez jej silnik wyszukiwania” – pisali już w 2000 r. amerykańscy naukowcy Helen Nissenbaum i Lucas Introna. Z tego powodu Google’a nazywa się gatekeeperem, strażnikiem bramy. Gatekeeping to pojęcie z nauk o mediach i tradycyjna praktyka dziennikarska, polegająca na decydowaniu o tym, które z ogromu informacji trafią do widza albo czytelnika, a które nie.
Ciekawe, co generatywna sztuczna inteligencja Google’a opowie nam o obecnym sporze wydawców z platformami za kilka lat. Czyja rola zostanie uwypuklona, a czyj głos zostanie przykryty? ©Ⓟ