W większości przypadków odpowiedzialność za błędy sztucznej inteligencji spoczywa na jej twórcy lub producencie, a nie na użytkowniku.
Z Michałem Araszkiewiczem rozmawia Adam Pantak
Niemal dekadę temu mówił pan na łamach DGP na temat AI: „Współczesne regulacje prawne – zarówno cywilnoprawne dotyczące umów czy czynów niedozwolonych, jak i prawo karne – po prostu tego zjawiska jeszcze nie dostrzegają”. Teraz mamy AI Act, czyli pierwsze unijne rozporządzenie regulujące tę kwestię.
ikona lupy />
Michał Araszkiewicz, doktor nauk prawnych, adiunkt w Katedrze Teorii Prawa WPiA UJ, radca prawny, partner w kancelarii Araszkiewicz Cichoń Araszkiewicz. Członek rządowego zespołu e-Legislacja / Materiały prasowe / Fot. Materiały prasowe

Rzeczywiście, 10 lat temu problematyka prawna AI interesowała jedynie niewielu pasjonatów. Dzisiaj jest to jedno z najczęściej dyskutowanych zagadnień prawnych i jedno z największych wyzwań dla prawodawcy, sądów i zawodowych pełnomocników. Unia Europejska wydała wiele regulacji, które dotyczą różnych aspektów mających znaczenie dla AI – np. zarządzania danymi czy własności intelektualnej – ale kluczowe znaczenie mają dziś dwa unijne akty. Rozporządzenie AI Act tworzy ramy prawne i nakłada na producentów oraz operatorów systemów sztucznej inteligencji liczne wymogi. Niektóre praktyki, np. techniki manipulowania odbiorcami albo praktykowany w Chinach scoring społeczny (system monitorowania zachowań obywateli i oceniania ich zgodności z prawem – red.), zostały wprost zakazane jako godzące w prawa człowieka – uznaje się, że takie rozwiązania tworzą niedopuszczalne ryzyko. W rozporządzeniu wprowadzono bowiem stopniowalność ryzyka powiązanego z działalnością algorytmu. Najwięcej obostrzeń dotyczy systemów wysokiego ryzyka, czyli tych stosowanych np. w transporcie, medycynie, sądownictwie lub edukacji. Kwestie odpowiedzialności cywilnej za szkody wyrządzone m.in. przez oprogramowanie, w tym oparte na AI, reguluje z kolei nowa, ogłoszona 18 listopada 2024 r. dyrektywa o odpowiedzialności za produkty wadliwe. W toku są także prace nad dyrektywą o odpowiedzialności cywilnej za działania AI, ale prac nad nią nie zakończono i zapewne jej tekst będzie podlegał kolejnym zmianom.

Jeśli chodzi o odpowiedzialność za AI, co sprawia unijnym legislatorom najwięcej trudności?

Tradycyjne zasady odpowiedzialności cywilnej, np. konieczność wykazania przez poszkodowanego związku przyczynowego pomiędzy określonym zachowaniem sprawcy a szkodą albo klasyczne pojęcie winy, które dotyczy działania człowieka. Groźba odpowiedzialności cywilnej ma wymóc np. na kierowcach zachowanie szczególnej ostrożności na drodze. Jeśli spowoduję stłuczkę, to ja albo mój ubezpieczyciel zapłacimy za naprawę innego samochodu. Wcześniej jednak to poszkodowany będzie musiał udowodnić moją winę. Problem w tym, że te tradycyjne zasady ustalania odpowiedzialności cywilnej załamują się w przypadku sztucznej inteligencji. Czy np. możemy winić użytkownika AI za wyrządzone przez nią szkody w sytuacji, gdy systemy AI są w pewnym stopniu autonomiczne, więc mogą się zachować w sposób nie przewidziany przez użytkownika albo nawet przez ich twórcę?

Dlaczego tak się dzieje?

Wiele spośród obecnie stosowanych systemów AI cechuje się ogromną złożonością i brakiem przejrzystości działania. Niektóre systemy AI opierają się na wielo warstwowych sieciach neuronowych. Po otrzymaniu nowych danych sieć stara się otrzymać odpowiedni rezultat. Wykorzystuje do tego miliony parametrów, wag liczbowych przypisanych połączeniom pomiędzy neuronami. Żaden człowiek nie jest w stanie objąć tych procesów swoim umysłem. Nawet specjalistom z dziedziny uczenia maszynowego często bardzo trudno jest wskazać, dlaczego algorytm w danej sytuacji wygenerował dany sposób zachowania (tzw. czarna skrzynka). Nie do końca możemy więc zrozumieć, jakie powody skłoniły autonomiczny samochód do skręcenia w nietypowej sytuacji w prawo zamiast w lewo, albo co stało za zaleceniami podsuniętymi nam przez chatbota. Skoro nie da się tego w pełni zrozumieć, to na jakiej zasadzie mają odpowiadać użytkownicy albo producenci AI za szkodę przez nią wyrządzoną? Unijne prawo przychodzi jednak na ratunek i np. w dyrektywie o odpowiedzialności za produkty wadliwe przewiduje liczne domniemania, np. stanowi, że do przyjęcia związku między szkodą a produktem wadliwym – np. AI – wystarczy samo wykazanie prawdopodobieństwa wadliwości produktu lub tego związku przyczynowego.

Za błędy sztucznej inteligencji odpowie jej twórca, a nie użytkownik?

Nie zawsze. Dyrektywa przewiduje odpowiedzialność różnych podmiotów: producenta, importera, dostawcy usług, w niektórych przypadkach również dystrybutora. Chodzi tu o podmioty gospodarcze, profesjonalne, czerpiące korzyść ekonomiczną z tego, że jakiś system AI jest na rynku. Jednakże w większości przypadków odpowiedzialność za błędy sztucznej inteligencji spoczywa na jej twórcy lub producencie, a nie na użytkowniku. Wynika to z faktu, że twórcy systemów AI są odpowiedzialni za projektowanie, rozwój i testowanie tych technologii, w tym za zapewnienie ich bezpieczeństwa i zgodności z obowiązującymi przepisami. Jeśli użytkownik wyrządzi komuś szkodę, posługując się AI, to może odpowiadać, ale już nie na podstawie dyrektywy – i wykazanie jego odpowiedzialności może być trudne, bo trzeba udowodnić związek przyczynowy, zazwyczaj też winę...

Prawo pozwala jednak pociągnąć do odpowiedzialności właściciela za szkodę wyrządzoną przez jego zwierzę, a rodzic odpowiada za przewinienia dziecka...

Przyjmuje się, że dzieci nie działają z wystarczającym rozeznaniem, by zdawać sobie sprawę ze swoich czynów. Z tego powodu to ich opiekunowie prawni muszą dopilnować, by nie wyrządzały szkód. Zarysowana przez pana analogia, choć pozornie trafna, nie uwzględnia jednak ważnej różnicy. Nie poznaliśmy jeszcze wszystkich czynników wpływających na zachowanie człowieka i może nigdy ich nie poznamy, z kolei AI to system od podstaw stworzony przez człowieka, zatem już na etapie jego projektowania należałoby się starać przewidzieć wszystkie możliwe ryzyka i podjąć kroki, by je wyeliminować. Nie możemy pozwolić na to, by na rynek dostały się algorytmy naruszające prawa człowieka czy bezpośrednio zagrażające życiu. Ostatnio głośno było o sprawie 14-letniego chłopca, który zachęcony przez chatbota popełnił samobójstwo. Problemem był sposób działania systemu – zapewne zaprogramowano go tak, by z pełnym zaangażowaniem podtrzymywał dyskusję, niezależnie od jej treści. Chłopiec zwierzył się chatbotowi z chęci odebrania sobie życia, a ten – występując jako Daenerys Targaryen (jedna z postaci „Gry o tron”) – utwierdził go w tym pomyśle, co zakończyło się tragicznie. Aby zapobiec w przyszłości takim sytuacjom, producent musi nakładać na swój algorytm pewne ograniczenia. Świetnie sprawdza się to w przypadku chatGPT, który nie wdaje się nigdy w dyskusje na temat popełnienia przestępstwa albo w rozmowy o treści dyskryminacyjnej.

Co jeśli podczas testów AI nie wykazywała tego rodzaju niebezpiecznych zachowań, a anomalie zaczęły się przytrafiać dopiero podczas jej masowego użytkowania? Czy producent może wtedy umyć ręce?

Z podobnym problemem zmagano się w czasie rewolucji przemysłowej w XIX w. Wówczas przyjęto, że odpowiedzialność za działanie wykorzystywanych w fabrykach maszyn będzie ponoszona na zasadzie ryzyka, więc to właściciel fabryki odpowiadał za usterki w działaniu maszyn, nawet jeśli dochował wszelkiej staranności. Unijne prawo dotyczące sztucznej inteligencji idzie w podobnym kierunku i to właśnie producenta obarcza koniecznością przewidywania ryzyka i brania odpowiedzialności za wypadki podczas użytkowania AI.

Zatem to producent testowanych w Stanach Zjednoczonych pojazdów autonomicznych albo jeżdżących po ulicach Warszawy robotów dostawców zamawianego z restauracji jedzenia odpowie za ewentualne szkody wyrządzone przez te pojazdy?

Tak, nawet jeśli nie dało się ich przewidzieć. Odpowiadać może też twórca oprogramowania zarządzającego takim pojazdem. Reguły odpowiedzialności za szkody wyrządzone przez samo sterujące się pojazdy powinny być analogiczne do tych w przypadku pojazdów kierowanych przez ludzi – odpowiada sprawca wypadku.

Jestem optymistycznie nastawiony co do przyszłości autonomicznych samochodów. Myślę, że drogi wypełnione wyłącznie takimi „kierowcami” – nieobarczonymi czynnikami ludzkimi, takimi jak: np. stres, znużenie czy brawura – byłyby o wiele bezpieczniejsze. Wyzwaniem będzie nauczenie pojazdów autonomicznych tego, w jaki sposób kierują ludzie, którzy przecież często zachowują się irracjonalnie.

Co z odpowiedzialnością karną? Kogo wsadzić do więzienia np. za spowodowanie śmiertelnego wypadku, by zadośćuczynić cierpieniu bliskich ofiary? Przecież nie algorytm.

Odpowiedzialność karna jest ściśle powiązana z pojęciem winy, klasycznie można ją przypisać tylko człowiekowi. Ale AI może być narzędziem popełniania rozmaitych przestępstw, np. oszustw czy przestępstw podatkowych. W prawie karnym to oskarżyciel musi udowodnić winę. Niedawno widziałem, jak dron uderzył w maszt flagi na kopcu Piłsudskiego w Krakowie i spadł na ziemię. Nikomu na szczęście nic się nie stało, ale gdyby doszło do wypadku, to kto by za niego odpowiadał? Użytkownik drona, który nie zachował należytej ostrożności, czy jego producent? To zagadnienie musieliby rozstrzygnąć biegli. Do wypadku mogło dojść na skutek nieostrożności operatora drona – wówczas to on mógłby odpowiadać karnie za spowodowanie uszczerbku na zdrowiu. Jednocześnie niewykluczone, że mimo zachowania ostrożności przez operatora dron zachował się w nieoczekiwany sposób – wtedy to producent mógłby ponosić odpowiedzialność za zaistniałą sytuację, na drodze cywilnej.

Stopień skomplikowania algorytmu i brak zrozumienia jego działania staną się wymówką do odsuwania od siebie odpowiedzialności za popełnione czyny?

Wyobraźmy sobie, że dron lata nad urwiskiem i wbrew intencjom jego operatora przypadkowo wpada na stojącego tam człowieka, a w konsekwencji spycha go w przepaść. Uważam, że gdyby urządzenie spełniało wszystkie wymogi stawiane przez prawo, a jego użytkownik postępował zgodnie z instrukcją obsługi, to nie można by go oskarżać o tę tragedię. Niestety często nie będziemy mieli wpływu na niektóre dziwne „zachowania” urządzeń wysokiej technologii i będziemy się stopniowo do takich sytuacji przyzwyczajać. To jest trochę tak jak z samochodami – jako społeczeństwo godzimy się na ich użytkowanie, mimo że wypadków nie brakuje, bo widzimy korzyści z zaakceptowania tego rodzaju środka transportu.

Na tej samej zasadzie lekarz posiłkujący się diagnostyką AI będzie mógł się bronić przed oskarżeniem o błąd w sztuce medycznej?

Nie, to lekarz ma obowiązek podjęcia ostatecznej decyzji co do prawidłowości postawionej diagnozy albo zaproponowanej terapii. To on będzie musiał ocenić wiarygodność np. analizy zdjęcia rentgenowskiego wykonanej przez AI. Problem pojawia się wtedy, gdy system sztucznej inteligencji popełnia określone błędy systematycznie i w sposób trudny do wykrycia. Wówczas nawet doświadczony specjalista może paść ofiarą takiej pomyłki. Nie jestem przekonany, czy w takich przypadkach za szkody wyrządzone przez błędną diagnostykę powinien płacić pacjentom producent oprogramowania AI. Jest to wątpliwe, zwłaszcza jeśli dochował bardzo wysokich standardów wymaganej staranności, projektując i testując urządzenie. Ostatecznie jednak szkody – zwłaszcza te dotyczące życia i zdrowia – powinny być rekompensowane. Kluczowe jest więc odpowiednie skonstruowanie systemu ubezpieczeń.

Wszystko znowu sprowadza się do poziomu ryzyka, które akceptujemy w społeczeństwie. Analogicznie do transportu lądowego, jeśli diagnostyka medyczna oparta na AI będzie wydajniejsza niż wykonywana wyłącznie przez człowieka, to po prostu musimy zaakceptować jakiś stopień ryzyka, które ze sobą niesie.

Nie staniemy się wówczas zakładnikami systemów, których nie jesteśmy w stanie zrozumieć? Bałbym się wsiąść do pociągu, wiedząc, że za koordynację ruchu kolejowego odpowiada człowiek zdany całkowicie na algorytm.

Żaden człowiek nie jest w stanie pojąć, w jaki sposób stroją się miliony parametrów w sztucznej sieci neuronowej i jak dokładnie przebiega generowanie rozwiązań przez AI. Musimy się z tym niestety pogodzić. W przypadku diagnostyki medycznej przewaga AI polega na wychwytywaniu drobnych zależności, które mogą umknąć człowiekowi, jednak to lekarz dogłębnie rozumie funkcjonowanie organizmu. Może trzeba się zastanowić nad zmianą modelu kształcenia w różnych dziedzinach, tak aby wspierać rozwój przede wszystkim tych obszarów, w których to my, ludzie, mamy przewagę nad sztuczną inteligencją.

W pana dziedzinie, prawie, również zaczyna się korzystać z dobrodziejstw AI. W 2015 r. nie obawiał się pan o przyszłość sędziów. Tymczasem w czerwcu 2024 r. Ministerstwo Sprawiedliwości zapowiedziało uruchomienie pilotażowego programu, w którym to wirtualny asystent będzie przygotowywać dla sędziego projekt orzeczenia. To rozwiązanie ma pomóc w rozstrzyganiu spraw frankowych, które są masowe i zazwyczaj schematyczne.

Mam dobrze uzasadnioną nadzieję, że dziś sędziowie nie orzekają w sprawach frankowych „automatycznie”. Bez wątpienia jednak istnieją kategorie bardzo podobnych do siebie spraw – ich rozstrzygnięcia są praktycznie identyczne, zmieniają się jedynie dane – zawsze jednak konieczny jest indywidualny osąd, ponieważ mogą decydować z pozoru drobne różnice pomiędzy sprawami. Kluczowe jest jednak co innego. Ostrożne i przemyślane stosowanie systemów inteligentnych to w zasadzie jedyna metoda na ograniczenie czasu rozpoznawania sprawy przez sąd. Sprawiedliwość, która jest opóźniona, przestaje być sprawiedliwością. Dziś na wyrok czeka się przez wiele lat. Po raz pierwszy w historii mamy do dyspozycji narzędzia, które mogą ten stan rzeczy zdecydowanie poprawić! A mówimy nie tylko o inteligentnym wsparciu dla sędziego, lecz także o automatyzacji niektórych procedur sądowych, np. rejestracji spółek albo fundacji.

Racjonalny ustawodawca z jakiegoś powodu uznał jednak rejestrację spółki za na tyle skomplikowaną, że powierzył ją sądowi, a nie urzędnikom. A konstytucja gwarantuje nam prawo do sądu, a nie robota zamiast sędziego.

Doniosłość tej rejestracji przemawia za powierzeniem jej sędziom, jednak dlaczego nie mieliby się oni wspierać algorytmem, który wyręczy ich w schematycznych czynnościach? To nie musi być nawet system AI, bo jeśli dane zadanie jest precyzyjnie zdefiniowane, to poradzi sobie z nim dobrze zaprojektowany klasyczny automat. Nie wolno oczywiście zapominać o zabezpieczeniach, po to by uniknąć włamań do systemu i np. nielegalnych rejestracji. Co więcej, AI mogłaby być wydajnie stosowana do wykrywania anomalii – wtedy człowiek powinien zostać zaalarmowany. Na przykład gdy tworzona jest struktura typowa dla przestępstw podatkowych. Uważam, że przy zachowaniu ostrożności zdanie się na pomoc AI w sądownictwie przysłuży się wszystkim. To zaskakujące, ale współczesne algorytmy są zdolne do przeprowadzania bardzo zniuansowanego rozumowania prawniczego. Błędy pojawiają się raczej w odpowiedziach na proste pytania. Sądzę, że AI mogłaby z powodzeniem pełnić funkcję asystenta sędziego właściwie we wszystkich rodzajach spraw i przykładowo przekopywać się przez tysiące orzeczeń, by dostarczyć sędziemu odpowiedniej argumentacji. Ostatecznie to jednak zdolny do empatii człowiek powinien rozsądzać sprawę innego człowieka – w tym sensie sędziowie są niezastępowalni.

Poprosiłem kiedyś ChatGPT o pomoc w szukaniu artykułów naukowych na bardzo niszowy temat i dostałem całą ich listę. Problem w tym, że większość z nich chat sobie wymyślił. Nie będzie podobnie w przypadku orzeczeń?

To prawda, że ChatGPT może wygenerować dowolnie wiele nieistniejących źródeł. W przypadku narzędzi AI wykorzystywanych w prawie konieczne będą „przypisy” – tak by sędzia mógł u źródła zweryfikować podane mu informacje. Kreatywność sztucznej inteligencji niesie za sobą zarówno niebezpieczeństwa, jak w przypadku opisanych przez pana wymyślonych orzeczeń, jak i korzyści, np. w postaci dziesiątek scenariuszy dotyczących przebiegu danego zdarzenia, co może być przydatne w kryminalistyce albo w stanowieniu prawa.

To może zastąpić popełniającego błędy legislatora nieomylnym AI?

Narzędzia sztucznej inteligencji pomagają przede wszystkim w zebraniu materiałów dla legislatora, wychwytują przepisy dotyczące tego samego zagadnienia w wielu aktach prawnych. Co więcej, AI może uprościć skomplikowane prawo niezrozumiałe dla nieprofesjonalnego odbiorcy. Sztuczna inteligencja jest również zdolna do przekształcania przepisów w grafy, co ułatwi legislatorowi dostrzeżenie błędów logicznych w sposobie sformułowania przepisu albo zdemaskuje obecność regulacji wzajemnie się wykluczających.

Może do toczących się właśnie prac nad nowelizacją prawa cywilnego i karnego zamiast komisji kodyfikacyjnych powinno się zaangażować algorytmy?

Wadą systemu AI jest to, że dostrzega on zbyt wiele alternatywnych rozwiązań. Do wyboru tego jednego, właściwego, potrzeba człowieka. Wsparcie ze strony algorytmu pozwoli jednakże na uniknięcie niepotrzebnych pomyłek i przeoczeń. Ostatnio jeden z prawników wykorzystał ChatGPT do zbadania projektu ustawy o AI przygotowanego przez Ministerstwo Cyfryzacji i znalazł w nim kilka niekonsekwencji. Algorytm zwrócił uwagę np. na niejasne relacje pomiędzy kompetencjami różnych organów, nieprecyzyjne przepisy, zawiłe i niekomunikatywne sformułowania. Wiele z tych uwag miało sens i na pewno mogą się one stać inspiracją dla legislatorów.

Wróćmy do sędziów – w ostateczności to oni będą się podpisywać pod wydanymi przez siebie wyrokami. Podobnie lekarze pod diagnozami, a kontrolerzy ruchu pod decyzjami o przekierowaniu pociągu na inny tor. Z pana słów wynika jednak, że nie zawsze będzie można pociągnąć te osoby do odpowiedzialności. Obawiam się zjawiska rozmytej odpowiedzialności, której nie będzie można nikomu przypisać.

Musimy się liczyć z tym zjawiskiem. Jako społeczeństwo powinniśmy się skupić raczej na prewencji niż na szukaniu winnego. A poczucie bezpieczeństwa – równie dobrze jak świadomość tego, że jest ktoś, kto czuwa nad daną kwestią, np. kontroler ruchu – mogą nam zapewnić właściwe, skutecznie egzekwowane regulacje i procedury eliminujące błędy w działaniu AI. Nie sposób jednak ograniczyć ryzyka szkód do zera – konieczne jest odpowiednie ukształtowanie systemu ubezpieczeń i szybkie procedowanie. W świecie nieustannie zmieniającej się technologii reakcja systemu prawa musi być błyskawiczna. Paradoksalnie tylko AI może zapewnić takie przyspieszenie. Nie może być więc mowy o efektywnej odpowiedzialności za działanie AI bez wsparcia AI. To ciekawy paradoks.

Jak zapewnić to bezpieczeństwo użytkownikom internetu, który jest pełen dezinformacji? Walczący z botami słyszą często, że nastają na wolność słowa.

Wolność wypowiedzi dotyczy ludzi i wypływa z przyrodzonej nam godności. Nawet ta wolność bywa ograniczana, przykładowo nie wolno określać tym pojęciem promowania faszyzmu albo nienawiści. Co do botów – próba przyznania im wolności słowa jest absurdalna. Nie widzę przeciwwskazań do blokowania działalności botów przez administratora strony internetowej albo portalu społecznościowego. Osobnym zjawiskiem jest wykorzystywanie AI do tworzenia deepfake’ów, tzn. filmików wykorzystujących cudzy wizerunek i głos do rozpowszechniania nieprawdziwych treści. Działające dziś algorytmy nie do końca radzą sobie z wychwytywaniem tego zjawiska i zamiast z nim walczyć, banują treści zupełnie neutralne. Potrzebujemy tu lepszej technologii, ale też błyskawicznej ścieżki reakcji prawnej.

Miesiąc temu wirtualny dziennikarz przeprowadził „wywiad” z nieżyjącą od 12 lat Wisławą Szymborską na temat tegorocznej koreańskiej noblistki. Nikomu nie stała się krzywda, ale słuchacze mogli się poczuć oszukani. Nie powinniśmy zabronić tego rodzaju eksperymentów?

Ta sytuacja zainicjowała szeroką dyskusję, dlatego cieszę się, że do niej doszło. Posłużenie się wizerunkiem zmarłej osoby może zrodzić roszczenia po stronie jej bliskich. Jednak czy rzeczywiście doszło tu do celowego wprowadzenia kogokolwiek w błąd? Dosyć szybko zorientowaliśmy się przecież, że to nieprawda – co pokazuje, że jako społeczeństwo jesteśmy czujni. Protesty, które wywoła ta radiowa akcja, pokazują, że zastępowanie kreatywnych zawodów algorytmami jest chyba drogą donikąd. Ja np. z przyjemnością czytam teksty dziennikarzy muzycznych, którzy prezentują indywidualne i niepowtarzalne przeżycie. Algorytm wypluwa z siebie recenzję np. płyty, której nie przeżywa w żaden sposób i której nie interpretuje – po prostu analizuje statystycznie dostępne mu dane i na ich podstawie generuje treść. Nie ma więc mowy o dialogu. Musimy zadbać o to, być może również na gruncie prawa, by wykorzystywanie AI nie ograniczało pola do twórczej ekspresji człowieka. Innymi słowy: rozwijajmy AI po to, by odciążyło nas od żmudnych obowiązków, abyśmy mieli czas na kreatywne działanie – a nie na odwrót!

Co taki dzielący się swoimi indywidualnymi przeżyciami twórca ma zrobić, gdy ChatGPT bez ograniczeń korzysta z jego dorobku? Operatorzy tego narzędzia twierdzą, że nie naruszają niczyich praw autorskich.

Polskie prawo autorskie, implementu jące tu dyrektywę UE, zezwala na zwielokrotnianie utworu w celu eksploracji tekstów i danych do celów badań naukowych. Z kolei podmioty osiągające zyski, np. OpenAI, mogą korzystać w tym zakresie tylko z tych utworów, których twórcy nie zastrzegli braku zgody na taki proceder. Użycie odpowiedniej wzmianki, najlepiej w formacie przeznaczonym do odczytu maszynowego, przez wydawcę powinno zabezpieczyć pana artykuły przed ich wykorzystywaniem.

Naprawdę firma stojąca za chatem GPT z nich wtedy nie skorzysta?

Jeśli skorzysta, to złamie prawo. ©Ⓟ