-To fantastyczne, że setki milionów ludzi wypróbowuje działanie AI, bo dzięki temu przechodzimy przyspieszony kurs oswajania się i będziemy w stanie dość szybko zidentyfikować towarzyszące jej ryzyka - mówi Tomasz Zalewski radca prawny, partner w kancelarii Bird&Bird, ekspert w zakresie prawa zamówień publicznych, nowych technologii i prawa własności intelektualnej.

Czym jest sztuczna inteligencja dla prawnika?
ikona lupy />
Tomasz Zalewski radca prawny, partner w kancelarii Bird&Bird, ekspert w zakresie prawa zamówień publicznych, nowych technologii i prawa własności intelektualnej / nieznane / fot. Agnieszka Murak/mat. prasowe

Sztuczna inteligencja to w istocie program komputerowy, tylko że zamiast pisania kodu linijka po linijce stosujemy techniki uczenia maszynowego. Dzięki temu kody czy algorytmy powstają samoistnie. Kiedy prawnicy zostali włączeni do dyskusji o AI, zaczęli ją początkowo definiować jako systemy czy programy, których działanie naśladuje ludzką inteligencję. Mimo swojej prostoty jest to jednak definicja subiektywna i nie nadaje się do użytku prawnego.

Dlatego w projekcie unijnego aktu o sztucznej inteligencji (AI Act) Komisja stwierdza, że jest to oprogramowanie opracowane przy użyciu co najmniej jednej z określonych technik, które może – dla określonych przez człowieka celów – generować treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję.

To się znalazło w pierwszej wersji AI Act, ale pół roku temu stwierdzono, że jednak lepsza jest definicja OECD mówiąca, że AI to system oparty na maszynie, który może wpływać na środowisko, formułując zalecenia, przewidywania lub decyzje dotyczące zadanego zestawu celów.

AI Act dzieli zastosowania sztucznej inteligencji na cztery kategorie i zależnie od tego nakłada określone obowiązki. Nieakceptowalne rozwiązania oparte na AI będą zakazane. Zastosowania wysokiego ryzyka znajdą się pod ścisłą kontrolą, w przypadku ograniczonego ryzyka będą obowiązki informacyjne, a AI minimalnego ryzyka nie będzie regulowana.

Ta regulacja to mieszanka RODO – jeżeli chodzi o mechanizm sankcyjny – i rozwiązań dotyczących produktów niebezpiecznych. Wskazuje się, co musi zrobić producent systemu AI oraz jakie wymogi muszą potem spełnić importer, dystrybutor i użytkownik takiego produktu. Sztuczna inteligencja jest produktem, który się w tej chwili bardzo mocno rozwija i którego się obawiamy. A obawiamy się dlatego, że jeszcze do końca nie rozpoznaliśmy ryzyka związanego z jej stosowaniem. Dopiero teraz, za sprawą umożliwienia swobodnego korzystania z narzędzi generatywnej AI, takich jak ChatGPT, cały świat testuje te systemy na dużą skalę i zastanawia się, jakie ryzyka mogą z tego wynikać i które zastosowania są w miarę bezpieczne.

Patrząc na projekt AI Act, ma się wrażenie, że jest tam mnóstwo zakazów, ograniczeń, obowiązków – ale tak naprawdę dotyczą one tylko niektórych systemów: tych, których nie będzie wolno produkować i użytkować, oraz systemów wysokiego ryzyka.

Pytanie, ile systemów AI, z których obecnie korzystamy i będziemy korzystali w najbliższej przyszłości, okaże się systemami wysokiego ryzyka. Niemiecki instytut appliedAI postanowił zaklasyfikować do odpowiednich kategorii ryzyka sto aktualnie użytkowanych, wprowadzonych do obrotu systemów sztucznej inteligencji. Okazało się, że ponad 40 proc. systemów nie można jednoznacznie zaklasyfikować (jako systemu wysokiego ryzyka, niskiego ryzyka czy też niepodlegającego planowanej regulacji). Systemów wysokiego ryzyka znaleziono 18. Plus jeden zakazany.

Twórcy rozwiązań AI będą się starali unikać etykiety wysokiego ryzyka.

W odniesieniu do pewnych rodzajów systemów to się raczej nie uda – np. w odniesieniu do systemów związanych z rekrutacją, z oceną właściwości psychofizycznych na podstawie cech biometrycznych, stosowanych w szkolnictwie.

Wszystko, co jest związane z biometrią, od razu wpada w kategorię wysokiego ryzyka. Ale ostatnio wyłączono z niej systemy, które służą wyłącznie do weryfikacji, czy ktoś jest osobą, za którą się podaje, potwierdzenia tożsamości na podstawie wcześniej podanych danych. Pewnie ten przypadek został zgłoszony przez kogoś, kto takie systemy wytwarza. Proszę pomyśleć, co by się stało, gdyby to pozostało w kategorii wysokiego ryzyka. Systemy, które przecież są bardzo praktyczne i których stosowanie nie wiąże się z wielkimi ryzykami (np. systemy kontroli dostępu) – zostałyby poddane dużym ograniczeniom. Podejrzewam, że takich sytuacji będzie całkiem sporo.

Innym przykładem mogą być systemy na platformach e-commerce oparte na systemach AI, które oceniają zdolność kredytową klienta pod kątem sprzedaży ratalnej. To są często kwoty rzędu 300–500 zł, ale jako systemy scoringowe te zastosowania będą podlegały wszystkim wymaganiom dla systemów wysokiego ryzyka. Przedsiębiorcy świadczący te usługi zastanawiają się więc, czy ta regulacja nie jest nadmierna. Naprzeciw tym oczekiwaniom wychodzą m.in. propozycje zmian polegających na wyłączeniu stosowania tych przepisów wobec małych i średnich przedsiębiorców lub wyłączeniu z tej kategorii systemów przeznaczonych do wykrywania finansowych nadużyć.

Wymagania wobec systemów wysokiego ryzyka będą uciążliwe?

Myślę, że tak. One są trudne do spełnienia i nikt do końca nie będzie wiedział, jak im sprostać. Po pierwsze wymogi dla producentów: system zarządzania ryzykiem, dokumentacja, zapewnienie odpowiedniej bazy danych treningowych, testowych, walidacyjnych. Potem dla tego, kto chce wdrożyć dane zastosowanie, pojawia się konieczność przeprowadzenia oceny jego wpływu na prawa podstawowe.

Mamy doświadczenie z RODO, jak się analizuje takie ryzyka – wtedy to się też wykuwało w praktyce. Teraz będziemy mieli do czynienia z oceną wpływu działania technologii na prawa podstawowe. Jak to robić? Na jakim poziomie szczegółowości? To może być naprawdę bardzo trudne.

Kto będzie rozstrzygał takie dylematy?

Przy wprowadzaniu RODO powstała grupa robocza opracowująca wytyczne na poziomie europejskim. Także opinie najaktywniejszych urzędów krajowych – zwłaszcza brytyjskiego i francuskiego – były przyjmowane jako wskazówki dla innych państw. W przypadku AI będzie zapewne podobnie.

Mają powstać Europejska Rada ds. Sztucznej Inteligencji i organy krajowe.

W odniesieniu do tych ostatnich kraje mają różne plany. W Polsce takie kompetencje może otrzymać np. UOKiK czy UODO, a może też powstać zupełnie nowy organ. To będzie ciekawy okres dla wszystkich.

Jak w chińskim przekleństwie o ciekawych czasach... O zakazanych zastosowaniach AI spory w europarlamencie trwały do ostatniej chwili. Chodziło o systemy masowej inwigilacji. Dlaczego takie użycie sztucznej inteligencji budzi grozę?

Najlepiej obrazują to filmiki pochodzące zazwyczaj z Chin czy Hongkongu: ludzie idą ulicą i nad każdym unosi się etykietka z imieniem, nazwiskiem i krótką charakterystyką, czy to osoba pozytywna społecznie, czy nie. Monitoring i tak jest już powszechnie stosowany. RODO to trochę temperuje, ale wyobraźmy sobie, że zostanie on połączony z systemami AI rozpoznającymi nas w czasie rzeczywistym. Stracimy wtedy prawo do anonimowości w przestrzeni publicznej. Gdziekolwiek będzie kamera, zostaniemy natychmiast rozpoznani.

Za takim rozwiązaniami wysuwa się argument bezpieczeństwa publicznego: np. łapanie przestępców ściganych listami gończymi. Stanęło jednak na zakazie. Tylko w uzasadnionych, wyjątkowych sytuacjach można będzie czasowo uruchomić identyfikację na podstawie cech biometrycznych.

Co jeszcze będzie zakazane?

Na przykład systemy social scoringu, czyli systemy, które kategoryzują ludzi w zależności od ich zachowań społecznie pożądanych lub nie. Ten zakaz pojawił się ze względu na doniesienia o chińskich eksperymentach z social scoringiem.

Chiny też regulują sztuczną inteligencję. Sprowadza się to do tego, że AI ma służyć ChRL.

Tam regulacja kręci się wokół państwa. W Unii kręci się wokół praw jednostki, a w Stanach Zjednoczonych – wokół braku regulacji. Tam chyba wierzą, że rynek powinien to uregulować. Ale podejrzewam, że zmienią nastawienie. Podobnie myśleli o danych osobowych, a potem Kalifornia w zasadzie skopiowała RODO i teraz już prawie wszystkie stany przyjęły jakąś legislację, która w mniejszym lub większym stopniu naśladuje RODO. Można więc powiedzieć, że to rozporządzenie to sukces eksportowy Unii Europejskiej. Pytanie, czy powtórzymy go z AI Actem.

Prawo unijne jak prawo rzymskie?

Z prawem rzymskim wiąże się taka ciekawostka. Przez pewien czas toczyła się dysputa, czy sztuczna inteligencja powinna mieć osobowość prawną. Unia Europejska opublikowała dokument, że roboty powinny mieć osobowość prawną. Spotkało się to z tak dużą krytyką, że później w kolejnym dokumencie zmienili zdanie. I wtedy prawnicy odwołali się do prawa rzymskiego – że wystarczy zastosować regulację prawa rzymskiego dotyczącą niewolników. Bo niewolnik w prawie rzymskim miał zdolność do czynności prawnych, mimo że mógł być jednocześnie własnością innej osoby. Twierdzono więc, że można to przez analogię odnieść do sztucznej inteligencji.

Myślę jednak, że na razie taka samoświadoma sztuczna inteligencja nam nie grozi. Mam wrażenie, że większość dywagacji na jej temat wynika z tego, że ktoś po raz pierwszy styka się z takim systemem jak ChatGPT i wydaje mu się, że on myśli.

Mamy tendencję do antropomorfizacji wszystkiego, co nas otacza.

To prawda. A gdy ChatGPT wydaje się rozumieć, co się do niego pisze, to trudno uwierzyć, że mamy do czynienia z systemem opartym na ocenie prawdopodobieństwa występowania słów w określonym porządku. ChatGPT oblicza, jakie słowo jest najbardziej prawdopodobne po poprzednim, i tak układa zdania.

Postanowienia dotyczące takich systemów (generatywnych i podstawowych) dołączono już w trakcie prac nad projektem aktem o AI. Przez to odchodzi on od przyjętej na początku zasady bazowania na ocenie ryzyka.

Systemy generatywne nie są ryzykowne?

Same w sobie nie. Prawdopodobnie uzasadnienie objęcia ich regulacją jest takie, że w przypadku modelu wielkoskalowego – czyli wyszkolonego na bardzo dużej bazie danych – błędy popełnione na etapie trenowania mogą wpłynąć na działanie kolejnych aplikacji, zbudowanych na podstawie tego systemu. To trochę tak, jak błędy w Windowsie mogą stworzyć problemy w funkcjonowaniu aplikacji działającej w tym środowisku.

Monitoring jest już powszechnie stosowany. RODO to trochę temperuje, ale wyobraźmy sobie, że zostanie on połączony z systemami AI rozpoznającymi nas w czasie rzeczywistym. Stracimy wtedy prawo do anonimowości w przestrzeni publicznej. Gdziekolwiek będzie kamera, zostaniemy natychmiast rozpoznani

Wydaje się, że regulacja modeli podstawowych została doklejona w odpowiedzi na pojawienie się zastosowań AI, które intensywnie wszyscy teraz testujemy: ChatGPT czy Bing AI. Swoją drogą to jest fantastyczne, że setki milionów ludzi wypróbowuje ich działanie, bo dzięki temu przechodzimy przyspieszony kurs oswajania się ze sztuczną inteligencją i pewnie będziemy w stanie dość szybko zidentyfikować towarzyszące jej ryzyka.

AI też staje się przez to mądrzejsza?

Nie, bo wbrew potocznemu przekonaniu te systemy nie uczą się cały czas. Na przykład ChatGPT podczas treningu analizuje wielkie bazy danych słów i zdań, bada prawdopodobieństwa i tworzy odpowiednie powiązania w sieci neuronowej. Kiedy później zadajemy mu pytania, opiera się na bazie, na której się uczył. Nowe informacje, które mu podajemy w kolejnych oknach dialogowych, bierze pod uwagę tylko podczas danej sesji. Po jej zakończeniu ta wiedza przestaje dla niego istnieć.

Gdy wrócimy z tym samym tematem, znów będzie kompletnie zielony?

Tak. Chyba że zostanie ponownie przetrenowany, na nowych danych. Pamiętam przykład sztucznej inteligencji obliczającej najlepszą cenę ofertową dla nieruchomości. Genialny produkt dla agencji nieruchomości: przychodzi klient, podaje dane – i system od razu mówi, jaka powinna być cena. On był trenowany na bazie danych o transakcjach – a kiedy pojawiały się nowe transakcje, nie zmieniał sposobu działania. Taka jest większość dostępnych obecnie systemów AI: są statyczne, nie uczą się w trakcie eksploatacji.

Wszyscy się boją wypuścić system, który sam by się douczał.

Bo się za bardzo usamodzielni?

Nie, ryzyko jest inne: jeżeli te nowe dane będą np. jednostronne albo nietypowe, to system przestanie prawidłowo działać. Baza, na której się uczył, odzwierciedlała przekrój statystyczny w pewnej dziedzinie. A tu nagle pojawiają się nowe informacje, być może jednostronne. To tak, jak z eksperymentem Facebooka, który uruchomił chatbota...

...a ten okazał się rasistą.

Właśnie. Podobnie było na Twitterze, gdzie system wytrenowany na dobrej angielszczyźnie zaczął przeklinać – bo wchłonął bazę nieparlamentarnych wypowiedzi i uczył się w trakcie. Rozmawiałem z przedstawicielem firmy, która produkuje oprogramowanie do automatycznego odczytywania wyników tomografii komputerowej: system skanuje zdjęcia i stawia na ich podstawie wstępną diagnozę. Taki system musi być statyczny. Bo inaczej, jeśli lekarz raz źle opisze zdjęcie, to AI się tego nauczy i zacznie uwzględniać błąd w kolejnych wynikach.

A dlaczego te systemy zmyślają? W USA ChatGPT podał prawnikowi listę precedensów – jak się okazało, nieprawdziwych.

To wynika z zasady działania systemu GPT. On się uczy zależności między słowami i jest tak trenowany, żeby udzielać odpowiedzi, które człowiek oceni jako dobre. Mamy np. słowo „pies”. Jakie może być kolejne? „Szczeka” pasuje, „miauczy” nie. Na początku treningu właściwe odpowiedzi wskazuje mu człowiek. Ale potem system ćwiczy sam ze sobą: wskazuje słowo i ocenia, czy to dobre dopasowanie. Ocenia na podstawie prawdopodobieństwa występowania słów po sobie – te odpowiedzi nie muszą mieć żadnego sensu. Poza tym nigdy nie mówi, że czegoś nie wie.

Żeby wiedzieć, że się nie wie, trzeba być filozofem.

Być może. ChatGPT nie ma takiej opcji. Poprosiłem go np. o linki do stron internetowych z artykułami na jakiś temat – i podał mi linki: Onet, Gazetaprawna.pl...

A jak pan kliknął?

Nie ma takiej strony.

Więc kłamie.

Nie kłamie: stworzył ciąg słów, które z punktu widzenia prawdopodobieństwa były najwłaściwsze. Ten system nie myśli. Nie wie, co generuje.

Ale systemy podstawowe cały czas się rozwijają. Wiele firm prowadzi prace nad tym, aby w trakcie używania doszkalać je na danych specyficznych dla konkretnej dziedziny. Na przykład dane kancelarii prawnej. Zmniejszyłoby to ryzyko otrzymania zmyślonej odpowiedzi.

Do czego ChatGPT może się przydać w kancelarii?

Każdy prawnik, zanim zacznie analizę prawną, musi ustalić stan faktyczny. Gros naszej aktywności polega więc na analizowaniu danych, ich porównywaniu i weryfikacji.

Już wiemy, że do weryfikacji to ten kłamczuszek się nie nadaje.

Ale może za mnie przejrzeć i porównać wiele dokumentów, np. tysiąc umów. Które na dodatek są w różnych formatach, w różny sposób napisane, ta sama informacja jest inaczej podana. Do analizy wielu dokumentów prawnych jednocześnie służy np. system Luminance. Nie podejmuje decyzji i nie zastępuje prawnika, ale może wstępnie podzielić umowy ze względu na język i prawo właściwe, znaleźć wszystkie umowy zawarte z podmiotem X, zidentyfikować postanowienia, których szukamy (np. kiedy umowa wygasa) itd. Używam tego przy większych projektach, bo bardzo przyspiesza pracę.

Mamy też w kancelarii ChatGPT w wersji prywatnej, w chmurze Microsoftu – możemy tam wrzucać dane poufne, bo nie są udostępniane producentowi. Wymienialiśmy się np. w kancelarii e-mailami na temat jakiejś oferty, każdy coś tam napisał, a potem trzeba było z tej korespondencji wyłowić informacje potrzebne do złożenia oferty – tu jedno zdanie, tam dwa. Wrzuciłem cały ten wątek do ChatGPT z poleceniem „przygotowuję ofertę, zrób podsumowanie wszystkich istotnych informacji, które muszą się w niej znaleźć”. W kilka sekund zrobił podsumowanie, w zasadzie miałem już gotową ofertę. To nie było trudne zadanie, ale wymagało trochę skupienia i uwagi. A tak mogłem poświęcić energię na ciekawsze zadania niż przeglądanie maili.

Takich zastosowań generatywnej sztucznej inteligencji może być bardzo dużo. Myślę, że to jest rewolucja, która w perspektywie roku, dwóch, przyniesie nam masę rozwiązań. Wdrożymy je do codziennego życia i wkrótce nie będziemy mogli sobie wyobrazić, że funkcjonowaliśmy bez nich. Przy czym jako ludzie staniemy się wtedy chyba jeszcze ważniejsi, bo to my będziemy decydować i weryfikować systemy AI. Niektórzy nawet prorokują, że większą renomą będą się cieszyły umiejętności, które do tej pory dość pogardliwie określaliśmy mianem miękkich. W twardych – jak prowadzenie samochodu – sztuczna inteligencja może nas zastąpić, ale w miękkich niekoniecznie. Wbrew pozorom rozwój technologii doprowadzi więc może do zwiększenia roli humanistyki.

Dopóki nie ma AI Act, jakieś przepisy trzymają sztuczną inteligencję w ryzach?

Po pierwsze mamy art. 22 RODO, który dotyczy decyzji opartych na automatycznym przetwarzaniu danych osobowych. Generalnie jest to zabronione, ale z wyjątkami – np. zgoda osoby, której dane są przetwarzane, wyłącza ten zakaz. Mamy też prawo autorskie, które reguluje kwestię praw do tego, co wytworzą systemy sztucznej inteligencji, zwłaszcza generatywnej.

Dzisiejsze prawo autorskie wystarczy do regulowania wszystkich zastosowań sztucznej inteligencji?

I tak, i nie. Tak, bo koncepcja prawa autorskiego jest oparta na tym, że twórcą utworu może być tylko człowiek. Nie, bo pojawiają się wątpliwości. Na przykład, jeżeli ktoś użył tego, co wytworzyła AI, jako inspiracji albo półproduktu – to kto jest właścicielem praw? Ja uważam, że decyduje ocena każdej sytuacji. Jeżeli twórczy wkład człowieka jest istotny, to jest to dzieło człowieka.

Natomiast głównym problemem, choć nie we wszystkich krajach, jest to, czy do uczenia maszynowego można korzystać z dostępnych w internecie dzieł. Akurat w Europie mamy dyrektywę DSM, która wprost przewiduje taką możliwość. Tylko że Polska jej jeszcze nie implementowała.

Ponadto stosujemy do AI te wszystkie przepisy, które mają zastosowanie do programów komputerowych. I mamy jeszcze umowy oraz warunki użytkowania od każdego dostawcy.

Całkiem sporo.

Sztuczna inteligencja to nie jest prawny Dziki Zachód. Myślę, że po paru latach niepokoju i sporów sądowych, wytworzy się orzecznictwo i wykształcą zasady postępowania. Dobrze też, że unijny AI Act to rozporządzenie, które obowiązuje bezpośrednio w całej Unii. Dzięki temu we wszystkich państwach sztuczna inteligencja będzie tak samo regulowana.

Dyrektywę jedni mogliby wprowadzić z naddatkiem, inni z opóźnieniem.

To po pierwsze. I chodziło też o to, żeby państwa członkowskie nie wprowadzały w tej dziedzinie przepisów krajowych. Bo wtedy wytworzyłyby się różne warunki konkurencyjne i różne poziomy przyzwolenia na stosowanie AI. W jednym kraju Unii dany system byłby dozwolony, a w sąsiednim zakazany. Więc dobrze, że Unia wyręczyła krajowych ustawodawców.

Mając AI Act, przedsiębiorcy przynajmniej będą wiedzieli, czego się od nich wymaga. Tym bardziej że regulacja chroni małe i średnie przedsiębiorstwa – zabrania np. przerzucania na nie odpowiedzialności przez producentów i dostawców AI. Pozostawienie wszystkiego niewidzialnej ręce rynku skończyłoby się tym, że na rynku pozostaliby tylko najwięksi. ©℗

Rozmawiała Elżbieta Rutkowska