Sektor cyfrowy chciałby jak najszybciej dostać rozwiązania dotyczące piaskownic regulacyjnych, w których mógłby testować sztuczną inteligencję, ale na razie musi się zadowolić pomocą przy interpretacji przepisów.

Ministerstwo Cyfryzacji przedstawiło projekt ustawy o systemach sztucznej inteligencji (nr z wykazu: UC71) jako wsparcie innowacji i zrównoważonego rozwoju AI.

– W projekcie mało jest zachęt probiznesowych – ocenia jednak radca prawny dr Damian Flisak. – Ale też nie jest to jedyna ustawa wdrażająca AI Act i nie taki jest jej zasadniczy cel. Ona realizuje to, co musi zostać wprowadzone w pierwszej kolejności: ustanawia krajowy organ i określa kary. Potem będą kolejne transze wdrażania – zaznacza.

Zapowiedziało je już zresztą MC. Obejmą one m.in. zagadnienia dotyczące systemów AI wysokiego ryzyka oraz tzw. piaskownic regulacyjnych.

Skromna ustawa

– Ta ustawa ma skromne zadania – mityguje Tomasz Zalewski, radca prawny i partner w kancelarii Bird & Bird. – Tak naprawdę to nawet nie jest ustawa o systemach sztucznej inteligencji, tylko o właściwych organach, ich działaniu, zasadach kontroli itp. – wyjaśnia.

Znaczenia ustawy nie przecenia też dr Jakub Rzymowski, adiunkt Wydziału Prawa i Administracji Uniwersytetu Łódzkiego i współpracownik Eurokancelarii prof. Marii Królikowskiej-Olczak. – Polska ustawa dla krajowego sektora sztucznej inteligencji będzie raczej pomijalna w zakresie wpływu na rozwój AI – mówi.

Mimo to projekt wzbudza duże emocje.

– Pojawia się wiele komentarzy, bo tematy związane z AI przykuwają uwagę. Można to określić jako AI-washing: próbuje się wzbudzić zainteresowanie aktem ustawodawczym, podkreślając choćby w tytule ustawy, że jest ona związana ze sztuczną inteligencją – stwierdza Tomasz Zalewski.

Oprócz powołania nowego organu nadzoru rynku – Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji – i ustanowienia MC organem notyfikującym oraz określenia podstawowych procedur dla tych organów projekt nie przynosi wiele więcej.

– Rynek miał większe oczekiwania – nie kryje Michał Kanownik, prezes Związku Cyfrowa Polska. – Spodziewaliśmy się, że projekt przyniesie więcej rozwiązań przyjaznych dla biznesu. Brakuje np. przepisów dotyczących piaskownic regulacyjnych. Ministerstwo zapowiada wprawdzie, że znajdą się one w kolejnym projekcie, w przyszłym roku, ale są potrzebne jak najwcześniej. Dlatego będziemy postulować, aby piaskownice uwzględniono w ustawie już teraz – mówi.

Piaskownice regulacyjne pozwalają przedsiębiorcom testować nowe rozwiązania w zamkniętym środowisku (np. w specjalnej strefie ekonomicznej) przed wprowadzeniem ich na rynek.

– To jest narzędzie, za pomocą którego państwo może stymulować rozwój nowych technologii. Piaskownice pomogłyby zwłaszcza małym i średnim firmom, które nie mogą sobie pozwolić na tworzenie środowisk testowych na własną rękę – argumentuje Michał Kanownik. – To szczególnie ważne w odniesieniu do AI, która wciąż budzi wiele wątpliwości i obaw. Moim zdaniem niesłusznie, ale taka jest rzeczywistość, więc powinniśmy stosować odpowiednie środki – dodaje.

O piaskownicach projekt mówi tylko tyle, że komisja podejmie działania w celu ich utworzenia.

Jakub Rzymowski nisko ocenia projekt od strony techniki prawodawczej.

– Artykuł 3 jest zupełnie niepotrzebny – mówi. Projektodawca wymienia tam kilkanaście pojęć używanych w ustawie i odsyła do ich definicji w unijnym rozporządzeniu, będącym aktem prawnym wyższej rangi.

– Wprawdzie zasady techniki prawodawczej dopuszczają coś takiego, jeśli to służy jasności ustawy, jednak w tym przypadku nie ma to najmniejszego sensu. Zwłaszcza że zrobiono to chaotycznie, przepakowując z AI Actu tylko część definicji – argumentuje dr Rzymowski.

Pytania spłyną obficie

Rozwiązaniem przedstawianym jako probiznesowe są interpretacje przepisów dotyczących AI (patrz: obok).

– Na pewno może się to przyczynić do zwiększenia pewności i bezpieczeństwa obrotu. Z tego punktu widzenia to słuszna idea – ocenia dr Damian Flisak. – Sądzę, że przynajmniej w pierwszym okresie zapytania będą obficie spływały do komisji. AI Act wszedł już w życie. Do lutego przyszłego roku firmy muszą się wycofać z zakazanych zastosowań sztucznej inteligencji. Do sierpnia mają powstać krajowe urzędy. Ponadto Komisja Europejska zapowiada wydanie swoich wytycznych, dotyczących m.in. ryzyk. W tej sytuacji wątpię, czy w najbliższym czasie nowy polski organ odważy się na daleko idące interpretacje AI Actu – stwierdza ekspert.

Jak dodaje, instytucja interpretacji dotyczących AI powinna działać na takiej zasadzie, jak ma to miejsce w prawie podatkowym.

– To dałoby firmom pewność. Roma locuta, causa finita – mówi Damian Flisak. – Ważne też, aby interpretacje były przyjazne dla obrotu gospodarczego, dla przedsiębiorców sektora AI, żeby to nie było polowanie na czarownice. A jednocześnie powinny one zabezpieczać społeczeństwo przed rozwiązaniami kojarzącymi się z orwellowską inwigilacją – dodaje.

Projekt nie precyzuje jednak, że interpretacje komisji będą wiążące.

– Niewpisanie do ustawy rękojmi wiarygodności tych interpretacji osłabia ich znaczenie – wskazuje dr Flisak. – Mimo to mam przekonanie, że jeśli biznesmen będzie działał w zaufaniu do tych interpretacji, to zostanie to później wzięte pod uwagę w razie stwierdzenia ewentualnych naruszeń – uważa.

Do takiej sytuacji mogłoby dojść, gdyby się okazało, że interpretacja krajowej komisji różni się od późniejszego orzeczenia TSUE w danej sprawie.

– Racja będzie wtedy po stronie trybunału, ale na korzyść przedsiębiorcy powinno się liczyć to, że stosował się do interpretacji – podkreśla Damian Flisak.

Przede wszystkim AI Act

Tomasz Zalewski dodaje, że z założenia nie spodziewał się po ustawie rewolucji.

– Projekt nie przynosi nowatorskich rozwiązań legislacyjnych. Reguluje to, co trzeba doregulować, ale nie będzie miał istotnego znaczenia, ponieważ AI Act obowiązuje bezpośrednio i wejście w życie krajowej ustawy naprawdę niewiele zmieni – mówi.

Także Damian Flisak podkreśla, że główną regulacją w sprawie AI jest unijne rozporządzenie, które obowiązuje bez potrzeby implementacji.

– Oczekiwanie, że akt prawny, który tworzy ramy do stosowania AI Actu, nagle wprowadzi wielkie mechanizmy zachętowe, to pomyłka. To nie jest tego rodzaju ustawa – stwierdza dr Flisak.

Natomiast na pytanie, jak na sektor AI wpłynie unijne rozporządzenie, nie ma prostej odpowiedzi.

– Niektórzy twierdzą, że to jest nadmierna, zbyt restrykcyjna regulacja i spowoduje exodus przedsiębiorców nie tylko z Polski, lecz z całej Unii Europejskiej – wskazuje Tomasz Zalewski.

Pogląd, że AI Act zaszkodzi regulowanej technologii, wyraża Jakub Rzymowski. – AI Act wprowadza cały wachlarz problematycznych obowiązków i kary za ich nieprzestrzeganie. Bez niego AI rozwijałaby się w Unii lepiej – uważa.

Natomiast Tomasz Zalewski przyłącza się raczej do głosów przeciwnych: że są technologie, które muszą być regulowane. – Zagrożeń związanych z lekkomyślnym wykorzystywaniem sztucznej inteligencji jest tak wiele, że trzeba na to spojrzeć regulacyjnie – argumentuje.

Zaznacza, że większość przepisów AI Actu dotyczy systemów wysokiego ryzyka, tj. takich, które mogłyby stworzyć istotne ryzyko dla zdrowia, bezpieczeństwa i praw człowieka.

– Pozostałe, powiedzmy, 5 proc. aktu reguluje systemy ogólnego przeznaczenia, czyli to, co nazywamy generatywną sztuczną inteligencją, oraz obowiązki z zakresie przejrzystości dla kilku rodzajów systemów. Natomiast inne systemy w zasadzie nie są regulowane – ocenia Tomasz Zalewski.

Wskazuje też, że surowsze od unijnych przepisy dotyczące AI zawarto w projekcie ustawy w stanie Kalifornia w USA, kolebce firm technologicznych. Projekt przewiduje m.in. odpowiedzialność za szkody wyrządzone przez stosowany system sztucznej inteligencji na zasadzie ryzyka.

– Nie jest więc tak, że tylko w Unii dostrzega się ryzyko, a reszta świata chciałaby wdrażać AI bez żadnych ograniczeń – podsumowuje Tomasz Zalewski. ©℗

ikona lupy />
Interpretacje indywidualne i generalne / Dziennik Gazeta Prawna - wydanie cyfrowe