Nowa wersja przepisów dotyczących sztucznej inteligencji wprowadza możliwość zawarcia układu w sprawie nadzwyczajnego złagodzenia sankcji za naruszenia. Za ich niedotrzymanie będą jednak surowe kary dla członków zarządów odpowiedzialnych za naruszenia.

Możliwość zawarcia układu z krajowym organem i obniżenia kary dla podmiotu, który dopuścił się naruszenia unijnego rozporządzenia – Akt w sprawie sztucznej inteligencji (AI Akt) lub ustawy o systemach sztucznej inteligencji, wprowadza nowa wersja projektu tej ustawy (nr z wykazu: UC71). W razie niedotrzymania postanowień układu z Komisją Rozwoju i Bezpieczeństwa Sztucznej Inteligencji członkowi zarządu odpowiedzialnemu za naruszenie grozić będzie do 1 mln zł kary.

Jakie kary skutecznie ograniczą naruszenia przepisów o AI?

– Układ związany ze złagodzeniem kary to rozwiązanie podobne do stosowanych np. w przepisach o nadzorze nad rynkiem finansowym. Jak rozumiem, osobista odpowiedzialność członków zarządu ma zagwarantować, że układ będzie realnie wykonywany – komentuje Tomasz Zalewski, radca prawny i partner w kancelarii Bird & Bird.

Piotr Liwszic, prawnik i autor serwisu Judykatura.pl, chwali to rozwiązanie. – Moim zdaniem jest skuteczniejsze od wyłącznego nakładania administracyjnych kar pieniężnych na np. podmioty prawa handlowego, gdyż podmioty te mogą kierować się przy podejmowaniu decyzji o zawarciu takiego układu istnieniem „rezerwy” na ewentualne kary pieniężne – argumentuje.

Doktor Damian Flisak, radca prawny, zaznacza, że układ nie wchodzi w grę w przypadku najpoważniejszych naruszeń, np. śmierci lub wyrządzenia poważnej szkody przez AI. – Każda regulacja, która umożliwia autorefleksję danego podmiotu i naprawienie naruszenia, jest dobra. Sam jestem jednak ciekaw, czy wysoka kara wisząca nad głowami członków zarządu w przypadku niedotrzymania układu nie będzie miała efektu mrożącego – zastanawia się. Jak przypuszcza, sankcja w górnych widełkach (1 mln zł) pozostanie zarezerwowana dla szczególnie jaskrawych naruszeń. – Zasadniczą wymową tych przepisów jest jednak wyjście naprzeciw przedsiębiorcom – uważa Damian Flisak.

Który sąd sprawdzi się w sprawach dotyczących sztucznej inteligencji?

Projekt przewiduje, że odwołania od decyzji o nałożeniu administracyjnej kary pieniężnej i innych decyzji komisji oraz zażalenia na postanowienia przewodniczącego będzie można składać do Sądu Ochrony Konkurencji i Konsumentów. W uzasadnieniu nie wyjaśniono powodów jego wskazania. – Uważam, że przy obecnym obciążeniu sądów powszechnych i tym, jak szeroki będzie zakres postępowania skargowego od decyzji nakładającej administracyjną karę pieniężną, oddalenie odwołania może sądowi zająć kilka lat. W przypadku przedmiotu tej regulacji, tj. wykorzystywania systemów sztucznej inteligencji, nie przyniesie to oczekiwanych rezultatów. Zasady czy funkcje takich systemów zmienia się w tygodniach – komentuje Piotr Liwszic.

Do wyboru były jeszcze sądy administracyjne, które rozpatrują np. sprawy dotyczące RODO. – Sądy administracyjne rzeczywiście działają dość szybko, chociaż zdaje się, że ostatnio i one – zwłaszcza Naczelny Sąd Administracyjny – są mocno obciążone – mówi Tomasz Zalewski. – Za wyborem SOKiK przemawia to, że jest to sąd wyspecjalizowany w rozpoznawaniu spraw na styku prawa cywilnego i prawa administracyjnego, który rozumie też specyfikę naruszeń regulacji związanych z prowadzeniem działalności gospodarczej. Wydaje mi się to dobrym rozwiązaniem – ocenia. Jak wylicza, SOKiK rozpoznaje nie tylko odwołania od decyzji prezesa UOKiK, ale także od decyzji prezesa UKE (komunikacja elektroniczna i poczta), prezesa UTK (transport kolejowy) czy prezesa URE (energetyka). – To oznacza, że sprawy dotyczące AI nie będą rozpatrywane pod kątem głównie administracyjnym, czyli przez pryzmat zasady legalizmu, tylko z punktu widzenia sędziów mających doświadczenie w rozpoznawaniu spraw cywilnych – stwierdza Tomasz Zalewski.

Damian Flisak podkreśla, że w materii AI żaden sąd nie jest wyspecjalizowany. – Nie widzę tu żadnej rozsądnej alternatywy. SOKiK ma przynajmniej doświadczenie w dziedzinie ochrony przed nadużyciami uderzającymi w konsumentów, a z takimi sytuacjami możemy tu mieć do czynienia. Przy czym na pewno wymagane byłoby wzmocnienie tego sądu – mówi, dodając, że dobrze byłoby też zwiększyć pulę pieniędzy przeznaczoną na organ nadzorczy. – Biorąc pod uwagę, jak wysokiej klasy specjalistów ten organ potrzebuje, ta kwota powinna być wyższa – stwierdza Damian Flisak.

Projekt poprawiony po tysiącach uwag

Resort cyfryzacji podkreśla, że w nowej wersji projektu przeanalizowano ponad 2 tys. uwag zgłoszonych podczas konsultacji społecznych. – Ta liczba uwag pokazuje, że pierwszy projekt nie był najlepszy, ale też świadczy o tym, że jest refleksja u projektodawcy. To rzetelnie wykonana praca – ocenia Damian Flisak. – Uważam, że zmiany poszły w dobrym kierunku. Między innymi zmniejszono uciążliwość kontroli, wprowadzono rozwiązania dotyczące piaskownic regulacyjnych, usunięto trochę zawstydzające usterki stylistyczne czy przeoczenia – wylicza.

Tomasz Zalewski zastanawia się natomiast nad realnym znaczeniem projektowanej ustawy. – Podstawową rolą tej ustawy jest doprecyzowanie systemu nadzoru nad systemami AI. Jak wynika z rozporządzenia w sprawie sztucznej inteligencji, państwa członkowskie muszą przyjąć odpowiednie przepisy, żeby od 2 sierpnia mogły być stosowane przepisy AI Aktu dotyczące nadzoru i sankcji – podkreśla. – Natomiast oprócz tego dodano różne postanowienia pomocnicze, zwłaszcza dotyczące piaskownic regulacyjnych, oraz postanowienia o charakterze bardziej deklaratywnym dotyczące tego, w jaki sposób rząd może wspierać rozwój AI. Te ostatnie moim zdaniem nie mają specjalnego znaczenia, bo liczą się nie deklaracje, tylko realne działania – uważa Tomasz Zalewski.

Systemy AI w piaskownicy

Zdawkowe potraktowanie piaskownic regulacyjnych było jednym z podstawowych braków pierwszego projektu. – W kraju, który bardzo chciałby rozwijać biznes i naukę związaną z systemami sztucznej inteligencji, warto stworzyć wszelkie możliwe narzędzia, które faktycznie w tym pomogą. I piaskownice mogą się tu świetnie sprawdzić, bo w przypadku jakichkolwiek wątpliwości co do zgodności z przepisami AI Aktu dostawca może w ramach piaskownicy regulacyjnej przetestować swoje rozwiązania bez obaw o odpowiedzialność – argumentuje Tomasz Zalewski.

Na dostęp do piaskownicy będą konkursy. Zostaną określone limity łącznej liczby użytkowników oraz innych podmiotów, na które mogą oddziaływać projekty w piaskownicy. – Mam wrażenie, że nasz rząd patrzy na te piaskownice głównie jak na źródło kosztów. To niedobrze, bo doświadczenia piaskownic regulacyjnych w Unii Europejskiej wskazują na to, że podmioty, które przez nie przeszły, są zdecydowanie bardziej ośmielone. Przestają się obawiać urzędu, że przyjdzie i nałoży na nich karę, a zaczynają go traktować jako partnera – podsumowuje Tomasz Zalewski. ©℗

ikona lupy />
100 nadzorców AI / Dziennik Gazeta Prawna - wydanie cyfrowe