W roli organów właściwych ds. AI najlepiej sprawdziłyby się nowe podmioty – ale to kosztowne rozwiązanie. Najważniejsze i tak będą kwalifikacje pracujących w nich ludzi.
Ministerstwo Cyfryzacji prowadzi prekonsultacje dotyczące wdrożenia unijnego rozporządzenia – Akt o sztucznej inteligencji (dalej: AI Act). Opiera się on na ocenie ryzyka: najbardziej niebezpieczne systemy będą zakazane (np. klasyfikacja punktowa obywateli, tzw. social scoring), a systemy wysokiego ryzyka będą musiały spełnić wymagania ograniczające zagrożenia dla praw obywatelskich.
AI Act został już przyjęty przez europarlament i czeka tylko na akceptację Rady UE. Będzie stosowany w państwach członkowskich bezpośrednio, choć pozostawia im pewną swobodę – przede wszystkim w wyborze organów, które będą nadzorować sztuczną inteligencję.
Nowe czy stare
Podstawowym urzędem ds. sztucznej inteligencji będzie organ nadzoru rynku. Ma też powstać organ notyfikujący (patrz: ramka). Resort cyfryzacji zbiera opinie, czy te zadania należy powierzyć nowym instytucjom, czy też powinny je wykonywać już istniejące podmioty – a jeśli tak, to które. Do rozstrzygnięcia pozostaje ponadto, czy będą to dwa niezależne urzędy, czy też jeden.
– Powołanie odrębnego urzędu do spraw sztucznej inteligencji nadałoby temu obszarowi większą wagę i przyspieszenie – uważa Tomasz Zalewski, radca prawny i partner w kancelarii Bird & Bird. Wskazuje na przykład Hiszpanii, która utworzyła taki organ, nie czekając na AI Act. – Hiszpania zdecydowała się uczynić ze sztucznej inteligencji koło napędowe swojej gospodarki. Nowy urząd, występujący z szeregiem inicjatyw w zakresie AI, sprzyja tym planom – mówi.
Także radca prawny dr Damian Flisak uważa, że najlepszym rozwiązaniem byłoby stworzenie nowych podmiotów. – Zadań wynikających z AI Act będzie sporo, i to przez wiele lat, a do ich wypełniania potrzebne są unikalne kompetencje – uzasadnia.
Nie sądzi jednak, aby tak się stało. – Możemy się raczej spodziewać dodania tych kompetencji już istniejącym instytucjom – z wielu powodów: finansowych, kadrowych, organizacyjnych, formalnych – wylicza. Jego zdaniem w grę mogą tu wchodzić: UOKiK, UKE, UODO i może KRRiT.
Tomasz Zalewski w takim scenariuszu wskazuje na Urząd Ochrony Danych Osobowych.
– Wydaje się dobrym wyborem ze względu na zbieżność merytoryczną AI Act i RODO. W wielu miejscach kompetencje UODO i nowego organu będą się przecinały. Za UODO przemawia też niedawne nowe otwarcie, po którym wzrosła aktywność tego urzędu – uzasadnia Tomasz Zalewski (od 26 stycznia br. prezesem UODO jest Mirosław Wróblewski – red.).
Kluczowe kompetencje
– Niezależnie od tego, które zostaną wskazane, najważniejsze będą odpowiednio wykwalifikowane kadry. Ludzi znających się na sztucznej inteligencji brakuje, a sektor prywatny na pewno kusi ich bardziej niż publiczny – mówi Damian Flisak.
Podkreśla, że w art. 70 AI Act określono wymagania wobec pracowników organów krajowych. – Jest to wiedza z zakresu technologii AI, danych i metod przetwarzania danych, ochrony danych osobowych, cyberbezpieczeństwa, praw podstawowych, zagrożeń dla zdrowia i bezpieczeństwa oraz znajomość norm i wymogów prawnych – stwierdza.
Jego zdaniem kwestię, czy funkcje organów ds. AI mają być realizowane przez jedną czy dwie instytucje, rozstrzyga samo rozporządzenie.
– AI Act stwierdza, że państwo członkowskie ustanawia lub wyznacza „co najmniej jeden organ notyfikujący i co najmniej jeden organ nadzoru rynku”. Skoro użyto spójnika „i”, to chodzi o dwa organy – argumentuje dr Flisak.
Zaznacza, że to dobre rozwiązanie. – Inaczej mogłoby dojść do konfliktu interesów. Organ notyfikujący będzie bowiem certyfikował podmioty, które potem z kolei będą badały systemy AI przed wprowadzeniem do obrotu i wydawały im certyfikaty. Jest to więc działanie ex ante. Natomiast organ nadzoru rynku będzie działał, kontrolował ex post – oceniając systemy AI już wprowadzone do obrotu. Z oczywistych powodów pracownicy tych organów nie powinni się więc codziennie spotykać na korytarzu – wyjaśnia.
Michał Kanownik, prezes Związku Cyfrowa Polska, podkreśla, że dla branży ważniejsza od wyboru nowego albo starego urzędu jest wartość merytoryczna przyjętych w kraju rozwiązań.
– Głównym zadaniem jest tu pogodzenie wartości etycznych i bezpieczeństwa z rozwojem gospodarczym. Chodzi o to, żeby nie wylać dziecka z kąpielą, nie przeregulować. Aby konsumenci nie czuli się zagrożeni, a jednocześnie polskie firmy mogły wykorzystać potencjał tej technologii – mówi.
Resort cyfryzacji pyta też, do kogo adresować działania komunikacyjne i edukacyjne związane z AI Act.
– Trzeba spojrzeć, kogo przede wszystkim dotknie nowa regulacja. W Polsce nie będzie raczej wielu podmiotów tworzących największe modele sztucznej inteligencji, natomiast sporo firm już stosuje w swojej działalności rozwiązania oparte na AI, a będzie ich jeszcze więcej. Tych przedsiębiorców trzeba uświadomić, jaka jest różnica między tradycyjnym oprogramowaniem a autonomicznymi algorytmami oraz co oznacza dla nich AI Act – że pewnych systemów nie będzie im wolno stosować, a inne, uznane za systemy wysokiego ryzyka, będą obwarowane określonymi warunkami – mówi dr Flisak.
Prekonsultacje potrwają do 23 kwietnia. Potem ministerstwo przygotuje projekt odpowiedniego aktu prawnego.©℗