- Co planuje Komisja Europejska?
- Przeregulowane utrudnia wprowadzanie AI na rynek
- Jak uprościć AI Act?
- AI Act jest w trakcie wdrażania
- Ujednolicenie pojęć związanych z AI
Przedstawioną w minionym tygodniu strategię Komisja Europejska nazwała planem działania na rzecz „kontynentu sztucznej inteligencji”. Jednym z jego filarów jest uproszczenie wdrażania unijnego rozporządzenia – Akt w sprawie sztucznej inteligencji (AI Act).
Co planuje Komisja Europejska?
- W tym celu KE planuje uruchomienie punktu kontaktowego dla przedsiębiorców szukających wskazówek i informacji odnośnie stosowania rozporządzenia – wyjaśnia Mateusz Wrotny, prawnik Fundacji Panoptykon. - Plan zakłada również przeprowadzenie konsultacji publicznych, które mogą doprowadzić do uproszczenia przepisów o sztucznej inteligencji – dodaje.
Konsultacje dotyczą m.in. wyzwań związanych z aktem oraz tego, w jaki sposób KE i państwa członkowskie mogą lepiej wspierać zainteresowane strony we wdrażaniu przepisów. Nie padły żadne oficjalne deklaracje, ale według PAP w Brukseli mówi się o gotowości wycofania się KE z niektórych rozwiązań.
Przeregulowane utrudnia wprowadzanie AI na rynek
Michał Kanownik, prezes Związku Cyfrowa Polska, uważa, że uproszczenie AI Aktu to bardzo dobry pomysł. - Cieszę się, że KE dostrzegła taką potrzebę. Wynika ona nie tylko z opinii przedstawicieli biznesu, ale też np. z raportu Draghiego. Przeregulowanie unijnego rynku jest problemem szczególnie w nowych technologiach – mówi. – Już dziś otrzymujemy sygnały od firm o trudnościach z wprowadzaniem do Europy nowych usług opartych na AI, ze względu na wątpliwości, czy te usługi będą zgodne z AI Actem – wskazuje Michał Kanownik.
Jak uprościć AI Act?
Czy można zmniejszyć wymogi przedsiębiorców, nie zmieniając samego rozporządzenia?
- Rozporządzenie zawiera dość szczegółowo opisane wymogi wobec dostawców systemów sztucznej inteligencji, ale nie są one doprecyzowane – mówi Tomasz Zalewski, radca prawny i partner w kancelarii Bird & Bird. Np. wymogiem dotyczącym danych treningowych dla systemów AI wysokiego ryzyka jest kompletność. Ale co to konkretnie znaczy, wyjaśnią dopiero wytyczne KE.
- Te wytyczne z pewnością będą miały znaczenie dla przedsiębiorców, tylko czy będą stanowiły uproszczenie? Powiedziałbym raczej, że doprecyzowanie, wyjaśnienie, jak należy te przepisy rozumieć – stwierdza Tomasz Zalewski. Taką rolę pełnią wytyczne, które już opublikowano: w sprawie zakazanych praktyk oraz definicji systemu AI.
- Nie za bardzo widzę miejsce dla uproszczeń bez zmiany rozporządzenia. A na ocenę, czy wymaga ono zmiany, jest jeszcze za wcześnie. To pokaże dopiero praktyka – uważa Tomasz Zalewski.
AI Act jest w trakcie wdrażania
AI Act (rozporządzenie 2024/1689) wszedł w życie 1 sierpnia ub.r. Część jego przepisów – w tym art. 5 dotyczący zakazanych praktyk - jest stosowana od 2 lutego br., ale większość zacznie obowiązywać dopiero w sierpniu 2026 r.
Według Michała Kanownika, teraz jest najlepszy moment na uproszczenie regulacji. - Państwa członkowskie są w trakcie wdrażania AI Actu - uzasadnia. - Komisja powinna więc iść za ciosem i wskazać przynajmniej, w jakich kierunkach planuje uproszczenia – bo zakładam, że ma już jakąś wizję. To by pomogło przy implementacji, która w przeciwnym razie mogłaby w niektórych państwach pójść za daleko i wprowadzić nadmierne obciążenia dla przedsiębiorców. Więc mam nadzieję, że KE wkrótce wskaże kierunki i zakres uproszczenia – mówi Michał Kanownik.
Ujednolicenie pojęć związanych z AI
Zdaniem Michała Kanownika potrzebne jest przede wszystkim ujednolicenie pojęć związanych ze sztuczną inteligencją. - Obecnie pomiędzy aktami prawnymi są takie różnice, że z AI Actu może wynikać, iż coś jest białe, a z innej regulacji – szare – mówi.
Drugim elementem uproszczenia powinno być zwiększenie przejrzystości przepisów. - Obie zmiany są szczególnie istotne z punktu widzenia mniejszych firm - podkreśla Michał Kanownik. - Trwają prace nad kodeksem postępowania dla dostawców sztucznej inteligencji ogólnego przeznaczenia (GPAI). Już przy tej okazji można by rozwiać część wątpliwości i doprecyzować, co wolno, a czego nie. Na przykład tego, że ogólnie dostępnych danych, które są danymi osobowymi, można używać do szkolenia AI – wskazuje prezes ZCP.
Dodaje, że konieczne jest też elastyczne podejście do nowych technologii. - Dobrze byłoby je zastosować m.in. przy określaniu systemów AI wysokiego ryzyka, zamiast sztywnych zasad. Przecież nie wiemy, czy jakieś nowe zastosowanie AI, które dziś uważamy za system wysokiego ryzyka, za trzy miesiące nie będzie powszechnie stosowane na świecie – stwierdza Michał Kanownik.
Biznes jest za uproszczeniem AI Aktu
Także europejskie organizacje branżowe popierają uproszczenie przepisów o sztucznej inteligencji. - Cieszymy się z gotowości KE do uczynienia AI Actu jasnym i łatwym do zastosowania, ale to musi nadejść szybko. Uproszczenie nie jest opcjonalne, jest spóźnione – komentuje Victoria de Posson, sekretarz generalna Europejskiego Sojuszu Technologicznego (EUTA).
Jak podkreśla, każde euro wydane na dostosowywanie się do kolejnej regulacji to euro niezainwestowane w innowacje. - Jednolity rynek europejski potrzebuje jednej regulacji i jednej interpretacji, aby europejskie innowacje mogły się rozwijać bez granic. Plan na rzecz AI musi umożliwić europejskiej branży technologicznej konkurowanie w skali globalnej, a nie tylko przestrzeganie lokalnych przepisów – dodaje Victoria de Posson.
Może dojść do naruszeń
- Nie wiadomo jeszcze, które przepisy mogłyby zostać zmienione, jednak już teraz mamy do czynienia z licznymi lukami w rozporządzeniu - na przykład w zakresie wyjątków dotyczących zakazanych systemów – wskazuje Mateusz Wrotny. - Dalsze rozluźnienie przepisów w obszarach, które chronią konsumentów np. przed szkodliwym działaniem systemów sztucznej inteligencji, może otworzyć drogę do poważnych naruszeń praw człowieka – ostrzega.
Obowiązki dotyczą głównie systemów AI wysokiego ryzyka
Tomasz Zalewski zaznacza, że AI Act nakłada obowiązki przede wszystkim na dostawców systemów wysokiego ryzyka. - Panuje taki mit, że akt reguluje korzystanie czy wytwarzanie wszelkiego rodzaju systemów AI. Natomiast w rzeczywistości w odniesieniu do systemów ograniczonego ryzyka są tylko wymagania informacyjne - mówi.
W przypadku systemów ogólnego przeznaczenia przepisy ustanawiają bardziej rozbudowane wymogi, które jednak nie przekraczają możliwości dostawców. - Ponadto trwają prace nad kodeksem postępowania dla tych systemów i KE będzie mogła uznać zgodność z kodeksem za zapewnienie zgodności z rozporządzeniem – podkreśla Tomasz Zalewski.
Pozostałe systemy – minimalnego ryzyka - nie są regulowane.
- Moim zdaniem regulacje dotyczące systemów wysokiego ryzyka powinny pozostać. Te systemy stwarzają ryzyka dla zdrowia, bezpieczeństwa, dla praw podstawowych - i dobrze, aby były poddane regulacjom. - podkreśla Tomasz Zalewski. - Mam wrażenie że Europa została ogarnięta gorączką deregulacji. W tym wyścigu, żeby dostawcy unijni dotrzymywali kroku światowym konkurentom, nie należy posuwać się za daleko. Nie chciałbym, żeby odbywało się to kosztem naszych praw podstawowych, naszych praw obywatelskich i żeby w powszechnym użyciu były systemy AI, na przykład oceniające nas w pracy, które nie byłyby regulowane wystarczająco, aby nas chronić – argumentuje.