Parlament Europejski w Strasburgu zatwierdził akt w sprawie sztucznej inteligencji. Nowe przepisy mają zapewnić równowagę w UE między rozwojem sektora sztucznej inteligencji (AI) a ochroną praw obywateli, demokracji i praworządności. Ministerstwo Cyfryzacji wskazało, że na poziomie krajowym konieczne będzie wprowadzenie także przepisów dotyczących tzw. piaskownic regulacyjnych w zakresie systemów sztucznej inteligencji.

523 europosłów głosowało za, 46 było przeciw, a 49 posłów wstrzymało się od głosu.

Zakaz stosowania sztucznej inteligencji

Nowe przepisy zakazują pewnych zastosowań sztucznej inteligencji, które zagrażają prawom obywateli. Są to między innymi systemy kategoryzacji biometrycznej, które wykorzystują cechy wrażliwe, i nieukierunkowane pobieranie wizerunków twarzy z Internetu lub nagrań z telewizji przemysłowej, by stworzyć bazy danych służące rozpoznawaniu twarzy.

Zakazane będą też rozpoznawanie za pomocą AI emocji w miejscu pracy i instytucjach edukacyjnych, prognozowanie przestępczości (wyłącznie na podstawie profilowania osoby lub oceny jej cech). Nie będzie też dozwolona sztuczna inteligencja, która manipuluje zachowaniem ludzi lub wykorzystuje ich słabości.

Organom ścigania z reguły nie wolno korzystać z systemów identyfikacji biometrycznej. Są jednak pewne wyjątki, które wąsko zdefiniowano na zamkniętej liście. Organy te mogą wykorzystywać systemy identyfikacji biometrycznej w czasie rzeczywistym tylko wtedy, gdy spełniły ściśle określone warunki. Na przykład mogą je stosować w określonym czasie i w określonym położeniu geograficznym.

Muszą też posiadać specjalne zezwolenie sądowe lub administracyjne. Mogą je wykorzystywać, by odnaleźć zaginioną osobę lub zapobiegać atakowi terrorystycznemu. Istnieją też tzw. systemy zdalnej identyfikacji biometrycznej post factum. Ich stosowanie wiąże się z wysokim ryzykiem i wymaga zezwolenia sądowego, ponieważ systemy takie wykorzystuje się do wyszukiwania w związku z przestępstwem.

Systemy sztucznej inteligencji wysokiego ryzyka

Szczególne obowiązki określono również dla innych systemów sztucznej inteligencji wysokiego ryzyka, ponieważ stanowią one potencjalne zagrożenie dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji czy praworządności. Obszary, w których wykorzystuje się takie systemy, to na przykład: infrastruktura krytyczna, edukacja i szkolenie zawodowe, zatrudnienie, podstawowe usługi prywatne i publiczne (np. opieka zdrowotna, bankowość). Opierają się też na nich niektóre systemy organów ścigania.

Takie systemy muszą oceniać i ograniczać ryzyko oraz prowadzić rejestry zdarzeń. Muszą też być przejrzyste i dokładne oraz podlegać kontroli człowieka. Dzięki rozporządzeniu obywatele będą mieć prawo składania skarg dotyczących systemów. Będą także otrzymywać wyjaśnienia decyzji podejmowanych przez systemy sztucznej inteligencji wysokiego ryzyka, które mają wpływ na ich prawa.

Najbardziej zaawansowane modele AI ogólnego przeznaczenia, które mogą stwarzać ryzyko systemowe, będą musiały spełniać dodatkowe wymagania. Operatorzy sztucznej inteligencji będą musieli między innymi przeprowadzać oceny modeli, oceniać i ograniczać ryzyko systemowe i zgłaszać incydenty.

Ponadto należy wyraźnie oznaczać nieautentyczne lub zmanipulowane obrazy, treści audio lub wideo, tzw. deepfakes.

Rozporządzenie musi też formalnie przyjąć Rada. Wejdzie w życie dwadzieścia dni po publikacji w Dzienniku Urzędowym, a w pełni obowiązywać zacznie 24 miesiące później.

Wiceminister cyfryzacji o kompleksowym prawie w obszarze sztucznej inteligencji

Jak ocenił, wiceminister cyfryzacji Dariusz Standerski "to krok milowy, jeśli chodzi o AI". "Stawka była wysoka – nikomu wcześniej nie udało się wypracować tak kompleksowego prawa w obszarze sztucznej inteligencji" - stwierdził. Dodał, że "dziś to się udało i mamy przed sobą nową rzeczywistość prawną, którą musimy wspólnie zagospodarować".

Nowe przepisy przewidują wprowadzenie kategorii zakazanych praktyk w zakresie sztucznej inteligencji. Do tych zaliczono m.in.: stosowanie rozwiązań opartych na technikach podprogowych czy takich, które dyskryminują określone grupy osób. Niedozwolone będzie także stosowanie systemów AI do tzw. oceny obywatelskich (social scoring). To znaczy, że nie będzie można wykorzystywać jej do śledzenia stylu życia obywateli.

Standerski wskazał, że Polska, negocjując przepisy, podkreślała, że każdy system AI w jej cyklu życia powinien spełniać trzy warunki: być zgodny z prawem, uwzględniać zasady i reguły etyki dla godnej zaufania sztucznej inteligencji oraz być bezpieczny i odporny technicznie.

Europejska Rada ds. Sztucznej Inteligencji

Wskazano, że nowe rozporządzenie zakłada wyznaczenie Europejskiej Rady ds. Sztucznej Inteligencji oraz wyłonienie organów krajowych w poszczególnych państwach członkowskich. Ich zadaniem będzie zapewnienie skutecznego egzekwowania nowych przepisów na poziomie krajowym.

"Traktujemy to wyzwanie bardzo poważnie. Wspólnie z ekspertami i ekspertkami chcemy wypracować mądry, przyjazny i bezpieczny ekosystem sztucznej inteligencji. To jeden z obszarów, na którym skoncentrujemy się w trakcie przyszłorocznej Prezydencji w Radzie Unii Europejskiej” - dodał Standerski.

Rozwijanie i testowanie innowacji

Wdrożenie Artificial Intelligence Act wymaga powołania lub wybrania spośród istniejących już instytucji tych, które będą nadzorować i regulować rynek AI. Wiceminister Dariusz Standerski zaznaczył, że na poziomie krajowym konieczne będzie wprowadzenie także przepisów dotyczących tzw. piaskownic regulacyjnych w zakresie systemów sztucznej inteligencji tak, aby ułatwić rozwijanie i testowanie innowacji, zanim zostaną one wprowadzone do obrotu lub oddane do użytku.

"Rozporządzenie w sprawie AI (Artificial Intelligence Act) zostało przyjęte 13 marca br. Nowe regulacje pozwalają na zbudowanie środowiska prawnego, które z jednej strony zapewnią możliwość rozwoju sztucznej inteligencji, a z drugiej gwarantują poszanowanie praw człowieka i minimalizują zjawisko dyskryminacji" - czytamy w komunikacie Ministerstwa Cyfryzacji.

Standerski zwrócił również uwagę na ogromną rolę edukacji w tym zakresie. "Będziemy przygotowywać i promować inicjatywy, które pomogą obywatelom zrozumieć i dostosować się do przepisów, które wejdą w życie" - zadeklarował.