Proces legislacyjny dotyczący unijnego rozporządzenia o sztucznej inteligencji (AI Act) rozpoczął się w kwietniu 2021 r., a jego kulminacją był trialog, czyli negocjacje pomiędzy przedstawicielami Komisji Europejskiej, Rady Unii Europejskiej i Parlamentu Europejskiego.

W trakcie długich i przeciągających się do godzin nocnych negocjacji trwających od 6 do 8 grudnia 2023 r. uzgodniono rozwiązania dla najważniejszych i najbardziej kontrowersyjnych kwestii, które pojawiły się w toku prac nad projektem rozporządzenia.

W tym artykule przedstawiamy przegląd najistotniejszych elementów tego porozumienia, choć nie dysponujemy jeszcze skonsolidowanym tekstem projektu rozporządzenia, co znacząco utrudnia pełną analizę. Opieramy się zatem na dostępnych szczątkowych informacjach, z których niektóre pochodzą bezpośrednio od uczestników trilogu, inne zaś oparte są na publicznie dostępnych materiałach.

Należy pamiętać, że prace nad przygotowaniem ostatecznego ujednoliconego tekstu mogą doprowadzić do zmian niektórych przepisów AI Act.

Jak odróżnić zwykłe oprogramowanie od AI?

Definicja systemu sztucznej inteligencji jest kluczowa z punktu widzenia stosowania AI Act. Ostatecznie została uzgodniona definicja AI w brzmieniu opracowanym przez OECD:

„System sztucznej inteligencji to system oparty na maszynie (machine-based), który dla celów jawnych lub niejawnych wnioskuje na podstawie otrzymanych danych wejściowych, w jaki sposób generować dane wyjściowe, takie jak prognozy, treści, zalecenia lub decyzje, które [mogą] wpływać na środowisko fizyczne lub wirtualne. Różne systemy sztucznej inteligencji różnią się poziomem autonomii i zdolności adaptacyjnych po wdrożeniu”.

Pierwotna propozycja definicji przedstawiona przez KE obejmowała programy komputerowe stworzone z wykorzystaniem konkretnych technik informatycznych, co powodowało, że Komisja miałaby prawo do zmiany listy takich technik, a tym samym możliwość kształtowania zakresu tej definicji. Obecna definicja ma być odporna na zmiany technologiczne.

Definicja ta jest niestety bardzo ogólna, do tego stopnia, że potencjalnie może ona objąć nie tylko systemy sztucznej inteligencji tworzone z wykorzystaniem technik uczenia maszynowego, lecz także klasyczne oprogramowanie.

Kluczowe znaczenie może mieć interpretacja terminu „wnioskuje”. Jeśli przyjmiemy, że wnioskowanie dotyczy konkretnych danych wejściowych i następuje w ramach procesu generowania wyników stworzonego na podstawie wcześniej zebranych danych, to za systemy AI zostaną zapewne uznane systemy, które zostały opracowane przy zastosowaniu jednej z technik programowania, takich jak uczenie maszynowe. Jeśli jednak przyjąć definicję szerszą, że wnioskowanie to wynik działania dowolnego algorytmu odzwierciedlającego wcześniejsze dane, to także klasyczne oprogramowanie będzie mogło być uznane za system AI.

Podstawowe zasady

Zgodnie z naszą wiedzą negocjacje nie doprowadziły do zmian w zakresie zasad, które będą miały zastosowanie do wszystkich systemów AI. Wszystkie systemy będą musiały być zatem zgodne z następującymi sześcioma podstawowymi zasadami:

ludzka sprawczość i nadzór (obejmuje m.in. kontrolę ludzi nad systemami AI),

solidność techniczna i bezpieczeństwo (m.in. odporność na niewłaściwe zastosowanie),

prywatność i zarządzanie danymi (zgodność z RODO, korzystanie z danych o wysokiej jakości),

przejrzystość (w ramach tej zasady systemy AI powinny być identyfikowalne dla użytkowników i wytłumaczalne),

różnorodność, niedyskryminacja i sprawiedliwość (zasada obejmuje m.in. unikanie wszelkich uprzedzeń i dyskryminacji),

dobrobyt społeczny i środowiskowy (systemy AI powinny mieć korzystny wpływ na środowisko i ludzi).

Systemy wysokiego ryzyka

Trialog doprowadził do porozumienia w sprawie klasyfikacji określonych obszarów działalności społecznej i gospodarczej jako obszarów, w których stosowanie systemów AI będzie automatycznie powodowało ich klasyfikację jako systemów wysokiego ryzyka. Ostatecznie lista tych obszarów obejmuje edukację, zatrudnienie, infrastrukturę krytyczną, usługi publiczne, egzekwowanie prawa, kontrolę graniczną i wymiar sprawiedliwości.

Zachowano w dużej mierze obowiązki dotyczące systemów wysokiego ryzyka określone w poprzednich projektach rozporządzenia, np. obowiązek przeprowadzania oceny zgodności, integracji systemów zarządzania jakością i ryzykiem, rejestracji systemów wysokiego ryzyka czy monitorowania takich systemów przez organy nadzoru po ich wprowadzeniu do obrotu.

Znaczącą zmianą jest dodanie systemu tzw. filtrów wyłączających. System AI formalnie klasyfikowany jako system wysokiego ryzyka nie musi spełniać wymogów dla takich systemów, jeśli ma zastosowanie jedno z następujących wyłączeń:

system AI ma wykonać tylko „wąskie zadanie proceduralne” (np. przekształcanie danych nieustrukturyzowanych w ustrukturyzowane),

system AI ma na celu sprawdzenie lub poprawienie wyniku wcześniej zakończonej działalności człowieka (tj. jedynie zapewnienie dodatkowej weryfikacji działalności człowieka),

system AI jest przeznaczony wyłącznie do wykrywania wzorców decyzyjnych lub odchyleń od wcześniejszych wzorców decyzyjnych (np. w celu oznaczenia potencjalnych niespójności lub anomalii),

system AI jest używany do wykonywania jedynie zadań przygotowawczych do oceny krytycznych przypadków użycia (np. obsługa plików).

Potwierdzony został obowiązek wprowadzony w stanowisku PE (art. 29a), zgodnie z którym podmioty wdrażające systemy wysokiego ryzyka będą musiały przeprowadzić ocenę skutków w zakresie praw podstawowych. Istotną nowością jest przepis umożliwiający obywatelom składanie skarg dotyczących systemów AI i uzyskiwanie wyjaśnień dotyczących decyzji podejmowanych przez systemy AI wysokiego ryzyka, które mają wpływ na ich prawa. Nie jest jednak nadal jasne, jaka będzie szczegółowość wymaganego uzasadnienia.

Co będzie zakazane?

Osiągnięto porozumienie w sprawie zakazanych systemów sztucznej inteligencji, które jest kompromisem pomiędzy pierwszym projektem KE a stanowiskiem negocjacyjnym PE. Uzgodnione zakazy obejmują systemy AI wykorzystujące następujące techniki lub praktyki:

techniki podprogowe,

wykorzystywanie słabości lub podatności określonej grupy osób,

kategoryzacja osób fizycznych na podstawie cech biometrycznych,

ocena wiarygodności osób fizycznych (social scoring) – zarówno w ramach zastosowań publicznych, jak i prywatnych,

predykcyjne działania policji,

tworzenie baz danych oparte na masowym przetwarzaniu wizerunków osób fizycznych.

Uzgodniono także poprawki do następujących zakazów:

rozpoznawanie emocji – obecnie jest ograniczony do zakazu w miejscu pracy i środowisku edukacyjnym, z nowym wyłączeniem dotyczącym względów medycznych i bezpieczeństwa (np. monitorowanie poziomu zmęczenia pilota);

zdalna identyfikacja biometryczna w czasie rzeczywistym (art. 5.1.d) – pozostaje zabroniona z wyjątkiem trzech przypadków związanych z egzekwowaniem prawa: (I) działania organów ścigania związanego z 16 określonymi przestępstwami (np. handel ludźmi, morderstwo), (II) lokalizowanie zaginionych ofiar niektórych przestępstw i (III) zapobieganie atakom terrorystycznym;

zdalna identyfikacja biometryczna ex post (art. 5.1.dd) – zabroniona, z wyjątkiem kilku przypadków związanych z egzekwowaniem prawa, gdy jest to bezwzględnie konieczne na podstawie ustawodawstwa krajowego i uzyskana została uprzednia zgoda niezależnego organu.

Zrezygnowano przy tym z wprowadzenia zakazu eksportu, który uniemożliwiłby firmom z siedzibą w UE sprzedaż zakazanych systemów AI poza granicami UE.

Regulacja systemów ogólnego przeznaczenia

Zgodnie z dostępnymi informacjami wydaje się, że ostatecznie zrezygnowano z wyodrębniania kategorii systemów podstawowych (foundation models), a w zamian za to AI Act będzie zawierał regulację modeli AI ogólnego przeznaczenia (general-purpose AI models – GPAI).

Obecnie przyjęta definicja GPAI jest na tyle szeroka, że obejmuje zarówno systemy, które do tej pory określano jako modele podstawowe, jak i systemy stanowiące duże modele generatywnej sztucznej inteligencji. Zgodnie z nią „model sztucznej inteligencji ogólnego przeznaczenia oznacza model sztucznej inteligencji, w tym model poddany szkoleniu z wykorzystaniem dużej ilości danych przy użyciu samonadzoru (self-supervision) na dużą skalę, który wykazuje znaczną ogólność i jest w stanie kompetentnie wykonywać szeroki zakres odrębnych zadań niezależnie od sposobu, w jaki model jest wprowadzany na rynek i który można zintegrować z różnymi systemami lub aplikacjami niższego szczebla”.

Zostały ustalone minimalne wymogi dla wszystkich modeli GPAI, np. zakres wymaganej dokumentacji technicznej, informacji dla dystrybutorów i podmiotów wdrażających takie modele, środków przejrzystości (takich jak zapewnienie możliwości wykrycia treści wygenerowanej przez GPAI) i zgodności z przepisami dotyczącymi praw autorskich.

Ważną nowością jest wprowadzenie podwyższonych wymagań dla modeli GPAI określonych jako „modele GPAI stanowiące systemowe ryzyko” (Systemic Risk GPAI). Będą to systemy GPAI wykorzystujące do szkolenia modeli moc obliczeniową przekraczającą 1025 FLOPS (jest to liczba operacji zmiennoprzecinkowych na sekundę stosowana jako miara wydajności superkomputerów). Urząd ds. Sztucznej Inteligencji (który ma powstać w ramach KE) może aktualizować ten próg, a ponadto może wskazać dalsze kryteria (np. liczbę użytkowników lub stopień autonomii modelu).

Obecnie wskazany próg przekraczają tylko największe z dużych modeli językowych, takie jak GPT-4 OpenAI i prawdopodobnie Gemini Google, co faworyzuje – być może intencjonalnie – mniejsze modele europejskie (takie jak Aleph Alpha lub Mistral).

Systemy GPAI klasyfikowane jako model stanowiący systemowe ryzyko będą musiały być zgodne z szeregiem dodatkowych wymagań, które obejmują ocenę i ograniczanie ryzyka związanego z takimi modelami, obowiązek zgłaszania poważnych incydentów, obowiązek przeprowadzania aktualizowanych zgodnie z najnowszą wiedzą testów i ocen modeli, zapewnianie cyberbezpieczeństwa i przekazywanie informacji na temat zużycia energii przez takie modele.

Prawo autorskie

Kolejne wersje AI Act zawierały coraz więcej postanowień dotyczących obowiązków producentów systemów AI związanych z zapewnieniem przestrzegania przepisów prawa autorskiego. Ostatecznie dotyczą one głównie dostawców modeli GPAI. Będą oni mieli obowiązek udostępnienia publicznie „wystarczająco szczegółowego” podsumowania treści wykorzystanych do szkolenia modelu AI, które powinno zawierać katalogi użytych treści oraz opisowe wyjaśnienie dotyczące wykorzystanych danych.

Ponadto dostawcy modeli GPAI powinni stworzyć – co jest nowością – politykę praw autorskich i zapewnić zgodność z unijnym prawem autorskim, w tym honorować zastrzeżenia właścicieli praw dotyczące eksploracji tekstu i danych (zgodnie z art. 4 dyrektywy (UE) 2019/790). Nie wiadomo jednak jeszcze, czy takiej polityce praw autorskich muszą towarzyszyć wymogi organizacyjne (np. wytyczne licencyjne) i techniczne (np. technologie filtrowania) – o czym wspomina się w niektórych źródłach.

Kary za naruszenie przepisów

Struktura kar w AI Act została nieznacznie zmieniona w porównaniu ze stanowiskiem negocjacyjnym PE i ostatecznie zostały uzgodnione następujące kary:

naruszenie przepisów o zakazanych systemach lub niezgodność z wymogami dotyczącymi danych: do 7 proc. rocznego światowego obrotu lub 35 mln euro (poprzednio 40 mln euro);

naruszenie innych obowiązków zawartych w AI Act: do 3 proc. rocznego światowego obrotu lub 15 mln euro;

podanie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym i właściwym organom krajowym: do 1,5 proc. rocznego światowego obrotu lub 7,5 mln euro (poprzednio proponowano 5 mln euro [PE] i 10 mln euro [KE]).

W ramach przepisów o sankcjach dodano pewne udogodnienie dla małych i średnich przedsiębiorstw. Dla każdej z powyższych kategorii naruszeń maksymalna wysokość kary to niższa z dwóch kwot dla małych i średnich przedsiębiorstw, a wyższa dla dużych przedsiębiorstw.

Harmonogram dalszych prac

Kolejny etap procesu legislacyjnego nad rozporządzeniem o sztucznej inteligencji obejmuje techniczne negocjacje trójstronne prowadzące do powstania skonsolidowanego tekstu, co powinno nastąpić do końca stycznia 2024 r. Formalne przyjęcie tekstu rozporządzenia przez PE i Radę UE jest planowane na kwiecień 2024 r. Rozporządzenie wejdzie w życie 20 dni po publikacji w Dzienniku Urzędowym UE.

AI Act zacznie obowiązywać 24 miesiące po wejściu w życie, pomijając część przepisów. Regulacje o zakazanych systemach AI zaczną obowiązywać już 6 miesięcy od wejścia w życie AI Act, a wymogi dotyczące GPAI będą wiążące 12 miesięcy od wejścia w życie tego rozporządzenia. Z kolei część wymagań dla systemów AI wysokiego ryzyka zacznie obowiązywać dopiero 36 miesięcy od wejścia w życie rozporządzenia. ©℗

Tłumaczenie: Tomasz Zalewski, Bird & Bird, Warszawa