W trialogu unijnego aktu o sztucznej inteligencji wprowadzono zmiany pozwalające niektórym zastosowaniom tej technologii uniknąć piętna wysokiego ryzyka. ChatGPT z nich nie skorzysta.

Treść rozporządzenia – akt w sprawie sztucznej inteligencji (dalej: AI act) wciąż ulega zmianom w wyniku trwających od kilku miesięcy negocjacji między instytucjami unijnymi.

Najnowsza modyfikacja projektu umożliwi modelom sztucznej inteligencji, spełniającym określone warunki, zamiast do kategorii wysokiego ryzyka trafić do grupy systemów łagodniej traktowanych przez nową regulację. To bardzo ważne dla podmiotów tworzących i wdrażających AI – bo dzięki temu unikną ścisłej kontroli i wielu obowiązków.

Zgodnie z białą księgą

Jak informuje europoseł Kosma Złotowski, zmieniony przepis o systemach wysokiego ryzyka stanowi, że nie powinny być tak klasyfikowane zastosowania AI, które nie stwarzają znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych, w tym nie wpływają w istotny sposób na wynik procesu decyzyjnego. – Precyzujemy jednocześnie, że to wyłączenie dotyczy tylko wąskiej kategorii systemów – podkreśla europoseł (patrz: ramka).

– Uważam, że jest to właściwy kierunek i potrzebne ustępstwo ze strony Parlamentu Europejskiego, które będzie korzystne dla rozwoju i wdrażania tej technologii w UE – stwierdza Kosma Złotowski. Jego zdaniem wyjątki, zwane filtrami, są dobrą odpowiedzią na obawy, że zbyt ostre podejście do AI zahamuje innowacyjność w UE. – Stanowisko Parlamentu Europejskiego jest od samego początku niezwykle stanowcze, jeśli chodzi ochronę bezpieczeństwa i prywatności użytkowników – przypomina. – W negocjacjach, jakimi są trialogi, konieczna jest jednak także pewna elastyczność w jednych miejscach, aby móc bronić najważniejszych postulatów w innych – zastrzega.

Europoseł Adam Jarubas podkreśla, że dodatkowe filtry są w zasadzie wdrożeniem dwuetapowej oceny ryzyka, postulowanej w unijnej białej księdze sztucznej inteligencji z 2020 r. – Staramy się zabezpieczyć poszanowanie prawa UE, chronić zdrowie, bezpieczeństwo i prawa podstawowe obywateli w kontekście zastosowań AI, a jednocześnie uniknąć przeregulowania, które uderzyłoby w innowacyjność, naraziło Unię na to, że postęp AI determinujący konkurencyjność gospodarek XXI w. i dostępność usług dla obywateli będzie rozwijany poza UE, zgodnie z innymi wartościami – stwierdza.

Wąskie wyjątki

Europoseł Robert Biedroń zaznacza, że mechanizm uznawania, czy AI jest ryzykowna, powinien być możliwie prosty i jednoznaczny – m.in. po to, aby nie dało się omijać przepisów. – Jeśli AI „made in EU” będzie bezpieczna i zgodna z prawem i wartościami, zyskamy wszyscy. Także firmy, bo będą miały spójne, jednoznaczne zasady. Jeśli ich produkty je spełnią, będą mogli na nich zarabiać na całym kontynencie. To ogromny, atrakcyjny rynek i jestem przekonany, że odpowiedzialni twórcy AI będą potrafili połączyć innowacje, biznes i etykę – uważa.

Adam Jarubas informuje, że KE ma teraz przygotować listę praktycznych przykładów zastosowań wysokiego ryzyka i wyłączonych z tej kategorii dzięki filtrom.

– W tej drugiej grupie znajdą się systemy AI o wąskim zastosowaniu. Z wyjątków na pewno nie będą mogły skorzystać systemy podstawowe, trenowane na wielkich bazach danych (jak ChatGPT – red.) – mówi Tomasz Zalewski, radca prawny, partner w kancelarii Bird & Bird. Wskazuje, że piętna systemu wysokiego ryzyka mogą uniknąć np. zastosowania AI do wykrywania spamu.

– Systemy używane w rekrutacji będą co do zasady w kategorii wysokiego ryzyka, ale dzięki wyłączeniom wyspecjalizowany system wyłapujący CV odbiegające od wzorca już nie będzie zastosowaniem wysokiego ryzyka, bo nie podejmuje decyzji, a jedynie dostarcza informacji – wskazuje prawnik.

Spodziewa się, że w wyniku zmian w art. 6 twórcy AI skłonią się ku wyspecjalizowanym zastosowaniom. – Mogą np. zamiast kompleksowego systemu rekrutacyjnego wprowadzać pojedyncze moduły, z których część uniknie kategorii wysokiego ryzyka – przypuszcza.

Dodaje, że kiedy AI act zostanie uchwalony, producenci będą się starali uniknąć jego stosowania. – W pierwszej kolejności będą chcieli, aby ich modele w ogóle nie zostały sklasyfikowane jako system sztucznej inteligencji. W drugiej kolejności spróbują przynajmniej sprawić, by nie wpadł do kategorii wysokiego ryzyka. Bo AI act nakłada obowiązki prawie wyłącznie na takie systemy – mówi Tomasz Zalewski.

Jego zdaniem obecna dyskusja o wyłączeniach jest pokłosiem niezbyt dobrej decyzji podjętej na początku prac nad AI actem – że będzie on regulacją horyzontalną, tj. dotyczącą wszystkich systemów sztucznej inteligencji we wszystkich sektorach. – A bardzo trudno jest w sposób uniwersalny uregulować tak różne ryzyka. Bo jak np. porównać pod tym względem edukację z ruchem drogowym? – podsumowuje.

Zakusy na RBI

Filip Konopczyński, analityk Fundacji Panoptykon, pomysł wprowadzania wyjątków ocenia negatywnie.

– Pod względem mechanizmu przyznawania systemom AI statusu wysokiego ryzyka najlepsza była wyjściowa, najprostsza propozycja Komisji Europejskiej. Każda kolejna zmiana – Rady, Parlamentu, a prawdopodobnie również w trialogu – pozostawia coraz więcej luk – mówi.

Zwraca też uwagę na zmianę uprawniającą KE do modyfikacji filtrów. – Ma się to odbywać na mocy decyzji. To potencjalnie niebezpieczne rozwiązanie – stwierdza. – Niezależnie od tego, co teraz znajdzie się w rozporządzeniu, Komisja będzie mogła modyfikować nie tylko listę obszarów wysokiego ryzyka, lecz również mechanizmy kwalifikowania do tej kategorii. W praktyce decyzją administracyjną będzie można zmieniać zasady określające, kiedy nasze prawa są łamane – podkreśla Filip Konopczyński.

Ostrzega, że w projekcie mogą zajść kolejne zmiany. – Rada nie porzuciła pomysłu dopuszczenia, aby organy ścigania mogły używać systemów zdalnej identyfikacji biometrycznej (RBI) w czasie rzeczywistym – wskazuje ekspert Panoptykonu.

W czerwcu PE przegłosował w tej sprawie zakaz. Teraz Kosma Złotowski deklaruje obronę tego stanowiska – niezależnie od tego, jak silna będzie presja ze strony Komisji i Rady.

Jak informuje Adam Jarubas, przed kolejną rundą trialogu AI actu, zaplanowaną na 6 grudnia, odbędzie się kilka spotkań technicznych. – Wierzę, że uda się połączyć te dwa kierunki i UE będzie dysponować prawem odpowiadającym na dzisiejsze i przyszłe wyzwania sektora AI, chroniącym obywateli i ich prawa, a zarazem wspierającym innowacje – podkreśla Adam Jarubas.©℗

Furtki do niższego ryzyka

AI nie zostanie sklasyfikowane jako system wysokiego ryzyka w szczególności gdy:

AI jest wprawdzie wykorzystywana w obszarze ryzyka, ale do wąskich proceduralnych zastosowań,

AI ma dokonywać przeglądu lub korekty zadań wcześniej wykonanych przez człowieka,

AI ma wykrywać nieregularności lub anomalie wzorca podejmowanych przez człowieka decyzji tj. wskazywać potencjalne błędy.

To ostatnie skorygowano później, precyzując, że AI nie może zastępować lub wpływać na wcześniej dokonaną przez człowieka ocenę bez ponownego nadzoru ludzkiego.

Wyłączenia nie obejmą systemów AI, które dokonują profilowania osób fizycznych.©℗