Od niedzieli są już stosowane pierwsze przepisy aktu o sztucznej inteligencji. Komisja nie zdążyła jednak przygotować do nich wskazówek, więc rynek sam musi ocenić, co jest zakazane
Akt o sztucznej inteligencji (tj. unijne rozporządzenie 2024/1689; dalej: AI Akt) wszedł w życie 1 sierpnia 2024 r., a większość jego przepisów będzie stosowana po dwóch latach. Jako pierwsze, 2 lutego br., zaczęły obowiązywać przepisy dotyczące zakazanych praktyk w zakresie sztucznej inteligencji. Od niedzieli niedozwolone stało się wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie systemów sztucznej inteligencji, które stanowią niedopuszczalne ryzyko dla praw podstawowych, jak wolność wypowiedzi, równość płci i prywatność.
Komisja Europejska miała na początku tego roku opublikować wytyczne w sprawie definicji systemu sztucznej inteligencji i zakazanych praktyk w zakresie AI – tak aby właściwe organy krajowe, podmioty wdrażające i dostawcy mogli się przygotować i właściwie zakwalifikować systemy AI. Unijny urząd ds. sztucznej inteligencji 11 grudnia ub.r. zakończył konsultacje w tej sprawie, ale wytycznych jeszcze nie przedstawił.
Niejasne prawo, ale prawo
- Przepisy AI Aktu obowiązują i bez wytycznych – podkreśla Tomasz Zalewski, radca prawny i partner w kancelarii Bird & Bird. - Wytyczne będą mechanizmem ułatwiającym rozumienie i stosowanie AI Aktu, czymś w rodzaju urzędowej interpretacji. Nie zmienią natomiast brzmienia przepisów – dodaje.
Przyznaje, że interpretacja AI Aktu stwarza problemy – i to począwszy od definicji systemu AI (co ma się znaleźć w wytycznych KE). - Przepisy rozporządzenia o sztucznej inteligencji są niejasne i często źle skonstruowane, dlatego dużo jest praktycznych trudności w ich rozumieniu i stosowaniu. Wytyczne staną się prawdopodobnie legalną wykładnią AI Aktu i - biorąc pod uwagę duże problemy z jego interpretacją – będą powszechnie stosowane – przewiduje Tomasz Zalewski.
Prawdopodobnie Komisja opublikuje wytyczne w najbliższych dniach.
- Akt w sprawie sztucznej inteligencji to bezprecedensowa regulacja. Posługuje się skomplikowanym językiem, ale też reguluje skomplikowaną i nową dziedzinę. Nic więc dziwnego, że powoduje tyle trudności interpretacyjnych. Wszyscy musimy się uczyć tych przepisów: podmioty biznesowe, urzędy, badacze. To wymaga czasu – mówi dr Damian Flisak, radca prawny.
Kary za zakazane praktyki AI dopiero od sierpnia
Za nieprzestrzeganie przepisów o systemach zakazanych grożą najwyższe kary, jakie można nałożyć na podstawie AI Aktu - do 35 mln euro lub 7 proc. całkowitego rocznego światowego obrotu. Będę one wymierzane dopiero od 2 sierpnia 2025 r.
- Moim zdaniem naruszenia AI Aktu w okresie przez tą datą się nie przedawniają, więc organy będą mogły karać także wstecz – zaznacza Tomasz Zalewski.
W krajach, które nie wyznaczyły jeszcze urzędu ds. AI – jak Polska – na razie nikt przedsiębiorców nie sprawdzi.
- Dotyczy to mniejszych podmiotów. Natomiast najwięksi gracze, rozwijający modele sztucznej inteligencji ogólnego przeznaczenia (General Purpose AI Models), odpowiadają przed urzędem Komisji, czyli Biurem ds. AI – wskazuje Damian Flisak.
Spodziewa się, że na początku weryfikacja zgodności z AI Aktem nie będzie przeprowadzana przez właściwe organy bardzo rygorystycznie.
- W razie problemów przedsiębiorcy nie mogą się powołać na brak wytycznych do AI Aktu. Ryzyko błędnej wykładni spoczywa bowiem na podmiocie wprowadzającym lub stosującym system sztucznej inteligencji – zastrzega jednak.
Co będzie, jeżeli taki podmiot nie uzna swojego systemu AI za zakazany, a właściwy organ będzie przeciwnego zdania?
- Myślę, że w razie błędnego zrozumienia i zastosowania przepisów dla urzędu będzie miało znaczenie, że ktoś – z braku wytycznych – na własną rękę szukał interpretacji, na przykład konsultując się z kancelarią prawną – przypuszcza Damian Flisak.
Trudne klasyfikowanie systemów sztucznej inteligencji
Które systemy AI można bez wytycznych wskazać jako zakazane? Są to m.in. systemy dokonujące - za pomocą technik podprogowych, technik manipulacyjnych lub wprowadzających w błąd - znaczącej zmiany zachowania danej osoby, powodujące podjęcie przez nią decyzji, której inaczej by nie podjęła, oraz takie, które wykorzystują ludzkie słabości (jak niepełnosprawność, sytuacja społeczna czy ekonomiczna).
- Wyobraźmy sobie na przykład, że babcia wchodzi na stronę oferującą pożyczki i przegląda ofertę, a system AI – wykorzystując informacje na jej temat – zmienia awatar na stronie tak, żeby przypominał jej wnuczka – opisuje Damian Flisak. - To przykład teoretyczny, ale coś takiego jest wykonalne. Sam jednak znam system, który rozpoznaje, że internauta jest cukrzykiem, i kiedy odczuwa on spadek poziomu cukru we krwi, wyświetla mu reklamę czekolady – mówi.
Tomasz Zalewski zaznacza, że w Europie systemy zakazane to raczej kategoria teoretyczna. - Byłby to między innymi system scoringu społecznego, który na podstawie oceny zachowań obywateli przyznaje im określone uprawnienia – wskazuje prawnik. - Najlepszym przykładem będzie zaś chyba system AI do rozpoznawania emocji. W miejscu pracy lub szkole jest to system zakazany. Można go jednak stosować do badania emocji klientów, np. za pomocą analizy tonu wypowiedzi w rozmowie z konsultantem czy analizy nadesłanych pism – wskazuje.
Damian Flisak podkreśla, że nawet znane zjawisko może budzić wątpliwości co do jego klasyfikacji. - Bankowe systemy scoringowe zasadniczo nie są zakazane. To systemy wysokiego ryzyka. Gdyby jednak bank oceniał naszą wiarygodność kredytową nie pod kątem naszej historii kredytowej, ale np. tego, gdzie mieszkamy i co piszemy w mediach społecznościowych – to już byłby system zakazany – porównuje.
- Myślę, że choć wytyczne wiele nam wyjaśnią, to stosowanie AI Aktu przez naprawdę długi czas nie będzie zero-jedynkowe. Wytyczne pomogą tylko omijać największe rafy – podsumowuje Damian Flisak.
RAMKA TEKSTOWA
Apel o ochronę praw autorskich
Oprócz wytycznych europejski urząd ds. AI przygotowuje kodeks postępowania dla dostawców sztucznej inteligencji ogólnego przeznaczenia (GPAI) – co ma się przyczynić do właściwego stosowania przez nich przepisów AI Aktu.
Zdaniem sektora kreatywnego i mediów prace nad kodeksem nie idą w dobrym kierunku. Kilkanaście europejskich organizacji zrzeszających podmioty z tego sektora skierowało w tej sprawie apel do wiceprzewodniczącej wykonawczej Komisji Europejskiej Henny Virkkunen. Wyrażają „poważne obawy” wobec drugiego projektu kodeksu, który nie gwarantuje, że twórcy ChatGPT i podobnych modeli będą zobowiązani do uzyskania legalnego dostępu do treści chronionych prawem autorskim.
W liście - który podpisały m.in. Europejskie Stowarzyszenie Wydawców Gazet (ENPA) i Europejskie Stowarzyszenie Produkcji Audiowizualnej (CEPI) – czytamy, że zamiast określenia zasad spełnienia tego obowiązku projekt mówi tylko o podjęciu przez dostawców AI „rozsądnych i proporcjonalnych wysiłków” w celu zapewnienia sobie legalnego dostępu do treści. Zdaniem branży takie rozwiązanie otwiera pole do obchodzenia przepisów, osłabia ochronę twórców i może prowadzić do nieuczciwej konkurencji oraz legalizacji modeli AI bazujących na nielegalnych treściach.