Od niedzieli zaczęły być stosowane pierwsze przepisy aktu o sztucznej inteligencji. Komisja nie zdążyła jednak przygotować do nich wskazówek, więc rynek sam musi ocenić, co jest zakazane
Akt o sztucznej inteligencji (tj. unijne rozporządzenie 2024/1689; dalej: AI Act) wszedł w życie 1 sierpnia 2024 r., a większość jego przepisów będzie stosowana po dwóch latach. Jako pierwsze, 2 lutego br., zaczęły obowiązywać przepisy dotyczące zakazanych praktyk w zakresie sztucznej inteligencji. Od niedzieli niedozwolone stało się wprowadzanie do obrotu, oddawanie do użytku lub wykorzystywanie systemów sztucznej inteligencji, które stanowią niedopuszczalne ryzyko dla praw podstawowych, jak wolność wypowiedzi, równość płci i prywatność.
Komisja Europejska miała na początku tego roku opublikować wytyczne w sprawie definicji systemu sztucznej inteligencji i zakazanych praktyk w zakresie AI – tak aby właściwe organy krajowe, podmioty wdrażające i dostawcy mogli się przygotować i właściwie zakwalifikować systemy AI. Unijny urząd ds. sztucznej inteligencji 11 grudnia ub.r. zakończył konsultacje w tej sprawie, ale wytycznych jeszcze nie przedstawił.
Niejasne prawo, ale prawo
– Przepisy AI Actu obowiązują i bez wytycznych – podkreśla Tomasz Zalewski, radca prawny i partner w kancelarii Bird & Bird. – Wytyczne będą mechanizmem ułatwiającym rozumienie i stosowanie AI Actu, czymś w rodzaju urzędowej interpretacji. Nie zmienią natomiast brzmienia przepisów – dodaje.
Przyznaje, że interpretacja AI Actu stwarza problemy – i to począwszy od definicji systemu AI (co ma się znaleźć w wytycznych KE). – Przepisy rozporządzenia o sztucznej inteligencji są niejasne i często źle skonstruowane, dlatego dużo jest praktycznych trudności w ich rozumieniu i stosowaniu. Wytyczne staną się prawdopodobnie legalną wykładnią AI Actu i – biorąc pod uwagę duże problemy z jego interpretacją – będą powszechnie stosowane – przewiduje Tomasz Zalewski.
Prawdopodobnie Komisja opublikuje wytyczne w najbliższych dniach.
– Akt w sprawie sztucznej inteligencji to bezprecedensowa regulacja. Posługuje się skomplikowanym językiem, ale też reguluje skomplikowaną i nową dziedzinę. Nic więc dziwnego, że powoduje tyle trudności interpretacyjnych. Wszyscy musimy się uczyć tych przepisów: podmioty biznesowe, urzędy, badacze. To wymaga czasu – mówi dr Damian Flisak, radca prawny.
Kary od sierpnia
Za nieprzestrzeganie przepisów o systemach zakazanych grożą najwyższe kary, jakie można nałożyć na podstawie AI Actu – do 35 mln euro lub 7 proc. całkowitego rocznego światowego obrotu. Będą one wymierzane dopiero od 2 sierpnia 2025 r.
– Moim zdaniem naruszenia AI Actu w okresie przed tą datą się nie przedawniają, więc organy będą mogły karać także wstecz – zaznacza Tomasz Zalewski.
W krajach, które nie wyznaczyły jeszcze urzędu ds. AI – jak Polska – na razie nikt przedsiębiorców nie sprawdzi.
– Dotyczy to mniejszych podmiotów. Natomiast najwięksi gracze, rozwijający modele sztucznej inteligencji ogólnego przeznaczenia (General Purpose AI Models), odpowiadają przed urzędem Komisji, czyli Biurem ds. AI – wskazuje Damian Flisak.
Spodziewa się, że na początku weryfikacja zgodności z AI Actem nie będzie przeprowadzana przez właściwe organy bardzo rygorystycznie.
– W razie problemów przedsiębiorcy nie mogą się powołać na brak wytycznych do AI Actu. Ryzyko błędnej wykładni spoczywa bowiem na podmiocie wprowadzającym lub stosującym system sztucznej inteligencji – zastrzega jednak.
Co będzie, jeżeli taki podmiot nie uzna swojego systemu AI za zakazany, a właściwy organ będzie przeciwnego zdania?
– Myślę, że w razie błędnego zrozumienia i zastosowania przepisów dla urzędu będzie miało znaczenie, że ktoś – z braku wytycznych – na własną rękę szukał interpretacji, na przykład konsultując się z kancelarią prawną – przypuszcza Damian Flisak.
Zakazane systemy AI
Które systemy AI można bez wytycznych wskazać jako zakazane? Są to m.in. systemy dokonujące – za pomocą technik podprogowych, technik manipulacyjnych lub wprowadzających w błąd – znaczącej zmiany zachowania danej osoby, powodujące podjęcie przez nią decyzji, której inaczej by nie podjęła, oraz takie, które wykorzystują ludzkie słabości (jak niepełnosprawność, sytuacja społeczna czy ekonomiczna).
– Wyobraźmy sobie na przykład, że babcia wchodzi na stronę oferującą pożyczki i przegląda ofertę, a system AI – wykorzystując informacje na jej temat – zmienia awatar na stronie tak, żeby przypominał jej wnuczka – opisuje Damian Flisak. – To przykład teoretyczny, ale coś takiego jest wykonalne. Sam jednak znam system, który rozpoznaje, że internauta jest cukrzykiem, i kiedy odczuwa on spadek poziomu cukru we krwi, wyświetla mu reklamę czekolady – mówi.
Tomasz Zalewski zaznacza, że w Europie systemy zakazane to raczej kategoria teoretyczna. – Byłby to między innymi system scoringu społecznego, który na podstawie oceny zachowań obywateli przyznaje im określone uprawnienia – wskazuje prawnik. – Najlepszym przykładem będzie zaś chyba system AI do rozpoznawania emocji. W miejscu pracy lub szkole jest to system zakazany. Można go jednak stosować do badania emocji klientów, np. za pomocą analizy tonu wypowiedzi w rozmowie z konsultantem czy analizy nadesłanych pism – wskazuje.
Damian Flisak podkreśla, że nawet znane zjawisko może budzić wątpliwości co do jego klasyfikacji. – Bankowe systemy scoringowe zasadniczo nie są zakazane. To systemy wysokiego ryzyka. Gdyby jednak bank oceniał naszą wiarygodność kredytową nie pod kątem naszej historii kredytowej, ale np. tego, gdzie mieszkamy i co piszemy w mediach społecznościowych – to już byłby system zakazany – porównuje. ©℗
Apel o ochronę praw autorskich
Oprócz wytycznych europejski urząd ds. AI przygotowuje kodeks postępowania dla dostawców sztucznej inteligencji ogólnego przeznaczenia (GPAI) – co ma się przyczynić do właściwego stosowania przez nich przepisów AI Aktu.
Zdaniem sektora kreatywnego i mediów prace nad kodeksem nie idą w dobrym kierunku. W liście do Komisji Europejskiej – który podpisały m.in. Europejskie Stowarzyszenie Wydawców Gazet (ENPA) i Europejskie Stowarzyszenie Produkcji Audiowizualnej (CEPI) – czytamy, że projekt mówi tylko o podjęciu przez dostawców AI „rozsądnych i proporcjonalnych wysiłków” w celu zapewnienia sobie legalnego dostępu do treści. Zdaniem branży takie rozwiązanie otwiera pole do obchodzenia przepisów, osłabia ochronę twórców i może prowadzić do nieuczciwej konkurencji oraz legalizacji modeli AI bazujących na nielegalnych treściach. ©℗