Organ antymonopolowy – UOKiK – zaprzągł system AI do pomocy przy wykrywaniu klauzul abuzywnych w umowach. Teraz przygotowuje podobne narzędzie do wykrywania oszukańczych interfejsów.
Urząd Ochrony Konkurencji i Konsumentów wykorzystuje narzędzie informatyczne oparte na sztucznej inteligencji do wstępnej analizy wzorców umownych pod kątem niedozwolonych postanowień stosowanych przez przedsiębiorców w kontaktach z konsumentami.
Jak wyjaśnia nam UOKiK, jest to część projektu współfinansowanego ze środków unijnych. System AI przegląda wzorce umów pozyskane w wyniku działań własnych urzędu lub na skutek złożonych zawiadomień. W zależności od dokumentu jest to kilka lub kilkanaście stron.
– Narzędzie, z którego korzystamy, analizuje klauzule na podstawie wykazu podobnych postanowień i dotychczasowych wyroków Sądu Ochrony Konkurencji i Konsumentów. Bez wątpienia pozwala to przyspieszyć pracę – narzędzie wskazuje, które fragmenty wzorców umów wymagają szczególnej uwagi – stwierdza Kamila Guzowska z biura prasowego UOKiK.
Idealne zastosowanie
AI określa procentowe prawdopodobieństwo, że dana klauzula jest nieuczciwa. – Jeżeli wartość wskazania oscyluje wokół 80 proc., jest to solidny powód do przyjrzenia się jej – informuje Kamila Guzowska.
Na podstawie tych wskazań pracownicy urzędu mogą się następnie zwrócić do prezesa UOKiK o przeprowadzenie postępowania czy podjęcie innych działań. Na przykład skierowanie do przedsiębiorcy tzw. wystąpienia miękkiego w celu uzyskania wyjaśnień.
– Przeszukiwanie dużych zasobów i znajdowanie w nich treści interesujących z punktu widzenia określonych kryteriów to jedno z idealnych zastosowań systemów sztucznej inteligencji – uważa Tomasz Zalewski, radca prawny i partner w kancelarii Bird & Bird.
Z najnowszej edycji badania „Technologia w służbie społeczeństwu. Czy Polacy zostaną społeczeństwem 5.0?”, przeprowadzonego przez GfK Polonia na zlecenie fundacji Digital Poland, wynika, że tylko 6 proc. polskiego społeczeństwa sprzeciwia się wykorzystaniu AI w sektorze publicznym (patrz: ramka).
– Przyspieszenie pracy urzędu to ważny argument, bo sprawy w UOKiK trwają latami. Mimo to na obecnym etapie jeszcze nie jestem zwolennikiem wykorzystywania tego typu rozwiązań. Przynajmniej do czasu wypracowania (i ujawnienia) skutecznych metod weryfikacji ich prawidłowości i rzetelności – komentuje Krzysztof Witek, adwokat z kancelarii Traple Konarski Podrecki i Wspólnicy.
Jego wątpliwości budzi jakość uzyskiwanych tą drogą wyników. – Moim zdaniem na obecnym poziomie rozwoju modele AI samodzielnie jeszcze nie są w stanie rzetelnie skontrolować dokumentów. Szczególnie z perspektywy ochrony konsumentów zastanawiam się, na ile skuteczne może być to narzędzie, czy nie przeoczy klauzul abuzywnych – mówi.
UOKiK podkreśla, że wykorzystanie AI wymaga stosowania środków ostrożności, takich jak: zapewnienie przejrzystości działania algorytmów, ochrona danych osobowych i zapobieganie dyskryminacji. – Wyzwania, którym musieliśmy sprostać przy wprowadzaniu projektu, dotyczyły kwestii związanych z dokładnością algorytmów AI, ich zdolnością do interpretowania języka prawniczego, a także aspektów etycznych – wylicza Kamila Guzowska.
Ocena ryzyka
Tomasz Zalewski uważa, że choć przepisy unijnego rozporządzenia w sprawie sztucznej inteligencji (AI Act) jeszcze nie obowiązują, warto je zastosować do już wykorzystywanych systemów AI.
Ustalona w trialogu treść regulacji w połowie marca została przyjęta przez Parlament Europejski i czeka na formalne zatwierdzenie przez Radę UE. Akt zacznie obowiązywać dwa lata po publikacji (z pewnymi wyjątkami). Na zastosowania AI nakłada różne obowiązki – zależnie od poziomu ryzyka, jakie stwarza dany system.
– Pierwszym krokiem powinna być ocena ryzyka i odpowiednie zaklasyfikowanie systemu – wskazuje Tomasz Zalewski.
Najwięcej obowiązków (m.in. ocenę i ograniczanie ryzyka, rejestr zdarzeń i szczegółową dokumentację) AI Act przewiduje w odniesieniu do systemów wysokiego ryzyka.
– W przypadku analizowania umów pod kątem klauzul abuzywnych nie mamy raczej do czynienia z systemem wysokiego ryzyka. Nie wiąże się to z istotnym ryzykiem dla zdrowia ani bezpieczeństwa, nie wydaje się też, aby mogło naruszać prawa podstawowe osób fizycznych – analizuje prawnik.
Wskazuje, że drugą podstawową zasadą przy wykorzystywaniu AI jest zachowanie nadzoru ludzkiego. – Tu należy uwzględnić to, że nasza czujność z czasem ulega osłabieniu – mówi.
AI jako dowód
Jeżeli system AI będzie dawał poprawne rezultaty, to po jakimś czasie człowiek przestanie je weryfikować i może nie wychwycić nieprawidłowości (tę ludzką słabość uwzględniono w AI Act).
– W przypadku gdy narzędzie jest używane do wstępnej identyfikacji klauzul niedozwolonych, ale wyniki są przeglądane przez człowieka, który ostatecznie podejmuje w tej sprawie decyzję, nie widzę zagrożenia związanego z takim wykorzystywaniem AI – ocenia Tomasz Zalewski.
Także Krzysztof Witek przyznaje, że fakt weryfikacji przez człowieka dostarczonych przez AI wskaźników nieco zmniejsza jego obawy. Zastrzega jednak, że kontrola ludzka musi być realna.
Wyniki wykonanej przez AI analizy doprowadziły już do sporządzenia przez pracowników UOKiK wystąpień miękkich oraz decyzji administracyjnych wobec przedsiębiorców prowadzących dom seniora oraz firm z branży deweloperskiej i energetycznej. Szczegółów urząd nie ujawnił.
– Informacja o tym, że badania zostały wykonane z wykorzystaniem AI, powinna się znaleźć w uzasadnieniu decyzji UOKiK, żeby wskazać, w jaki sposób było prowadzone postępowanie dowodowe – uważa Krzysztof Witek.
Czy takie decyzje urzędu łatwiej będzie podważyć?
– Nie sądzę, żeby udało się to zrobić tylko ze względu na samo wykorzystanie przez urząd narzędzi AI. Zgodnie z kodeksem postępowania administracyjnego jako dowód należy dopuścić wszystko, co może przyczynić się do wyjaśnienia sprawy, a nie jest sprzeczne z prawem. Moim zdaniem przepisy kodeksu postępowania cywilnego również nie wykluczają wykorzystywania informacji uzyskanych dzięki narzędziom sztucznej inteligencji. Nie widzę więc powodu do kwestionowania jej użycia z punktu widzenia samej dopuszczalności przez prawo. Szczególnie jeśli będzie poddana kontroli człowieka – odpowiada Krzysztof Witek.
Teraz dark patterns
Obecnie UOKiK pracuje nad narzędziem AI do wykrywania dark patterns – zwodniczych interfejsów stosowanych w internecie do wpływania na decyzje konsumentów. Ten projekt też jest współfinansowany ze środków unijnych.
– Z dark patterns może być trudniej. Te rozwiązania nie wyróżniają się konkretnym tekstem, tu raczej chodzi o konstrukcję strony internetowej, która sprawia, że bardzo trudno jest np. wypisać się z newslettera. Zasadniczo jednak zastępowanie pracy ręcznej systemami AI to kierunek, w którym organy administracji powinny pójść. Należy to robić przy zachowaniu podstawowych zasad, sformułowanych w rozporządzeniu w sprawie AI – podkreśla Tomasz Zalewski.
Organ antymonopolowy uważa, że narzędzia oparte na AI będą mogły mu się też przydać do analizy rynku, monitoringu cen, wykrywania nieuczciwych praktyk handlowych czy oceny zgodności produktów z normami i przepisami.
– UOKiK zawsze chętnie sięgał po nowe technologie. Jest wiele obszarów, w których systemy AI mogą usprawnić jego pracę – przyznaje Krzysztof Witek. – Niezbędne jest jednak odpowiednie przygotowanie tego narzędzia i zapewnienie kontroli człowieka nad jego wykorzystywaniem. Jestem w tej kwestii umiarkowanym, ostrożnym, sceptycznym optymistą – dodaje.
W opublikowanych 25 marca rekomendacjach w zakresie zastosowania AI w sądownictwie i prokuraturze Grupa robocza ds. sztucznej inteligencji (GRAI), działająca przy Ministerstwie Cyfryzacji, postuluje, aby system stworzony przez UOKiK włączyć do wykorzystania w elektronicznym postępowaniu upominawczym (EPU) „celem dokonania każdorazowo szybkiej analizy postanowień umownych”. Eksperci z GRAI uważają, że „wzmocniłoby to jednolitość orzecznictwa oraz pewność prawa”, pozostawałoby „w duchu unijnej ochrony interesów konsumentów” i ograniczałoby roszczenia podmiotów bazujących na niewiedzy konsumentów. ©℗