Aby sztuczna inteligencja służyła społeczeństwu i gospodarce, potrzeba regulacji i nadzoru.

ikona lupy />
Filip Konopczyński / Dziennik Gazeta Prawna
Filip Konopczyński:
Fundacja Panoptykon

Po poprawkach komisji Parlamentu Europejskiego projekt AI Act obejmuje przepisy, które w większym stopniu dotyczą praw obywatelskich. Między innymi poszerzono katalog praktyk zakazanych o systemy biometryczne czy związane z predykcją kryminalną i przyznano więcej uprawnień osobom, wobec których systemy AI są używane (skarga administracyjna, droga sądowa). Organizacje takie jak Panoptykon i sieć EDRI chciałyby, aby poprawić akt – m.in. zwiększając przejrzystość w przypadku systemów wysokiego ryzyka, przyznać NGO prawo reprezentowania osób, których prawa zostały naruszone, wzmocnić gwarancje dla osób z niepełnosprawnością czy poszerzyć prawo do wyjaśnienia decyzji AI. Co dalej? 14 czerwca odbędzie się głosowanie plenarne PE, a potem regulacja wejdzie w fazę trialogu.

Jaką rolę może odegrać AI w polskiej gospodarce i życiu publicznym? Czy potrzebujemy tej technologii?
ikona lupy />
Kosma Złotowski / Dziennik Gazeta Prawna
Kosma Złotowski:
europoseł PiS

Zarówno pod względem prawnym, jak i technologicznym jesteśmy na początku drogi. Natomiast przewidujemy, że AI będzie miała zastosowanie w najróżniejszych dziedzinach gospodarki: w medycynie, w transporcie, w sterowaniu ruchem drogowym i wszelkimi urządzeniami miejskimi. Mogą być też zastosowania policyjne, wywiadowcze itp. – ten obszar budził wiele obaw podczas prac w Parlamencie Europejskim.

Grzegorz Napieralski:

Nie zgodziłbym się z tym, że jesteśmy na początku drogi. Sztuczna inteligencja już jest obecna w naszym życiu i trzeba ją tak uregulować prawnie, aby służyła ludziom – a nie odwrotnie.

ikona lupy />
Krzysztof Bosak / Dziennik Gazeta Prawna
Krzysztof Bosak:
poseł Konfederacji

Obszary do zastosowania AI pokrywają się pewnie z tymi, gdzie obecnie są używane komputery i odbywa się praca na dużych zbiorach danych: usługi, medycyna, obronność, energetyka, przemysł, logistyka, telekomunikacja, media… prawie wszystko. Pytanie też, czy istnieje ścisła granica pomiędzy algorytmami a sztuczną inteligencją – czy też to, co w tej chwili nazywamy sztuczną inteligencją, nie jest po prostu kolejną generacją bardziej zaawansowanych algorytmów.

Czy obecnie projektowany w AI Act poziom ochrony obywateli jest wystarczający?
ikona lupy />
Krzysztof Gawkowski / Dziennik Gazeta Prawna
Krzysztof Gawkowski:
poseł Lewicy

Obecnie poziom bezpieczeństwa AI nie jest wystarczający. Ważne jest, aby prawo, które stworzymy, broniło się potem w sądzie. AI Act przewiduje m.in., że w sądach powstaną struktury rozstrzygające w takich sprawach. Powiedzmy, że w sieci pojawi się zdjęcie polityka prowadzącego w kajdankach, wykonane z użyciem AI – ktoś będzie za to odpowiadał. W Polsce będziemy się też musieli zastanowić, w jakim stopniu implementujemy AI Act. Czy poprzestaniemy na półśrodkach? Są takie zdania wśród polskich polityków, że Unia Europejska idzie za szeroko. Nie ulega jednak wątpliwości, że im szybciej wprowadzimy modele bezpieczeństwa dotyczące sztucznej inteligencji, tym lepiej dla obywatela.

Krzysztof Bosak:

Wszystkie rozwiązania technologiczne mogą być używane z pożytkiem dla ludzkości, pod warunkiem że są poddane właściwemu nadzorowi. Za każde zastosowanie AI jakiś zespół ludzi powinien brać odpowiedzialność. Nie może być mowy o zdejmowaniu odpowiedzialności i kosztów popełnionych błędów z twórców oprogramowania AI lub tych, którzy to oprogramowanie wdrażają do użytku. Tylko pełna odpowiedzialność majątkowa zagwarantuje skuteczność mechanizmu rynkowego, polegającego na tym, że wprowadzając nowe rozwiązania, przewiduje się koszty stwarzanego ryzyka i je kontroluje.

Kosma Złotowski:

W zaproponowanej przez komisje PE wersji aktu na tę odpowiedzialność zwracamy uwagę. Ponadto oprogramowanie, które ma być dopuszczone do użytku publicznego, powinno przychodzić przez tzw. piaskownicę regulacyjną, czyli zamknięte środowisko, w którym testujemy, jak działa.

ikona lupy />
Krzysztof Hetman / Fundacja Panoptykon/Dziennik Gazeta Prawna
Krzysztof Hetman:
europoseł PSL

W regulacji, która będzie głosowana 14 czerwca, ochrona obywateli jest, wydaje mi się, całkiem dobrze opisana. Nie mówię, że jest doskonała, ponieważ mamy do czynienia z technologią, która stale się rozwija, więc z pewnością ten dokument w przyszłości będzie podlegał nowelizacji. Zadbaliśmy też o to, aby zastosowania AI wytworzone poza granicami Unii Europejskiej podlegały przepisom aktu. Fundamentem jest analiza ryzyka dla każdego rozwiązania wykorzystującego sztuczną inteligencję. Jego ocena będzie decydowała o poziomie nakładanych rygorów prawnych.

Część państw i europosłów chce wyłączyć spod wymogów aktu obszar bezpieczeństwa publicznego. Czy panowie popierają takie rozwiązanie?
Krzysztof Hetman:

Nie zgadzam się z tym. Przeciwnie, właśnie trzeba unormować kwestię sztucznej inteligencji w sferze bezpieczeństwa. Inaczej doszłoby do ogromnych nadużyć i mogłoby się to źle skończyć.

Kosma Złotowski:

A ja jestem za wyłączeniem tego obszaru. Objęcie go regulacją spowodowałoby, że również inni aktorzy sceny światowej, niekoniecznie nam przyjaźni, mieliby weń wgląd. Stąd kompromis w tej sprawie.

ikona lupy />
Grzegorz Napieralski / Dziennik Gazeta Prawna
Grzegorz Napieralski:
poseł KO

Zgadzam się z posłem Hetmanem. Jeżeli wyłączymy tę dziedzinę spod regulacji, to jak będziemy się chronić przed tymi, którzy mogą próbować zrobić nam krzywdę?

Krzysztof Bosak:

Wszystko zależy od konstrukcji przepisów. Jest obszar tajnego działania służb, gdzie będą one sięgać po najbardziej zaawansowane technologicznie narzędzia, aby osiągać swoje cele – i to nie będzie transparentne dla opinii publicznej. Podobnie w obszarze wojskowy. Natomiast jednocześnie mamy szeroki obszar cywilnego bezpieczeństwa, gdzie wykorzystanie technologii powinno być już transparentne i poddane regulacjom prawnym.

AI Act postuluje powołanie organów nadzorujących AI. Jaki urząd w Polsce ma kompetencje do takich zadań?
Krzysztof Gawkowski:

Powołanie europejskiego urzędu ds. AI to dobry pomysł, dlatego że daje człowiekowi szansę dochodzenia swoich praw. Ponadto w polskim prawodawstwie powinny powstać odpowiednie instytucje regulujące nie tylko sztuczną inteligencję, lecz także algorytmy. Takie dedykowane organy można stworzyć na wzór Urzędu Ochrony Konkurencji i Konsumentów. Jeżeli społeczeństwo będzie miało instytucję, do której może się zwrócić, to łatwiej będzie mu zrozumieć cały ten olbrzymi proces, który wokół sztucznej inteligencji się wytwarza. Już dziś algorytmy decydują o naszym życiu – np. przy antyplagiatowym sprawdzaniu pracy magisterskich czy ocenie wniosków o granty. A to się jeszcze nasili. Dlatego potrzebne są ramy prawne i instytucje nadzorujące wykorzystanie AI.

Kosma Złotowski:

Dzisiaj najlepiej przygotowany do takich zadań jest UOKiK. Ale ja też jestem za tym, żeby powstał specjalny urząd ds. sztucznej inteligencji. To jest narzędzie pokazujące z jednej strony bardzo duże perspektywy wykorzystania go w jak najlepszych celach, ale z drugiej strony również w jak najgorszych. Dlatego choć zwykle głosujemy w Parlamencie Europejskim przeciwko tworzeniu nowych urzędów, to w tym wypadku jest wyjątek.

Krzysztof Bosak:

My w Konfederacji jesteśmy dosyć sceptyczni, czy jakikolwiek nasz problem rozwiąże nowy urząd. Sądzę, że być może skuteczne byłoby takie rozwiązanie prawne, które gwarantowałoby obywatelowi prawo zażądania obsługi przez człowieka.

Krzysztof Hetman:

Bliskie jest mi stanowisko pana posła Bosaka, że tworzenie nowych urzędów, szczególnie u nas w Polsce, nie jest zasadne. Ale istotne jest też pytanie, czy mamy tyle kompetencji i wiedzy, aby sobie ze sztuczną inteligencją poradzić. Myślę, że musimy położyć duży nacisk na edukację w tej dziedzinie.

Jakie będzie stanowisko Polski w trialogu aktu o sztucznej inteligencji? Spotkanie premiera Mateusza Morawieckiego z szefem OpenAI Samem Altmanem może wskazywać na życzliwość rządu dla postulatów amerykańskiego biznesu.
Kosma Złotowski:

Życzliwość dla tej technologii w ogóle, bo uważamy, że jej rozwój ułatwi nam życie w wielu dziedzinach – choć może być też niebezpieczny. Ale noża też możemy użyć do krojenia chleba czy warzyw – albo poderżnąć komuś gardło. Mamy teraz w Polsce do czynienia z dużymi informatycznymi inwestycjami, witamy je z otwartymi ramionami i przypuszczam, że takie będzie stanowisko polskiego rządu w Radzie UE.

Czy polski rząd poprze zwiększoną ochronę obywateli przed ryzykiem związanym ze stosowaniem AI, jaką wprowadziły komisje PE?
Kosma Złotowski:

Tak, dlatego że podzielamy wiele obaw o wykorzystanie tej technologii sprzecznie z wolnościami obywatelskimi.

Jedno z pytań od internautów dotyczy tego, czy przy wdrażaniu AI w administracji publicznej wystarczą unijne przepisy, czy też powinniśmy się zastanowić nad krajowymi?
Kosma Złotowski:

Oczywiście, że powinniśmy się zastanawiać nad krajową regulacją. To będzie pochodna tego aktu, element jego implementacji. Sztuczna inteligencja działa globalnie, ale tworzonym przez nią zagrożeniom musimy umieć zapobiec tutaj na miejscu.

Krzysztof Hetman:

To będzie konieczność, życie to na nas wymusi.

Grzegorz Napieralski:

Już się staramy to robić. W sejmowej komisji polityki społecznej od kilku miesięcy leży projekt, uchwalony jednogłośnie przez komisję cyfryzacji. W ustawie o związkach zawodowych dodaliśmy przepis, że związki mogą zajrzeć w algorytm, który w ich firmie ocenia pracowników i na tej podstawie otrzymują zadania, pensje i nagrody.

Krzysztof Bosak:

W sektorze prywatnym, w którym ta technologia rozwija się w sposób niekontrolowany i może mieć wpływ na obywatela bez jego wiedzy, regulacja jest uzasadniona. Natomiast jeżeli chodzi o administrację, to ja takiego silnego uzasadnienia jeszcze nie widzę.

Na co szczególnie należy zwrócić uwagę, gdy przyjdzie do krajowego regulowania AI?
Krzysztof Hetman:

Na wszystko. Sztuczna inteligencja niesie równie wiele ryzyk, co szans. Dlatego musimy ją trzymać w ryzach, aby nie wymknęła się spod kontroli.

Kosma Złotowski:

Mierzymy się z technologią, która na razie raczkuje. Nadajemy jej jakieś ramy, wiedząc, że w zależności od tego, w którym kierunku będzie się rozwijała, to trzeba będzie te ramy dopasować.

Krzysztof Bosak:

Czekam spokojnie na to, co Parlament Europejski i inne instytucje unijne wygenerują. Mimo że środowiska zrzeszone w Konfederacji bez entuzjazmu podchodzą do europejskich instytucji, to nie wykluczamy, że akurat w tym wypadku uda się ustanowić korzystną regulację.

Grzegorz Napieralski:

W całej tej dyskusji najważniejszy jest człowiek. Rozwoju technologii nie zatrzymamy i nawet nie miałoby to sensu, natomiast chodzi o to, żeby ta technologia służyła ludziom. I to powinno być sednem wszystkich regulacji. ©℗

fot. Wojtek Górski (5), Fundacja Panoptykon/Dziennik Gazeta Prawna
Debatę prowadziła Elżbieta Rutkowska
Inicjatorem przeprowadzenia debaty była Fundacja Panoptykon