– Zagrożenie dla najżywotniejszych interesów – tak Związek Cyfrowa Polska określa ryzyko, jakim dla firm rozwijających AI w Polsce jest projekt ustawy o systemach sztucznej inteligencji. Przygotowało go Ministerstwo Cyfryzacji, w piątek minął termin na składanie do niego uwag. DGP dotarł do części stanowisk, które przesłano w konsultacjach.
Jak ostrzegają przedstawiciele firm rozwijających sztuczną inteligencję, jeśli przepisy wejdą w życie w zaproponowanym kształcie, funkcjonariusze Agencji Bezpieczeństwa Wewnętrznego, policji, prokuratury, Agencji Wywiadu, Służby Kontrwywiadu Wojskowego, Służby Wywiadu Wojskowego oraz Centralnego Biura Antykorupcyjnego będą mogli w bardzo prosty sposób uzyskać dostęp do tajemnic przedsiębiorstwa. Jak?
Na mocy ustawy powołana zostanie nowa instytucja – Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI). Członkami komisji mają być przedstawiciele ministra cyfryzacji, ministra koordynatora służb specjalnych, Urzędu Ochrony Danych Osobowych, Urzędu Ochrony Konkurencji i Konsumentów, Komisji Nadzoru Finansowego, Rzecznika Praw Obywatelskich, Rzecznika Praw Dziecka, Krajowej Rady Radiofonii i Telewizji oraz Urzędu Komunikacji Elektronicznej.
Komisja dostanie szerokie uprawnienia kontrolne
Według pomysłu MC będzie mogła przeprowadzać kontrolę działalności firm i innych podmiotów zobowiązanych do przestrzegania unijnego rozporządzenia AI Act (polska ustawa wprowadza je do polskiego porządku prawnego). Kontrowersje budzi już sama procedura prowadzenia takiej kontroli – jak zwraca uwagę m.in. Konfederacja Lewiatan, KRiBSI nie będzie musiała mieć praktycznie żadnej podstawy, by postępowanie wszcząć. Tymczasem, jak zwracają uwagę eksperci Lewiatana, „w Prawie Przedsiębiorców np. kontrole planuje się i przeprowadza po uprzednim dokonaniu analizy prawdopodobieństwa naruszenia prawa w ramach wykonywania działalności gospodarczej”.
Zastrzeżenia budzi też fakt, że kontroli nie będą musieli przeprowadzać jedynie zatrudnieni przez KRiBSI urzędnicy, ale też wskazane przez nią „osoby zaufane”. Co to znaczy? Ustawa nie precyzuje. – W świetle prawa będzie można wziąć do kontroli firmy osobę z ulicy. Trudno zrozumieć, dlaczego zdecydowano się na takie rozwiązanie. Naszym zdaniem tworzy to ryzyko wykradania tajemnic biznesowych – przekonuje Tomasz Snażyk, prezes AI Chamber (izby zrzeszającej polskich przedsiębiorców z obszaru sztucznej inteligencji). Według opinii przesłanej do MC przez izbę przepis należałoby wykreślić.
Do wyników kontroli mogą mieć dostęp członkowie komisji
Na mocy nowej ustawy wszystkie informacje uzyskane w związku z uczestnictwem w pracach KRiBSI (w tym tajemnice prawnie chronione) mogą oni natomiast udostępniać służbom. „W praktyce może oznaczać to nieskrępowany dostęp organów ścigania i służb specjalnych do poufnych i wrażliwych informacji, posiadanych przez członków Komisji – niezależnie od rzeczywistych i uzasadnionych potrzeb” – zwracają uwagę przedstawiciele Cyfrowej Polski. „Dane, posiadane przez członków Komisji, mogą stanowić pilnie strzeżone tajemnice handlowe poszczególnych operatorów (dostawców, importerów, użytkowników, dystrybutorów) systemów SI” – przekonują. A wątpliwości podzielają też inne podmioty rynku.
„Brak jest uzasadnienia do przekazywania tajemnicy prawnie chronionej wskazanym podmiotom w szerszym zakresie, zwłaszcza że są przepisy, które pozwalają na uzyskanie przez takie podmioty potrzebnych informacji w określonym trybie” – przypominają przedstawiciele Krajowej Izby Gospodarczej Elektroniki i Telekomunikacji.
W stanowiskach przesyłanych do MC jest również wiele innych zastrzeżeń. Choćby dotyczących długości postępowania przed Komisją. Według nowej ustawy może ono trwać nawet rok. Jak zwraca uwagę AI Chamber, kodeks postępowania administracyjnego przewiduje dwa miesiące. To z kolei kontrastuje z terminami, jakie ustawa o systemach sztucznej inteligencji przewiduje na wycofanie z rynku gotowego produktu, kiedy o takiej konieczności zdecyduje KRiBSI. Przedsiębiorca będzie miał na to jedynie dwa tygodnie. „Tak drastycznie krótkie terminy mogą być uzasadnione jedynie bezpośrednim zagrożeniem bezpieczeństwa obywateli” – czytamy w opinii AI Chamber. „W pozostałych przypadkach postulujemy wydłużenie terminu na dostosowanie systemu lub wycofanie go z rynku do 6 miesięcy” – dodają przedstawiciele Izby. ©℗