Autopromocja

Ministerstwo cyfryzacji przygotowało "Przewodnik po sztucznej inteligencji dla administracji publicznej"

dokument urzędnik postanowienie
Ministerstwo cyfryzacji przygotowało "Przewodnik po sztucznej inteligencji dla administracji publicznej"shutterstock
wczoraj, 11:22

77 proc. urzędników korzysta z AI raz dziennie lub częściej. 15 proc. korzysta z niej kilka razy w tygodniu, a 8 proc. rzadziej - wynika z badania NASK "AI w e-administracji publicznej”. W związku z tak powszechnym użyciem sztucznej inteligencji w pracy urzędników, Ministerstwo Cyfryzacji opublikowało „Przewodnik po sztucznej inteligencji dla administracji publicznej”.

W publikacji, którą można znaleźć na stronie resortu, zawarto zarówno informacje techniczne dotyczące sztucznej inteligencji jak i ramy prawne i etyczne jej stosowania. MC opisuje też wdrażanie AI w praktyce. Przestrzega przed zagrożeniami i mówi o ograniczeniach, takich jak np. halucynacje. Dla początkujących w tej dziedzinie zawarto nawet słowniczek pojęć.

Kiedy zapoznamy się już z podstawowymi informacjami na temat sztucznej inteligencji, zawartymi w przewodniku, MC przedstawia nam ramy prawne i obowiązki urzędów. Stosowanie systemów sztucznej inteligencji w administracji publicznej regulują dwa kluczowe akty prawne: unijne rozporządzenie o sztucznej inteligencji (AI Act) oraz ogólne rozporządzenie o ochronie danych (RODO).

Co wynika z AI Actu

Jak czytamy w przewodniku, oba określają, jakie zastosowania AI są całkowicie zakazane, kiedy system AI wymaga szczególnych zabezpieczeń oraz jakie prawa przysługują obywatelom wobec zautomatyzowanych decyzji”.

AI Act ma zapewnić, że systemy sztucznej inteligencji działające na terenie Unii są bezpieczne, przejrzyste i zgodne z prawami podstawowymi (…). Rozporządzenie wyróżnia cztery główne kategorie: systemy o ryzyku minimalnym, ograniczonym, wysokim oraz systemy o ryzyku niedopuszczalnym, które są całkowicie zakazane” – informuje MC. W przewodniku wymieniono Praktyki zakazane:

AI Act wskazuje osiem kategorii zastosowań AI, które są w Unii Europejskiej niedopuszczalne. Zakazy te obowiązują bezwzględnie, niezależnie od tego, kto i w jakim celu chciałby takie systemy stosować.

AI, a obowiązki wynikające z RODO

Jak przypomniano w przewodniku, ogólne rozporządzenie o ochronie danych ma zastosowanie do każdego systemu przetwarzającego dane osobowe, w tym do systemów sztucznej inteligencji wykorzystywanych w administracji publicznej. W przypadku rozwiązań opartych na AI przestrzeganie zasad ochrony danych ma szczególne znaczenie, ponieważ systemy te często operują na dużych zbiorach informacji o osobach i mogą wywoływać istotne skutki dla ich sytuacji życiowej.

Administrator danych powinien zatem projektować i stosować systemy AI tak, aby spełniały zasady wynikające z RODO, a w szczególności: zgodności z prawem, rzetelności, przejrzystości, minimalizacji danych, prawidłowości, ograniczenia przechowywania, integralności, poufności oraz rozliczalności.

Sztuczna inteligencja w urzędzie. Ramy prawne i obowiązki – co zapamiętać?

• Udokumentuj wykorzystanie systemu AI. Należy sporządzić opis stosowanych systemów sztucznej inteligencji, zakresu ich zastosowania, podstaw prawnych przetwarzania danych oraz kategorii danych przetwarzanych w związku z ich użyciem.

• Zapewnij nadzór człowieka nad decyzjami. Należy zagwarantować, aby wyniki działania systemu AI, w szczególności mające znaczenie dla praw, świadczeń lub obowiązków obywateli, były każdorazowo poddawane merytorycznej weryfikacji przez upoważnionego pracownika.

• Stosuj zasadę minimalizacji danych. Należy przetwarzać wyłącznie takie dane osobowe, które są niezbędne do realizacji jasno określonego celu związanego ze stosowaniem systemu AI.

• Preferuj dane syntetyczne lub zanonimizowane. Na etapie uczenia i testowania systemów AI należy w miarę możliwości wykorzystywać dane nierzeczywiste (syntetyczne) lub odpowiednio zanonimizowane, ograniczając użycie rzeczywistych danych osobowych do sytuacji uzasadnionych i udokumentowanych.

• Chroń dane przed ujawnieniem w narzędziach publicznych. Zabrania się wprowadzania do ogólnodostępnych narzędzi AI danych osobowych, danych szczególnych kategorii, informacji niejawnych oraz wewnętrznych dokumentów urzędowych.

• Zapewnij przejrzystość wobec mieszkańców. Należy informować mieszkańców o wykorzystywaniu systemów AI w danym procesie oraz o tym, że ostateczne rozstrzygnięcia są podejmowane przez właściwy organ lub upoważnionego pracownika, a nie przez system.

W raporcie w tabeli przedstawiono co należy robić, używając modeli AI, a co jest zabronione. Wymieniono np. że do narzędzi AI nie należy wprowadzać numerów PESEL, pełnych imion i nazwisk ani adresów zamieszkania. Za to materiały wykorzystywane z użyciem AI powinny być przygotowywane w wersji pozbawionej danych identyfikujących, z zastosowaniem oznaczeń technicznych (np. „Wnioskodawca A” lub „Autor”).

W przewodniku opisano też proces wdrażania systemu AI.

Według autorów przewodnika najpierw należy ocenić czy AI rzeczywiście jest nam potrzebna. MC przygotowało pytania, które pomogą w tej ocenie. Drugim etapem według resortu jest wybór odpowiedniego rodzaju AI. A kolejnym przygotowanie danych. Według resortu, zakres przygotowania danych zależy od rodzaju wykorzystywanego rozwiązania AI. W przypadku narzędzi opartych na gotowych, wcześniej przygotowanych modelach może on ograniczać się do zapewnienia zgodności z zasadami ochrony danych przy wprowadzaniu informacji do systemu. Pełne opracowanie zbiorów danych (w tym ich etykietowanie i testowanie) jest natomiast konieczne przede wszystkim wtedy, gdy model ma być dopasowywany na danych pochodzących z urzędu.

Następnie należy wybrać odpowiednie narzędzie lub system AI i rozpocząć testy na prawdziwych przykładach. Zanim system AI zostanie włączony do codziennej pracy urzędu, powinien zostać przetestowany na rzeczywistych sprawach, które nie były wykorzystywane na etapie przygotowania lub dopasowywania modelu. Celem tych testów jest sprawdzenie czy system działa z oczekiwaną jakością, w sposób powtarzalny oraz bez nieuzasadnionej stronniczości wobec określonych grup obywateli lub typów spraw.

MC przypomina też, że trzeba pamiętać, że ostateczna odpowiedzialność za treść pisma, komunikatu lub decyzji administracyjnej zawsze spoczywa na człowieku, a nie na systemie AI, co jest również zgodne z wymaganiami nadzoru człowieka określonymi w AI Act. Oznacza to konieczność zapewnienia, aby osoby korzystające z systemu posiadały odpowiednie kompetencje do krytycznej oceny jego podpowiedzi oraz możliwość ich modyfikacji lub całkowitego odrzucenia.

Po uruchomieniu systemu AI konieczne jest zapewnienie okresowego przeglądu i ocena narzędzia lub systemu w praktyce.

W przewodniku podano też przykłady zastosowań modeli AI, takie jak np. streszczanie długich fragmentów czy wstępne rozeznanie w temacie. W przewodniku znajdziemy również instrukcję jak prowadzić konstruktywną rozmowę z modelem AI.

Przewodnik przestrzega tez przed zagrożeniami ze strony AI takimi jak np. halucynacje, występujące czasem stronniczość i uprzedzenia oraz to, że niektóre modele nie mają dostępu do bieżących informacji. Inne wady AI to brak zrozumienia kontekstu oraz zalew wtórnych treści generowanych przez AI.

Badanie „AI w e-administracji publicznej” przeprowadzono w październiku i listopadzie 2025 przez NASK na przedstawicielach urzędów centralnych i samorządowych. Na pytanie „Jak często, według Pana/Pani subiektywnego odczucia, ma Pan/Pani kontakt z technologiami sztucznej inteligencji?” odpowiedziało 5576 osób.

Autopromocja
381367mega.png
381364mega.png
381208mega.png
Źródło: GazetaPrawna.pl / Dziennik Gazeta Prawna

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.