Badanie to na zlecenie prezesa Urzędu Ochrony Danych Osobowych zrealizował Społeczny Zespół Ekspertów przy Prezesie UODO – Grupa Robocza ds. SI. Badanie zostało przeprowadzone na 492 organizacjach. Badano głównie instytucje publiczne (439) jak i prywatne.
42,7 proc. badanych organizacji nie korzysta z narzędzi sztucznej inteligencji. W codziennej działalności AI używa 16,7 proc. respondentów. Niewiele mniej organizacji, bo 16,3 proc., jest zainteresowanych użyciem sztucznej inteligencji, ale nie wiedzą, jak zacząć. 12,4 proc. badanych planuje wdrożenie AI w najbliższym czasie, a 12 proc. jest w fazie testów.
Z raportu wynika też, że badanie w sektorze prywatnym wskazało na różnice w podejściu i świadomości pomiędzy dużymi a małymi przedsiębiorcami oraz branżami, a także na ewolucję trendów od początkowego entuzjazmu do bardziej dojrzałego wdrożenia rozwiązań. Część przedsiębiorców (szczególnie tych większych, posiadających zasoby, lub tych merytorycznie związanych z AI) podchodzi do AI z większą dojrzałością, m.in. opracowując polityki wewnętrzne i skupiając się na konkretnych zastosowaniach, a nie na ogólnych modelach. Równocześnie w opinii części respondentów początkowy entuzjazm opadł, a przedsiębiorcy zaczęli dostrzegać koszty i złożoność wdrożeń. Zwrócono również uwagę na obawy dotyczące bezpieczeństwa danych i zaufania do dostawców narzędzi AI, szczególnie w kontekście narzędzi od dużych spółek technologicznych.
Badacze zapytali też organizacje o to, do czego używają sztucznej inteligencji. Najwięcej instytucji (41,2 proc.) używa AI do automatyzacji procesów administracyjnych. 31 proc. wskazało, że używa jej do analityki danych i prognozowania. Do personalizacji usług sztucznej inteligencji używa 11,1 proc. badanych instytucji. 28 proc. badanych używa AI do obsługi klienta lub obywatela, np. jako chatboty. Do wsparcia w badaniach i rozwoju sztuczną inteligencję wykorzystuje 28,2 proc.
Z badania jakościowego wynika, że
● AI jest wykorzystywana przede wszystkim jako narzędzie usprawniające procesy administracyjne i komunikacyjne, a nie jako technologia decyzyjna lub wysokiego ryzyka.
● Zastosowania o charakterze eksperckim i specjalistycznym rosną, ale pozostają znacząco mniej rozpowszechnione.
● Przewagę mają zastosowania operacyjne, wspierające codzienną pracę pracowników i urzędników, tym co wykazało badanie jakościowe mające na celu zwiększenie efektywności pracy i komunikacji wewnątrz organizacji.
● Niedoszacowanie niektórych obszarów użycia, zwłaszcza w kontekście prac biurowych, w tym odnoszących się do tworzenia tekstów, może wynikać ze zjawiska niekontrolowanego wykorzystywania AI przez pracowników, tj. tzw. shadow AI.
W badaniu nie mogło zabraknąć pytania dotyczącego danych osobowych. Badacze zapytali, czy w organizacjach opracowanie systemów AI jest lub będzie związane z przetwarzaniem danych osobowych.
Jak wynika z badania, 41 proc. organizacji uważa, że opracowywanie własnych systemów AI nie wiąże się z przetwarzaniem danych osobowych lub nie potrafi ocenić tej kwestii. Dodatkowo ponad 30 proc. badanych nie ma doświadczenia z opracowaniem systemów AI. W ocenie UODO są to najbardziej niepokojące wnioski z raportu. Odpowiedzi te najczęściej udzielone zostały przez:
● jednostki organizacyjne samorządu,
● administrację lokalną,
● szkoły i uczelnie,
● instytucje kultury.
Z badania wynika również, że łącznie 58,5 proc. podmiotów uważa, że wykorzystywanie AI nie wiąże się z danymi osobowymi lub nie umie tego ocenić.
W ocenie autorów raportu zjawisko nieidentyfikowania związku między AI a danymi osobowymi, uwzględniając wskazywany zakres obecnego lub planowanego wykorzystywania narzędzi, jest systemowe, obejmuje większość badanych sektorów i wskazuje na istotną lukę kompetencyjną, która odnosić się może zarówno do kwestii podstawowych, definicyjnych (pojęcie danych osobowych), jak i kwestii zarządzania danymi.
95,9 proc. organizacji ocenia się jako niegotowych lub niepewnych, czy są gotowe do stosowania przepisów RODO w kontekście wykorzystania AI.
Za bardzo dobrze przygotowanych uważa się jedynie 4,1 proc. „Raczej przygotowanych” jest 25 proc., a za raczej nieprzygotowanych uważa się 20,3 proc. badanych. Zupełnie nieprzygotowanych jest w swoim mniemaniu 5,7 proc. organizacji, a 44,9 proc. instytucji zaznaczyło odpowiedź „trudno powiedzieć”.
Autorzy raportu ocenili, że wynik wskazuje na poważną lukę kompetencyjną i/lub organizacyjną, która może znacząco ograniczać wdrażanie technologii opartych na sztucznej inteligencji. Brak pewności co do zgodności z regulacjami może tworzyć klimat ostrożności i ryzyka, co w praktyce może prowadzić do wstrzymywania inicjatyw technologicznych oraz utrudnia rozwój innowacji w instytucjach.
Metodologia:
Badanie przeprowadzono w dwóch etapach: - w okresie 21 października – 24 listopada 2025 r. metodą ilościową (ankieta online), na próbie 492 organizacji.
- w styczniu 2026 r. metodą jakościową (zogniskowane wywiady grupowe) dla 7 organizacji parasolowych sektora prywatnego.
Próbę badania ilościowego zdominował sektor publiczny (439 organizacji), w tym jednostki organizacyjne samorządu, administracja lokalna, szkoły, uczelnie, instytucje kultury i podmioty lecznicze. Podmioty prywatne oraz organizacje społeczne stanowiły łącznie 11 proc. próby. Strukturę tę należy traktować jako eksploracyjną — jej celem jest identyfikacja potrzeb, a nie odwzorowanie rynku. Komponent jakościowy badania jest odpowiedzią na potrzebę zgromadzenia większej wiedzy o potrzebach i wyzwaniach sektora prywatnego.