- AI ACT reguluje użycie systemów AI także w zatrudnieniu
- Sztuczna inteligencja w kadrach może zwiększać nierówności
- Pracodawca ma obowiązek poinformować pracownika, że ocenia go AI
- Użycie AI w kadrach reguluje też dyrektywa o pracy platformowej
- RODO a przepisy regulujące użycie AI w firmach
Pracodawca nie wyręczy się sztuczną inteligencją przy rozwiązaniu umowy o pracę. Bez względu na rolę AI w procesach kadrowych to pracodawca decyduje o zwolnieniu pracownika i ponosi odpowiedzialność za tę decyzję.
Oświadczenie pracodawcy o rozwiązaniu umowy musi być w formie pisemnej lub równoważnej, to znaczy podpisane przez pracodawcę lub upoważnioną osobę podpisem mokrym lub elektronicznym kwalifikowanym. W przypadku umów o pracę na czas określony i nieokreślony musi zawierać także uzasadnienie.
AI ACT reguluje użycie systemów AI także w zatrudnieniu
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13 czerwca 2024 r., czyli tzw. AI Act, wprowadza normy dotyczące rozwoju i wykorzystywania sztucznej inteligencji, także w kontekście zatrudnienia. Czym jest AI według rozporządzenia?
To system maszynowy (działający z wykorzystaniem maszyn, np. komputera), który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu. System ten na potrzeby wyraźnych lub dorozumianych celów wnioskuje także, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.
Warto podkreślić, że systemy AI wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, m.in. do podejmowania decyzji o rozwiązaniu umownego stosunku pracy, klasyfikowane są jako systemy wysokiego ryzyka. Uzasadnieniem takiej klasyfikacji jest ich potencjalny, daleko idący wpływ na przyszłość zawodową, źródła utrzymania oraz prawa pracownicze osób objętych ich działaniem.
Pracodawcy korzystający z tego typu narzędzi będą zobowiązani do spełnienia rygorystycznych wymogów dotyczących przejrzystości, bezpieczeństwa i niedyskryminacji wynikających z AI Act. Wiele obowiązków nakładanych jest przez AI Act również na inne podmioty, w tym dostawców, dystrybutorów i importerów systemów AI.
Sztuczna inteligencja w kadrach może zwiększać nierówności
Chociaż mogło się wydawać, że wprowadzenie sztucznej inteligencji do działów kadr zwiększy obiektywność ocen pracowników, okazuje się, że systemy oparte na sztucznej inteligencji mogą nie tylko powielać istniejące nierówności, ale nawet je wzmacniać. Dane historyczne, na których opierają się systemy, mogą np. faworyzować określone grupy ze względu na wiek, płeć czy wykształcenie. Powoduje to ryzyko naruszenia zasady równego traktowania, wynikającej z kodeksu pracy.
Co więcej, brak wiedzy po stronie pracodawców na temat tego, w jaki sposób systemy AI dochodzą do swoich wniosków, może powodować, że trudno będzie im wykryć potencjalną dyskryminację. Kluczowe jest zatem, aby pracodawcy regularnie weryfikowali dane wprowadzane do systemów i kontrolowali ich działanie pod kątem błędów lub stronniczości.
Jednym z zagrożeń przy wykorzystaniu AI w ocenach pracowniczych jest również profilowanie, które wiąże się z ryzykiem błędnej oceny. Systemy oparte na statystycznych modelach analizują dane zbiorcze i przypisują pracownikom określone cechy na podstawie wzorców zachowań. Takie podejście może pomijać indywidualne cechy i specyficzne okoliczności, zwiększając prawdopodobieństwo niesprawiedliwych ocen, a w konsekwencji – potencjalnej dyskryminacji.
Pracodawca ma obowiązek poinformować pracownika, że ocenia go AI
Jeśli decyzja dotycząca pracownika została podjęta z pomocą systemu AI o wysokim ryzyku, a pracownik uważa, że decyzja ta oddziałuje na niego na tyle znacząco, że ma to niepożądany wpływ na jego zdrowie, bezpieczeństwo lub prawa podstawowe, w świetle AI Act ma on prawo dowiedzieć się, jak AI była zaangażowana w proces decyzyjny. Pracodawca jest zobowiązany jasno i merytorycznie wyjaśnić rolę tego systemu AI w procedurze podejmowania decyzji oraz głównych elementów podjętej decyzji.
Ponadto, zgodnie z AI Act, organy państwowe mają prawo sprawdzić, jak wykorzystywane są systemy AI wysokiego ryzyka, szczególnie pod kątem ochrony praw podstawowych i niedyskryminacji. W Polsce dostęp do takich informacji mają m.in. Państwowa Inspekcja Pracy oraz prezes Urzędu Ochrony Danych Osobowych.
Użycie AI w kadrach reguluje też dyrektywa o pracy platformowej
AI Act to jednak niejedyny akt prawa unijnego, który ma służyć ochronie pracowników przed zautomatyzowanym podejmowaniem decyzji (nie tylko przez algorytmy wykorzystujące sztuczną inteligencję). Nowa dyrektywa Parlamentu Europejskiego i Rady (UE) 2024/2831 z 23 października 2024 r. w sprawie poprawy warunków pracy za pośrednictwem platform wyraźnie zaznacza, że automatyzacja nie może zastąpić człowieka przy decyzjach dotyczących pracy za pośrednictwem platform.
Przykładami pracy platformowej są usługi przewozu osób czy dostawy jedzenia zamawiane przez aplikacje, które łączą dostawcę z usługobiorcą. Każda decyzja o ograniczeniu, zawieszeniu lub rozwiązaniu stosunku umownego lub o ograniczeniu, zawieszeniu bądź usunięciu konta osoby wykonującej pracę za pośrednictwem platform albo każda inna decyzja powodująca równoważną szkodę musi być podejmowana przez człowieka.
Dyrektywa przewiduje również, że cyfrowe platformy pracy bez zbędnej zwłoki, a najpóźniej w dniu, w którym dana decyzja stała się skuteczna, przedstawiają osobie wykonującej pracę za pośrednictwem platform pisemne uzasadnienie takiej decyzji podjętej lub wspieranej przez zautomatyzowany system decyzyjny. Osoby wykonujące pracę za pośrednictwem platform mają prawo zwrócić się z wnioskiem do cyfrowej platformy pracy o zweryfikowanie decyzji.
Bez zbędnej zwłoki, a w każdym razie w terminie dwóch tygodni od otrzymania wniosku, cyfrowa platforma pracy jest zobowiązana do odpowiedzi na wniosek. Odpowiedź powinna być dostatecznie precyzyjna i odpowiednio uzasadniona. Przepisy te pokazują, że unijny ustawodawca dostrzega ryzyka związane z automatyzacją, a pracownik nie może być pozbawiony prawa do ludzkiej kontroli nad decyzją.
RODO a przepisy regulujące użycie AI w firmach
Co do zasady RODO stosuje się we wszystkich przypadkach przetwarzania danych osobowych. Pamiętać należy o art. 22 ust. 1 RODO stanowiącym, że osoba, której dane dotyczą, ma prawo nie podlegać decyzji opartej wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, jeśli decyzja taka wywołuje wobec niej skutki prawne lub w podobny sposób istotnie na nią wpływa.
RODO przewiduje wyjątki, gdydecyzja może być oparta wyłącznie na zautomatyzowanym przetwarzaniu. Jest tak m.in. w wypadku, gdy decyzja jest niezbędna do zawarcia lub wykonania umowy między osobą, której dane dotyczą, a administratorem lub opiera się na wyraźnej zgodzie osoby, której dane dotyczą. Administrator jest jednak obowiązany wdrożyć właściwe środki ochrony praw, wolności i prawnie uzasadnionych interesów osoby, której dane dotyczą, a co najmniej prawa do uzyskania interwencji ludzkiej ze strony administratora, do wyrażenia własnego stanowiska i do zakwestionowania tej decyzji.
Naruszenie przepisów RODO może skutkować odpowiedzialnością prawną pracodawcy, zarówno w postaci sankcji nakładanych przez organ nadzorczy (prezesa Urzędu Ochrony Danych Osobowych), jak i roszczeń zgłaszanych przez pracowników.
Odpowiedzialność za decyzje dotyczące pracownika spoczywa na pracodawcy
Rozwiązanie umowy o pracę, szczególnie gdy następuje z inicjatywy pracodawcy, to moment zatrudnienia, w którym najczęściej pojawiają się konflikty między pracownikiem a pracodawcą. W związku z tym wykorzystanie AI w procesie zwolnień wymaga wyjątkowej ostrożności.
Sztuczna inteligencja w granicach dopuszczonych prawem może pełnić rolę wsparcia w procesie zwolnienia: analizować dane, wskazywać potencjalne ryzyka lub obszary wymagające poprawy, a także pomagać w przygotowaniu dokumentacji. Formalnie jednak decyzja o zwolnieniu pozostaje w rękach człowieka. Pracownik, któremu wręczono oświadczenie o rozwiązaniu umowy, ma prawo odwołać się do sądu pracy. Ciężar udowodnienia zasadności przyczyny stanowiącej podstawę wypowiedzenia spoczywa zaś na pracodawcy. Niezależnie od roli, jaką sztuczna inteligencja odgrywa w procesach kadrowych, to pracodawca ponosi pełną odpowiedzialność za decyzję o zwolnieniu. ©℗
Wysokie kary pieniężne
AI Act przewiduje wysokie kary pieniężne dla podmiotów stosujących systemy AI i innych wskazanych w rozporządzeniu podmiotów, w tym dostawców, importerów czy dystrybutorów. Między innymi nieprzestrzeganie zakazu praktyk w zakresie AI, o których mowa w art. 5 (praktyk zakazanych), podlega administracyjnej karze pieniężnej w wysokości do 35 mln euro lub – jeżeli sprawcą naruszenia jest przedsiębiorstwo – w wysokości do 7 proc. jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego w zależności od tego, która z tych kwot jest wyższa.
Nieprzestrzeganie przepisów dotyczących innych wybranych obowiązków wynikających z AI Act, m.in. przez dostawców, upoważnionych przedstawicieli, importerów, dystrybutorów lub podmiotów stosujących systemy AI, podlega administracyjnej karze pieniężnej w wysokości do 15 mln euro lub – jeżeli sprawcą naruszenia jest przedsiębiorstwo – w wysokości do 3 proc. jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego w zależności od tego, która z tych kwot jest wyższa. ©℗