Wykorzystanie AI w pracy staje się faktem. Już 14 proc. osób używa jej codziennie, a 30 proc. kilka razy w tygodniu. Podobny odsetek osób korzysta z niej co najmniej kilka razy w miesiącu – wynika z badania „AI w pracy i szkole” przeprowadzonego przez serwis kariery InterviewMe.pl, z którego wynika jeszcze jeden wniosek, który może być zagrożeniem dla pracodawców. Badanie wskazuje bowiem, że co czwarty ankietowany korzysta z narzędzi AI w tajemnicy przed swoim przełożonym, a 42 proc. przyznaje, że przełożeni wiedzą o tym tylko częściowo. Tymczasem bywa tak, że pracownicy w celu otrzymania potrzebnej informacji karmią narzędzia sztucznej inteligencji danymi na temat firmy. Do kancelarii napływają w związku z tym pytania od pracodawców o to, jak mogą ukarać za to pracowników.

– Otrzymujemy zapytania o to, czy możliwe jest dyscyplinarne zwolnienie z pracy w sytuacji, gdy pracownik korzystał z narzędzi sztucznej inteligencji, przekazując mu dane firmy bez wiedzy i zgody pracodawcy – potwierdza dr Magdalena Zwolińska z kancelarii HRLS.

Tajne przez poufne, kiedy można zwolnić pracownika

Jednym z podstawowych obowiązków pracownika jest zachowanie w tajemnicy informacji, których ujawnienie mogłoby narazić pracodawcę na szkodę. Ujawnianie poufnych danych na zewnątrz organizacji będzie zatem stanowiło naruszenie podstawowych obowiązków pracowniczych. W niektórych okolicznościach takie naruszenie może mieć nawet charakter ciężki, a tym samym skutkować dyscyplinarnym rozwiązaniem umowy o pracę.

Nie każdy przypadek korzystania ze sztucznej inteligencji przez pracownika uzasadnia dyscyplinarkę. Radca prawny Aleksandra Woźniak, ekspertka od prawa pracy z kancelarii Banasik, Woźniak i Wspólnicy, podkreśla, że na podstawie art. 52 par. 1 pkt 1 kodeksu pracy pracodawca może rozwiązać umowę o pracę bez wypowiedzenia (z winy pracownika) w przypadku ciężkiego naruszenia przez pracownika podstawowych obowiązków pracowniczych. Żeby mówić o „ciężkim naruszeniu podstawowych obowiązków pracowniczych”, musi natomiast występować naruszenie albo zagrożenie interesów pracodawcy, a także zawinienie obejmujące zarówno bezprawność zachowania pracownika (naruszenie podstawowego obowiązku pracowniczego), naruszenie albo zagrożenie interesów pracodawcy oraz zawinienie obejmujące zarówno winę umyślną, jak i rażące niedbalstwo.

– Dlatego samo naruszenie podstawowego obowiązku pracowniczego nie stanowi podstawy do rozwiązania umowy o pracę w trybie dyscyplinarnym – podkreśla Aleksandra Woźniak.

Wskazuje na orzecznictwo Sądu Najwyższego, z którego również wynika, że samo przekazanie przez pracownika poza wewnętrzny serwer, system czy zasób pracodawcy informacji stanowiącej tajemnicę przedsiębiorstwa albo informacji i danych mających wymierną wartość dla firmy nie przesądza o naruszeniu podstawowego obowiązku zachowania w tajemnicy informacji, których ujawnienie mogłoby narazić pracodawcę na szkodę.

– Zdaniem Sądu Najwyższego w użytym w art. 52 par. 1 pkt 1 k.p. pojęciu ciężkie naruszenie podstawowych obowiązków pracowniczych mieszczą się trzy elementy, które muszą wystąpić łącznie. Samo zagrożenie lub naruszenie interesów pracodawcy nie może więc uzasadniać rozwiązania umowy o pracę bez wypowiedzenia. Podobnie nie uzasadnia rozwiązania umowy o pracę w tym trybie sama tylko bezprawność zachowania pracownika – przyznaje dr Magdalena Zwolińska, powołując się na wyrok SN z 22 marca 2016 r. (sygn. akt I PK 94/15).

Zatem, jak dodaje Aleksandra Woźniak, decydujące znaczenie w takiej sytuacji ma ocena, czy takie zachowanie pracownika służyło wykonywaniu jego obowiązków pracowniczych (a nie do innych celów) i stanowiło akceptowaną przez pracodawcę praktykę, wymuszoną realiami warunków pracy.

– Trudno bowiem uznać za bezprawne zachowanie pracownika, który wykonuje swoje obowiązki pracownicze, dostosowując się do ustalonego przez pracodawcę sposobu organizacji pracy. W takim przypadku to pracodawcę, a nie pracownika obciąża ewentualne ryzyko powstania szkody – mówi Aleksandra Woźniak i przyznaje, że dlatego tak ważne jest, aby pracodawcy w dobie gospodarki cyfrowej ustanawiali wewnętrzne procedury określające zasady korzystania przez pracowników ze sztucznej inteligencji przy świadczeniu pracy. Korzystanie ze sztucznej inteligencji wiąże się bowiem z wprowadzaniem danych do zewnętrznego systemu, które pozostają poza kontrolą pracodawcy.

Świadomość ryzyka

Doktor Katarzyna Kalata, radca prawny, specjalistka w dziedzinie prawa pracy oraz ubezpieczeń społecznych, zwraca uwagę, że kluczowe znaczenie ma też element świadomości pracownika. Wskazuje na wyrok Sądu Najwyższego z 25 czerwca 2025 r. (III PSKP 30/24), w którym jest mowa o tym, że warunkiem „ciężkiego” naruszenia jest stosunek psychiczny pracownika do skutków własnego działania – czyli to, czy wiedział albo co najmniej mógł i powinien przewidywać, że narusza podstawowe obowiązki i naraża pracodawcę na negatywne konsekwencje.

– W praktyce oznacza to, że dyscyplinarka może być zasadna tylko wtedy, gdy pracownik miał świadomość ryzyka. Jeżeli przekazywał do ChatGPT dane poufne, dane osobowe lub informacje objęte tajemnicą przedsiębiorstwa, wiedząc – albo przy zachowaniu elementarnej staranności powinien wiedzieć – że są to dane, których nie wolno udostępniać na zewnątrz, wówczas można mówić o rażącym niedbalstwie, a nawet winie umyślnej. W takim układzie spełniona może być przesłanka ciężkiego naruszenia obowiązku lojalności i poufności – tłumaczy dr Katarzyna Kalata.

Natomiast brak polityk AI, szkoleń i jasnych reguł po stronie pracodawcy istotnie osłabia podstawy do skorzystania z art. 52 k.p. To jednak nie oznacza bezkarności. W takich przypadkach możliwe pozostają kary porządkowe, wypowiedzenie umowy o pracę, a w razie szkody – odpowiedzialność materialna pracownika. Jeżeli doszło do ujawnienia danych osobowych lub tajemnicy przedsiębiorstwa, odpowiedzialność może wykraczać poza prawo pracy.

Eksperci zauważają, że w ewentualnym sporze sądowym z pracodawcą pracownik mógłby opierać swoją argumentację, podnosząc, że jego zachowanie służyło wykonywaniu obowiązków pracowniczych (a nie realizacji jego własnych prywatnych celów) i stanowiło akceptowaną przez pracodawcę praktykę, nawet jeśli w tym zakresie obowiązywała w firmie wewnętrzna procedura, która nie była jednak powszechnie przestrzegana. W toku dokonywania oceny warto więc zweryfikować, z jakiej wersji ChatGPT pracownik korzystał, ponieważ różne wersje oferują odmienne zabezpieczenia danych. Poza tym warto sprawdzić, czy w ustawieniach systemu była włączona opcja pozwalająca na wykorzystywanie danych do trenowania modelu oraz czy była włączona opcja zapamiętywania rozmów oraz czy używał wersji przeznaczonej do wykorzystania biznesowego.

– Niestety nawet gdyby opcje trenowania modeli były wyłączone, a pracownik skorzystałby z wersji niewykorzystującej danych do dalszego trenowania AI, to jego działanie doprowadziło do przekazania danych poza systemy pracodawcy – mówi mec. Katarzyna Bando-Tylińska, ekspertka z kancelarii Banasik, Woźniak i Wspólnicy.

Dlatego niezwykle istotne jest uświadamianie pracowników o zagrożeniach wynikających z korzystania z systemów AI, jak i o zasadach obowiązujących u danego pracodawcy. ©℗

AI w praktyce
ikona lupy />
AI w praktyce / Dziennik Gazeta Prawna - wydanie cyfrowe