Posiłkowaniu się przez pracowników sztuczną inteligencją nie towarzyszą odpowiednie przepisy. Wielu pracodawców nie ma świadomości, że brak narzędzi minimalizujących ryzyko może powodować np. wyciek danych czy szkody materialne. Pora, by ta problematyka zagościła na stałe w regulaminach pracy.
Rozwiązania wykorzystujące systemy sztucznej inteligencji stają się codziennością dla wielu przedsiębiorców. Minimalizują koszty, zwiększają szybkość działania i pozwalają na bardziej wydajną organizację pracy. Korzyściom wynikającym z zastosowania generatywnej sztucznej inteligencji towarzyszy jednak pewne ryzyko prawne, o czym nie wszyscy pracodawcy i pracownicy wiedzą. Z naszych doświadczeń wynika, że popularność takich narzędzi jak ChatGPT nie oznacza, że pracodawcy w sposób świadomy i oficjalny dopuszczają ich stosowanie. Jednak w praktyce wielu pracowników może wspomagać swoją pracę powszechnie dostępnymi systemami AI. A to dla pracodawców oznacza, że powinni rozważyć, w jaki sposób zminimalizować ryzyka związane z efektami takiej pracy i odpowiedzialnością za jej wynik. Chodzi zarówno o przypadki, gdy pracodawca akceptuje wykorzystywanie AI, jak i o takie, gdy pracownicy samowolnie wykorzystują to narzędzie przy wykonywaniu obowiązków pracowniczych.
Już teraz można wskazać główne problemy związane z użyciem sztucznej inteligencji i wprowadzić odpowiednie środki zaradcze, aby zapobiec negatywnym skutkom.
Jakość informacji
Zarówno ChatGPT, jak i podobne konkurencyjne narzędzia wykorzystują dostępne w internecie dane. Już samo w sobie może to powodować, że podawane przez niego informacje są nieprawdziwe, nieaktualne lub nieodpowiednie do danej sytuacji. Obserwowane jest również zjawisko tzw. halucynacji, czyli podawanie informacji „zmyślonych”, które jednak wyglądają na wiarygodne. To może prowadzić do błędów w pracy lub podejmowania decyzji na podstawie fałszywych informacji. Ponadto opisywane narzędzie nie zawsze rozumie pełen kontekst i może interpretować pytania lub instrukcje w sposób nieodpowiadający intencjom pytającego. To z kolei może prowadzić do błędnych odpowiedzi lub niewłaściwego wykonania zadań. Co równie istotne, w przypadku pracy w dziedzinach wymagających specjalistycznej wiedzy chatboty oparte na ogólnych modelach językowych mogą nie być wystarczająco kompetentne w generowaniu precyzyjnych odpowiedzi.
Nie mogąc zmienić właściwości narzędzia, pracodawcy mogą jednak wymusić ludzką kontrolę wyników działań pracowników korzystających z ChatGPT. Potrzebne jest w tym celu zmodyfikowanie regulaminu pracy lub innego aktu określającego prawa i obowiązki pracownika przez wprowadzenia obowiązku samodzielnej i kompleksowej weryfikacji źródeł pozyskiwanych informacji. Pracodawca może zatem dopuścić wspomaganie pracownika w codziennych obowiązkach przez ogólnie dostępną wersję ChatGPT lub innych modeli generatywnych, ale z jednoczesnym obowiązkiem weryfikacji uzyskanych w ten sposób informacji.
Jednoznaczne określenie takiego obowiązku pozwoli uniknąć problemów dotyczących ewentualnej odpowiedzialności za nieprawidłowe wykonanie zadań przez pracownika. Warto również przeprowadzić odpowiednie szkolenia warsztatowe z pracownikami, pokazujące problem halucynacji i sposobów radzenia sobie z tym zjawiskiem.
Część przedsiębiorców może jednak po prostu zakazać stosowania ChatGPT. Tego typu rozwiązania będą jednak w mniejszości, bo unikanie stosowania AI będzie nieopłacalne. Wtedy jednak, gdy ze względu na szczególne względy pracodawcy wprowadzenie takiego zakazu będzie potrzebne, możliwe jest skuteczne sprawowanie kontroli zachowania pracowników poprzez programy typu bossware. Nie ma jednak narzędzi informatycznych pozwalających ocenić, czy dany tekst, analiza statystyczna itp. został stworzony przez AI, czy przez pracownika
Odpowiedzialność za efekt pracy
Kolejny problem jest w istocie pochodną problemów związanych z jakością informacji uzyskiwanych za pomocą ChatGPT. Brak odpowiedzialności i umiejętności podejmowania moralnych lub etycznych decyzji może prowadzić do wygenerowania treści nieodpowiednich lub nieprawdziwych. Rodzi to pytanie o odpowiedzialność zarówno samego pracownika (za efekty pracy), jak i pracodawcy (przedsiębiorcy) wobec swoich kontrahentów za efekty wykonywanej pracy. Można tu wyróżnić wiele zagadnień, począwszy od odpowiedzialności materialnej pracowników po mechanizmy zawarte w odpowiednio ukształtowanym regulaminie pracy, zmniejszające ryzyko szkody. Nie sposób opisać wszystkich możliwych rozwiązań, dość powiedzieć, że chociażby zasygnalizowana wcześniej możliwość uczestnictwa w szkoleniu na temat korzystania z modeli generatywnych AI może wpłynąć na odpowiedzialność pracownika za szkodę. Zgodnie z art. 117 par. 1 ustawy z 26 czerwca 1974 r. ‒ Kodeks pracy (t.j. Dz.U. z 2023 r. poz. 1465) pracownik nie ponosi odpowiedzialności za szkodę w takim zakresie, w jakim pracodawca lub inna osoba przyczynili się do jej powstania albo zwiększenia. Przyczynienie się pracodawcy może polegać właśnie na tym, że mając sygnały o korzystaniu przez pracowników z ChatGPT, zaniechał przeprowadzenia odpowiednich szkoleń.
Bezpieczeństwo danych
Kolejnym niezwykle istotnym zagadnieniem jest bezpieczeństwo danych osobowych i informacji w kontekście wykorzystywania ChatGPT. Przetwarzanie danych osobowych może stwarzać ryzyko naruszenia prywatności i bezpieczeństwa danych pracowników oraz klientów, a także uchybiać zasadom bezpieczeństwa informacji. Pracownik, chcąc wesprzeć się chatem, może np. do niego wpisać dane osobowe kontrahentów pracodawcy lub podać informacje będące tajemnicą przedsiębiorstwa. W takiej sytuacji powstaje bardzo wysokie ryzyko utraty kontroli nad danymi, a w konsekwencji zaistnienia incydentu w zakresie bezpieczeństwa zarówno danych osobowych, jak i informacji.
W odniesieniu do danych osobowych pracodawcy powinni rozważyć wprowadzenie w regulaminie pracy bezwzględnego zakazu wpisywania przez pracowników danych osobowych i innych danych wrażliwych w okna dialogowe AI. Dane te są bowiem przesyłane innym podmiotom niż te, które mają uprawnienia do ich przetwarzania. Pracownicy powinni być przeszkoleni w tym zakresie.
Z kolei pracodawcy powinni niezwłocznie zweryfikować polityki ochrony danych oraz polityki ochrony informacji pod kątem kolejnej możliwości incydentu w postaci wycieku danych (wpisania danych przez pracowników w okna dialogowe AI).
Wprowadzenie szkoleń i materiałów edukacyjnych
Niezależnie od wdrożenia nowych zasad w ramach wewnętrznych polityk równolegle pracownicy powinni być odpowiednio przeszkoleni w zakresie korzystania z narzędzi typu ChatGPT, aby uniknąć błędów i zwiększyć wydajność. Rzecz jasna przeprowadzenie dodatkowych szkoleń lub stworzenie materiałów edukacyjnych może wymagać dodatkowego nakładu czasu i zasobów, ale w kontekście potencjalnych strat wynikających z nieprawidłowego wykonania zadań lub incydentów naruszenia bezpieczeństwa danych i informacji tego rodzaju koszt nie stanowi znaczącego obciążenia.
Szkolenia powinny być przeprowadzone przez podmiot specjalizujący się w prawie pracy. Wykorzystanie narzędzi typu ChatGPT w sposób nierozłączny wiąże się bowiem z prawami i obowiązkami pracownika, a także z odpowiedzialnością pracowniczą.
Odpowiednie regulacje wewnętrzne
Podsumować to wszystko można tak: pierwszym krokiem przy wprowadzeniu lub dopuszczeniu wykorzystywania ChatGPT do wykonywania obowiązków pracowniczych powinna być przede wszystkim analiza prawna. Jeżeli na jej podstawie pracodawca dojdzie do wniosku, że wykorzystywanie takich narzędzi jak ChatGPT w jego organizacji jest dopuszczalne, to następnie powinna zostać przeprowadzona analiza, w jakim zakresie taka technologia może być używana przy wykonywaniu obowiązków pracowniczych. Następnie pracodawca powinien zweryfikować wewnętrzne akty prawne, w szczególności regulaminy pracy, polityki ochrony danych i informacji oraz wszelkich dokumentów towarzyszących (m.in. analiza ryzyka). Dopiero po przeprowadzeniu kompleksowych działań prawnych pracodawcy mogą podjąć odpowiedzialną decyzję o dopuszczeniu wykorzystywania w ramach wykonywania zadań pracowniczych takich narzędzi jak ChatGPT. Bez tego rodzaju analizy wykorzystywanie narzędzia przez pracowników stanowi znaczące zagrożenie dla funkcjonowania przedsiębiorstwa. ©℗
!Pracownik nie ponosi odpowiedzialności za szkodę w takim zakresie, w jakim pracodawca lub inna osoba przyczynili się do jej powstania albo zwiększenia. Przyczynienie się pracodawcy może polegać na tym, że mając sygnały o korzystaniu przez pracowników z ChatGPT, zaniechał przeprowadzenia odpowiednich szkoleń.