„Eksperyment” krakowskiego radia budzi uzasadnione kontrowersje. Wykorzystywanie AI w pracy, która wcześniej była wykonywana przez ludzi, już się dzieje, choć nie zawsze to widać. Przykładem mogą być boty zastępujące specjalistów ds. obsługi klienta.
Jednocześnie brakuje przepisów, które regulowałyby tę konkretną sytuację i zakazywałyby pracodawcom redukcji stanowisk, a później zastępowania ich narzędziami opartymi na sztucznej inteligencji. Zastosowanie mają więc zasady ogólne.
Umowę o pracę można zakończyć, np. składając wypowiedzenie. Pracodawca musi podać w nim konkretną i prawdziwą przyczynę rozwiązania umowy. W tej indywidualnej sytuacji przyczyną może być np. likwidacja stanowiska pracy będąca wynikiem podjęcia decyzji o reorganizacji funkcjonowania przedsiębiorstwa.
Jeśli pracodawca zatrudnia powyżej 20 osób, poza kodeksem pracy musi przestrzegać przepisów ustawy o szczególnych zasadach rozwiązywania z pracownikami stosunków pracy z przyczyn niedotyczących pracowników. Wymagają one od niego wypłacenia ustawowej odprawy pieniężnej, a w razie zwolnienia większej liczby osób w krótkim czasie – przeprowadzenia szczególnej procedury zwolnień grupowych. Jeżeli pracodawca nie zwalniałby wszystkich pracowników zajmujących dane stanowisko lub pracujących w tym samym dziale, musi wskazać, jak wybierał osoby do zwolnienia. Nie można jednak zwolnić każdego, ponieważ są pracownicy, którzy mają szczególne prawa, np. osoby w wieku przedemerytalnym. Co ważne, jeśli zostaną spełnione wszystkie formalności, to sąd pracy nie będzie mógł ingerować w decyzję biznesową dotyczącą reorganizacji przedsiębiorstwa.
To zależy. W przypadku gdyby błąd AI wyrządził szkodę osobie trzeciej, czyli np. klientowi przedsiębiorcy, to ten przedsiębiorca byłby zobowiązany do jej naprawienia. Byłoby tak samo, jeśli taka szkoda wynikłaby z winy pracownika – w stosunku do osób trzecich to zawsze pracodawca odpowiada za naprawienie szkody wyrządzonej przez pracownika. Dopiero wtórnie, następczo, pracownik może zostać pociągnięty przez pracodawcę do odpowiedzialności regresowej. Jest ona ograniczona do trzykrotności wynagrodzenia w przypadku winy nieumyślnej pracownika. Tych ograniczeń nie ma natomiast w przypadku winy umyślnej. Z kolei jeżeli pracownik wskutek użycia narzędzia opartego na AI wyrządziłby szkodę pracodawcy, np. przez ujawnienie informacji poufnych zadanych w prompcie, będzie odpowiadał przed pracodawcą za tę szkodę na takich samych zasadach.
Jak najbardziej. Warto już dzisiaj wprowadzić w firmach odpowiednie regulacje dotyczące wykorzystywania AI przy pracy – należy ustalić, jakie programy mogą być używane, do jakich czynności i na jakich zasadach, albo wprost zakazać ich wykorzystywania. Częstą praktyką jest też zobowiązywanie pracowników do przedstawiania listy zadań, do których wykonania użyto narzędzi AI.
Poza tym warto uczulać pracowników, zwracając im uwagę na to, że nieautoryzowane używanie narzędzi AI może narazić pracodawcę na ryzyko, czy to w zakresie ochrony danych osobowych, nabycia praw autorskich, czy poufności. W przypadku niektórych narzędzi ich twórcy wprost przecież wskazują, że wpisane do nich dane są wykorzystywane dalej i mogą zostać upublicznione. Niezbędne mogą się okazać szkolenia, nie tylko takie, które pokażą pracownikom, jak można efektywnie wykorzystywać AI w ich pracy, lecz także dotyczące bezpieczeństwa danych.
To zależy, o jakich pracodawcach mówimy. Jeśli chodzi o firmy, które tworzą narzędzia AI, to niewątpliwie AI Act będzie miał wpływ na ich dalszą działalność. Rozporządzenie nakłada bowiem wiele obowiązków na twórców tego typu oprogramowania, a nie na ich użytkowników. Te kwestie nie dotyczą jednak praw pracowniczych ani relacji między pracownikiem a pracodawcą, lecz są związane z tym, jaki jest profil działalności danego przedsiębiorcy.
Z AI Act dla pracodawców użytkowników narzędzi opartych na AI wynika jednak jeden ważny obowiązek. Będą oni zobowiązani do poinformowania przedstawicieli pracowników i samych pracowników, że w stosunku do nich są stosowane systemy AI wysokiego ryzyka. A systemy wysokiego ryzyka to m.in. te, które są przeznaczone do rekrutacji i wyboru kandydatów, a także do podejmowania decyzji o warunkach pracy, awansach czy rozwiązaniu umowy o pracę. Systemy wysokiego ryzyka to również te, które w sposób spersonalizowany przydzielają zadania na podstawie indywidualnych zachowań, cech osobowości lub charakteru, oraz te wykorzystywane do monitorowania pracowników. Zgodnie z AI Act ten obowiązek zaktualizuje się 2 sierpnia 2027 r. Jednak może się zdarzyć, że przepisy odnoszące się do tej kwestii zaczną u nas obowiązywać wcześniej. Dwa lata temu w polskim Sejmie rozważano już zmiany w ustawie o związkach zawodowych (druk nr 2642), które miałyby dać organizacjom związkowym prawo do informacji o algorytmach i systemach AI używanych do podejmowania decyzji wpływających na pracę i wynagrodzenia. Teraz ten projekt został ponownie wniesiony pod obrady Sejmu i oczekuje na I czytanie (druk nr 439).
Warto przy tym wspomnieć również o tym, że w Polsce trwają prace nad projektem ustawy o systemach sztucznej inteligencji, która ma m.in. dać podstawy do powołania nowego organu, nadzorującego rynek systemów sztucznej inteligencji. Ma ona także określać kary za łamanie przepisów AI Act i tej ustawy.
Będzie on musiał podjąć odpowiednie środki techniczne i organizacyjne w celu zapewnienia, aby były one wykorzystywane zgodnie z dołączoną do nich instrukcją obsługi. Takim środkiem będzie powierzenie nadzoru nad systemem osobie z odpowiednim przeszkoleniem – dlatego może się okazać konieczne utworzenie nowego etatu. Ta osoba będzie sprawdzać, jak się korzysta z narzędzi sztucznej inteligencji, aby unikać takich problemów jak dyskryminacja czy niewłaściwe przechowywanie wyników AI. ©℗