Dynamiczny rozwój sztucznej inteligencji sprawia, że staje się ona nieodłącznym elementem współczesnego środowiska pracy. Narzędzia oparte o sztuczną inteligencję okazują się pomocne przy wielu czynnościach. Mogą one ułatwiać wykonywanie powtarzalnych zadań czy też wspierać procesy rekrutacyjne, m.in. na etapie wstępnej selekcji kandydatów. Mimo tego, że sztuczna inteligencja niesie za sobą realne korzyści, należy pamiętać, że jej użycie wymaga rozsądnego i odpowiedzialnego podejścia. Jej niewłaściwe wykorzystywanie może prowadzić do poważnych konsekwencji prawnych w wielu obszarach.

Ochrona danych osobowych

Pracownicy korzystający ze sztucznej inteligencji muszą przestrzegać zasad wynikających z przepisów RODO. Przede wszystkim nie powinni oni przekazywać do tego typu narzędzi danych osobowych ani innych poufnych informacji. Wprowadzanie takich danych wiąże się z ryzykiem ich dalszego wykorzystania przez narzędzie, np. w wynikach innych użytkowników.

Niektóre narzędzia umożliwiają włączenie tzw. “trybu bezpiecznego”, w którym wprowadzane informacje nie są przechowywane ani dalej wykorzystywane. Jednak nawet taka funkcja nie gwarantuje, że wprowadzane dane nie będą używane dla wewnętrznych celów dostawcy narzędzia.

Z perspektywy RODO należy pamiętać, że to pracodawca pełni rolę administratora danych osobowych, np. swoich klientów. To on odpowiada za zapewnienie zgodności działania pracowników z zasadami ochrony danych osobowych. Aby uniknąć ryzyka nieuprawnionego ujawnienia danych, treści wprowadzane do narzędzia powinny być pozbawione jakichkolwiek informacji pozwalających na identyfikację danej osoby. Nie chodzi tutaj wyłącznie o usunięcie imienia i nazwiska - zgodnie z RODO dane osobowe to wszelkie informacje o zidentyfikowanej lub możliwej do zidentyfikowania osobie. Przykładowo mogą to być także dane dotyczące miejsca zamieszkania czy informacje o wykonywanym zawodzie.

Ponadto pracodawcy muszą wiedzieć, że niewłaściwe wykorzystywanie sztucznej inteligencji przez pracowników może prowadzić do ujawnienia tajemnic przedsiębiorstwa. Dlatego nie powinni wprowadzać oni do narzędzi poufnych danych finansowych, handlowych ani innych informacji niedostępnych publicznie.

Prawa majątkowe

Narzędzia sztucznej inteligencji są rozwijane z wykorzystaniem ogromnej liczby zbiorów danych, które często zawierają utwory chronione przez przepisy prawa autorskiego. W związku z tym istnieje zagrożenie, że treść wygenerowana przez sztuczną inteligencję może naruszać cudze autorskie prawa majątkowe, jeśli będzie zbyt podobna do istniejącego już utworu. W takich sytuacjach odpowiedzialność za ewentualne naruszenie ponosi osoba lub podmiot, wykorzystujący wygenerowany materiał, a nie dostawca narzędzia.

W praktyce trudno jest zweryfikować, czy powstały materiał stanowi kopię istniejącego utworu, co rodzi ryzyko możliwości nieświadomego naruszania cudzych autorskich praw majątkowych. Pracownicy nie powinni też wykorzystywać do generowania rezultatów treści, do których pracodawca nie posiada praw (np. materiałów otrzymanych od klienta, jeśli nie wskazano wyraźnie, że mogą one zostać użyte w narzędziu opartym o sztuczną inteligencję).

Warto również, aby pracodawca zachował szczególną ostrożność, gdy pracownicy tworzą przy użyciu sztucznej inteligencji teksty lub obrazy, których ochrona prawnoautorska jest dla niego istotna. Pracownicy powinni wprowadzać własne modyfikacje do wygenerowanych treści tak, aby nakład ich pracy miał wystarczająco istotny twórczy charakter. Z perspektywy pracodawcy jest to ważna kwestia, ponieważ nabywa on od pracowników autorskie prawa majątkowe do utworów stworzonych w ramach wykonywania przez nich obowiązków służbowych. Jeżeli pracownik nie posiada praw do materiałów, ich skuteczne przeniesienie na pracodawcę nie jest możliwe.

Pracownicy powinni wiedzieć, że zwykłe “kopiuj wklej” treści wygenerowanej przez sztuczną inteligencję nie nadaje im statusu twórcy. A co w przypadku, gdy pracownik wprowadza modyfikacje do takich materiałów?

Niektórzy sugerują, że aby stać się ich twórcą, wystarczy wprowadzić do narzędzia odpowiednią liczbę komend (tzw. promptów). Takie podejście należy traktować ostrożnie. Praktyka amerykańskiego Urzędu ds. Praw Autorskich pokazuje, że proste polecenia skierowane do narzędzia nie wystarczą, aby jego użytkownik został uznany za autora wygenerowanego materiału.

Ponadto sama liczba wprowadzonych promptów nie świadczy o twórczym wkładzie użytkownika. Przykładowo wskazuje na to wniosek Jasona Allena dotyczący rejestracji grafiki Théâtre D’opéra Spatial, który został odrzucony przez Urząd, mimo wprowadzenia przez wnioskodawcę 624 zmian do promptów. Urząd stwierdził, że ostateczny wygląd grafiki pozostawał poza kontrolą człowieka.

Odpowiedzialność pracodawcy w KP

W przypadku nieodpowiedniego korzystania ze sztucznej inteligencji przez pracownika możliwe jest wyrządzenie przez niego szkody osobie trzeciej. Zgodnie z Kodeksem pracy w takim przypadku to pracodawca jest zobowiązany do naprawienia szkody, jeżeli została ona wyrządzona przez pracownika przy wykonywaniu obowiązków służbowych. Czy pracodawca może być zwolniony z tej odpowiedzialności, jeśli nie wie, że jego pracownik korzysta z takich narzędzi opartych o sztuczną inteligencję? Niestety nie, brak wiedzy nie zwalnia go z odpowiedzialności.

Pracownik ponosi odpowiedzialność za szkodę wyłącznie w granicach rzeczywistej straty poniesionej przez pracodawcę i tylko za normalne następstwa działania lub zaniechania, z którego wynikła szkoda. Ciężar wykazania okoliczności uzasadniających odpowiedzialność pracownika oraz wysokość powstałej szkody spoczywa na pracodawcy.

Co więcej, pracodawca powinien pamiętać, że wysokość odszkodowania uzyskanego od pracownika nie może przewyższać kwoty trzymiesięcznego wynagrodzenia przysługującego mu w dniu wyrządzenia szkody. Dopiero gdy pracownik działa umyślnie, może on odpowiadać za szkodę w pełnej wysokości.

Jednak wykazanie umyślnego działania pracownika może okazać się ciężkim zadaniem dla pracodawcy. Stanowi to wyzwanie nawet wtedy, gdy pracodawca zakazuje korzystania ze sztucznej inteligencji w miejscu pracy. Zgodnie z utrwalonym orzecznictwem “umyślne niedopełnienie obowiązku nie musi być uznane za równoznaczne z umyślnym wyrządzeniem szkody, zwłaszcza jeżeli z okoliczności sprawy wynika, że wyrządzenie szkody nie było objęte zamiarem sprawcy.”

Przejrzyste zasady

Nieodpowiednie korzystanie ze sztucznej inteligencji może prowadzić do niepożądanych konsekwencji prawnych. Pracodawcy powinni pamiętać, że są odpowiedzialni za działania swoich pracowników. Dlatego warto wdrażać przejrzyste zasady korzystania ze sztucznej inteligencji w miejscu pracy. Zaleca się, aby były one spisane w wewnętrznych dokumentach, np. w formie polityki korzystania ze sztucznej inteligencji. Pracownicy powinni być świadomi, z jakich narzędzi mogą korzystać przy wykonywaniu swoich obowiązków. Co więcej, warto również przeprowadzać cykliczne szkolenia, uświadamiające jakie ryzyko może nieść niewłaściwe korzystanie ze sztucznej inteligencji.