Zjawisko błędnego wykorzystania sztucznej inteligencji dotarło nad Wisłę. Prawnicy przyznają, że mają ręce pełne roboty – nie tylko z powodu powództw, lecz także tworzenia wewnętrznych procedur i organizowania szkoleń, które mają zapobiec katastrofom wizerunkowym i finansowym firm z powodu błędów AI.

– Najnowszym przykładem jest pozew, który trafił do Sądu Okręgowego w Warszawie w listopadzie 2025 r. To pierwsza w Polsce sprawa o kradzież głosu przy użyciu AI – mówi Marietta Poźniak, radca prawny specjalizujący się w generatywnej sztucznej inteligencji.

Z kolei Katarzyna Bando-Tylińska z kancelarii Banasik, Woźniak i Wspólnicy dodaje, że przypadki wyrządzania poważnych szkód przedsiębiorcom przez AI są dopiero przed nami.

– Przypuszczam, że powszechnym problemem mogą być kwestie związane z wykorzystywaniem systemów AI przy zatrudnianiu u dużych pracodawców oraz wprowadzanie danych poufnych do dużych modeli językowych – dodaje.

Szczególnie że, jak zauważa Izabela Zawacka, radca prawny Prawo Przedsiębiorstw i HR, firmy na coraz większą skalę wprowadzają aplikacje AI do narzędzi pracy.

Katalog kar i ryzyk

Eksperci podkreślają, że w sprawach związanych ze sztuczną inteligencją problemem nie jest sama technologia, lecz brak kontroli nad jej użyciem. Błędy AI rodzą bowiem odpowiedzialność cywilną zarówno wobec klientów, jak i osób trzecich. To jednak dopiero wierzchołek góry lodowej.

– W grę wchodzą konsekwencje administracyjne, zwłaszcza kary za naruszenie RODO, jeśli do systemu wprowadzono dane osobowe bez odpowiedniej podstawy prawnej czy zabezpieczeń – ostrzega Marietta Poźniak.

W sektorach regulowanych, takich jak finanse czy medycyna, skutkiem błędu algorytmu mogą być sankcje organów nadzoru, a nawet cofnięcie zezwoleń. Dochodzi do tego ryzyko odpowiedzialności za praktyki naruszające zbiorowe interesy konsumentów, jeżeli automatyczne rekomendacje wprowadzają klientów w błąd. Nie można też lekceważyć prawa pracy – wykorzystanie AI do monitoringu lub oceny pracowników może się skończyć sporami sądowymi i odszkodowaniami. Jak zauważają prawnicy, błędy AI mogą prowadzić nawet do odpowiedzialności karnej, np. za bezkrytyczne posłużenie się nieprawdziwymi informacjami wygenerowanymi przez bota, co doprowadzi do wprowadzenia w błąd sądu lub zamawiającego w zamówieniach publicznych.

– Z perspektywy biznesowej ryzykiem jest bezpowrotna utrata tajemnic przedsiębiorstwa oraz brak ochrony prawnoautorskiej wygenerowanych treści, co w praktyce oznacza osłabienie pozycji rynkowej firmy. Realne są straty wizerunkowe, które mogą okazać się bardziej bolesne niż sama kara finansowa – dodaje Marietta Poźniak.

Kto płaci za błędy algorytmu?

Ponieważ sztuczna inteligencja nie posiada osobowości prawnej, to, jak zauważa Katarzyna Bando-Tylińska, odpowiedzialność za jej działalność spada na ludzi.

W relacjach z klientami czy kontrahentami odpowiada co do zasady pracodawca jako podmiot organizujący proces i czerpiący z niego korzyści.

– Pracownik, który korzysta z systemu AI wskazanego przez firmę i działa zgodnie z procedurami, jest zwykle chroniony, a jego błędy obciążają pracodawcę – wyjaśnia Marietta Poźniak.

Sytuacja się zmienia, gdy pracownik świadomie obchodzi zabezpieczenia lub korzysta z publicznych narzędzi bez wiedzy firmy (tzw. Shadow AI), ujawniając przy tym np. dane klientów. Wówczas wchodzi w grę odpowiedzialność pracownicza, cywilna, a nawet karna.

Katarzyna Bando-Tylińska podkreśla, że na pracodawcach ciąży obowiązek równego traktowania i przeciwdziałania mobbingowi, a reżim ich odpowiedzialności wobec osób trzecich pozostaje niezmienny.

Prawnicy dodają, że w przypadku systemów kupowanych od zewnętrznych dostawców część ryzyka można przenieść na producenta, jednak dla regulatora czy klienta pierwszym adresatem roszczeń zawsze pozostaje firma, która system wdrożyła.

Granice odpowiedzialności pracownika

Czy pracodawca, który poniósł szkodę przez AI, może pociągnąć do odpowiedzialności pracownika? To pytanie, które również coraz częściej się przewija w rozmowach w kancelariach prawnych. Prawnicy odpowiadają zgodnie: tak, ale pod pewnymi warunkami. Pracodawca musi wykazać winę pracownika, szkodę, naruszenie obowiązków i związek przyczynowy.

Jeżeli pracownik korzystał z narzędzia dostarczonego przez firmę zgodnie z procedurami, szkoda pozostaje ryzykiem pracodawcy.

– Inaczej jest, gdy pracownik korzystał z narzędzi AI wbrew zakazom lub w sposób rażąco niedbały, np. bez weryfikacji oczywiście błędnych wyników. Wówczas pracodawca może żądać odszkodowania – zauważa Marietta Poźniak.

Przy winie nieumyślnej jest to równowartość trzymiesięcznego wynagrodzenia, przy umyślnej – pełna wysokość szkody. Pracodawca może też zastosować kary porządkowe lub rozwiązać umowę o pracę bez wypowiedzenia.

– Wszystko zależy od tego, czy pracownik mógł skorzystać z narzędzi AI, czy był w tym zakresie przeszkolony i czy pracodawca uregulował zasady korzystania ze sztucznej inteligencji. Zgodnie z art. 117 K.P. pracownik nie ponosi ryzyka związanego z działalnością pracodawcy – zaznacza Katarzyna Bando-Tylińska.

Osobny wątek stanowi rekrutacja. Jeśli kandydata dotknęła niekorzystna decyzja podjęta przez AI, ma on kilka ścieżek prawnych. Na podstawie art. 22 RODO może żądać weryfikacji decyzji przez człowieka oraz informacji o logice działania algorytmu.

– Jeżeli decyzja AI doprowadziła do nierównego traktowania, wynikającego np. z błędów danych treningowych, pracownik może dochodzić odszkodowania na podstawie przepisów kodeksu pracy o zakazie dyskryminacji – informuje Marietta Poźniak.

Katarzyna Bando-Tylińska wyjaśnia z kolei, że katalog roszczeń pracownika zależy zatem od tego, czy w ogóle doszło do naruszenia powszechnie obowiązujących przepisów z zakresu prawa pracy. Pracownikowi może zatem przysługiwać np. odszkodowanie za naruszenie zasady równego traktowania w zatrudnieniu oraz każde inne roszczenie określone w K.P. Dodaje, że nie można wykluczyć również powództw w reżimie ochrony dóbr osobistych. ©℗

Przykłady spraw związanych z wykorzystaniem AI w Polsce:
Pozew, który trafił do Sądu Okręgowego w Warszawie w listopadzie 2025 r. w sprawie kradzieży przy użyciu AI.
▪ Wyrok Sądu Okręgowego we Wrocławiu (sygn. akt XGC 455/25) w sprawie zainicjowanej przez prezesa firmy technologicznej, który chcąc zaoszczędzić na obsłudze prawnej, zlecił napisanie pozwu algorytmowi. Skończyło się oddaleniem powództwa.
▪ Sprawa zakończona wyrokiem Krajowej Izby Odwoławczej z 17 października 2025 r. (sygn. KIO 3335/25, KIO 3339/25, KIO 3341/25, KIO 3342/25, KIO 3344/25, KIO 3347/25, KIO 3349/25), dotycząca m.in. firmy EXDROG sp. z o.o. Spółka wezwana do wyjaśnienia ceny oferty przedłożyła dokumentację sporządzoną przez sztuczną inteligencję. KIO nakazała wykluczenie spółki z postępowania, a także odrzucenie jej oferty o wartości 15,5 mln zł.
▪ Wyrok Sądu Okręgowego we Wrocławiu z 27 listopada 2025 r., sygn. X GC 455/25, w której powód jako dowody przedłożył wydruki rozmów ze sztuczną inteligencją po ujawnieniu poufnych danych.
▪ Postępowanie Urzędu Ochrony Danych Osobowych przeciwko OpenAI w związku ze skargą na generowanie przez ChatGPT fałszywych informacji o osobie fizycznej. ©℗