Orzecznictwo dotyczące prawników, którzy przedstawiali w sądzie fałszywe argumenty podsunięte przez AI, wzbogacił niedawno wyrok Sądu Najwyższego (High Court) Wielkiej Brytanii. Czytamy w nim, że kierownictwo branży prawniczej – szefowie izb adwokackich, partnerzy zarządzający kancelarii – oraz osoby odpowiedzialne za regulację świadczenia usług prawnych „muszą podjąć praktyczne i skuteczne środki”, które zapewnią, że każdy prawnik korzystający ze sztucznej inteligencji rozumie swoje obowiązki zawodowe i etyczne oraz obowiązki wobec sądu i je wypełnia. Sąd zapowiedział też, że w przyszłości podczas podobnych rozpraw „przedstawiciele branży mogą oczekiwać, że sąd zbada, czy te obowiązki kierownicze zostały wypełnione”.

Wyrok (sprawy AC-2024-LON-003062 i CL-2024-000435) dotyczył powoływania się przez prawników w dwóch postępowaniach toczących się przed brytyjskimi sądami na fałszywe cytaty z orzecznictwa lub nieistniejące autorytety. Wynikało to z faktycznego lub domniemanego wykorzystania przez prawników narzędzi generatywnej sztucznej inteligencji i braku weryfikacji tak powstałych dokumentów.

„Fakty w tych sprawach budzą obawy co do kompetencji i postępowania prawników skierowanych do tego sądu” – stwierdziła w uzasadnieniu wyroku sędzia Victoria Sharp. Dodała, że powstają też obawy „co do adekwatności szkoleń, nadzoru i regulacji osób praktykujących przed sądami”. Podkreśliła, że niewłaściwe używanie sztucznej inteligencji pociąga za sobą „poważne konsekwencje dla wymiaru sprawiedliwości” i publicznego zaufania do niego.

Dowody od klienta – laika

W jednej z rozpatrywanych w Wielkiej Brytanii spraw – procesie o odszkodowanie, w którym stawką było przeszło 89 mln funtów – sąd zaniepokoiło 45 przedstawionych mu cytatów. Przytaczana w 18 z nich sprawa w ogóle nie istniała. Pozostałe orzeczenia albo nie zawierały przypisywanych im cytatów, albo te nie popierały tez, do których zostały wykorzystane. Jak podsumował materiały powodów asystent sędziego, „zdecydowana większość autorytetów została zmyślona lub źle zrozumiana”.

Co więcej, jednym z przedstawionych fałszywych dokumentów było orzeczenie przypisywane Julii Dias, czyli sędzi… prowadzącej sprawę, w której się na jej rzekome zdania powołano. Kierując ten przypadek do Sądu Najwyższego, sędzia Dias podkreśliła, że działanie wymiaru sprawiedliwości zależy od tego, czy sąd będzie mógł bezwarunkowo polegać na uczciwości osób, które przed nim stają, oraz na ich profesjonalizmie.

Skonfrontowany z zarzutami powód wziął na siebie odpowiedzialność za przedłożenie sądowi fikcyjnych materiałów. Przeprosił za całą sytuację i przyznał, że cytaty z orzeczeń zostały wygenerowane za pomocą publicznie dostępnych narzędzi sztucznej inteligencji, wyszukiwarek prawniczych i źródeł internetowych.

Dwa scenariusze postępowania prawników

Sędzia Sharp zastrzegła, że sąd skupia się na postępowaniu prawników, a nie stron sporu. To o tyle istotne, że w pierwszej ze spraw pełnomocnik powoda stwierdził, że opierał się na dostarczonych przez niego informacjach – bez niezależnej weryfikacji źródeł. Przeprosił i zapewnił, że taka sytuacja nigdy się nie powtórzy. Reprezentant zatrudniającej go kancelarii oświadczył, że ich postępowanie było bardzo złe i że „ostatnią rzeczą, jaką powinien robić prawnik, jest poleganie na dowodach od klienta-laika”. Zarówno prawnik, jak i kancelaria byli „przerażeni” tym, że ulegli halucynacjom AI.

W przeciwieństwie do nich prawniczka występująca w drugiej rozpatrywanej przez sędzię Sharp sprawie szła w zaparte. W jej przypadku chodziło o pięć nieistniejących orzeczeń przytoczonych w uzasadnieniu powództwa przeciwko londyńskiej gminie Haringey (prawniczka reprezentowała osobę, której nie zapewniono tymczasowego zakwaterowania). Ponieważ pełnomocniczka – wtedy jeszcze wciąż aplikantka – nie przedstawiła kopii tych pięciu problematycznych spraw. Pozwany złożył wniosek przeciwko niej i zatrudniającemu ją centrum prawnemu o zwrot kosztów postępowania.

Składając wyjaśnienia, adwokatka początkowo zaprzeczała, jakoby korzystała z AI, która – jak stwierdziła – „nie jest wiarygodnym źródłem”. Później oświadczyła jednak, że sporządzając uzasadnienie pozwu, mogła „szukać w Google lub Safari” i wziąć pod uwagę wygenerowane przez sztuczną inteligencję podsumowania wyników – nie zdając sobie sprawy, czym one są. Ostatecznie przyznała, że „w pewnym stopniu” ponosi winę za przedstawienie fałszywych argumentów, ale zaprzeczyła, jakoby korzystała z narzędzi sztucznej inteligencji. Przyznała za to, że działała niedbale i przeprosiła za to sąd.

Na podstawie przedstawionego materiału sąd nakreślił dwa możliwe scenariusze wyjaśniające, jak nieistniejące orzeczenia mogły się znaleźć w pozwie. Pierwszy: prawniczka umieściła je tam celowo. „Stanowiłoby to oczywistą obrazę sądu” – stwierdziła sędzia Sharp. W drugim scenariuszu młoda adwokatka wykorzystała narzędzia AI. W takim przypadku jej zaprzeczenia byłyby kłamliwe – co też byłoby obrazą sądu.

Sąd uznał, że próg wszczęcia postępowania w sprawie obrazy sądu został osiągnięty, a mimo to zdecydował się takiego postępowania nie wszczynać. Powodów było kilka. M.in. niedoświadczenie prawniczki – która najwyraźniej działała poza zakresem swoich kompetencji i w trudnych warunkach – oraz to, że została już dostatecznie skrytykowana w opublikowanym wyroku. Sąd zważył też, że w postępowaniu wszczętym wyłącznie przeciwko niej nie można by było rozstrzygnąć kwestii uchybień ze strony osób odpowiedzialnych za szkolenie i nadzorowanie aplikantki (nikt nie sprawdził przygotowanych przez nią materiałów).

Sędzia zastrzegła, że decyzja o niewszczynaniu postępowania w sprawie obrazy sądu nie stanowi precedensu i że prawnicy, którzy nie wywiązują się ze swoich obowiązków zawodowych, narażają się na surowe sankcje.

W pierwszej z omawianych spraw doszło do – jak orzekła sędzia Sharp – „żałosnego zaniedbania podstawowego wymogu weryfikacji dokładności materiału przedkładanego sądowi”. Sąd uznał jednak, że próg wszczęcia postępowania w sprawie obrazy sądu nie został spełniony.

W rezultacie w obu przypadkach prawnicy nie ponieśli innych konsekwencji poza skierowaniem ich spraw do izby dyscyplinarnej.

Prawnik musi rozumieć

„Naszym nadrzędnym celem jest zapewnienie, aby prawnicy jasno rozumieli konsekwencje (jeśli nie rozumieli ich wcześniej) wykorzystywania sztucznej inteligencji bez weryfikacji generowanych przez nią wyników w oparciu o wiarygodne źródła” – podkreśliła sędzia Sharp.

Wydawałoby się, że te konsekwencje powinny być jasne co najmniej od 2023 r., gdy środowiska prawnicze komentowały sprawę toczącą się przed Sądem Okręgowym w Nowym Jorku. Prawnik występujący przeciwko linii lotniczej umieścił w piśmie procesowym sześć fikcyjnych cytatów ze spraw wyhalucynowanych przez ChatGPT. Podpisał się pod tym jego kolega z tej samej kancelarii. Kłamstwa AI wyszły na jaw, gdy pełnomocnicy pozwanej spółki nie mogli znaleźć przytoczonych orzeczeń. Obaj prawnicy i ich kancelaria w czerwcu 2023 r. zostali ukarani w sumie 5 tys. dol. grzywny. Sąd uznał, że nie ma nic „z natury niewłaściwego” w korzystaniu przez prawników z pomocy sztucznej inteligencji, ale „zasady etyki adwokackiej nakładają na nich obowiązek” zapewnienia poprawności przedkładanych dokumentów.

Niespełna dwa lata później, w maju 2025 r., prawnicy korzystający z AI usłyszeli zarzuty składania pism pełnych błędów w trzech amerykańskich sądach. Jedna z tych spraw – jak podaje Reuters – zakończyła się już dla prawnika i zatrudniającej go kancelarii karą 31 tys. dol.

Halucynacyjny incydent, do jakiego doszło na początku tego roku w Sądzie Okręgowym stanu Minnesota (USA), był zaprawiony ironią. Postępowanie dotyczyło bowiem deepfake’ów, tj. obrazów, dźwięków i treści wideo, które przypominają prawdziwe osoby albo obiekty, ale zostały wygenerowane lub zmanipulowane za pomocą sztucznej inteligencji. Powód kwestionował nowe prawo stanowe zakazujące stosowania deepfake’ów i dezinformacji w kampaniach politycznych. Strony przedstawiały opinie biegłych dotyczące AI. Ekspert z Uniwersytetu Stanforda do sporządzenia raportu na zlecenie pozwanego wykorzystał narzędzie oparte na AI. Dokumentu nie zweryfikowano i tak do sądu trafiły cytaty z dwóch sfabrykowanych artykułów naukowych i błędny cytat z trzeciego.

„Ekspert ds. zagrożeń związanych ze sztuczną inteligencją i dezinformacją padł ofiarą syreniego śpiewu polegającego na nadmiernym poleganiu na AI – i to w sprawie, która koncentruje się wokół zagrożeń związanych z AI” – podsumowała sędzia Laura Provinzino, oddalając tę ekspertyzę.

Amerykańskie sądy rozpatrują najwięcej takich przypadków, ale z powodu niesprawdzonych informacji od sztucznej inteligencji prawnicy byli już też sądzeni m.in. w Danii, Kanadzie, Australii, a także Nowej Zelandii.

AI i polscy prawnicy

Żaden polski prawnik nie odpowiadał za nierozważne posługiwanie się halucynującą AI. – Nie słyszałem też o takim rozstrzygnięciu dyscyplinarnym. Myślę jednak, że to kwestia miesięcy, może tygodni, kiedy i u nas pojawią się sprawy tego rodzaju – mówi dr Damian Flisak, radca prawny. Zaznacza, że to prawnik odpowiada za dokumenty, które składa do sądu. – Dlatego właśnie tak ważne jest, żeby sprawdzać informacje, jakich udziela AI. Surowość sankcji za posługiwanie się materiałami będącymi efektem halucynacji modelu językowego powinna być proporcjonalna do stopnia niechlujstwa prawnika – uważa Damian Flisak.

Brak spraw o halucynacje nie oznacza, że polscy prawnicy nie popełniają tego rodzaju błędów. – W postępowaniu w Urzędzie Patentowym nasza kancelaria otrzymała od strony przeciwnej pismo dotyczące znaków towarowych, którym powołano się na nieistniejące orzeczenia – mówi Agata Szeliga, radca prawny, partner w kancelarii Sołtysiński Kawecki & Szlęzak. Kancelaria nie zawiadomiła o tym organów samorządu zawodowego. – Zdyskredytowaliśmy te błędy w naszej odpowiedzi. Osłabia to argumenty strony przeciwnej i zapewne wpłynie na rozstrzygnięcie sprawy – stwierdza Agata Szeliga. Dodaje, że dla prawnika najdotkliwszą konsekwencją w takim wypadku jest odpowiedzialność wobec klienta za niewłaściwą reprezentację czy niezachowanie należytej staranności.

Doktor Dominik Lubasz, radca prawny i wspólnik w kancelarii Lubasz & Wspólnicy, podkreśla, że błędy, o których szczególnie głośno było w Stanach Zjednoczonych, polegające na tworzeniu pism procesowych w oparciu o zmyślone przez chat orzecznictwo, wynikają z braku znajomości specyfiki AI.

– Modele językowe sprawdzają się przy optymalizacji tekstu, mogą nawet podpowiedzieć aspekty, których autor nie wziął pod uwagę, ale ze względu na skłonność do halucynacji i sykofancji (AI przypochlebia się, potakując użytkownikowi, nawet gdy nie ma on racji – red.) nie są dobrym źródłem wiedzy – wskazuje Dominik Lubasz. – Natomiast właściwie zastosowana sztuczna inteligencja buduje przewagę konkurencyjną – podkreśla.

Jego kancelaria stosuje zarówno ogólnodostępne, jak i skrojone na miarę narzędzia sztucznej inteligencji – w tym własne. Kancelaria opracowała aplikację GDPR Risk Tracker, która wykonuje czasochłonne dla człowieka czynności związane z oceną zgodności organizacji z RODO. Aplikacja ta rozbudowywana jest o moduły wykorzystujące różne modele AI dzięki czemu ocena zgodności z RODO w poszczególnych jej aspektach przebiega jeszcze efektywniej. Z kolei AILIA (Artificjal Intelligence Legitimate Interest Assessment) to również opracowana przez kancelarię aplikacja wykorzystująca modele AI zaprzęgnięta do oceny spełnienia przesłanki legalizującej przetwarzanie danych osobowych w postaci prawnie uzasadnionego interesu administratora lub strony trzeciej (program zdobył wyróżnienie na Legal Hackathon 2021).

– Natomiast generatywna AI (m.in. Copilot Microsoftu) służy nam m.in. do optymalizacji tekstu, burz mózgów, robienia podsumowań czy analizy prostych dokumentów. Są to często czynności oparte na pracy nad słowem, a konsumujące dużo czasu. Narzędzia AI usprawniają tę pracę, ale nie zastępują prawnika, lecz go wspierają – uważa dr Lubasz.

Klienci kancelarii są informowani o ryzykach związanych z wykorzystywaniem AI, natomiast nie mają na to wpływu.

– Przyjęliśmy zasadniczo koncepcję informowania o wykorzystywaniu AI. Nie pytamy jednak klienta, czy możemy w jego sprawie stosować narzędzia oparte na sztucznej inteligencji, tak samo jak nie uzgadniamy z nim kwestii wykorzystania oprogramowania biurowego w wersji chmurowej do przetwarzania jego danych. Nie dotyczy to oczywiście sytuacji, w których wymagałyby tego przepisy prawa, jak przy powierzeniu przetwarzania danych osobowych – porównuje Dominik Lubasz.

AI wpływa ponadto na kalkulację cen za usługi kancelarii. – Wykorzystywanie tych narzędzi optymalizuje naszą pracę, więc odchodzimy od tradycyjnego modelu rozliczeniowego opartego na liczbie godzin poświęconych na świadczenie usługi, bo jest po prostu kontrproduktywny. Mają one oczywiście znaczenie jako element kosztu, ale jednostka czasu nie odzwierciedla dostarczanej wartości, co powoduje, że wynagrodzenie coraz częściej kalkulowane jest w oparciu o inne czynniki kosztów, ale i wartość usługi dla klienta – stwierdza Dominik Lubasz.

Najnowsza technologia oznacza też wydatki. Są to m.in. opłaty abonamentowe za modele ogólne i koszty tworzenia własnych rozwiązań. Jednak per saldo to się opłaca. – Opracowane przez nas narzędzie AI sześciokrotnie zwiększyło efektywność w stosunku do normalnej pracy prawnika z zespołem osób współpracujących – informuje Dominik Lubasz.

Sztuczna inteligencja merytorycznie nie pomaga

Według Damiana Flisaka jedynym sposobem, żeby przekonać się o wartości AI w pracy prawnika, jest eksperymentowanie. – Dopiero w drodze licznych zapytań i uzyskiwania odpowiedzi rozeznajemy możliwości takich narzędzi – uważa dr Flisak. Sam posługuje się w pracy ChatemGPT w modelu subskrypcyjnym.

– Merytorycznie takie narzędzia niewiele prawnikowi pomogą, bo halucynują i przekłamują na potęgę. Nie tylko podają wymyśloną książkę czy sygnaturę sprawy, lecz także przekłamują treść przywoływanych przepisów – wskazuje Damian Flisak.

Przyłapał chat m.in. na odwoływaniu się do nieistniejących przepisów AI Act. Okazało się, że narzędzie bazowało na zapamiętanym wcześniej projekcie tego rozporządzenia. – Więc teraz najpierw wgrywam mu ostateczną wersję i każę się na niej opierać w odpowiedziach – stwierdza Flisak.

Mimo to AI przydaje mu się w pracy. Do czego? – Właściwie do wszystkiego. Od tłumaczenia na dowolny język przez porządkowanie strumienia świadomości do streszczania tekstów czy zmiany ich stylu – wylicza Damian Flisak. – To bardzo przyspiesza pracę. Natomiast absolutnie ani na sekundę nie można temu narzędziu zawierzyć. Wszystko trzeba sprawdzić merytorycznie. Ale nawet jak na 10 podanych przez AI orzeczeń tylko siedem będzie się zgadzać, to już jest konkretne ułatwienie pracy. Szczególnie w obszarze, w którym się nie specjalizuję, jak np. zastaw na statkach, i chcę uzyskać pierwszą, podstawową informację – dodaje.

Dominik Lubasz stwierdza, że aby kancelaria radziła sobie z halucynacjami i innymi rodzajami ryzyka związanymi ze stosowaniem AI, musi postawić na kształcenie i budowanie kompetencji prawników, żeby wiedzieli, jakie narzędzia do czego wykorzystywać, a gdzie ich używać nie można.

– Mamy w kancelarii procedury wewnętrzne, które określają zasady wykorzystywania sztucznej inteligencji – mówi dr Lubasz. Idą one w podobnym kierunku co wytyczne Federacji Adwokatur Europejskich czy rekomendacje Krajowej Izby Radców Prawnych.

Te ostatnie KIRP wydała wiosną tego roku we współpracy z firmą Microsoft i kancelarią Sołtysiński Kawecki & Szlęzak. Obejmują m.in. wskazówki, jak bezpiecznie wdrażać AI w pracy radcy prawnego. Przede wszystkim podkreślają konieczność zachowania kontroli człowieka nad wykorzystaniem tej technologii.

– Wiem, że wiele kancelarii postępuje wedle tych wskazówek, czy to na etapie wyboru narzędzia, czy potem jego wdrażania – mówi Damian Flisak, który współtworzył rekomendacje KIRP.

Nad wytycznymi w zakresie korzystania z AI pracuje też Naczelna Rada Adwokacka. „Należy jednak podkreślić, że dynamiczny rozwój technologii oraz zmienność rozwiązań dostępnych na rynku nie pozwalają obecnie na sformułowanie ostatecznych i wiążących rekomendacji” – zastrzega biuro prasowe NRA.

Potrzebne są zmiany w prawie?

Czy jednak kwestia bezpiecznego korzystania przez prawników z AI nie wymaga uregulowania przez państwo?

– Nie wydaje mi się to konieczne – odpowiada Agata Szeliga, współautorka rekomendacji KIRP. - Mamy rekomendacje, mamy akt w sprawie sztucznej inteligencji, który mówi m.in. o systemach wysokiego ryzyka. W połączeniu ze zdrowym rozsądkiem to powinno wystarczyć – uważa.

Podkreśla, że podstawową zasadą przy korzystaniu z narzędzi AI jest weryfikacja udzielanych przez nie odpowiedzi. – Nie należy też używać powszechnie dostępnych darmowych narzędzi, żeby dane nie wychodziły na zewnątrz – zaznacza Agata Szeliga. - Ryzyka halucynacji nie da się wyeliminować, ale można je zmniejszyć – dodaje. Można to osiągnąć, m.in. stosując meta-prompt, zawierając w nim instrukcję, aby model językowy nie zmyślał, i ograniczając zakres wyszukiwania np. do wprowadzonej bazy orzeczeń. - Pomaga też odpowiednie promptowanie. A ponieważ nad ograniczeniem zjawiska halucynacji pracują również firmy technologiczne, to wydaje mi się, że z czasem błędów będzie coraz mniej – mówi Agata Szeliga.

AI musi wyjść z szarej strefy

– W odniesieniu do każdego zastosowania sztucznej inteligencji przeprowadzamy analizę, czy nie stoi to w kolizji z powszechnie obowiązującymi i korporacyjnymi regulacjami. Z naszej perspektywy jest to przede wszystkim ochrona danych osobowych i tajemnicy zawodowej. Nie wolno na przykład ładować dokumentów stanowiących tajemnicę zawodową do niekontrolowanych, otwartych modeli sztucznej inteligencji – wyjaśnia dr Lubasz.

Jego zdaniem, żeby nie powtórzyć błędów prawników, którzy zaniedbali weryfikację informacji pochodzących od modeli językowych i stanęli za to przed sądem, trzeba odpowiednio zarządzać ryzykiem i mieć świadomość, na jakim etapie pracy i do czego narzędzia AI mogą być używane.

– Stosowanie sztucznej inteligencji w organizacji nie może pozostawać w szarej strefie, musi być regulowane i kontrolowane. Prawnicy muszą mieć także świadomość, że efekt działania AI wymaga zawsze weryfikacji i krytycznego podejścia – mówi Dominik Lubasz. Tylko wtedy technologia może ułatwić pracę zamiast wpakować kancelarię w tarapaty.

Uważa, że wyroki wobec tych, którzy ulegli halucynacjom AI, nie powinny odstraszać prawników od stosowania tej technologii. – Przypominają jednak, że należy robić to mądrze, ze świadomością zarówno jej potencjału, jak i ryzyk z nią związanych. Im wcześniej organizacje zaczną otwarcie i w usystematyzowany sposób podchodzić do wykorzystania tych narzędzi, tym lepiej. Prawnikom bowiem najłatwiej wpaść na minę, jeśli kancelaria nie dostarcza im odpowiedniej wiedzy, kompetencji i procedur bezpiecznego stosowania sztucznej inteligencji – mówi Dominik Lubasz.

Brytyjskie zalecenia

Sędzia Dame Victoria Sharp w uzasadnieniu wyroku w sprawach AC-2024-LON-003062 i CL-2024-000435 przyznała, że AI to „potężna technologia”, która „może być użytecznym narzędziem w sporach sądowych” i prawdopodobnie w przyszłości będzie odgrywać w nich ważną rolę. Zastrzegła jednak, że to narzędzie niesie też ryzyko i dlatego wykorzystanie sztucznej inteligencji musi się odbywać „pod odpowiednim nadzorem oraz w ramach ram regulacyjnych, które zapewniają zgodność z ugruntowanymi standardami zawodowymi i etycznymi, aby utrzymać zaufanie publiczne do wymiaru sprawiedliwości”.

Zauważyła, że wskazówek dotyczących ograniczeń sztucznej inteligencji i ryzyka związanego z jej wykorzystaniem w branży prawniczej nie brakuje. W wytycznych brytyjskiej Rady Adwokackiej opublikowanych w styczniu 2024 r. można np. przeczytać, że nie należy przyjmować bezkrytycznie tego, co podają duże modele językowe (jak ChatGPT). Rada ostrzega też, że wykorzystując informacje od AI bez sprawdzenia, adwokat ryzykuje wprowadzenie sądu w błąd – a to, nawet jeżeli nieumyślne, naraża go na uznanie „za niekompetentnego i rażąco niedbałego” i może prowadzić do postępowania dyscyplinarnego.

Rozpatrywane sprawy pokazują, że „samo wydanie takich wytycznych nie wystarczy, aby rozwiązać problem niewłaściwego wykorzystania sztucznej inteligencji” – oceniła sędzia Sharp. „Należy podjąć dalsze działania, aby zapewnić przestrzeganie tych wytycznych i przestrzeganie przez prawników ich obowiązków wobec sądu” - dodała.

Kopia wydanego przez nią orzeczenia trafi do Rady Adwokackiej i Izby Adwokackiej oraz do Rady Sądów Instytucjonalnych, aby pilnie rozważyły dalsze kroki.