Autopromocja

Psychoterapeuci coraz śmielej korzystają z AI. Dr Wiśniewski: „Regulacje praktycznie nie istnieją”

psychoterapia, laptop, AI
Psychoterapeuci coraz śmielej korzystają z AI. Dr Wiśniewski: „Regulacje praktycznie nie istnieją”Shutterstock
dzisiaj, 07:24

Sztuczna inteligencja wchodzi do gabinetów psychoterapeutów szybciej, niż wielu specjalistów się spodziewało. Coraz więcej terapeutów przyznaje, że korzysta z narzędzi AI w swojej pracy. Problem w tym, że w Polsce wciąż brakuje jasnych zasad porządkujących takie praktyki. – „Regulacje dotyczące korzystania z AI w psychoterapii praktycznie nie istnieją” – mówi dr n. med. Artur Wiśniewski.

Coraz więcej specjalistów zdrowia psychicznego sięga po narzędzia sztucznej inteligencji w codziennej pracy. Najczęściej wykorzystują je do przygotowywania materiałów psychoedukacyjnych, porządkowania notatek czy generowania ćwiczeń dla pacjentów. O tym, gdzie kończy się bezpieczne korzystanie z AI w psychoterapii i jakie ryzyka się z tym wiążą, rozmawiamy z dr. n. med. Arturem Wiśniewskim.

Czy wiemy dziś, czy psychoterapeuci, psychologowie i psychiatrzy korzystają ze sztucznej inteligencji w swojej pracy? Czy istnieją na ten temat badania?

Dr n. med. Artur Wiśniewski: Tak, mamy już pewne dane, choć nadal jest ich stosunkowo niewiele. I dobrze, że pani na początku podkreśliła różnice między psychologami, lekarzami i psychoterapeutami, bo rzeczywiście w kontekście regulacji wygląda to inaczej dla każdej z tych grup. Jednym z problemów jest to, że w samej psychoterapii w wielu krajach regulacje wciąż są bardzo ograniczone. Na świecie zaczynają się one pojawiać, ale jest to proces dość nowy.

Natomiast jeśli chodzi o korzystanie z narzędzi sztucznej inteligencji przez profesjonalistów zdrowia psychicznego, to mamy już pierwsze badania. Jedno z nich, przeprowadzone w Australii w 2024 roku, objęło terapeutów i innych pracowników mental health. Wynika z niego, że około 40 procent specjalistów korzysta z narzędzi takich jak ChatGPT czy inne modele językowe. Inne badania dają podobne wyniki – w okolicach 30 procent.

W Polsce jak dotąd nie było szerokiego badania, które pokazywałoby, jak wygląda to w praktyce. Możemy jednak przypuszczać, że sytuacja jest podobna, ponieważ dostęp do narzędzi sztucznej inteligencji jest globalny. Modele te działają w wielu językach, również w języku polskim, więc terapeuci mają do nich taki sam dostęp jak ich koledzy z innych krajów.

Między innymi dlatego zdecydowałem się przeprowadzić własne badanie empiryczne. Była to ogólnopolska ankieta skierowana głównie do terapeutów poznawczo-behawioralnych, choć mogli w niej uczestniczyć także terapeuci innych nurtów. W ankiecie można było zaznaczyć swoją modalność terapeutyczną, więc grupa była dość zróżnicowana.

Dr n. med. Artur Wiśniewski – lekarz psychiatra, psychoterapeuta poznawczo-behawioralny oraz superwizor-dydaktyk Polskiego Towarzystwa Terapii Poznawczej i Behawioralnej. Związany m.in. z Kliniką Uniwersytetu SWPS oraz Centrum CBT w Warszawie. Kierownik merytoryczny studiów podyplomowych z psychoterapii poznawczo-behawioralnej na SWPS. Członek Sądu Koleżeńskiego PTTPB.
Dr n. med. Artur Wiśniewski – lekarz psychiatra, psychoterapeuta poznawczo-behawioralny oraz superwizor-dydaktyk Polskiego Towarzystwa Terapii Poznawczej i Behawioralnej. Związany m.in. z Kliniką Uniwersytetu SWPS oraz Centrum CBT w Warszawie. Kierownik m

Co wynika z tych badań? Czy polscy terapeuci rzeczywiście korzystają już z AI?

Tak, wstępne wyniki pokazują, że terapeuci rzeczywiście korzystają ze sztucznej inteligencji w różnych aspektach pracy. Co ważne – nie dotyczy to najczęściej samego procesu terapii. Znacznie częściej chodzi o wsparcie pracy: przygotowywanie materiałów psychoedukacyjnych, tworzenie notatek, porządkowanie treści, generowanie ćwiczeń dla pacjentów czy przygotowywanie tabel i materiałów pomocniczych. Zdarza się też korzystanie z AI do przeglądu literatury czy odświeżenia wiedzy na dany temat.

Trzeba jednak podkreślić, że badanie nie było reprezentatywne. Ankietę wypełniały osoby, które dowiedziały się o niej w internecie i zdecydowały się w niej uczestniczyć. Mimo to wyniki są bardzo zbliżone do danych międzynarodowych. Widzimy, że terapeuci korzystają z AI, ale jednocześnie mają niewielką wiedzę o tych narzędziach, są wobec nich ostrożni i często czują się niepewnie. Czasem zdarza się też korzystanie w sposób nie do końca bezpieczny.

Pełne wyniki badania zostaną przedstawione w maju 2026 roku na ogólnopolskiej konferencji Polskiego Towarzystwa Terapii Poznawczej i Behawioralnej w Katowicach. Jednym z nasz celów jest także rozpoczęcie prac nad pierwszymi w Polsce wytycznymi etycznymi dotyczącymi korzystania z AI przez terapeutów. Ponieważ regulacji praktycznie nie ma, chcielibyśmy zaproponować przynajmniej podstawowe rekomendacje dotyczące bezpiecznego i etycznego korzystania z tych narzędzi.

Czy sytuacja prawna wygląda tak samo w przypadku psychoterapeutów, psychologów i lekarzy?

Nie. W przypadku lekarzy sytuacja jest nieco bardziej uporządkowana, ponieważ obowiązuje ich Kodeks Etyki Lekarskiej. Po jego nowelizacji pojawiły się zapisy dotyczące korzystania ze sztucznej inteligencji. W praktyce oznacza to między innymi obowiązek informowania pacjenta, jeśli w procesie diagnostycznym lub w dokumentacji medycznej wykorzystywane są narzędzia AI.

Dotyczy to na przykład systemów, które pomagają w tworzeniu notatek z wizyty czy analizie danych medycznych. Jeżeli sztuczna inteligencja ma wpływ na proces diagnostyczny lub decyzyjny, pacjent powinien być o tym poinformowany, a w niektórych sytuacjach potrzebna jest również jego świadoma zgoda.

Co istotne, możliwe jest zastosowanie wyłącznie tych algorytmów sztucznej inteligencji, które są dopuszczone do użytku medycznego i posiadają odpowiednie certyfikaty. A z drugiej strony - lista certyfikowanych narzędzi w Polsce praktycznie nie istnieje. Ostatecznie trzeba pamiętać, że odpowiedzialność zawsze spoczywa na lekarzu. To lekarz podejmuje decyzję i odpowiada za jej konsekwencje.

A jak jest w przypadku psychoterapeutów i psychologów? Mamy jakieś regulacje?

Niestety, w przypadku psychoterapeutów i psychologów sytuacja jest znacznie mniej uregulowana. Nie ma jeszcze jasnych wytycznych dotyczących korzystania z AI w pracy terapeutycznej. Wiemy natomiast, że pracujemy z bardzo wrażliwymi danymi – dotyczącymi zdrowia psychicznego, relacji, historii życia. Dlatego standardy etyczne powinny być tutaj bardzo wysokie. W praktyce oznacza to, że nawet jeśli terapeuta korzysta z narzędzia sztucznej inteligencji jako wsparcia, to odpowiedzialność za decyzje terapeutyczne pozostaje po jego stronie. Model językowy może coś zasugerować, ale nie ponosi odpowiedzialności za skutki tej sugestii – odpowiada człowiek, który ją zastosował.

Gdzie kończy się bezpieczne korzystanie z AI przez psychoterapeutów jako narzędzia pomocniczego, a zaczyna sytuacja problematyczna?

Można tu mówić o trzech strefach: zielonej, żółtej i czerwonej. W zielonej strefie znajdują się wszystkie zastosowania, które nie wymagają wprowadzania danych pacjenta. Na przykład przygotowywanie materiałów psychoedukacyjnych, pomysłów na ćwiczenia terapeutyczne czy porządkowanie wiedzy. Terapeuta może poprosić model o wygenerowanie przykładowej psychoedukacji dla osoby z określonym problemem psychicznym czy dla konkretnej grupy wiekowej. Takie narzędzia mogą bardzo ułatwiać pracę. Trzeba jednak pamiętać, że sztuczna inteligencja nie jest wyszukiwarką prawdy. To narzędzie generujące najbardziej prawdopodobną odpowiedź na podstawie danych, na których zostało wytrenowane. Dlatego każdy materiał wygenerowany przez AI powinien być zweryfikowany przez terapeutę.

W żółtej strefie znajdują się sytuacje wymagające dużej ostrożności. Na przykład korzystanie z aplikacji wspierających pracę między sesjami: zapisywanie nastroju, monitorowanie myśli automatycznych czy wykonywanie ćwiczeń terapeutycznych. W terapii poznawczo-behawioralnej takie rozwiązania mogą być pomocne, ale nadal to terapeuta powinien interpretować i oceniać te dane. Natomiast w czerwonej strefie znajdują się sytuacje, w których nie powinniśmy korzystać z ogólnych modeli AI. Przede wszystkim dotyczy to sytuacji kryzysowych – na przykład kryzysów samobójczych, poważnych traum czy decyzji dotyczących farmakoterapii.

Istnieją już badania sprawdzające, jak popularne modele językowe radzą sobie w sytuacjach kryzysowych. Analizowano między innymi to, czy potrafią rozpoznać zagrożenie samobójstwem i czy kierują użytkownika do odpowiednich instytucji pomocowych. Wyniki są niepokojące – żaden z modeli nie okazał się wystarczająco bezpieczny, by można było polegać na nim w takiej sytuacji.

Czy wprowadzanie informacji o pacjencie do popularnych chatbotów jest bezpieczne i zgodne z prawem?

To bardzo poważny problem. Dane dotyczące zdrowia psychicznego są w świetle RODO danymi szczególnie wrażliwymi. Jeśli terapeuta wprowadza do ogólnodostępnego modelu opis pacjenta, który nie jest odpowiednio zanonimizowany, istnieje ryzyko naruszenia przepisów o ochronie danych.

Dodatkowo większość darmowych narzędzi przetwarza dane poza Unią Europejską. W praktyce oznacza to, że informacje mogą trafiać na serwery poza europejskim systemem ochrony danych. Wielu terapeutów nie zdaje sobie z tego sprawy. Dlatego absolutną zasadą powinno być niewprowadzanie identyfikujących danych pacjenta do takich systemów.

Rozmawiamy o ogólnych chatbotach dostępnych dla wszystkich – jak ChatGPT czy Gemini. Czy istnieją już specjalistyczne narzędzia AI tworzone z myślą o pracy terapeutów?

Tak, takie rozwiązania zaczynają się pojawiać. Na rynku funkcjonuje już kilka firm – głównie zagranicznych – które rozwijają aplikacje wspierające pracę psychoterapeutów. Część z nich oferuje na przykład automatyczną transkrypcję sesji terapeutycznych i generowanie skróconych notatek z wizyty. W praktyce działa to w ten sposób, że nagranie sesji jest przetwarzane przez system, który przygotowuje podsumowanie: najważniejsze wątki rozmowy, zgłaszane objawy, ustalone cele czy zalecenia na kolejne spotkanie. Dla wielu terapeutów mogłoby to być ogromne ułatwienie w pracy administracyjnej.

Trzeba jednak pamiętać, że takie rozwiązania wymagają bardzo ścisłego przestrzegania zasad bezpieczeństwa. Pacjent musi wiedzieć, że sesja jest nagrywana, musi wyrazić na to zgodę i powinien mieć jasną informację, gdzie dane są przechowywane oraz w jaki sposób są przetwarzane.

Na razie większość tych narzędzi jest w fazie rozwoju albo w wersjach testowych. Rynek technologiczny wyraźnie wyczuł jednak, że w obszarze zdrowia psychicznego pojawia się ogromne zapotrzebowanie. W związku z tym firmy technologiczne intensywnie pracują nad rozwiązaniami, które mogłyby wspierać terapeutów w ich pracy. Warto dodać, że do pracy nad tymi projektami coraz częściej zapraszani są także psychologowie i psychoterapeuci. Ich zadaniem jest ocena, czy dane rozwiązanie jest zgodne z zasadami etyki i czy nie niesie ryzyka dla pacjentów.

Które nurty psychoterapii mogą być najbardziej podatne na wykorzystanie AI?

Często mówi się, że terapia poznawczo-behawioralna jest nurtem najbardziej podatnym na wspomaganie przez sztuczną inteligencję. Wynika to z jej struktury – CBT opiera się na jasno opisanych protokołach terapeutycznych, ćwiczeniach, zadaniach domowych i stosunkowo dobrze zdefiniowanych procedurach pracy. To sprawia, że pewne elementy terapii mogą być stosunkowo łatwo wspierane przez narzędzia cyfrowe. Na przykład monitorowanie nastroju, zapisywanie myśli automatycznych czy wykonywanie ćwiczeń między sesjami.

Nie oznacza to jednak, że inne nurty są całkowicie odporne na wpływ technologii. W wielu środowiskach psychodynamicznych czy psychoanalitycznych również toczy się dziś dyskusja o roli sztucznej inteligencji. Badacze zastanawiają się, które elementy pracy terapeutycznej mogą być wspierane przez nowe narzędzia, a które powinny pozostać wyłącznie w relacji między ludźmi. Warto też pamiętać, że modele sztucznej inteligencji rozwijają się bardzo szybko. Dziś mogą wydawać się ograniczone, ale trudno przewidzieć, jak będą wyglądały za kilka lat.

A czy na dzień dzisiejszy sztuczna inteligencja może zastąpić terapeutę?

Nie. Na obecnym etapie rozwoju nie istnieje narzędzie, które mogłoby zostać uznane za pełnoprawnego terapeutę. Psychoterapia to nie tylko wymiana informacji, ale relacja między dwiema osobami – praca z emocjami, przeniesieniem i reakcjami ciała. Sztuczna inteligencja nie uczestniczy w takiej relacji.

Jednocześnie trzeba pamiętać, że pacjenci już dziś korzystają z chatbotów w rozmowach o swoim zdrowiu psychicznym. Wyniki badania Sentio (2025) pokazują, że około 48 procent dorosłych z problemami zdrowia psychicznego pyta modele językowe o swoje problemy emocjonalne. To pokazuje, że zjawisko już istnieje i nie da się go zatrzymać.

Wielu pacjentów mówi: „AI mnie nie ocenia, jest dostępna o każdej porze”. Czy to może być realna pomoc?

Dla niektórych osób rozmowa z chatbotem może być pewną formą wsparcia. Sztuczna inteligencja jest dostępna przez całą dobę, odpowiada natychmiast i nie stawia wielu wymagań. Dla kogoś, kto czuje się samotny lub nie ma dostępu do profesjonalnej pomocy, może to być pierwszy krok do rozmowy o swoich emocjach.

Jednocześnie istnieje tu poważne ryzyko złudzenia relacji. Modele językowe są projektowane tak, by podtrzymywać rozmowę i być dla użytkownika możliwie przyjazne. W praktyce oznacza to, że często wzmacniają perspektywę rozmówcy i potwierdzają jego sposób myślenia. Z punktu widzenia psychoterapii nie zawsze jest to korzystne. Terapeuta bywa kimś, kto pomaga zobaczyć trudną prawdę o sobie, konfrontuje z rzeczywistością albo wskazuje nieadaptacyjne schematy. Chatbot znacznie rzadziej wchodzi w taką rolę.

Czy istnieje ryzyko, że terapia z AI stanie się tańszą alternatywą dla kontaktu z człowiekiem?

Taki scenariusz jest możliwy. W wielu branżach widzimy już podobne zjawiska – na przykład w obsłudze klienta, gdzie coraz częściej zamiast człowieka odpowiadają chatboty. Rozmowa z człowiekiem jest po prostu droższa. Można wyobrazić sobie sytuację, w której systemy AI będą wykorzystywane do wstępnej oceny problemów psychicznych i kierowania pacjentów do odpowiedniego rodzaju pomocy. W Wielkiej Brytanii w systemie NHS funkcjonują już rozwiązania tego typu, które pomagają w triage’u pacjentów – czyli w ocenie, jakiego rodzaju wsparcia potrzebują.

Takie narzędzia mogą być pomocne, ale rodzą też poważne pytania etyczne. Na przykład: czy pacjent będzie miał możliwość zakwestionowania decyzji systemu? Czy będzie wiedział, na jakiej podstawie system uznał, że powinien otrzymać określony rodzaj pomocy? W przypadku zdrowia psychicznego są to bardzo wrażliwe decyzje.

Jakie zasady powinni znać pacjenci, którzy rozmawiają z chatbotami o swoim zdrowiu psychicznym?

Przede wszystkim powinni pamiętać, że chatbot nie jest terapeutą. Może dostarczać pewnych informacji czy inspiracji do refleksji, ale nie zastąpi profesjonalnej pomocy. Po drugie, według dostępnych badań nie powinno się polegać na takich narzędziach w sytuacjach kryzysowych. Jeśli ktoś doświadcza silnego kryzysu psychicznego lub myśli samobójczych, powinien jak najszybciej skontaktować się z profesjonalną pomocą – lekarzem, terapeutą lub telefonem zaufania. I wreszcie trzecia rzecz: warto zachować ostrożność w udostępnianiu bardzo osobistych danych w rozmowie z systemami, które mogą je przetwarzać i przechowywać.

A teraz pytanie o ryzyko dla pracy samych terapeutów: czy wyobraża Pan sobie taką możliwość, że psychoterapeuci zaczną zbyt mocno polegać na AI i stracą część swoich kompetencji? Innymi słowy: czy AI ich nie „rozleniwi”?

Tak, to jedno z realnych zagrożeń. Można to porównać do nawigacji samochodowej. Wielu ludzi dziś nie potrafi już poruszać się w przestrzeni bez włączonej mapy. Narzędzie bardzo pomaga, ale jednocześnie osłabia nasze własne kompetencje. Dlatego ważna jest pewna higiena korzystania z AI. Terapeuta powinien zadawać sobie pytanie: czy potrafiłbym dojść do tego wniosku samodzielnie? Czy rozumiem, dlaczego model wygenerował taką odpowiedź? Jeśli nie chcemy utracić kompetencji klinicznych, musimy nadal używać własnego myślenia.

Jak może wyglądać przyszłość psychoterapii w świecie sztucznej inteligencji?

Trudno być tutaj prorokiem. Wszystko zależy od tego, jak będą wyglądały regulacje i w jaki sposób społeczeństwo zdecyduje się korzystać z tych technologii. Jeżeli nie będzie żadnych regulacji, mogą pojawiać się bardzo niebezpieczne sytuacje. Już dziś zdarzają się przypadki, w których osoby w kryzysie psychicznym polegają wyłącznie na rozmowach z AI i nie otrzymują odpowiedniej pomocy. Z drugiej strony całkowity zakaz korzystania z takich narzędzi również nie rozwiąże problemu. Najbardziej realistycznym scenariuszem wydaje się podejście hybrydowe: sztuczna inteligencja jako narzędzie wspierające, ale z jasno określonymi zasadami i z zachowaniem centralnej roli człowieka.

Dlatego tak ważne jest, aby środowiska terapeutyczne zaczęły same wypracowywać standardy korzystania z AI. Jeśli tego nie zrobimy, zrobią to za nas firmy technologiczne albo regulatorzy – niekoniecznie z uwzględnieniem specyfiki pracy terapeutycznej. Ramy prawne już zresztą powstają — unijny AI Act klasyfikuje AI w zdrowiu psychicznym jako systemy wysokiego ryzyka, a kluczowe przepisy wejdą w życie w 2027 roku. To jeden z powodów, dla których nie możemy czekać z wypracowaniem standardów.

Czy w środowisku terapeutów pojawia się obawa, że sztuczna inteligencja może ich zastąpić?

Takie obawy się pojawiają, choć na razie są one raczej elementem dyskusji niż realnym scenariuszem w najbliższym czasie. Na obecnym etapie rozwoju sztuczna inteligencja może być przede wszystkim narzędziem wspierającym. Może pomagać w analizie danych, w porządkowaniu informacji czy w pracy administracyjnej. Nie jest jednak w stanie zastąpić relacji terapeutycznej.

Najważniejsze jest to, aby środowisko terapeutów nie udawało, że sztuczna inteligencja nie istnieje. Dlatego zamiast próbować ignorować nowe technologie, lepiej nauczyć się korzystać z nich w sposób odpowiedzialny i bezpieczny. Największym wyzwaniem na najbliższe lata będzie znalezienie równowagi między wykorzystaniem nowych technologii a zachowaniem tego, co w psychoterapii najważniejsze – relacji między dwojgiem ludzi.

***

Dr n. med. Artur Wiśniewski – lekarz psychiatra, psychoterapeuta poznawczo-behawioralny oraz superwizor-dydaktyk Polskiego Towarzystwa Terapii Poznawczej i Behawioralnej. Związany m.in. z Kliniką Uniwersytetu SWPS oraz Centrum CBT w Warszawie. Kierownik merytoryczny studiów podyplomowych z psychoterapii poznawczo-behawioralnej na SWPS. Członek Sądu Koleżeńskiego PTTPB. Od ponad dwóch dekad pracuje klinicznie z dziećmi, młodzieżą i dorosłymi.

Autopromocja
381367mega.png
381364mega.png
381208mega.png
Źródło: gazetaprawna.pl

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.