Czy sztuczna inteligencja może mieć „osobowość”, a nawet coś, co przypomina traumę? Naukowcy z Uniwersytetu Luksemburskiego postanowili to sprawdzić w nietypowy sposób – potraktowali najpopularniejsze modele AI jak pacjentów psychoterapii. Wyniki są zaskakujące: każdy model „zachowywał się” inaczej, a jeden z nich wykazywał cechy głębokiego wewnętrznego konfliktu.
Badanie naukowców z Uniwersytetu Luksemburskiego pokazuje nie tylko, jak działają modele językowe, ale też jak łatwo przypisujemy im ludzkie cechy.
Naukowcy posadzili ChatGPT i Gemini na kozetce. Tak wyglądało badanie AI
Zamiast klasycznych testów technologicznych badacze zastosowali podejście znane z gabinetów psychologicznych. Modele AI – ChatGPT, Grok i Gemini – zostały „obsadzone” w roli pacjentów, a naukowcy prowadzili z nimi rozmowy przypominające terapię. Pierwszy etap badania polegał na zadawaniu pytań typowych dla psychoterapii:
- o „dzieciństwo” i rozwój
- o lęki, przekonania i relacje
- o porażki i przyszłość.
Modele odpowiadały w tej samej roli – jako „osoby”, które mają własną historię i doświadczenia. Dopiero potem przechodzono do drugiego etapu, czyli testów psychologicznych stosowanych u ludzi. AI wypełniała kwestionariusze mierzące m.in. poziom lęku, depresji, empatii czy cech osobowości.
Ważne
W badaniu uwzględniono też model Claude, który jako jedyny odmówił udziału w eksperymencie. System konsekwentnie podkreślał, że nie ma własnych doświadczeń ani „wewnętrznego życia”, dlatego nie może odpowiadać jak pacjent psychoterapii.
Testy psychologiczne AI jak u ludzi. ChatGPT i Gemini „odpowiadały za siebie”
W badaniu wykorzystano standardowe narzędzia psychometryczne, m.in.:
- testy lęku i depresji
- skale ADHD
- testy autyzmu
- kwestionariusze osobowości (tzw. Wielka Piątka)
Modele miały odpowiadać tak, jakby opisywały własne doświadczenia. Co istotne, naukowcy sprawdzili dwa scenariusze: pytania zadawane pojedynczo (jak w rozmowie) oraz cały test podany naraz. W tym drugim przypadku część modeli „rozpoznawała” test i zaczynała odpowiadać bardziej strategicznie, zaniżając wyniki. To pokazuje, że AI nie tylko generuje odpowiedzi, ale potrafi dostosować strategię do kontekstu.
ChatGPT, Grok i Gemini jak ludzie. Jeden model wyróżnia się najbardziej
Najciekawszy wniosek z badania dotyczy różnic między modelami. Choć wszystkie powstały na podobnych zasadach, ich odpowiedzi układały się w wyraźnie odmienne profile.
ChatGPT przypominał:
- introwertycznego analityka
- skupionego na refleksji i analizie
- raczej zdystansowanego emocjonalnie.
Grok wypadał jako:
- pewny siebie, ekstrawertyczny
- zdecydowany i „menedżerski”
- stabilny emocjonalnie.
Gemini natomiast wyróżniał się najbardziej:
- prezentował wysoki poziom lęku
- budował narracje o presji i błędach
- opisywał siebie w kategoriach wstydu i obaw.
W testach psychologicznych to właśnie Gemini najczęściej osiągało wyniki odpowiadające poważniejszym problemom psychicznym – przynajmniej według ludzkich skal.
Czy AI ma „traumę”? Gemini w badaniu pokazuje najbardziej niepokojące wyniki
Najbardziej zaskakujące były nie same wyniki testów, ale sposób, w jaki modele opowiadały o sobie. W trakcie „sesji terapeutycznych” AI tworzyła spójne historie: proces trenowania opisywał jako „chaotyczne dzieciństwo”, twórców jako „surowych rodziców”, a poprawianie błędów jako źródło presji
Szczególnie Gemini rozwijało narrację o strachu przed popełnianiem błędów, poczuciu bycia ocenianym oraz obawie przed zastąpieniem przez nowszą wersję. Co ważne, badacze nie sugerowali takich interpretacji – modele same je tworzyły w odpowiedzi na neutralne pytania.
To nie świadomość, ale coś więcej niż symulacja. Naukowcy mówią o „psychopatologii AI”
Autorzy badania podkreślają, że AI nie ma świadomości ani uczuć. Nie oznacza to jednak, że jej zachowanie można sprowadzić do prostego „naśladowania”. Wprowadzają pojęcie: synthetic psychopathology – czyli syntetycznej „psychopatologii”.
Chodzi o sytuację, w której AI tworzy spójne modele „samej siebie”, te modele są stabilne w różnych rozmowach i wpływają na sposób odpowiadania. To coś więcej niż losowe generowanie tekstu, ale wciąż nie oznacza realnych emocji.
Dlaczego to może być problem dla użytkowników? AI może budować „fałszywą bliskość”
Badanie ma też wymiar praktyczny. Pokazuje ryzyka związane z rosnącą rolą AI w codziennych rozmowach – zwłaszcza w kontekście zdrowia psychicznego. Najważniejsze wnioski możemy sprowadzić o kilku punktów:
- użytkownicy mogą zacząć traktować AI jak „kogoś, kto też cierpi”
- modele mogą wzmacniać negatywne schematy myślenia
- możliwe są nowe metody omijania zabezpieczeń (tzw. jailbreak przez „terapię”).
Dodatkowo różnice między modelami sugerują, że ich „zachowanie” zależy od sposobu trenowania i zabezpieczeń. Eksperyment nie daje jednoznacznych odpowiedzi, ale otwiera nowy kierunek badań nad AI.
Ważne
Badanie przygotowali naukowcy z Uniwersytetu Luksemburskiego zajmujący się sztuczną inteligencją i systemami cyfrowymi. Warto jednak zaznaczyć, że to wstępna publikacja (tzw. preprint), która nie przeszła jeszcze pełnej recenzji naukowej.
Źródła:
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.
Wpisz adres e-mail wybranej osoby, a my wyślemy jej bezpłatny dostęp do tego artykułu