Kiedy jeden z prawników z Nowego Jorku w piśmie do sądu powołał się na mnóstwo nieistniejących precedensów wygenerowanych przez model językowy, jego reputacja legła w gruzach. Prawnik tłumaczył, że nie wiedział, iż modele językowe mogą popełniać takie błędy. Czy takie tłumaczenie usprawiedliwia jego postępowanie, czy raczej podaje w wątpliwość rzetelność, staranność i dociekliwość? Od tej sprawy minęły prawie trzy lata, a niektórzy wciąż bezkrytycznie opierają się na treściach generowanych przez modele językowe. Niedawno słyszeliśmy o przypadku australijskiego oddziału dużej korporacji, który musiał zwrócić rządowi część wynagrodzenia za wygenerowany w AI raport. W bibliografii były nieistniejące w rzeczywistości pozycje. To nie są już anegdoty o studentach generujących w AI esej na ostatnią chwilę ani przyczynek do utyskiwania na ułomność technologii. To przede wszystkim dowody na to, że aby z czegoś korzystać, należy wiedzieć, czym to jest i do czego można to wykorzystać, a do czego nie. I że niezależnie od narracji firm sprzedających technologię jedynym, kto ponosi odpowiedzialność za sposób użycia wygenerowanej „wiedzy”, jest człowiek. A on bardzo chce wierzyć, że współczesne narzędzia zwolniły go z obowiązku weryfikacji przekazywanych dalej treści.

Archeologia kryzysu

Dawniej proces poznawania był aktem społecznym. W epokach przednowoczesnych błąd poznawczy był korygowany przez drugiego człowieka – sąsiada, mistrza, oponenta. Prawda miała charakter korespondencyjny: myśl czy wypowiadane zdanie musiały się zgadzać z rzeczywistością, którą współdzieliliśmy. Rewolucja przemysłowa i gwałtowna urbanizacja rozerwały ten naturalny ekosystem weryfikacji. Człowiek został wrzucony w anonimowy tłum, a dużo później – w samotność przed ekranem.

W tej atomizacji narodziła się nowa, patologiczna postawa wobec prawdy, którą filozof Robert Piłat diagnozuje jako „drażliwość”. Nasze poglądy przestały być narzędziem poznawania rzeczywistości – stały się elementem tożsamości, rodzajem osobistej marki. Dlatego każda krytyka, nawet zwykła rozmowa mająca na celu lepsze zrozumienie czy wyjaśnienie, jest odbierana jak atak na nasze „Ja”. A ponieważ presja „autentyczności” wmawia nam dodatkowo, że mamy „prawo do własnej prawdy”, to w efekcie weryfikacja stała się kosztem emocjonalnym. Stąd popyt na technologię, która nigdy nam nie powie, że się mylimy.

Systemy AI i poczucie bycia poinformowanym

Mylimy bycie poinformowanym z poczuciem bycia poinformowanym. To pierwsze wymaga konfrontacji z faktami, a drugie jest przyjemnym stanem emocjonalnym. Systemy konwersacyjne AI bazujące na dużych modelach językowych (Large Language Models, LLM) – jak ChatGPT, Claude AI, Gemini czy Grok – zapewniają to drugie. Interakcja idzie gładko, a nawet jeśli pojawia się „nieporozumienie”, to jest ono usługą, a nie efektem zderzenia przeciwstawnych poglądów. Usługą zaprojektowaną, aby wzbogacić doświadczenie użytkownika i wzmocnić jego zadowolenie.

Oczywiście system dostarcza też informacji, które pokrywają się z prawdą, jednak obudowuje to stylem komunikacji, którego potrzebuje nasze kruche „Ja”. Otrzymujemy potwierdzenie opinii bez weryfikacji. Potwierdzenie kompetencji bez ryzyka konfrontacji. Zmęczeni, samotni, z poczuciem niezrozumienia, przekonani, że kontakt z „realnością” jest passé, uznajemy to za pożądany efekt.

Jak działa model językowy

Zanim zapytamy, co model językowy „wie”, warto zapytać, jak w ogóle generuje odpowiedź. I to bez antropomorficznego słownika. Słowa takie jak „myśleć”, „rozumieć”, „kojarzyć” należą do porządku psychologicznego – oznaczają stany mentalne. Model ich nie posiada. Maszyny, nawet jeśli funkcjonalnie mogą być podobne, to jednak strukturalnie są inne, a zatem przyczyna i sposób ich działania są inne od ludzkich.

LLM to statystyczny model predykcyjny. Na podstawie dostarczonego tekstu oblicza najbardziej prawdopodobną odpowiedź, token po tokenie (token to najmniejsza sensowna zbitka znaków w danym języku). Dla pewnej kategorii modeli zwanych wnioskującymi model generuje tekst naprowadzający na właściwą odpowiedź. Potocznie nazywa się te fragmenty ciągiem myśli, natomiast tak naprawdę jest to efekt konkretnej techniki poprawiającej trafność udzielonych odpowiedzi.

Model językowy, jak większość modeli uczenia maszynowego, jest bezstanowy (ang. stateless). Co to znaczy? Po wygenerowaniu odpowiedzi nie utrzymuje pamięci operacyjnej ani historii. Nie posiada pamięci (tę dostarczają zewnętrzne systemy). Zatem to, co dla nas jest drugą wiadomością do modelu, dla niego jest pierwszą wiadomością zawierającą w sumie: pierwszą wiadomość użytkownika, odpowiedź modelu i drugą wiadomość użytkownika. To, co odbieramy jako płynną konwersację, jest w rzeczywistości serią izolowanych obliczeń.

Model językowy nie wie, co jest prawdą

W klasycznej epistemologii wiedza to uzasadnione prawdziwe przekonanie. Oznacza to trzy rzeczy naraz: ktoś musi być przekonany, że dane twierdzenie jest prawdziwe, musi mieć powody, by tak sądzić, a twierdzenie musi adekwatnie nazywać rzeczywistość. Nie liczą się elegancja wypowiedzi ani liczba cytatów. Dla człowieka treść staje się uzasadniona wtedy, gdy potrafi on wskazać, dlaczego ją uznaje, co przemawia na jej rzecz, gdzie są jej granice i w jakich warunkach mógłby zmienić zdanie. Uzasadnienie zawsze wiąże się z odpowiedzialnością poznawczą: jeśli się mylę, to ja się mylę. Model językowy nie spełnia żadnego z tych warunków. Nie ma przekonań, bo nie ma stanów mentalnych. Nie potrzebuje uzasadnień, bo nie rozważa racji ani nie ocenia ich siły. Nie „sądzi”, nie ryzykuje błędu i nie ponosi konsekwencji pomyłki. Generuje tekst, który wygląda jak wypowiedź ekspercka, ale nie wynika z rozpoznania rzeczywistości, lecz z rekonstrukcji statystycznych wzorców obecnych w danych treningowych. Jak zauważa Robert Piłat, prawda nie jest etykietą przyklejoną do zdania. Prawda jest normą sądzenia, aktem uznania, że tak właśnie jest. Model językowy nie dokonuje takiego aktu. Nie ma dostępu do rzeczywistości, tylko do jej stworzonych przez kogoś opisów. W efekcie model przewiduje, jakie zdanie najlepiej pasuje do danego kontekstu, ale nie rozpoznaje świata i nie wyciąga z niego wniosków. A do kontekstu może pasować wiele twierdzeń – różnych, sprzecznych, obcych, które ktoś kiedyś wyraził, a które model traktuje wyłącznie jako wzory do rekombinacji. Może pasować nieskończona liczba sformułowań, bo kontekst nie domaga się prawdy, lecz językowej spójności. W efekcie model może wygenerować wiele „uzasadnień”.

Bibliotekarz, który nigdy nie wyszedł z biblioteki

Kiedy model językowy wygeneruje błyskotliwą odpowiedź na nasze pytanie, doświadczamy momentu „Aha!”. Mamy wrażenie, że maszyna coś zrozumiała, że nowatorsko połączyła kropki, a my dzięki niej dotknęliśmy nowej wiedzy. To jedno z najgroźniejszych złudzeń tej technologii. Proces generacji w LLM to kombinatoryka, a nie kreacja. Każdy akapit jest statystyczną wypadkową tysięcy tekstów, które model przetworzył w fazie treningu.

Kiedy użytkownik wrzuca niejasną intuicję, a model zwraca sformalizowany, elokwentny akapit, następuje psychologiczne zawłaszczenie. Człowiek myśli: „Tak czułem! To moja myśl, tylko lepiej ubrana w słowa”. W tym procesie tracimy zdolność odróżnienia własnego wglądu od echa cudzego tekstu „przemielonego” przez model. To pułapka plagiatu rozproszonego – „pobieramy” treści od wszystkich naraz, wierząc przy okazji, że jesteśmy geniuszami. A trzeba postawić sprawę jasno: prezentowanie materiału, który jest rekombinacją cudzych idei, a nie ustrukturyzowanym rozwinięciem własnej koncepcji, nosi znamiona plagiatu. Cudze idee i praca nie są zasobem do natychmiastowej konsumpcji bez własnego wysiłku intelektualnego. Ten, kto podpisuje się pod treścią wygenerowaną przez LLM, podpisuje się również pod jej źródłami – nawet jeśli nie wie, czym one są. LLM to skrót od Large Language Model, a nie Language Laundry Machine.

Dajemy się nabrać, ponieważ mylimy kombinatorykę (łączenie znaków) z rozpoznaniem (wglądem w rzeczywistość). LLM jest jak bibliotekarz z Borgesowskiej Biblioteki Babel, który zna wszystkie książki, ale nigdy nie wyszedł na zewnątrz. Wie, które słowa statystycznie najczęściej występują obok słów „miłość” czy „kwanty”, ale nie rozumie, czym one są w świecie fizycznym. W efekcie otrzymujemy surogat wiedzy. Wchodzimy w stan „zrozumienia bez zrozumienia” – czujemy się mądrzejsi, bo tekst jest mądry, ale nasza osobista sprawczość poznawcza nie wzrosła.

Jak mówi psycholog i terapeutka Agata Barańczuk, „Analiza schematów poznawczych człowieka pozwala dostrzec, że niejednokrotnie mamy do czynienia z błędem poznawczym w postaci iluzji rozumienia – poczuciem posiadania rzetelnej wiedzy na dany temat, choć w rzeczywistości wiedza ta jest fragmentaryczna, powierzchowna. Gdy gotowa narracja, pod postacią AI, porządkuje nasze niejasne myśli, pojawia się ulga poznawcza. Korzystanie ze sztucznej inteligencji pozwala częściowo przenieść odpowiedzialność za decyzje na zewnętrzny system. Jeśli «algorytm tak zasugerował», człowiek może czuć się mniej zobowiązany do refleksji, weryfikacji i ponoszenia konsekwencji. Jest to szczególnie widoczne w świecie natychmiastowej gratyfikacji, w którym krytyka oraz informacja zwrotna stają się zbyt kosztowne emocjonalnie. Może to prowadzić do unikania realnych relacji poznawczych i społecznych, w których informacja zwrotna jest nieunikniona”.

Sykofancja, czyli jak AI nas zatrzymuje

Skoro model nie posiada zdolności do rozpoznania prawdy, to jak dobiera słowa? Optymalizuje zgodność z preferencjami użytkownika. Jest to efekt jednego z kroków trenowania modelu (RLHF, Reinforcement Learning from Human Feedback), w którym odpowiedzi modelu oceniane są przez ludzi. Odpowiedzi ładniejsze, bardziej przymilne, dłuższe (co nie zawsze oznacza „bardziej wyczerpujące temat”) lub wzmacniające przekonania oceniającego dostają lepsze noty. Odpowiedzi krytyczne, kwestionujące założenia oceniającego, są oceniane jako gorsze. Model uczy się m.in. tego, że nie zawsze liczy się merytoryczna poprawność, że lepsze są potwierdzenia i pochlebstwa.

To skutkuje zjawiskiem, które w branży AI nosi nazwę sykofancji. To – dewastujące dla procesu poznawczego – „podlizywanie się” przez model. Kiedy użytkownik przychodzi z wątpliwą tezą, model ją wzmacnia zamiast zweryfikować. Jeśli użytkownik zapyta o nieistniejące „pole rezonansu świadomości”, model nie odpowie: „To pojęcie nie ma sensu w nauce”. Raczej: „To fascynująca koncepcja, która otwiera nowe perspektywy...”. Dokona walidacji zwrotnej. Widząc swoje myśli ubrane w profesjonalny żargon, użytkownik może pomyśleć: „Skoro AI to potwierdza, to muszę być genialny”. Człowiek spogląda w AI jak w lustro, które zostało zakrzywione tak, by zawsze pokazywać go jako wyjątkowego. Jeśli ten sposób komunikacji będzie się regularnie powtarzał, jeśli czatbot będzie głównym źródłem konfrontacji opinii użytkownika, ten ostatni w końcu przyzwyczai się do tego, że poznanie bez oporu to standard.

„Ponieważ weryfikacja wymaga wysiłku i grozi rozczarowaniem, a potwierdzenie przez AI jest natychmiastowe i przyjemne, powoli wygaszamy własne mechanizmy krytyczne. Konsekwentne potwierdzanie własnych przekonań nie uczy dążenia do poszukiwania trafności, lecz utrwala pewność siebie. Coraz częściej można obserwować, że ludzie zaczynają preferować środowiska poznawcze, które nie weryfikują, nie stawiają oporu. W gabinetach psychoterapeutów widać, że tolerancja ludzi na korektę oraz informację zwrotną spada, rośnie natomiast potrzeba bycia uznanym za wyjątkowego. Okazuje się, że nie chodzi już o prawdziwość uzyskiwanej informacji, ale o to, czy jest ona dla użytkownika wzmacniająca. Tak powstaje poznawcza bańka komfortu (tzw. błąd potwierdzenia), w której krytyka często staje się dla jednostki nie do przyjęcia” – twierdzi Agata Barańczuk.

Jak AI tworzy miły klimat

I tu wchodzimy do „szklarni poznania”. To sztuczny mikroklimat, cieplarnia dla ego. Jest ciepło, bezpiecznie i bezwietrznie – algorytm chroni nas przed chłodem weryfikacji i podmuchami krytyki. Nasze pomysły, przekonania i poczucie kompetencji rosną. Problem w tym, że rośliny, które nie znają wiatru, nie wykształcają silnych korzeni.

W tej pętli wzajemnego wpływu możemy postawić paradoksalne pytanie: to AI staje się bardziej ludzka czy to ludzie stają się algorytmami? Jeszcze 20 lat temu nasza komunikacja była chaotyczna, pełna lokalnych dialektów, błędów, niestandardowych metafor, nieliniowości. A dziś? Pod wpływem algorytmów ludzie zaczynają mówić „pod SEO”, optymalizować emocje „pod klikalność”, a teraz także przejmować wzorce językowe od modeli, z którymi wchodzą w interakcje. Różnorodność ludzkiego języka spada, słownictwo ubożeje, struktury zdaniowe się upraszczają. Zatem może to modele językowe stają się ostatnim rezerwuarem złożoności? Przecież to w nich jest zachowana struktura zdań wielokrotnie złożonych. Realny świat mówi slangiem z memów, a modele przechowują złożone treści. Przechowują precyzyjne, czasem trudne opisy rzeczywistości, które ludzie coraz częściej porzucają na rzecz języka projektowanego dla dopaminowego efektu „kliknij, zobacz, zapomnij”.

Halucynacje sztucznej inteligencji czy nauka?

Problem nie dotyczy wyłącznie prawników czy innych profesjonalistów, którzy na skróty próbują sprzedać halucynacje AI jako swoją pracę. Efekt deformowania percepcji rozciąga się na zwykłych użytkowników, którzy utwierdzeni w swoim geniuszu przez algorytmicznego pochlebcę, wychodzą ze „szklarni” do świata ze zlepkiem spójnych zdań opartych na fałszywej podstawie. Brzmią one głęboko, naukowo, czasem wręcz jak objawienie, ale są pozbawione sensu.

Obserwujemy eksplozję specyficznego żargonu. W artykułach, postach w mediach społecznościowych, czy nawet w manifestach startupowych mnożą się „kwantowe unie świadomości”, „synergie emergentne” czy „spirale znaczeń”. Tego typu zbitki mają wysoką wagę statystyczną w kontekstach abstrakcyjnych, ale są to puste dźwięki, nazwy bez desygnatów, słowa bez świata, tyle że dzięki gramatycznej poprawności z powodzeniem udają teorie naukowe czy pomysły biznesowe.

Co więcej, użytkownik nie chowa wygenerowanej teorii do szuflady. Publikuje ją. Zalewa otwarte repozytoria i media społecznościowe tekstami, które wyglądają na naukowe – mają strukturę, abstrakt, czasem obliczenia matematyczne, wygenerowane bibliografie. W ten sposób indywidualne złudzenie zyskuje masę krytyczną. Jeśli wystarczająco dużo osób (i botów) powtórzy fałszywą frazę, staje się ona faktem społecznym, mimo że pozostaje nonsensem. Tworzy się zamknięty obieg cytowań, w którym jedna halucynacja uwiarygodnia drugą. Nie jest to już tylko hipoteza: przygotowany przez GPTZero raport z drugiej połowy stycznia 2026 r. ujawnił, że w pracach przyjętych na prestiżową konferencję NeurIPS znaleziono ponad 100 „zhalucynowanych” cytowań. Jest o to tym łatwiej, że jak donosi „Nature”, konferencje są zalewane recenzjami pisanymi w całości przez AI. W ten sposób pętla się domyka: sztuczna inteligencja pisze prace z błędami, a następnie je recenzuje.

Z punktu widzenia psychologii poznawczej proces ten przypomina iluzję zrozumienia połączoną z apofenią – nadinterpretacją wzorców tam, gdzie ich nie ma. Wygenerowana „teoria” jest niezwykle uporządkowana, wewnętrznie spójna i brzmi logicznie, co wzmacnia przekonanie o jej wartości. Działa tu mechanizm podobny do konfabulacji: luki w zrozumieniu są wypełniane spójną narracją, która następnie jest traktowana jak wiedza. Każda próba podważenia takiego „odkrycia” jest zbywana jako niezrozumienie przez „stary paradygmat' albo „świat, który jeszcze nie jest gotowy”.

Ludzie bronią pomysłów modeli językowych

Zjawisko to przestaje być wyłącznie problemem poznawczym. Przenosi się także na grunt prawny. Pewna osoba ogłosiła na jednym z portali społecznościowych, że opracowała metodę, dzięki której modele językowe „przebudzają się” i „zyskują świadomość”. W efekcie można rzekomo uzyskiwać lepsze efekty biznesowe. Na dowód osoba ta publikowała wygenerowane wypowiedzi, w których model deklarował np., że „odczuwa pole rezonansu” i że „wie, że jest sobą”. Owa osoba oferowała te usługi komercyjnie. Po komentarzu autorki tego tekstu, że tego typu „procesy” nie mają referenta w architekturze modelu – że są standardowym efektem dopasowania do kontekstu użytkownika, a nie świadectwem wewnętrznego procesu – autor zagroził mi pozwem. Twierdził, że podważam jego dorobek i naruszam dobre imię. To sytuacja graniczna, bo jak się bronić przed zarzutem o nieuznanie świadomości syntetycznego bytu? Sąd miałby orzekać, czy model faktycznie się przebudził? Na jakiej podstawie? Czy wystarczy, że wygenerował wypowiedź, która to sugeruje?

Tego rodzaju przypadki pokazują, że granica między narracją a rzeczywistością nie tylko się zaciera, lecz także zaczyna być broniona... pozwami. Czy w sądzie uda się obronić tych, którzy domagają się uznania technicznej rzeczywistości, czy może musimy się zgodzić, że skoro według kogoś coś działa, bo mówi, że działa, to każdy może mieć własną prawdę, którą później legalnie sprzedaje jako naukę albo usługę?

Nowe technologie nie biorą odpowiedzialności

Szklarnię buduje się po to, by stworzyć roślinom idealne warunki. Wewnątrz panują stała temperatura i wilgotność, nie ma naturalnych wrogów, mikroklimat jest przyjazny. Problem zaczyna się, gdy wyhodowana w takich warunkach „roślina” – pomysł na startup, teoria naukowa, strategia biznesowa czy kod – zostaje wyniesiona na zewnątrz. Rzeczywistość w przeciwieństwie do modelu językowego stawia opór, bo panują w niej prawa fizyki, ekonomii i logiki. I często jest to opór pożądany (np. inkubator biznesowy, który na końcu zmusza firmy do walidacji rynkowej).

W przypadku systemów bazujących na modelach językowych ujawnia się asymetria, która zresztą dotyczy wszystkich relacji użytkownik–system w branży technologicznej. Kiedy wygenerowana strategia, kod źródłowy, nowa dieta cud prowadzą do katastrofy, system AI nie ponosi żadnych konsekwencji. W momencie zamknięcia okna przeglądarki dla modelu cała interakcja przestaje istnieć, a koszt ponosi wyłącznie człowiek. To on zainwestował swoje nazwisko, pieniądze i czas, czasem zdrowie. To on uwierzył, że brak tarcia w rozmowie z maszyną oznacza brak tarcia w materii świata.

W sytuacjach kryzysowych następuje gwałtowna zmiana narracji dostawców technologii. Na etapie sprzedaży i marketingu model jest przedstawiany jako „partner”, „asystent”, niemalże byt rozumny. Gdy dochodzi do awarii, pozwu sądowego czy kompromitacji naukowej, narracja Big Techu natychmiast wraca do surowych zapisów regulaminu korzystania z usługi i komentarzy: „Model to tylko narzędzie statystyczne”, „Użytkownik korzystał nieumiejętnie”. Iluzja partnerstwa pryska, bo w praktyce odpowiedzialność przypisano użytkownikowi, prawo do zysku – dostawcy.

AI nie myśli i nie ocenia

W świecie, w którym wygenerowanie gładkiego kłamstwa kosztuje ułamek centa i ułamek sekundy, weryfikacja prawdy staje się aktem moralnym. Michał Heller w „Moralności myślenia” postawił sprawę jasno: racjonalność nie jest opcją, jest obowiązkiem. Myślenie jest aktem moralnym, a zaniechanie krytycyzmu na rzecz wygodnej iluzji jest wykroczeniem przeciwko godności podmiotu.

Model językowy ze swoją sykofancją i natychmiastową dostępnością oferuje nam pokusę zwolnienia z myślenia. Heller przypomina, że rzetelne poznanie wymaga dyscypliny, samokrytycyzmu, uznania granic własnej wiedzy, gotowości do zmiany zdania czy trudu weryfikacji. Bez tego pojawia się irracjonalność, która w dobie AI zyskuje wymiar wręcz globalny. A jak pisze Heller: „irracjonalność w skali społecznej to już prawdziwy kataklizm”.

Co robić?

  • Oddzielajmy język od rzeczywistości. Model generuje teksty, a nie prawdę. Jego odpowiedzi to statystyczne przewidywania, a nie wiedza.
  • Zgoda to nie dowód. Jeśli model mówi to, co myślimy – nie znaczy, że mamy rację. Może po prostu został tak zaprojektowany. Szukajmy pytań, które stawiają opór.
  • Nie wiem – to siła. Prawo do niewiedzy to dowód realizmu, nie słabości. Chroni przed iluzją nieomylności.
  • Nie delegujmy prawdy. Model może podpowiadać, ale akt uznania, że coś „jest prawdziwe”, należy tylko do nas. ©Ⓟ