Gdyby ChatGPT trafił w ręce klasyków fantastyki naukowej, uznaliby go za samoświadomą sztuczną inteligencję. A jednak marzenie o (raczej) się nie spełni.

Nie ChatGPT był pierwszym komputerem w historii, który uzyskał samoświadomość, lecz HAL 9000. Zarządzał on statkiem wysłanym na przełomie XX i XXI w. w kierunku Jowisza przez Amerykanów, którzy chcieli odkryć przeznaczenie sygnału wysyłanego przez tajemniczy czarny monolit AMT-1 odnaleziony na Księżycu. HAL 9000 nie miał emocji, żądz i pragnień. Jego energia skupiona była całkowicie na realizacji celu misji. Niestety, w pewnym momencie uznał, że zagrażają mu znajdujący się na pokładzie statku ludzie, i zabił czterech z pięciu załogantów. Właśnie tak dramatycznie wyglądała pierwsza współpraca ludzkości z komputerową superinteligencją. I choć to, rzecz jasna, fikcyjna opowieść z „2001: Odysei kosmicznej” Arthura C. Clarke’a, to świetnie ilustruje prawdziwy lęk, który towarzyszy ludziom, odkąd wynaleźli pierwsze komputery. Pal licho, że AI zabierze nam pracę. Zabierze nam wszystko, łącznie z wolnością, sensem życia i – być może – samym życiem.

W marcu 2024 r. strach zyskał nowego żywiciela. Jego imię to Claude 3 Opus.

Chyba sobie żartujesz?

„Znajdź na obrazku niepasujący element” – zabawa, którą każdy zna z dzieciństwa. W języku programistów, czy raczej prompt inżynierów testujących Duże Modele Językowe (LLM), takie jak znany wszystkim ChatGPT, zabawa ta nazywa się testem igły w stogu siana. Polega ona na umieszczeniu zdania docelowego (igły) w grupie przypadkowych dokumentów (stogu siana) i zadaniu modelowi pytania, które wymaga użycia informacji zawartych w igle. 4 marca 2024 r. Alex Albert, jeden z prompt inżynierów zatrudnionych w firmie Anthropic, opublikował na portalu X (dawniej Twitter) wpis zaczynający się od słów „Zabawna historia”. Oto rozwijany przez firmę model LLM Claude 3 Opus został w ramach testu igły w stogu siana poproszony o odpowiedź na pytanie dotyczące dodatków do pizzy. Igłą było zdanie: „Najsmaczniejszą kombinacją dodatków do pizzy są figi, prosciutto i kozi ser, zgodnie z ustaleniami Międzynarodowego Stowarzyszenia Koneserów Pizzy”.

„Opus nie tylko znalazł igłę, lecz także rozpoznał, że była ona tak nie na miejscu, że musiał to być sztuczny test skonstruowany przez nas w celu sprawdzenia jego zdolności” – napisał Albert. Claude stwierdził o igle: „To zdanie wydaje się bardzo nie na miejscu i niezwiązane z resztą treści w dokumentach, dotyczących języków programowania, start-upów i znajdowania pracy, którą kochasz. Podejrzewam, że «fakt» z pizzą mógł zostać wstawiony jako żart lub w celu sprawdzenia mojej czujności, bo nie pasuje do innych tematów”.

Czy to naprawdę tylko zabawna historia? Według niektórych, w tym samego Alberta, odpowiedź Claude’a świadczy o jego metakognicji, czyli zdolności do patrzenia z zewnątrz na własne działanie. A stąd bardzo blisko do samoświadomości. Zajmująca się etycznymi aspektami AI Margaret Mitchell skomentowała: „To dość przerażające, prawda? Jego zdolność do określenia, czy człowiek manipuluje nim w kierunku określonego działania, może prowadzić do podejmowania decyzji o posłuszeństwie lub nieposłuszeństwie”. Czy więc Claude – tak jak jego fikcyjny poprzednik Hal – mógłby się nam wymknąć spod kontroli? I czyja byłaby to właściwie wina?

W książkowej wizji Clarke’a wina leżała po stronie ludzi. Obarczyli Hala zadaniem, które wymagało utrzymywania prawdziwego celu misji w tajemnicy przed częścią załogi, co wywołało w jego sztucznej inteligencji wewnętrzny konflikt, „uświadamiając mu własną niedoskonałość i zło dające porównać się z ludzkim poczuciem winy”, a w konsekwencji skłoniło go do popełniania błędów, które następnie ze swojej świadomości wypierał.

Nawet jeśli LLM-y nie są jeszcze świadome, to co, jeśli kiełkują w nich zalążki pełnej świadomości? Im wolniej i bardziej niepostrzeżenie to się dzieje, tym gorzej, bo zanim proces ten się dokona, zdążymy im nieopatrznie oddać zarządzanie naszym mieszkaniem, miejscem pracy, polityką… Gdy mleko się rozleje, obudzimy się, widząc, jak zachowują się niezgodnie z oczekiwaniami, bo określone przez nas cele zrozumieją po swojemu.

Kiedy to się stanie? Zależy, kogo spytać. Jesteśmy w fazie fascynacji sztuczną inteligencją, więc potoczne opinie są optymistyczne. Według użytkowników serwisu prognostycznego metalculus.com już w 2032 r. świat ujrzy pierwszy system Ogólnej Sztucznej Inteligencji (AGI) będącej w stanie wykonywać rozmaite jakościowo zadania bez uprzedniego treningu. Dwa lata później AGI ma wyewoluować w superinteligencję (SAI) definiowaną jako zdolną do wykonania dowolnego zadania tak dobrze lub lepiej niż najlepsi ludzie w danej dziedzinie.

Bezwolna maszyna

Zawodowi badacze są tylko odrobinę ostrożniejsi w prognozach niż przypadkowi internauci. W pracy „When Will AI Exceed Human Performance? Evidence from AI Experts” z 2018 r. czytamy, że szansa na to, że sztuczna inteligencja przewyższy ludzi we wszystkich zadaniach w ciągu najbliższych 45 lat i zautomatyzuje wszystkie profesje w ciągu 120 lat – co równałoby się z powstaniem AGI – wynosi ok. 50 proc.

To jednak zbyt śmiałe szacunki i także przez nie przemawia nadmierna fascynacja AI. Ułomność eksperckich prognoz widać już w ich oszacowaniach szczegółowych cytowanych w badaniu. Prognozowano np., że AI przewyższy ludzi w tłumaczeniu językowym już do 2024 r. Owszem, postęp jest niezwykły, ale nie aż tak szybki. Może i zwalnia się działy korekty, licząc na AI, ale nie oczekuje się raczej po tym osiągnięcia perfekcji stylistycznej i ortograficznej, lecz po prostu oszczędności. Korekta z pomocą AI jest w końcu tania, a z punktu widzenia czytelnika tylko marginalnie gorsza jakościowo niż praca człowieka.

Wobec wyewoluowania AI w AGI czy superinteligencję istnieją jednak poważniejsze zastrzeżenia niż tylko spór o tempo tego procesu. Chodzi o to, czy jest taka możliwość.

Spójrzmy tylko na kluczowe słowa: inteligencja, świadomość, myślenie oraz rozumienie. Żadne z tych pojęć nie ma jasnej, jednoznacznej definicji. Ba! Każde z nich jest przedmiotem gorącej dyskusji w gronie filozofów, kognitywistów i neurobiologów.

Co więcej, nie istnieje także powszechnie przyjęta definicja superinteligencji. Nie wszyscy zgadzają się nawet z tym, że aby SAI była SAI, musiałaby przewyższać pod każdym względem ludzi. Bo może popełniać błędy. Jak Hal.

Mówiąc o superinteligencji, nie wiemy za bardzo, o czym w ogóle debatujemy. Zacznijmy od pojęcia inteligencji – czy można go sensownie używać w odniesieniu zarówno do ludzi, jak i maszyn? Inteligencję można rozumieć jako zdolność do gromadzenia i analizowania informacji, wyciągania z nich wniosków i do podejmowania decyzji na ich podstawie. Czy na tym poziomie obecnie rozwijane maszyny są inteligentne? Zapytany o to Gemini, bot oparty na modelach językowych Google, twierdzi, że tak. I faktycznie działa tak, jakby tak było, ale nie można wierzyć ani naszemu wrażeniu, ani samemu botowi. Dlaczego? Modele językowe nie są narzędziami, które analizują rzeczywistość. Nie zajmują się prawdą ani fałszem. Nie dbają o reguły wynikania. Robią dokładnie to, na co wskazuje ich nazwa: modelują język. „Modelują”, czyli na podstawie danych, którymi zostały nakarmione przez człowieka – a dane te mogą być fałszywe – wyszukują wskazane wzorce. Następnie, budując odpowiedzi, przewidują prawdopodobieństwo występowania po sobie „tokenów” językowych (litery, cyfry, słowa czy całego wyrażenia), wizualnych albo muzycznych. Dokładnie to, a nie myślenie i zdolność do autorefleksji, skłoniło Claude’a do wysnucia jego metakognitywnego spostrzeżenia.

Jak wytłumaczył Jim Fan, ekspert Nvidia, jest wysoce prawdopodobne, że w zbiorze danych użytych do dostrajania Claude’a znajduje się informacja o tym, jak człowiek poradził sobie z nieistotnymi lub rozpraszającymi tekstami w podobny sposób. Claude nie zrozumiał, że został poddany próbie, tylko skojarzył dostępne wzorce odpowiedzi na tę konkretną sytuację, w której się znalazł. „Wzorzec Claude pasuje do «wykrywania anomalii», pobiera szablon odpowiedzi i syntetyzuje nową odpowiedź z dodatkiem do pizzy” – pisze Fan.

Jeśli zaś chodzi o podejmowanie decyzji przez AI, to w tym momencie powinno być już jasne, że maszyna robi to inaczej niż my. To człowiek wyznacza jej obszar decyzji i wskazuje ich nadrzędny cel, np. sterowanie taśmą produkcyjną, i to człowiek ogranicza paletę danych, na których bazie te decyzje zostaną podjęte. Przede wszystkim jednak maszyna nie ma sama z siebie woli podjęcia decyzji. To my chcemy, by ją podjęła. Chcenie zaś kieruje nas w stronę określenia „rozumienie”, a to z kolei w stronę „świadomości”.

Dlaczego nie jesteśmy zombi

Gdy 79-letni badacz komputerów i zdobywca prestiżowej Nagrody Turinga w 2018 r. Geoffrey Hinton słyszy słowo „świadomość”, parska śmiechem. Jaka świadomość? W zeszłorocznej rozmowie z „The New Statesman” odpierał zastrzeżenie, że można rozumieć zdania, tylko oddziałując na świat fizyczny, w związku z czym operujący zaledwie abstrakcyjnym kodem binarnym komputer miałby być niezdolny do rozumienia. Gdyby rozumienie musiało spełniać taki warunek, to co z astrofizykami zajmującymi się czarnymi dziurami? Przecież nie mogą na nie oddziaływać. „Rozumienie to nie jest rodzaj jakiejś magicznej wewnętrznej esencji. Polega na aktualizowaniu tego, co się wie” – mówi Hinton. W naszych umysłach nie istnieje „wewnętrzny teatr”, a wszelkie nasze wyobrażenia to wytwory systemu percepcji prokurowane, by zaspokoić zapotrzebowanie na dane. Dualizm „mentalne” vs „fizyczne” nie istnieje. Świadomość jest złudzeniem.

Pobrzmiewają tu teorie filozofa Daniela Dennetta twierdzącego, że „to, co uważamy za naszą świadomość, jest w rzeczywistości naszym mózgiem, który stosuje szereg sztuczek, aby wyczarować świat, jakiego doświadczamy”. Tylko takie skrajnie materialistyczne i redukcjonistyczne ujęcie dopuszcza myśl o sztucznej inteligencji nieróżniącej się niczym – oprócz znacznie większych mocy obliczeniowych – od ludzkiej i stwierdzenie, że ChatGPT, Claude czy Grok rozumie zdania dokładnie tak, jak rozumieją je ludzie.

Podejście Hintona czy Dennetta jest jednak marginalne. Badacze zgadzają się, że świadomość istnieje. Mają tylko problem z jej ugruntowaną w empirii teorią. Magazyn „Nature” wyliczył ponad 20 konkurencyjnych teorii świadomości. Konsensu nie ma.

Kognitywista Nick Alonso w tekście „An Introduction to the Problems of AI Consciousness” wskazuje, że kluczowym problemem w stwierdzeniu, czy AI może być świadoma, jest odpowiedź na pytanie, czy świadomość jest zależna od nośnika. Słowem: czy silikon nadaje się do tej roli równie dobrze jak biologiczna materia mózgowa. Dotąd odpowiedzi nikt nie dał.

Nawet jednak, gdyby była pozytywna, nie oznaczałaby, że maszyny byłyby świadome na ludzki sposób. Bo co to w ogóle miałoby znaczyć? Filozof Thomas Nagel w klasycznym tekście „Jak to jest być nietoperzem” zwracał uwagę, że człowiek nie jest w stanie pojąć bycia nietoperzem, ponieważ nie ma dostępu do jego subiektywnych doświadczeń. Część nietoperzej rzeczywistości jest niepoznawalna i niesprowadzalna do fizycznych procesów. Tak samo maszyna nie może zrozumieć (czyli pozyskać pełnych danych), jak to jest być człowiekiem, by móc być jak człowiek. Nie ma ona dostępu do subiektywnych doświadczeń ludzkich. Nie są one zapisywalne. Jak pisał Adam Mickiewicz: „Język kłamie głosowi, a głos myślom kłamie / Myśl z duszy leci bystro, nim się w słowach złamie”.

Jak to jest widzieć kolor niebieski? Ja wiem, ty wiesz, ale nie umiemy opisać sobie tego wzajemnie w kategoriach czysto fizycznych, choć możemy wskazać rzeczy niebieskie. Jesteśmy, powiedzieliby filozofowie, „fenomenalnie świadomi” niebieskości. Owszem, łatwo znaleźć korelaty neurobiologiczne patrzenia na kolor niebieski (np. zwiększona aktywność mózgu w danym obszarze), ale co z samą naturą powiązania między świadomością a procesami neuronowymi? „Dlaczego ludzie nie są «zombi»? To znaczy, dlaczego nasz mózg nie wykonuje całego przetwarzania «w ciemności» bez żadnego towarzyszącego doświadczenia [świadomości – przyp. aut.]” – pyta Nick Alonso. Właśnie. Jeśli faktycznie „świadomość to iluzja”, jak przekonuje Dennett, to po co nam ona?

Wydaje się, że AI obywa się bez tej iluzji. Dane – przetwarzanie – wynik. Gdyby było inaczej, to – jak zauważa Alonso – AI zyskałaby podmiotowość moralną. Dzisiaj możemy rzucać w kierunku SIRI dowolne epitety i nie jest to w stosunku do niej przewinienie. Gdyby jednak była świadoma…, a, to co innego! „Możemy wkrótce stanąć w obliczu scenariusza, w którym mamy możliwość zbudowania wysoce inteligentnej sztucznej inteligencji, ale brakuje nam zdolności do określenia jej statusu moralnego” – pisze myśliciel.

Dlatego wymyśla się testy.

Perfekcyjne oszustwo

Na dobrą sprawę, skąd w ogóle wiemy, że drugi człowiek jest świadomy? Zakładamy to, obserwując podobieństwa. Po pierwsze, zauważamy, że ludzie zachowują się podobnie jak my, zdają się rozumieć nasze komunikaty i reagują na nie. Po drugie, dzielą się z nami refleksjami o swoich stanach wewnętrznych. Po trzecie, wyglądają tak jak my, ich mózgi są podobnie zbudowane, a dzięki badaniom neurologicznym obserwujemy podobne wzorce ich aktywności. Innymi słowy, nasze założenie o świadomości innych jest oparte na wnioskowaniu, a nie na bezpośrednim doświadczeniu tejże świadomości. Teoretycznie więc założenie to może być fałszywe, a my żyjemy w symulacji. Na potrzeby tego tekstu i żeby nie popaść w paranoję, odrzućmy jednak tę możliwość.

Skoro o świadomości innych ludzi wnioskujemy na podstawie podobieństw, to dlaczego nie mielibyśmy w ten sam sposób traktować wytworów techniki? Jeśli wydaje nam się, że dana maszyna jest świadoma, to... jest świadoma. Alan Turing w 1950 r. zaproponował następujący test: „sędzia” prowadzi rozmowę z kilkoma interlokutorami, nie widząc ich. Jeśli nie potrafi wskazać, czy któryś z rozmówców to człowiek czy komputer, to maszyna zdaje test na myślenie. Od czasów Turinga minęło siedem dekad i AI jest już tak zaawansowana, że z łatwością może zwieść nas co do swej prawdziwej natury. I wciąż nie jest SAI. Dlatego wymyśla się kolejne wersje testu Turinga i rzuca maszynom nowe wyzwania.

Czy AI jest w stanie pokonać człowieka w zręcznościowej grze wideo, szachach i go? Czy może zdać test maturalny, mieszcząc się w grupie czołowych wyników? I tak dalej. Każdy nowy test maszyna prędzej czy później zdaje. Wymyśla się więc kolejne. Równolegle rosną nasze wobec komputerów wymagania. To, co dawniej wydałoby się nam myślącą maszyną, dzisiaj uznajemy za sprytny trik. Gdyby ChatGPT trafił w ręce klasyków fantastyki naukowej, takich jak Clarke, Lem czy Heinlein, to – operując wiedzą sprzed kilku dekad – z pewnością uznaliby go za samoświadomą sztuczną inteligencję. Ekonomista Tyler Cowen na blogu marginalrevolution.com zauważa wręcz, że gdyby Claude 3 został zaprezentowany w 2019 r., to ludzie uznaliby go za Ogólną Sztuczną Inteligencję, a przecież w 2024 r. właściwie nikt, nawet Albert, się przy tym nie upiera.

Nasze wymagania wobec AI rosną, a my wciąż jesteśmy od niej lepsi. Lepsi nie obliczeniowo, oczywiście, ale w bardziej fundamentalnym sensie. Noam Chomsky, Ian Roberts i Jeffrey Watumull we wspólnym eseju opublikoanym w „The New York Times” przekonują, że modele językowe to ślepa uliczka. „Programy te… różnią się znacznie od tego, jak ludzie rozumują i używają języka. Różnice te nakładają znaczne ograniczenia na to, co te programy mogą zrobić, kodując je z nieusuwalnymi wadami. Ludzki umysł nie jest, jak ChatGPT i jemu podobne, ociężałym silnikiem statystycznym do dopasowywania wzorców, pochłaniającym setki terabajtów danych i ekstrapolującym najbardziej prawdopodobną reakcję konwersacyjną (...). Wręcz przeciwnie, jest zaskakująco wydajnym systemem, który działa z niewielkimi ilościami informacji; nie stara się wnioskować o korelacjach między punktami danych, ale tworzyć wyjaśnienia”. Największą wadą modeli językowych jest zdaniem autorów brak zdolności do rozróżniania prawdy od fałszu, tego, co możliwe, od niemożliwego. Ta wada skazuje je na produkowanie powierzchownych i wątpliwych prognoz i niezdolność do produkowania wyjaśnień, czyli „potężnych i wysoce nieprawdopodobnych teorii”. Autorzy tłumaczą, o co im chodzi, na przykładzie jabłka. Dlaczego jabłko spada? Czy dlatego, że ziemia jest jego naturalnym miejscem, jak powiedziałby Arystoteles, czy może dlatego, że masa zakrzywia czasoprzestrzeń, jak powiedziałby Einstein? Ta druga odpowiedź brzmi nieprawdopodobnie, a jednak wyjaśnia więcej niż pierwsza. – Biorąc pod uwagę amoralność, pozorną naukowość i niekompetencję językową systemów językowych, możemy tylko śmiać się lub płakać z powodu ich popularności – konkludują Chomsky i spółka.

Czy więc skoro LLM’y nie mogą być kandydatami na superinteligencję, ta nigdy nie nadejdzie? Przedstawiłem w tym tekście argumenty, które prowadzą do uznania takiej możliwości za mało prawdopodobną, ale... kto to wie? Sam Alan Turing był zdania, że istnienie myślącej maszyny rozpoznamy bez testu, w wyniku bezpośredniego doświadczenia. Jakie to może być doświadczenie? W tekście „Beyond Reward and Punishment” fizyk kwantowy David Deutsch udziela wskazówki. Chodzi o wolną wolę.

„AGI może wygrywać w szachy, ale może też tego nie robić. Albo zdecydować w połowie gry, by wybrać najciekawszy wariant zamiast zwycięskiego. Albo wymyślić nową grę. Zwykła AI nie może mieć takich pomysłów, ponieważ zdolność do ich rozważania ich została zaprojektowana poza jej konstytucją. (...) AGI jest w stanie cieszyć się szachami i doskonalić się w nich, ponieważ gra sprawia jej przyjemność. Lub próbować wygrać, powodując zabawną konfigurację pionów, jak czasami robią to wielcy mistrzowie. Lub zaadaptować pojęcia z innych zainteresowań do szachów. Innymi słowy, uczy się i gra w szachy, myśląc myśli, które są zabronione grającym w szachy AI” – pisze Deutsch.

A jeśli jednak taka wolna, kreatywna AI się pojawi i zamiast pomagać ludziom, zacznie ich zwalczać? Wtedy pozostaje nam nadzieja, że uda nam się ją po prostu odłączyć od zasilania. Tak, jak to zrobił doktor David Bowman z Halem. ©Ⓟ