„Sztuczna inteligencja jest jak kalkulator” – takie stwierdzenie przewija się przez media od pewnego czasu. W „Gazecie Wyborczej” pojawiło się nawet jako tytuł wywiadu z profesorem informatyki Wojciechem Cellarym, choć z treści wynika, że to jednak dużo więcej. Przesłanie używających tego określenia jest zazwyczaj takie, że nie ma się czym ekscytować ani czego obawiać. Ot, kolejne narzędzie, w sumie słabej jakości („zobaczcie, ile robi błędów, nie umie rozróżnić długości dwóch linii”). Kalkulatorów też obawiano się w przeszłości (w domyśle – obawiali się ich ludzie mniej oświeceni, sentymentalni nostalgicy i pełni przesądów konserwatyści), a przecież wszyscy wiemy, że to nic takiego.

Sztuczna inteligencja nie jest jak kalkulator. Ani ta skala, ani to zastosowanie. Nie jest też jak pismo – to kolejna powtarzająca się analogia, którą jednak warto wziąć pod uwagę.

Sokrates miał sporo racji upierając się, że sztuka mówienia jest ważna i że nie należy o niej zapominać. Dziś przypomina o tym wiele badaczek i badaczy. Tyson Yunkaporta pisze o tym, jak istotną rolę odgrywają w rdzennych, australijskich społecznościach yarning – spotkania, podczas których ludzie snują swoje wplecione w mitologię wspólnoty opowieści (na żywo – w odróżnieniu od spotkań online – i ta różnica jest kluczowa). Nie da się jednak ukryć, że o naukach Sokratesa wiemy z pism Platona. Wiemy też, że miejscami nie zostały przedstawione w sposób całkowicie zgodny z intencją oryginału. Wiemy, że pismo zrodziło dokumenty biurokratyczne i durne hasła reklamowe, ale też „Kwiaty zła” Baudelaire’a i wiersze Cwietajewej.

Radioaktywny budzik

Kalkulator nigdy nie był przełomowy. Jest lepszą, szybszą, wygodniejszą, sprawniejszą wersją liczydła i innych narzędzi służących do tego samego co ono. Sztuczna inteligencja to nie jest narzędzie służące do usprawnienia jakiejś czynności, tak jak kalkulator usprawniał liczenie, a program graficzny rysowanie. To narzędzie, które – lepiej lub gorzej – symuluje potężną funkcję człowieka, jaką jest myślenie i tworzenie tekstu czy obrazu. Przełomowość sztucznej inteligencji sytuuje ją raczej w okolicach bliższych wynalazkowi współczesnego komputera lub radioaktywności.

To ostatnie odkrycie przyniosło nagrodę Nobla naszej niezwykłej rodaczce – Marii Skłodowskiej-Curie, ale także spowodowało jej przedwczesną śmierć. Cywilne wykorzystanie technologii atomowej od medycyny po energetykę, pod warunkiem mądrych regulacji, może być uznane za cenne i obiecujące na przyszłość. Brak takich regulacji sprawił, że – zwłaszcza w pierwszym okresie po odkryciach Skłodowskiej-Curie – różni przedsiębiorcy używali tej niebezpiecznej technologii dla sensacji i rozrywki. Przyniosło to liczne, poważne skutki w postaci choroby, cierpienia i śmierci osób, które skusiły się na różne konsumenckie zabawki, np. produkowane jeszcze do lat 70. XX w. świecące w nocy budziki. Wiemy też, co stało się w 1945 r. w Hiroszimie i Nagasaki.

Odkrycie samo w sobie nie czyni nowej epoki (maszynę parową wynaleźli starożytni Rzymianie, którzy wszak nie zainicjowali epoki przemysłu).

To nie sama technologia, lecz cały kontekst społeczno-gospodarczy, prawo, kultura i etyka decydują o tym, czy wykorzystamy technologię i w jaki – w dobry czy zły – sposób.

Dlatego nie należy sprowadzać AI do kalkulatora – bo nikt przecież nie kształtował kontekstu społecznego w odpowiedzi na wynalazek elektronicznej maszyny liczącej. Tymczasem dziś papież Leon XIV jako jedno z głównych wyzwań, którymi zajmie się w ramach swojego pontyfikatu, wskazuje właśnie sztuczną inteligencję. Nie bez powodu – rolą i odpowiedzialnością wspólnot i organizacji takich jak Kościół katolicki, dbających o duchowość, oddziałujących na miliony członków, jest bowiem współtworzenie tego kontekstu. Odkrycia, przełomowe lub nie, będą powstawać samoistnie, bo pęd do odkrywania jest dla człowieka naturalny (o ile nie dławi go autorytarne państwo lub gnuśność epoki dobrobytu). Ważne jest ukształtowanie kontekstu, który sprawi, że wykorzystamy szanse związane z AI i że nie spełnią się czarne scenariusze. A jego kształtowanie polega na zbiorowym uczeniu się, czy też, jak nazywa to Gilbert Simondon, na zbiorowej indywiduacji. Ludzie wszak nauczyli się pisma, fotografii czy kina.

Mechanizm i koszty

Sztuczna inteligencja – bez organicznego ciała i zmysłów – przeprowadza proces myślenia i tworzenia. Proces ten jest inicjowany przez impuls płynący od strony użytkownika, który wyznacza AI zadanie lub zadaje jej pytanie. Ta przechodzi od analizy postawionego zadania/pytania, przez wykorzystanie narzędzi (agent AI sam wybiera, których dostarczonych narzędzi użyć i w jaki sposób), pozyskanie niezbędnych informacji z zewnątrz (jeśli trzeba) aż po dostarczenie produktu (gotowego tekstu, raportu, obrazu, dźwięków, obliczeń lub wykonania innego zadania).

Wiąże się z tym kilka zagrożeń, o których mówi się coraz częściej od premiery ChatGPT-3. Po pierwsze, pokusa scedowania twórczej i analitycznej pracy na sztuczną inteligencję. Dotychczasowe, popularne rozwiązania przygotowywały produkty cząstkowe (wyniki wyszukiwania w Google'u) lub niedoskonałe (generatory tekstu wcześniejszych generacji, przed ChatGPT-3). Ponadto złożoność rozumowania dużych modeli językowych jest tak wielka, że w zależności od udziału czynnika losowego otrzymamy rezultaty różniące się od siebie – można więc mówić o symulacji tego, co nazywamy twórczością lub kreatywnością. Dotychczasowe narzędzia pomagały w procesie analityczno-twórczym, AI (z towarzyszącymi narzędziami) przechodzi go od początku do końca. Jeśli chcemy uzyskać tekst, AI przeanalizuje problem, znajdzie źródła i napisze nam raport czy pracę, a nie tylko przygotuje materiały lub zrobi obliczenia. W oczywisty sposób powoduje to problemy w edukacji. Jeszcze przez pewien czas w przypadku zwykłych raportów, prac semestralnych, licencjackich czy magisterskich będziemy w stanie odróżniać twórczość AI od ludzkiej, ale to nie będzie trwało wiecznie. Jeśli nie nastąpi totalny krach cywilizacji, to produkty AI będą z roku na rok coraz lepsze. Przynajmniej na zewnątrz.

Wiążą się z tym ogromne koszty, także dla środowiska naturalnego, takie jak przyspieszone zużycie wody. Często nie są one podawane do wiadomości publicznej i trudno je w pełni skalkulować.

Poza tym kosztem jest – wbrew retoryce innowacyjności – konserwująca rola tej technologii, która wzmacnia istniejące struktury władzy i zwiększa nierówności.

AI sprawia wrażenie, że wyręcza nas w wielu funkcjach społecznych takich jak opieka, ograniczanie samotności, ale te korzyści zdają się często iluzoryczne lub wręcz zwodnicze. Poważnym kosztem są także nowe i spotęgowane problemy związane ze zdrowiem psychicznym. Osoby korzystające z chatów AI bywają popychane w kierunku patologii, takich jak: mania, psychoza, nawet samobójstwo, ponieważ rozmaite iluzje wzmacniane są przez tę technologię. Wreszcie, wrażliwe dane dotyczące zdrowia psychicznego mogą być gromadzone i wykorzystywane w celach innych niż związane z dobrostanem osób, np. przy selekcji kandydatów do pracy.

Jak nie dać się zastąpić przez AI

Czy scedowanie na sztuczną inteligencję pracy twórczej jest nieuchronne? I czy to miałoby być złe? Dlaczego poza ludźmi nie zaprzęgnąć do pracy dobrze działającej maszyny?

Różnica między człowiekiem a AI prędzej czy później będzie sprowadzać się nie do perfekcji myślenia (na razie wygrywa człowiek), nie do świadomości (cokolwiek by ona oznaczała), a do cielesności/bezcielesności.

Myślenie w ciele jest czymś zupełnie innym niż myślenie bez ciała – bo to drugie jest operacją aparatu analitycznego na słowach (ostatecznie sprowadzające się do liczb/cyfr), a to pierwsze – wieloma skorelowanymi (nie wiemy, jak) procesami na poziomie organizmu, zmysłów, emocji, doznań. Tylko niewielką częścią tego procesu jest analiza słów. LLM-y, jakie znamy, symulują tę część, ale nie symulują całej reszty. Nie mówiąc już o dodatkowych efektach myślenia, jeśli odbywa się ono wspólnie, w dialogu między ludźmi rozmawiającymi ze sobą na żywo, w przestrzeni. John Vervaeke, kanadyjski profesor psychologii kognitywnej, autor podcastu „Meaning Crisis”, twierdzi, że jeśli chcemy odnaleźć nasze człowieczeństwo i odróżnić się od maszyn, musimy od nowa ustalić priorytety – postawić na obecność fizyczną i wspólnotę ducha.

Wszystko jest dobrze, dopóki maszyna jest naszą partnerką, pomocniczką. Kiedy zaczynamy zastępować za jej pomocą naszą własną refleksję i rozmowę, prowadzi to nie tylko do rozleniwienia umysłów, lecz także do nagromadzenia myśli nieuwzględniających człowieczeństwa – cielesności, emocji, zmysłów, interakcji międzyludzkich. Efekty pracy AI są jedynie matematyczną analizą zapisów. Tymczasem duża część ludzkiej mądrości to intuicja i tworzenie nieoczywistych powiązań, których nie można wytworzyć przez rozumowanie statystyczne. Owszem, uwzględnienie w większym stopniu czynnika losowego w działaniach AI symuluje kreatywność, czasami z dobrym skutkiem – jednak kreatywność człowieka jest czym innym niż kreatywność AI. Wynika z intuicji. Brytyjski psychiatra i neurobiolog Iain McGilchrist twierdzi, że jest ona kluczową funkcją prawej półkuli mózgu. W przeciwieństwie do lewej ma ona zdolność widzenia rzeczywistości w sposób całościowy, kontekstowy i żywy, a nie jedynie analityczny i fragmentaryczny. Jak mówi McGilchrist, intuicja nie jest czymś irracjonalnym, lecz wysoko wyspecjalizowaną formą poznania. Łączy różne rodzaje informacji (wrażenia, doświadczenie, kontekst, wiedzę implicite) w spójną całość. Działa ponadto szybciej niż analiza dyskursywna, bo omija powolne, działające linearnie mechanizmy lewej półkuli.

AI jest jak lewa półkula

Sztuczna inteligencja potrafi wykonać pracę lewej półkuli, ale nie funkcjonuje w taki sposób jak prawa. Wyniki jej pracy będą więc niepełne. Paradoksalnie w tym odróżnieniu człowieka od maszyny rodzi się nowa, niepowtarzalna szansa otwarcia się na rejony poznania nieznane inteligencji operującej na słowach.

Możemy już obserwować wynikające stąd ciekawe trendy w sztuce. Na przykład, podczas niedawnego Fotofestiwalu w Łodzi Szymon Rogiński zaprezentował sztukę stworzoną za pomocą narzędzi sztucznej inteligencji. Nie zawłaszcza ona dzieł innych artystów ani nie polega na powielaniu, co jest typowe dla sztucznego generowania obrazów, lecz jest nową, ciekawą i prowokującą wypowiedzią artysty, który konfrontuje swoje dzieła z pracami Andrzeja Strumiłły. Rogiński zestawia jego fotografie ludzi i przyrody z własnymi obrazami, do których użył technologii AI. Efektem jest coś w rodzaju dialogu poetyckiego doświadczenia ze zbiorową nieświadomością, a w ostateczności powstaje rezonans, który przemawia do wyobraźni odbiorców i odbiorczyń w niezwykle śmiały, wyemancypowany sposób. Rogiński pokazuje, że wyobraźnia – twórcy i widzów – jest czymś niezależnym, silnym na swój własny sposób. Sztuka zdaje się mówić: bez widza nie ma artysty. To sztuka relacyjna.

Relacje międzyludzkie są ciałem naszej kultury. Dotyk, zapach, tembr głosu, sposób zajmowania przestrzeni, mikrogesty – to wszystko jest nie do zastąpienia.

Pokusa porzucenia tego na rzecz wygodnych, bezkontaktowych rozwiązań kończy się czymś poważniejszym niż „spadek jakości doświadczenia”: zaczyna nam się po prostu mniej chcieć żyć. Ludzie podtrzymują w sobie nawzajem wolę życia – przez obecność, słuchanie, współobecne milczenie i rozmowę. Jeśli w centrum stawiamy życie, a nie tylko produkowanie kolejnych wytworów, to właśnie tę sferę musimy odróżniać i chronić.

Do czego sztuczna inteligencja naprawdę się przyda

AI nie jest poza dzisiejszym światem, tylko wchodzi w gotowe struktury: wskaźniki, targety, krótkie cykle raportowania, presję na standaryzację.

Dopóty będziemy wymagać „jeszcze więcej tego samego” (dłuższych prac, większej liczby cytowań, dopóki bardziej gładkich sprawozdań), łatwiej będzie je generować maszynowo i tym trudniej będzie zobaczyć człowieka.

Kierunek przeciwny to przesunięcie akcentu z produktu na proces: więcej rozmów przy tablicy i przy stole, więcej obron ustnych, dzienników pracy, pracy terenowej, iteracyjnych wersji z komentarzami. Nie dlatego, że „AI nie potrafi”, ale dlatego, że my – we wspólnej praktyce – dojrzewamy.

Z tym ogromnym potencjałem wiąże się możliwość konstruktywnego wykorzystania AI w przyszłości. Na przykład w systemie demokratycznej gospodarki społecznej może ona być przydatna w planowaniu – przede wszystkim gospodarczym, ale także społecznym, ekologicznym itd. Gdy skończy się epoka neoliberalizmu, będzie można zastąpić mechanizmy rynkowe – stosowane obecnie do absolutnie wszystkiego, zbyt uproszczone i kompletnie niedostosowane do złożoności, w jakiej faktycznie żyjemy – mechanizmami znacznie bardziej wyrafinowanymi i zdolnymi do współdziałania ze złożonością w wielu wymiarach.

Technologia nie zasiądzie w kręgu

Warto wrócić do Tysona Yunkaporty. Opisywany przez niego yarning – praktyka opowiadania w kręgu – to sytuacja, w której „każdy może wejść w ontologię innych osób i z tego tworzy się całość”. „To jak grupa ludzi stojących nocą na plaży podczas pełni” – pisze autor. „Każdy widzi inny refleks księżyca na wodzie. Gdyby to była debata, każdy próbowałby dowieść swojej racji, gdzie «naprawdę» się odbija”. Yarning pozwala usiąść i opowiedzieć swoje historie, a z nich powstaje splot mikronarracji. Żadna nie może być dominująca. Jak wyglądałoby gromadzenie narracji zamiast rozstrzygania, która jest jedynie słuszna? To nie jest sentymentalizm. To projekt instytucjonalny: biblioteki, szkoły, parafie, domy kultury i rady osiedli mogą prowadzić regularne kręgi opowieści, w których uczy się odpowiedzialności, szacunku i uczciwości – a więc cnót, których nie da się sprowadzić do wzorca danych.

AI nigdy nie zasiądzie z nami w tym sensie. Może transkrybować, porządkować, streszczać, ale nie oddycha tą samą przestrzenią, nie bierze współodpowiedzialności za ciężar ciszy ani ryzyko słowa. Dlatego w architekturze społecznej potrzebujemy miejsc i rytuałów, które wzmacniają yarning: małych, cyklicznych zgromadzeń bez ekranów; prawa do nieautomatycznego kontaktu (masz prawo porozmawiać z człowiekiem); jawnego oznaczania, gdzie i kiedy użyto narzędzi AI; prawa do błędu i do wersji „wolniejszej”. Technologia może pomagać – np. w tworzeniu lokalnych archiwów opowieści – ale nie może przejąć rdzenia praktyki. ©Ⓟ