Niewiele rzeczy irytuje mnie tak bardzo jak infolinie wykorzystujące wirtualnych asystentów. „Jestem Mia, wirtualna asystentka operatora sieci…” – w tym miejscu zwykle przerywam, żądając połączenia z konsultantem. Ci wirtualni niby mówią ludzkim głosem, ale w dynamice rozmowy z nimi jest coś wyjątkowo irytującego.

Z wirtualnymi asystentami trzeba się będzie jednak oswoić. Jak prognozuje firma badawcza Gartner, w 2029 r. aż 80 proc. kontaktów z obsługą klienta będzie się odbywać bez pośrednictwa człowieka. Rynek już zdecydował. Ale nie tylko w dziedzinie obsługi klienta internet zamienia się w przestrzeń interakcji ludzi z botami. Setki tysięcy, jeśli nie miliony takich programików działają w takich obszarach jak obrót akcjami, systemy automatyzujące procesy biurowe, e-commerce, rozrywka... Nie zapominajmy też o chatbotach udających ludzi na portalach społecznościowych. Wizja rodem z filmów s.f. się ziściła: żyjemy w otoczeniu robotów, ale jako że ich jestestwo sprowadza się do niewidzialnego kodu binarnego, rzadko w pełni to dostrzegamy.

Otaczają nas boty

Kultura popularna wyobrażała sobie najczęściej roboty jako androidy, jak w „Pozytronowym człowieku” Isaaca Asimova, czy filmie Ridley’a Scotta „Blade Runner”. To zrozumiałe, skoro w czasach przedinternetowych nie istniała dla tych wyobrażeń przestrzeń inna niż materialna. Owszem, od początku XX w. już snuto wizje globalnej sieci wymiany informacji, ale nikt raczej nie wyobrażał sobie formy, jaką ta sieć w rzeczywistości przyjęła.

W 1910 r. powstało w Brukseli Mundaneum – instytucja, której celem było zebranie całej wiedzy świata. W wizji Paula Otleta, jednego z pomysłodawców, miał to być pierwszy krok do zautomatyzowanego i powszechnego dostępu do informacji uzyskiwanego za pośrednictwem specjalnych terminali z dowolnego miejsca na świecie. Ani on, ani H.G. Wells czy Arthur C. Clarke – inni autorzy snujący wizję globalnych sieci informacyjnych – nie przewidzieli, że będą one przestrzenią nieustannego dialogu, interaktywnej rozrywki, a przede wszystkim aktywności komercyjnych. Wyjątkowo rzadko wyobrażano sobie, że taka sieć będzie czymś więcej niż biblioteką i że przeciętny człowiek będzie spędzał w niej dziennie 6 godz. i 38 min, z czego aż 2 godz. i 21 min przypadnie na portale społecznościowe (dane za raportem „Digital 2025”). Wyłączając sen, przeżywamy więc w sieci średnio ponad 40 proc. czasu.

Może się nam wydawać, że wchodzimy w niej w interakcje przede wszystkim z innymi użytkownikami. W praktyce bywa różnie. Załóżmy, że jesteś nowicjuszem w którejś z sieciowych gier wideo w trybie multiplayer. Zaczynasz swoją przygodę od najprostszych poziomów, by w ogóle poznać reguły gry, a przede wszystkim polubić ją. To cel jej twórców, więc projektują ją tak, by twoi początkowi przeciwnicy byli liczni i łatwi do pokonania, a żeby tacy byli, muszą być… sztuczni i maksymalnie nieodróżnialni od prawdziwych graczy. Anihilacja wirtualnych wrogów idzie ci jak z płatka i daje poczucie kompetencji oraz satysfakcję, które sprawiają, że nie tylko będziesz grał nadal, lecz może nawet wykupisz dodatkową broń czy strój dla swojego bohatera.

Gra to tylko jedna z sytuacji, w których obcujemy z botami, nie zdając sobie z tego sprawy. Przykładowo wyświetlający się w okienku czatu asystent o imieniu Daniel nie odpisuje ci od razu. To sugeruje, że się namyśla, a więc że po drugiej stronie znajduje się prawdziwa osoba. A to tylko bot. Albo w aplikacji randkowej pisze do ciebie ktoś zjawiskowo piękny, szybko angażuje się w pełną flirtu rozmowę, a ty już szykujesz się do ekscytującej randki. W końcu okazuje się, że aby kontynuować rozmowę, musisz wykupić pakiet premium. Bo był to tylko bot. Przynęta. Albo na twoim facebookowym „wallu” pojawia się nagły wysyp komentarzy o złych Ukraińcach, każący ci podejrzewać, że Polacy szczerze ich nienawidzą. A to tylko boty mające zaogniać nastroje społeczne w Polsce. Według „Bad Bot Report” już ponad 50 proc. całego ruchu w sieci generowane jest przez boty. Aż 37 proc. – przez te złe, którym zainstalowano złe intencje. Ignorować tego zjawiska nie można, ale jak sobie z nim radzić?

Efekt Elizy

Powinniśmy unikać niejasności i wytłumaczyć, czym dokładnie są – z technicznego i filozoficznego punktu widzenia – boty. (Ro)bot nie ma własnej woli i intencji działania. Jest programem, któremu twórca – człowiek – nadaje konkretny cel, a więc wyposaża go we własną intencję, po czym nadaje mu autonomię decyzyjną do jej realizacji i osadza w zewnętrznym środowisku działania. Bot to zatem cyfrowy agent człowieka.

Przed rozwinięciem technologii uczenia maszynowego, a w jego ramach dużych modeli językowych (LLM-ów), „silnikiem” większości botów były sztywne reguły i scenariusze pisane przez programistów, co czyniło je narzędziami o wąskim zastosowaniu. W książce „Artificial Unintelligence” prof. Meredith Broussard z New York University pisze: „Można wymyślić odpowiedzi, które będą pasowały do większości sytuacji, ale nie do wszystkich. Zawsze będą istniały ograniczenia co do tego, co komputer może odpowiedzieć na wypowiedź człowieka, ponieważ zawsze będą istniały ograniczenia wyobraźni ludzkiego programisty komputerowego. Nawet crowdsourcing nie będzie wystarczający, ponieważ nigdy nie będzie wystarczającej liczby osób, aby przewidzieć każdą możliwą sytuację”.

Broussard poprzedza te wywody przykładem pierwszego w historii chatbota – programu Eliza. Ten przedstawiony światu w 1966 r. program symulował rozmowę, opierając się na metodzie psychoterapeutycznej rozwiniętej przez Carla Rogersa w początkach lat 40. XX w. Twórca Elizy, pracujący na MIT Joseph Weizenbaum, wybrał tę metodę, ponieważ opierała się ona na technice aktywnego słuchania i tzw. odbiciu lustrzanym (parafrazowaniu wypowiedzi pacjenta), co pozwalało programowi na prowadzenie spójnej interakcji przy minimalnej konieczności posiadania realnej wiedzy o świecie czy głębokiego rozumienia kontekstu. Ciężar budowania sensu rozmowy przerzucono na użytkownika.

Nawet jeśli Eliza w porównaniu z dzisiejszymi opartymi na LLM chatbotami wydaje się wyjątkowo prymitywna (spróbujcie porozmawiać z nią na stronie Masswerk.at/elizabot/), to i tak w swoich czasach robiła na swoich rozmówcach na tyle duże wrażenie, że spontanicznie dzielili się z nią swoimi prawdziwymi problemami. Weizenbaum w ich reakcjach dostrzegł coś, co potem nazwano efektem Elizy. To bezwiedne i nieświadome przypisywanie programom komputerowym ludzkich cech – mimo pełnej wiedzy na temat natury bytu, z którym się porozumiewamy. Siła tego efektu sprawiła, że stosunek Weizenbauma do badań nad sztuczną inteligencją i jej potencjalnych zastosowań stał się, delikatnie mówiąc, ambiwalentny. „Ponieważ obecnie nie dysponujemy żadnymi sposobami, aby uczynić komputery mądrymi, nie powinniśmy powierzać im zadań wymagających mądrości” – pisał w pracy „Computer Power and Human Reason” z 1976 r. Dzisiaj jednak to właśnie robimy. W badaniu Cornell University z 2025 r. „75 proc. uczestników, którzy odbyli 20-minutową rozmowę z GPT-4o na temat zdrowia, kariery lub relacji, stwierdziło następnie, że zastosowało się do jego rad”.

Zwycięstwo entuzjastów komputerów

Każda technologia ma swoich sceptyków. Einstein, który przyczynił się do rozwoju energii jądrowej, miał w jej kontekście powiedzieć: „Nie wiem, jaka broń będzie użyta w trzeciej wojnie światowej, ale czwarta będzie na kije i kamienie”. Jednak ani Einstein, ani Weizenbaum nie zdołali przekonać ludzkości do porzucenia ich zdaniem groźnych technologii. I tak po Elizie, w 1972 r., przyszedł czas na Parry’ego, czyli pierwszy chatbot wyposażony w „stan psychiczny”: model paranoi, zmienne opisujące poziom lęku i podejrzliwości oraz zdolność reagowania w zależności od przebiegu rozmowy. Bot przestał być wyłącznie zbiorem reakcji na słowa kluczowe i zaczął funkcjonować jako prosty agent z pamięcią i symulowaną osobowością. W 1988 r. pojawił się Jabberwacky, charakteryzujący się zdolnością uczenia się bezpośrednio od użytkowników. Zapamiętywał ludzkie odpowiedzi i wykorzystywał je w kolejnych rozmowach, co oznaczało odejście od ręcznie pisanych skryptów na rzecz statystycznego gromadzenia języka „z tłumu”. W końcu w 1995 r. pojawiła się A.L.I.C.E., która już w pełni weszła w epokę internetu, opierając się na tysiącach reguł tworzonych społecznościowo, stając się pierwszym chatbotem masowo wdrażanym online.

Rok później w prestiżowym magazynie technologicznym „WIRED” ukazał się bardzo obszerny artykuł o tytule „Bots are hot” („Boty są gorące”) i wymownym leadzie: „Panuje botowe szaleństwo, trwają botowe wojny, a coraz bardziej złożone fragmenty kodu krążą po sieci i ewoluują w kierunku sztucznej inteligencji. To wielka technodialektyka, w której każde rozwiązanie rodzi problem, a problem rodzi nowe rozwiązanie”. Lektura tego przenikliwego tekstu sprzed 30 lat pozwala nam zrozumieć, że wielka (ro)botyzacja rzeczywistości nie tylko współwystępowała z rozwojem sieci internetowej, lecz w pewnym sensie była jej warunkiem koniecznym. Dlaczego? Bo rosnąca w postępie geometrycznym złożoność sieci staje się dla ludzkiego użytkownika nieprzenikniona i nie do spenetrowania. Boty miały ten chaos uporządkować i sięgać po to, co użytkownikowi w danej chwili niezbędne. Andrew Leonard, autor artykułu, zwraca uwagę, że zwolennicy postępu cyfrowego „przedstawiają przyszłość jako świat pełen pomocnych botów, które będą się zajmować informacyjnymi zadaniami dla swoich ludzkich panów: znajdą najlepszą cenę płyty CD, kupią kwiaty dla mamy czy będą informować na bieżąco o najnowszych wydarzeniach w Mozambiku”, ale tak wcale być nie musi, bo przecież – zauważał autor – już wtedy, w 1996 r., boty miały sporo za uszami. Były wykorzystywane do kradzieży, paraliżowania stron internetowych konkurencji, a nawet do siania dezinformacji. Leonard daje przykład bota o nazwie ArgicBot, który śledził grupy dyskusyjne Usenet pod kątem słów kluczowych takich jak „Turcja” czy „Armenia”, a po ich wykryciu automatycznie publikował ogromne ilości antyormiańskiej propagandy, czyniąc wybrane fora praktycznie nieczytelnymi dla użytkowników.

Ekonomiczne zyski ze sztucznej inteligencji

Wydawać by się mogło, że skoro sytuacja do dzisiaj jest podobna – boty wciąż tworzą i rozwiązują problemy – to chyba te tworzone przez nie problemy nie są aż tak poważne. Przecież żyjemy. I to – mimo wszystko – lepiej niż w 1996 r. Zgodnie z przewidywaniami entuzjastów boty zyskały ogromną użyteczność i są źródłem pozytywnych zjawisk gospodarczych. Szacuje się, że w obsłudze klienta dają 25–55 proc. oszczędności w kosztach operacyjnych. Według firmy Gartner da to sumaryczne globalne oszczędności na poziomie 80 mld dol. do końca tego roku.

Oszczędności na poziomie 30 proc. przynosi zastosowanie RPA (Robotic Process Automation), czyli automatyzacji procesów biznesowych. Boty mogą fakturować, wypełniać arkusze kalkulacyjne, a nawet wprowadzać świeżo zatrudnionych pracowników warkana ich funkcji. „Fortune Business Insights” podaje, że rynek RPA wart jest obecnie ponad 27 mld dol.

Oszczędności i zyski wygenerowane dzięki botom mogą się przełożyć na inwestycje, czyli więcej innowacji, więcej pracy i wzrost zamożności. Boty – tak jak w prognozach z lat 90. – faktycznie pełnią funkcję służebną wobec zwykłych użytkowników sieci, czyli działają nie tylko na korzyść firm. Jest tak, gdy aplikacja bankowa z botem w tle natychmiast kategoryzuje twoje wydatki i pilnuje budżetu, gdy asystent sklepu online sam znajduje najlepszą ofertę i śledzi paczkę aż pod drzwi, gdy filtr antyspamowy czyści skrzynkę z setek podejrzanych wiadomości, gdy nawigacja drogowa w czasie rzeczywistym omija korki albo platforma streamingowa podpowiada odpowiednie dla nas filmy lub muzykę zamiast losowej papki. Oszczędność czasu, którą fundują nam boty, jest nie do przecenienia.

Problem tożsamości

Jednocześnie, przypomną sceptycy, boty w 2026 r. są źródłem poważniejszych problemów niż w latach 90. Wtedy służyły przede wszystkim do blokowania, paraliżowania, zatykania ruchu. Dziś, gdy ich silnikiem są duże modele językowe, potrafią czynić znacznie większe szkody. Wzrosła nie tyle liczba ich wrogich zastosowań, ile ich skuteczność na dotąd rzadziej eksploatowanych polach. Przejmują konta bankowe, tworzą fałszywe tożsamości służące wyłudzeniom, kradną zastrzeżone treści. Co ciekawe, nawet dalszy rozwój sztucznej inteligencji zależy od specjalnego gatunku botów, które znajdują się, oględnie mówiąc, w szarej strefie legalności. Chodzi o programy do web scrapingu, czyli automatycznego przeszukiwania i pobierania treści z internetu w celu budowania ogromnych zbiorów danych, na których następnie trenuje się modele językowe. Bez tego współczesne LLM-y po prostu nie mogłyby powstać.

Ten sam mechanizm z jednej strony umożliwia rozwój narzędzi badawczych, wyszukiwarek, systemów tłumaczeń czy AI wspomagającej pracę ludzi, z drugiej bywa wykorzystywany do masowego kopiowania treści znajdujących się za paywallami, obchodzenia zabezpieczeń serwisów albo budowania baz pod spam i oszustwa. W internecie trwa informatyczna wojna: właściciele treści programują strony tak, by były na boty odporne, a projektanci botów próbują te zabezpieczenia obchodzić. To gra o miliardy.

Bilans gry w boty

Czy ryzyka i straty gospodarcze wynikające z działania botów są większe niż korzyści? To obecnie bardzo trudno ustalić – nie istnieją kompleksowe i metodologicznie poprawne wyliczenia tego typu. Ale też nie wszyscy się zgodzą, że z samego rachunku ekonomicznego wprost wynika akceptowalność botów w ich obecnej formie użycia. Filozof Daniel Dennett przestrzegał na łamach „The Atlantic”, że dzisiaj „po raz pierwszy w historii dzięki sztucznej inteligencji każdy może stworzyć fałszywe osoby, które mogą uchodzić za prawdziwe, w wielu nowych środowiskach cyfrowych, które stworzyliśmy. Te fałszywe osoby zdolne są (…) zniszczyć nie tylko gospodarkę, lecz także wolność człowieka”.

Prawdą jest, że efekt Elizy jest dziś znacznie silniejszy niż sześć dekad temu. Iluzja obcowania z istotami myślącymi tak jak my jest coraz bardziej przekonująca. Publicysta John Thornhill w artykule „How chatbots are changing the internet” na łamach „The Financial Times” zwraca uwagę na powiązany z tym problem koncentrujący się w pytaniu, czym jest prawda. Referując debatę na temat sztucznej inteligencji, która zamiast dostarczać nam sprawdzone informacje, halucynuje, wskazuje on prominentnych badaczy nawołujących do nałożenia na duże modele językowe prawnego obowiązku mówienia prawdy. Dla równowagi Thornhill przytacza też argumenty obrońców technologii. Zwracają oni uwagę, że dzisiaj istnieją już skuteczniejsze od ludzkich weryfikatorów narzędzia AI do fact-checkingu, np. stworzony przez Google DeepMind program Safe. Prawda w sieci nie musi więc być bardziej zagrożona niż prawda w realu. Przede wszystkim jednak powtarzają argument o tym, że nadmierna regulacja AI, w tym botów, na obecnym etapie rozwoju technologii może go po prostu zatrzymać. Powtarzają ten argument słusznie, bo (w mojej opinii) nikt go jeszcze nie obalił, a mamy niestety w Unii Europejskiej przykłady, że nadmierna interwencja regulacyjna może właściwie zabić rozwój całych branż. W tekście „Innowacyjność wymaga efektu roju” opisywałem kazus technologii modyfikacji żywności CRISPR, która – choć otwiera drzwi do leczenia chorób, zwiększania plonów czy walki z robactwem – jest przez UE traktowana równie nieufnie jak cały sektor GMO. Potencjał tkwiący w rozwoju AI w obliczu wyzwań, przed którymi stoimy (zapaść produkcyjności, kryzys demograficzny), jest zaś olbrzymi. Dzięki niemu możemy np. uruchomić pokłady kreatywności marnujące się w umysłach mieszkańców najbiedniejszych rejonów świata. Ilu ludzi nigdy nie dostało szansy na bycie kolejnym Newtonem czy Fordem? AI i tworzone za jej pomocą narzędzia (boty) dzisiaj takie osoby mogą wyławiać, aktywizować, rozwijać – włączać w globalną sieć pracy i kreatywności.

Grzechem byłoby zablokować rozwój technologii, która codziennie zyskuje nowe zastosowania. Nie oznacza to, że nie potrzeba żadnych norm. Przepisy wzmacniające transparentność czy oddolne, branżowe kodeksy dobrych praktyk są potrzebne. Należy też stosować do rzeczywistości sieciowej istniejące już prawo i karać twórców botów, które oszukują, kradną i wprowadzają w błąd. Wystarczy sprawne państwo.

Wiele wskazuje na to, że mimo głosów sceptycznych świat, w którym człowiek obcuje codziennie z tymi dziwnymi cyfrowymi istotami, zostanie znormalizowany. Aby to się odbyło z korzyścią dla ludzi, potrzeba zwyczajnego instynktu samozachowawczego. A tego nam, wbrew pozorom, nie brakuje – nie klonujemy się, choć moglibyśmy (wbrew zakazom!), i nie ostrzeliwujemy się już bombami jądrowymi (mimo że ciągle tym sobie grozimy).

Nie musimy iść na totalną wojnę przeciw botom. Bycie entuzjastą rozwoju AI – pod warunkiem, że nie oddamy całej odpowiedzialności algorytmom – można pogodzić z humanizmem. Nawet jeśli oznacza to konieczność przebrnięcia przez wczesną fazę eksperymentów i obcowanie z irytującymi wirtualnymi asystentami. ©Ⓟ