Bywa, że zadziwia mnie bezczelna śmiałość rozmaitych ekspertów w formułowaniu prognoz, ale czasami to oni mają rację. W 2017 r. PwC opublikowało raport „Sizing the prize” na temat wpływu sztucznej inteligencji (AI) na gospodarkę. Oszacowali go na w sumie 15,7 bln dol. do 2030 r. Wówczas myślałem: gruba przesada. Ale w 2022 r. światło dzienne ujrzała pierwsza wersja ChatGPT i nic już nie było takie samo jak przedtem. Teraz PwC wylicza, że do 2035 r. AI przyśpieszy globalny wzrost gospodarczy o 1 pp. rocznie, co sugeruje, że to technologia o wpływie porównywalnym do pojawienia się silnika parowego. Tym razem powstrzymam się od kpin.

Na wagonik AI zdążyły wsiąść już wszystkie gospodarcze potęgi. Polska jeszcze nie, ale również się do tego przymierza. Rząd właśnie skończył konsultować z ekspertami strategię rozwoju sztucznej inteligencji dla naszego kraju. Zamysł, którym podzieliło się z nami Ministerstwo Cyfryzacji, jest śmiały i szeroki: chcemy dołączyć do grona globalnych liderów. Może nie chodzi o to, by wskoczyć na podium, lecz o to, by przynajmniej znaleźć się wśród pierwszych 10–20 najważniejszych graczy. Niestety, taka ambicja może popchnąć nas w złym kierunku.

Polacy nie gęsi? Czy musimy mieć własną AI

Często to, co politykom wydaje się ambitnym planem godnym realizacji, jest odległe od realizmu, a to, co uważają za szkodliwy i ogólnikowy minimalizm, jest nośnikiem ambicji dobrze pojętej. Ich podejście w tej kwestii zależne jest od sympatii elektoratu. „Będziemy potęgą” – to cel, który rozgrzewa emocje i podnosi słupki poparcia.

W przypadku AI nie leży to jednak w interesie Polski. Stawiam tezę, że nasz kraj nie powinien aspirować do rozwijania rodzimej sztucznej inteligencji, bo równie dobrze moglibyśmy zechcieć własnymi, krajowymi siłami wysłać człowieka na Marsa już w przyszłym roku. Polska powinna natomiast nauczyć się korzystać z „zaimportowanej” AI lepiej, niż czynią to dzisiejsze potęgi w tej dziedzinie – chociażby Amerykanie czy Niemcy. W ten sposób osiągniemy więcej, niższym kosztem i bez niepotrzebnych rozczarowań.

Przyjrzyjmy się temu, w jakim miejscu, jeśli chodzi o sztuczną inteligencję, znajdują się świat i Polska. A następnie zestawmy to z tym, co rząd chce i co faktycznie może w tym zakresie zrobić. Bo może się okazać, że pomiędzy jednym a drugim istnieje potężna luka. Oto liderami globalnego wyścigu AI są USA i Chiny. Zero zaskoczenia?

Może i tak, ale jaka imponująca skala! Jak podaje Investopedia, w latach 2013–2024 prywatny sektor w USA zainwestował w AI w sumie 470 mld dol., co obrodziło rozwiązaniami takimi jak ChatGPT, Gemini czy Grok. W Chinach zainwestowano mniej, bo 119 mld dol., ale robiono to z głową. Świadczy o tym wydajność modelu DeepSeek R-1, który miał premierę w 2025 r. Do tych inwestycji należy doliczyć także wielomiliardowe nakłady publiczne w tych państwach.

Oczywiście, modele językowe rozwijane są także w innych krajach, w tym w Unii Europejskiej, ale ustępują amerykańskim i chińskim rozwiązaniom zarówno pod względem wydajności, jak i skali rynkowej adopcji. Wyścig między Chinami a USA o palmę pierwszeństwa w AI przypomina kosmiczny wyścig między Sowietami a USA z czasów zimnej wojny i – podobnie jak wówczas – nie jest jasne, kto wygra. Eva Roytburg w artykule na łamach „Fortune” przytacza opinie, że ze względu na lepszą infrastrukturę energetyczną mogą być to Chiny. Inni znawcy twierdzą jednak, że USA dysponują szerszym dostępem do globalnych rynków i wolnością polityczną, a to swoboda myślenia i możliwość skalowania technologii decyduje o jej finalnym powodzeniu. A my? Mamy swoje modele językowe, jak rozwinięty przez państwo PLLuM czy stworzony przez pasjonatów Bielik, ale do zagranicznej konkurencji bardzo im daleko. Jeśli zaś chodzi o wykorzystanie rozwiązań AI w gospodarce, to także jesteśmy do tyłu. Zdaniem Polskiego Instytutu Ekonomicznego polskie firmy wykorzystywały w 2024 r. „sztuczną inteligencję przynajmniej dwukrotnie rzadziej, niż wynikałoby ze średniego wyniku UE, z wyjątkiem sektora informacji i komunikacji, który osiągał 67 proc. średniej”. Krótko mówiąc, Polska na razie zaledwie przygląda się rozwojowi sztucznej inteligencji z zewnątrz. Owszem, indywidualnie eksperymentujemy z dużymi modelami językowymi (LLM-ami), ale nie ma to jeszcze charakteru transformacyjnego.

Tymczasem państwo ma w tym obszarze niemałe ambicje. „Polityka rozwoju sztucznej inteligencji do 2030 r.” to dokument strategiczny. Z wersji podanej do konsultacji społecznych wynika, że to właśnie aparat administracyjny stanie się głównym motorem cyfrowej transformacji: od centralnej platformy AI HUB Poland, przez narodowe modele językowe PLLuM, aż po gigantyczne „Fabryki AI” oparte na superkomputerach do trenowania modeli ogólnego przeznaczenia. Prywatny biznes sprowadzony jest do roli uczestnika ekosystemu budowanego i koordynowanego przez państwo, a nie jego naturalnego lidera. Strategia łączy także rozwój sztucznej inteligencji z hasłem uniezależnienia się od prywatnych zagranicznych dostawców. Nikt nie chce ich z Polski wyganiać, ale twórcy strategii nieszczególnie palą się do współpracy z międzynarodowymi liderami AI. Jeśli mowa o współpracy międzynarodowej, to odbywać się ma ona raczej na poziomie instytucji unijnych. Większość działań ma być finansowana ze środków publicznych (unijnych i krajowych), a inwestycje prywatne w strategii właściwie nie istnieją. W wyniku realizacji tych założeń mamy znaleźć się w światowej czołówce rankingów AI, zbudować gigafabryki obliczeniowe i zatrzymać talenty. Polacy współtworzyli OpenAI w USA. Niby dobrze, ale dlaczego nie w naszym kraju? To ma się zmienić. Problem w tym jednak, że papier wszystko przyjmie. Rządowy dokument brzmi jak dzieło wyjątkowo ambitnego centralnego planisty, który wie, czego chce, lecz nie za bardzo jest w stanie określić, jak to osiągnąć.

„Budujmy inkubatory, nie potwory!”. Zbawienne cyfrowe zacofanie

Rzadko kiedy organizacje pozarządowe zgadzają się w ocenie rządowych pomysłów. Zazwyczaj jeśli te z lewa są na tak, protestują te z prawa – i odwrotnie. Podobna dynamika dotyczy opinii instytucji branżowych i obywatelskich. Jednak w odniesieniu do omawianej propozycji organizacje mówią jednym, krytycznym głosem, choć sama krytyka przyjmuje różne odcienie. Na przykład Fundacja Instrat apeluje o decentralizację strategii: „Budujmy inkubatory, nie potwory!”. „Proponowane rozwiązania sprawiają nierzadko wrażenie działań planowanych odgórnie i narzucanych podmiotom, którym mają służyć. (...) odgórne projektowanie ich kształtu i roli jest prostą drogą do nieracjonalnego dysponowania środkami. (...) Wzrasta ryzyko wdrożeń, które się nie przyjmują”.

Z kolei Fundacja Efektywny Altruizm zwraca uwagę na kwestię bezpieczeństwa rozwoju sztucznej inteligencji. Zauważa, że „działania opisane w Polityce wydają się bazować na założeniu, że tempo rozwoju przez najbliższe 5 lat będzie stosunkowo niskie”, a zdaniem jej ekspertów stanie się raczej odwrotnie. Pamiętacie pierwszą wersję ChatGPT? Porównajcie ją z możliwościami obecnej. A jedną od drugiej dzielą trzy lata. Stąd wyzwania dla bezpieczeństwa technologicznego będą ewoluować i wymagać ciągłej, a nie okazjonalnej diagnostyki.

Z ponad 900 uwag zgłoszonych do rządowej strategii jedno wynika niezbicie: jest ona wystarczająco szeroka, by dotykać większości aspektów gospodarki i sprawiać wrażenie „kompleksowej”, i na tyle ogólna, by nie było właściwie wiadomo, jak ten wpływ będzie się ujawniał w praktyce. Wskaźniki pomiaru realizacji założeń wymienione w dokumencie mieszają podejście biurokratyczne, czyli to, jakie urzędy trzeba powołać i jakie programy uruchomić, z podejściem biznesowym, mierzącym realny wzrost mocy i wdrożeń AI, przy czym w mieszance tej dominuje logika biurokratyczna. To może prowadzić do sytuacji, w której Polska będzie mogła odfajkować postępy bez efektów w realnej gospodarce.

Dla rozwoju sztucznej inteligencji w naszym kraju znacznie lepsze byłyby skromniejsze plany. Weźmy budowę własnych modeli językowych w oparciu o zasoby i nadzór państwowy. W Polsce nie ma zaplecza, by rozwijać „fundamentalną” AI do poziomu pozwalającego na konkurencję międzynarodową. W USA czy Chinach nad takimi modelami pracują setki tysięcy, jeśli nie miliony specjalistów – w naszym kraju ludzi, którzy mogliby się tego podjąć, jest nie więcej niż kilkanaście tysięcy. Lepszym rozwiązaniem byłoby zatem stworzenie takich warunków prawnych, by polska gospodarka, ale i instytucje państwowe mogły w pełni wykorzystywać potencjał AI powstającej gdzie indziej.

Właśnie dlatego, że jeśli chodzi o innowacje technologiczne, optymalnym dla Polski modelem rozwoju AI byłaby strategia „żabich skoków”. Cóż to takiego? W latach 50. XX w. historyk ekonomii Alexander Gerschenkron stwierdził, że zacofanie gospodarcze może być w pewnych warunkach zaletą. Kraje rozwinięte tkwią w paradoksalnej sytuacji: są matecznikiem nowych technologii, to prawda, ale ich gospodarki są jednocześnie przyzwyczajone do technologii starszych. To przyzwyczajenie ma charakter zarówno mentalny, jak i instytucjonalny: ludzie nawykli są do pewnych sposobów działania, a rzeczywistość wokół jest im podporządkowana. W efekcie państwa rozwinięte nie są gotowe do pełnego wykorzystania potencjału technologii, które wytwarzają.

Klasycznym przykładem są czeki. Jeszcze na przełomie milleniów w USA – ojczyźnie świata cyfrowego – były używane do 50–60 proc. wszystkich transakcji bezgotówkowych, gdy w krajach takich jak Polska po przełomie 1989 r. nastąpiła szybka cyfryzacja płatności bezgotówkowych, a zwyczaj płacenia czekiem nigdy się nie wykształcił. Inny przykład: sieci kolejowe dużych prędkości. Choć koleje narodziły się w Wielkiej Brytanii i USA, to ich najnowocześniejsze warianty są znacznie bardziej rozwinięte w krajach takich jak Japonia, Francja czy Hiszpania, albo Chiny. Z AI może być podobnie. Polska może wykorzystać ją w sposób nieosiągalny dla samych twórców. W tym kontekście rządowa strategia daje sporo interesujących tropów, wymieniając instytucje państwa, które można dzięki sztucznej inteligencji zreformować.

Wskazuje się tam np., że administracja publiczna może przyspieszyć procesy decyzyjne i poprawić komunikację z obywatelami dzięki wirtualnym asystentom. Podobnie ochrona zdrowia ma zyskać na automatycznej analizie dokumentacji, spersonalizowanej diagnostyce i monitoringu pacjentów w czasie rzeczywistym. W wymiarze sprawiedliwości przewiduje się wdrożenie narzędzi asystenckich wspierających sędziów i prokuratorów, a nawet wirtualnego asystenta sędziego, który ma skracać czas postępowań. AI ma też pomóc w monitorowaniu sieci energetycznych, transportowych czy telekomunikacyjnych i wspierać reagowanie na kryzysy. Ambitnie? Owszem, ale w tym aspekcie akurat ambicja jest wskazana. A potencjał AI dla naprawy polskich instytucji jest w zasadzie nieograniczony.

W strategii się o tym nie pisze, ale sztuczną inteligencję można zaprząc do analizy prawa. Dzięki niej moglibyśmy je uspójnić, usuwając powtórzenia i sprzeczności. Ponadto każdy nowy projekt ustawy mógłby być poddawany weryfikacji pod kątem oceny skutków regulacji, bo obecnie OSR to tylko mające pozory naukowości uzasadnienie dla wprowadzenia nowych przepisów. Tymczasem złe prawo to jeden z największych problemów naszego kraju. Rozwiązanie go uwolniłoby potencjał sektora prywatnego, który dzisiaj zamiast produkować towary i usługi, zajmuje się wypełnianiem kwestionariuszy, uzyskiwaniem pozwoleń i rozgryzaniem, o co chodzi fiskusowi.

Wdrażanie sztucznej inteligencji. Jaki mamy klimat?

Załamujemy ręce nad tym, że biznes nie wdraża sztucznej inteligencji wystarczająco szybko, a przecież złe prawo to istotna część wyjaśnienia, dlaczego tak jest. Biznesmen kalkuluje. Może dane wdrożenie AI będzie niezgodne z przepisami? Lepiej nie ryzykować. Może korzystanie z AI będzie wkrótce prawnie ograniczone? Lepiej nie inwestować.

Obawa, że samodzielne wdrażanie czy inwestycje w AI – bez wcześniejszego błogosławieństwa urzędników – mogą przynieść więcej szkody niż pożytku, nie jest wcale bezzasadna. Bo co z tego, że rządowe projekty można ocenić jako wyjątkowo, wręcz przesadnie ambitne, skoro idzie z tym w parze bardzo zachowawcze podejście w kwestii bezpieczeństwa?

Dąży się do maksymalnie kontrolowanego rozwoju sztucznej inteligencji, zgodności z coraz bardziej restrykcyjnymi regulacjami i minimalizacji ryzyka społecznego czy środowiskowego. Nadmiernie ostrożne podejście aparatu państwowego jest odzwierciedleniem obecnego w debacie strachu przed AI, który może rozwój tej technologii skutecznie opóźnić, jeśli wręcz nie uniemożliwiać.

Tak było przecież z energetyką nuklearną. Rozwijała się prężnie od lat 50. XX w. do lat 80. XX w., by potem popaść w stagnację w następstwie strachu wywołanego awarią reaktora Three Mile Island w USA oraz katastrofą w Czarnobylu. Strach ten został rozdęty przez rozmaitych aktywistów i polityków do nieproporcjonalnie wielkich rozmiarów względem realnych zagrożeń związanych z technologią jądrową. Udało się przekonać kraje takie jak m.in. Dania, Belgia, Szwecja czy Austria, by drogą referendów bądź uznaniowych decyzji politycznych zakazały budowy elektrowni atomowych. W państwach Zachodu, w których do tego nie doszło, pojawiały się z roku na rok coraz to nowe regulacje windujące koszty budowy nowych reaktorów do poziomów wykraczających poza opłacalność. Jak zauważa Matt Ridley w książce „Skąd się biorą innowacje”, „ilość pracy wkładanej w budowę elektrowni jądrowych znacząco wzrosła, ale chodzi głównie o tę w biurach (...) Według jednego z badań nowe regulacje w latach 70. spowodowały wzrost zużycia stali na megawat o 41 proc., betonu o 27 proc., rur o 50 proc., a przewodów elektrycznych o 36 proc. W miarę jak mechanizm regulacyjny się zaostrzał, projekty zaczęły zawierać funkcje przewidujące zmiany przepisów, które czasami nawet nie następowały”.

Czy to nie szkoda? Gdyby świat w latach 1980–2025 utrzymał tempo budowy nowych reaktorów z końca lat 70. (ok. 30 rocznie), to dziś działałoby około 1,2 tys. jednostek jądrowych zamiast440. Dodatkowa produkcja energii sięgałaby około 5,7 tys. TWh rocznie, co odpowiada około jednej piątej globalnej produkcji energii elektrycznej. To zaś byłoby świetną informacją dla klimatu, gdyż oznaczałoby redukcję o 4,5–5 Gt CO2 rocznie, czyli o 12–14 proc. całkowitych globalnych emisji. I to według ostrożnych szacunków! W tych wyliczeniach nie biorę bowiem pod uwagę faktu, że masowe inwestycje w energetykę jądrową poprawiłyby istotnie jej efektywność względem tej osiąganej dzisiaj faktycznie. Co więcej, można wręcz sądzić, że tzw. małe reaktory modułowe (SMR-y), które wciąż uważa się za przyszłość energetyki jądrowej, ale z których żaden jeszcze nie działa komercyjnie, byłyby już w powszechnym użytku.

ikona lupy />
ShutterStock / Rys. Patryk Koch, fot. Shutterstock

Dla rozwoju AI dodatkowe tysiące TWh rocznie z jądra atomu także byłoby świetną wiadomością: mielibyśmy pod dostatkiem energii dla centrów danych i superkomputerów. Niestety, ten scenariusz nie mógł się ziścić. „Środowisko regulacyjne wymusiło na budowniczych elektrowni porzucenie praktyki wprowadzania innowacji i rozwiązywania problemów na miejscu, bo każde odstępstwo mogło prowadzić do konieczności powtórnego zatwierdzania projektu i jeszcze wyższych kosztów” – pisze Ridley. Analogiczny scenariusz stagnacji w dziedzinie rozwoju AI jest pewnie niemożliwy w rozumieniu globalnym, ale dojść może do niej regionalnie. Słowem, o ile Chiny i USA będą rozwijać sztuczną inteligencję za wszelką cenę, o tyle Europa już dzisiaj sygnalizuje ograniczony apetyt na ryzyko.

Najświeższy tego symptom to próba rozszerzenia dyrektyw w rodzaju DMA (ochrona konkurencji) na dziedzinę AI. Jeśli więc polski rząd naprawdę chce wykorzystać algorytmy dla dobra naszej gospodarki i społeczeństwa, powinien w takich kwestiach zgłaszać votum separatum. Niech bogate społeczeństwa Niemiec, Francji czy Holandii zajmują się produkcją poduszek powietrznych i innych mechanizmów bezpieczeństwa – my moglibyśmy zdecydowanie wciskać pedał gazu. Ale nie wystarczy, by rząd pozwolił na swobodny rozwój AI – musi jeszcze zadbać o to, by był on mile widziany. Odzwyczaić Polaków od strachu.

Zalety zacofania. Polacy wyjątkowo zachowawczy, w wyścigu o AI nie liczmy na podium

O tym, jak ważna dla innowacyjności jest atmosfera społeczna, pisze przekonująco ekonomistka Deirdre McCloskey w „Cnocie burżuazji”. Skąd się wziął bezprecedensowy rozwój i dobrobyt ostatnich 250 lat? Z masowo powstających przełomowych innowacji. A dlaczego te innowacje zaczęły powstawać masowo dopiero w XVIII w., a nie np. 700 lat wcześniej? I dlaczego nie w południowej Azji, a w Wielkiej Brytanii, potem w USA i w reszcie krajów Zachodu? Ze względu na przełom, który dokonał się w mentalności tych społeczeństw. Od czasów Odrodzenia nasiąkały one z wolna ideami wolności, niezależności i indywidualizmu, by w końcu – także pod wpływem pewnych szczęśliwych zbiegów okoliczności – przyjąć je w całej pełni. W rezultacie jednostka idąca pod prąd, nonkonformistyczna, która robi coś odmiennego niż pozostali, przestała być postrzegana jako niebezpieczny dla tradycyjnych wartości odszczepieniec, a zaczęła być hołubiona. Innowator stał się bohaterem, gdyż przynosił dobrą zmianę, a ryzyko, na które narażał siebie – ale także często innych – zaczęło być akceptowane jako konieczny koszt tej zmiany.

Polskie społeczeństwo jest dopiero w połowie drogi do bycia otwartym na innowatorów. W porównaniu międzynarodowym opracowanym przez Geerta Hofstede, holenderskiego badacza zależności między kulturą narodową a organizacyjną, Polacy wypadają jako ludzie umiarkowanie innowacyjni i przedsiębiorczy, a jednocześnie osiągają niemal maksymalny wynik (93 pkt na 100) w zakresie unikania niepewności. Oznacza to, że są wyjątkowo zachowawczy. W przypadku Czechów odczyt wynosi 74 pkt, Węgrów – 82 pkt, a Estończyków zaledwie 60 pkt. To poważny problem dla polityk publicznych. Jeśli instytucje nie będą przełamywać tej naszej narodowej bojaźliwości, a raczej utrwalać ją, to nie wykorzystamy potencjału AI w maksymalnym możliwym zakresie. Zamiast działać śmiało – szybciej i szerzej wdrażać rozwiązania oparte na algorytmach, będziemy czekać aż najpierw zrobią to inni. Pewnie unikniemy jakichś błędów, ale na pewno nie zgarniemy premii za pierwszeństwo. ©Ⓟ

Autor jest wiceprezesem Warsaw Enterprise Institute