No, niekoniecznie tacy głupi. Ale po kolei. Jest rok 1956, Robert Solow formułuje, ledwie na kilka miesięcy przed Trevorem Swanem, model wzrostu gospodarczego (w czasach przed internetem mogli nie wiedzieć o sobie i pracować niezależnie). Nie ma w nim firm, gospodarstw domowych ani decyzji. Są agregaty, takie jak oszczędności, zasób całej siły roboczej czy tempo przyrostu populacji. W modelu Solowa tempo wzrostu gospodarczego jest zgodne z tempem akumulacji kapitału w przeliczeniu na populację. Akumulacja to, w uproszczeniu rzecz jasna, kapitał z poprzedniego okresu plus nowe nakłady na inwestycje pomniejszone o zużycie tego kapitału. Jest także magiczny składnik formuły: tempo wzrostu ogólnej produktywności, zwane czasem postępem technicznym (TFP, Total Factor Productivity). Solow nie wskazuje, skąd się ono bierze, lecz zauważa relację między wzrostem gospodarki a wzrostem TFP. Robert Solow dostaje Nobla w 1987 r. za „wkład do teorii wzrostu gospodarczego”. A ten magiczny składnik zwykło się w literaturze opisywać literką A – to ważne dla dalszej części opowieści.

Oczywiście, nikt nie czekał 31 lat na decyzję komitetu noblowskiego, by zacząć badać model Solowa. Na tamtym etapie danych za bardzo nie było, przełożenie koncepcji takich jak PKB na statystykę publiczną powoli się dopiero wykuwało, a i to dalece nie we wszystkich krajach. Ten, kto chciał robić badania nad wzrostem gospodarczym, uprawiał historię gospodarczą lub formalną analizę matematycznych właściwości modelu Solowa. Dało to wiele bardzo poważnych wniosków. Na przykład, że łatwo dodać do tego modelu kapitał ludzki. Tyle że zachowuje się on z grubsza tak, jak kapitał fizyczny, więc rośnie w tym samym tempie, zaś rola TFP i jego wzrostu mierzonego przez A pozostawała nadal niezbadana.

Odkryte innowacje

Na gruncie modelu Solowa sformułowano także hipotezę konwergencji warunkowej: tempo wzrostu gospodarczego poszczególnych krajów na świecie zależy od tego, jak stosowana przez nie technologia jest daleko od światowej granicy możliwości produkcyjnych. Im te granice są dalej, tym szybciej państwa na dorobku będą doganiać kraje rozwinięte, czyli im bardziej będą się do nich zbliżać poziomem życia, tym bardziej tempo ich wzrostu gospodarczego będzie się obniżać. A także, że kraje o różnym tempie przyrostu populacji i kapitału ludzkiego – też o odmiennych wzorcach zużycia maszyn i kapitału ludzkiego – mogą nawet przy takich samych warunkach początkowych osiągnąć inny poziom rozwoju.

W modelu Solowa inwestycje są możliwe tylko wtedy, jeśli w gospodarce są oszczędności. To dlatego w połowie lat 60. David Cass i Tjalling Koopmans dodali do jego modelu optymalizację gospodarstw domowych. Wykorzystali w tym celu pracę geniusza z Cambridge Franka Ramseya, który w 1930 r. dołączył do słynnego klubu „27 lat”, lecz nim zmarł na żółtaczkę, zaproponował do dziś wykorzystywany sposób myślenia o optymalizacji gospodarstw domowych. Wyobraźcie sobie, że musicie zdecydować, jaką część dzisiejszego dochodu chcecie spożytkować, a jaką zachować. Intuicja jest prosta (matematyka znacznie mniej): jeśli chcę oszczędzać, to po to, by moje przyszłe zachcianki, wyrażone w przyjemności konsumpcji z dziś, były nie mniejsze niż przyjemności, z których rezygnuję obecnie. Za tą intuicją stoi piękny matematyczny wynik, że istnieje optymalny poziom oszczędzania, który maksymalizuje przyjemność z konsumpcji. Tę intuicję Cass i Koopmans wprowadzili do modelu Solowa, ale mimo wielu innych fantastycznych odkryć Nobla dostał tylko Koopmans, i to za coś innego.

Na gruncie tych odkryć wszyscy czuli, że teoria wzrostu gospodarczego to trochę inne zwierzę niż cykle koniunkturalne, inflacje, bezrobocia itp. Praca Solowa pokazała, że makroekonomia dzieli się na badania nad trendami długookresowymi i na badania wahań cyklicznych, które są inną parą kaloszy. Chodzi o to, że nie dowiemy się niczego o długookresowych tendencjach akumulacji kapitału, obserwując kwartalne wahania wydatków rządowych na zasiłki z tytułu utraty pracy.

Równoległy wniosek był też taki, że modele takiej klasy jak Solowa – czego by do nich nie dodać – redukują się do modeli, w których liczy się tylko tempo wzrostu TFP oraz zakumulowany kapitał. A więc można do nich dołożyć całą masę rozszerzeń i dodatkowych aspektów polityki gospodarczej, ale na końcu matematycznie i tak pozostawało tempo akumulacji kapitału (które umieliśmy opisać procesami gospodarczymi) oraz tempo postępu technicznego, które funkcjonowało deus ex machina.

Było coraz więcej danych, więc coś już można było zacząć weryfikować empirycznie. I na tej podstawie w tłumie ludzi skupionych na krótkookresowych wahaniach cyklicznych powstało przekonanie, że ekonomia na agregatach nie wyjaśnia za wiele, bo za dużo się na każdy duży agregat składa. Jeśli chcemy mieć rozsądne modele, musimy je zacząć budować od ludzi i firm do całej gospodarki, czyli z dołu do góry. Tak zrobili na przełomie lat 70. i 80. Edward Prescott i Finn Kydland (nie do teorii wzrostu, a do wahań koniunkturalnych właśnie), którzy Nobla odebrali w 2004 r. W ich modelach żyły nie duże literki, tylko firmy – które optymalizowały swoje zyski, oraz gospodarstwa domowe – które optymalizowały, w uproszczeniu, konsumpcję. Razem z rządem i budżetem dawało to całą gospodarkę.

Skąd się biorą innowacje

A w Chicago w 1983 r. doktorat pisał już Paul Romer, który zrobił to samo, tylko dla wzrostu gospodarczego. W jego modelu kapitał ludzki na podstawie już istniejącego stanu wiedzy wymyśla nowe typy dóbr – dobra pośrednie (np. śruby, kleje albo prąd). Tych dóbr samych w sobie gospodarstwa domowe nie chcą, lecz bez nich nie da się stworzyć dóbr końcowych, czyli tego, czego wszyscy pożądają. Im więcej różnych typów dóbr pośrednich, tym większa wartość możliwych dóbr końcowych. I tak tempo wzrostu TFP z modelu Solowa brało się już nie deus ex machina, tylko z celowych decyzji firm, które próbowały ustrzelić optymalną liczbę dóbr pośrednich. Dlaczego optymalną? Bo w dobra pośrednie trzeba zainwestować, żeby wymyślić ich nowy typ, a to kosztuje. Jeśli za dużo firm zacznie nagle inwestować w innowacje, zyski spadną i nikomu nakłady na badania się nie zwrócą. Romer odebrał Nobla w 2018 r.

Gdy Romer kończył doktorat, w Bostonie na Harvardzie zaczynał Philippe Aghion, a kilka budynków obok, na kampusie MIT, w 1988 r. roczny urlop od nauczania w Ontario spędzał Peter Howitt. Uważali oni, że model Romera pomija jeden istotny fakt: że niektóre dobra są po prostu lepsze niż wcześniej istniejące. Ludzkość przestaje produkować więc te stare, a właściciele ich patentów mogą tymi urzędowymi papierami już tylko wytapetować swoje kanciapki. Ta myśl nie dawała im spokoju i zaczęli pracować nad modelem, w którym nadal są dobra pośrednie, lecz mechanizm inwestowania w innowacje jest zupełnie inny. Wynalazca przeznacza nakłady na badania, bo jak mu się innowacja uda, to do czasu kolejnego przełomu będzie miał quasi-monopol, dzięki któremu spłaci poniesione nakłady. To za ten właśnie model Aghionowi i Howittowi komitet noblowski przyznał nagrodę w 2025 r.

Praca Aghiona i Howitta bardzo się różni od modelu Romera. W obu innowacje biorą się z decyzji firm, lecz u Romera subsydia publiczne podnoszą tempo postępu technicznego, bo zwiększają pulę zysku dla wynalazców. W takim ujęciu jedynym ograniczeniem subsydiowania innowacji jest koszt, po którym rząd pożycza pieniądze. Tylko jaki jest dziś popyt na procesory Intel 386? Albo wolnoschnący beton? Już żaden. W modelu Aghiona i Howitta jest optymalna liczba innowacji, a subsydia publiczne są narzędziem możliwym, lecz znacznie bardziej zniuansowanym niż szufla w modelu Romera. Z pracy Aghiona i Howitta wyrosły analizy polityki regulacyjnej, działań zapobiegających wejściu konkurencji do wyścigu technologicznego (a nie tylko sprzedaży konsumentowi końcowemu), agresywnego patentowania itp.

Konkurencja technologiczna generuje zwycięzców dysponujących nadwyżkami z innowacji. Ich działania trzeba monitorować oraz dostosowywać polityki regulacyjne i podatkowe, bo wygrani z poprzednich fal innowacji mogą próbować hamować rozwój pozostałych

Okiełznać nierówności

Nagrodzony w ubiegłym roku Noblem model daje też bardzo istotne wnioski dla oceny nierówności: konkurencja technologiczna generuje zwycięzców dysponujących nadwyżkami z innowacji. Ich działania trzeba monitorować oraz dostosowywać jednocześnie polityki regulacyjne i podatkowe, bo wygrani z poprzednich fal innowacji mogą próbować hamować rozwój technologiczny wszystkich pozostałych. Mówiąc w skrócie: dostajemy nie tylko model innowacji, lecz także masę wskazań dla polityki gospodarczej o tym, jak na nie oddziaływać oraz jakie są ich konsekwencje dla ludzi i społeczeństwa.

Ten model stał się na tyle bazowy, że trzeba było przepisać podręczniki do makroekonomii. Pierwsza wersja modelu zaczęła krążyć już pod koniec lat 80. XX w. i od tamtej pory przeniknął on nie tylko do nauczania ekonomii na studiach (choć niekoniecznie w Polsce), lecz także po prostu zrewolucjonizował modelowanie wzrostu gospodarczego i polityk publicznych. Powstała cała gałąź badań naukowych, a w nich wiele konkretnych wskazań dla polityki gospodarczej co do podatków, subsydiów, instrumentów rynku pracy, regulacji rynku, ochrony patentowej, skutecznych działań antymonopolistycznych, handlu międzynarodowego i masa innych, wszystkich nawet nie da się wymienić. ©Ⓟ