Feeds:
Wpisy
Komentarze

„The Second Machine Age” Erika Brynjolfssona i Andrew McAfee to optymistyczny głos w debacie o tym, czy wchodzimy w erę wielkiego postępu czy wielkiej stagnacji. 

Jedną z najsecondmachineagewiększych zagadek ekonomicznych ostatnich kilkudziesięciu lat jest pytanie, dlaczego gigantyczny postęp w obszarze technologii komputerowych i informatycznych nie doprowadził do istotnego przyspieszenia produktywności? Już przekładam to na język pierwszej strony popularnej gazety: skoro Internet i komputery dają nam możliwości, o jakich nasi rodzice nawet nie śnili, to dlaczego do cholery nie widać tego w danych o dochodach? Dziś jest to jedna z najbardziej gorących dyskusji w świecie ekonomii (oprócz tematu nierówności).

W Stanach Zjednoczonych, które wyznaczają trend rozwojowy i są punktem odniesienia, wzrost PKB na godzinę pracy od lat siedemdziesiątych do dziś wynosił średnio 1,6 proc., podczas gdy przez stulecie do lat 70. było to 2,4 proc. Te 0,8 pkt proc. różnicy to dużo, ponieważ gdyby w ostatnich czterdziestu latach kontynuowany był wcześniejszy trend to średnia produktywność byłaby dziś niemal o 40 proc. wyższa niż jest w rzeczywistości. W 1987 r. znany ekonomista Robert Solow powiedział, że komputery są widoczne wszędzie oprócz danych o PKB. Do dziś właściwie niewiele się zmieniło, a inny znany Robert – Robert Gordon – napisał niedawno artykuł naukowy, w którym przekonuje, że dzisiejsze technologie nie mają już takiej możliwości podnoszenia produktywności jak technologie pojawiające się na przełomie XIX i XX wieku. Szczerze artykuł Gordona polecam, ponieważ jest napisany łatwym językiem i wykorzystuje proste i przemawiające do wyobraźni statystyki. Smutna to mogłaby być konstatacja gdybyśmy się z Gordonem zgodzili, ponieważ niższy wzrost gospodarczy może oznaczać (piszę „może”, ponieważ z tą tezą będę jeszcze dyskutował) większe problemy systemów emerytalnych, większe trudności z obniżaniem długu, większe napięcia społeczne itd.

outputperhour

Na szczęście na kryzys produktywności nie jesteśmy chyba skazani. Eric Brynjolfsson z MIT, który w 1992 r. jako pierwszy sformalizował problem z wpływem technologii IT na produktywność ukuwając pojęcie „paradoksu produktywności”, napisał wspólnie z Andrew McAfee (również MIT) książkę, w której przekonują, że współczesny postęp technologiczny ma i będzie miał ogromny wpływ na produktywność i standard życia. Co więcej, ich zdaniem wchodzimy w drugi wiek maszyn, który pod względem wpływu na produktywność będzie przypominał postęp z pierwszego wieku maszyn, czyli z XIX wieku. Stąd tytuł książki: „The Second Machine Age. Work, Progress and Prosperity in a Time of Brilliant Technologies”. Ich argumentacja bliska jest temu, co każdy uważny obserwator współczesnych trendów musi gdzieś intuicyjnie przeczuwać: postęp technologiczny daje człowiekowi ogromne szanse na podniesienie standardu życia. Jest tylko jeden problem: jak zapewnić udział w tej technologicznej uczcie jak największej liczbie osób? Jak na razie udaje się to słabo.

Jeżeli mam obstawiać – a mimo tendencji do dzielenie włosa na czworo nie lubię mówić, że wszyscy mają rację – to bliżej mi do Brynjolfssona niż Gordona. Patrząc na technologie, nad jakimi pracuje obecnie człowiek, widać gigantyczne wręcz szanse na zrewolucjonizowanie wielu obszarów ludzkiego życia. Oczywiście, kwestia tego, czy będą one podnosiły produktywność w tempie 1 czy 2 proc. jest trudna do rozstrzygnięcia, ale pesymizm Gordona w znacznej mierze opiera się na okresie 2004-2013, kiedy doszło do wyraźnego spowolnienia dynamiki produktywności, która w latach 1995-2004 zaczęła wykazywać wyraźne oznaki reakcji na rewolucję komputerową. Myślę, że to może być zbyt krótki okres, by wyciągać długookresowe wnioski.

Co ważne, choć zarówno Gordon jak i Brynjolfsson/McAfee trafnie diagnozują, że korzyści z rozwoju gospodarczego są coraz bardziej skupione w drobnej grupie najlepiej zarabiających, to Gordon poprzestaje na tej niewesołej konstatacji, jakby była ona czymś „ofiarowanym” ludzkości z góry przez naturę, a Brynjolfsson/McAfee przekonują, że nad dystrybucją korzyści możemy zapanować i oferują recepty. Są to recepty czasem ciekawe, a czasem banalne, ale podejmują próbę zmierzenia się z wyzwaniem nierówności.

Nie byłoby rozwoju gospodarczego, gdyby rewolucji przemysłowej nie towarzyszyła chwalebna rewolucja w Wielkiej Brytanii, rewolucja Francuska, rozwój praw obywatelskich i przywilejów pracowniczych w XIX wieku, które włączyły w życie społeczne setki milionów obywateli, zapewniając nie tylko rynek zbytu ale też gigantyczny potencjał kapitału ludzkiego. Rozważań o długookresowym wzroście gospodarczym nie można oderwać od tematy instytucji politycznych.

***

Dokładnie przed dziesięcioma laty wyszła znana książka „The New Division of Labor”, w której Frank Levy (MIT) i Richard Murnane (Harvard) starali się udowodnić, że komputery i roboty będą przejmowały coraz większą ilość zadań ludzkich, ale nie przejmą zadań, które wymagają złożonej komunikacji (np pozyskiwania informacji, pisania analiz) i czynności nierutynowych (planowania strategii, ale też sprzątania pokoju). Wykonywanie tych zadań zarezerwowane jest dla ludzkiego mózgu. Mogliśmy się zatem obawiać, że komputeryzacja zniszczy niektóre zawody, ale jednocześnie mogliśmy mieć nadzieję, że będą powstawały nowe zajęcia, wymagające większej aktywności umysłowej niż fizycznej czy manualnej.

googlecarKsiążka, choć głośna i wpływowa, dziś powoli traci aktualność. Jak udowadniają Brynjolfsson/McAfee, dziś komputery zaczynają powoli wykonywać zadania dokładnie z tych obszarów, które kiedyś naukowcy uważali za niedostępne dla maszyn – podejmowane są już próby angażowania komputerów w kompleksową komunikację i nierutynowe zajęcia. Samochód Google’a umie już jeździć po autostradzie (co wymaga nierutynowych „umijętności”, ponieważ schematy postępowania kierowców non-stop się zmieniają), a umiejętność jazdy w mieście przestaje być abstrakcją. Pojawiają się pierwsze programy piszące depesze informacyjne – taką usługę w odniesieniu do depeszy o wynikach spółek zamówił np. amerykański magazyn „Forbes”. Naukowcy twierdzą, że w ciągu dziesięciu lat komputery będą umiały rozumieć mowę – na razie podejmowane są średnio udane próby, jak np. aplikacja Siri na iPhone’a, ale trend jest bardzo obiecujący. W ostatnich kilku latach mocno rozwinęła się technologia rozpoznawania i tworzenia map terenów (tzw. SLAM – simultaneous localization and mapping) – na razie mogą ją docenić głównie użytkownicy telewizorów, w których zamiast pilota używamy ruchu ręką, ale możliwości jakie daje ta technologia w dziedzinie transportu i logistyki są niewyobrażalnie szerokie. Wreszcie, coraz większa dostępność danych i możliwości obliczeniowe komputerów czynią realną komputerową diagnostykę medyczną – któż bowiem lepiej rozpozna dolegliwość pacjenta: sam lekarz, czy też komputer mający dostęp do wszystkich badań naukowych i setek tysięcy diagnoz pacjentów?

O ile do niedawna wydawało się, że komputer zastąpi tylko księgowego, to dziś można już przypuszczać, że niedługo skomputeryzowaniu będą mogły ulec niektóre funkcje analityczne a może i menedżerskie; o ile niedawno wydawało się, że komputer określi drogę na mapie, o tyle dziś realne staje się bezzałogowe prowadzenie samochodów (auto Google’a potrafi jeździć na autostradzie, choć jeszcze nie potrafi w miejskim korku); o ile niedawno wydawało się, że komputer może dokonać tylko dobrej diagnostyki obrazowej pacjenta, o tyle dziś wyobrażalne są technologie pełnej diagnostyki stanu chorego. Brynjolffson/McAfee trendy te opisują z nieskrywanym entuzjazmem. Ich zdaniem, moce obliczeniowe komputerów, które od 60 lat rosną dwukrotnie w ciągu każdego roku, oraz gigantyczne zasoby danych sprawią, że coraz bardziej inteligentne maszyny będą wykonywały coraz więcej zadań, ułatwiając ludziom życie. Czyż nie lepiej zdać się na „lekarza” mogącego porównać w ciągu kilku sekund wyniki naszych badań z setkami tysięcy innych przypadków niż lekarza kierującego się li tylko praktyką i intuicją? Czyż nie wspaniale będzie zaoszczędzać 1-2 godziny dziennie dzięki inteligentnym systemom nawigacyjnym rozładowującym korki w miastach lub inteligentnym samochodom? A jak wielkie możemy poczynić osiągnięcia w efektywności edukacji lub np. konsumpcji energii, jeżeli będziemy mieli na bieżące dostęp do danych i systemów optymalizujących nasze zachowania?

syversonRozważaniom o postępach technologicznych towarzyszą dwie bardzo istotne obserwacje natury ekonomicznej. Pierwsza jest taka, że innowacje w poszczególnych dziedzinach wzmacniają się nawzajem i mogą przynieść efekt po stronie produktywności dopiero po pewnym czasie. W momencie pojawienia się energii elektrycznej (lata 80. XIX wieku), przez pierwsze 20-30 lat produktywność wcale nie rosła bardzo szybko, ponieważ firmy nie były jeszcze gotowe na maksymalne wykorzystanie możliwości oferowanych przez tę przełomową innowację. Dopiero lata 20 i 30 XX wieku przyniosły znaczące przyspieszenie efektywności pracy. Doskonale pokazuje to ekonomista Chad Syverson (Uniwersytet Chicago) na wykresie, który zamieszczam poniżej. Technologie ogólnego przeznaczenia, czyli takie, które wpływają na wiele obszarów życia, mogą powodować wzrost produktywności falami.

Druga istotna obserwacja dotyczy mierzenia korzyści z postępu technologicznego. Nie chcę dołączać do chóru tych, którzy krytykują w czambuł wskaźnik PKB jako rzekomo nieademamy innego sposobu, ale musimy znać ograniczenia tego. Pamiętam jak mój ojciec zdziwił się, kiedy mu powiedziałem, że stosunek realnego PKB per capita Polski i USA (po uwzględnieniu siły nabywczej) jest obecnie na takim samym poziomie jak w latach 70., czyli że teraz dzieli nas od Ameryki tyle co wówczas. „Jak to? Przecież wtedy żyło się nieporównywalnie gorzej niż dziś!”. Rację mają więc Brynjolfsson/McAfee, kiedy wskazują, że PKB może nie uchwycić wszystkich korzyści ze zmian technologicznych. Spadek krańcowych kosztów produkcji wielu usług (krańcowych, czyli takich, które odnoszą się do jednego dodatkowego produktu) nawet do zera sprawia, że część z nich w ogóle nie będzie rejestrowana w PKB albo będzie rejestrowana tylko w minimalnym stopniu. Gordon też to dostrzega, ale poprzestaje na stwierdzeniu, że PKB nigdy nie mierzył wszystkich korzyści z rozwoju, więc obecne problemy nie czynią wartości tego wskaźnika mniejszej niż przed laty. Ale może Gordon się myli? Może jednak zwiększenie ilości dóbr wirtualnych, które mają zerowe krańcowe koszty produkcji i nie dokładają się do PKB, ale zwiększają standard życia, jednak czyni PKB coraz mniej użytecznym wskaźnikiem?

Brynjolfsson/McAfee piszą tylko o technologiach ICT, ale przecież ogromny postęp otwierający drzwi do wyraźnego wzrostu produktywności widać również w innym obszarze technologii ogólnego przeznaczenia: w energetyce. W Europie zielona energia kojarzy się głównie z kagańcem nakładanym przez Komisję Europejską na poszczególne kraje w zakresie emisji CO2, z nieefektywnością przymusowych inwestycji w wiatraki i panele słoneczne, z drożyzną i zapóźnieniem w stosunku do USA, które zamiast bawić się w wiatraki zaczęły wydobywać znacznie tańszy gaz łupkowy. Jednak w miarę wzrostu efektywności technologii energetycznych, korzyści dla gospodarki będą się znacząco zwiększały.

Jeżeli zatem człowiek oderwie na chwilę oczy od danych o PKB, to nie może oprzeć się wrażeniu, że ostrzeżenia przed zastojem produktywności mogą być przedwczesne.

***

Rozważania o postępie technologicznym i produktywności trudno oderwać od kontekstu społecznego, czyli pytania, dlaczego właściwie ludzie dokonują innowacji i kto na tym korzysta? Brynjolfsson i McAfee dużą część swojej pracy poświęcają dystrybucji dochodu, problemowi stagnacji płac realnych, zjawisku ekonomii gwiazd („superstar economy”), dostrzegając, że druga era maszyn nie przyniosła na razie wielkich korzyści materialnych przeciętnemu członkowi klasy średniej.

Autorzy odrzucają sugestie takich ekonomistów jak Greg Mankiw, że w obserwowanym od trzech dekad wzroście nierówności nie ma nic złego. Wskazują na kilka zjawisk, które mogą budzić niepokój. Po pierwsze, bardzo szybko rośnie różnica między ludźmi dobrze a średnio wykształconymi, co przy problemach z nadążaniem systemów edukacyjnych za zmianami technologicznymi może prowadzić do koncentracji dochodów i majątku w rękach nielicznych obywateli. Nie ma oczywiście nic zdrożnego w wysokiej premii za wykształcenie, problem może być wtedy, kiedy premia ta przyjmie rozmiary trudno do zaakceptowania dla ludzi jej nie posiadających. Po drugie, rynki usług wirtualnych mają tendencję do koncentracji, czyli rynkowej dominacji jednego lub paru podmiotów wymiatających mniejszych konkurentów. Usługi tradycyjne z natury rzeczy musi świadczyć duża liczba podmiotów, a każdy z nich otrzymuje dochód zgodny ze swoją produktywnością. Natomiast w usługach wirtualnych nawet wysoce produktywne podmioty czy osoby będą wymiatane z rynku przez top-performerów. Ci najbardziej produktywni to gwiazdy, które będą zarabiały niewspółmiernie dużo do swoich umiejętności. Psychoterapeuta A, który jest dwukrotnie lepszy od psychoterapeuty B, będzie prawdopodobnie zarabiał dwu lub może trzykrotnie więcej, ale założyciel serwisu społecznościowego C, który jest dwukrotnie lepszy od serwisu społecznościowego D, zgarnie cały dochód na rynku. Po trzecie wreszcie, konkurencja globalna oraz spadek cen dóbr kapitałowych sprawiają, że rośnie zysk z kapitału kosztem zysku z pracy. Przez wiele dziesięcioleci w Stanach Zjednoczonych panował wręcz dogmat, że dochód narodowy składa się mniej więcej w dwóch trzecich z wynagrodzeń za prace i w jednej trzeciej z zysków kapitałowych. Ten dogmat zaczął się łamać ok dwie dekady temu, kiedy udział zysków z kapitału w PKB zaczął szybko rosnąć, a udział wynagrodzeń spadać – teraz płace stanowią już niecałe 60 proc. PKB (w Polsce udział ten również szybko spada, co można wyjaśnić m.in. dużym udziałem kapitału zagranicznego w naszych zasobach kapitałowych). Nie wiadomo jeszcze, dokąd ten trend nas zaprowadzi, ale jest ryzyko, że – podobnie jak rosnąca premia za edukację – będzie on przesuwał dochód i majątek w ręce nielicznych obywateli.

Top-decile-share-1917-2010

Myślę, że ogromne problemy z popytem wywołane kryzysem finansowym z 2008 r. nieco utrudniają rozróżnienie, które z niepożądanych zjawisk na rynku pracy są zmianami strukturalnymi, a które wynikają tylko z wyjątkowo silnego – ale jednak przejściowego – cyklicznego wahnięcia w dół gospodarki. Ale liczba analiz wskazujących, że narastanie nierówności to proces długotrwały i jednocześnie groźny dla społeczeństwa, jest przygniatająca. Pojawiają się one zarówno po stronie liberalnej (np. Raghuram Rajan w książce „Fault Lines”) jak i socjalnej (Krugman, Stiglitz, Piketty itd.). Głosy takie jak Mankiwa, że wszystko jest okej, znajdują coraz mniejszy posłuch, choć oczywiście w starciach ideowych są one silnym wsparciem konserwatywnej flanki.

 

U Brynjolfssona/McAfee brakuje mi natomiast nieco głębszego spojrzenia na to, dlaczego nierównomierny podział korzyści z postępu technologicznego może być problemem. Traktują oni postęp jako zjawisko czysto technologiczne, a podział dochodu jako problem towarzyszący, tymczasem zmiany technologiczne i zmiany w instytucjach politycznych zawsze szły ze sobą ściśle w parze – jedne zależą od drugich.

To jak ludzie w historii zwiększali swoje możliwości produkcyjne zawsze szło w parze z tym, jak zmieniały się instytucje przyznające ludziom prawa, przywileje i obowiązki, dlatego o rozwoju gospodarczym i technologicznym praktycznie nie można rozmawiać bez zmian politycznych. Rewolucja przemysłowa zaczęła się w 1775 r., kiedy James Watt zakończył pracę nad maszyną parową. Ale nie byłoby tego osiągnięcia, gdyby nie chwalebna rewolucja w Wielkiej Brytanii pod koniec XVII wieku, która rozszerzyła prawa ekonomiczne i polityczne obywateli (przynajmniej niektórych), gdyby nie oświecenie w Europie i towarzyszące mu idee wolności, gdyby nie wcześniejszy renesans i powolna erozja społeczeństwa hierarchicznego. Właściwie każdy historyk zajmujący się rozwojem gospodarczym w Europie dostrzega, że tło społeczne i polityczne miało kluczowe znaczenie dla uruchomienia mechanizmów rozwojowych. Jeden trend historyczny wydaje się wśród tych różnych zmian dominować: erozja dominacji elit i rozszerzenie praw i znaczenia klasy średniej. Daron Acemoglu i James Robinson udowadniali w swojej książce „The Wealth of Nations”, że rozwój pojawia się tam, gdzie ludzie przestają być ciśnięci finansowo i politycznie przez elity. Z ich tezą można oczywiście dyskutować i część historyków to robi, ale trudno zaprzeczyć, że w Europie erozja znaczenia elit na korzyść znaczenia klasy średniej przynajmniej towarzyszyła procesom rozwojowym.

Jeżeli współczesne trendy gospodarcze doprowadzą do dominacji finansowej wąskiej elity i erozji klasy średniej, to może być to pierwszy krok, by zmarnować osiągnięcia zachodnich społeczeństw ostatnich dwustu lat, jakimi były wysoki poziom dochodu, wysoki standard życia, wysoki poziom bezpieczeństwa itd. Nie mam, bynajmniej, zamiaru rozwijać narracji zagrożenia i konstruować wokół tego politycznych haseł, ale wydaje mi się, że trudno w tym momencie stawiać tezę, na wzór Mankiwa, że zupełnie nic groźnego się nie dzieje. O tych wątkach napiszę zresztą szerzej recenzując książkę Thomasa Piketty’ego „Capital in the Twenty-First Century”.

Do Brynjolfssona/McAfee można mieć też zastrzeżenie, że zbyt słabo rozwijają koncepcje, jak sprawić, by wzrost produktywności umocnił nie tylko elity, ale również klasę średnią. Prosty zestaw standardowych koncepcji, jak rozwój edukacji nastawionej na rozwiązywanie kompleksowych problemów, bardziej efektywny system podatkowy, czy zmiany w prawie patentowym to trochę za mało – to wszystko wiemy bowiem z lektury codziennych mediów. Wiemy też, że wprowadzania tych zmian z jakichś powodów nie postępuje. Widzę dwa potencjalne powody, dlaczego zmiany powszechnie postulowane przez ekspertów nie są wprowadzane w życie. Po pierwsze, może być to zwykły konflikt interesów, a z angażowaniem się w takie konflikty eksperci zwykle mają problem. Jeżeli dystrybucja korzyści ze wzrostu gospodarczego zaczyna stanowić kłopot, trudno uciec od rozważań politycznych – komu zabrać, a komu dać. Uciekanie od takich pytań, uciekanie od problemów idei i wartości, czyni niestety wiedzę ekspercką mniej użyteczną. Po drugie, część proponowanych polityk, które wydają się cieszyć dużym poparciem wśród ekspertów różnej maści, wcale nie udowodniła jeszcze w praktyce swojej skuteczności. Najlepszym przykładem są szkoły społeczne („chartered schools”), które cieszą się znacznie większą autonomią niż szkoły publiczne i dzięki temu mogą rzekomo lepiej przystosowywać programy kształcenia do szybko zmieniających się potrzeb. Chwalenie szkół społecznych jako remedium na sztywność edukacji jest współcześnie bardzo modne. Niestety nie ma jednoznacznych dowodów na to, że szkoły takie rzeczywiście lepiej przygotowują uczniów do wyzwań współczesności i, co istotne, że pomagają włączyć słabsze dzieci w postęp wiedzy (ten temat jeszcze rozwinę).

Książka „The Second Machine Age” to bardzo ciekawy głos w dyskusji o roli technologii, rozwoju gospodarczym i dystrybucji dochodu. Wnioski z niej płynące są dość optymistyczne – ludzkość (czyli najpierw Stany Zjednoczone, a później innych) czeka wielki postęp jakości życia, a nad odpowiednią dystrybucją tego postępu wśród szerokich mas możemy zapanować, jeżeli tylko będziemy chcieli. Jeżeli będziemy chcieli…

IM

Obserwuję, że szybko rośnie liczba osób o bardzo liberalnych poglądach gospodarczych, które dostrzegają, że w narastających nierównościach szans między lepiej i gorzej zarabiającymi jest coś nie tak, ale jednocześnie boją się przyjąć jakiekolwiek postulaty, które pachną im lewicą lub nawet socjalizmem. Takie osoby powinny przeczytać „Płaca za pracę” Edmunda Phelpsa, Noblisty z 2006 r. Nawet jeżeli nie wszystko, co Phelps pisze, jest prawdą.

Phelps posiada wszystkie cechy, które osobom drżącym na dźwięk słowa lewica i kojarzącym każdy podatek z socjalizmem powinny przypaść do gustu. Uważa, że głównym motorem postępu jest przedsiębiorczość, że nadmierne zaangażowanie państwa w gospodarkę blokuje rozwój, podobnie zresztą jak wysokie podatki i pomoc społeczna. Gloryfikuje amerykański kapitalizm XIX wieku, pisząc, że były to czasy „raju na ziemi” (! – tak, naprawdę tak napisał). Co ważne, przyłożył rękę do detronizacji keynesizmu jako głównej idei ekonomicznej lat powojennych, kiedy na przełomie lat 60. i 70. współtworzył teorię naturalnej stopy bezrobocia, udowadniając, że polityką stymulowania popytu można w długim okresie podnieść jedynie inflację (jeżeli stopa bezrobocia jest poniżej stopy naturalnej). A w 2008 r. przekonywał, że keynesowski stymulus fiskalny w USA nie ma sensu.

paca-za-prac_211472

Ale uwaga! Phelps uważa, że leseferyzm wcale nie prowadzi do optymalnych rezultatów ekonomicznych. Przekonuje, że oprócz tych, którzy dzięki pracy osiągają dochód pozwalający im realizować swoje cele i tych, którzy są nędzarzami wymagającymi jedynie wsparcia, są też ci, którzy chcą i mogą pracować, ale dla których rynkowa stawka ich płacy nie pozwala na realizację ich celów. Tą trzecią grupę trzeba nie tyle wspierać charytatywnie, co pomagać jej odnaleźć się na rynku pracy poprzez system wsparcia ich zatrudnienia. O tym właśnie jest książka „Płaca za pracę”. Jej główna teza jest następująca: w ostatnich kilku dekadach nastąpił wzrost rozwarstwienia między nisko zarabiającymi a klasą średnią, który prowadzi do narastania patologii zagrażających całemu społeczeństwu. Ponieważ przyczyny rozwarstwienia są niemal czysto ekonomiczne, a nie polityczne czy kulturowe, należy wprowadzić instytucje, które podbiją płace najmniej zarabiających, pozwalając im na rozwój osobisty i zwiększając wartość społeczną ich pracy. Taką instytucją jest dotacja do zatrudnienia osób z najniższych grup zarobkowych.

Phelps twierdzi, zupełnie zresztą słusznie, że praca ma ogromną wartość ponad wytwarzanie dochodu potrzebnego do przeżycia. Zapewnia samorealizację, pozwala na utrzymanie rodziny, posiadanie i wykształcenie dzieci, odnalezienie swojego odpowiedniego miejsca w społeczeństwie, tworzenie więzi społecznych. Od połowy XIX do połowy XX wieku rozwój gospodarczy w Stanach Zjednoczonych pozwalał coraz szerszym grupom społecznym na uczestnictwo w podziale dochodu poprzez zwiększanie wydajności pracy i osiąganie coraz wyższych dochodów. Jednak w drugiej połowie XX wieku to się zmieniło – płace najmniej zarabiających zaczęły stać w miejscu lub nawet spadać, co zaczęło prowadzić do narastania patologii społecznych, jak przestępczość, alkoholizm, czy rozpad rodzin. Phelps przekonuje, że to rozwarstwienie płac leży u źródła tych zjawisk, a nie, jak twierdzą konserwatyści, upadek moralności.

Noblista wymienia dość standardowy zestaw przyczyn, które prowadzą do obniżenia płac w grupie najmniej zarabiających. Po pierwsze, jest to wzrost roli technologii informacyjnych, które sprawiają, że wydajność pracy w coraz mniejszym stopniu zależy od cech fizycznych człowieka, a w coraz większym stopniu od możliwości przetwarzania dużych zasobów informacyjnych. Z tego powodu relatywna wydajność części pracowników wyraźnie maleje. Po drugie, globalizacja wywołała presję na płace w sektorze przemysłowym, gdzie wydajność i płace pracowników fizycznych były najwyższe. Globalizacja prowadzi również do spadku cen towarów przemysłowych w stosunku do usług, co również prowadzi do obniżenia płac. Po trzecie wreszcie, rozrost programów pomocy społecznej w drugiej połowie XX wieku obniżył bodźce do pracy i przez to obniżył wydajność części pracowników. Phelps twierdzi, że system pomocy społecznej jest źle zaprojektowany, ponieważ generuje bardzo wiele bodźców do pozostawania poza rynkiem pracy. Mam wrażenie, że cały fragment książki o pomocy społecznej jest trochę wstawką, która ma uspokoić konserwatywnego czytelnika, ponieważ jest w nim najmniej dowodów z danych czy badań na poparcie stawianych tez.

Remedium na niskie płace mają być dotacje do zatrudnienia osób pracujących w niskopłatnych zawodach. Jeżeli na przykład płaca w jakimś zawodzie wynosi 4 dolary za godzinę, to państwo mogłoby opłacać z tego 3 dolary. Phelps szacuje, że kosztowałoby to w USA ok. 400 mld dolarów rocznie, czyli – jeżeli liczył w cenach z daty wydania książki – około 3 proc. PKB. Program sfinansowany byłby z likwidacji innych programów społecznych oraz ewentualnie podwyższenia niektórych podatków. Autor twierdzi jednak, że w dłuższym okresie program byłby praktycznie samofinansujący się, ponieważ korzyści dla jakości siły roboczej i gospodarki przewyższyłyby koszty. Ze względu na wyższy popyt na pracę, płace osób najmniej zarabiających wzrosłyby, co w dłuższym okresie pomogłoby ludziom z niższych półek płacowych rozwijać się, lepiej realizować swoje życiowe cele, kształcić dzieci itd. itp., co choć częściowo ograniczyć wspomniane wcześniej patologie społeczne.

Czy pomysł Phelpsa jest dobry? Na pewno nakierowanie pomocy społecznej w jak największym stopniu na tworzenie bodźców, a nie jedynie leczenie ran wyrządzonych przez procesy rynkowe, jest słusznym kierunkiem myślenia. Dotowanie zatrudnienia wydaje się dobrym pomysłem. Aczkolwiek dwóch kwestii Phelps nie wyjaśnia i wydaje się, że znajdują się one poza zasięgiem jego myślenia. Po pierwsze, problem stagnacji płac zaczyna dotykać już nie tylko najmniej zarabiających ale również klasy średniej. O narastających nierównościach mówi się dziś nie tyle w kontekście różnicy między osobami nisko opłacanymi a całą resztą, ale między klasą średnią a zamożnymi. A dotacje do zatrudnienia większości pracowników naturalnie nie wchodzą w grę. Rozwiązanie problemu stagnacji płac klasy średniej może być dużo trudniejsze do rozwiązania. Po drugie, skoro wolny rynek nie przynosi pożądanych przez nas rezultatów w obszarze płac, to można domniemywać, że może nie przynieść ich również w wielu innych obszarach, jak edukacja, służba zdrowia, transport i inne usługi publiczne itd. itp. Gdzie są granice interwencji państwa w tych obszarach? Jaka jest generalna zasada dotycząca podziału kompetencji między rynkiem a państwem?

Jak się raz zasieje wątpliwość w skuteczność wolnego rynku, to później trzeba zebrać tego żniwo.

IM

Kończący swoją kadencję szef Fed pomógł uniknąć amerykańskiej gospodarce – i przez to zapewne światu – powtórki z Wielkiej Depresji. Ale czy osiągną pełen sukces? Tego jeszcze nie wiemy.

Ben Bernanke to chyba jedyny ekonomista, który swoją wypracowaną teorię i badania empiryczne miał okazję sam sprawdzić w praktyce na tak wielką skalę. Dlaczego nazwałem go lepszym Miltonem Friedmanem? Bo był w pewnym sensie jest uczniem Friedmana – propagował jego koncepcję przyczyn Wielkiej Depresji, przyznawał polityce pieniężnej stabilizacyjną rolę itd. Ale jednocześnie brak mu ideologicznego ferworu, nie jest rycerzem walki z państwem wszędzie i za każdą cenę, co pozwoliło mu posunąć myślenie dotyczące polityki pieniężnej znacznie na przód. Dzięki temu umiał dość pragmatycznie zareagować na uderzenie kryzysu w 2008 r. Podejrzewam, że gdyby Friedman w 2007 r. żył i został prezesem Fed, żyłoby się nam znacznie ciężej – doświadczylibyśmy pewnie usilnej walki ze stymulacją fiskalną Obamy (którą 80 proc. amerykańskich ekonomistów uznało za skuteczną) oraz próby stabilizowania podaży pieniądza, co jak współcześnie wie każdy ekonomista nie ma większego sensu.

Okej, przyznaję, zacząłem od Friedmana bo jego nazwisko elektryzuje i przyciąga. Teraz tzw. real stuff.

bernankeRychło w czas… Ale dopiero ostatnio przeczytałem zbiór esejów B. Bernanke na temat Wielkiej Depresji. Pewnie powinienem był to uczynić pięć lat temu (co najmniej). Pewnie też lektura ta nie zmieniła mojego patrzenia na świat, bo teorie i badania BB znałem wcześniej. ALE teraz jest doskonała okazja, by odświeżyć pewne kluczowe elementy myślenia Bernanke i zastanowić się, czy jego polityka jest skuteczna. Analiza mechanizmów Wielkiej Depresji (1929-1933 lub 1940) odegrała kluczową rolę w wypracowaniu strategii walki z Wielką Recesją (2007-2009). Pewnym wsparciem było również doświadczenie japońskiej stagnacji, w analizowaniu którego Bernanke również brał udział. Ale pozostańmy przy Wielkiej Depresji i spójrzmy jak badania Bernanke wpłynęły na jego reakcję na uderzenie kryzysu w 2008 r.

Jak wspomniałem, Bernanke przyjął teorię Friedmana dotyczącą przyczyn Wielkiej Depresji. Była nią zła polityka Rezerwy Federalnej w reakcji na pierwszy szok kryzysowy w 1929 r. Mniejsza o to, co spowodowało sam szok na jesieni 1929 r., ważne, że jego efektem był gwałtowny odwrót preferencji ludności od jakichkolwiek ryzykownych aktywów w kierunku pieniądza. Przy odpowiedniej reakcji władz pieniężnych taki szok mógł wywołać recesję, ale nie depresję. Reakcja była jednak zła. Wzrósł popyt na pieniądz, ale Fed nie zareagował zwiększeniem podaży pieniądza… Jak wie każde dziecko, kiedy rośnie popyt na coś a podaż stoi w miejscu to rośnie cena – i tak realna stopa procentowa powędrowała bardzo mocno w górę (z tym dzieckiem może lekka przesada, bo mechanizmy transmisji szoku monetarnego wcale nie są jednoznaczne), co zaczęło dołować konsumpcję i inwestycje. Później, w latach 1930-1932, seria bankructw banków doprowadziła wręcz do spadku podaży pieniądza, co pogłębiło początkowe załamanie.

Bernanke zadaje jednak istotne pytanie: skoro zmiany ilości pieniądza mogą powodować tylko przejściowe efekty w realnej gospodarce (a ten pogląd akceptują wszyscy monetaryści), to dlaczego depresja była tak głęboka i tak długa? Pokazuje on w swoich badaniach, że spadek podaży pieniądza nie może być jedynym wyjaśnieniem depresji – może tłumaczyć, dlaczego zwykła recesja przeobraziła się w głęboki kryzys, ale nie, dlaczego kryzys był aż tak głęboki i aż tak długi.

Bernanke oferuje własną teorię, opartą na dwóch kluczowych obserwacjach dotyczących sposobu funkcjonowania rynku finansowego. Po pierwsze, kontrakty finansowe są sztywne nominalnie i nie dostosowują się do zmieniających się realnych warunków gospodarczych. Po drugie, ze względu na asymetrię informacji banki nie są w stanie dobrze monitorować ryzyka niewypłacalności kredytobiorcy, przez co muszą od niego brać zabezpieczenie. Pierwsza obserwacja jest dość intuicyjna, ale jej implikacje już niekoniecznie dla wszystkich. Jeżeli kontrakty finansowe są sztywne nominalnie, co powoduje niewypłacalność części podmiotów w czasie kryzysu, to znaczy, że zmiany nominalne w gospodarce mają realne implikacje. Ergo, nominalny PKB jest bardzo istotny – deflację mogły wytrzymywać dziewiętnastowieczne gospodarki bez rozwiniętych rynków kredytowych, ale nie współczesne gospodarki. Druga obserwacja jest kluczowa dla Bernanke. W okresie kryzysu zadłużeniowego, spada wartość aktywów mogących być zabezpieczeniem kredytów. Banki ze względu na asymetrię informacji odcinają finansowanie dla wielu firm, co sprawia, że wiele produktywnych przedsięwzięć w ogóle nie jest realizowanych (ktoś to powinien wytłumaczyć w Bundesbanku i Europejskim Banku Centralnym).
Główną przyczyną, dlaczego Wielka Depresja była Wielka, był zatem wzrost nieefektywności rynku finansowego w pośredniczeniu między oszczędzającymi i inwestującymi.

Wracamy do współczesności. Wszystkie programy luzowania ilościowego z lat 2008-2013 można wytłumaczyć tym, jak Bernanke rozumiał mechanizmy Wielkiej Depresji. Po pierwsze, konieczność zapewnienia nominalnego wzrostu PKB i nominalnego wzrostu cen aktywów wymuszała silne luzowanie polityki pieniężnej. Ponieważ stopa funduszy federalnych, główny instrument banku centralnego, znalazła się na poziomie niemal zerowym już pod koniec 2008 r., bank podjął próby obniżenia stóp procentowych na dłuższych końcach krzywej dochodowości poprzez podnoszenie cen obligacji skarbowych. To mógł uczynić skupując je z rynku, chociaż do dziś trwa dyskusja, czy nie łatwiej byłoby zastosować inne instrumenty. Po drugie, konieczność zapewnienia sprawnego funkcjonowania systemu finansowego wymuszała wsparcie dla programów dokapitalizowania banków oraz interwencje na rynkach obligacji hipotecznych. Dlatego Fed wsparł program TARP, mający na celu wzmocnienie kapitałowe amerykańskich banków.

Jak dziś można ocenić politykę Bernanke?

Dziś dość oczywiste jest, że polityka Fedu na początku kryzysu finansowego zapobiegła powtórce z Wielkiej Depresji. Skala początkowego szoku była bardzo podobna lub nawet większa niż w 1929 r. Jak pokazał Barry Eichengreen, do wiosny 2009 r. produkcja przemysłowa podążała podobną ścieżką, co w latach 1929-1930. Później nagle produkcja zmieniła trajektorię na wzrostową. Mogą być tylko dwie tego przyczyny – ekspansja Chin i ekspansja fiskalno-monetarna w USA. Uznanie pierwszej przyczyny za dominującą zakrawałoby o śmieszność.

Wciąż jednak zagadką jest, czy późniejsze działania Fed były optymalne. Fed nie udało się zapewnić powrotu dynamiki nominalnego PKB na przedkryzysową ścieżkę, co jest wynikiem nie tylko niższego wzrostu realnego, ale również niższego wzrostu cen. Średnia inflacja (mierzona deflatorem PKB) w latach 2008-2013 wyniosła 1,5 proc., wobec 2,3 proc. w latach 1991-2007. Przypomnę, że jeszcze w 2000 r. Bernanke pisał w odniesieniu do Japonii, że do wywołania wyższej inflacji lepszym narzędziem od skupowania aktywów jest bezpośredni transfer pieniędzy do ludności – tzw. helicopter drop. Dlaczego zmienił zdanie? Jedną z przyczyn mogą być trudności polityczne w dokonaniu takiego transferu.
Można też zadać pytanie, czy przypadkiem teza, że za słabością popytu stoi nieefektywność rynku finansowego, nie jest najzwyczajniej w świecie błędna? Może rację miał Keynes i wszyscy jego następcy, że w sytuacji zerowej nominalnej stopy procentowej gospodarka wpada w pułapkę płynności – bank centralny nie jest w stanie obniżyć stóp do poziomu, który zapewniłby wzrost aktywności inwestycyjnej, co wymusza wejście do gry rządu. To nie banki nie chcą dawać kredytów, to firmy nie chcą ich brać. Negatywne nastroje wywołane pierwszym szokiem finansowym zepchnęły gospodarkę na niską ścieżkę równowagi, w której firmy mało inwestują bo się boją, konsumenci nie mają przez to pracy i mało kupują, co utrzymuje popyt na niskim poziomie i zniechęca do inwestycji … itd.

Keynsiści mogą wskazywać na dość słabe wyniki gospodarki od czasu wyjścia z kryzysu finansowego w 2009 r. Ale Bernanke może się bronić, że duża część odpowiedzialności za te wyniki spada na barki silnej konsolidacji fiskalnej wywołanej czynnikami politycznymi… Spór trwa. Swoje trzy grosze dodaje oczywiście cała masa „Austriaków”, którzy twierdzą, że cała polityka pieniężna jest psu na budę.

Prawdopodobnie nadchodzące dwa lata przyniosą choć częściowe odpowiedzi na powyższe pytania. Jeżeli amerykański PKB zacznie rosnąć w tempie 3-4 proc. realnie i 5-6 proc. nominalnie, Bernanke odniesie całkowity sukces. Jeżeli nie, czysty Keynes powróci do mainstreamowej ekonomii. Chyba, że wybuchnie wielka inflacja, przed czym część osób ostrzega – ale tego nie rozważam.

IM

Optymista lunchowy

Od mniej więcej dwóch lat nad przyszłością tzw. rynków wschodzących zbiera się coraz więcej wątpliwości. Jim O’Neill, który ukuł skrót BRIC, pisze dla tych rynków pozytywny scenariusz. Ale jego argumentom brak jest siły i świeżości, które sprawiłyby, że po lekturze jego książki pomyślałbym „kurcze, coś w tym jest”.

Jim O’Neill to były główny ekonomista Goldman Sachs, a później przewodniczący Goldman Sachs Asset Managament. On ukuł w 2001 r. skrót BRIC, pochodzący od nazwy krajów Brazylia, Rosja, Indie, Chiny, sugerując wówczas, że będą to kraje o bardzo szybko rosnącej silne gospodarczej i globalnych wpływach. O’Neillowi udało się zyskać status guru, ponieważ nadał rozgłos zjawisku, które, choć widoczne, nie należało pewnie do najważniejszych globalnych zjawisk gospodarczych.
okladka_mapa_wzrostu_srednia
Dziś (no może nie dziś, bo książka pochodzi z 2012 r.) O’Neill próbuje ponownie odpalić rakietę, które wyniosła go na firmament rynków finansowych. W okresie, kiedy coraz więcej ludzi na świecie uważa (to moje odczucie, nie mam dowodów, że „coraz więcej” i że „uważa”), że BRIC to ściema na resorach, grupa krajów, których nazwy układają się władne słowo, ale których przyszłość jest więcej niż niepewna, on powtarza swoje przesłanie sprzed ponad dekady: BRIC i inne rynki wzrostowe mogą mieć wspaniałą przyszłość. Napisał książkę pt. „Mapa wzrostu. Szanse gospodarcze państw grupy BRICS”, która jest pełnym ciekawych obserwacji, zwięzłych analiz i krótkich podsumowań peanem na cześć krajów wschodzących. Przy mizernym rynku publicystyki ekonomicznej, to zapewne jedna z ciekawszych pozycji dostępnych w języku polskim.

Koncepcja O’Neilla nie jest w żaden sposób nowatorska, opiera się w całości na klasycznych teoriach wzrostu gospodarczego. W uproszczeniu, chodzi o to, że relatywnie ubogi kraj może doświadczyć konwergencji – czyli procesu zbliżania się pod względem poziomu produktywności do kraju rozwiniętego – jeżeli uruchomi kilka prostych czynników wzrostu, takich jak: stabilność prawa, otwartość na świat, stabilność makroekonomiczna (zbilansowany budżet i niska inflacja) oraz wykształcenie siły roboczej. O’Neill patrzy, które kraje mają szanse na konwergencje i są przy okazji duże pod względem populacji, co prowadzi go do wniosku, które kraje mogą stać się nowymi globalnymi liderami. Tworzy różne grupy, BIRC, N-11 (nowe rynki rozwojowe) itd. Wszystko tak naprawdę opiera się na banalnie prostej konstrukcji: szanse konwergencji + populacja. Jest to poszukiwanie rynków, które będą w przyszłości zamożne oraz duże i płynne (te ostatnie czynniki interesują inwestorów).

Optymizm O’Neilla opiera się na założeniu, że większość krajów wschodzących będzie wprowadzała zmiany instytucjonalne, które konwergencję ułatwiają. O Rosji pisze np. tak: „O ile Rosja stoi niewątpliwe wobec poważnych wyzwań, ma w sobie także potencjał, którego wyzwolenie może pozwolić jej osiągnąć PKB na mieszkańca na poziomie wyższym niż mogą uzyskać (…) stabilne, rozwinięte państwa europejskie”. Czyli przekaz jest prosty: są problemy, ale jak będą rozwiązane, to będzie dobrze (Rosja może być nawet bogatsza niż rozwinięte kraje, bo ma ropę). I tak przez całą książkę, kraj po kraju – kto ma jakie siły, kto ma słabości, oraz wniosek, że gdy siły przeważą nad słabościami to będzie dobrze. Nawet Egipt może być silny, jeżeli rozwiąże swoje problemy!

Trochę ironizuję, ale z O’Neillem w sumie się w dużej mierze zgadzam – konwergencja to potężna siła, która zmienia i może zmieniać oblicze krajów wschodzących. Jest to proces powolny (azjatyckie tygrysy to wyjątek), ale jeżeli zapewni mu się odpowiednie warunki, to ma szanse być trwałym. Jeżeli zapewni mu się odpowiednie warunki…

Problem w tym, że O’Neill nie dostrzega, że bystrzy ludzie już nie pytają, skąd bierze się konwergencja, ale zastanawiają się, jak rozwijają się czynniki, które decydują o konwergencji. Na przykład, wiemy, że stabilność prawa jest jednym z kluczowych fundamentów konwergencji – ale dlaczego wiele krajów ma wielkie problemy, by stabilne prawo wdrożyć? Czy jest to tylko kwestia gorszych polityków, co mogłoby być przeszkodą przejściową i łatwą do przeskoczenia, czy też jest to kwestia głębiej zakorzenionych wzorców kulturowych, czego nie da się zmienić w trakcie jednego pokolenia? Czy problem z niestabilnymi warunkami dla inwestycji zagranicznych w Rosji to wina złych rządów Władimira Putina, czy też konsekwencja braku doświadczeń historycznych we wprowadzaniu stabilnych warunków życia dla przybyszy z Zachodu?

O’Neill przytacza dziesiątki liczb, statystyk, wyników modeli, ale brakuje mu czegoś, co po angielsku ładnie określa się „big picture”. Czyta się szybko, bez zgrzytów, wręcz fajnie, ale po zamknięciu książki nie zacząłem drapać się po głowie (robię tak, gdy usilnie nad czymś myślę). Zachwyca się O’Neill tempem chińskiego wzrostu gospodarczego, postępującą urbanizacją, rosnącą zamożnością społeczeństwa, dostrzega też takie problemy związane z biurokracją, ryzyka związane z narastającą presją inflacyjną (czy na rynku towarów czy aktywów), czy pogarszającą się demografię, ale wszystko brzmi jak duża prasówka z ostatnich lat, jest to lista najciekawszych kwestii dotyczących Chin, okraszona doświadczeniami z podróży do tego kraju. Nie jest to jednak próba głębszego rozważenia pytania, czy Chiny są w stanie utrzymać wysokie tempo wzrostu przez kolejne lata i dekady, jakie są szanse, że obecna klasa polityczna dokona pożądanych zmian, na ile autorytarny model rządzenia będzie sprawdzał się na coraz wyższych etapach rozwoju.

O’Neill reprezentuje urzędowy optymizm człowieka, który ze względu na sprawowaną funkcję nie może nadmiernie narazić się władzom danych krajów. Jeżeli pisze o problemach, to raczej w kategoriach wyzwań,n ie krytykuje nadmiernie rządów, nie wdaje się w dywagacje polityczne. Nie można mu mieć tego za złe, taka jest natura jego pracy i taka natura publikacji.

Mam jednak mimo wszystko wrażenie, że urzędowy optymizm O’Neilla czasami wykracza poza konwencję pisania głównego ekonomisty i demaskuje naiwność autora. Pisze on, że oligarchowie z krajów rozwijających się są właściwie bardzo podobni do przedsiębiorców z krajów rozwiniętych. Opowiada, jak widok Rosjan przyjeżdżających na zakupy do Londynu wskazuje, że w Rosji rośnie popyt konsumpcyjny i liczba ludzi mogących sobie pozwolić na lepsze życie. Nie wiem, czy O’Neill nie uwierzył za bardzo, że dobrze poznał świat przed ekranem terminali Bloomberga i na lunchach w dobrych hotelach.

IM

W 1953 szef Coca-Coli napisał do swojego przyjaciela prezydenta Eisenhowera prośbę by władze wprowadziłly do obiegu monetę o nominale 7,5 centa W Coca-Coli mieli problem, bo od założenia firmy gdzieś w latach 80. XIX wieku nie wymyślili co zrobić, by podnieść cenę. Przez 70 lat butelka kosztowała tyle samo – 5 centów! I ani drgnęła : ) Firma sprzedawała dużo butelek w maszynach, które przyjmowały tylko 5-cio centówki i przerobienie tych maszyn oraz cennikóww, reklam itd kosztowałoby zdaniem zarządu zbyt wiele, by sie opłacało. O jednego centa nie mogli podnieść, bo centówka to była zupełnie inna moneta niż 0,05 USD i maszyny sprzedające colę jej nie akceptowały. Podnieść do 10 centów też nie mogli – bo podwyżka o 100% mogłaby się nie spodobać klientom. I klops. Jakoś sobie oczywiście poradzili ale anegdotka jest ładna i pokazuje problem ze sticky prices. Podobno to duża rzecz w ekonomii. Taka ciekawostka dropsa.

Przeczytałem o tym w książce The Undercover Economist Strikes Back Tima Harforda. W dziedzinie pisania o ekonomii Harford jest moim zdaniem tym, kim Quentin Tarantino w świecie filmu a Suzuki Hayabusa lub Honda Fireblade w dziedzinie motocykli.

Książka jest napisana jako dialog między ekspertem a laikiem, który dostaje zadanie pokierowania gospodarką i wyprowadzenia jej z kryzysu.

Jak ją całą przeczytam, to napiszę więcej.

JN

Książka o liczbach.

Trois. Czyli trzy – po francusku. Tres – czyli wielu. Te słowa są bardzo podobne i to (chyba) nie jest przypadek.

Ludzie pierwotni nie musieli liczyć deficytu budżetowego, procentu składanego, tego jak żałośnie niskie będą ich emerytury ani niczego podobnego. Wystarczyło im, że oszacowali czy mamutów. które właśnie ich atakują jest dużo (więcej niż dwa – trois, tres) czy nie.

Przeczytałem o tym w książce o liczbach – Alex’s adventures in numberland (wyszła niedawno po polsku – Przygody Aleksa w świecie liczb). Autorem książki jest Alex Bellos.

Tak naprawdę to książka o ludziach.
Oto kilku bohaterów tej książki:

Pierre de Fermat – francuski urzędnik, który zauważył, że „a do potęgi 3-ej + b do potęgi 3-ej NIGDY nie równa się c do potęgi 3-ej”. To samo dotyczy potęgi 4-ej, 5-ej itd. To tzw. prawo Fermata.

Fermat na marginesie książki, którą czytał, napisał że ma dowód na prawdziwość i uniwersalność swojego prawa, i że jest on bardzo prosty, ale akurat nie ma dość miejsca, by go opisać. I niedługo potem umarł.

Dowód na jego prawo powstał k i l k a s e t lat później – w latach 90. XX wieku (o ile dobrze pamiętam), zajmuje kilkadziesiąt stron i jest tak skomplikowany, że rozumie go pewnie kilkunastu ludzi na świecie.

Od kilkuset lat nie ma za to dowodu na tezę Goldbacha. Christian Goldbach to był pruski matematyk, który zauważył, że każda liczba parzysta jest sumą liczb pierwszych. Np. 2 = 1+1. Albo: 4 = 3 +1; 8= 5+3 itd.
Jak się sprawdza kolejne liczby parzyste – to się wszystko zgadza, ale to jeszcze nie jest dowód.

W 2000 jedna z amerykańskich firm ufundowała milion dolarów nagrody, dla człowieka, który przedstawi dowód na tezę Goldbacha. Nikomu się nie udało.

„Ogarnięcie” matematyczne może popłacać.

Rumuński matematyk Stefan Mandel zauważył kiedyś, że łączny koszt wykupienia wszystkich kombinacji w pewnej loterii jest niższy niż kwota, która jest do wygrania.

I od tej pory żył z wygrywania loterii (tych, które nie limitowały liczby losów, jakie może kupić jeden gracz, i które były „tanie”). Mandelem zainteresowało się FBI, gdy zgarnął pełną pulę w loterii stanowej, ale śledczy doszli do wniosku, że żadne przepisy nie zostały złamane. (Filmiki o Mandelu można sobie obejrzeć na youtube)

Mandel – geniusz zarobiony. Ale był też Jakub Bernoulli – geniusz pośmiertnie sfrustrowany. Bernoulii zachwycał się spiralą logarytmiczną – kazał sobie taką wygrawerować na grobie. Ale kamieniarz się pomylił i wyrył mu spiralę Archimedesa – która jest mniej efektowna.
To tak jakby wybitnemu poecie wyryć na grobie jakiś cytat z błędem ortograficznym.

(Logarytmiczna: http://pl.wikipedia.org/wiki/Plik:Logarithmic_spiral.svg
Arytmetyczna: http://pl.wikipedia.org/wiki/Spirala_Archimedesa)

Spirala logarytmiczna ma związek ze złotą porporcją i ciągiem Fibonacciego.

A to wszystko jest pokazane w tym pięknym filmiku o naturze i liczbach.

Książka jest równie rewelacyjna jak ten film.

JN

Ile warte są akcje…

… Robert Shiller twierdzi, że są drogie. Jeremie Siegel, że są tanie. Ale za tym sporem kryje się dużo ciekawsze pytanie, które można też przenieść na polski grunt.

John Authers to jeden z moich ulubionych publicystów, a ten jego artykuł to jeden z ciekawszych tekstów prasowych, jakie czytałem w ostatnim czasie. Tu jest link, a dla tych, których „Financial Times” nie raczy darmową lekturą (chyba można jeden txt w miesiącu),tu jest pdf a obok wykresy picture. Mam nadzieję, że nie naślą na mnie Scotland Yardu za to.

Authers zestawia opinie dwóch znanych ekonomistów i badaczy rynków finansowych na temat obecnej wyceny akcji w USA oraz generalnej strategii inwestowania w akcje. Z jednej strony stoi Robert Shiller z Uniwersytetu Yale, twórca m.in. popularnej wersji wskaźnika CAPE (cyclically adjusted price/ernings), służącego do oceny ceny akcji. Jego zdaniem ceny akcji w USA są obecnie już dość wysokie. A jego strategia inwestowania w akcje to wchodzenie na rynek w momencie, kiedy ceny są atrakcyjne. Z drugiej strony stoi Jeremie Siegel z Wharton School, popularny m.in. z tego, że w 2007 r. powiedział, iż ceny akcji mogłyby być o 25 proc. wyższe. Jego zdaniem ceny akcji w USA są obecnie dość niskie. A jego strategia inwestowania to … utrzymywanie dużego portfela akcji przez cały czas.

Tyle skrótu – artykuł jest krótki, więc zachęcam do przeczytania.

Chciałbym natomiast odnieść problem do sytuacji w Polsce. Wydaje się, że coraz więcej osób zastanawia się, jak odkładać pieniądze na emeryturę. Dzięki burzy wokół OFE ludzie dowiedzieli się bowiem, że będą mieli niskie emerytury – czy to z ZUS, czy z OFE. I na pewno coraz więcej osób będzie sobie zadawało pytanie, czy jest sens inwestowania na giełdzie? Czy na giełdzie można w długim okresie uzyskać wyższe zwroty niż na bezpiecznych inwestycjach? Nie mówię, że jest to w jakikolwiek sposób pytanie nad Wisłą nowe, ale postawiłbym hipotezę, że zetknie się z nim coraz więcej Polaków, a ci, którzy zadawali je sobie już kiedyś, mogą je formułować na nowo – ostatnie sześć lat wstrząsnęło postrzeganiem giełdy w Polsce.

Spór Shillera i Siegla zaś dotyczy dokładnie pytania, które może zadawać sobie przeciętny oszczędzający: czy jak wejdę na giełdę to w dłuższym okresie mogę dostać w d… czy też będę niemal na pewno na plusie? Shiller doradziłby, żeby uważać na moment, kiedy się wchodzi. Siegel zaś zasugerowałby, że poszukiwanie odpowiedniego momentu to niepotrzebna strata czasu – akcje w długim okresie zawsze dadzą lepsze zwroty niż lokaty.

Kłopot w tym, że nie wszystkie rynki funkcjonują tak jak amerykański. W Stanach Zjednoczonych w ostatnich 100 latach obserwowano coś, co nazywa się premią za ryzyko – czyli średnio znacznie wyższy zwrot z inwestycji w akcje niż obligacje (średnio nie musi znaczyć oczywiście w dowolnym długim przedziale czasowym). Na rynkach wschodzących, takich jak Polska, nie ma możliwości oszacowania, czy taka premia istnieje – dane mają zbyt krótką historię.

Pierwszy wniosek jest taki, że jeżeli inwestor w USA może mieć ból głowy z pytaniem, czy inwestować w akcje, to w Polsce inwestor musi być całkowicie zagubiony. Drugi wniosek jest taki, że cierpimy na nadmiar artykułów/analiz pt. „w jakim kierunku zmierza WIG” i totalny niedobór artykułów/analiz pt. „jakie mamy przesłanki do inwestowania na giełdzie w długim okresie”.

IM

Prawie cały świat jest przekonany, że wycofanie luzowania ilościowego w USA może skutkować wyraźnym zacieśnieniem globalnych warunków monetarnych – czyli wyższym oprocentowaniem szerokich klas aktywów. Ale może wcale tak nie jest? Oto kilka argumentów wskazujących, że wycofanie QE nie musi odbywać się w sposób trzęsący rynkami jak workiem kartofli.

(Ten artykuł to rozwinięcie sobotniego felietonu na stronie „Rzeczpospolitej”).

Globalne rynki finansowe żyją niemal wyłącznie jednym wydarzeniem – wycofaniem przez Fed skupu aktywów, czyli tzw. luzowania ilościowego. Pierwsza ograniczenie tego programu ma mieć miejsce we wrześniu (jak twierdzi większość), lub w grudniu (jak twierdzi mniejszość) lub później (jak twierdzi reszta). Dość powszechnie interpretuje się ten nadchodzący ruch jako zacieśnienie polityki pieniężnej, ponieważ prowadzi on do podniesienia kosztu finansowania (poprzez wzrost rentowności obligacji).

W tym miejscu chciałbym jednak pokazać, że luzowanie ilościowe wcale nie musi działać tak, jak interpretuje się to powszechnie. Żeby było jasne – zasiewam tylko wątpliwości, nie dam jasnych odpowiedzi, na ile te wątpliwości są uzasadnione. Moja praca polega na prognozowaniu, pisaniu tekstów z tezą, dawaniu krótkich rekomendacji, więc przynajmniej na blogu chciałbym móc powiedzieć: nie wiem.

***

Pierwsza wątpliwość dotyczy tego, czy skup aktywów rzeczywiście wpływa na ceny tych aktywów. Dwie są szkoły myślenia: jedna odpowiada że tak, druga, że nie. Pierwszą reprezentuje Fed, drugą m.in. znany ekonomista Michael Woodford. A pomiędzy nimi jest cała masa różnych pośrednich opinii. Gdyby skup aktywów nie wpływał na ich ceny, lub wpływał w ograniczonym stopniu, wycofanie QE nie miałoby naturalnie tak wielkiego znaczenia jak obecnie sądzą rynki.

Lepiej zacząć jest od poglądów drugiej szkoły. Najlepiej były one wyrażone przez M. Woodforda w Jackson Hole 2012 (link do publikacji jest tutaj). Szkoła ta wskazuje, że obligacje skarbowe i inne bardzo płynne aktywa są wyceniane na podstawie zdyskontowanych oczekiwanych dochodów przez nie generowanych, a nie ze względu na zmiany w ich podaży. Nie można zmienić ceny takich papierów poprzez zmianę ich ilości, co oznacza, że ich cena jest perfekcyjnie elastyczna. To zaś wymaga przyjęcia założenia, że różne rodzaje płynnych aktywów (np. papiery skarbowe o różnym terminie zapadalności) oraz różne ich tenory są perfekcyjnymi zamiennikami – jeżeli dostępność obligacji O zmniejszy się o 10, to zapotrzebowanie na nie również spadnie o 10, bo inwestorzy przerzucą się na inne papiery – np. na niższe tenory (zamiast dziesięciolatek kupią pięciolatki). Więc skup obligacji O nie wpłynie na ich cenę.

Jedyny sposób, w jaki luzowanie ilościowe wpływa na ceny obligacji to poprzez wysłanie sygnału, że stopy procentowe banku centralnego mogą pozostać dłużej na niskim poziomie. To obniża długookresową ścieżkę stóp, co może mieć wpływ na papiery o dłuższym terminie zapadalności. Jednak taki efekt można osiągnąć łatwiej poprzez tzw. forward guidance, czyli obietnicę, że utrzyma się niskie stopy procentowe dłużej niż wynikałoby to z tradycyjnego sposobu reagowania banku centralnego. Na przykład Fed obiecał, że nie podniesie stóp dopóki bezrobocie nie spadnie poniżej 6,5 proc., a oczekiwania inflacyjne nie wzrosną przynajmniej pół punktu ponad cel inflacyjny. Dlatego ta szkoła argumentuje, że lepiej jest luzować politykę pieniężną poprzez aktywne stosowanie forward guidance.

Pierwsza szkoła, czyli Fed, uważa jednak, że aktywa nie są perfekcyjnymi zamiennikami, a inwestorzy aktywni na jakimś rynku nie będą chcieli łatwo przerzucić się na inny rynek. Z tego powodu zmniejszenie dostępności aktywów powoduje wzrost ich ceny i spadek rentowności. I tu następuje ważny punkt: choć różne aktywa nie są perfekcyjnymi zamiennikami, to określone klasy aktywów wykazują oznaki bycia zamiennikami – np. obligacje skarbowe i obligacje korporacyjne o podobnym terminie. Zatem Fed może bezpośrednio poprzez skup obligacji zmniejszyć ich rentowność (wobec scenariusza bez skupu), a przez to zmniejsza również rentowność bardzo podobnych aktywów. Na przykład skup skarbowych obligacji dziesięcioletnich powinien obniżyć ich rentowności oraz rentowności bezpiecznych korporacyjnych instrumentów dłużnych o podobnym tenorze. To jest słynny efekt bilansowania portfolio.

Kto ma rację? Jak już zaanonsowałem, trudno powiedzieć. Ale ciekawą odpowiedź dali Arvind Krishnamurthy i Annette Vissing-Jorgensen podczas tegorocznego Jackson Hole – są oni gdzieś pomiędzy oboma szkołami (link do ich publikacji znajduje się tutaj). Otóż ich zdaniem QE wpływa na rentowności skupowanych obligacji skarbowych, ale efekt z wielkim trudem przenosi się na inne aktywa. Czyli rynek jest posegmentowany jeszcze bardziej niż zakłada Fed, co niweluje efekt bilansowania portfolio, czyniąc skup obligacji mało znaczącym dla gospodarki. Obligacje skarbowe są bowiem bardzo specyficznym aktywem, kupowanym ze względu na bezpieczeństwo, a zatem nie jest tak, że spadek dostępności dziesięciolatek skarbowych przesunie popyt inwestorów w kierunku dziesięciolatek korporacyjnych. Dochodzą oni do podobnego wniosku co M. Woodford – że zmniejszenie podaży obligacji skarbowych nie poprawia istotnie warunków finansowania w gospodarce – ale z zupełnie innej strony.

Natomiast zdaniem Krishnamurthy i Vissing-Jorgensen głównym kanałem wpływu QE na szerokie klasy aktywów jest efekt sygnalizowania, czyli efekt opisywany również przez M. Woodforda. Ich zdaniem dla wielu klas aktywów ważniejsza jest antycypowana ścieżka stóp procentowych, a nie efekt bilansowania portfolio. Zatem forward guidance może być potężnym instrumentem. A to oznacza, że nawet jeżeli Fed zacznie wycofywać skup obligacji skarbowych, to przez aktywne stosowanie forward guidance może zniwelować negatywne efekty wzrostu rentowności obligacji skarbowych. Rentowności obligacji skarbowych wzrosną (zresztą już to widać), ale jeżeli Fed podtrzyma oczekiwania na długi okres niskich stóp wówczas koszt finansowania dla sektora prywatnego nie musi się zwiększyć.

***

Druga wątpliwość dotyczy tego, czy skup obligacji skarbowych nie prowadzi przypadkiem – zupełnie nieintencjonalnie i wbrew mainstreamowemu myśleniu – do … zacieśnienia warunków monetarnych w gospodarce (!). Krishnamurthy i Vissing-Jorgensen sugerują taką możliwość, choć tylko między wierszami. Ja rozwinę ten wątek.

Najpierw jednak wytłumaczę krótko, na czym polega rola banku centralnego w procesie tworzenia pieniądza.

Generalnie, w gospodarce rolę pieniądza pełni gotówka w obiegu oraz depozyty – dzięki tym instrumentom możemy spłacać swoje zobowiązania. Przy czym gotówka odgrywa rolę fundamentalną, bo stanowi prawnie sankcjonowany instrument płatniczy. Ale ogromną większość pieniądza stanowią oczywiście depozyty, co każdy zapewne dostrzega w swoim życiu prywatnym: płacimy głównie gotówką czy też przelewami i kartami płatniczymi? Właśnie…

Jak łatwo zatem zauważyć, pieniądz to bezpieczna należność, bo depozyt to nasza należność od banku komercyjnego. Cały system pieniężny opiera się na zaufaniu, że nasze należności od banku mogą być w każdej chwili zaspokojone instrumentem płatniczym, czyli gotówką. Zaufanie to fundament systemu pieniężnego. Żeby to zaufanie utrzymać, banki utrzymują część swoich aktywów w postaci najbardziej płynnej z możliwych – w rezerwach na żądanie w banku centralnym, które w każdej chwili mogą być zamienione na gotówkę. Rezerwy – wraz z gotówką w obiegu – tworzą tzw. bazę monetarną, która jest bazą dla procesu tworzenia pieniądza w gospodarce.

Ale tu na scenę wkraczają nowi bohaterowie. We współczesnej gospodarce coraz większą rolę na rynku finansowym pełnią instytucje, które nie są bankami, a jednocześnie biorą aktywny udział w zapewnianiu finansowania dla gospodarki. Są to tzw. banki-cienie (ang. shadow-banks), czyli np. banki inwestycyjne, fundusze hedgingowe, fundusze pieniężne. One również oferują swoje zobowiązania (po stronie pasywów) i dzięki temu nabywają różne aktywa. Ale jednocześnie nie mają dostępu do bazy monetarnej, czyli rezerw w banku centralnym! Dla nich fundamentem płynnego funkcjonowania są super-bezpieczne aktywa w postaci obligacji rządowych i najwyżej ocenianych obligacji sektora prywatnego. Instytucje te utrzymują duże pule takich papierów, by móc je wykorzystać jako zabezpieczenie przy pożyczkach krótkoterminowych, którymi finansują długoterminowe aktywa. Pożyczki takie w żargonie nazywają się operacjami repo (od ang. repurchase, czyli odkup).

Opiszmy to przykładem. Fundusz hedgingowy H chce kupić obligacje jakiejś firmy. Pożycza na ten cel pieniądz z banku B, w taki sposób, że sprzedaje mu obligacje skarbowe z przyrzeczeniem odkupienia następnego dnia. B nie będzie oczywiście finansował H z własnego kapitału – pożyczy pieniądze od funduszu rynku pieniężnego M w operacji repo z użyciem tych samych obligacji, które uzyskał od H. Zaś pieniądze w M utrzymuje Jan Kowalski z Nowego Jorku. W ten sposób obligacje skarbowe zostały wykorzystanie do wykreowania zobowiązania mającego cechę depozytu – powstanie quasi-pieniądz, ponieważ udziały w funduszach pieniężnych są bardzo bezpieczne.

Okej, wracamy do luzowania ilościowego. Działania Fed prowadzą do zwiększenia bazy monetarnej i zmniejszenia ilości dostępnych obligacji skarbowych. A zatem płynność w gospodarce, czyli dostępność instrumentów finansowych służących do spłaty zobowiązań, może się wcale nie zmieniać! Co więcej, można argumentować, że kompozycja tej płynności zostaje pogorszona, ponieważ przy konserwatywnej polityce banków instytucje niebankowe pełnią jeszcze ważniejszą niż zwykle rolę w finansowaniu gospodarki. Jeżeli Fed pozbawia ich instrumentów służących do płynnego i bezpiecznego funkcjonowania, pogarsza warunki monetarne w gospodarce. W takim ujęciu wycofanie luzowania ilościowego powinno mieć łagodzące skutki dla funkcjonowania rynku finansowego.

Z luzowaniem ilościowym związanych jest wiele wątpliwości, jest to bowiem instrument nowatorski. Wielość kanałów oddziaływania takiej polityki na rynki finansowe sugeruje jednak, że pojawiające się często na rynku myślenie pt. „mniej skupu obligacji = zaostrzenie warunków monetarnych = uciekamy gdzie pieprz rośnie” jest daleko idącym uproszczeniem.

IM

Fooled by Taleb

Znany matematyk i publicysta Nassim Taleb inspiruje jednych i irytuje innych. Ja zapisuję się do drugiej grupy.

Książki Nassima Taleba sprzedają się w milionach egzemplarzy, nie minę się grubo z prawdą jeżeli stwierdzę, że weszły do kanonu współczesnej literatury popularno-naukowej. Na Amazonie mają znacznie więcej recenzji niż pozycje Paula Krugmana czy Josepha Stiglitza, ekonomicznych celebrytów.

Taleb czaruje swoją agresywną rewoltą przeciw współczesnym schematom myślenia o gospodarce. Odrzuca sens tworzenia teorii ekonomicznych, planów gospodarczych na poziomie rządów i firm, prognoz finansowych itd. Przekonuje, że świat jest z gruntu niezrozumiały i rządzony losowymi wydarzeniami, więc próby zarządzania nim są żałosną szarpaniną głupca. Wyśmiewa analityków, dziennikarzy i wszystkie gadające głowy udające, że są w stanie odkryć przed ludźmi jakieś głębsze prawdy. Co oferuje w zamian? Ideę, że zamiast zarządzać zjawiskami wokół nas, powinniśmy budować strategię reagowania na losowe wstrząsy. Jak? „Co do zasady, ograniczać trzeba wielkość, koncentrację i prędkość”. Czyli systemy – społeczne, polityczne, finansowe – powinny być prostsze, bardziej rozproszone, zdecentralizowane. Wtedy będą podlegały małym wstrząsom, a małe wstrząsy – w przeciwieństwie do dużych – prowadzą do wzmocnienia systemu a nie jego zniszczenia. Małe wstrząsy są dobre i trzeba się im poddawać, nie można ich tłumić. „Pozbawianie systemów politycznych, lub innych, zmienności szkodzi im, prowadząc w końcu do bardzo dużej zmienności”.

Ta rewolta ma w sobie wiele inspirujących wątków, serie ciosów zadawanych współczesnym ekspertom, ekonomistom i menadżerom, są często boleśnie trafne. Nie ukrywam, że momentami dałem się nieco uwieść urokowi Taleba. Ale nie mogę oprzeć się wrażeniu, że więcej jest w tym wszystkim hucpy, tanich trików, małych i większych pomyłek lub nawet kłamstw, niż solidnej intelektualnie armaty. Oto sześć moich zarzutów wobec autora takich bestsellerów jak „Fooled by Randomness”, „Black Swan” i „Antifragile” (ta ostatnia to najnowsze dzieło, gdzie autor najpełnie prezentuje swoją filozofię).

taleb

Po pierwsze, odrzuca mnie sposób pisania Taleba. Teksty są chaotyczne, bez zrozumiałych przejść między różnymi wątkami, jakby były pisane przez człowieka, który w dzień pracuje a w nocy pisze dla hobby, podpierając się materiałami, które akurat tego dnia zebrał w Internecie.

Po drugie, Taleb wobec wielu ludzi i środowisk jest nadmiernie agresywny, co wynika z bardzo płytkiego traktowania krytykowanej materii. Irytują go traderzy i ich ufność wobec analiz, ale zachwyca się Georgem Sorosem, jakby zapominając, że Soros wydawał gigantyczne pieniądze na analizy krajów/spółek, którymi „się zajmował”. Irytują go ekonomiści rzekomo w pełni ufni swoim modelom, jakby nie wiedząc, że ekonomia sama pełna jest sceptycyzmu wobec wyników swoich badań.

Po trzecie, gros tez Taleba to sztucznie napompowane banały, podawane w formie nowatorskich teorii. Przykład, jeden z tysiąca: cała koncepcja związana z wypukłością korzyści, czyli sytuacjami, w których losowe wydarzenia prowadzą do małych strat i dużych zysków. Taleb proponuje, by jak najczęściej próbować doprowadzić ryzyko do takiego kształtu. Hurra, bardzo nęcąca koncepcja, szczególnie dla kogoś, dla kogo słowo „wypukłe” brzmi ostatni krok do wtajemniczenia w matematykę. Tylko że nie ma w tym ani nic innowacyjnego, ani pomocnego. Każdy człowiek chciałby się znaleźć w sytuacji, kiedy korzyści są potencjalnie duże a straty potencjalnie małe – problem nie tkwi w zdefiniowaniu takiej strategii, ale w tym, jak odnaleźć takie sytuacje. Temu Taleb poświęca bardzo mało miejsca.

Po czwarte, pełno jest u Taleba gigantycznych niespójności myślenia, wręcz wyrw logicznych rozmiarów Kanionu Kolorado. Jeżeli ktoś pisze nocami, to nie może być inaczej. Właściwie największa niespójność tkwi u samej podstawy całej filozofii Taleba. Jeżeli ktoś stawia tezę, że nie warto podejmować prób przewidywania przyszłości na podstawie schematów, to nie powinien angażować się w budowanie wielkiej teorii sugerującej, że możemy uodpornić się na silne wstrząsy. Albo świat jest przewidywalny albo nie – jeżeli nie jest, to trzeba być wobec niego pokornym. Publicystyka Taleba jest wołaniem o pokorę i jednoczesnym aktem potwornego zadufania w sobie. Trudno o większą sprzeczność. Ale niespójności jest też wiele w kwestiach drobnych. Twierdzi na przykład Taleb, że mainstreamowa ekonomia nadaje się do kosza na śmieci, bo teorie nie są w stanie tłumaczyć zachowania człowieka. Ale zachwyca się jednocześnie autorami badającymi nieracjonalność decyzji ludzkich, m.in. pracami … noblisty Daniela Kahnemana. Noblista to jakby nie patrzeć ktoś z mainstreamu. I też ktoś, kto stworzył jakąś teorię, jakiś schemat dotyczący sposobów podejmowania decyzji przez człowieka (choć wyczytałem w Wikipedii że sam Kahneman Taleba ceni – ciekawe dlaczego?)

Po piąte, stawia często Taleb tezy kontrowersyjne, podpierając je analizą długości kilku linijek. Twierdzi, że to powstanie scentralizowanych państw narodowych tkwi u źródła okrucieństwa i niszczycielskiej skali dwóch wojen światowych. Wcześniej – jego zdaniem – konflikty nie były tak rozbuchane, ponieważ organizmy polityczne były mniejsze i bardziej elastyczne. „Zawsze były jakieś napięcia, ale bez większych konsekwencji”. Nie musi Taleb wiedzieć, że w „potopie szwedzkim” zginęło proporcjonalnie więcej Polaków niż w II Wojnie Światowej, ale powinien wiedzieć, że liczba, długość trwania i okrucieństwo (w stosunku do technologii) konfliktów w Europie były zawsze ogromne. Może Taleb to wie, ale po prostu nie zdążył rozpisać się szerzej o przyczynach dwóch wojen, bo poświęcił na ten fragment … dwie strony. Takie skakanie z tematu na temat i rzucanie kontrowersyjnymi tezami przypomina zachowanie dziecka, które podbiega do innych dzieci, bije je i ucieka.

Po szóste, i najważniejsze, Taleb najzwyczajniej w świecie fundamentalnie nie ma racji: tworzenie teorii i schematów to mechanizm wszczepiony w naturę człowieka, który robił to od zarania dziejów, by ułatwić sobie odnajdywanie się w skomplikowanej rzeczywistości. Schematy dostrzegamy w religii, moralności, życiu codziennym – nie tylko w nauce. Podejmowanie decyzji zawsze, w każdej dziedzinie, opiera się na jakiejś teorii. A co do stopnia skomplikowania systemów – choć współczesny świat jest skomplikowany w stopniu bardzo wysokim, to jednak jest to świat bezprecedensowo spokojny i oferujący bezprecedensowo wysoki standard życia.

Chaos, nieuzasadniona agresja, banały, niespójności, płycizny i fundamentalne pomyłki – to sześć grzechów głównych Taleba. Już po tym, jak napisałem tę recenzję, przeczytałem kilka innych, w różnych mediach. I widzę, że wpisuję się w szerszy nurt. Taleb jest powszechnie doceniany za inspiracje jakich dostarcza – rzuca często ciekawymi koncepcjami, w czambuł krytykuje mainstreamowe opinie. Ale Taleba nie da się czytać bez irytacji – inteligentny czytelnik na każdą porcję tekstu bodźcującego do myślenia, dostaje pięć porcji śmieci.

IM

Teraz jest kryzys? Kryzys to dopiero będzie kiedy klasa średnia przestanie wierzyć, że życie może być przynajmniej umiarkowanie wygodne i bezpieczne.

„Wszyscy ludzie, z którymi się spotykam, z przyjemnością umawiają się ze mną w takich miejscach (Starbucks – przyp IM), papierowy kubek z cafe‘ latte awansuje ich z nikogo na nikogo plus, mają też nadzieję, że zobaczy ich tam ktoś znajomy, kto będzie spotykał się w tym czasie z jakimś innym komiwojażerem jak ja. Ile ja już widziałem w czasie moich wędrówek nadętych chłopców i nabzdyczonych dziewczynek  pędzących ulicami z papierowymi kubkami w ręku, jakoby gdzieś bardzo się spieszących, podążających na niewymownie wręcz ważne spotkania, wysyłających wszem i wobec komunikat: jestem miejskim profesjonalistą…“.

To strumień vargamyśli Piotra Augustyna, bohatera doskonałej książki „Trociny“ Krzysztofa Vargi. Człowiek ten – średnio ustawiony agent handlowy, fan muzyki średniowiecznej, rozwodnik – drwi z niemal każdego elementu typowego mieszczańskiego życia: pracy biurowej, kultury korporacyjnej, ambicji „miejskich profesjonalistów“, życia rodzinnego, kultury masowej, sportu, turystyki itd. itp. Czuje się tak przygnieciony chaosem spraw, w jakim musi poruszać się typowy współczesny człowiek, że wypluwa z siebie jad i frustrację (stąd trociny – niby lekkie, a jednak mogą przydusić). Typowy socjopata. Jak jednak dobrze napisał jakiś recenzent, dla tego dziwnego faceta czytelnik czuje jakąś sympatię. Dlaczego? Może rośnie jakiś przesyt modelami życia oferowanymi współczesnej klasie średniej?

Klasa średnia i jej udręki to nośny temat. Gdziekolwiek człowiek nie zajrzy w świat kultury, widzi frustrację umiarkowanie dobrze ustawionego finansowo człowieka: że nie ma więcej niż ma, że nie ma tego, co reklamują, że nie daje rady z kredytami, że miał być pozytywnie nastawiony a nie jest, że żona i dzieci oczekują więcej… Temat od dawna był popularny, ale kryzys gospodarczy tylko go wzmocnił. Klasa średnia znajduje się też w centrum trosk politycznych. W USA Barack Obama centralnym tematem swoj drugiej kadencji uczynił odrodzenie klasy średniej. W Polsce problem nie jest tak często artykułowany, ale ubolewanie nad marnym losem ludzi dobrze wykształconych jest echem globalnych haseł.

Pytanie o nadchodzący los klasy średniej należy do najciekawszych zagadek ekonomicznych. Obserwujemy coś, co ekonomiści nazywają „polaryzacją pracy“ (ang. job polarization), czyli poprawę perspektyw zatrudnienia dla klas wyższej i niższej oraz pogorszenie szans dla tych na szczeblu pośrednim. Powody tego zjawiska mogą być dwa: wzrost roli klasy średniej na rynkach wschodzących oraz postęp technologiczny. Mówiąc obrazowo: w krajach rozwniętych jest praca dla sprzątaczek, stróżów nocnych, listonoszy, menadżerów i wysokiej klasy prawników, ale może jej brakować dla średniej klasy inżynierów, księgowych, czy nawet informatyków. Temat znany jest od dawna, ale obecny kryzys mógł być punktem zwrotnym – zakończył błogi okres, kiedy destrukcja klasy średniej była łagodzona łatwo dostępnym kredytem.

Do najbardziraceagainstthemachineej znanych publikacji analizujących zjawisko polaryzacji pracy należy książka „Race Against The Machine: How the Digital Revolution is Accelerating Innovation, Driving Productivity, and Irreversibly Transforming Employment and the Economy“, napisana przez dwóch naukowców z bostońskiego MIT: Erika Brynjolfssona i Andrew McAfee. Nie jest długa, można ją „połknąć“ w dwa wieczory. Mniej cierpliwym polecam ten papier. A przestraszonym sugeruję leturę tego artykułu Kennetha Rogoffa, w którym uspokaja on, że zjawisko destrukcji miejsc pracy nie jest wcale tak niebezpieczne.

Gdyby klasa średnia w krajach rozwniętych rzeczywiście ulegała systematycznemu osłabieniu, nie byłby to wesoły scenariusz. Powszechnie uznaje się, że klasa średnia jest fundamentem stabilności społecznej i politycznej. Elity chroni przed zemstą dołów społecznych, a jednocześnie blokuje te elity przed nadmiernym wykorzystywaniem ich politycznej siły.

Patrząc na ostatnie 200 lat, łatwo dostrzec, że klasa średnia co rusz dostawała jakieś „atrakcje“, które czyniły jej życie ciągle przyjemniejszym i spokojniejszym. Kiedy zaczęła się kształtować, w wyniku rewolucji przemysłowej i początków wzrostu gospodarczego, otrzymała prawa polityczne. Gdy zniszczył ją kryzys lat 30. i II wojna światowa, otrzymała wielki dobrobyt powojennej odbudowy. Gdy zaczęła niszczyć ją inflacja lat 70., otrzymała wizję nieograniczonej konsumpcji. Co otrzyma teraz, gdy niszczą ją efekty ostatniego kryzysu i ekspansja nowej klasy średniej w krajach rozwijających się? Praw ma wszystkich po uszy, dobrobyt to marzenie dawno zrealizowane, nasączenie konsumpcją jest większe niż obecnym wiosennym śniegiem w Polsce.

Kiedy na początku lat 70. w badaniach statystycznych pytano studentów amerykańskich, po co studiują, niemal 80 proc. odpowiadało, że głównym celem poszukiwanie filozofii dobrego życia. W 2005 r. dla 75 proc. studentów najważniejsze było już osiągnięcie wysokiego poziomu zamożności. Co będą chcieli osiągnąć studenci, jeżeli rynek pracy nie zaoferuje im perspektyw wysokiego dochodu?

Z „miejskich profesjonalistów“ pędzących z tekturowymi kubkami do kawy możemy sobie żartować. Ale trzymajmy kciuki, by było ich jak najwięcej i by byli zadowoleni z tej kawy, z tych kubków, z pośpiechu, stresu i małych sukcesów. Oni są cholernie ważni.

Ignacy Morawski