Ny keynesiansk ekonomi

1970sedit

den första vågen av ny keynesiansk ekonomi utvecklades i slutet av 1970-talet. den första modellen av klibbig information utvecklades av Stanley Fischer i sin artikel från 1977, långtidskontrakt, rationella förväntningar och regeln om Optimal penningmängd. Han antog en” förskjuten ”eller” överlappande ” kontraktsmodell. Antag att det finns två fackföreningar i ekonomin, som vänder sig för att välja löner. När det är en fackförenings tur väljer den de löner som den kommer att ställa för de kommande två perioderna. Detta står i kontrast till John B. Taylors modell där den nominella lönen är konstant under kontraktslivet, som senare utvecklades i hans två artiklar, en 1979 ”förskjuten lönesättning i en makromodell”. och en 1980 ”aggregerad dynamik och förskjutna kontrakt”. Både Taylor-och Fischer-kontrakt delar funktionen att endast fackföreningarna som fastställer lönen under den aktuella perioden använder den senaste informationen: lönerna i hälften av ekonomin återspeglar fortfarande gammal information. Taylor-modellen hade klibbiga nominella löner utöver den klibbiga informationen: nominella löner måste vara konstanta över kontraktets längd (två perioder). Dessa tidiga nya keynesianska teorier baserades på grundtanken att, med fasta nominella löner, en monetär myndighet (centralbank) kan kontrollera sysselsättningsgraden. Eftersom lönerna fastställs till nominell ränta kan den monetära myndigheten kontrollera reallönen (lönevärden justerade för inflation) genom att ändra penningmängden och därmed påverka sysselsättningsgraden.

1980redigera

menu costs and Imperfect CompetitionEdit

på 1980-talet utvecklades nyckelbegreppet att använda menykostnader inom ramen för ofullkomlig konkurrens för att förklara prisklibbighet. Begreppet en klumpsummekostnad (menykostnad) för att ändra priset introducerades ursprungligen av Sheshinski och Weiss (1977) i deras papper som tittar på inflationens effekt på frekvensen av prisförändringar. Tanken att tillämpa den som en allmän teori om nominell Prisstyvhet framfördes samtidigt av flera ekonomer 1985-6. George Akerlof och Janet Yellen lade fram tanken att på grund av begränsad rationalitet kommer företagen inte att vilja ändra sitt pris om inte förmånen är mer än en liten summa. Denna begränsade rationalitet leder till tröghet i nominella priser och löner som kan leda till att produktionen fluktuerar till konstanta nominella priser och löner. Gregory Mankiw tog menykostnadsideen och fokuserade på välfärdseffekterna av förändringar i produktionen till följd av klibbiga priser. Michael Parkin lade också fram tanken. Även om tillvägagångssättet ursprungligen främst fokuserade på styvheten i nominella priser, utvidgades det till löner och priser av Olivier Blanchard och Nobuhiro Kiyotaki i deras inflytelserika artikel monopolistisk konkurrens och effekterna av aggregerad efterfrågan . Huw Dixon och Claus Hansen visade att även om menykostnaderna gällde en liten sektor av ekonomin skulle detta påverka resten av ekonomin och leda till att priserna i resten av ekonomin blir mindre mottagliga för förändringar i efterfrågan.

medan vissa studier föreslog att menykostnaderna är för små för att ha mycket av en sammanlagd inverkan, visade Laurence Ball och David Romer 1990 att verkliga rigiditeter kunde interagera med nominella rigiditeter för att skapa betydande obalans. Reella stelheter uppstår när ett företag är långsamt att justera sina reala priser som svar på en föränderlig ekonomisk miljö. Till exempel kan ett företag möta verkliga stelheter om det har marknadsstyrka eller om dess kostnader för insatsvaror och löner är inlåsta av ett kontrakt. Ball och Romer hävdade att verkliga stelheter på arbetsmarknaden håller företagets kostnader höga, vilket gör att företagen tvekar att sänka priserna och förlora intäkterna. De kostnader som skapas av verkliga stelheter i kombination med menyn kostnaden för förändrade priser gör det mindre troligt att företaget kommer att sänka priserna till en marknadsröjningsnivå.

även om priserna är helt flexibla kan ofullkomlig konkurrens påverka finanspolitikens inflytande när det gäller multiplikatorn. Huw Dixon och Gregory Mankiw utvecklade oberoende enkla allmänna jämviktsmodeller som visar att den skattemässiga multiplikatorn kan öka med graden av ofullkomlig konkurrens på produktionsmarknaden. Anledningen till detta är att ofullkomlig konkurrens på produktionsmarknaden tenderar att minska reallönen, vilket leder till att hushållet ersätter sig från konsumtion till fritid. När de offentliga utgifterna höjs får den motsvarande ökningen av engångsbeskattningen både fritid och konsumtion att minska (förutsatt att de båda är en normal vara). Ju större grad av ofullkomlig konkurrens på produktionsmarknaden är, desto lägre är reallönen och därmed desto mer faller minskningen på fritiden (dvs. hushållen arbetar mer) och mindre på konsumtionen. Följaktligen är den skattemässiga multiplikatorn mindre än en, men ökar i graden av ofullkomlig konkurrens på produktionsmarknaden.

Calvo staggered contracts modelEdit

1983 skrev Guillermo Calvo ”Staggered Prices in a Utility-Maximing Framework”. Den ursprungliga artikeln skrevs i en kontinuerlig tidsmatematisk ram, men används idag mest i sin diskreta tidsversion. Calvo-modellen har blivit det vanligaste sättet att modellera nominell styvhet i nya keynesianska modeller. Det finns en sannolikhet att företaget kan återställa sitt pris under en period h (riskgraden) eller motsvarande sannolikheten (1-h) att priset kommer att förbli oförändrat under den perioden (överlevnadsgraden). Sannolikheten h kallas ibland ”Calvo-sannolikheten” i detta sammanhang. I Calvo-modellen är det avgörande att prissättaren inte vet hur länge det nominella priset kommer att förbli på plats, i motsats till Taylor-modellen där kontraktets längd är känd på förhand.

Koordinationssviktredigera

diagram som visar en jämviktslinje vid 45 grader skärdes tre gånger av en s-formad linje.
i denna modell av samordningsfel fattar ett representativt företag ei sina produktionsbeslut baserat på den genomsnittliga produktionen för alla företag (Brasilien). När det representativa företaget producerar så mycket som det genomsnittliga företaget (ei=XHamster), är ekonomin i en jämvikt som representeras av 45 graders linje. Beslutskurvan skär med jämviktslinjen vid tre jämviktspunkter. Företagen kan samordna och producera på optimal nivå i punkt B, men utan samordning kan företagen producera med en mindre effektiv jämvikt.

Samordningsfel var ett annat viktigt nytt Keynesianskt koncept utvecklat som en annan potentiell förklaring till lågkonjunkturer och arbetslöshet. I lågkonjunkturer kan en fabrik gå i tomgång trots att det finns människor som är villiga att arbeta i den och människor som är villiga att köpa sin produktion om de hade jobb. I ett sådant scenario verkar ekonomiska nedgångar vara resultatet av samordningsfel: den osynliga handen misslyckas med att samordna det vanliga, optimala flödet av produktion och konsumtion. Russell Cooper och Andrew Johns 1988-papper koordinerande Samordningsfel i keynesianska modeller uttryckte en allmän form av samordning som modeller med flera jämvikter där agenter kunde samordna för att förbättra (eller åtminstone inte skada) var och en av sina respektive situationer. Cooper och John baserade sitt arbete på tidigare modeller inklusive Peter Diamonds kokosnötmodell från 1982, som visade ett fall av koordinationsfel med Sök-och matchningsteori. I Diamonds modell producenter är mer benägna att producera om de ser andra producerar. Ökningen av möjliga handelspartner ökar sannolikheten för att en viss producent hittar någon att handla med. Som i andra fall av koordinationsfel har Diamonds modell flera jämvikter, och en agents välfärd är beroende av andras beslut. Diamonds modell är ett exempel på en” tjockmarknadsexternalitet ” som gör att marknaderna fungerar bättre när fler människor och företag deltar i dem. Andra potentiella källor till samordningsfel inkluderar självuppfyllande profetior. Om ett företag förutser en nedgång i efterfrågan kan de minska anställningen. Brist på lediga platser kan oroa arbetare som sedan minskar sin konsumtion. Denna nedgång i efterfrågan uppfyller företagets förväntningar, men det beror helt på företagets egna handlingar.

arbetsmarknadsmisslyckanden: Effektivitetslönerredigera

nya Keynesianer erbjöd förklaringar till misslyckandet på arbetsmarknaden att rensa. På en Walrasisk marknad bjuder arbetslösa arbetare ner lönerna tills efterfrågan på arbetare möter utbudet. Om marknaderna är Walrasian, skulle de arbetslösa vara begränsade till arbetare som övergår mellan jobb och arbetare som väljer att inte arbeta eftersom lönerna är för låga för att locka dem. De utvecklade flera teorier som förklarar varför marknader kan lämna villiga arbetare arbetslösa. Den viktigaste av dessa teorier, nya Keynesianer var effektivitetslöneteorin som användes för att förklara långsiktiga effekter av tidigare arbetslöshet, där kortsiktiga ökningar av arbetslösheten blir permanenta och leder till högre arbetslöshet på lång sikt.

diagram som visar förhållandet mellan icke-shirking tillstånd och full sysselsättning.
i Shapiro-Stiglitz-modellen betalas arbetare på en nivå där de inte smiter, vilket förhindrar att lönerna sjunker till full sysselsättning. Kurvan för no-shirking-tillståndet (märkt NSC) går till oändlighet vid full sysselsättning.

i effektivitetslönemodeller betalas arbetstagare på nivåer som maximerar produktiviteten istället för att rensa marknaden. Till exempel i utvecklingsländer kan företag betala mer än en marknadsränta för att säkerställa att deras arbetare har råd med tillräckligt med näring för att vara produktiva. Företag kan också betala högre löner för att öka lojalitet och moral, vilket möjligen leder till bättre produktivitet. Företag kan också betala högre än marknadslöner för att förhindra shirking. Shirking modeller var särskilt inflytelserika.Carl Shapiro och Joseph Stiglitz 1984 papper Jämviktsarbetslöshet som Arbetardisciplin enhet skapade en modell där anställda tenderar att undvika arbete om inte företag kan övervaka arbetarnas ansträngning och hota att slacka anställda med arbetslöshet. Om ekonomin är i full sysselsättning flyttar en avskedad shirker helt enkelt till ett nytt jobb. Enskilda företag betalar sina arbetare en premie över marknadsräntan för att säkerställa att deras arbetare hellre skulle arbeta och behålla sitt nuvarande jobb istället för att smita och riskera att behöva flytta till ett nytt jobb. Eftersom varje företag betalar mer än marknadsröjningslöner, misslyckas den aggregerade arbetsmarknaden med att rensa. Detta skapar en pool av arbetslösa arbetare och bidrar till kostnaden för att få sparken. Arbetare riskerar inte bara en lägre lön, de riskerar att fastna i poolen av arbetslösa. Att hålla lönerna över marknadsröjningsnivåerna skapar ett allvarligt avskräckande för shirk som gör arbetarna effektivare även om det lämnar några villiga arbetare arbetslösa.

1990redigera

den nya neoklassiska synthesisEdit

i början av 1990-talet började ekonomer kombinera elementen i ny keynesiansk ekonomi som utvecklades på 1980-talet och tidigare med verklig Konjunkturcykelteori. RBC-modeller var dynamiska men antog perfekt konkurrens; nya keynesianska modeller var främst statiska men baserade på ofullkomlig konkurrens. Den nya neoklassiska syntesen kombinerade i huvudsak de dynamiska aspekterna av RBC med ofullkomlig konkurrens och nominella stelheter hos nya keynesianska modeller. Tack Yun var en av de första som gjorde detta, i en modell som använde Calvo-prismodellen. Goodfriend och King föreslog en lista med fyra element som är centrala för den nya syntesen: intertemporal optimering, rationella förväntningar, ofullkomlig konkurrens och kostsam prisjustering (menykostnader). Goodfriend och King finner också att konsensusmodellerna ger vissa politiska konsekvenser: medan penningpolitiken kan påverka den verkliga produktionen på kort sikt, men det finns ingen långsiktig avvägning: pengar är inte neutrala på kort sikt men det är på lång sikt. Inflationen har negativa välfärdseffekter. Det är viktigt för centralbankerna att upprätthålla trovärdighet genom regelbaserad politik som inflationsmål.

Taylor RuleEdit

1993 formulerade John B Taylor tanken på en Taylor-regel, som är en reducerad form approximation av responsen hos den nominella räntan, som fastställts av centralbanken, till förändringar i inflation, produktion eller andra ekonomiska förhållanden. I synnerhet beskriver regeln hur centralbanken för varje enprocentig ökning av inflationen tenderar att höja den nominella räntan med mer än en procentenhet. Denna aspekt av regeln kallas ofta Taylor-principen. Även om sådana regler ger kortfattade, beskrivande fullmakter för centralbankspolitiken, beaktas de i praktiken inte uttryckligen proscriptively av centralbankerna när de fastställer nominella räntor.

Taylors ursprungliga versionen av regeln beskriver hur den nominella räntan svarar todivergences av faktiska inflationen från mål inflation och av faktiska bruttonationalprodukten (BNP) från potentiell BNP:

jag t = π t + r t ∗ + a π ( π t − π t ∗ ) + a y ( y t − y t ∗ ) . {\displaystyle i_{t}=\pi _{t} + r_{t}^{ * } + a_ {\pi }(\pi _{t} – \ pi _{t}^{ * }) + a_{y} (y_{t}-y_{t}^{*}).}

 {\displaystyle i_{t}=\pi _{t} + r_{t}^{ * } + a_ {\pi }(\pi _{t} - \ pi _{t}^{ * }) + a_{y} (y_{t}-y_{t}^{*}).}

i denna ekvation, i t {\displaystyle \, i_{t}\,}

\,i_{t}\,

är målet kortfristig nominell ränta (t. ex. federal funds rate i USA, Bank of England basränta i Storbritannien), t {\displaystyle\, \pi _ {t}\,}

\,\pi _{t}\,

är inflationstakten mätt med BNP-deflatorn, t. o. m. t. {\displaystyle \ pi _{t}^{*}}

\pi _ {t}^{*}

är den önskade inflationstakten, r t {\displaystyle r_{t}^{*}}

r_{t}^{*}

är den antagna jämviktsrealräntan, y t {\displaystyle\, y_{t}\,}

\,Y_{t}\,

är logaritmen för real BNP, och y t}^{*}}

{\displaystyle y_{t}^{*}}

är logaritmen för potentiell produktion, som bestäms av en linjär trend.

den nya keynesianska Phillips curveEdit

den nya keynesianska Phillips-kurvan härleddes ursprungligen av Roberts 1995 och har sedan dess använts i de flesta toppmoderna nya keynesianska DSGE-modeller. Den nya keynesianska Phillips-kurvan säger att denna periods inflation beror på nuvarande produktion och förväntningarna på nästa periods inflation. Kurvan härrör från den dynamiska Calvo-modellen för prissättning och i matematiska termer är:

T = T = T + T + T {\displaystyle \ pi _ {t}= \ beta E_{t}+\kappa y_{t}}

\pi _{{t}}=\beta E_{{t}}+\kappa y_{{t}}

\ pi _ {{t}} = \ beta E_ {{t}} + \ kappa y_ {{t}}

den aktuella perioden t förväntningarna på nästa periods inflation är införlivade som 2 {\displaystyle \ beta e_{t}}

\beta e_{{t}}

, där Bisexuell {\displaystyle \beta }

\beta

är diskonteringsfaktorn. Den konstanta {\displaystyle \kappa}

\kappa

fångar inflationens svar på produktionen och bestäms till stor del av sannolikheten för att priset ändras under vilken period som helst, vilket är h {\displaystyle h}

h

: {\frac {H} {1 − h}} \gamma }

\kappa = {\frac {h} {1-h}}\gamma

.

de mindre styva nominella priserna är (ju högre är h {\displaystyle h}

h

), ju större effekten av produktionen på nuvarande inflation.

vetenskapen om Penningpolitikedit

de tankar som utvecklades på 1990-talet sammanställdes för att utveckla den nya keynesianska dynamiska stokastiska allmänna jämvikten som används för att analysera penningpolitiken. Detta kulminerade i de tre ekvationen Ny keynesiansk modell som finns i undersökningen av Richard Clarida, Jordi Gali, och Mark Gertler i Journal of Economic Literature,. Den kombinerar de två ekvationerna i den nya keynesianska Phillips-kurvan och Taylor-regeln med dynamic is-kurvan härledd från den optimala dynamiska konsumtionsekvationen (hushållets Euler-ekvation).

y t = Y t + 1 + 1 kg ( i T − E T 0 + 1 ) + v t {\displaystyle y_{t}=y_{t+1}+{\frac {1}{\sigma }}(i_{t}-e_{t}\pi _{t+1})+v_{t}}

y_{t}=y_{t+1}+\frac{1}{\Sigma}(i_{t} - e_{t}\PI_{t+1})+v_{t}

dessa tre ekvationer bildade en relativt enkel modell som kunde användas för teoretisk analys av politiska frågor. Modellen förenklades dock i vissa avseenden (till exempel finns det inget kapital eller investeringar). Det fungerar inte bra empiriskt.

2000sedit

under det nya årtusendet har det skett flera framsteg inom Ny keynesiansk ekonomi.

införandet av ofullständigt konkurrenskraftiga arbetsmarknaderredigera

medan 1990-talets modeller fokuserade på klibbiga priser på produktionsmarknaden, antog Christopher Erceg, Dale Henderson och Andrew Levin 2000 Blanchard och Kiyotaki-modellen för fackliga arbetsmarknader genom att kombinera den med Calvo-prissättningsmetoden och introducerade den i en ny keynesiansk DSGE-modell.

utvecklingen av komplexa DSGE-modeller.Redigera

för att få modeller som fungerade bra med data och kunde användas för policysimuleringar utvecklades ganska komplicerade nya keynesianska modeller med flera funktioner. Seminal papper publicerades av Frank Smets och Rafael Wouters och även Lawrence J. Christiano, Martin Eichenbaum och Charles Evans de gemensamma dragen i dessa modeller ingår:

  • vana uthållighet. Marginalanvändningen av konsumtion beror på tidigare konsumtion.
  • Calvo-prissättning på både produktions-och produktmarknaderna, med indexering så att när löner och priser inte uttryckligen återställs uppdateras de för inflation.
  • kapitaljusteringskostnader och variabelt kapitalutnyttjande.
  • nya chocker
    • efterfrågan chocker, som påverkar marginalanvändningen av konsumtion
    • markup chocker som påverkar önskad markering av pris över marginalkostnaden.
  • penningpolitiken representeras av en Taylor-regel.
  • Bayesianska uppskattningsmetoder.

Sticky informationEdit

tanken på klibbig information som finns i Fischers modell utvecklades senare av Gregory Mankiw och Ricardo Reis. Detta lade till en ny funktion i Fischers modell: det finns en fast sannolikhet att du kan planera om dina löner eller priser varje period. Med hjälp av kvartalsdata antog de ett värde på 25%: det vill säga varje kvartal 25% av slumpmässigt utvalda företag/fackföreningar kan planera en bana av nuvarande och framtida priser baserat på aktuell information. Således om vi betraktar den aktuella perioden: 25% av priserna kommer att baseras på den senaste tillgängliga informationen; resten på information som var tillgänglig när de senast kunde planera om sin prisbana. Mankiw och Reis fann att modellen med klibbig information gav ett bra sätt att förklara inflationens uthållighet.

klibbiga informationsmodeller har inte nominell styvhet: företag eller fackföreningar är fria att välja olika priser eller löner för varje period. Det är informationen som är klibbig, inte priserna. Således när ett företag har tur och kan omplanera sina nuvarande och framtida priser, kommer det att välja en bana av vad det tror kommer att vara de optimala priserna nu och i framtiden. I allmänhet kommer detta att innebära att ett annat pris fastställs varje period som omfattas av planen. Detta strider mot de empiriska bevisen på priser. Det finns nu många studier av prisstyvhet i olika länder: USA, euroområdet, Storbritannien och andra. Dessa studier visar alla att även om det finns vissa sektorer där priserna ändras ofta, finns det också andra sektorer där priserna förblir fasta över tiden. Bristen på klibbiga priser i den klibbiga informationsmodellen är inkonsekvent med prisbeteendet i det mesta av ekonomin. Detta har lett till försök att formulera en ”dubbel klibbighet” – modell som kombinerar klibbig information med klibbiga priser.

2010sedit

2010-talet såg utvecklingen av modeller som införlivade hushållens heterogenitet i standard New Keynesian framework, vanligen kallad `Hank’ – modeller (heterogen Agent New Keynesian). Förutom klibbiga priser har en typisk Hank-modell en oförsäkrbar idiosynkratisk arbetsinkomstrisk som ger upphov till en icke-degenererad förmögenhetsfördelning. De tidigaste modellerna med dessa två funktioner inkluderar Oh och Reis (2012), McKay och Reis (2016) och Guerrieri och Lorenzoni (2017).

namnet ”Hank model” myntades av Greg Kaplan, Benjamin Moll och Gianluca Violante i ett 2018-papper som dessutom modellerar hushåll som ackumulerar två typer av tillgångar, en vätska den andra illikvida. Detta innebär en rik heterogenitet i portföljsammansättningen över hushållen. I synnerhet passar modellen empiriska bevis genom att presentera en stor del av hushållen som har lite likvida tillgångar: hand-to-mouth-hushållen. I överensstämmelse med empiriska bevis har cirka två tredjedelar av dessa hushåll icke-triviala mängder illikvida rikedomar, trots att de har lite likvida rikedomar. Dessa hushåll är kända som rika hand-till-mun-hushåll, en term som introducerades i en 2014-studie av finanspolitisk stimulanspolitik av Kaplan och Violante.

förekomsten av rika hand-till-mun-hushåll i Nya keynesianska modeller är viktigt för effekterna av penningpolitiken, eftersom hushållens konsumtionsbeteende är starkt känsligt för förändringar i disponibel inkomst snarare än variationer i räntan (dvs. priset på framtida konsumtion i förhållande till nuvarande konsumtion). Den direkta följden är att penningpolitiken mestadels överförs via allmänna jämviktseffekter som fungerar genom hushållets arbetsinkomst, snarare än genom intertemporal substitution, som är den viktigaste överföringskanalen i representativ Agent nya keynesianska (rang) modeller.

det finns två huvudsakliga konsekvenser för penningpolitiken. För det första samverkar penningpolitiken starkt med finanspolitiken på grund av misslyckandet med Ricardiansk ekvivalens på grund av närvaron av hand-till-mun-hushåll. I synnerhet förändringar i räntan skiftar regeringens budgetbegränsning, och det finanspolitiska svaret på denna förändring påverkar hushållens disponibla inkomst. För det andra är aggregerade monetära chocker inte fördelningsneutrala eftersom de påverkar avkastningen på kapitalet, vilket påverkar hushåll med olika nivåer av rikedom och tillgångar på olika sätt.



+