Economía neokeynesiana

Década de 1970Editar

La primera ola de economía Neokeynesiana se desarrolló a finales de la década de 1970. El primer modelo de información pegajosa fue desarrollado por Stanley Fischer en su artículo de 1977, Contratos a Largo Plazo, Expectativas Racionales y la Regla Óptima de la Oferta Monetaria. Adoptó un modelo de contrato» escalonado «o» superpuesto». Supongamos que hay dos sindicatos en la economía, que se turnan para elegir los salarios. Cuando es el turno de un sindicato, elige los salarios que fijará para los próximos dos períodos. Esto contrasta con John B. Modelo de Taylor en el que el salario nominal es constante a lo largo de la vida del contrato, como se desarrolló posteriormente en sus dos artículos, uno en 1979 «Establecimiento escalonado de salarios en un modelo macroeconómico». y uno en 1980 «Aggregate Dynamics and Stagged Contracts». Los contratos de Taylor y Fischer comparten la característica de que solo los sindicatos que fijan el salario en el período actual están utilizando la información más reciente: los salarios en la mitad de la economía aún reflejan información antigua. El modelo Taylor tenía salarios nominales pegajosos además de la información pegajosa: los salarios nominales tenían que ser constantes durante la duración del contrato (dos períodos). Estas primeras teorías neokeynesianas se basaban en la idea básica de que, dados los salarios nominales fijos, una autoridad monetaria (el banco central) puede controlar la tasa de empleo. Dado que los salarios se fijan a una tasa nominal, la autoridad monetaria puede controlar el salario real (valores salariales ajustados en función de la inflación) cambiando la oferta monetaria y, por lo tanto, afectando a la tasa de empleo.

Década de 1980Editar

Costes del menú y competencia imperfectaeditar

En la década de 1980 se desarrolló el concepto clave de utilizar los costes del menú en un marco de competencia imperfecta para explicar la rigidez de los precios. El concepto de un costo de suma global (costo del menú) para cambiar el precio fue introducido originalmente por Sheshinski y Weiss (1977) en su artículo que analiza el efecto de la inflación en la frecuencia de los cambios de precios. La idea de aplicarla como una teoría general de la Rigidez de los Precios Nominales fue presentada simultáneamente por varios economistas en 1985-6. George Akerlof y Janet Yellen plantearon la idea de que, debido a la racionalidad limitada, las empresas no querrán cambiar su precio a menos que el beneficio sea más que una pequeña cantidad. Esta racionalidad limitada conduce a la inercia de los precios y salarios nominales, lo que puede llevar a que la producción fluctúe a precios y salarios nominales constantes. Gregory Mankiw tomó la idea del costo del menú y se centró en los efectos en el bienestar de los cambios en la producción resultantes de los precios pegajosos. Michael Parkin también presentó la idea. Aunque el enfoque inicialmente se centró principalmente en la rigidez de los precios nominales, Olivier Blanchard y Nobuhiro Kiyotaki lo ampliaron a los salarios y los precios en su influyente artículo Monopolistic Competition and the Effects of Aggregate Demand . Huw Dixon y Claus Hansen demostraron que incluso si los costos del menú se aplicaran a un sector pequeño de la economía, esto influiría en el resto de la economía y llevaría a que los precios en el resto de la economía se volvieran menos receptivos a los cambios en la demanda.

Mientras que algunos estudios sugirieron que los costos del menú son demasiado pequeños para tener un impacto agregado, Laurence Ball y David Romer mostraron en 1990 que las rigideces reales podrían interactuar con las rigideces nominales para crear un desequilibrio significativo. Las rigideces reales se producen cuando una empresa tarda en ajustar sus precios reales en respuesta a un entorno económico cambiante. Por ejemplo, una empresa puede enfrentarse a rigideces reales si tiene poder de mercado o si sus costos de insumos y salarios están asegurados por un contrato. Ball y Romer argumentaron que las rigideces reales en el mercado laboral mantienen altos los costos de una empresa, lo que hace que las empresas duden en reducir los precios y perder ingresos. El gasto creado por rigideces reales combinadas con el costo del menú de cambiar los precios hace que sea menos probable que la empresa reduzca los precios a un nivel de compensación del mercado.

Incluso si los precios son perfectamente flexibles, la competencia imperfecta puede afectar a la influencia de la política fiscal en términos de multiplicador. Huw Dixon y Gregory Mankiw desarrollaron modelos independientes de equilibrio general simples que mostraban que el multiplicador fiscal podría aumentar con el grado de competencia imperfecta en el mercado de producción. La razón de esto es que la competencia imperfecta en el mercado de producción tiende a reducir el salario real, lo que lleva al hogar a sustituir el consumo por el ocio. Cuando se aumenta el gasto público, el correspondiente aumento de los impuestos a tanto alzado hace que disminuyan tanto el ocio como el consumo (suponiendo que ambos sean un bien normal). Cuanto mayor es el grado de competencia imperfecta en el mercado de producción, menor es el salario real y, por lo tanto, mayor es la reducción en el ocio (es decir, los hogares trabajan más) y menor en el consumo. Por lo tanto, el multiplicador fiscal es inferior a uno, pero aumenta el grado de competencia imperfecta en el mercado de producción.

El modelo de contratos escalonados Calvoeditar

En 1983 Guillermo Calvo escribió «Precios escalonados en un Marco de Maximización de Servicios Públicos». El artículo original fue escrito en un marco matemático de tiempo continuo, pero hoy en día se usa principalmente en su versión de tiempo discreto. El modelo Calvo se ha convertido en la forma más común de modelar la rigidez nominal en los modelos neokeynesianos. Existe la probabilidad de que la empresa pueda restablecer su precio en cualquier período h (la tasa de riesgo), o de manera equivalente la probabilidad (1-h) de que el precio permanezca sin cambios en ese período (la tasa de supervivencia). La probabilidad h a veces se llama la «probabilidad Calvo» en este contexto. En el modelo Calvo, la característica crucial es que el fijador de precios no sabe cuánto tiempo permanecerá en su lugar el precio nominal, en contraste con el modelo Taylor, donde la duración del contrato se conoce ex ante.

Falla de coordinacióneditar

Gráfico que muestra una línea de equilibrio a 45 grados interceptada tres veces por una línea en forma de s.
En este modelo de falla de coordinación, una empresa representativa ei toma sus decisiones de producción basadas en el rendimiento promedio de todas las empresas («). Cuando la empresa representativa produce tanto como la empresa promedio (ei=»), la economía está en un equilibrio representado por la línea de 45 grados. La curva de decisión se cruza con la línea de equilibrio en tres puntos de equilibrio. Las empresas podrían coordinarse y producir en el nivel óptimo del punto B, pero, sin coordinación, las empresas podrían producir en un equilibrio menos eficiente.

El fracaso de la coordinación fue otro importante concepto neokeynesiano desarrollado como otra posible explicación de las recesiones y el desempleo. En las recesiones, una fábrica puede ir ociosa aunque haya personas dispuestas a trabajar en ella, y personas dispuestas a comprar su producción si tienen trabajo. En tal escenario, las crisis económicas parecen ser el resultado de una falla de coordinación: la mano invisible no logra coordinar el flujo habitual y óptimo de producción y consumo. El documento de Russell Cooper y Andrew John de 1988 Coordinating Coordination Failures in Keynesian Models expresó una forma general de coordinación como modelos con múltiples equilibrios donde los agentes podían coordinarse para mejorar (o al menos no dañar) cada una de sus respectivas situaciones. Cooper y John basaron su trabajo en modelos anteriores, incluido el modelo coconut de Peter Diamond de 1982, que demostró un caso de falla de coordinación que involucraba la teoría de búsqueda y emparejamiento. En el modelo de Diamante, es más probable que los productores produzcan si ven a otros producir. El aumento de posibles socios comerciales aumenta la probabilidad de que un productor determinado encuentre a alguien con quien comerciar. Como en otros casos de falla de coordinación, el modelo de Diamond tiene múltiples equilibrios, y el bienestar de un agente depende de las decisiones de los demás. El modelo de Diamond es un ejemplo de una» externalidad de mercado grueso » que hace que los mercados funcionen mejor cuando más personas y empresas participan en ellos. Otras fuentes potenciales de falla de coordinación incluyen profecías autocumplidas. Si una empresa anticipa una caída en la demanda, podría reducir la contratación. La falta de vacantes de empleo puede preocupar a los trabajadores que luego reducen su consumo. Esta caída de la demanda cumple con las expectativas de la empresa, pero se debe enteramente a las propias acciones de la empresa.

Fallas del mercado de trabajo: Salarios de eficaciaeditar

Los neokeynesianos ofrecieron explicaciones sobre el fracaso del mercado de trabajo para despejar. En un mercado walrasiano, los trabajadores desempleados bajan los salarios hasta que la demanda de trabajadores satisface la oferta. Si los mercados son walrasianos, las filas de los desempleados se limitarían a los trabajadores en transición entre empleos y a los trabajadores que optan por no trabajar porque los salarios son demasiado bajos para atraerlos. Desarrollaron varias teorías que explicaban por qué los mercados podían dejar desempleados a los trabajadores dispuestos. La más importante de estas teorías, los neokeynesianos, fue la teoría de los salarios de eficiencia utilizada para explicar los efectos a largo plazo del desempleo anterior, en el que los aumentos a corto plazo del desempleo se vuelven permanentes y conducen a niveles más altos de desempleo a largo plazo.

Gráfico que muestra la relación entre la condición de no eludir y el pleno empleo.
En el modelo Shapiro-Stiglitz, a los trabajadores se les paga a un nivel en el que no eluden, lo que impide que los salarios desciendan a niveles de pleno empleo. La curva para la condición de no evadir (etiquetada como NSC) llega al infinito con pleno empleo.

En los modelos salariales de eficiencia, se paga a los trabajadores a niveles que maximizan la productividad en lugar de despejar el mercado. Por ejemplo, en los países en desarrollo, las empresas pueden pagar más que una tasa de mercado para asegurarse de que sus trabajadores puedan permitirse una nutrición suficiente para ser productivos. Las empresas también pueden pagar salarios más altos para aumentar la lealtad y la moral, lo que posiblemente conduzca a una mejor productividad. Las empresas también pueden pagar salarios más altos que los del mercado para evitar la evasión. Los modelos de evasivas fueron particularmente influyentes.El documento de Carl Shapiro y Joseph Stiglitz de 1984 Equilibrium Unemployment as a Worker Discipline Device creó un modelo en el que los empleados tienden a evitar el trabajo a menos que las empresas puedan monitorear el esfuerzo de los trabajadores y amenazar a los empleados holgazanes con desempleo. Si la economía está en pleno empleo, un vagabundo despedido simplemente se muda a un nuevo trabajo. Las empresas individuales pagan a sus trabajadores una prima por encima de la tarifa del mercado para asegurarse de que sus trabajadores prefieren trabajar y mantener su trabajo actual en lugar de eludir y arriesgarse a tener que mudarse a un nuevo trabajo. Dado que cada empresa paga más que los salarios de compensación del mercado, el mercado laboral agregado no logra compensar. Esto crea un grupo de trabajadores desempleados y se suma al gasto de ser despedidos. Los trabajadores no solo corren el riesgo de tener un salario más bajo, sino que corren el riesgo de quedar atrapados en el grupo de desempleados. Mantener los salarios por encima de los niveles de compensación del mercado crea un serio desincentivo para eludir que hace que los trabajadores sean más eficientes a pesar de que deja desempleados a algunos trabajadores dispuestos.

Década de 1990Editar

La nueva Síntesis neoclásicaeditar

A principios de la década de 1990, los economistas comenzaron a combinar los elementos de la economía neokeynesiana desarrollados en la década de 1980 y antes con la Teoría del Ciclo Económico Real. Los modelos RBC eran dinámicos pero suponían una competencia perfecta; los modelos neokeynesianos eran principalmente estáticos pero se basaban en una competencia imperfecta. La Nueva síntesis neoclásica combinó esencialmente los aspectos dinámicos de la RBC con la competencia imperfecta y las rigideces nominales de los modelos neokeynesianos. Tack Yun fue uno de los primeros en hacer esto, en un modelo que usaba el modelo de precios Calvo. Goodfriend y King propusieron una lista de cuatro elementos que son centrales para la nueva síntesis: optimización intertemporal, expectativas racionales, competencia imperfecta y ajuste de precios costoso (costos de menú). Goodfriend y King también encuentran que los modelos de consenso producen ciertas implicaciones políticas: mientras que la política monetaria puede afectar a la producción real a corto plazo, pero no hay una compensación a largo plazo: el dinero no es neutral a corto plazo, pero lo es a largo plazo. La inflación tiene efectos negativos en el bienestar. Es importante que los bancos centrales mantengan su credibilidad a través de políticas basadas en normas, como la fijación de objetivos de inflación.

Regla de Taylor Edit

En 1993, John B Taylor formuló la idea de una regla de Taylor, que es una aproximación de forma reducida de la capacidad de respuesta de la tasa de interés nominal, establecida por el banco central, a los cambios en la inflación, la producción u otras condiciones económicas. En particular, la regla describe cómo, por cada aumento de un uno por ciento en la inflación, el banco central tiende a aumentar la tasa de interés nominal en más de un punto porcentual. Este aspecto de la regla a menudo se llama el principio de Taylor. Aunque esas normas proporcionan referencias descriptivas y concisas para la política de los bancos centrales, en la práctica los bancos centrales no las tienen en cuenta explícitamente al establecer los tipos nominales.

La versión original de Taylor de la regla describe cómo el tipo de interés nominal responde a las divergencias entre las tasas de inflación reales y las tasas de inflación objetivo y entre el Producto Interior Bruto (PIB) real y el PIB potencial:

i t = π t + r t ∗ + a π ( π t − π t ∗ ) + a y ( y t − y t ∗ ) . {\displaystyle i_{t}=\pi _{t}+r_{t}^{*}+a_{\pi }(\pi _{t}-\pi _{t}^{*})+a_{y}(y_{t}-y_{t}^{*}).}

{\displaystyle i_{t}=\pi _{t}+r_{t}^{*}+a_{\pi }(\pi _{t}-\pi _{t}^{*})+a_{y}(y_{t}-y_{t}^{*}).}

En esta ecuación, i t {\displaystyle \, i_{t}\,}

\,i_{t}\,

es el tipo de interés nominal a corto plazo objetivo (p. ej. la tasa de los fondos federales en los estados unidos, el Banco de Inglaterra tipo de base en el reino unido), π t {\displaystyle \,\pi _{t}\,}

\,\pi _{t}\,

es la tasa de inflación medida por el deflactor del PIB π t ∗ {\displaystyle \pi _{t}^{*}}

\pi _{t}^{*}

deseada es la tasa de inflación, r t ∗ {\displaystyle r_{t}^{*}}

r_{t}^{*}

es el supuesto real de equilibrio de la tasa de interés, y t {\displaystyle \,y_{t}\,}

\,y_{t}\,

es el logaritmo del PIB real, e y t ∗ {\displaystyle y_{t}^{*}}

{\displaystyle y_{t}^{*}}

es el logaritmo de la producción potencial, determinado por una tendencia lineal.

La curva Phillips Neokeynesianaeditar

La curva Phillips Neokeynesiana fue derivada originalmente por Roberts en 1995, y desde entonces se ha utilizado en la mayoría de los modelos DSGE Neokeynesianos de última generación. La curva de Phillips de nueva Keynesia dice que la inflación de este período depende de la producción actual y de las expectativas de la inflación del próximo período. La curva se deriva del modelo dinámico de precios de Calvo y en términos matemáticos es:

π t = β E t + k y t {\displaystyle \pi _{t}=\beta E_{t}+\kappa y_{t}}

\pi _{{t}}=\beta E_{{t}}+\kappa y_{{t}}

El periodo actual t expectativas del próximo período de la inflación, se incorporan como β E t {\displaystyle \beta E_{t}}

\beta E_{{t}}

, donde β {\displaystyle \beta }

\beta

es el factor de descuento. La constante κ {\displaystyle \kappa }

\kappa

captura la respuesta de la inflación a la producción, y está determinada en gran medida por la probabilidad de cambiar el precio en cualquier período, que es h {\displaystyle h}

h

: κ = h 1-h γ {\displaystyle \kappa ={\frac {h}{1-h}}\gamma }

\kappa = {\frac {h}{1-h}}\gamma

.

Los precios nominales menos rígidos son (el más alto es h {\displaystyle h}

h

), mayor será el efecto de la producción sobre la inflación actual.

La Ciencia de la Política Monetariaeditar

Las ideas desarrolladas en la década de 1990 se reunieron para desarrollar el equilibrio general estocástico dinámico neokeynesiano utilizado para analizar la política monetaria. Esto culminó en el modelo neokeynesiano de tres ecuaciones que se encuentra en la encuesta de Richard Clarida, Jordi Gali y Mark Gertler en el Journal of Economic Literature,. Combina las dos ecuaciones de la curva de Phillips neokeynesiana y la regla de Taylor con la curva dinámica IS derivada de la ecuación de consumo dinámico óptimo (ecuación de Euler del hogar).

y t = y t + 1 + 1 ∑ i t − E t π t + 1 ) + v t {\displaystyle y_{t}=y_{t+1}+{\frac {1}{\sigma }}(i_{t}-E_{t}\pi _{t+1})+v_{t}}

y_{t}=y_{t+1}+\frac{1}{\sigma}(i_{t} - E_{t}\pi_{t+1})+v_{t}

Estas tres ecuaciones formado un modelo relativamente simple que podría ser utilizado para el análisis teórico de las cuestiones de política. Sin embargo, el modelo se simplificó demasiado en algunos aspectos (por ejemplo, no hay capital ni inversión). Además, no funciona bien empíricamente.

2000sEdit

En el nuevo milenio ha habido varios avances en la nueva economía Keynesiana.

La introducción de mercados laborales imperfectamente competitivoseditar

Mientras que los modelos de la década de 1990 se centraban en los precios pegajosos en el mercado de producción, en 2000 Christopher Erceg, Dale Henderson y Andrew Levin adoptaron el modelo de Blanchard y Kiyotaki de mercados laborales sindicalizados combinándolo con el enfoque de precios Calvo y lo introdujeron en un modelo DSGE neokeynesiano.

El desarrollo de modelos DSGE complejos.Editar

Para tener modelos que funcionaran bien con los datos y que pudieran usarse para simulaciones de políticas, se desarrollaron modelos neokeynesianos bastante complicados con varias características. Trabajos seminales fueron publicados por Frank Smets y Rafael Wouters y también Lawrence J. Christiano, Martin Eichenbaum y Charles Evans Las características comunes de estos modelos incluyen:

  • persistencia del hábito. La utilidad marginal del consumo depende del consumo pasado.
  • Precios de Calvo en los mercados de producción y de productos, con indexación para que cuando los salarios y los precios no se restablezcan explícitamente, se actualicen para tener en cuenta la inflación.
  • costes de ajuste del capital y utilización variable del capital.
  • nuevos choques
    • choques de demanda, que afectan a la utilidad marginal del consumo
    • choques de margen que influyen en el margen deseado del precio sobre el costo marginal.
  • la política monetaria está representada por una regla de Taylor.
  • Métodos de estimación bayesianos.

Información pegajosaeditar

La idea de información pegajosa que se encuentra en el modelo de Fischer fue desarrollada más tarde por Gregory Mankiw y Ricardo Reis. Esto agregó una nueva característica al modelo de Fischer: hay una probabilidad fija de que pueda volver a planificar sus salarios o precios en cada período. Utilizando datos trimestrales, asumieron un valor del 25%: es decir, cada trimestre, el 25% de las empresas/sindicatos elegidos al azar pueden planificar una trayectoria de precios actuales y futuros sobre la base de la información actual. Por lo tanto, si consideramos el período actual: el 25% de los precios se basarán en la última información disponible; el resto de la información que estaba disponible la última vez que pudieron volver a planificar su trayectoria de precios. Mankiw y Reis encontraron que el modelo de información pegajosa proporcionaba una buena manera de explicar la persistencia de la inflación.

Los modelos de información pegajosa no tienen rigidez nominal: las empresas o los sindicatos son libres de elegir precios o salarios diferentes para cada período. Es la información la que es pegajosa, no los precios. Por lo tanto, cuando una empresa tiene suerte y puede volver a planificar sus precios actuales y futuros, elegirá una trayectoria de lo que cree que serán los precios óptimos ahora y en el futuro. En general, esto implicará establecer un precio diferente cada período cubierto por el plan. Esto está en contradicción con la evidencia empírica sobre los precios. Actualmente hay muchos estudios sobre la rigidez de los precios en diferentes países: Estados Unidos, la zona del euro, el Reino Unido y otros. Todos estos estudios muestran que, si bien hay algunos sectores en los que los precios cambian con frecuencia, también hay otros sectores en los que los precios permanecen fijos a lo largo del tiempo. La falta de precios pegajosos en el modelo de información pegajosa es inconsistente con el comportamiento de los precios en la mayor parte de la economía. Esto ha llevado a intentos de formular un modelo de «doble adherencia» que combina información pegajosa con precios pegajosos.

Década de 2010Editar

La década de 2010 vio el desarrollo de modelos que incorporaban la heterogeneidad de los hogares en el marco estándar del Nuevo Keynesiano, comúnmente conocidos como modelos HANK (Agente Heterogéneo del Nuevo Keynesiano). Además de los precios pegajosos, un modelo típico de HANK presenta un riesgo de ingreso laboral idiosincrático no asegurable que da lugar a una distribución de la riqueza no degenerada. Los primeros modelos con estas dos características incluyen Oh y Reis (2012), McKay y Reis (2016) y Guerrieri y Lorenzoni (2017).

El nombre «HANK model» fue acuñado por Greg Kaplan, Benjamin Moll y Gianluca Violante en un artículo de 2018 que, además, modela los hogares como la acumulación de dos tipos de activos, uno líquido y otro ilíquido. Esto se traduce en una rica heterogeneidad en la composición de la cartera de los hogares. En particular, el modelo se ajusta a la evidencia empírica al presentar una gran proporción de hogares con poca riqueza líquida: los hogares «mano a mano». De acuerdo con la evidencia empírica, aproximadamente dos tercios de estos hogares poseen cantidades no triviales de riqueza ilíquida, a pesar de tener poca riqueza líquida. Estos hogares se conocen como hogares ricos de mano a boca, un término introducido en un estudio de 2014 de políticas de estímulo fiscal por Kaplan y Violante.

La existencia de hogares ricos de mano a mano en los modelos neokeynesianos es importante para los efectos de la política monetaria, porque el comportamiento de consumo de esos hogares es muy sensible a los cambios en la renta disponible, en lugar de las variaciones en la tasa de interés (p. ej. el precio del consumo futuro en relación con el consumo actual). El corolario directo es que la política monetaria se transmite principalmente a través de los efectos de equilibrio general que funcionan a través de los ingresos de trabajo del hogar, en lugar de a través de la sustitución intertemporal, que es el principal canal de transmisión en los modelos de Agentes representativos New Keynesianos (RANK).

Hay dos implicaciones principales para la política monetaria. En primer lugar, la política monetaria interactúa fuertemente con la política fiscal, debido al fracaso de la equivalencia ricardiana debido a la presencia de hogares de mano a boca. En particular, los cambios en la tasa de interés alteran las restricciones presupuestarias del Gobierno, y la respuesta fiscal a este cambio afecta el ingreso disponible de los hogares. En segundo lugar, las perturbaciones monetarias agregadas no son neutrales desde el punto de vista de la distribución, ya que afectan al rendimiento del capital, que afecta de manera diferente a los hogares con diferentes niveles de riqueza y activos.



+