Download LA TEORÍA DE LOS CICLOS ECONÓMICOS

Document related concepts

Historia del pensamiento macroeconómico wikipedia , lookup

Nueva economía keynesiana wikipedia , lookup

Macroeconomía wikipedia , lookup

Curva de Phillips wikipedia , lookup

Robert Lucas wikipedia , lookup

Transcript
UNIVERSIDAD DE PANAMÁ
FACULTAD DE ECONOMÍA
Departamento de Teoría y Desarrollo Económico
FUNDAMENTOS DE ECONOMÍA: TEORÍAS Y ESCUELAS
Síntesis y Recopilación
Profesor:
Mgtr. Eduardo Valdebenito E.
Panamá 2011
ÍNDICE
Página
I. FUNDAMENTOS DEL PENSAMIENTO CLÁSICO………………………..
3
II. TEORÍA KEYNESIANA………………………………………………………
6
III. TEORÍA DE LOS CICLOS ECONÓMICOS………………………………
8
IV. TEORÍA MONETARISTA…………………………………………………..
9
V. LA NUEVA ECONOMÍA CLÁSICA…………………………………………
11
VI. TEORÍA DE LAS EXPECTATIVAS RACIONALES……………………..
15
VII. EL CICLO DE EQUILIBRIO………………………………………………
21
VIII. LA TEORÍA DEL CICLO REAL………………………………………….
22
IX. LA NUEVA ECONOMÍA KEYNESIANA…………………………………...
26
X. EL NEOINSTITUCIONALISMO……………………………………………..
28
XI EL PENSAMIENTO LATINOAMERICANO LA CEPAL………………….
35
BIBLIOGRAFÍA……………………………………………………………………
43
2
I.
FUNDAMENTOS DEL PENSAMIENTO NEOCLÁSICO
El periodo clásico se cierra en los primeros años de la década de 1870, cuando irrumpe en la
escena una nueva escuela que, denominada más tarde neoclásica, dominará la ciencia económica
hasta la década de 1930. La escuela neoclásica aporta una nueva teoría del valor (basada en la
utilidad de los bienes y no en el trabajo que incorporan) y un modelo, el de equilibrio económico
general, en el que todas las variables económicas consideradas relevantes (oferta, demanda y
precios de los bienes y servicios productivos) aparecen interrelacionadas en un sistema de
ecuaciones, cuya solución arroja unos valores que se denominan de equilibrio.
El conjunto de economistas neoclásicos desarrollaron, en la segunda mitad del siglo XIX, el
análisis marginal, complementando, profundizando y haciendo más general la teoría económica
creada por los clásicos. El concepto de utilidad marginal significó para la ciencia económica una
verdadera revolución que permitió comprender mucho mejor el proceso de intercambio, así
como la forma en que realizan sus elecciones económicas los consumidores y productores y el
modo en que se determinan los precios en el mercado.
Los neoclásicos no fueron una escuela en sí, como otras que se centraron alrededor de una figura
principal o se desarrollaron en una determinada universidad, sino un movimiento teórico que
contó con variados aportes independientes -no siempre perfectamente compatibles- que
realizaron personalidades y grupos de trabajo diferentes. Francis Ysidro Edgeworth (1845-1926),
Irving Fisher (1867-1947) y Alfred Marshall (1842-1924), en Inglaterra, junto con los
fundadores de la Escuela de Lausana y la Escuela Austriaca deben contarse entre sus figuras
principales.
Con los neoclásicos la economía adquirió la verdadera consistencia de una ciencia, pues se
desarrollaron sistemáticamente los aportes anteriores y se les dio a los nuevos aportes teóricos
una apropiada formalización matemática. Los primeros autores neoclásicos quisieron demostrar
que el principio de la utilidad marginal bastaba para deducir las razones de cambio entre
mercancías. Es decir, consideraron -en oposición a sus predecesores clásicos- que los valores de
uso de las mercancías explicaban -y no eran meramente condición necesaria como para aquelloslos valores de cambio.
Según Joseph Shumpeter (1883-1950) lo esencial de la nueva teoría era que "el análisis de la
utilidad marginal creaba una herramienta analítica de aplicabilidad general a los problemas
económicos" Además de ser fundamento del valor de cambio de los bienes de consumo -y servir
de base, por lo tanto, a la teoría de la demanda- "El principio de la utilidad marginal se aplica al
fenómeno del coste y a la lógica de la asignación de recursos", esto es al lado de la oferta del
problema económico. Porque para los marginalistas el valor de cambio de los medios de
producción -factores de producción- se explica por su utilidad indirecta, la que proporciona a
través del producto final a los consumidores.
La profundización del análisis por ese camino llevaría al concepto de productividad marginal de
los factores, fundamento más moderno de la retribución de los servicios productivos. Por ese
mismo camino establecieron la teoría del coste basada en el uso alternativo de los factores,
llamada teoría del costo de oportunidad. Partiendo del principio de utilidad marginal, León
3
Walras (1834-1910) creó un sistema de análisis económico que denominó el Equilibrio
Económico General (EEG). El EEG es un sistema económico estático -todas las variables toman
sus valores en un mismo tiempo t- en el que ciertas variables económicas (precios y cantidades
de bienes de consumo y de producción y de servicios productivos) aparecen interrelacionadas determinadas recíprocamente- en un sistema de ecuaciones simultáneas. Cuando ese sistema
determina un conjunto de valores de las variables que no muestran tendencia a variar por la
influencia de las propias relaciones incluidas en el sistema, decimos que el sistema está en
equilibrio.
LA LEY DE SAY
La ley de Say1 era, básicamente, la respuesta de la economía clásica al argumento de la
insuficiencia de demanda agregada utilizado por Jean Charles Leonard Simonde de Sismondi
(1773-1842) y Thomas Robert Malthus (1766-1834) para explicar la posibilidad de que una
situación de sobreproducción generalizada y desempleo de recursos productivos se extendiera
indefinidamente en el tiempo.
La ley de Say no dice que los productores puedan arriesgarse a ignorar las preferencias de los
consumidores. La idea que trata de transmitir esta ley es que los recursos productivos no
permanecerán indefinidamente ociosos por falta de demanda agregada. La ley de Say en relación
con el carácter automático del pleno empleo de recursos productivos representa uno de los
primeros intentos de aproximación al problema del equilibrio general en la economía (aunque
desde una perspectiva agregada).
Los planes de gasto de cada individuo coinciden siempre y en todo momento con sus
expectativas de ingreso. Esto, automáticamente, implica la identidad entre la oferta y la demanda
agregadas. Dicha identidad se conoce habitualmente como identidad de Say.
La identidad de Say no excluye la posibilidad de excesos de oferta (o de demanda) de carácter
local. Puede ocurrir que la gente deje de demandar un artículo y que quiera sustituirlo por otro.
Como consecuencia de ello nos encontraríamos con un exceso de oferta en un mercado
determinado y con un exceso de demanda en otro mercado. Pero estos desajustes acabarían
corrigiéndose a través de cambios en los precios relativos.
Los economistas clásicos se preocuparon de la formación de los precios, de la asignación de los
recursos y del crecimiento económico pero nunca prestaron mucha atención al problema del
pleno empleo de los recursos productivos. En general se pensaba que el mecanismo de la
competencia era suficiente para el logro del pleno empleo y que la infrautilización de los
recursos sólo podría ocurrir de modo transitorio. El único entre los clásicos que aceptó la tesis
del subconsumo y que no aceptó del todo el automatismo del pleno empleo fue de Malthus. Pero
Malthus no logró desarrollar un posición coherente. Por esta razón, sus ideas al respecto
desaparecieron de la corriente principal del pensamiento económico, hasta que John Maynard
Keynes (1883-1946) las rescató.
1
Jean Baptiste Say, economista francés que vivió entre los siglos XVIII y XIX, que presentó esta ley en su Traité
d’èconomie politique.El principio de la Ley de Say se resume en la expresión la oferta crea su propia demanda.
4
En general, dentro de la corriente principal del pensamiento económico, existió hasta la época de
Keynes la confianza en el carácter automático del pleno empleo. Y la base teórica de dicha
creencia fue durante mucho tiempo la ley de Say, de la cual se pretende derivar una tendencia al
pleno empleo de los factores de producción. Este resultado se presenta a menudo como algo
evidente. Pero ciertamente, y sobre todo, visto desde la perspectiva de la teoría económica actual,
no lo es. Al ceñirse a la identidad de Say es evidente que no se puede concluir nada acerca del
nivel de empleo de los factores productivos a partir de un supuesto de comportamiento como el
de la propensión marginal al gasto universalmente igual a uno. Tal supuesto sólo nos sirve para
excluir, prácticamente por definición, la posibilidad de que haya un exceso generalizado de
oferta o de demanda de bienes y servicios. Pero no dice nada acerca del nivel de empleo de los
recursos disponibles.
Los argumentos de John Stuart Mill (1806-1873) sobre la ley de Say no quedaron consolidados
del todo hasta bastantes años después. Hacia los años treinta del siglo XIX, el pensamiento
económico había logrado decantar las dos vías de conexión entre el sector real y el sector
financiero con bastante precisión. La obra de Johan Gustaf Wicksell (1851-1926) permitió
finalmente integrar ambos mecanismos y pudo demostrarse que la flexibilidad de precios y tipos
de interés aseguraba el equilibrio automático en el mercado de bienes y servicios; al mismo
tiempo que aseguraba la igualdad entre oferta y demanda de créditos y el equilibrio entre la
oferta de saldos monetarios y la demanda correspondiente. Pero quedaba aún por demostrar que
era posible un equilibrio simultáneo de los mercados de factores (pleno empleo de los recursos) y
de los otros tres mercados básicos: bienes y servicios, crédito y dinero.
Hasta la época de Keynes se admitió, prácticamente como un supuesto, que la competitividad de
los mercados de factores bastaba para garantizar la utilización plena de los mismos. De este
modo la producción de pleno empleo podía considerarse como un dato a medio plazo.
Implícitamente se estaba suponiendo la separabilidad de los mercados de factores. Y más
concretamente del único factor variable relevante en estos modelos agregados: el de trabajo. Esto
implicaba que se podía determinar un nivel de empleo que junto con el stock de capital
determinaba la oferta agregada de bienes y servicios.
Por otra parte, si las variaciones de los precios de los bienes y servicios y las variaciones del tipo
de interés garantizaban el equilibrio entre oferta y demanda agregadas, el resultado final era
claro: el nivel de producción de pleno empleo podía considerarse como un dato determinado por
la tecnología, el stock de capital y las condiciones del mercado de trabajo. La demanda agregada
podía considerarse como una variable que se adapta pasivamente a la oferta. Esto significa que
tanto la demanda como la oferta de trabajo dependen únicamente del salario real y no se ven
afectados por los tipos de interés ni por el valor de los activos Es decir, dado el nivel de empleo
determinado en el mercado de trabajo (nivel de pleno empleo), la oferta agregada (producción de
pleno empleo) se determina a través de la función de producción.
En torno a la ley de Say, se puede concluir que no explica el pleno empleo de los recursos en
ninguna de sus dos versiones. En su versión más primitiva (identidad de Say) introduce
restricciones innecesarias en el comportamiento de los agentes económicos y no logra explicar el
pleno empleo de los recursos. Y en su versión moderna (igualdad de Say) sólo nos dice que el
mercado de bienes y servicios tiende a equilibrarse juntamente con los mercados de crédito y de
5
dinero. En realidad la ley de Say no predice ninguna regularidad observable. Tan solo puede
decirse que la ley de Say expresa la confianza en que un sistema de precios libres va a ser
siempre capaz de coordinar todos los mercados y lograr el equilibrio simultáneo de todos ellos. Y
si todos los mercados están en equilibrio, eso quiere decir que el mercado de trabajo también lo
está: todo el que quiere trabajar (a los precios vigentes) está empleado y no hay desempleo.
A pesar de todo, la polémica que tuvo lugar a lo largo del siglo XIX en torno a ley de Say ha
desempeñado un papel importante en la historia del pensamiento económico. De hecho podemos
considerar que fue uno de los primeros intentos de aproximación al problema del equilibrio
general de la economía, aunque a un nivel muy intuitivo y desde una perspectiva excesivamente
agregada.
II.
TEORÍA KEYNESIANA
Con la publicación de la Teoría General del empleo, del interés y del dinero de Keynes en 1936
se consolida la macroeconomía como disciplina con identidad propia, si bien su origen hay que
situarlo más alejado en el tiempo. El amplio eco que tuvieron las ideas de Keynes se debió, en
buena medida, a su oportunidad histórica. Con anterioridad a esta fecha, la visión dominante de
lo que hoy denominamos macroeconomía, era la aproximación clásica de que en la economía,
ante cualquier perturbación, el mecanismo de mercado operaba de modo rápido y eficiente para
restaurar el equilibrio de pleno empleo. Frente a este enfoque clásico, Keynes ofreció una nueva
visión de la economía a través de su intento de explicar la realidad imperante en la época, que se
caracterizaba por un nivel de desempleo generalizado para el cual la teoría clásica no tenía
explicación.
El enorme éxito de las ideas de Keynes estuvo muy influenciado por el contexto económico de la
época. Así, en esta década se producen fenómenos económicos de gran importancia, como las
hiperinflaciones y las fuertes oscilaciones del ciclo económico, que en muchos países europeos
tuvieron consecuencias políticas y sociales dramáticas. Estas circunstancias estimularon el
interés de los economistas por el estudio de los ciclos económicos. Por otra parte, y quizás el
fenómeno más importante, fue la Gran Depresión que siguió al crash de 1929 y que fue
contagiándose con rapidez entre las diferentes economías. El volumen de desempleo y su
persistencia en las economías desarrolladas no podía ser explicado a través de los postulados
clásicos, ya que no parecía existir una tendencia natural de los mercados hacia el equilibrio. La
Teoría General ofrecía una interpretación de estos hechos y un marco teórico sólido con un claro
argumento a favor de la intervención del Estado en la economía.
Keynes (1936) desarrolló un nuevo y revolucionario paradigma teórico que produjo una gran
transformación en el pensamiento económico dominante hasta ese momento, que consistía en
una extensión al conjunto de la economía de los principios macroeconómicos clásicos. Los
postulados de Keynes constituyeron, frente a la ortodoxia dominante, una revolución que atacaba
el pilar fundamental del paradigma clásico: la tendencia automática hacia el pleno empleo. El eje
central de esta teoría era explicar y, por tanto, proponer una solución, al entonces importante y
permanente desempleo.
6
El aspecto principal del análisis keynesiano se fundamentaba en que la economía de mercado era
inherentemente inestable, provocando situaciones en las cuales el nivel de actividad se situaba
por debajo de su nivel óptimo, sin que el mercado por sí solo se recuperase. El nivel de
desempleo resultante tenía un carácter involuntario, y era el reflejo de una insuficiencia en el
nivel de demanda.
Dado que el mercado no garantizaba la vuelta al equilibrio, las principales implicaciones de este
análisis eran que las políticas monetaria y fiscal pueden corregir esta inestabilidad agregada que
exhiben las economías y, por tanto, ayudar a estabilizar la economía hacia su nivel de pleno
empleo.
En términos generales, los principales elementos que definen la revolución keynesiana son:
1. La no aceptación de la tendencia automática hacia el pleno empleo, al negar la Ley de
Say.
2. La dependencia del nivel de actividad y del nivel de empleo respecto a la demanda
efectiva.
3. El papel crucial que las expectativas juegan en un mundo con incertidumbres.
4. La concepción de los mercados como mecanismos rígidos e imperfectos, por lo que no se
produce el vaciado continuo de los mismos.
5. El papel esencial asignado a la política económica, destinada a influir sobre la demanda
efectiva de la economía.
Uno de los aspectos principales de las aportaciones de Keynes son los supuestos sobre la
información y el comportamiento de los agentes en los mercados. Keynes suponía que los
agentes no tenían información completa, existiendo un elevado grado de incertidumbre en la
economía, lo que provocaba problemas de coordinación en los mercados.
La existencia de estas incertidumbres llevó a Keynes a la conclusión de que las expectativas
sobre el futuro estaban sujetas a cambios repentinos, destacando la importancia de los instintos
animales (animal spirits). La incertidumbre también afectaba al mercado de dinero. Keynes
observó que los individuos mantienen como dinero una cantidad mayor de la que correspondería
a la realización de transacciones (demanda de dinero por motivo transacción), ya que la
incertidumbre provoca que los individuos mantengan dinero para prevenir gastos en el futuro, lo
que constituye una demanda de dinero por motivo precaución.
Por otra parte, el énfasis keynesiano en el desequilibrio sirvió de base para numerosas
contribuciones posteriores en torno a la rigidez de precios y la competencia imperfecta, que van a
tener una importante repercusión en la macroeconomía actual.
Keynes abordó el estudio de los comportamientos agregados desde una perspectiva alejada de la
microeconomía. Desde su punto de vista, el comportamiento agregado no podía ser explicado
por el comportamiento de los agentes económicos a nivel individual, dado que la suma de las
partes no es igual al todo. De este modo, rompió con la microfundamentación que condujo
directamente al equilibrio general walrasiano, planteando la posibilidad de enfoques puros
macroeconómicos liberados de un excesivo e innecesario rigor microeconómico. Podemos decir
7
que Keynes fue el origen de la dicotomía microeconomía-macroeconomía, dicotomía que ha ido
desapareciendo en los desarrollos más recientes de la macroeconomía. Sin embargo, y a pesar del
éxito de los postulados keynesianos, la teoría distaba de ser completa. No describía la
determinación de variables estratégicas como el salario nominal, que se suponen exógenas, al
tiempo que la incertidumbre también era considerada como exógena.
El modelo formulado por Keynes se refería a una economía cerrada. La apertura del modelo se
debe a Meade (1951), que lo extendió al caso de una economía abierta a través de la
consideración del comercio exterior. Meade introduce el análisis de la balanza de pagos en una
estructura macroeconómica explícita, siendo un precursor del enfoque Mundell-Fleming,
distinguiendo, por primera vez, el potencial conflicto entre el objetivo de equilibrio interno
(pleno empleo) y externo (estabilidad de la balanza de pagos).
III.
TEORÍA DE LOS CICLOS ECONÓMICOS
Una de las teorías más importantes en Economía, tiene que ver con los ciclos económicos, sin
embargo esta teoría fue olvidada e incluso refutada debido al gran avance de la economía
norteamericana de la década de los noventa. Se llaman ciclos económicos a las fluctuaciones de
la actividad global, caracterizada por la expansión o la contracción simultánea de la producción
en la mayoría de los sectores.
Una definición más actual del ciclo económico es aquélla que dice que hay ciclos económicos
cuando el producto nacional observado aumenta en relación al producto potencial -que es la
producción que alcanzaría un país si todos los recursos estuvieran empleados plenamente- (una
expansión) o disminuye en relación a él (contracción o recesión).
El comportamiento cíclico de la actividad económica se puede medir con muchas magnitudes no
sólo con la producción nacional, sino también con la tasa de inflación, la tasa de desempleo, el
número de quiebras, la creación de negocios, la medida del déficit público, etc. Los ciclos
económicos no son idénticos, tanto en lo que se refiere a su duración como a la intensidad; pero
estos movimientos, que en principio parecen erráticos, se pueden descomponer en movimientos
que constituyen una sucesión de fases ascendentes y descendentes.
Fases de los Ciclos Económicos:
Depresión crisis: Es el punto más bajo del ciclo: Se caracteriza por un alto nivel de
desempleo y una baja demanda de los consumidores en relación con la capacidad
productiva de bienes de consumo. Los precios bajan o permanecen estables. Los
beneficios empresariales descienden e incluso muchas empresas incurren en pérdidas. En
las últimas décadas se ha dado el fenómeno de inflación con estancamiento -estanflación, que se produce cuando coexisten la inflación y una situación de recesión de la actividad
económica.
Recuperación o expansión: Es la fase ascendente del ciclo: Se produce una renovación
del capital que tiene efectos multiplicadores sobre la actividad económica generando una
fase de crecimiento económico y por tanto de superación de la crisis.
8
Auge: Es el punto álgido de la fase de recuperación: Determina el momento en el que
bien por la existencia de rigideces o bien por haber alcanzado el pleno empleo en la fase
anterior se interrumpe el crecimiento de la economía.
Recesión: Es la fase descendente del ciclo: Es la fase en el que se produce una caída
importante de la inversión, la producción y el empleo. La recesión puede producirse de
forma suave o abrupta. En este último caso hablamos de crisis. El proceso se complica
cuando un elevado número de empresas entra en quiebra y arrastra a los proveedores
pudiendo llegar en algunos casos a lo que normalmente denominamos crisis.
Los ciclos económicos son una forma de fluctuación que se encuentra en la actividad económica
agregada de las naciones que organizan su trabajo principalmente en empresas; un ciclo consiste
en expansiones que ocurren al mismo tiempo en múltiples actividades económicas, seguidas de
recesiones del mismo modo generales. Las variables de los ciclos económicos se pueden
clasificar en: a) Pro cíclicas: Son las variables que tienden a subir durante las expansiones
económicas y a caer en las contracciones económicas, b) Contra cíclicas: Tienden a crecer
durante las caídas y a caer durante las expansiones, y c) Acíclicas: Que son las variables que no
se mueven según el ciclo económico.
Otra clasificación que se puede hacer de los ciclos depende de su duración:
Ciclos Largos: Varias Décadas
Ciclos de mediana intensidad: Cinco años
Ciclos cortos: Meses a pocos años
Existen muchas explicaciones del porque se dan los ciclos económicos, lo único cierto es que la
economía se mueve mucho por las expectativas y las variables monetarias pueden influir en gran
medida sobre las economías, por lo tanto es difícil siempre determinar causas de auges o de
recesiones. No hagamos caso a quienes explican los fenómenos únicamente por una sola
variable. La realidad siempre será más compleja.
IV.
TEORÍA MONETARISTA
En los años 40 y 50, la ortodoxia keynesiana entonces prevaleciente enfatizaba que las
perturbaciones reales de demanda eran la principal causa de las fluctuaciones en el dinero y, en
la renta nominal, fundamentalmente a través de cambios en la renta real. El ataque a la síntesis
va a provenir principalmente de los monetaristas, que si bien compartían la mayoría de los
supuestos básicos del modelo, sus recomendaciones de política económica eran totalmente
diferentes. El término monetarismo fue introducido por Brunner (1968) para definir esta
corriente de pensamiento opuesta a los keynesianos en los años 50 y 60.
Entre las aportaciones de la corriente monetarista destacan, en primer lugar, los estudios de
Milton Friedman y Schwartz (1963) y Laidler (1976), sobre los efectos de la política monetaria,
9
y en particular, la relación entre oferta monetaria e inflación. Una de las características
principales es que los monetaristas asignan mucha más trascendencia a la política monetaria que
a la política fiscal. Como consecuencia, previenen contra la utilización discrecional de dichas
políticas dado que pueden provocar efectos contrarios a los esperados, recomendando el uso de
una política de reglas estables. Friedman y Schwartz (1963) analizando las mayores recesiones
sufridas por la economía norteamericana durante el periodo 1867-1960, interpretan que los
cambios en la cantidad de dinero han sido los causantes de la mayoría de las recesiones.
Friedman presentó su famosa restauración de la teoría cuantitativa del dinero como una teoría de
la demanda de dinero en vez de una teoría del nivel general de precios. Argumenta que la
demanda de dinero es una función estable, lo que se va a convertir en uno de los pilares
fundamentales de la moderna teoría cuantitativa. Si la demanda de dinero es una función estable,
también lo es la velocidad de circulación, por lo que pueden predecirse sus cambios si se altera
alguna de las pocas variables que determinan su función de demanda.
En segundo lugar, es necesario hacer referencia a los importantes trabajos llevados a cabo por
Friedman (1968) y Phelps (1968) sobre la curva de Phillips, curva que modifican a través de la
introducción de expectativas sobre la inflación futura, dando lugar a la denominada curva de
Phillips aumentada, que se utiliza para explicar el fenómeno de la estanflación, y que se va a
traducir en la denominada hipótesis aceleracionista. Una política económica expansiva de efectos
inflacionistas que es anticipada por los agentes económicos, provoca un reajuste en sus
expectativas, por lo que el costo en términos de inflación de reducir el desempleo crece en el
tiempo.
Friedman niega la existencia de un cambio a largo plazo entre desempleo e inflación al tiempo
que introduce la hipótesis de la tasa natural de desempleo. La base de esta hipótesis es la
reafirmación del punto de vista clásico de que en el largo plazo las variables nominales no
pueden afectar a las variables reales, tales como el nivel de producción y el empleo.
Friedman argumenta que la demanda y la oferta de trabajo deben ser especificadas en términos
reales y no en términos nominales, siguiendo el análisis microeconómico neoclásico, por lo que
la curva de Phillips se aumenta con la introducción de la tasa esperada de inflación, como una
variable adicional que determina el cambio en el salario nominal. Las implicaciones de la curva
de Phillips aumentada van a ser muy importantes.
Así, las autoridades pueden reducir la tasa de paro por debajo de su nivel natural únicamente en
el corto plazo y sólo en el caso de que la inflación no sea anticipada perfectamente por lo
agentes, por lo que cualquier intento de mantener el desempleo por debajo de su nivel natural de
forma permanente únicamente provocará una aceleración en la tasa de inflación. Esto elimina la
posibilidad de utilizar políticas de demanda expansivas, por lo que las únicas políticas que
pueden reducir el nivel de desempleo son aquellas que provocan mejoras en la estructura y
funcionamiento del mercado de trabajo y de la industria. De este modo, la tasa de paro natural es
compatible con cualquier tasa de inflación, que viene determinada por la tasa de crecimiento de
la cantidad de dinero.
10
V.
LA NUEVA ECONOMÍA CLÁSICA
Durante la década de los 70, la Nueva Economía Clásica se convierte en el principal enfoque
macroeconómico, sustituyendo de este modo al monetarismo como el principal rival de la visión
keynesiana. Como ya hemos comentado, la síntesis neoclásica fue puesta en tela de juicio desde
diversos ángulos, y los defectos teóricos y las limitaciones de las hipótesis en las que se
fundamenta se hacen cada vez más patentes. La importancia de este nuevo enfoque radica en que
propone una nueva forma de hacer economía, que podemos considerarla como una revolución
con respecto a la macroeconomía que se venía haciendo hasta este momento y, que está basada
en criterios de coherencia, fundamentación estricta y formalización. En términos generales,
intentaron trasladar la coherencia de la que gozaba la microeconomía a la macroeconomía, en la
que ésta estaba ausente. Para alcanzar dicha coherencia se partía de la hipótesis de racionalidad
de los agentes económicos, utilizando la metodología de la optimización condicionada dinámica
y estocástica.
Los diferentes trabajos recogidos en el libro editado por Phelps (1970) marcaron un hito en la
reformulación de los microfundamentos de la macroeconomía, tendiendo un sólido puente para
la vuelta de los principios macroeconómicos clásicos.
Esta nueva forma de hacer macroeconomía se caracterizaba por los siguientes elementos:
1. En primer lugar, los modelos macroeconómicos se construían a partir de la conducta de
agentes racionales, que optimizan sus decisiones en un entorno estocástico y dinámico.
2. En segundo lugar, los modelos de la nueva economía clásica son walrasianos en el
sentido de que los mercados están en equilibrio en cada momento del tiempo, dado que
todas las posibles ganancias del comercio han sido explotadas y que la utilidad ha sido
maximizada.
3. En tercer lugar, estos modelos incorporan una oferta agregada basada en dos supuestos
microeconómicos ortodoxos: las decisiones racionales tomadas por los trabajadores y las
empresas en términos de su comportamiento optimizador y, en segundo lugar, que la
oferta de trabajo y el nivel de producción de las empresas dependen de los precios
relativos (Lucas, 1972, 1973).
4. La econometría también debía revisarse, para incorporar la condición de coherencia. De
este modo, las expectativas no pueden definirse de modo arbitrario, en términos de los
valores pasados de las variables relevantes, sino que deben presentarse como verdaderas
expectativas racionales sobre el futuro. Sin embargo, estas expectativas se basan en las
reglas de política de los gobiernos, de modo que un cambio de estas reglas modifica el
comportamiento de los agentes y, por tanto, también de los parámetros del modelo, por lo
que éstos no pueden usarse para analizar los efectos de las políticas económicas (crítica
de Lucas).
El resultado de este planteamiento es en buena parte el contenido de la macroeconomía actual, si
bien su importancia radica en el cambio que supuso en el modo de hacer macroeconomía y que
11
ha tenido importantes consecuencias en el nacimiento y desarrollo de otras escuelas de
pensamiento económico. En cuanto a los supuestos básicos de esta corriente de pensamiento
podemos agruparlos en relación a la conducta de los agentes, a los mercados y los supuestos
metodológicos.
Con respecto a la conducta de los agentes económicos, que mantienen los supuestos neoclásicos
tradicionales.
En primer lugar, los agentes económicos son decisores racionales, lo que equivale a la
maximización de una función de pagos dinámica (función de utilidad en el caso de los
consumidores o de beneficios, beneficios esperados o valor de mercado, en el caso de las
empresas), sujeta a determinadas restricciones, que vienen dadas por los precios de bienes y
factores, las dotaciones de recursos, las tecnologías de producción, la información y las
restricciones presupuestarias intertemporales. En la mayoría de los casos se utiliza el supuesto
del agente representativo, lo que elimina problemas de distribución.
En segundo lugar, los agentes no se dejan llevar por la ilusión monetaria, es decir, toman sus
decisiones de acuerdo con variables reales (pasadas, presentes o futuras). Esto implica que los
cambios en precios nominales no afectan a las decisiones de los agentes (Plosser, 1989). Estas
incluyen, además de variables reales, sólo las sorpresas o cambios no esperados de variables
nominales, lo que constituye la base de la curva de oferta a la Lucas, (Lucas, 1973).
En tercer lugar, las expectativas se forman racionalmente, es decir, utilizando toda la
información disponible y no cometiendo errores sistemáticos.
En cuarto lugar, la información no siempre es completa, ya que conseguirla puede resultar
costoso. En todo caso se utiliza óptimamente y no es asimétrica, lo que elimina los problemas de
selección adversa o riesgo moral.
En cuanto a los mercados, se supone que se vacían continuamente, dada la flexibilidad de
precios, al tiempo que se supone la existencia de competencia perfecta en todos los mercados.
Esto implica que, en horizonte infinito, un equilibrio intertemporal con expectativas racionales
sea una asignación eficiente en el sentido de Pareto.
Por último, en cuanto a los supuestos metodológicos, los modelos deben tener siempre una
fundamentación microeconómica estricta, es decir, deben basarse en la conducta optimizadora de
los agentes racionales. De este modo, los parámetros de las ecuaciones reducidas se podrán
expresar siempre en términos de lo que no cambia, lo que evita la crítica de Lucas. Asimismo, las
expectativas deben ser introducidas de forma coherente en el modelo, lo que se cumple si son
racionales, al tiempo que los modelos deben ser dinámicos, ya que, dadas las funciones a
maximizar y las restricciones intertemporales a que se someten, las decisiones de los agentes se
verán influidas por variables en distintos momentos del tiempo.
Por último, los modelos deben ser de equilibrio general, ya que las reglas de decisión de un
agente serán las restricciones de otro, es decir, se han de tener en cuenta las interrelaciones entre
los agentes económicos.
12
Principales contribuciones teóricas
Las principales contribuciones teóricas que se van a realizar dentro de esta corriente de
pensamiento incluyen la incorporación sistemática de las expectativas racionales en los modelos
macroeconómicos, la formulación de ofertas agregadas con fuertes microfundamentos, la crítica
de Lucas para evaluar las consecuencias de medidas de política económica alternativas, el
principio de inefectividad de las políticas anticipadas, la inconsistencia temporal de las políticas
y los modelos de ciclo de equilibrio y del ciclo real.
Combinando la hipótesis de la tasa natural de desempleo de Friedman y Phelps con el supuesto
de equilibrio continuo de los mercados y la hipótesis de expectativas racionales, Lucas demostró
de forma rigurosa que la curva de Phillips a corto plazo podía mantenerse si la inflación era no
anticipada debido a la existencia de información incompleta.
El modelo básico de oferta agregada de la nueva escuela clásica fue introducido por Lucas y
Rapping (1969). Se trataba de un modelo en el que los trabajadores deciden la asignación de su
tiempo entre trabajo y ocio, de manera que las expectativas acerca del salario real futuro generan
sustituciones intertemporales. Así, por ejemplo, si los trabajadores esperan un salario mayor en el
futuro, esto les supone un incentivo a trabajar menos en el momento actual a cambio de trabajar
más en el futuro, cuando es más rentable. Por tanto, la oferta de trabajo y, a su vez, la oferta
agregada dependen de las expectativas acerca del salario real futuro.
Otra característica de la oferta agregada de los nuevos clásicos es la forma en que las empresas
procesan las señales del mercado. Bajo incertidumbre, las empresas no pueden distinguir con
certeza si los cambios observados en su propio precio reflejan cambios en el índice general o
cambios en el precio relativo, por ejemplo, derivados de cambios en la demanda del bien. La
respuesta óptima de la empresa es diferente según sea el caso: en el primero no debería modificar
su nivel de producción, mientras que en el segundo si lo debería hacer. Por tanto, incrementos en
el índice general de precios que no son anticipados generan respuestas positivas en la producción
de carácter transitorio. Sólo las sorpresas en los precios provocan cambios en la oferta agregada.
De ahí que se la denomine como la función de oferta sorpresa de Lucas (Lucas, 1972, 1973).
La combinación de las hipótesis de expectativas racionales, equilibrio continuado de los
mercados y la oferta agregada a la Lucas tiene importantes consecuencias sobre los efectos de la
política económica.
En primer lugar, la proposición de la inefectividad de las políticas. Este principio señala que una
política perfectamente anticipada es incapaz de afectar al nivel de actividad económica, incluso
en el corto plazo. Los primeros en ilustrar este principio fueron Sargent y Wallace (1975, 1976),
quienes indicaron que si los agentes incorporan en sus expectativas los efectos futuros de un
anuncio de política económica, no hay posibilidad de sorprenderlos y, por tanto, no habrá
variaciones transitorias ni en el salario real ni en la producción si se llevan a cabo políticas
económicas sistemáticas. Por el contrario, si las autoridades sorprenden a los agentes con
medidas no anunciadas, empresas y trabajadores interpretarán el aumento en los precios como un
aumento de la demanda de sus servicios, por lo que aumentará transitoriamente la oferta de
trabajo y de bienes. Un agente económico que sea racional tendrá en cuenta cualquier regla
13
monetaria conocida en la formación de sus expectativas, por lo que estos modelos predicen que
las autoridades serán incapaces de afectar al nivel de producción y al empleo, incluso en el corto
plazo, si llevan a cabo una política monetaria sistemática. Cualquier intento de afectar al nivel de
producción y al empleo a través de políticas monetarias no sistemáticas, sólo conseguirá
aumentar la variabilidad del nivel de producción y del empleo alrededor de su nivel de equilibrio.
La conclusión a la que llegan es que las reglas fijas de política monetaria son perfectamente
anticipadas por los agentes y no tienen efectos reales, mientras que las políticas discrecionales
que sorprenden a los agentes tienen efectos transitorios y sólo consiguen incrementar la
volatilidad de la producción en torno a su nivel de equilibrio.
Si la única política que puede ser efectiva es la que sorprende a los agentes, su diseño deja de ser
un problema de control óptimo, tal y como había sido formulado por Tinbergen (1952), para
pasar a ser un juego estratégico entre las autoridades y el resto de agentes que integran la
economía. Como consecuencia, los nuevos clásicos plantean el análisis de la política económica
a través del esquema de análisis que proporciona la teoría de juegos. Si se plantea la política
como un juego repetido entre autoridades y agentes económicos, la reputación, la credibilidad y
la consistencia temporal de estas políticas son requisitos para su eficacia.
En segundo lugar, el tema de la credibilidad de las políticas económicas. Contrariamente a los
postulados de los monetaristas y keynesianos, el enfoque nuevo clásico apunta a que en el
momento en que se anuncia una contracción monetaria creíble, los agentes económicos
racionales revisarán inmediatamente a la baja sus expectativas de inflación, permitiendo a las
autoridades reducir la inflación a un menor coste. Sólo en el caso en que dicho anuncio no tenga
credibilidad, se producirá un coste en términos de nivel de producción y empleo. Por otra parte,
en el caso en el que las autoridades tengan un poder discrecional con respecto a las políticas
económicas y, en consecuencia puedan existir incentivos a incumplir sus anuncios, las políticas
anunciadas pueden perder credibilidad.
En tercer lugar, otro de los desarrollos es el referente a la inconsistencia temporal dinámica de la
política monetaria, que está relacionada con la credibilidad de la misma, concepto que fue
introducido por Kydland y Prescott (1977) en apoyo de la concepción de que la política
monetaria debería ser instrumentada a través de reglas en contra de la implementación de una
política discrecional. Kydland y Prescott (1977) sostienen que la política económica es un juego
dinámico entre el gobierno y el sector privado. Si las autoridades económicas anuncian una
determinada política, que en el momento del anuncio consideran como óptima y ésta es creíble,
el sector privado ajusta consecuentemente su conducta. Sin embargo, llegado el momento de
instrumentar dicha política, las autoridades pueden renunciar a sus planes, por la existencia de un
nuevo contexto económico. A esta diferencia entre el criterio de optimalidad ex-ante y ex-post se
le denomina inconsistencia temporal. Los agentes racionales, por tanto, deberán considerar la
credibilidad de las medidas de política, para no verse luego sorprendidos por un cambio en la
decisión. Al igual que Friedman y Lucas, Kydland y Prescott sugieren que las mejores políticas
son las de reglas fijas, por ser las que mayor credibilidad pueden ofrecer.
Otro de los desarrollos importantes, asociado al trabajo de Barro (1974, 1989a, 1989b), es el que
da lugar al debate del teorema de la Equivalencia Ricardiana, que supone la inefectividad de
cambios en los impuestos como instrumento de estabilización. De acuerdo con este teorema, una
14
disminución de impuestos hoy no provoca cambios en el nivel de consumo, ya que los agentes
anticipan un aumento de los impuestos en el futuro con el objeto de pagar los intereses y el
principal de la deuda. Por tanto, el hecho de que el gobierno financie un déficit público a través
de la emisión de deuda pública o vía incremento de impuestos (no distorsionadores), no afecta a
las decisiones de los agentes. De ahí que también se le denomine el teorema de la irrelevancia de
la forma de financiación del déficit público. Este modelo ha sido extendido al caso de una
economía abierta por Stockman (1980), Lucas (1982) y Frenkel y Razin (1987).
Por último, es necesario hacer una breve referencia a los desarrollos relacionados con qué tipo de
política deben llevar a cabo las autoridades para incrementar el nivel de producción y reducir el
desempleo de forma permanente. Como los cambios en la producción y el empleo se supone
reflejan las decisiones de equilibrio en términos de la oferta que realizan las empresas y los
trabajadores dada su percepción sobre los precios relativos, de este enfoque se deriva que las
medidas de política más apropiadas para aumentar el nivel de producción y el empleo son
aquellas que aumentan los incentivos de las empresas a ofrecer una mayor producción y a los
trabajadores a ofrecer una mayor cantidad de trabajo.
VI.
TEORÍA DE LAS EXPECTATIVAS RACIONALES
Los años 70 fueron la década de la revolución de las expectativas racionales, que va a tener
importantes consecuencias en el desarrollo de la macroeconomía. El concepto de expectativas
racionales fue planteado inicialmente por Muth (1961) sobre el que tuvieron una gran influencia
los trabajos anteriores de Hahn (1952) y Simon (1955, 1956). Hahn (1952) desarrolló la noción
de expectativas semiracionales, introduciendo unas predicciones que estaban a medio camino
entre las expectativas adaptativas y las racionales. Por su parte Simon (1955, 1956), desarrolló la
teoría de la racionalidad limitada, que enfatiza la limitada capacidad de cálculo de los agentes
económicos en la toma de sus decisiones, resultado conocido como de equivalencia cierta.
Muth, en un contexto microeconómico, sugiere que al ser las expectativas predicciones
informadas de sucesos futuros, deben coincidir con las predicciones de la teoría económica. En
otras palabras, los agentes económicos formarán expectativas subjetivas en relación a las
variables económicas futuras, las cuales son equivalentes a la expectativa matemática
condicional verdadera de dichas variables. Por tanto, contrariamente a otros mecanismos de
formación de expectativas (adaptativas, etc.), las expectativas son racionales sólo si utilizan toda
la información disponible por el individuo, incluido el modelo más adecuado para la explicación
de la variable. Por tanto, los valores futuros de las variables se pueden descomponer en dos
partes: el componente anticipado y el no anticipado o error de predicción. Si las expectativas son
racionales, este error de predicción tiene unas determinadas características estadísticas (media
cero, independencia de toda información pasada), que pueden ser utilizadas para calibrar la
eficiencia de los mercados.
En un modelo con variables endógenas y exógenas, se puede formular el concepto de
expectativas racionales como las estimaciones no sesgadas de las variables endógenas en las que
toda la información relativa a los valores de las variables exógenas es conocida, y se utiliza para
realizar la predicción. Contrariamente a las expectativas adaptativas, que presentan la posibilidad
15
de errores de predicción sistemáticos, la hipótesis de expectativas racionales asimila el error de
predicción al componente aleatorio del proceso generador de la variable. Como dicho
componente no presenta una regla de comportamiento determinada, tampoco la presentará el
error de predicción. La idea fundamental sobre la que descansa la hipótesis de las expectativas
racionales es que los individuos obtienen un conjunto de información que usan en la formación
de sus expectativas. Su conducta sobre la adquisición y utilización de la información se rige por
el principio de la maximización de la utilidad, de modo que adquieren nueva información o
utilizan la disponible de una manera más eficiente si es rentable.
Por tanto, las expectativas sobre el futuro están basadas en información tanto pasada como
actual. Sin embargo, la simple observación no es suficiente. Los agentes económicos necesitan
disponer de algún modelo formal, que usan para transformar su observación y el conjunto de
información disponible en predicciones sobre el futuro. Bajo el supuesto de que los agentes
conocen el verdadero modelo que gobierna la economía, lo que es equivalente a suponer que el
proceso de aprendizaje de sus experiencias pasadas es completo, las expectativas que obtengan
únicamente divergirán de la realidad por perturbaciones totalmente aleatorias, que no han podido
ser incorporadas al conjunto de información disponible en el momento de realizar la predicción.
Esto supone que el error de predicción no presenta correlación con el conjunto de información
disponible. Si existiese alguna correlación, el agente racional debería incluirla en la formación de
sus expectativas. En este razonamiento está implícito el hecho de que el agente económico no
cometerá errores sistemáticos. Estos errores sistemáticos pueden ocurrir en el proceso de
aprendizaje, pero esto es debido a que aún no se ha aprendido el verdadero modelo que gobierna
la economía.
El error de predicción que se cometa va a depender fundamentalmente de la varianza del
componente aleatorio. En el caso en que la varianza se aproxime a infinito, la variable objetivo
será impredecible. Sin embargo, con expectativas racionales la varianza será menor que con
cualquier otro modelo de predicción, por lo que es el método más eficiente en la formación de
expectativas.
Existen dos versiones de expectativas racionales. La débil, que considera las expectativas
racionales como las expectativas condicionales, que es la versión más usada en la defensa de las
expectativas racionales, y que sugiere que los agentes utilizan en la formación de sus
expectativas toda la información disponible que estiman merece la pena analizar, y la versión
fuerte que las considera como las distribuciones de probabilidad condicional. En la mayoría de
modelos, en los que se supone que los agentes son neutrales al riesgo, el único criterio relevante
para sus decisiones es el valor medio de la distribución subjetiva de resultados, por lo que la
versión de expectativas racionales adecuada es la débil. Por el contrario, en los modelos de
mercados financieros, la varianza de la distribución juega un papel fundamental en la toma de
decisiones, por lo que la versión adecuada en este caso es la fuerte.
La hipótesis débil de expectativas racionales es esencialmente un concepto de equilibrio:
depende del comportamiento individual y del equilibrio del mercado. Supone que los agentes
hacen predicciones informadas de los precios futuros, es decir, predicciones basadas sobre un
modelo correcto de la economía. Un equilibrio con expectativas racionales es esencialmente el
16
único concepto de equilibrio consistente en el sentido de que las expectativas de los agentes se
autosatisfacen (self-fulfilling forecast).
Aunque en principio, la hipótesis de las expectativas racionales se desarrolló en un contexto
microeconómico, existían determinados elementos que iban a permitir una fructífera integración
en el campo del análisis macroeconómico, con importantes consecuencias sobre su desarrollo
futuro. Así, la macroeconomía de principios de los años 70 se enfrentaba al fenómeno de la
estanflación y al aparente aumento de la inestabilidad de la curva de Phillips. Por otra parte, la
hipótesis de las expectativas adaptativas, asociada fundamentalmente al trabajo de Cagan (1956),
que había posibilitado una adecuada modelización de las expectativas en el contexto de
estabilidad de precios de las décadas de los 50 y 60, ya no era válida en un contexto de
aceleración de la inflación, tal y como ocurría en los 70.
Estos factores, entre otros, llevaron a que la hipótesis de las expectativas racionales se convirtiera
en uno de los ejes fundamentales del desarrollo de la macroeconomía, principalmente en lo que
respecta a la corriente de pensamiento que se denominó Nueva Economía Clásica.
El concepto de expectativas racionales tiene una implicación transcendental para la modelización
macroeconómica. La mayor parte de las decisiones de consumo y producción tienen una
naturaleza intertemporal y, por tanto, los eventos presentes y futuros son determinantes de las
mismas. Cuando aparece nueva información relevante, los agentes modifican sus decisiones. Sin
embargo, sólo la parte no anticipada de esa nueva información genera cambios en la conducta de
los individuos, de forma que un fenómeno perfectamente anticipado no tiene efectos en el
momento en que ocurre, al haber sido ya tenido en cuenta en las decisiones tomadas
anteriormente por los individuos. Por tanto, en un modelo con expectativas racionales se hace
necesario cualificar la naturaleza de las perturbaciones a las que está sometida la economía,
distinguiéndose entre perturbaciones anticipadas y no anticipadas, transitorias y permanentes y
nominales y reales.
Si bien la hipótesis de las expectativas racionales fue desarrollada por Muth a principios de los
años 60, tuvo que transcurrir una década antes de que adquirieran protagonismo en la
macroeconomía, cuando la Nueva Economía Clásica atacó a la macroeconomía tradicional. De
hecho, el principal argumento de este ataque se basó en que la economía keynesiana había
olvidado las implicaciones de la influencia de las expectativas sobre el comportamiento de los
agentes económicos, en contra del pensamiento del propio Keynes, que otorgaba un papel
fundamental a las mismas. Por el contrario, sostenían que lo correcto era suponer que los agentes
formaban sus expectativas de la forma más racional posible, basándose en toda la información
disponible. Este razonamiento va a tener tres implicaciones fundamentales.
En primer lugar, la hipótesis de expectativas racionales va a llevar a una de las principales
críticas de la Nueva Economía Clásica sobre el modelo de la síntesis, la denominada crítica de
Lucas. Lucas (1976) critica el uso de grandes modelos macroeconométricos para predecir las
consecuencias de medidas alternativas de política económica, ya que estos ejercicios de
simulación están basados en el supuesto de que los parámetros del modelo son invariantes a los
cambios de política, si bien esta idea ya fue avanzada por Keynes. De esta forma, Lucas
argumenta que los modelos de corte keynesiano, al no incorporar explícitamente las expectativas,
17
son formas reducidas de los modelos estructurales que sí las toman en consideración. Por tanto,
los parámetros de estos modelos cambian al mismo tiempo que los agentes económicos ajustan
sus expectativas y comportamiento al nuevo escenario de política económica.
En segundo lugar, cuando se introducían las expectativas racionales en los modelos keynesianos
se llegaba a la conclusión de que las desviaciones en la producción y el empleo respecto a su tasa
natural eran mucho más breves de lo que se suponía (el ajuste lento de los precios y salarios a
través de la curva de Phillips). Según Lucas (1973), este ajuste dependía del hecho erróneo de
que los encargados de fijar los salarios formaban sus expectativas de inflación mirando al
pasado, cuando lo que influía en la producción eran las alteraciones no anticipadas en la cantidad
de dinero.
Por último, si los agentes forman sus expectativas de forma racional, no se puede concebir a la
política económica como el control de un sistema complejo pero pasivo. Por tanto, había que
concebirla como un juego entre las autoridades económicas y el resto de agentes que conforman
la economía, por lo que sus efectos van a depender de la reacción de estos últimos ante la misma.
Como veremos a continuación, las expectativas racionales no sólo constituyeron uno de los
supuestos fundamentales sobre los que se asentaron los desarrollos de la Nueva Economía
Clásica, sino que también fueron incorporadas en los desarrollos de la Nueva Economía
Keynesiana.
Los desarrollos que introdujeron la hipótesis de las expectativas racionales fueron muy
numerosos. Por ejemplo, en el lado de la demanda agregada, Hall (1978) y Flavin (1981) la
introducen en la teoría de la renta permanente del consumo, mientras que Abel (1982) y Hayashi
(1982) la introducen en la función de inversión. Por otra parte, Barro (1974) la incorpora en el
análisis del efecto de la financiación del déficit público, obteniendo el teorema de la equivalencia
ricardiana. Por ejemplo, Hall (1978) considerando las expectativas racionales obtiene que la
única variable explicativa para el consumo de un periodo es el consumo en el periodo anterior,
sin que el resto de variables tenga poder explicativo. Las desviaciones que se producen respecto
a dichas previsiones están ocasionadas por la llegada de nueva información sobre la renta, lo que
da lugar a que el consumo siga un paseo aleatorio.
Asimismo, la hipótesis de las expectativas racionales no sólo va a generar grandes cambios en
los modelos de economías cerradas, sino que también va a tener importantes consecuencias en la
macroeconomía internacional, en concreto, en la modelización del tipo de cambio. Dornbusch
(1976), en su modelo de desbordamiento del tipo de cambio, demostró que las grandes
variaciones del tipo de cambio ante pequeños cambios en sus fundamentos (sobrerreacción), que
antes se consideraban ocasionadas por la especulación de inversores irracionales, en realidad
eran totalmente consistentes con la racionalidad.
Por otra parte, los keynesianos incorporaron también las expectativas racionales pero intentaron
demostrar que la existencia de expectativas racionales por sí sola no garantizaba el equilibrio
automático de los mercados. Fischer (1977) y Taylor (1979) demostraron que a pesar de que
existiesen expectativas racionales dentro del mercado de trabajo, las decisiones no sincronizadas
y escalonadas sobre los salarios y los precios podían originar ajustes lentos de los precios y de
los salarios en respuesta a variaciones en el empleo. La existencia de contratos a largo plazo
18
sobre precios y salarios impiden el ajuste instantáneo de los mismos ante una perturbación, aún
en el caso en que sean perfectamente anticipadas por los agentes racionales. Sólo al término de la
vigencia de estos contratos, los precios y salarios podrían ajustarse ante la perturbación, por lo
que en dicho periodo de tiempo la política económica podía afectar al nivel de producción y
empleo.
La potencialidad de las expectativas racionales como instrumento teórico radica en el uso
eficiente de la información y en la ausencia de errores sistemáticos en la formación de dichas
expectativas. No obstante, y a pesar de haber constituido una de las revoluciones de la teoría
económica ha sufrido fuertes críticas. En primer lugar, se argumenta que las expectativas
racionales exigen supuestos no realistas, al considerarse que los agentes económicos no son tan
previsores como la teoría supone, como pone de manifiesto la existencia de conductas
automáticas o basadas en reglas predeterminadas. No obstante, se puede contra argumentar que
una conducta regida por la costumbre no tiene por qué ir en contra de criterios de formación de
las expectativas de modo racional, mientras no aparezcan novedades en el conjunto de
información. Además, no es necesario que todos los agentes actúen de ese modo; basta que unos
cuantos se aprovechen de los errores sistemáticos de los demás y obtengan beneficios
extraordinarios en sus estimaciones para que se difunda la información necesaria y las conductas
del agregado se aproximen a las que suponen las expectativas racionales (darwinismo
económico). Del mismo modo, la existencia de agentes no racionales en la formación de sus
expectativas no es una crítica definitiva, si éstos no pueden imponer sus predicciones (ya que los
agentes racionales aprovecharían las oportunidades de beneficios extraordinarios que aquellos les
ofrecerían).
A la hora de discutir la formación de expectativas, estamos enfrentando tres niveles de
razonamiento:
a) En el más general, exigimos que los supuestos del modelo sean compatibles con el
modelo mismo; esta es la base de la crítica de Lucas y de su concepto de expectativas
racionales.
b) En segundo lugar, suponemos que los agentes utilizan racionalmente toda la información
disponible y no cometen errores sistemáticos; se trata pues, de un supuesto
extraeconómico, de naturaleza antropológica, cuya falsación debe llevarse a cabo en ese
nivel, no en el de la evidencia empírica.
c) Finalmente, cuando introducimos las expectativas racionales en un modelo concreto, la
exigencia de coherencia implica que sometamos las expectativas a las mismas reglas del
modelo, lo que equivale a suponer que los agentes actúan como si resolviesen el modelo;
pero esta no es una exigencia de las expectativas, sino de la coherencia de la construcción
teórica.
Al argumentar de esta manera estamos resolviendo, en cierta medida, también otras críticas
dirigidas a la formación de expectativas según el criterio de racionalidad, como las que sostienen
que la capacidad de cálculo del agente medio es mucho menor que la que se necesita para
resolver el modelo del economista, o la que hace notar que los economistas no conocen el
modelo de la economía, ni pueden afirmar que este modelo exista, ni que sea único, por lo que
19
difícilmente se podrá pretender que los agentes económicos actúen como si resolviesen un
modelo que los expertos no conocen, ni saben resolver, y que incluso es probable que no exista.
En todo caso, sigue siendo necesario que el economista, al elaborar su modelo, sea consciente de
que debe imponer restricciones a sus parámetros y a los caracteres estocásticos de sus variables,
para que sean consistentes con las expectativas racionales. Como ha señalado Lucas (1987), las
expectativas racionales se refieren a la consistencia de un modelo, es decir, son específicas a
dicho modelo, y cambian cuando se cambia el modelo, porque hacen referencia a la coherencia
del modelo (coherencia entre los supuestos del modelo y los de las expectativas formadas dentro
del mismo). Si los agentes forman sus expectativas racionalmente, y toman en consideración la
estructura del modelo en cuestión, endogenizan la formación de expectativas, si bien tal y como
ha demostrado Bénassy (1992) el esquema de expectativas racionales no lleva siempre a la
maximización de la utilidad.
En segundo lugar, se argumenta que los agentes no tienen incentivos para buscar la información
necesaria. Grossman (1976, 1978) y Grossman y Stiglitz (1980) argumentan que si la
disponibilidad de nueva información se refleja inmediatamente en los precios, como supone la
ciencia económica, no tiene interés dedicar recursos escasos a obtener información adicional que,
una vez incorporada a los precios, pasará a ser de dominio público. Por lo tanto, desaparece el
incentivo a recoger información, salvo en el caso en que ésta no tenga ningún coste, supuesto que
no podemos aceptar como válido. Esto no invalida la teoría de formación de expectativas
racionales, aunque desde luego, obliga a ser más precisos en el tratamiento de los incentivos y
costes de información. Si el coste de recoger información es muy alto, la calidad de las
previsiones será muy baja (el error de estimación será alto). Sin embargo, este hecho no
constituye una crítica a las expectativas racionales. El hecho de que la información esté
distribuida muy desigualmente entre los distintos agentes tampoco contradice la hipótesis de las
expectativas racionales, pero obliga a elaborar modelos con supuestos más complejos y realistas
sobre la información disponible para cada uno (modelos de agente no representativo).
En tercer lugar, se critica que la hipótesis de expectativas racionales no es verificable
independientemente. En efecto, los modelos tradicionales intentan verificar conjuntamente la
teoría incorporada al modelo y el supuesto de formación de dichas expectativas. Aunque se han
intentado verificar versiones estrictas de la hipótesis de las expectativas racionales que llevan, en
un determinado modelo, a predicciones distintas a las que resultarían con otro criterio de
formación de expectativas, no se trata, en ningún caso, de una verificación independiente de la
hipótesis de las expectativas racionales de forma separada del modelo. Además, existen modelos
con expectativas racionales que tienen la misma estructura que otros sin ellas: se trata del
problema denominado la equivalencia observacional (Sargent, 1976). Con todo, el problema que
aquí estamos considerando es común a todas las teorías sobre la formación de expectativas.
En cuarto lugar, las expectativas racionales sólo se pueden aplicar a variables aleatorias
recurrentes. Es por ello que un cambio de régimen en la formación de una variable exige un
cambio en la ecuación de formación de expectativas. Esta crítica indica que no se pueden aplicar
expectativas racionales ante disyuntivas excluyentes acerca de cuya probabilidad no hay
información previa. En estos casos se pueden utilizar probabilidades subjetivas o bayesianas,
pero entonces ya no son coherentes con el modelo: no serán, pues, expectativas racionales, ni
20
tienen porqué coincidir entre diversos agentes, ni sus diferencias tienen porqué compensarse en
la agregación. Esta crítica señala una limitación importante de la teoría que estamos
considerando, que no es aplicable a situaciones en las que no existe una distribución objetiva de
probabilidades a la que referirse.
Este conjunto de críticas aconseja prudencia a la hora de utilizar modelos con expectativas
racionales. Este supuesto sobre la formación de expectativas es muy útil si se toma como un
requisito metodológico acerca de la coherencia en la construcción de un modelo, pero plantea
otros problemas metodológicos relativos a la información, tema que trataremos con
posterioridad.
Por tanto, si bien las expectativas racionales han tenido una amplia aceptación en la
macroeconomía actual, principalmente porque son un supuesto poco arbitrario acerca de la
formación de expectativas, los modelos con expectativas racionales han planteado problemas
relativos al aprendizaje de las expectativas. El objetivo de los modelos con aprendizaje es
analizar bajo qué condiciones la modificación de la regla de expectativas constituye un proceso
dinámico que converge hacia un equilibrio con expectativas racionales.
VII.
EL CICLO DE EQUILIBRIO
Durante la década de los 70 se produjo un renacimiento del interés por el estudio de las
fluctuaciones cíclicas, que se inició con la realización de diversas investigaciones sobre las
propiedades estadísticas de las series temporales macroeconómicas. Uno de los principales
problemas al que debía hacer frente el análisis de las fluctuaciones cíclicas era el de separar la
tendencia (largo plazo) del ciclo (corto plazo).
El enfoque imperante hasta este momento en el estudio de las fluctuaciones cíclicas consistía en
suponer que la economía seguía un camino que reflejaba una tasa de crecimiento tendencial
como la descrita en el modelo neoclásico de crecimiento de Solow (1956). Este enfoque suponía
que el componente tendencial de largo plazo del nivel de producción era suavizado por
fluctuaciones a corto plazo alrededor de la tendencia, fluctuaciones que venían determinadas por
perturbaciones en la demanda. Este punto de vista era compartido tanto por keynesiamos como
por monetaristas y nuevos clásicos hasta principios de los 80. Estos modelos de perturbaciones
de demanda contemplaban las desviaciones del nivel de producción respecto a la tendencia como
desviaciones temporales. No obstante, las implicaciones de política eran diferentes según las
escuelas. Así, mientras que los keynesianos apuntaban a que dichas desviaciones podían ser
importantes y prolongadas en el tiempo y, por tanto, justificar la necesidad del uso de políticas de
estabilización, tanto los monetaristas como los nuevos clásicos rechazaban la necesidad de usar
dichas políticas de estabilización, dado que confiaban en el poder equilibrador de los mercados.
El ciclo era considerado como un fenómeno de desequilibrio que generaba niveles de producción
inferiores al de pleno empleo.
La Nueva Economía Clásica vendría a cambiar esta concepción tradicional, dando lugar a la
teoría del ciclo de equilibrio.
21
Los primeros modelos del ciclo de equilibrio suponían que eran perturbaciones monetarias las
causantes de las fluctuaciones cíclicas. Según este enfoque, las perturbaciones monetarias, al no
ser suficientemente anticipadas por los agentes privados, generan conductas que no son óptimas
con la información disponible, pero que provocaban fases de auge y recesión en equilibrio. Los
principales trabajos de este enfoque fueron debidos a Lucas (1972, 1973, 1975) y Barro (1976).
El modelo de ciclo de equilibrio de Lucas, conocido como el modelo de las islas, supone que los
agentes operan en mercados separados (islas), en cada uno de los cuales se toman las decisiones
de oferta y demanda del bien que se produce. En cada mercado, productores y consumidores sólo
observan el precio de dicho mercado, a partir del cual deben inferir el nivel general de precios.
Dado que los agentes económicos tienen información incompleta, las fluctuaciones se derivaban
de errores en las expectativas inflacionistas, los cuales se debían, a su vez, a las variaciones
imprevistas en la tasa de crecimiento del dinero. La principal aportación que se deriva de este
enfoque es la relacionada con el problema de extracción de señales, derivado de la confusión
entre información local y agregada. Los agentes reciben información sobre los precios locales,
pero no sobre los precios agregados, por lo que no pueden identificar los cambios en los precios
relativos que se deben a causas agregadas y los que se deben a factores locales.
Por tanto, los desajustes no se deben al mal uso de la información, ya que se supone que utilizan
expectativas racionales, sino que se enfrentan a la existencia de información insuficiente. Sin
embargo, el modelo de las islas y sus variantes (denominados modelos de ciclo de equilibrio con
información incompleta) tuvieron una corta vigencia debido a las importantes críticas que
recibieron. Así, no parece que la confusión acerca de la evolución de la cantidad de dinero sea
tan importante como para generar fluctuaciones cíclicas. Podemos pensar que es posible que los
agentes conozcan mejor los precios de su mercado (isla) que los demás precios, pero tienen a su
disposición información sobre el nivel general de precios y sobre las variables que lo determinan
con muy poco retardo (King, 1982), de modo que difícilmente podrán cometer grandes errores o
muy dilatados en el tiempo. Por otra parte, se necesita un mecanismo de propagación y
persistencia que convierta perturbaciones aleatorias no correlacionadas en respuestas serialmente
correlacionadas, ya que en estos modelos no se genera por sí sola correlación serial en las
variables agregadas.
Por último, en equilibrio general y en ausencia de rigideces, la falta de información completa
generaría incentivos para la creación de un mercado de información. Todas estas críticas llevaron
al abandono del modelo de ciclo de equilibrio con información incompleta, sustituyéndolo por
los modelos del ciclo real.
VIII. LA TEORÍA DEL CICLO REAL
El muy influyente trabajo realizado por Nelson y Plosser (1982) cambiaría esta concepción
tradicional de las fluctuaciones cíclicas. Nelson y Plosser realizan una investigación empírica
sobre un conjunto de series macroeconómicas de la economía norteamericana. El principal
resultado que obtienen es que no pueden rechazar la hipótesis de que el nivel de producción
sigue un paseo aleatorio, por lo que no es posible separar el componente cíclico del componente
tendencial.
22
Los resultados obtenidos por Nelson y Plosser tuvieron importantes implicaciones para la teoría
de las fluctuaciones cíclicas. Si se producen perturbaciones en la tasa de crecimiento de la
productividad debido a cambios tecnológicos frecuentes y aleatorios, entonces la senda del nivel
de producción que sigue un paseo aleatorio mostrará un comportamiento cíclico. Sin embargo,
en este caso las fluctuaciones observadas en el nivel de producción son fluctuaciones en su tasa
de crecimiento natural (tendencia) y no desviaciones del nivel de producción con respecto a una
tendencia determinística.
Los primeros desarrollos teóricos del ciclo real, que estuvieron motivados por los resultados
obtenidos por Nelson y Plosser, fueron realizados por Kydland y Prescott (1982), Long y Plosser
(1983), King y Plosser (1984) y Hansen (1985). Estos autores rechazan que perturbaciones
monetarias no anticipadas puedan generar fluctuaciones en el nivel de producción y empleo. En
su lugar, la teoría del ciclo real supone que las fluctuaciones cíclicas están fundamentalmente
causadas por perturbaciones reales (de oferta) persistentes, en lugar de estar generadas por
perturbaciones monetarias (por el lado de la demanda), por lo que se producen fluctuaciones
cíclicas incluso en el caso en que la cantidad de dinero crezca a una tasa constante.
Por tanto, el punto de partida de estos modelos es el supuesto de que la economía está sujeta a
perturbaciones aleatorias que proceden del lado de la oferta, principalmente grandes
fluctuaciones aleatorias en la tasa de progreso tecnológico. Estas perturbaciones en la función de
producción provocan fluctuaciones en los precios relativos a las cuales responden los agentes
racionales a través de sus elecciones intertemporales. De acuerdo con este enfoque, las
fluctuaciones que se observan en el nivel de producción y empleo son fenómenos de equilibrio
que se derivan del comportamiento racional de los agentes económicos ante cambios en el
entorno económico.
La principal implicación de política que se deriva de este enfoque es que la existencia de
fluctuaciones en el nivel de producción no implica que los mercados no estén en equilibrio, por
lo que el gobierno no debería intentar reducir estas fluctuaciones a través de políticas de
estabilización. Otro tipo de perturbación que ha recibido atención han sido los desplazamientos
intersectoriales. Lilien (1982) y Black (1987) introducen costes de ajuste en el desplazamiento
intersectorial del factor trabajo. De acuerdo con esta teoría, las perturbaciones reales afectan de
manera desigual a los diferentes sectores productivos, alterando la estructura de los precios
relativos, lo que conlleva reasignaciones intersectoriales del trabajo y el consumo. Sin embargo,
no parece que los desplazamientos de mano de obra entre sectores sean un factor relevante a la
hora de explicar los ciclos. Además, esta teoría sugiere que, en periodo de desempleo creciente,
las tasas de empleo variarán considerablemente entre sectores, y que coincidirán con aumentos
en las vacantes de puestos de trabajo, lo que contradice la evidencia empírica.
Uno de los supuestos controvertidos de los primeros modelos del ciclo real es la irrelevancia del
dinero, por lo que se han desarrollado modelos con objeto de introducirlo. Para ello, se
consideran dos alternativas: mediante el supuesto de cash-in-advance, o bien introduciéndolo
directamente en la función de utilidad o de producción. King y Plosser (1984) incorporan el
dinero en un modelo de ciclo real, pero con la finalidad de explicar sus comovimientos con otras
variables. Estos comovimientos se atribuyen a la denominada causalidad inversa (el aumento de
la cantidad de dinero que se observa en las fases de expansión es el efecto y no la causa de dicha
23
expansión) y al dinero interno creado por el sistema económico frente al dinero externo creado
por el gobierno. En el primer caso, una perturbación de productividad lleva a una mayor
producción, que a su vez, provoca una mayor demanda de dinero. En el caso en que las
autoridades monetarias persigan un determinado objetivo en términos de tipos de interés o tipos
de cambio, la mayor demanda de dinero se traducirá en una mayor oferta de dinero. En el
segundo caso, el dinero interno creado por el sistema financiero es una deuda interna de unos
ciudadanos frente a otros (Pesek y Saving, 1967). Una perturbación de productividad positiva va
a dar lugar a un mayor nivel de actividad, por lo que también se produce un aumento de la
demanda de servicios de transacción, lo que da lugar a un aumento de la cantidad de dinero
interno. Lucas (1987) admite la existencia de fluctuaciones cíclicas causadas por factores reales,
pero reconociendo el papel que juega el dinero, debido a que las fluctuaciones observadas son
demasiado grandes como para que puedan ser provocadas sólo por perturbaciones de
productividad. Propone un modelo que combina el ciclo real con mercados con información
incompleta en los que se originan problemas de extracción de señales y en los que las
perturbaciones monetarias pueden generar respuestas similares a las postuladas por los teóricos
del ciclo real.
Los modelos del ciclo real han sido ampliados a contextos de competencia imperfecta (por
ejemplo, Hairault y Portier, 1995) y a economías abiertas (Dellas, 1987; Cantor y Mark, 1988;
Mendoza, 1991, 1995 y Correia et al., 1995, entre otros). Dellas (1987) analiza en qué medida las
perturbaciones de carácter real pueden explicar el grado de covariación entre los niveles de
output de diferentes países, en cuyo caso más que pensar en ciclos de carácter nacional se tiene
que pensar en ciclos de carácter internacional. Para ello desarrolla un modelo de dos países cada
uno de los cuales está especializado en la producción de un bien. Ante una perturbación real,
originada en cualquiera de los dos países, que aumente la disponibilidad de uno de los bienes, se
origina un aumento del nivel de actividad en ambos países, siendo el mecanismo de transmisión
el intercambio de bienes a través del comercio internacional.
Por su parte, Cantor y Mark (1988) proponen un modelo similar pero en el cual el mecanismo de
transmisión es a través de los mercados de capitales. Una perturbación tecnológica positiva de
uno de los países, aumenta tanto el nivel de producción de este país, como el del otro, ya que el
mecanismo de distribución de riesgos eleva la demanda de acciones denominadas en la moneda
nacional. En el caso de un mercado de capitales perfecto, la perturbación tecnológica positiva se
distribuiría entre los dos países, por lo que habría una correlación entre las tasas de crecimiento a
nivel internacional.
Mendoza (1991, 1995) y Correia et al. (1995) desarrollan modelos de equilibrio general
dinámicos y estocásticos con expectativas racionales. Suponen que existe un único activo que se
comercia con el resto del mundo, produciendo un tipo de rendimiento que se considera exógeno
por los agentes de la economía. El estado estacionario de la economía es consistente con un saldo
de bonos extranjeros. Para niveles elevados de los mismos, la economía puede afrontar déficit
comerciales elevados que permitirán disfrutar de altos niveles de consumo. La introducción de
perturbaciones específicas en el modelo resulta ser consistente con algunos hechos estilizados de
las economías abiertas, tales como el carácter contracíclico de la balanza comercial y la alta
correlación entre el ahorro y la inversión. Obviamente, dado este razonamiento, de que las
fluctuaciones cíclicas están provocadas por el comportamiento óptimo de los agentes, dichas
24
fluctuaciones no deberían reducirse a través de la política económica, ya que provocarían una
disminución en el bienestar.
Por otra parte, Farmer y Guo (1994) han desarrollado un modelo en el cual la producción es
estocástica, por lo que es posible explicar las fluctuaciones cíclicas a partir de movimientos
aleatorios en la oferta. Para ello, introducen un término de error en el rendimiento esperado por
los consumidores de los activos. Estas creencias, de naturaleza estocástica, afectan a la renta
esperada y, a través de la optimización intertemporal, a la demanda actual, dando lugar a
fluctuaciones cíclicas y estableciendo nuevos resultados acerca de los equilibrios de manchas
solares (sunspots) y profecías autocumplidas (self-fulfilling prophecies), que van a abrir nuevas
líneas de investigación.
Finalmente, indicar que uno de los aspectos más relevantes de este enfoque es el desarrollo de
los métodos de calibración, siguiendo la línea iniciada por Kydland y Prescott (1982). En lugar
de desarrollar modelos que puedan ser contrastados empíricamente a través de métodos
econométricos tradicionales, los teóricos del ciclo real han desarrollado métodos de calibración a
través de los cuales obtienen resultados simulados cuando se produce una perturbación, en
términos de las principales variables macroeconómicas, que son comparados con el
comportamiento que muestra la economía. Esto es debido a que en la mayoría de los casos, estos
modelos poseen una complejidad matemática muy elevada, lo que hace imposible la obtención
de soluciones analíticas concretas, por lo que la forma habitual de contrastar estos modelos es
mediante la calibración.
Por otra parte, las perturbaciones que supuestamente mueven la economía no son directamente
observables, por lo que no es posible la estimación de estos modelos mediante el análisis
econométrico clásico, al carecer de mediciones de un grupo importante de variables exógenas:
las perturbaciones reales.
En términos generales el procedimiento es el siguiente. En primer lugar, se construye un modelo
intertemporal de equilibrio general, donde se especifican funciones de producción, funciones de
utilidad, estructura del mercado y perturbaciones exógenas. A continuación a partir de las
condiciones de optimalidad se derivan las soluciones de equilibrio para las variables endógenas.
Finalmente, se procede a calibrar el modelo proponiendo valores numéricos para los diferentes
parámetros. Estos valores numéricos pueden obtenerse a partir de estimaciones directas, o en el
caso de no estar disponibles, restringiendo sus valores dentro de rangos paramétricos
consistentes con la teoría. A continuación se simula el modelo sometiéndolo a diversos tipos de
perturbaciones aleatorias. Con ello se consiguen series temporales artificiales cuyas propiedades
estadísticas se comparan con las de las variables observadas.
Sin embargo, hemos de indicar que estos modelos tienen importantes limitaciones, ya que no
consiguen explicar de modo satisfactorio la existencia de desempleo involuntario. De hecho, son
estas limitaciones, principalmente en relación al tratamiento de la información y de cómo ésta
influye en la toma de decisiones en los mercados, las que van a constituir la base en la que se
fundamentan los desarrollos de la Nueva Economía Keynesiana. Así, los modelos del ciclo real
sólo pueden explicar fluctuaciones aleatorias en la producción, mientras que las fluctuaciones
cíclicas no son aleatorias. Para explicarlas hay que introducir retardos en el modelo. Tal y como
25
apunta Mankiw (1989) para que las perturbaciones tecnológicas generen la volatilidad observada
en la producción, deben ser importantes y frecuentes, contrariamente al pensamiento
generalizado de que el progreso tecnológico es un fenómeno gradual.
Por otra parte, para que las perturbaciones tecnológicas generen fluctuaciones cíclicas es
necesario que exista una elevada autocorrelación de las mismas, lo que tampoco parece estar de
acuerdo con la evidencia empírica disponible. Además estas teorías únicamente pueden justificar
la existencia de recesiones cuando se produce una perturbación tecnológica de signo negativo,
algo que difícilmente ocurre en la práctica. Por otra parte, también ha recibido críticas el método
de contrastación de estos modelos, a través de la calibración, en lugar de realizar contrastaciones
econométricas.
IX.
LA NUEVA ECONOMÍA KEYNESIANA
Junto con los desarrollos de la Nueva Economía Clásica, el otro enfoque principal sobre el que se
fundamentan los actuales desarrollos de la macroeconomía es lo que se ha denominado la Nueva
Economía Keynesiana, que surgió a mediados de la década de los 80 en contraposición a la
Nueva Economía Clásica y a la teoría del ciclo real. El antecedente inmediato de esta corriente lo
podemos encontrar en la macroeconomía del desequilibrio.
Una de las principales características de esta nueva corriente es que adopta el modo de hacer
macroeconomía de la corriente opuesta: la Nueva Economía Clásica. Se trata de modelos
macroeconómicos con una microfundamentación coherente con el objetivo principal de explicar
por qué los precios y los salarios se ajustan lentamente al mismo tiempo que reestablecen la
efectividad de la política económica y justifican el uso de estas políticas, tanto de demanda como
de oferta, para la estabilización de la economía.
Este nuevo análisis incorpora las hipótesis de las expectativas racionales y de la tasa natural de
desempleo, al igual que en el enfoque de los nuevos clásicos, mientras que la diferencia radica en
que no creen en el supuesto de equilibrio continuo de los mercados. El elemento fundamental
sobre el que se asienta este enfoque es el mantener el principio básico de agentes racionales pero
incorporando fallos en los mercados. Así, el principal objetivo de este enfoque es el de explorar
un amplio conjunto de razones que expliquen las rigideces en precios y salarios que hacen que
los mercados no estén continuamente en equilibrio, pero adoptando el método de elaboración de
modelos iniciado por los economistas de la Nueva Economía Clásica. El reto que se trazan es el
de endogeneizar las rigideces de precios y salarios en un contexto donde los agentes maximizan
la utilidad o el beneficio, pero permitiendo que existan desviaciones del equilibrio walrasiano
como la existencia de desempleo involuntario superior a la tasa natural.
De hecho, podemos afirmar que esta nueva corriente de pensamiento surgió para intentar
explicar las fluctuaciones cíclicas, a las que la Nueva Escuela Clásica y más concretamente, la
teoría del ciclo real, no ofrecía una explicación adecuada.
Con respecto a los ciclos, los keynesianos criticaban las teorías del ciclo de equilibrio y las
primeras versiones de la teoría del ciclo real. Entre las deficiencias más importantes destacan, en
primer lugar, que no consideran la existencia de mercados de competencia imperfecta, las
26
asimetrías de información y los fallos de coordinación. En segundo lugar, las perturbaciones
tecnológicas concretas, que generan una recesión o una expansión, tienen un poder explicativo
reducido ya que son difíciles de identificar, tienen que ser persistentes, y bajo determinados
supuestos, como la existencia de trabajo encubierto, pierden importancia.
Por otra parte, los resultados empíricos obtenidos por Nelson y Plosser (1982) sobre el
componente estacionario de las series económicas han sido cuestionados en análisis empíricos
posteriores, utilizando los mismos datos. Así, Perron (1989) y Zivot y Andrews (1992) obtienen
que las series no presentan un componente estacionario debido a perturbaciones de oferta.
Realizando un análisis similar, pero incluyendo esta perturbación de oferta, obtienen que la
mayoría de las series presentan de nuevo el componente estacionario, por lo que la división
tradicional entre tendencia y ciclo adquiere de nuevo validez.
Principales contribuciones teóricas
Del análisis nuevo keynesiano se derivan tres importantes implicaciones de política. En primer
lugar, en estos modelos el dinero no es neutral en el corto plazo y, por tanto, se vuelve a la
efectividad de la política económica. Por ejemplo, Fischer (1977) y Phelps y Taylor (1977)
demuestran que perturbaciones nominales de demanda son capaces de generar efectos reales en
modelos que incorporan expectativas racionales, una vez que el supuesto de vaciado continuo de
los mercados es abandonado. Por tanto, de estos modelos se obtiene como resultado que la
política monetaria puede usarse para estabilizar la economía.
En segundo lugar, el ajuste gradual de precios y salarios implica que una política monetaria antiinflacionista, incluso si es creíble y anticipada por los agentes racionales, provocará una
importante reducción en el nivel de producción y en el empleo. En circunstancias en las cuales el
nivel de desempleo permanece por encima de su nivel natural durante un largo periodo de
tiempo, el propio nivel de desempleo natural tenderá a aumentar, debido al denominado efecto
histéresis. Sin embargo, este es un ejemplo más de que la evidencia obtenida a través de análisis
empíricos no puede ser usada, en la mayoría de los casos, para validar una teoría, puesto que no
ofrecen resultados definitivos.
Esto es debido a que no sólo los que están desempleados sufren una disminución en su capital
humano aumentando el problema del desempleo estructural, sino que también aumenta el
número de desempleados de larga duración. Por último, y contrario al enfoque de la Nueva
Economía Clásica, se demuestra la racionalidad de la existencia de desempleo involuntario como
un fenómeno de equilibrio. Básicamente, el enfoque de la Nueva Economía Keynesiana consistió
en una readaptación de la teoría microeconómica para que fuese consistente con las
proposiciones keynesianas de desempleo involuntario, neutralidad del dinero y rigideces en
precios y salarios, si bien muchos de los postulados y de las implicaciones de política económica
del keynesianismo han quedado descartados. De ahí que Mankiw (1992) afirme que a esta nueva
corriente de pensamiento no se le debería llamar keynesiana.
La Nueva Economía Keynesiana explica las rigideces de precios y salarios bajo dos supuestos
diferentes: por una parte, debido a la existencia de competencia imperfecta en los mercados que
desvía los precios y salarios de su nivel óptimo, y por otra parte, por la existencia de información
27
asimétrica que produce rigideces en la fijación de los precios debido a que no se dispone de toda
la información.
Los tres resultados básicos a los que llega recurrentemente la literatura de los nuevos
keynesianos son los siguientes. En primer lugar, las fluctuaciones cíclicas no son las respuestas
pareto-óptimas de la economía frente a cambios en los gustos o en la tecnología, sino una
manifestación a gran escala de los fallos del mercado.
El fallo de mercado al que apelan principalmente es la incapacidad de los precios y salarios de
ajustarse instantáneamente para equilibrar oferta y demanda. En la micro-fundamentación de las
rigideces nominales y reales, juega un papel esencial la presencia de imperfecciones en los
mercados de bienes, trabajo y crédito, como por ejemplo, estructuras de mercado no
competitivas, información asimétrica, fallos de coordinación, costes de ajuste, selección adversa
y riesgo moral. En segundo lugar, la fijación de precios y salarios nominales, incluso por
periodos de tiempo relativamente reducidos, no tienen consecuencias importantes para los
agentes que los realizan, pero si tienen importantes consecuencias para la economía en su
conjunto. Por último, la combinación de rigideces reales y nominales puede provocar que
cambios en la demanda tengan efectos muy persistentes sobre el empleo.
X.
EL NEOINSTITUCIONALISMO
En los últimos años el estudio sobre el papel que juegan las instituciones en el desempeño
económico ha cobrado importancia, impulsado y desarrollado por la corriente del pensamiento
económico conocida como neoinstitucionalismo. (Ayala Espino (1999); Roemer (1994); North
(1990), Furubotn y Richter (1991) y Williamson y Scott (comp.) (1995: 612-642).
Es cierto que el neoinstitucionalismo tiene sus bases en los economistas clásicos encabezados
por Adam Smith, fue hasta el siglo pasado cuando se inició el análisis del papel de las
instituciones en el intercambio y la conducta económicas.
Los primeros teóricos de esta escuela advertían sobre la necesidad de incluir las instituciones al
análisis económico, ya que la generación de riqueza está relacionada con los hábitos, costumbres,
organizaciones, desarrollo tecnológico, información, entre otros, que conforman la vida social y
que se encuentran regidas por las instituciones.
A pesar de sus contribuciones, los institucionalistas de principios de este siglo no recibieron
suficiente atención y aceptación por parte de escuelas dominantes como la marginalista.
Dos de las principales críticas recibidas fueron: 1) haber encaminado todos sus esfuerzos a la
descripción de las instituciones y no al análisis de las implicaciones de las mismas y 2) fundir en
un mismo concepto de institución los aspectos organizativos y las reglas que gobiernan las
instituciones.
El nuevo institucionalismo económico surge como respuesta a estas críticas, sin ser una escuela
homogénea, en donde cohabitan autores que apoyan supuestos cercanos a los establecidos por la
28
teoría neoclásica, y aquellos que la rechazan abruptamente. Entre los principales autores
podemos encontrar a Ronald H. Coase, Oliver E. Williamson y Douglass C. North.
En términos generales, se puede afirmar que el enfoque neoinstitucional es sensible a cuestiones
organizacionales, y busca extender el alcance de la aplicación de la teoría neoclásica al
considerar la forma en que la estructura de los derechos de propiedad, los costos de transacción y
la información que los individuos poseen sobre el mercado, entre otros factores, afectan los
incentivos y el comportamiento económico. Este enfoque no surge de un intento deliberado por
construir una nueva doctrina económica, nace del reconocimiento de que el análisis neoclásico
típico es demasiado abstracto e incapaz para ocuparse efectivamente de un buen número de
problemas actuales, los cuales guardan interés para los teóricos y los formuladores de políticas
públicas.
Es decir, los neoinstitucionalistas admiten que es posible utilizar las herramientas neoclásicas,
pero es necesario también incorporar temas referentes a la transmisión y definición de los
derechos de propiedad, los costos de transacción y la información incompleta o asimétrica, entre
otros temas.
A continuación se presenta el recuento que Ayala Espino hace sobre las diferentes teorías y
escuelas involucradas en el neoinstitucionalismo.
Samuels señala que dejando a un lado el marxismo, que posee además un carácter de
movimiento social, la economía institucional ha sido la principal escuela de pensamiento
económico heterodoxo. Distingue dos corrientes, la primera surgida de los trabajos de Thorstein
Veblen (1857-1929) y continuada por Clarence Ayres (1891-1972) y la segunda iniciada por
John R. Commons (1862-1945). La tradición Veblen–Ayres se enfoca en el papel progresivo de
la tecnología y el papel inhibitorio de las instituciones, mientras que Commons, quien está menos
interesado en la tecnología, centra su enfoque en las instituciones como formas de acción
colectiva, más neutrales. Ambas corrientes aceptan que el desempeño de la economía es una
función, interalia, tanto de la tecnología como de las instituciones.
De acuerdo a Roemer, el enfoque neoinstitucional moderno tuvo un origen a fines de la década
de 1950 con el trabajo de Armen A. Alchian sobre derechos de propiedad, pero fue gracias a los
artículos seminales de Ronald H. Coase y George J. Stigler sobre costos de transacción y de la
información, que esta línea de investigación atrajo a otros autores por lo que a mediados de la
década de 1970 ya había generado un cuerpo considerablemente creciente de investigación
teórica y empírica.
North define los derechos de propiedad como los derechos que los individuos ejercen sobre su
propio trabajo y sobre los bienes y servicios que poseen. La apropiación es una función de
normas legales, organizacionales, de cumplimiento obligatorio y de normas de conducta, es
decir, del marco institucional.
Introduce explícitamente el papel de las restricciones contenidas en las reglas y contratos que
gobiernan al intercambio.
29
- Introduce el papel del intercambio de los derechos de propiedad y los contratos que aseguran
las transacciones.
- Considera las consecuencias de los costos de transacción y postula que el intercambio no es
libre de costos.
- Reconoce la existencia de información incompleta y asimétrica. Aborda cuestiones como:
selección adversa, riesgo moral, agencia-principal, decisiones bajo incertidumbre, el de
credibilidad en el intercambio, las transacciones y la información.
- Admite la importancia de los problemas organizacionales y de comportamiento en la teoría de
la empresa y de la organización industrial.
- Reconoce la importancia del marco jurídico.
- Acentúa la importancia de las estructuras de poder y las organizaciones políticas.
- Acepta el papel de las acciones colectivas, la organización de los grupos sociales y las
coaliciones sociales.
- Asume que el Estado es una institución relevante en el intercambio porque genera incentivos o
desincentivos a la inversión, el trabajo y el ahorro.
- El Estado es el gobernador más importante de instituciones.
Neoinstitucionalismo: características básicas
1.
2.
3.
4.
5.
6.
7.
8.
9.
Teoría de la regulación económica
Escuela de los derechos de propiedad
Economía de los costos de transacción
Economía de la información
Teoría de la organización industrial
Derecho y economía
Teoría de la elección pública
Teoría de la acción colectiva
Teorías económicas del estado
La naturaleza de las instituciones
Las instituciones de acuerdo a North se definen como: las reglas del juego en una sociedad o,
más formalmente, son las limitaciones ideadas por el hombre que dan forma a la interacción
humana; definen y limitan el conjunto de elecciones de los individuos; son limitaciones formales
(reglas políticas, judiciales, económicas y contratos, por ejemplo) y limitaciones informales
(códigos de conducta, normas de comportamiento y convencionalismos); su función principal
consiste en reducir la incertidumbre (proveniente de la información incompleta con respecto a
30
los otros individuos), estas reglas o limitaciones provocan las relaciones humanas, conformando
una estructura estable, pero no necesariamente eficiente de la interacción humana.
Es decir las instituciones permiten que el intercambio se realice con base a reglas formales o
informales, permitiendo: 1) dar certidumbre sobre los derechos de propiedad, 2) proporcionar los
incentivos necesarios para que por medio de la transacción se transfieran los derechos de
propiedad y 3) lograr que ciertas actividades económicas fructifiquen.
Instituciones y crecimiento económico
El hecho de que las instituciones promuevan una estructura estable de convivencia no implica
per se interacciones eficientes desde el punto de vista económico.
North sostiene que un conjunto de instituciones eficientes puede generar crecimiento económico,
ya que permiten que las partes involucradas en el intercambio puedan obtener mayores
beneficios del comercio. Esto se fundamenta en la percepción de que las instituciones eficientes
disminuyen los costos de transacción. Es decir, las instituciones eficientes son aquellas que
premian el comercio, dan certidumbre sobre los derechos de propiedad y hacen cumplir los
acuerdos, disminuyendo así los costos de transacción.
No siempre se han encontrado economías eficientes a lo largo de la historia, ello debido a la
forma en que las instituciones han otorgado los incentivos necesarios para reducir los costos de
transacción, y proporcionar mayores ventajas en el aprovechamiento de las ganancias derivadas
del comercio.
Las características de las instituciones, tanto las limitaciones formales como las informales,
producen un medio favorable (económico y político) que premia la actividad productiva de las
organizaciones, definen la eficiencia de las economías y permiten su crecimiento.
Para North las organizaciones promueven el cambio institucional a través de la modificación en
los precios relativos que alteran los incentivos de los individuos u organizaciones. Los cambios
en los precios relativos pueden ser exógenos (una sequía, por ejemplo) o endógenos (un cambio
tecnológico). Dado que el marco institucional contiene los incentivos en cuanto a la rentabilidad
de las actividades de que se trata, las organizaciones intentan alterar en cierto margen el marco
institucional, cuando sus percepciones les indican que podrían obtener mayores beneficios con
esta acción.
North define a las organizaciones como: a) entidades ideadas por sus creadores (individuos que
comparten intereses comunes) con el propósito de maximizar la riqueza, el ingreso, u otros
objetivos definidos por las oportunidades que brinda la estructura institucional de la sociedad, b)
incluyen grupos políticos (partidos políticos), grupos económicos (empresas), grupos sociales
(iglesias) y grupos educativos (universidades), c) son creadas para aprovechar las oportunidades
que determinan las instituciones y conforme evolucionan las organizaciones, alteran a las
instituciones.
31
Los costos de transacción
Como se ha mencionado, uno de los elementos más importantes desarrollados por los
neointitucionalistas es el concepto de los costos de transacción, los cuales surgen de la
transferencia de los derechos de propiedad y se refieren a todos aquellos costos no ligados
directamente al proceso de producción de los bienes, por ejemplo los costos de información, de
negociación, contractuales, etc.
Los costos asociados a las transacciones pueden identificarse en:
1) la búsqueda de la información sobre precios, características de los bienes (como su calidad,
disponibilidad, etc.), características de los mercados (las preferencias de los individuos, tamaño
de la demanda, mercados potenciales, entre otros);
2) la negociación entre los individuos para establecer el precio al que se realizará el intercambio
de una mercancía, y
3) la traslación y protección de los derechos de propiedad de los bienes por medio del
establecimiento del contrato, el cual define el derecho de propiedad y las condiciones bajo las
cuales se realiza el intercambio.







Transmisión de los derechos de propiedad
Costos de transacción
Defensa de los derechos de propiedad
Negociación
Contratación
Hacer cumplir los acuerdos
Adquisición de información
De esta forma se puede afirmar que los costos de transacción se componen de: a) costos de
información, consistentes en medir los atributos valiosos de los bienes en intercambio, lo que a
su vez otorga los elementos para realizar la negociación y b) costos de definir, proteger y de
hacer cumplir los acuerdos o contratos para darle certidumbre a la definición de los derechos de
propiedad.
La obtención y el procesamiento de información tienen un costo. La población no cuenta con
elementos suficientes para conocer la solución exacta a su problema de maximización de
beneficios, lo que le provoca incertidumbre. Desconocen, por ejemplo, todas las características
de un bien y no poseen información conveniente respecto al comportamiento de los agentes que
participan en el mercado.
En otras palabras, los individuos eligen y realizan transacciones bajo restricciones de
información e incertidumbre. Estos elementos repercuten de manera directa en el intercambio,
por lo tanto y de igual forma, en la eficiencia de los mercados. No olvidemos que si los costos
son demasiado altos la cancelación del intercambio puede ser definitiva.
32
Información asimétrica
De acuerdo a los neointitucionalistas la información se distribuye de manera desigual entre los
agentes, estos poseen diferentes niveles de acceso a esta, por ejemplo: las empresas grandes
tienen mejores condiciones para soportar los costos para la adquisición y procesamiento de
información relevante; en cambio, para las pequeñas empresas puede resultar económicamente
inviable su adquisición.
Así, la información se considera asimétrica cuando algunos agentes, participantes en el mercado,
cuentan con condiciones que les permiten acceder fácilmente y a menor costo a la información;
por lo cual, este grupo de individuos tendrá mayor poder de negociación en la transacción al
encontrarse mejor informado que su contraparte.
Es un hecho que las mercancías, los servicios y el desempeño de los agentes contienen muchos
atributos difíciles de medir de manera exacta. Existen asimetrías de información entre los
participantes, como es el caso de los autos usados.
Es muy probable que bajo el supuesto de maximización de riqueza, una de las partes del
intercambio engañará, robará o mentirá si el resultado de esa actividad es mayor que el valor de
las oportunidades alternativas que se le ofrezcan.
Los agentes al reconocer que cuentan con información asimétrica sobre el comportamiento de los
precios, las características de los bienes y la calidad moral de su interlocutor, buscarán disminuir
los costos de transacción que esto le provoca por medio de un contrato.
Contratos
North argumenta que los contratos surgen porque a los participantes les interesa disminuir los
costos de transacción del intercambio. En intercambios complejos, los individuos erogan
importantes recursos para realizar sus transacciones con base en contratos, ya que permiten
disminuir la complejidad y la incertidumbre que rodea al intercambio. Gracias a este elemento
los agentes conocen la calidad, y cuentan con la seguridad jurídica de los bienes.
La eficiencia de un contrato radica en su diseño, calidad y vigilancia, así como el costo que esta
misma representa, es decir, los agentes acordarán realizar un intercambio por medio de un
contrato; si con ello se obtienen mayores beneficios, que realizar el intercambio sin contrato,
asumiendo posibles costos por engaños, incumplimientos, etc.
El desconocimiento de los atributos del bien o servicio lleva a la necesidad no sólo de dedicar
recursos para medir los atributos y conocer ampliamente sus características, sino para vigilar los
acuerdos y hacerlos cumplir, es por ello que se requiere de un tercer agente neutral.
North cita dos razones por las que el cumplimiento obligatorio es imperfecto. La primera se debe
a los costos de medir las características complejas de los bienes, en tanto que la segunda se apoya
en el hecho de que el cumplimiento obligatorio corre a cargo de agentes cuyas propias funciones
de utilidad influyen en los resultados.
33
El cumplimiento obligatorio por una tercera parte significa el desarrollo del Estado como una
fuerza coercitiva, capaz de monitorear derechos de propiedad y hacer cumplir contratos. Sin
embargo, North reconoce que nadie sabe cómo crear tal entidad. Bajo el supuesto conductual que
maximiza estrictamente la riqueza, resulta evidente que quienes manejen al Estado usarán su
fuerza coercitiva en su propio interés a expensas del resto de la sociedad. Algunos autores
sugieren que las formas constitucionales correctas restringirán el ejercicio tiránico del poder
político.
En el caso del mercado inmobiliario es claro cómo el Estado cede la medición de los tributos
físicos al perito valuador, y los legales, al notario público y al Registro Público de la Propiedad;
reservándose el poder coercitivo para hacer cumplir y respetar los términos que se hayan
establecido en el contrato o título de propiedad.
Costos de búsqueda
La información es un bien de suma importancia, no sólo porque los individuos están dispuestos a
pagar por ella, sino porque gracias a ésta, los agentes definen sus elecciones económicas. Es por
ello que se han creado importantes mercados de información en donde existen organizaciones
dedicadas a su recopilación, producción, análisis, interpretación y difusión.
Los neointitucionalistas reconocen que, en un momento dado, los agentes desconocen toda la
información relevante de los mercados. El conocimiento imperfecto de los mercados da origen a
fallas, debido a que los productores ofrecen bienes en exceso, los consumidores dejan de
consumir ciertos bienes y los mercados no se desarrollan satisfactoriamente.
La información es incompleta porque ésta es difícil o inclusive imposible de adquirir, o en su
caso es demasiado cara, esto surge generalmente en donde existen circunstancias técnicas que
dificultan su obtención, captura y análisis; por ejemplo, en mercados dispersos, descentralizados
y poco institucionalizados o mercados monopólicos dispuestos a no difundir su información.
En aquellas actividades en donde los costos de adquirir información son exorbitantes, los costos
marginales son superiores a los beneficios marginales recibidos por obtenerla. Debido a ello, los
agentes no tienen incentivos para adquirir más información, ocasionando que al llegar a cierto
punto, los compradores potenciales no continúan buscándola, ya que ésta representa mayores
costos en tiempo y dinero. La información que se tiene sobre un mercado a bajo precio no
siempre es suficiente como para tomar una decisión económicamente eficiente.
Los neoinstitucionalistas reconocen que los precios no trasmiten necesariamente todos los datos
relacionados a un determinado bien, y la presencia de información incompleta tiene graves
consecuencias sobre la posibilidad de concretar operaciones en el mercado, es decir, los agentes
influidos por la incertidumbre, el riesgo, y la carencia de incentivos para producir información,
tenderán a generar un ambiente económico poco eficiente.
En consecuencia sólo el Estado puede atenuar el problema de información incompleta a través de
la generación directa de información, la regulación económica y en general, con el
establecimiento de reglas.
34
XI.
El Pensamiento Latinoamericano: La CEPAL, el Estructuralismo
Establecida el 28 de febrero de 1948 por resolución de la ONU en su Consejo Económico y
Social (ECOSOC) como Comisión Económica para América Latina (CEPAL). Su actual
denominación data de 1985.
Para entender el pensamiento de la CEPAL, es necesario reconocer de que se trata de un cuerpo
especifico aplicable a condiciones históricas propias de la periferia latinoamericana y que se
combina con una teoría estructuralista del subdesarrollo periférico latinoamericano. Su principio
normativo es la necesidad de que el Estado contribuya al ordenamiento del desarrollo
económico.
Las ideas de la CEPAL han sido entregadas por gente responsable de formular la política para
América Latina, como Raúl Prebish, (1901-1986, economista argentino, defensor de las
aspiraciones de los países del Tercer Mundo frente a los países más industrializados y fundador
de la CEPAL)
La difícil tarea de recopilar todas las ideas cepalinas, la realizo por primera vez Aníbal Pinto en
1968, y luego a pedido del propio Prebish, Rodríguez en 1981,realizo el mismo trabajo, pero
mucho mas minucioso y completo.
En el pensamiento de la CEPAL hay que destacar tres dimensiones en la evolución de sus ideas:
Sus conexiones con la historia real.
La lógica interna de su evolución en el tiempo.
Su dialogo con la producción intelectual del resto del mundo.
Una de sus características es que el enfoque metodológico que usa la CEPAL es el mismo,
independiente del numero de etapas en que pueda subdividirse, lo que se va modificando es la
historia real y el contexto ideológico en que una etapa se genera. Otra característica, es que la
sistematización se ve facilitada por el hecho de que las ideas son históricamente determinadas,
casi hasta en sus detalles. Pueden identificarse 5 etapas en la obra de la CEPAL, que por
coincidencia duran aproximadamente un decenio cada una:
1. Orígenes y años ’50: industrialización.
2. Años ‘60: "reformas para desobstruir la industrialización"
3. Años ’70: reorientación de los estilos de desarrollo hacia la homogeneización social y hacia
la diversificación pro-exportadora.
4. Años ’80: superación del problema del endeudamiento externo mediante el ajuste con
crecimiento.
5. Años ’90: transformación productiva con equidad.
Las dos primeras etapas se enmarcan por completo en el ciclo expansivo mundial de la posguerra
y las dos ultimas en el periodo irregular comprendido entre el fin de ese ciclo, en 1973-1974, y la
actualidad, en el que predominan el bajo crecimiento mundial y las grandes incertidumbres, solo
en los ‟70, la correspondencia no es perfecta, debido a la crisis mundial de mediados de la
década.
35
La condición periférica: Método histórico-estructuralista
Prebisch, defendió la teoría del crecimiento económico, que afirma que existe un centro (países
más industrializados) y una periferia (países menos desarrollados, como los de América Latina) y
que subraya la importancia de la brecha del desarrollo y la desfavorable relación real de
intercambio de los países menos industrializados.
Este enfoque trata la transición desde un modelo de crecimiento primario-exportador, hacia
fuera, (países de la periferia), al modelo urbano industrial, hacia adentro, (países centrales), que
se suponía radicaba en la condición de que el proceso productivo se movía en el marco de una
estructura económica e institucional subdesarrollada, heredada del periodo exportador. Según
este enfoque, los países periféricos, son productores de bienes y servicios con una demanda
internacional poco dinámica, importadora de bienes y servicios con una demanda interna en
rápida expansión y asimiladora de patrones de consumo y tecnologías adecuadas para el centro
pero con frecuencia inadecuadas para la disponibilidad de recursos y el nivel de ingreso de la
periferia, por lo tanto, los procesos de crecimiento, empleo y distribución del ingreso en la
periferia son distintos de lo que ocurre en los países centrales, esto por el hecho de que las
economías periféricas poseen una estructura poco diversificada y tecnológicamente heterogéneo,
que contrasta con el cuadro observado en los países centrales, en los cuales el aparato productivo
es diversificado, tiene una productividad homogénea durante toda su extensión y mecanismos de
creación y difusión tecnológica y de transmisión social de sus frutos que son inexistentes en la
periferia.
Años ‘50: Legitimando y orientado a la industrialización.
En los años posteriores a la Segunda guerra mundial, las economías latinoamericanas se
encontraban en pleno proceso de industrialización y urbanización; con un rápido crecimiento,
promovido por una relajación de la restricción externa que permitió la expansión de las
importaciones. Por otra parte se difundía la idea de que las exportaciones tradicionales tendían a
recuperar terreno, por la vuelta a la normalidad de la posguerra, lo que estimulaba la restauración
de la ideología liberal dominante hasta los años treinta, fundamentada en la teoría de la división
internacional del trabajo basada en las ventajas comparativas estáticas (ricardianas).
Pero existía una cierta discordancia entre la historia económica y social y la construcción de su
contrapartida en el plano ideológico y analítico. Es aquí donde la CEPAL entraría a ordenar este
problema, con una versión regional de la teoría del desarrollo, con gran creatividad y ganas de
innovar; y donde grandes cultivadores del conocimiento latinoamericano participarían, como
Celso Furtado, José Medina Echavarria, Regino Botti, Juan Noyola Ahumada, Aníbal Pinto,
Osvaldo Sunkel y por supuesto Raúl Prebish, por nombrar algunos.
Prebish iniciaría su aporte a la CEPAL con su obra de El desarrollo de la América Latina y
algunos de sus principales problemas (1949), y luego en 1950, Problemas teóricos y prácticos
del crecimiento económico, documento que contenía todos los elementos que figurarían como
referencia para los desarrollistas latinoamericanos.
36
Con respecto a la inserción internacional, América Latina se veía vulnerable, en el sentido de que
la estructura subdesarrollada de producción y empleo impedía que la periferia retuviera los frutos
de su progreso técnico, a diferencia de lo que ocurría en el centro, ya que en este ultimo los
sindicatos organizados y una estructura productiva concentrada lograban impedir la caída
nominal de precios de los bienes industriales durante la baja cíclica compensando así con creces
las ganancias que la periferia obtenía, en el auge cíclico, con los bienes primarios.
Otra razón de la vulnerabilidad latinoamericana era la tendencia al deterioro, debida al exceso de
mano de obra en la agricultura subdesarrollada de la periferia, cuyo empleo en actividades
exportadoras llevaría a la expansión de la oferta, lo que traería una baja en los precios
internacionales, resultando en un menor valor a pesar del mayor volumen producido, por eso
aunque la eficiencia de la producción industrial fuera menor en la periferia, era superior a la
eficiencia de aplicar los recursos productivos en la agricultura, por lo tanto el proceso de
industrialización no atenuaría la vulnerabilidad externa, porque la periferia se mantendría como
exportadora de productos primarios, de demanda inelástica en los países céntricos, y como
importadora de productos industriales de alta elasticidad de la demanda en la periferia.
Debido a la estructura de las economías periféricas, se darán tres rasgos importantes que
desempeñaran un papel básico en el desequilibrio:
1. Un desequilibrio estructural en la balanza de pagos, motivo de una presión de expandir las
importaciones mas allá de lo permitido por el crecimiento de las exportaciones(con una baja
elasticidad de la demanda).
2. Tendencia a la inflación, producto del punto anterior, y por su baja diversificación.
3. Un desempleo, debido a la incapacidad de la actividad exportadora para absorber el
excedente de mano de obra en un mercado moderno.
Para resolver estos desequilibrios estructurales, y con el objetivo de tener una mayor
planificación, la CEPAL tuvo un papel intelectual en dos iniciativas que ayudarían al progreso
latinoamericano:
* Asociación Latinoamericana de Libre Comercio (ALALC),
Organización supranacional del ámbito latinoamericano. Sus primeros integrantes fueron
Argentina, Brasil, Chile, México, Paraguay, Perú y Uruguay. Posteriormente, pasarían a formar
parte de la organización Colombia y Ecuador (1961), Venezuela (1966) y Bolivia (1967). Su
objetivo fundacional era crear una zona de libre comercio entre los países miembros para,
sucesivamente, proceder a la desaparición de los aranceles y establecer un mercado común en
Latinoamérica.
La crisis económica de 1973 y el nacimiento de iniciativas similares, como el Grupo Andino
(actual Comunidad Andina), determinaron la sustitución de la ALALC por la Asociación
Latinoamericana de Integración (ALADI) en 1980.
37
* Conferencia de Naciones Unidas para el Comercio y el Desarrollo (en inglés, United
Nations Conference on Trade and Development, UNCTAD), organismo permanente de la
Asamblea General de la Organización de las Naciones Unidas (ONU), fundado en diciembre de
1964. Nace como resultado de una reunión en la que participaron 120 naciones para discutir
problemas relacionados con el mercado internacional de mercancías y con el comercio como
instrumento fundamental para el desarrollo económico.
Entre las responsabilidades de la UNCTAD se encuentran: Promover el comercio internacional
entre los países en diversas etapas del desarrollo y con sistemas socioeconómicos diferentes,
iniciar acciones encaminadas a la negociación y adopción de acuerdos comerciales multilaterales
y proporcionar un centro para armonizar las políticas relativas al comercio y al desarrollo de los
gobiernos o agrupaciones económicas como la Asociación Latinoamericana de Integración
(ALADI).
Años ‘60: Redistribuir para crecer
La segunda mitad de los años ‟50 tuvo tres elementos que incidieron en el pensamiento cepalino
de la década de los ‟60, estos son:
Primero, el crecimiento de la mayoría de los países, se daba en medio de una creciente
inestabilidad macroeconómica, motivada en buena medida por problemas de restricciones a
las importaciones, varios países enfrentaban acentuadas presiones inflacionarias.
Segundo. el proceso de industrialización seguía imponiéndose; la urbanización consiguiente
se traducía en un empobrecimiento creciente de la población , existían síntomas de la
incapacidad de absorción de la fuerza trabajadora proveniente de la zona rural por las
actividades productivas modernas; la democracia se consolidaba y una insatisfacción
creciente se traducía en presiones sociales ejercidas mediante la vida política y sindical
cotidiana.
Tercero, la revolución cubana de 1959 tendría una profunda repercusión sobre la actitud
norteamericana frente a tales presiones y frente al movimiento político que se propagaba en
América Latina.
La CEPAL reconoce la existencia de un consenso inédito en la región en cuanto a la necesidad
de planificar el desarrollo, profundizar la industrialización, redistribuir el ingreso y realizar la
reforma agraria (José Medina Echavarría).
A partir de mediados de los ‟60, se empezó a manifestar una división política e ideológica, que
en algunos países llegó al extremo del enfrentamiento entre las dictaduras de derecha y las
organizaciones de la izquierda revolucionaria, la CEPAL mantendría un diálogo con las
posiciones políticas moderadas, y promovería un debate acerca de puntos y reflexiones propios
de la época como: Que la industrialización había seguido un curso que no lograba incorporar en
la mayoría de la población los frutos de la modernidad y del progreso técnico y no había
eliminado la vulnerabilidad externa y la dependencia y de algún modo obstruía el desarrollo.
38
Reformas para dinamizar la economía:
Prebish insiste en la necesidad de alterar la estructura social y redistribuir el ingreso,
especialmente a través de la reforma agraria. En el campo, los latifundistas rentistas
entorpecerían el progreso técnico, de modo que el acceso del campesino a la tierra, siempre que
fuera apoyado debidamente por el Estado, abriría el camino para elevar la productividad agrícola
y mejorar el uso del excedente. Además, ayudaría a radicar al hombre en el campo evitando la
marginalización urbana, sostenía que sin eso no sería posible sortear la "insuficiencia dinámica"
de las economías de la región.
Teoría de la dependencia y tesis de la heterogeneidad estructural:
En los años sesenta los dos vectores analíticos más representativos de la producción intelectual
de esa institución son las tesis sobre la "dependencia" y la tesis de la "heterogeneidad
estructural".
La teoría de la dependencia tiene dos vertientes, una de análisis predominantemente político en
la que Fernando Cardoso y Enzo Faletto redactaron su Dependencia y desarrollo en América
Latina (1969),como reacción teórica a la tesis corriente en esa época de que se estaba gestando
en la región una burguesía nacionalista potencialmente comprometida con un patrón de
desarrollo que justificaba una alianza con la clase trabajadora y que podía conquistar la
hegemonía política, el trabajo vincula los procesos de crecimiento de los distintos países con el
comportamiento de las clases sociales y las estructuras de poder.
Su gran innovación es metodológica, y reside en la exigencia de que esa vinculación se haga
considerando las relaciones entre esas estructuras internas y el poder económico y político en el
resto del mundo. Y la otra de análisis eminentemente económico: La industrialización que
ocurría en América Latina correspondía tan sólo a una nueva modalidad de explotación secular
que el imperialismo imponía a los trabajadores de la región subdesarrollada en alianza con la
elite local y sólo enriquecía a los países desarrollados y a la pequeña elite dominante local que
los representaba. (André Gunder Frank).
Por otro lado-y con muchas coincidencias analíticas con las interpretaciones dependentistasAníbal Pinto formulaba su tesis de la "heterogeneidad estructural" en la región. Partió de la
constatación de que los frutos del progreso técnico tendían a concentrarse tanto respecto a la
distribución del ingreso entre las clases como a la distribución entre sectores (estratos) y entre
regiones dentro de un mismo país (1965),o sea, así como para los dependentistas la
industrialización no había eliminado la dependencia, sólo la había alterado, para Aníbal Pinto la
industrialización no eliminaba la heterogeneidad estructural, sólo modificaba su formato. En una
y otra interpretación el subdesarrollo era un proceso que daba muestras de perpetuarse a pesar
del crecimiento económico.
Los diagnósticos cepalinos concluían en que el estilo de desarrollo económico tendría que
modificarse mediante una mejor distribución del ingreso y de profundas reformas, a saber,
agraria, patrimonial, financiera, tributaria, educacional y tecnológica. Y entendían que para
39
alcanzar todo eso se precisaba una profunda transformación política que incluyera en su centro la
recuperación de la democracia en los países en que se habían instalado dictaduras militares.
Los años 70: Por un estilo de crecimiento con homogeneidad social y con intensificación de
las exportaciones industriales.
1. El contexto Histórico:
Desde mediados de los ‟60 y hasta los años „73-‟74 América Latina disfrutó de un crecimiento
acelerado y un gran desempeño exportador, a su vez tenía abundante liquidez internacional que
le permitió con apoyo del proceso de industrialización expandir sus importaciones. La reacción
de América Latina a la recesión mundial fue endeudarse para mantener el crecimiento o
estabilizar la economía.
En el plano de la producción y difusión de las ideas, la institución entraba a partir de los años
„73-‟74 en una nueva etapa rodeada por circunstancias históricas que le restaban parte de su
capacidad previa de influir en el pensamiento económico. Siguiendo la estela de la declinación
del Keynesianismo, se observaba una gradual decadencia en todo el mundo de la teoría del
desarrollo y la rápida aparición de una nueva ortodoxia en cuanto al análisis de las economías en
desarrollo.
2. La interpretación de los estilos de crecimiento y la industrialización proexportadora: Se
concretó en los años ‟70 la idea de estilos o modalidades de crecimiento, estimulado por cuatro
influencias:
( i ) Reconocimiento de que la reforma agraria y la redistribución del ingreso constituirán
la base de un crecimiento homogeneo y justo.
( ii ) Las Naciones Unidas promovían un debate en torno a esos mismos temas.
( iii ) Los intelectuales hacían críticas metodológicas acerca del debate.
( iv ) La crisis de los años „73-‟74 y el aumento de la deuda reforzaron el énfasis en
reorientar la modalidad o estilo de industrialización.
a. Estilos: La referencia principal de los ‟70 sobre los estilos es el texto de Aníbal Pinto Notas
sobre los estilos de desarrollo de América Latina, en la cual dice que "los estilos son la
modalidad concreta y dinámica adoptada por un sistema en un ámbito definido y en un
momento histórico determinado".
b. La nueva modalidad de industrialización, combinado el mercado externo y la exportación: En
la segunda mitad de los años ‟70, el diagnóstico sobre las tendencias y las proposiciones de
política de la CEPAL refuerzan la industrialización y las exportaciones para enfrentar la
inserción internacional. Se sostenía que no había antagonismo del mercado interno y la
apertura exportadora, sino que serían procesos complementarios en una estrategia de
industrialización.
40
Los Años ’80: Por un ajuste con crecimiento.
1. Contexto Histórico:
En los primeros tres años de los años ‟80 los casos de crisis cambiaria se fueron sucediendo en
América Latina. En el clima ideológico se desencadenaba un poderoso ataque contra el Estado,
el empresariado y los sindicatos, aduciendo que estaban con una actitud rentista.
2. Ajuste expansivo y ensayos para la fase post-ajuste:
La crisis de las años ‟80 desplazaría finalmente a un segundo plano la producción desarrollista.
Se privilegiaban las cuestiones inmediatas ligadas a la deuda, el ajuste y la estabilización. En
relación con las políticas de ajuste, la solución sería que el desequilibrio externo se resolviera en
un contexto de crecimiento económico, propicio a la inversión en sectores de bienes transables.
El ajuste tendría que incluir un uso más flexible y pragmático de los instrumentos de política
económica.
Los años ’90 y la agenda de la transformación productiva con equidad.
1. Contexto Histórico:
En el ámbito del desempeño y la política económica hubo una moderada recuperación
económica y una estabilización importante en los precios. La estabilización se acompañó del
control del déficit fiscal y de la cautela en el manejo del crédito, pero también del déficit en la
cuenta corriente de la balanza de pagos. Cabe agregar que la vulnerabilidad externa de la crisis
asiática de los años
'97-'98 reforzó el déficit en la cuenta corriente. Por otro lado se viene dando un rápido proceso de
reformas, que incluye la apertura comercial y financiera, la privatización y la flexibilización
laboral.
2. El progreso técnico con mejorías distributivas:
Se asienta la estrategia cepalina en la conquista de mayor competitividad internacional, basada
en la incorporación del progreso técnico al proceso productivo. Se destaca el carácter sistemático
de la competitividad, la formación de recursos humanos, y las políticas tecnológicas activas. La
industria permanece como eje de la transformación productiva. Se propone una mayor apertura a
la economía gradual y selectiva, como medio de introducir el progreso técnico y el aumento de la
productividad, también como herramienta para expandir las importaciones y las exportaciones, lo
que implica disponibilidad de divisas y armonización de la política cambiaria con la política de
protección arancelaria y la promoción de exportaciones.
Los cepalinos de los años ‟50 estudiaban las transformaciones económicas y sociales que
ocurrían durante las primeras etapas de cambio del modelo primario exportador al urbano
industrial. Derivaban un programa de políticas, incluso por la vía de la intervención del Estado,
para corregir los problemas estructurales que el mercado no tendría como hacer en forma
espontánea.
41
En los años ‟90 los cepalinos se centran en las transformaciones que se dan por la reorientación
de los marcos reguladores, mediante la liberalización de los mercados y la reforma del Estado,
especialmente mediante las privatizaciones.
Síntesis de los elementos analíticos que componen el pensamiento de la CEPAL
Elementos permanentes
Períodos y temas
Inserción
internacional (centroperiferia y
vulnerabilidad
externa
Deterioro de los
términos del inter1948-1960
cambio; desequilibrio
(industrialización) estructural de la
balanza de pagos;
integración regional
Análisis histórico-estructuralista
Condiciones estructurales
internas (económicas y
sociales) del
Acción estatal
crecimiento/progreso técnico,
y del empleo/distribución del
ingreso
Proceso de industrialización
sustitutiva; tendencias
perversas causadas por la
especialización y la
heterogeneidad estructural y
desempleo
Conducir
deliberadamente la
industrialización
1960
(reformas)
Dependencia; política
internacional de
reducción de la
vulnerabilidad en la
periferia
Reforma agraria y distribución
del ingreso como requisito
Reformar para
para redinamizar la economía; viabilizar el
heterogeneidad estructural;
desarrollo
dependencia
1970
(estilos de
crecimiento)
Dependencia,
endeudamiento
peligroso.
Insuficiencia
exportadora
Estilos de crecimiento,
estructura productiva y
distributiva y estructuras de
poder; industrialización que
combina el mercado interno y
el esfuerzo exportador
Viabilizar el estilo
que lleve a la
homogeneidad social;
fortalecer las
exportaciones
industriales
1980
(deuda)
Asfixia financiera
Ajuste con crecimiento;
oposición a los choques del
ajuste, necesidad de políticas
de ingreso y eventual
conveniencia de choques
estabilizadores; costo social
del ajuste
Renegociar la deuda
para ajustar el
crecimiento
1990-1998
(transformación
productiva con
equidad
Especialización
exportadora ineficaz Dificultades para una
y vulnerabilidad a los transformación productiva
movimientos de
social eficaz
capitales
Ejecutar políticas para
fortalecer la
transformación
productiva con
equidad
42
BIBLIOGRAFÍA
DORNBUSCH, RUDIGER ; FISCHER, STANLEY “Macroeconomía”. Ed. Mc Graw-Hill.
DOUGLAS C. NORTH. “Instituciones, cambio institucional y desempeño económico” . Fondo
de Cultura Económica. México 1993.
JIMENEZ, FÉLIX. “Macroeconomía Keynesiana de la Determinación de los Niveles de
Producción y Empleo”. Pontificia Universidad Católica de Perú. Mayo 1999.
PINO, JORGE; LAVANDEROS, HERNÁN; CERDA, JORGE.
Socioeconomico. Universidad del Bio-Bio Chile 2000.
Historia del Pensamiento
QUILIS, ENRIQUE M. “Apuntes de Teoría de los Ciclos”. Instituto de Estudios Fiscales.
Documento N° 1/98. Universidad Autónoma de Madrid. Enero 1998.
SUNKEL, OSVALDO; PAZ, PEDRO. “El Subdesarrollo Latinoamericano y La Teoría del
Desarrollo”. Editorial. Siglo XXI. México 1970.
TORRES, JOSÉ LUIS. “Introducción a la Macroeconomía.: Cuestiones Básicas y Estado Actual
de la Macroeconomía”. Universidad de Málaga. España. s/f.
BIBLIOGRAFIA VIRTUAL
www.mercado.com.ar/grandesdebates
www.eumed.net/cursecon/economistas
www.cepal.cl
43