Tipos de interés reales y expectativas de inflación en EE.UU., 2003-2017

En los últimos años, la emisión de bonos indiciados a la inflación (o protegidos contra la inflación) ha experimentado un fuerte crecimiento en los principales mercados de deuda pública. Los bonos indiciados más conocidos son los emitidos por el Tesoro de los EE.UU. Se trata de los bonos de deuda pública conocidos como Treasury InflationProtected Securities (TIPS).

La característica principal de los bonos indiciados es que su rendimiento se encuentra protegido ante la inflación futura, ya que se compensa al comprador tanto en los cupones como en el capital invertido (al vencimiento) por la pérdida de poder adquisitivo ocasionada por la inflación. De este modo, mientras en los bonos de deuda pública “convencionales” su rentabilidad vendría determinada por el tipo de interés nominal en los bonos indiciados a la inflación la rentabilidad vendría determinada por los tipos de interés reales.

En la literatura económica se ha sugerido desde mediados de la década de los noventa el uso de los bonos indiciados para medir el tipo de interés real y las expectativas de inflación de los mercados financieros. Dicha descomposición tiene como justificación teórica la conocida ecuación de Fisher, la cual determina que el rendimiento nominal de un bono se puede aproximar por la suma del tipo de interés real requerido y la tasa de inflación esperada como promedio durante el periodo de vida del título hasta el vencimiento: R= rπe. [1] Por ello, los bonos indiciados son uno de los instrumentos (junto a las encuestas de expectativas macroeconómicas) que utilizan los bancos centrales para el seguimiento de las expectativas de inflación a largo plazo dentro de su estrategia global de política monetaria.

En el primer gráfico se muestra la senda temporal de la rentabilidad nominal de los bonos de deuda pública “convencionales” a 5 años (5-Year Treasury Constant Maturity Rate) y la rentabilidad de los TIPS equivalentes a 5 años (5-Year Treasury Inflation-Indexed Security) que aproxima al tipo de interés real. En el segundo gráfico se ha calculado el diferencial  o spread entre el bono convencional y el TIPS (5-Year Breakeven Inflation Rate) que aproxima la inflación esperada en los próximos 5 años.

Los tipos de interés negativos son imposibles en los bonos de deuda pública convencionales, porque ello implicaría que el inversor recupera menos dinero del que ha invertido. Sería más lógico dejar el dinero en la cuenta corriente sin remuneración alguna. Sin embargo, sí son posibles tipos de interés negativos en los bonos indiciados con la inflación, ya que en este caso la remuneración no es el tipo de interés nominal (R) sino el tipo de interés real ( re).

Es en en este contexto donde ha surgido otra anomalía monetaria derivada de la crisis financiera internacional de 2007-2008. Por primera vez desde el inicio de la emisión de bonos indiciados contra la inflación a 5 años (enero de 2003) la rentabilidad de estos bonos se situaron por debajo de cero en septiembre de 2010. Desde esa fecha, los tipos de interés de los TIPS a 5 años han cotizado con tipos de interés negativos en numerosas ocasiones, alcanzando el mínimo en septiembre de 2012.

Con más detalle, en septiembre del 2012, los bonos de deuda pública convencionales a 5 años cotizaban con una rentabilidad del 0,67% (R), mientras que la rentabilidad de los bonos equivalentes TIPS a 5 años cotizaban con una rentabilidad del -1,47% (re). Está rentabilidad negativa supone que los inversores que adquieren estos activos demandan una rentabilidad “segura” (se “conforman” con una rentabilidad) de 1,47 puntos porcentuales por debajo de la tasa de inflación media esperada hasta el vencimiento del TIPS. En definitiva, si se cumple el Efecto Fisher, los mercados estarían anticipando que la tasa de inflación americana se iba a situar en los siguientes 5 años en una media de al menos el 2,14%  (πe ).

Los últimos datos disponibles correspondientes finales mayo de 2017 muestran que los bonos de deuda pública convencionales a 5 años tenían una rentabilidad del 1,82% (R), mientras que la rentabilidad de los bonos equivalentes TIPS a 5 años era del +0,08% ( re). En definitiva, si se cumple el Efecto Fisher, los mercados estarían anticipando en este caso que la tasa de inflación americana se podría situar en los próximos 5 años en una media de al menos el 1,74% ( πe ). En este caso, los inversores que adquieren estos activos demandan una rentabilidad “segura” con rentabilidad cero hasta el vencimiento del TIPS.

Por último, destacar los cambios estructurales registrado en el comportamiento paralelo del diferencial o spread (5-Year Breakeven Inflation Rate).

Por un lado, desde julio de 2008 y hasta el 16 de enero de 2009, el diferencial fue cayendo hasta pasar a niveles negativos. En este periodo, los inversores esperaban que la tasa de inflación sería negativa en los próximos cinco años, es decir, estaban anticipando la posibilidad de un periodo de deflación o caída generalizada de los niveles de precios en la economía americana.

Por otro lado, la introducción entre finales del 2008 y el primer trimestre de 2009 del primer programa QE-1 de compra masiva de bonos de deuda pública (y otros activos) por parte de la Reserva Federal provocó el cambio de tendencia del diferencial. Desde entonces -y sobre todo desde el anuncio de la introducción del nuevo programa QE-2- se ha registrado un cambio de expectativas en la tasa de inflación futura. En consecuencia, las posibilidades de deflación se alejaron y el diferencial se volvió positivo como consecuencia del temor de un repunte de la tasa de inflación futura. En esta situación nos encontramos en la actualidad.

———–

[1] Sobre el significado económico de la ecuación fisher, véase el artículo Bajo-Rubio, O., Díaz-Roldán, C. y Esteve, V. (2010): “Testing the Fisher effect in the presence of structural change: A case study of the UK, 1966-2007”, Economic Issues, Vol. 15, Part 2, 1-16.

La ley de Engel en EE.UU.: la caída del gasto en alimentación y bebidas en proporción al PIB, 1947-2016

La ley de Engel es una observación empírica, realizada por primera vez en 1857 por el estadístico alemán Ernst Engel, que observó que, con un conjunto dado de gustos y preferencias de los consumidores, si aumentaban la rentas de los hogares, la proporción de la renta gastada en alimentos disminuía. O lo que es los mismo, la elasticidad-renta de la demanda de alimentos es inferior a 1. La ley de Engel no implica que el gasto en alimentos se mantenga sin cambios a medida que aumenta la renta, sino que sugiere que los hogares aumentan sus gastos en alimentos, en proporción, menos de lo que aumentan sus rentas.

La elasticidad-renta de la demanda se define como la variación de la cantidad demandada de un bien o servicio ante una variación en la renta del consumidor, sin que se produzcan cambios en los precios ni en otras variables. O lo que es lo mismo, la elasticidad-renta de la demanda mide el cambio porcentual en la demanda de un bien asociado a un cambio del 1% en la renta del consumidor. En función de la elasticidad-renta de la demanda podemos clasificar los bienes y servicios en normales e inferiores.

Por un lado, los bienes y servicios normales poseen una elasticidad-renta de la demanda positiva, lo que supone que un aumento o disminución de la renta conlleva un aumento o disminución proporcional de la demanda del bien o servicio. A su vez los bienes y servicios normales se clasifican en bienes y servicios de primera necesidad (o necesarios) y de lujo.

En primer lugar, la demanda de los bienes y servicios de primera necesidad, cuya elasticidad-renta es inferior a 1, responde de manera moderada a cambios en la renta del consumidor. Los bienes y servicios de primera necesidad se siguen demandando aunque disminuya la renta del consumidor, es decir, tienen una elasticidad-renta es baja. Esto se debe a que el consumidor adquiere la cantidad que necesita de estos bienes y servicios sin que importe mucho que su renta suba o baje. Ejemplos de estos bienes y servicios de primera necesidad son la alimentación, la ropa, los zapatos, la electricidad y las bebidas, entre otros.

En segundo lugar, los bienes superiores o de lujo, cuya elasticidad-renta es superior a 1, responde de manera más acentuada a cambios en la renta del consumidor, es decir, suelen tener una elevada elasticidad-renta. Ejemplos de estos bienes y servicios superiores o de lujo son  los productos de ocio, los viajes de vacaciones, los restaurantes de lujo, los barcos deportivos, coches y motos de gama alta y las actividades deportivas, artísticas y los espectáculos, entre otros.

Por otro lado, los bienes y servicios  inferiores tienen una elasticidad-renta de la demanda negativa. En este caso, en un bien o servicio inferior un aumento de la renta origina una disminución de la demanda del bien o servicio. O viceversa, los bienes y servicios inferiores son aquellos que cuando disminuye la renta aumenta su demanda. Un ejemplo de bien inferior es la comida rápida o el billete de autobús. En última instancia, si una persona tiene un aumento en la renta, compra menos comida rápida o utiliza menos el autobús.

En el gráfico adjunto presentamos la ratio de los gastos de los hogares de EE.UU. en alimentos y bebidas (en % del PIB) para el periodo 19476-2016.

Esta relación está prácticamente en continuo descenso, con la excepción de los períodos de recesión (señalados con las barras verticales grises) cuando las rentas de los hogares caen más de lo habitual en los ciclos de mayor desempleo o de reducción significativa de las horas trabajadas. ¡La Ley de Engel sigue viva desde 1857!

La dependencia de las industrias manufactureras (y de los Estados) de EE.UU. de las importaciones de bienes intermedios del resto del mundo

El Presidente Trump ha iniciado una nueva política comercial proteccionista basada en dos ejes: (1) la no firma de nuevos Tratados de Libre Comercio y la salida o renegociación de los existentes; (2) y la posible imposición de aranceles y de otras barreras no arancelarias a las importaciones de bienes del resto del mundo. El objetivo es recuperar el empleo perdido durante décadas en la industria manufacturera norteamericana. Pero está política comercial puede tener efectos negativos para algunas industrias manufactureras y para algunos Estados de EE.UU. [1]

En el primer gráfico se muestra la evolución de la participación del empleo no agrícola del sector manufacturero en el total del empleo no agrícola de la economía de EE.UU. desde enero de 1950 hasta febrero de 2017. Las cifras certifican que la caída de la participación del empleo manufacturero es un proceso que se inició en los años 50 del siglo XX y desde entonces no cambiado la tendencia. Esta ratio ha descendido desde el 30,2% en enero de 1950 hasta el 8,5% de febrero de 2017.

El empleo tradicional en una fabrica ya no es el trabajo típico en la actualidad de un estadounidense. El sector industrial manufacturero que proporcionaba tres de cada diez puestos de trabajo no agrícolas en el inicio de la década de 1950 y uno de cada cuatro puestos de trabajo no agrícolas en el inicio de la década de 1970, hoy ofrece menos de uno de cada once ocupaciones no agrícolas. Proporcionalmente, EE.UU. ha perdido casi dos tercios del empleo manufacturero en relación al empleo total desde 1971.

Los efectos negativos sobre las industrias manufactureras de las medidas propuestas por la nueva Administración de EE.UU. provienen de la fuerte dependencia de bienes intermedios que podría llevar al encarecimiento de los bienes finales e incluso provocar problemas de abastecimiento a corto plazo de las cadenas de suministro.

En el siguiente gráfico se presenta para el año 2014 la participación de los bienes intermedios y de las materias primas importadas del resto del mundo en el VAB total de las diferentes industrias manufactureras de los EE.UU. Las cifras muestran la fuerte dependencia del exterior del conjunto de la industria (20,3%) y de algunas de las más relevantes ramas industriales manufactureras. Se sitúan por encima de la media nacional, el sector del petróleo y carbón (43,5%), otros equipos de transporte (25,8%), ordenadores y electrónica (24,5%), vehículos de motor y piezas (23,2%), maquinaria (21,5%) y equipos electrónicos (20,9%).

La dependencia de las importaciones de cada rama industrial manufacturera no afecta por igual a todos los Estados de EE.UU., ya que la estructura industrial no es homogénea. Los Estados que están más afectados son aquellos que tienen una mayor concentración en su estructura industrial de las ramas manufactureras con cuotas de importaciones de bienes intermedios y de materias primas más altas. En el siguiente gráfico se puede observar como los Estados más dependientes son Louisiana, Wyoming, Montana, Hawaii, Texas, New Mexico, Alaska, Oklahoma, Kansas, Washington, Ohio, Utah, Illinois, Minnesota y Michigan, entre otros.

El discurso de Trump podría ser también válido para la industria manufacturera alemana que ha seguido la misma tendencia de EE.UU. desde 1970, y no por ello el Gobierno alemán pide más proteccionismo comercial. El siguiente gráfico muestra la evolución de la participación del empleo del sector manufacturero en el total del empleo de la economía alemana de 1970 a 2015.

Las cifras confirman también que la caída de la participación del empleo manufacturero alemán es un proceso que se ha agudizado desde los años 70 del siglo XX y desde entonces tampoco ha cambiado la tendencia. Esta ratio ha descendido desde el 39,5% en 1970 hasta el 18,9% a finales de 2015.

El sector industrial manufacturero alemán proporcionaba cuatro de cada diez puestos de trabajo en el inicio de la década de 1970 y hoy ofrece menos de dos de cada diez ocupaciones. Proporcionalmente, Alemania ha perdido más de la mitad del empleo manufacturero en relación al empleo total desde 1970 (frente a los dos tercios de pérdida del empleo manufacturero norteamericano), pero a diferencia de EE.UU. la industria manufacturera alemana ha invertido más recursos relativos en innovación, ingeniería, diseño y en potenciar la formación profesional ligadas a las empresas.

El Gobierno de EE.UU. debería imitar a la industria manufacturera alemana e incentivar la innovación, la ingeniería, el diseño y la cualificación de la mano de obra, y dejar de lado el neoproteccionismo comercial.

————-

[1] Al contrario, la liberalización del comercio global y la importación de bienes intermedios y de materias primas más baratos mejora la competitividad de las empresas y aumenta las exportaciones de los países. Al respecto véase el estudio, ECB (2017): “The impact of global value chain participation on current account balances – a global perspective”, Economic Bulletin, issue 2, March, European Central Bank.

La nueva política comercial de los EE.UU. y el futuro de los Acuerdos de Libre Comercio

El nuevo presidente de EE.UU., Donald Trump, ha empezado a poner en marcha una nueva política comercial basada en el proteccionismo y la no participación de su país en los Acuerdos de Libre Comercio (ALC) en vigor o en fase de negociación. Veamos la situación actual de estos ALC.

a) TPP: Trans-Pacific Partnership; ATCE: Acuerdo Transpacífico de Cooperación Económica

En el TPP participan 12 países de la cuenca del Pacífico incluyendo a EE.UU. pero excluyendo a China (véase mapa adjunto). El TPP ya ha sido firmado, pero está pendiente de ratificación de los países miembros. El Presidente Trump firmó la orden ejecutiva el pasado 23 de enero para iniciar el proceso legal de salida de este ALC.

Fuente del mapa: Reuters

b) FTAAP: Free Trade Area of the Asia-Pacific; ALCAP: Área de Libre Comercio de Asia y el Pacífico

El FTAAP es un ALC promovido por el Foro de Cooperación Económica Asia-Pacífico (APEC) creado en 1989 para promover el libre comercio en esta región. En las negociaciones del FTAAP participan 21 países, incluido EE.UU. (véase mapa adjunto).  Las negociaciones van muy retrasadas. El Presidente Trump ya ha anunciado que los EE.UU. no participará en el FTAAP.

Fuente del mapa: Reuters

c) NAFTA: North American Free Trade Agreement; TLCAN: Tratado de Libre Comercio de America del Norte

El NAFTA es un ALC vigente desde 1984 en el que participa los EE.UU. junto a Canadá y México. El pasado 23 de enero el Presidente Trump firmó una orden ejecutiva para renegociar el NAFTA. Canadá da por muerto a este ALC, mientras que México ha anunciado que tratará de minimizar los costes para su economía en las renegociaciones con EE.UU.

d) TTIP: Transatlantic Trade and Investment Partnership; ATCI: Asociación Transatlántica para el Comercio y la Inversión

El TTIP es un ALC entre EE.UU. y la Unión Europea (UE) que ya ha sido negociado pero está pendiente de ratificar. Los EE.UU. y la UE suman cerca del 60% del PIB mundial, un tercio del comercio internacional de bienes y servicios y forman un mercado de 800 millones de consumidores.

En 2014, la UE mantuvo su posición como mayor socio comercial de los EE. UU. en materia de comercio de mercancías, por delante de Canadá y de China. Los EE. UU. fueron el principal destino de las exportaciones de la UE en 2014, absorbiendo el 18,3 % de las exportaciones totales de bienes de la UE (en comparación con el 9,7 % correspondiente a China). Los EE. UU. ocuparon el segundo puesto entre los socios de importación de la UE, y aun así suministraron el 12,2 % de los bienes importados por la UE. En este aspecto, los EE. UU. se quedaron por detrás de China, que suministró el 17,9 %, pero superaron a Rusia, que suministró el 10,8 % de las importaciones totales de la UE. En 2014, la UE registró un superávit del comercio de mercancías de 104.900 millones de euros con los EE. UU.

Las exportaciones de servicios de la UE a los EE. UU aumentaron entre 2012 y 2014, al igual que las importaciones a la UE de servicios de los EE. UU. En 2014, la UE registró un superávit del comercio de servicios de 11.600 millones de euros con los EE. UU.

El TTIP hubiera llevado a la mayor zona de libre comercio del mundo pero el Presidente Trump ha anunciado que los EE.UU. no ratificará este TLC en su actual redacción.

e) RCEP: Regional Comprehensive Economic Partnership; AEIR: Asociación Económica Integral Regional

El RCEP es una ALC que se está negociando entre 16 países de Asia y el Pacífico (no está EE.UU.) y que está liderado por China (véase mapa adjunto). El RCEP toma un nuevo impulso para la promoción del libre comercio en la región, una vez que EE.UU. ha decidido no participar en el TPP y en el FTAAP.

Fuente del mapa: Reuters

En conclusión, es muy probable que los acuerdos comerciales bilaterales se van a imponer a los multilaterales con la nueva Presidencia de Donald Trump. Malos tiempos para el libre comercio mundial. Y una paradoja, China toma el relevo de EE.UU. en la defensa del libre comercio.

La concentración de la renta y la riqueza en los EE.UU., 1913-2015

La desigualdad en el reparto de la renta y de la riqueza ha crecido en EE.UU. desde los años 80 del siglo XX hasta la actualidad. En los dos siguientes gráficos se muestra que entre los años 20 y los 70 se registró una caída de la participación de los hogares un 1% más ricos (y también de los hogares un 0,5% más ricos) en la renta (primer gráfico) y la riqueza (segundo gráfico) de los EE.UU. [1]

Por el contrario, desde los años 80 se produce un aumento de la participación de los hogares un 1% más ricos (y también de los hogares un 0,5% más ricos) en la renta y la riqueza. Y este fenómeno de mayor concentración de la renta y de la riqueza ha continuado a pesar de la crisis financiera y económica iniciada en 2007. Con más detalle, a finales de 2015 los hogares un 1% más ricos y un 0,5% más ricos acumulaban un 22,5% y un 17,5% de la renta, respectivamente, mientras que concentraban un 42% y un 35% de la riqueza, respectivamente.

Recientes estudios han constatado empíricamente el aumento constante de la desigualdad de la renta en los EE.UU. desde los años setenta del siglo XX [3]. Uno de los principales factores que explica este fenómeno son las diferencias en la composición de las rentas de los ricos y de los pobres. Desde el punto de vista estadístico, menos del 20% de los hogares norteamericanos tienen acciones, y estas familias son en su mayoría de clase alta. Y ello produce una dicotomía, ya que los ricos reciben la mayor parte de sus ingresos del mercado de valores (plusvalías, opciones sobre acciones y dividendos), mientas que la clase media y la clase pobre reciben la mayor parte de sus ingresos de las rentas del trabajo o de las pensiones. En última instancia, las clases altas se beneficiarían de los períodos de bonanza del mercado de valores, mientras que el resto de la población no [3].

La política monetaria no convencional de Flexibilización Cuantitativa introducida por la Reserva Federal para paliar los efectos de la crisis financiera ha impulsado el crecimiento de la economía de los EE.UU., pero a costa del aumento de la desigualdad de la renta y la riqueza. De hecho, tal y como se puede observar en el siguiente gráfico, el aumento extraordinario de la liquidez (activos totales de los bancos, línea roja) ha ido acompañado de un aumento paralelo sin precedentes de los precios de las acciones (índice S&P 500 de la Bolsa de Nueva York, línea azul).

———

[1] Los datos provienen de Saez, E. y Zucman, G. (2016): “Wealth Inequality in the United States since 1913: Evidence from Capitalized Income Tax Data”, Quarterly Journal of Economics, Vol. 131, No. 2, May.

[2] Un excelente resumen de los trabajos y la metodología utilizada en los estudios de la desigualdad de la renta recientes puede verse en el artículo de Owyang, M. T. y Shell, H.G.  (2016): “Measuring Trends in Income Inequality”, Federal Reserve Bank of St. Louis The Regional Economist, April, 24 (2), pp. 4-5.

[3] La evolución de la relación entre el índice de los precios de las acciones en la Bolsa de Nueva York (medidos por el índice S&P 500) y del coeficiente de Gini de los hogares de EE.UU. que aproxima la desigualdad de la renta, puede verse en Esteve, V. (6 de junio de 2016): “Desigualdad de la renta y evolución del mercado de valores en EE.UU., 1947-2013”, Blog Viaje al Fondo de las Finanzas Internacionales, http://vicenteesteve.blogspot.com.es/2016/06/desigualdad-de-la-renta-y-evolucion-del.html

¿Ha perjudicado el libre comercio a la industria manufacturera de EE.UU.?: el caso de la industria del automóvil, 2000-2016

Uno de los lemas preferidos de Donald Trump en la campaña de la Presidencia de los EE.UU. fue: Yes, We Can “Make America Great Again”. Pero los instrumentos que propone para lograr recuperar los puestos de trabajo perdidos en la industria manufacturera americana en las últimas décadas no parecen los más adecuados.

El ya electo Presidente propone una combinación de mayor proteccionismo comercial, mediante la imposición de aranceles y otras barreras no arancelarias al comercio, junto a la derogación de Tratados Comerciales de Libre Comercio en vigor y la paralización de las conversaciones de los nuevos Tratados Comerciales en curso.

Un ejemplo que debería tener en cuenta Trump – que va en la línea contraría de sus propuestas – es el de la industria automovilística americana. El anterior Presidente Obama logro salvar de la bancarrota a esta industria en 2009 con cuantiosas ayudas públicas. En concreto, GM y Chrysler, recibieron las ayudas y sólo Ford quedo fuera del rescate.

En el gráfico adjunto se muestra la evolución de la producción y del empleo de la industria del automóvil de los EE.UU. desde enero de 2000 a septiembre de 2016.

Las cifras muestran la caída de más del 50% en la producción y en el empleo entre el año 2000 y el 2008, aunque la caída de la producción se concentró en los años 2007 y 2008, coincidiendo con el inicio de la crisis financiera internacional. El aumento de los precios del petróleo y de los combustibles, la caída del crédito al consumo, el aumento acumulado de los costes laborales unitarios y la especialización en coches con un alto consumo de combustible, fueron las principales causas de la crisis reciente de la industria del automóvil americano.

A partir de la intervención del Gobierno Federal (y el de Canadá) el panorama cambia por completo. Las cifras de la producción se disparan e incluso el empleo se esta recuperando desde 2009. Los factores que han propiciado esta recuperación son la introducción de nuevas tecnologías para el ahorro de combustible, la inversión en I+D+i, la reducción de costes y el aumento de la eficiencia productiva de las plantas.

Este es el camino que deberían seguir el resto de sectores manufactureros (muebles, textil, producción de acero, entre otros). El otro camino – la utilización del proteccionismo comercial- , que propugna Donald Trump es el equivocado a largo plazo.

Y para terminar, es interesante destacar como un defensor a ultranza del proteccionismo comercial (sobre todo con China)  lleva en su campaña corbatas de seda que no son fabricadas en EE.UU.:

¿Se ha formado una burbuja en los mercados de deuda pública?

Robert J. Shiller, catedrático de Economía de Yale University y premio Nobel de Economía de 2013, acaba de publicar la tercera edición de su libro “Exuberancia Irracional“, material obligatorio de lectura para los estudiantes de Macroeconomía y de Finanzas.

En la primera edición de este libro libro, publicado en el año 2000, ya advirtió proféticamente en el capítulo 1 (“The stock market in historical perspective”) que los precios de las acciones estaban excesivamente caros y que se estaba gestando una burbuja en el mercado de valores de EE.UU. que tarde o temprano estallaría. La cima de la burbuja se alcanzó el 10 de marzo de 2000, cuando el mercado de empresas tecnológicas que formaban parte del índice Nasdaq composite llegó al punto máximo de 5048,62 puntos. Entre el 10 de marzo de 2000 y el 30 de septiembre de 2002, el índice Nasdaq composite de Nueva York perdió el 76,8% de su valor, al pasar de 5048,62 a 1172,06 puntos. La burbuja especulativa se pinchó y provoco la crisis de las “puntocom”, una fuerte caída del valor bursátil de las empresas y las posteriores quiebras, fusiones y adquisiciones.

En la segunda edición, publicada en 2005, Shiller incluyó un nuevo capítulo 2 dedicado a la valoración de los activos inmobiliarios (“The real estate market in historical perspective”) en el que advirtió que se había formado una burbuja inmobiliaria en EE.UU.,  que tarde o temprano estallaría.  La buena marcha de la economía y los bajos tipos de interés hicieron crecer la concesión de hipotecas de alto riesgo, y la comercialización de productos financieros asociados (titulización hipotecaria). Pero poco después de publicar el libro, se asistió en 2006 – tras una período de política monetaria muy restrictiva de la Reserva Federal (subidas bruscas y elevadas de los tipos de interés nominales) – a un aumento de los impagos de las hipotecas, a una caída brusca de los precios de las viviendas en EE.UU. y, en última instancia, al colapso del mercado de la vivienda y al pinchazo de la burbuja inmobiliaria.

Finalmente, en la tercera edición del libro, Shiller incluye un nuevo capítulo 3 sobre una perspectiva histórica del mercado de bonos (“The bond market in historical perspective”), en el que reflexiona sobre un nuevo problema financiero en el horizonte. En concreto, se muestra preocupado porque los precios de los bonos están en un nivel “irracionalmente” alto (o que los tipos de interés están en un nivel “irracionalmente” bajo) y que, en última instancia, se podría estar formando una burbuja en los mercados de deuda pública de EE.UU.. ¿Una tercera profecía que se cumplirá pronto?

En este vídeo reciente, Robert J. Shiller contesta en una entrevista a cuestiones relacionadas con el significado del término “exuberancia irracional”, los factores que influyen en la formación de burbujas financieras y la situación actual del mercado de bonos (fundamentalmente de deuda pública):

  • Entrevista a Robert Shiller.
  • La transcripción escrita en inglés de la entrevista puede leerse en el siguiente enlace.
  • En el siguiente enlace se puede leer más información sobre el significado del término “exuberancia irracional“, explicado por el propio Robert J. Shiller.

¿Está sobrevalorado el índice S&P 500 de la bolsa de Nueva York?

La ratio P/E o PER (del inglés, Price to Earnings Ratio, o la relación entre el precio o valor y los beneficios), mide cual número de veces el beneficio neto anual de una empresa determinada se encuentra incluido en el precio de una acción de ésta. La ratio PER se calcula dividiendo la capitalización bursátil de la empresa y su beneficio neto:

PER = Capitalización bursátil / Beneficio Neto

Como la capitalización bursátil es igual al precio por acción multiplicado por el número de acciones y el beneficio neto es igual al beneficio por acción multiplicado por el número de acciones, el PER también se puede aproximar por:

PER= Precio por acción / Beneficio Neto por acción

Por ejemplo, si la empresa cotiza a 26 dólares y el beneficio neto anual por acción es de 2,60 dólares, su PER sería de 10 (26/2,60).

La interpretación económica del valor que alcanza en un momento determinado la ratio P/E de una empresa que cotiza en bolsa (o de un índice bursátil) es bastante simple. Si una empresa (o un índice bursátil) tiene una ratio P/E elevada puede significar que las expectativas del valor son favorables y están anticipando un crecimiento de los beneficios en el futuro. Aunque también puede indicar que el precio de la acción (o del índice bursátil) está sobrevalorado y, por tanto, que resulte improbable que su cotización (o valor) siga subiendo en el futuro. Por el contrario, si una empresa (o un índice bursátil) tiene una ratio P/E baja puede indicar que la acción (o el índice bursátil) está infravalorada y que su cotización (o valor) puede aumentar a corto plazo.

No obstante, el PER tiene algunos inconvenientes. Por un lado, su utilización es más que dudosa para las empresas de sectores muy dependientes del ciclo económico cuando nos encontremos en la parte alta del ciclo. Los sectores cíclicos más típicos son las aerolíneas, los fabricantes de automóviles, las acerías, las papeleras, y las empresas relacionadas con las materias primas en general. Por ejemplo, una empresa puede tener un PER 10 en lo alto del ciclo económico y parecer “barata”, pero si la economía entra en recesión y esto le provoca una reducción de beneficios del 50%, el PER se duplicará hasta 20, convirtiéndose en una empresa “cara”. Por otro lado, el beneficio neto puede estar sesgado por la operativa contable de la empresa. Por ejemplo, las amortizaciones o las depreciaciones pueden hacer que el beneficio neto sea mayor o menor en base a la política de la empresa.

Para resolver alguno de los inconvenientes del PER para valorar a una empresa que cotiza en bolsa (o un índice bursátil), el catedrático de finanzas de la Universidad de Yale y premio Nobel de Economía, Robert Shiller, propuso una nueva ratio: el PER ajustado cíclicamente o CAPE (Cyclically Adjusted Price-Earnings, por sus siglas en inglés), conocido también como el Shiller PE Ratio o el PE/10.

El CAPE se obtiene por el cociente del precio por acción actual (o del índice bursátil) y el promedio de 10 años de los beneficios ajustados por la tasa de inflación. En definitiva, el CAPE es un indicador más preciso que el PER clásico, ya que elimina las fluctuaciones de la ratio provocadas por la variación de los márgenes de beneficio durante los ciclos económicos.

En el gráfico adjunto, se muestra la evolución histórica del CAPE del índice S&P 500 de la Bolsa de Nueva York para el periodo 1881-2014 (último dato disponible: 8 de diciembre de 2014).

Si utilizamos como ratio de valoración de la Bolsa de Nueva York el CAPE del S&P 500, vemos como el nivel actual se encuentra en 27,03, un 57,2% más alto que su media histórica de 16,61 desde 1881. [1] [2]

En definitiva, podríamos concluir que el mercado de valores de EE.UU. está sobrevalorado respecto a su media histórica.

————

[1] La media del PER clásico para el S&P 500 es de 15,5 desde 1871.

[2] Valor mínimo del CAPE del S&P 500: 4,78, diciembre de 1920. Valor máximo del CAPE del S&P 500: 44,20, diciembre de 1999. Mediana del CAPE del S&P 500: 15,97.

El índice Nasdaq alcanza los niveles récord de 2000: ¿nueva burbuja tecnológica en el horizonte?

Una burbuja especulativa es un fenómeno económico que consiste en un aumento desproporcionado del precio de algún activo, de forma que dicho precio se desvía sustancialmente de su valor teórico. Esta situación aparece como consecuencia de la especulación, de ahí el nombre de burbuja especulativa, y se mantiene hasta que finaliza la euforia y se produce un cambio en las expectativas de los inversores, que pierden la confianza en el mercado. La pérdida de confianza en el valor genera un período de pánico financiero en el que los inversores se apresuran a vender el activo con el objetivo de minimizar sus pérdidas o de obtener beneficios, provocando con su actitud una caída repentina y brusca de los precios del objeto de la especulación, que en determinadas circunstancias puede ocasionar un crack bursátil que produce una enorme caída de la riqueza financiera, e incluso una recesión económica.

La llamada burbuja “puntocom” fue una burbuja especulativa tecnológica que se generó entre 1995 y 2000 en el mercado de valores tecnológicos de EEUU, representado por el índice Nasdaq composite de Nueva York, donde las empresas tecnológicas, de telecomunicaciones y de internet (llamadas “puntocom”) vieron incrementado rápidamente el valor de su acciones. La salida a Bolsa de Netscape (compañía que ofrecía un navegador con el mismo nombre) en 1995, marcó el inicio de esta burbuja. Desde entonces y hasta el año 2000, se produjo una avalancha de operaciones en el sector “online”, en su mayoría fruto de la especulación.

En concreto, la burbuja especulativa tecnológica se sustento en promesas de grandes ganancias con baja inversión, fácil disponibilidad de capitales de riesgo, y nuevas empresas que ya no utilizaban los modelos de negocios y de organización tradicionales. Por ejemplo, estas empresas veían crecer de una manera desmesurada el número de sus clientes, a pesar de que tenían enormes pérdidas anuales o escasos beneficios.

La cima de la burbuja se alcanzó el 10 de marzo de 2000, cuando el mercado de empresas tecnológicas que formaban parte del índice Nasdaq composite llegó al punto máximo de 5048,62 puntos. El nivel de especulación era tan alto, que el valor de las empresas subía simplemente por tener en su nombre una “e-” (de “electronic”) como prefijo o un “.com” como sufijo.

Entre el 10 de marzo de 2000 y el 30 de septiembre de 2002, el índice Nasdaq composite de Nueva York perdió el 76,8% de su valor, al pasar de 5048,62 a 1172,06 puntos. La burbuja especulativa se pincho y provoco la crisis de las “puntocom”, una fuerte caída del valor bursátil de las empresas y las posteriores quiebras, fusiones y adquisiciones. Algunos estudios estiman que en el periodo 2000-2003 desaparecieron casi cinco mil compañías de internet por quiebra, fusión o adquisición.

No obstante, pese a la gran caída de sus acciones en el mercado de valores, muchas de estas empresas sobrevivieron, incluso utilizando estos nuevos tipos de negocios que habían hecho quebrar a muchas otras.

En el siguiente gráfico se representa la evolución temporal histórica de los índices Nasdaq:

– El índice Nasdaq composite es un índice bursátil de Estados Unidos, que refleja la evolución de aproximadamente las 3.000 empresas nacionales y extranjeras con mayor capitalización que cotizan en el Nasdaq Stock Market. Toma el valor 100 el 5 de febrero de 1971. Entre las empresas que forman parte de este índice, se encuentran algunas como, por ejemplo, Apple, Amazon, Microsoft, Cisco, Dell, Intel Corporation, Google, Oracle, Yahoo y Elizabeth Arden.

– El índice Nasdaq 100 es un índice bursátil de Estados Unidos, que refleja la evolución de las 100 empresas nacionales y extranjeras con mayor capitalización bursátil que cotizan en el mercado electrónico del Nasdaq (Nasdaq Stock Market). Toma el valor 100 el 2 de enero de 1986. Se incluyen dentro de este índice, empresas de telecomunicaciones, venta al comercio al por mayor y al por menor, empresas de hardware y software y de biotecnología, siempre y cuando formen parte del Nasdaq Stock Market.

Los mercados financieros viven en la actualidad con un miedo latente a que se haya desencadenado una nueva burbuja tecnológica y que esta pueda pinchar como en el año 2000. Una prueba que se introduce en este debate son los niveles récord que alcanzan los índices Nasdaq.

Como se puede ver en el gráfico, los últimos datos del 8 de diciembre de 2014 sitúan al índice Nasdaq composite y al índice Nasdaq 100 a un 6% y 6,7% de alcanzar los récord históricos del 10 de marzo de 2000, fecha de inicio del pinchazo de la burbuja tecnológica “puntocom” del 2000.

En este contexto, en la prensa estadounidense y en los círculos financieros de Wall Street ha vuelto a aparecer la temida palabra burbuja financiera tecnológica. Parte de los analistas se cuestiona ya si las empresas tecnológicas están sobrevaloradas, tal y como sucedió en el año 2000. Sin embargo, los analistas más optimistas señalan que la naturaleza y el comportamiento de las compañías tecnológicas incluidas en los índices Nasdaq ha cambiado desde el año 2000. En aquella burbuja tecnológica, las empresas eran valoradas por los mercados sin contar con un recorrido previo y las altas valoraciones de sus acciones se sustestaban en función del éxito futuro potencial. Los inversores formaban sus expectativas en función del futuro y en lo intangible. En la actualidad, las empresas tecnológicas tienen que demostrar que son capaces de generar beneficios y que tienen un proyecto solvente para obtener el apoyo de los inversores.

La Regla de Taylor y la política monetaria de la Reserva Federal de EE.UU., 1954-2013

51487-janet-yellen_0

En la últimos meses, distintos miembros (y algunos notables exmiembros) de la Junta de Gobernadores de la Reserva Federal de EE.UU. , han advertido que la subida de los tipos de interés de corto plazo (la tasa de los fondos federales) puede llegar mucho antes de lo que habían previsto hasta ahora los analistas, tal vez ya en el último trimestre de 2014 o en el primer trimestre de 2015. [1]

En la conferencia de prensa posterior a la última reunión del Comité Federal de Mercado Abierto de la Reserva Federal de EE.UU. de 18 de junio, la Presidenta de la Reserva Federal, Janet Yellen, no fué tan contundente. En primer lugar, constató tanto los avances en la reducción de la tasa de desempleo hasta el 6,3% en mayo (el objetivo para la retirada de los estímulos monetarios era del 6,5%), como el paulatino acercamiento de las tasas de inflación al objetivo del 2% (1,34% el deflactor del PIB, primer trimestre 2014; 2,13% el IPC General, mayo 2014; IPC sin incluir alimentos y energía, 1,94%, mayo 2014).

En segundo lugar, señaló que el objetivo de la tasa de los fondos federales actual (el 0,25%) se mantendrá cierto tiempo por debajo de su nivel “normal” a largo plazo (una vez finalizado a finales de 2014 el Programa de Compra de Activos aprobado el 12 de diciembre de 2012) en función de la evolución de una serie de indicadores que tienen relación con los efectos negativos derivados de la crisis financiera de 2007: gasto de los hogares, disponibilidad de crédito bancario, expectativas de crecimiento futuro de la producción y las rentas, y crecimiento del PIB potencial. En tercer lugar, también manifestó que los tipos de interés podrían subir a un ritmo ligeramente más rápido en 2015 y 2016 que las proyecciones anteriores, ya que mantiene su confianza en que la recuperación económica. Por último, Janet Yellen matizó que si la economía de EE.UU. se fortalece más rápidamente como señalan las proyecciones recientes, los tipos podrían subir antes de lo previsto.

¿Pero cuál es el nivel “normal” a largo plazo de las tasas de fondos federales a los que se refiere la Presidenta de la Reserva Federal? Una manera de aproximarse a este nivel “normal” a largo plazo es mediante la conocida Regla de Taylor.

John B. Taylor, catedrático de Economía de Stanford University, EE.UU., propuso en un seminal trabajo de 1993 una regla monetaria para establecer cambios en los tipos de interés de los fondos federales en función de la desviación de la producción real actual respecto a la producción real potencial y de la desviación de la inflación actual del objetivo de inflación, tal y como se puede ver en la siguiente expresión:

i = π + 0,5 (y – y*) + 0,5 (π – π*) + r   [a]

donde i es el tipo de interés nominal a corto plazo y objetivo de la Política Monetaria derivada de la Regla de Taylor (en nuestro caso, la tasa de interés de los fondos federales); y es la tasa de variación del PIB real; y* es la tasa de variación del PIB potencial, (y-y*) es el output gap; π es la tasa de inflación actual (medida por la variación del deflactor del PIB); π* es la tasa de inflación objetivo de la Reserva Federal (en nuestro caso el 2%); y r es la tasa de interés real de equilibrio (en el caso de la economía de EE.UU. el 2%).

Teniendo en cuenta los dos datos fijos, la regla de Taylor quedaría finalmente como:

i = 2+ 0,5 (y – y*) + 0,5 (π – π*) + 2   [b]

Desde el punto de vista práctico, si la economía de EE.UU. mantuviera una tasa de crecimiento real igual al crecimiento potencial y simultáneamente mantuviese su nivel de la tasa de inflación en el objetivo fijado a largo plazo (el 2% en el caso de la Reserva Federal), la Regla de Taylor sugeriría que la Reserva Federal debería fijar unos tipos de interés (nominales) de los fondos federales del 4%, lo que implica unos tipos de interés reales a corto plazo del 2%.

En el gráfico adjunto hemos representado la evolución de la tasas de interés (nominales) de fondos federales efectivos y las tasas de interés (nominales) implícitas de la Regla de Taylor (el tipo de interés que se fijaría de seguirse la Regla de Taylor de la ecuación [b]) para el periodo 1954-2013.

En primer lugar, constatar hasta que punto varían al unísono las dos series de tipos de interés, con quizá la excepción del periodo posterior a la crisis financiera de 2007. En segundo lugar, a finales de 2013 la tasa de interés (nominal) efectiva de los fondos federales se situaba en el 0,07%, mientras que la tasa de interés (nominal) implícita de los fondos federales derivada de la Regla de Taylor sería del 3%.

En síntesis, la Reserva Federal tendría – en base a los datos actuales de crecimiento real, crecimiento real potencial y de inflación – un recorrido de subidas de tipos de interés a corto plazo de 3 puntos porcentuales para cumplir estrictamente con la Regla de Taylor. Cabe determinar si el nuevo objetivo de tasa de fondos federales más elevado se fija en el horizonte de 2015 o 2016, y si comienza ya las subidas graduales en la segunda parte de 2014 o se aplaza a 2015.

En el siguiente cuadro se puede constatar como en la última reunión del 18 de junio del Comité Federal de Mercado Abierto de la Reserva Federal, de los 16 miembros con derecho a voto tan sólo un miembro propuso como objetivo de la tasa de fondos federales para 2015 el nivel del 3% derivado de la Regla de Taylor, mientras que para 2016 ya fue propuesto por seis miembros (cuatro de los cuales por encima del 3%), y ya en el ambiguo largo plazo todos los miembros propusieron objetivos superiores al 3%.

—–

[1] Los tipos o tasas de los fondos federales al que los bancos se conceden prestamos unos a otros. En las reuniones del Comité Federal de Mercado Abierto de la Reserva Federal de EE.UU. se puede elegir un nuevo objetivo para el tipo de los fondos federales y dar instrucciones a los operadores de bonos de la Reserva Federal para que realicen operaciones de mercado abierto con el fin de alcanzar el objetivo deseado.

Anteriores Entradas antiguas

Visita nuestra web para información sobre actividades

http://www.alde.es