La dependencia de las industrias manufactureras (y de los Estados) de EE.UU. de las importaciones de bienes intermedios del resto del mundo

El Presidente Trump ha iniciado una nueva política comercial proteccionista basada en dos ejes: (1) la no firma de nuevos Tratados de Libre Comercio y la salida o renegociación de los existentes; (2) y la posible imposición de aranceles y de otras barreras no arancelarias a las importaciones de bienes del resto del mundo. El objetivo es recuperar el empleo perdido durante décadas en la industria manufacturera norteamericana. Pero está política comercial puede tener efectos negativos para algunas industrias manufactureras y para algunos Estados de EE.UU. [1]

En el primer gráfico se muestra la evolución de la participación del empleo no agrícola del sector manufacturero en el total del empleo no agrícola de la economía de EE.UU. desde enero de 1950 hasta febrero de 2017. Las cifras certifican que la caída de la participación del empleo manufacturero es un proceso que se inició en los años 50 del siglo XX y desde entonces no cambiado la tendencia. Esta ratio ha descendido desde el 30,2% en enero de 1950 hasta el 8,5% de febrero de 2017.

El empleo tradicional en una fabrica ya no es el trabajo típico en la actualidad de un estadounidense. El sector industrial manufacturero que proporcionaba tres de cada diez puestos de trabajo no agrícolas en el inicio de la década de 1950 y uno de cada cuatro puestos de trabajo no agrícolas en el inicio de la década de 1970, hoy ofrece menos de uno de cada once ocupaciones no agrícolas. Proporcionalmente, EE.UU. ha perdido casi dos tercios del empleo manufacturero en relación al empleo total desde 1971.

Los efectos negativos sobre las industrias manufactureras de las medidas propuestas por la nueva Administración de EE.UU. provienen de la fuerte dependencia de bienes intermedios que podría llevar al encarecimiento de los bienes finales e incluso provocar problemas de abastecimiento a corto plazo de las cadenas de suministro.

En el siguiente gráfico se presenta para el año 2014 la participación de los bienes intermedios y de las materias primas importadas del resto del mundo en el VAB total de las diferentes industrias manufactureras de los EE.UU. Las cifras muestran la fuerte dependencia del exterior del conjunto de la industria (20,3%) y de algunas de las más relevantes ramas industriales manufactureras. Se sitúan por encima de la media nacional, el sector del petróleo y carbón (43,5%), otros equipos de transporte (25,8%), ordenadores y electrónica (24,5%), vehículos de motor y piezas (23,2%), maquinaria (21,5%) y equipos electrónicos (20,9%).

La dependencia de las importaciones de cada rama industrial manufacturera no afecta por igual a todos los Estados de EE.UU., ya que la estructura industrial no es homogénea. Los Estados que están más afectados son aquellos que tienen una mayor concentración en su estructura industrial de las ramas manufactureras con cuotas de importaciones de bienes intermedios y de materias primas más altas. En el siguiente gráfico se puede observar como los Estados más dependientes son Louisiana, Wyoming, Montana, Hawaii, Texas, New Mexico, Alaska, Oklahoma, Kansas, Washington, Ohio, Utah, Illinois, Minnesota y Michigan, entre otros.

El discurso de Trump podría ser también válido para la industria manufacturera alemana que ha seguido la misma tendencia de EE.UU. desde 1970, y no por ello el Gobierno alemán pide más proteccionismo comercial. El siguiente gráfico muestra la evolución de la participación del empleo del sector manufacturero en el total del empleo de la economía alemana de 1970 a 2015.

Las cifras confirman también que la caída de la participación del empleo manufacturero alemán es un proceso que se ha agudizado desde los años 70 del siglo XX y desde entonces tampoco ha cambiado la tendencia. Esta ratio ha descendido desde el 39,5% en 1970 hasta el 18,9% a finales de 2015.

El sector industrial manufacturero alemán proporcionaba cuatro de cada diez puestos de trabajo en el inicio de la década de 1970 y hoy ofrece menos de dos de cada diez ocupaciones. Proporcionalmente, Alemania ha perdido más de la mitad del empleo manufacturero en relación al empleo total desde 1970 (frente a los dos tercios de pérdida del empleo manufacturero norteamericano), pero a diferencia de EE.UU. la industria manufacturera alemana ha invertido más recursos relativos en innovación, ingeniería, diseño y en potenciar la formación profesional ligadas a las empresas.

El Gobierno de EE.UU. debería imitar a la industria manufacturera alemana e incentivar la innovación, la ingeniería, el diseño y la cualificación de la mano de obra, y dejar de lado el neoproteccionismo comercial.

————-

[1] Al contrario, la liberalización del comercio global y la importación de bienes intermedios y de materias primas más baratos mejora la competitividad de las empresas y aumenta las exportaciones de los países. Al respecto véase el estudio, ECB (2017): “The impact of global value chain participation on current account balances – a global perspective”, Economic Bulletin, issue 2, March, European Central Bank.

La nueva política comercial de los EE.UU. y el futuro de los Acuerdos de Libre Comercio

El nuevo presidente de EE.UU., Donald Trump, ha empezado a poner en marcha una nueva política comercial basada en el proteccionismo y la no participación de su país en los Acuerdos de Libre Comercio (ALC) en vigor o en fase de negociación. Veamos la situación actual de estos ALC.

a) TPP: Trans-Pacific Partnership; ATCE: Acuerdo Transpacífico de Cooperación Económica

En el TPP participan 12 países de la cuenca del Pacífico incluyendo a EE.UU. pero excluyendo a China (véase mapa adjunto). El TPP ya ha sido firmado, pero está pendiente de ratificación de los países miembros. El Presidente Trump firmó la orden ejecutiva el pasado 23 de enero para iniciar el proceso legal de salida de este ALC.

Fuente del mapa: Reuters

b) FTAAP: Free Trade Area of the Asia-Pacific; ALCAP: Área de Libre Comercio de Asia y el Pacífico

El FTAAP es un ALC promovido por el Foro de Cooperación Económica Asia-Pacífico (APEC) creado en 1989 para promover el libre comercio en esta región. En las negociaciones del FTAAP participan 21 países, incluido EE.UU. (véase mapa adjunto).  Las negociaciones van muy retrasadas. El Presidente Trump ya ha anunciado que los EE.UU. no participará en el FTAAP.

Fuente del mapa: Reuters

c) NAFTA: North American Free Trade Agreement; TLCAN: Tratado de Libre Comercio de America del Norte

El NAFTA es un ALC vigente desde 1984 en el que participa los EE.UU. junto a Canadá y México. El pasado 23 de enero el Presidente Trump firmó una orden ejecutiva para renegociar el NAFTA. Canadá da por muerto a este ALC, mientras que México ha anunciado que tratará de minimizar los costes para su economía en las renegociaciones con EE.UU.

d) TTIP: Transatlantic Trade and Investment Partnership; ATCI: Asociación Transatlántica para el Comercio y la Inversión

El TTIP es un ALC entre EE.UU. y la Unión Europea (UE) que ya ha sido negociado pero está pendiente de ratificar. Los EE.UU. y la UE suman cerca del 60% del PIB mundial, un tercio del comercio internacional de bienes y servicios y forman un mercado de 800 millones de consumidores.

En 2014, la UE mantuvo su posición como mayor socio comercial de los EE. UU. en materia de comercio de mercancías, por delante de Canadá y de China. Los EE. UU. fueron el principal destino de las exportaciones de la UE en 2014, absorbiendo el 18,3 % de las exportaciones totales de bienes de la UE (en comparación con el 9,7 % correspondiente a China). Los EE. UU. ocuparon el segundo puesto entre los socios de importación de la UE, y aun así suministraron el 12,2 % de los bienes importados por la UE. En este aspecto, los EE. UU. se quedaron por detrás de China, que suministró el 17,9 %, pero superaron a Rusia, que suministró el 10,8 % de las importaciones totales de la UE. En 2014, la UE registró un superávit del comercio de mercancías de 104.900 millones de euros con los EE. UU.

Las exportaciones de servicios de la UE a los EE. UU aumentaron entre 2012 y 2014, al igual que las importaciones a la UE de servicios de los EE. UU. En 2014, la UE registró un superávit del comercio de servicios de 11.600 millones de euros con los EE. UU.

El TTIP hubiera llevado a la mayor zona de libre comercio del mundo pero el Presidente Trump ha anunciado que los EE.UU. no ratificará este TLC en su actual redacción.

e) RCEP: Regional Comprehensive Economic Partnership; AEIR: Asociación Económica Integral Regional

El RCEP es una ALC que se está negociando entre 16 países de Asia y el Pacífico (no está EE.UU.) y que está liderado por China (véase mapa adjunto). El RCEP toma un nuevo impulso para la promoción del libre comercio en la región, una vez que EE.UU. ha decidido no participar en el TPP y en el FTAAP.

Fuente del mapa: Reuters

En conclusión, es muy probable que los acuerdos comerciales bilaterales se van a imponer a los multilaterales con la nueva Presidencia de Donald Trump. Malos tiempos para el libre comercio mundial. Y una paradoja, China toma el relevo de EE.UU. en la defensa del libre comercio.

La concentración de la renta y la riqueza en los EE.UU., 1913-2015

La desigualdad en el reparto de la renta y de la riqueza ha crecido en EE.UU. desde los años 80 del siglo XX hasta la actualidad. En los dos siguientes gráficos se muestra que entre los años 20 y los 70 se registró una caída de la participación de los hogares un 1% más ricos (y también de los hogares un 0,5% más ricos) en la renta (primer gráfico) y la riqueza (segundo gráfico) de los EE.UU. [1]

Por el contrario, desde los años 80 se produce un aumento de la participación de los hogares un 1% más ricos (y también de los hogares un 0,5% más ricos) en la renta y la riqueza. Y este fenómeno de mayor concentración de la renta y de la riqueza ha continuado a pesar de la crisis financiera y económica iniciada en 2007. Con más detalle, a finales de 2015 los hogares un 1% más ricos y un 0,5% más ricos acumulaban un 22,5% y un 17,5% de la renta, respectivamente, mientras que concentraban un 42% y un 35% de la riqueza, respectivamente.

Recientes estudios han constatado empíricamente el aumento constante de la desigualdad de la renta en los EE.UU. desde los años setenta del siglo XX [3]. Uno de los principales factores que explica este fenómeno son las diferencias en la composición de las rentas de los ricos y de los pobres. Desde el punto de vista estadístico, menos del 20% de los hogares norteamericanos tienen acciones, y estas familias son en su mayoría de clase alta. Y ello produce una dicotomía, ya que los ricos reciben la mayor parte de sus ingresos del mercado de valores (plusvalías, opciones sobre acciones y dividendos), mientas que la clase media y la clase pobre reciben la mayor parte de sus ingresos de las rentas del trabajo o de las pensiones. En última instancia, las clases altas se beneficiarían de los períodos de bonanza del mercado de valores, mientras que el resto de la población no [3].

La política monetaria no convencional de Flexibilización Cuantitativa introducida por la Reserva Federal para paliar los efectos de la crisis financiera ha impulsado el crecimiento de la economía de los EE.UU., pero a costa del aumento de la desigualdad de la renta y la riqueza. De hecho, tal y como se puede observar en el siguiente gráfico, el aumento extraordinario de la liquidez (activos totales de los bancos, línea roja) ha ido acompañado de un aumento paralelo sin precedentes de los precios de las acciones (índice S&P 500 de la Bolsa de Nueva York, línea azul).

———

[1] Los datos provienen de Saez, E. y Zucman, G. (2016): “Wealth Inequality in the United States since 1913: Evidence from Capitalized Income Tax Data”, Quarterly Journal of Economics, Vol. 131, No. 2, May.

[2] Un excelente resumen de los trabajos y la metodología utilizada en los estudios de la desigualdad de la renta recientes puede verse en el artículo de Owyang, M. T. y Shell, H.G.  (2016): “Measuring Trends in Income Inequality”, Federal Reserve Bank of St. Louis The Regional Economist, April, 24 (2), pp. 4-5.

[3] La evolución de la relación entre el índice de los precios de las acciones en la Bolsa de Nueva York (medidos por el índice S&P 500) y del coeficiente de Gini de los hogares de EE.UU. que aproxima la desigualdad de la renta, puede verse en Esteve, V. (6 de junio de 2016): “Desigualdad de la renta y evolución del mercado de valores en EE.UU., 1947-2013”, Blog Viaje al Fondo de las Finanzas Internacionales, http://vicenteesteve.blogspot.com.es/2016/06/desigualdad-de-la-renta-y-evolucion-del.html

¿Ha perjudicado el libre comercio a la industria manufacturera de EE.UU.?: el caso de la industria del automóvil, 2000-2016

Uno de los lemas preferidos de Donald Trump en la campaña de la Presidencia de los EE.UU. fue: Yes, We Can “Make America Great Again”. Pero los instrumentos que propone para lograr recuperar los puestos de trabajo perdidos en la industria manufacturera americana en las últimas décadas no parecen los más adecuados.

El ya electo Presidente propone una combinación de mayor proteccionismo comercial, mediante la imposición de aranceles y otras barreras no arancelarias al comercio, junto a la derogación de Tratados Comerciales de Libre Comercio en vigor y la paralización de las conversaciones de los nuevos Tratados Comerciales en curso.

Un ejemplo que debería tener en cuenta Trump – que va en la línea contraría de sus propuestas – es el de la industria automovilística americana. El anterior Presidente Obama logro salvar de la bancarrota a esta industria en 2009 con cuantiosas ayudas públicas. En concreto, GM y Chrysler, recibieron las ayudas y sólo Ford quedo fuera del rescate.

En el gráfico adjunto se muestra la evolución de la producción y del empleo de la industria del automóvil de los EE.UU. desde enero de 2000 a septiembre de 2016.

Las cifras muestran la caída de más del 50% en la producción y en el empleo entre el año 2000 y el 2008, aunque la caída de la producción se concentró en los años 2007 y 2008, coincidiendo con el inicio de la crisis financiera internacional. El aumento de los precios del petróleo y de los combustibles, la caída del crédito al consumo, el aumento acumulado de los costes laborales unitarios y la especialización en coches con un alto consumo de combustible, fueron las principales causas de la crisis reciente de la industria del automóvil americano.

A partir de la intervención del Gobierno Federal (y el de Canadá) el panorama cambia por completo. Las cifras de la producción se disparan e incluso el empleo se esta recuperando desde 2009. Los factores que han propiciado esta recuperación son la introducción de nuevas tecnologías para el ahorro de combustible, la inversión en I+D+i, la reducción de costes y el aumento de la eficiencia productiva de las plantas.

Este es el camino que deberían seguir el resto de sectores manufactureros (muebles, textil, producción de acero, entre otros). El otro camino – la utilización del proteccionismo comercial- , que propugna Donald Trump es el equivocado a largo plazo.

Y para terminar, es interesante destacar como un defensor a ultranza del proteccionismo comercial (sobre todo con China)  lleva en su campaña corbatas de seda que no son fabricadas en EE.UU.:

¿Se ha formado una burbuja en los mercados de deuda pública?

Robert J. Shiller, catedrático de Economía de Yale University y premio Nobel de Economía de 2013, acaba de publicar la tercera edición de su libro “Exuberancia Irracional“, material obligatorio de lectura para los estudiantes de Macroeconomía y de Finanzas.

En la primera edición de este libro libro, publicado en el año 2000, ya advirtió proféticamente en el capítulo 1 (“The stock market in historical perspective”) que los precios de las acciones estaban excesivamente caros y que se estaba gestando una burbuja en el mercado de valores de EE.UU. que tarde o temprano estallaría. La cima de la burbuja se alcanzó el 10 de marzo de 2000, cuando el mercado de empresas tecnológicas que formaban parte del índice Nasdaq composite llegó al punto máximo de 5048,62 puntos. Entre el 10 de marzo de 2000 y el 30 de septiembre de 2002, el índice Nasdaq composite de Nueva York perdió el 76,8% de su valor, al pasar de 5048,62 a 1172,06 puntos. La burbuja especulativa se pinchó y provoco la crisis de las “puntocom”, una fuerte caída del valor bursátil de las empresas y las posteriores quiebras, fusiones y adquisiciones.

En la segunda edición, publicada en 2005, Shiller incluyó un nuevo capítulo 2 dedicado a la valoración de los activos inmobiliarios (“The real estate market in historical perspective”) en el que advirtió que se había formado una burbuja inmobiliaria en EE.UU.,  que tarde o temprano estallaría.  La buena marcha de la economía y los bajos tipos de interés hicieron crecer la concesión de hipotecas de alto riesgo, y la comercialización de productos financieros asociados (titulización hipotecaria). Pero poco después de publicar el libro, se asistió en 2006 – tras una período de política monetaria muy restrictiva de la Reserva Federal (subidas bruscas y elevadas de los tipos de interés nominales) – a un aumento de los impagos de las hipotecas, a una caída brusca de los precios de las viviendas en EE.UU. y, en última instancia, al colapso del mercado de la vivienda y al pinchazo de la burbuja inmobiliaria.

Finalmente, en la tercera edición del libro, Shiller incluye un nuevo capítulo 3 sobre una perspectiva histórica del mercado de bonos (“The bond market in historical perspective”), en el que reflexiona sobre un nuevo problema financiero en el horizonte. En concreto, se muestra preocupado porque los precios de los bonos están en un nivel “irracionalmente” alto (o que los tipos de interés están en un nivel “irracionalmente” bajo) y que, en última instancia, se podría estar formando una burbuja en los mercados de deuda pública de EE.UU.. ¿Una tercera profecía que se cumplirá pronto?

En este vídeo reciente, Robert J. Shiller contesta en una entrevista a cuestiones relacionadas con el significado del término “exuberancia irracional”, los factores que influyen en la formación de burbujas financieras y la situación actual del mercado de bonos (fundamentalmente de deuda pública):

  • Entrevista a Robert Shiller.
  • La transcripción escrita en inglés de la entrevista puede leerse en el siguiente enlace.
  • En el siguiente enlace se puede leer más información sobre el significado del término “exuberancia irracional“, explicado por el propio Robert J. Shiller.

¿Está sobrevalorado el índice S&P 500 de la bolsa de Nueva York?

La ratio P/E o PER (del inglés, Price to Earnings Ratio, o la relación entre el precio o valor y los beneficios), mide cual número de veces el beneficio neto anual de una empresa determinada se encuentra incluido en el precio de una acción de ésta. La ratio PER se calcula dividiendo la capitalización bursátil de la empresa y su beneficio neto:

PER = Capitalización bursátil / Beneficio Neto

Como la capitalización bursátil es igual al precio por acción multiplicado por el número de acciones y el beneficio neto es igual al beneficio por acción multiplicado por el número de acciones, el PER también se puede aproximar por:

PER= Precio por acción / Beneficio Neto por acción

Por ejemplo, si la empresa cotiza a 26 dólares y el beneficio neto anual por acción es de 2,60 dólares, su PER sería de 10 (26/2,60).

La interpretación económica del valor que alcanza en un momento determinado la ratio P/E de una empresa que cotiza en bolsa (o de un índice bursátil) es bastante simple. Si una empresa (o un índice bursátil) tiene una ratio P/E elevada puede significar que las expectativas del valor son favorables y están anticipando un crecimiento de los beneficios en el futuro. Aunque también puede indicar que el precio de la acción (o del índice bursátil) está sobrevalorado y, por tanto, que resulte improbable que su cotización (o valor) siga subiendo en el futuro. Por el contrario, si una empresa (o un índice bursátil) tiene una ratio P/E baja puede indicar que la acción (o el índice bursátil) está infravalorada y que su cotización (o valor) puede aumentar a corto plazo.

No obstante, el PER tiene algunos inconvenientes. Por un lado, su utilización es más que dudosa para las empresas de sectores muy dependientes del ciclo económico cuando nos encontremos en la parte alta del ciclo. Los sectores cíclicos más típicos son las aerolíneas, los fabricantes de automóviles, las acerías, las papeleras, y las empresas relacionadas con las materias primas en general. Por ejemplo, una empresa puede tener un PER 10 en lo alto del ciclo económico y parecer “barata”, pero si la economía entra en recesión y esto le provoca una reducción de beneficios del 50%, el PER se duplicará hasta 20, convirtiéndose en una empresa “cara”. Por otro lado, el beneficio neto puede estar sesgado por la operativa contable de la empresa. Por ejemplo, las amortizaciones o las depreciaciones pueden hacer que el beneficio neto sea mayor o menor en base a la política de la empresa.

Para resolver alguno de los inconvenientes del PER para valorar a una empresa que cotiza en bolsa (o un índice bursátil), el catedrático de finanzas de la Universidad de Yale y premio Nobel de Economía, Robert Shiller, propuso una nueva ratio: el PER ajustado cíclicamente o CAPE (Cyclically Adjusted Price-Earnings, por sus siglas en inglés), conocido también como el Shiller PE Ratio o el PE/10.

El CAPE se obtiene por el cociente del precio por acción actual (o del índice bursátil) y el promedio de 10 años de los beneficios ajustados por la tasa de inflación. En definitiva, el CAPE es un indicador más preciso que el PER clásico, ya que elimina las fluctuaciones de la ratio provocadas por la variación de los márgenes de beneficio durante los ciclos económicos.

En el gráfico adjunto, se muestra la evolución histórica del CAPE del índice S&P 500 de la Bolsa de Nueva York para el periodo 1881-2014 (último dato disponible: 8 de diciembre de 2014).

Si utilizamos como ratio de valoración de la Bolsa de Nueva York el CAPE del S&P 500, vemos como el nivel actual se encuentra en 27,03, un 57,2% más alto que su media histórica de 16,61 desde 1881. [1] [2]

En definitiva, podríamos concluir que el mercado de valores de EE.UU. está sobrevalorado respecto a su media histórica.

————

[1] La media del PER clásico para el S&P 500 es de 15,5 desde 1871.

[2] Valor mínimo del CAPE del S&P 500: 4,78, diciembre de 1920. Valor máximo del CAPE del S&P 500: 44,20, diciembre de 1999. Mediana del CAPE del S&P 500: 15,97.

El índice Nasdaq alcanza los niveles récord de 2000: ¿nueva burbuja tecnológica en el horizonte?

Una burbuja especulativa es un fenómeno económico que consiste en un aumento desproporcionado del precio de algún activo, de forma que dicho precio se desvía sustancialmente de su valor teórico. Esta situación aparece como consecuencia de la especulación, de ahí el nombre de burbuja especulativa, y se mantiene hasta que finaliza la euforia y se produce un cambio en las expectativas de los inversores, que pierden la confianza en el mercado. La pérdida de confianza en el valor genera un período de pánico financiero en el que los inversores se apresuran a vender el activo con el objetivo de minimizar sus pérdidas o de obtener beneficios, provocando con su actitud una caída repentina y brusca de los precios del objeto de la especulación, que en determinadas circunstancias puede ocasionar un crack bursátil que produce una enorme caída de la riqueza financiera, e incluso una recesión económica.

La llamada burbuja “puntocom” fue una burbuja especulativa tecnológica que se generó entre 1995 y 2000 en el mercado de valores tecnológicos de EEUU, representado por el índice Nasdaq composite de Nueva York, donde las empresas tecnológicas, de telecomunicaciones y de internet (llamadas “puntocom”) vieron incrementado rápidamente el valor de su acciones. La salida a Bolsa de Netscape (compañía que ofrecía un navegador con el mismo nombre) en 1995, marcó el inicio de esta burbuja. Desde entonces y hasta el año 2000, se produjo una avalancha de operaciones en el sector “online”, en su mayoría fruto de la especulación.

En concreto, la burbuja especulativa tecnológica se sustento en promesas de grandes ganancias con baja inversión, fácil disponibilidad de capitales de riesgo, y nuevas empresas que ya no utilizaban los modelos de negocios y de organización tradicionales. Por ejemplo, estas empresas veían crecer de una manera desmesurada el número de sus clientes, a pesar de que tenían enormes pérdidas anuales o escasos beneficios.

La cima de la burbuja se alcanzó el 10 de marzo de 2000, cuando el mercado de empresas tecnológicas que formaban parte del índice Nasdaq composite llegó al punto máximo de 5048,62 puntos. El nivel de especulación era tan alto, que el valor de las empresas subía simplemente por tener en su nombre una “e-” (de “electronic”) como prefijo o un “.com” como sufijo.

Entre el 10 de marzo de 2000 y el 30 de septiembre de 2002, el índice Nasdaq composite de Nueva York perdió el 76,8% de su valor, al pasar de 5048,62 a 1172,06 puntos. La burbuja especulativa se pincho y provoco la crisis de las “puntocom”, una fuerte caída del valor bursátil de las empresas y las posteriores quiebras, fusiones y adquisiciones. Algunos estudios estiman que en el periodo 2000-2003 desaparecieron casi cinco mil compañías de internet por quiebra, fusión o adquisición.

No obstante, pese a la gran caída de sus acciones en el mercado de valores, muchas de estas empresas sobrevivieron, incluso utilizando estos nuevos tipos de negocios que habían hecho quebrar a muchas otras.

En el siguiente gráfico se representa la evolución temporal histórica de los índices Nasdaq:

– El índice Nasdaq composite es un índice bursátil de Estados Unidos, que refleja la evolución de aproximadamente las 3.000 empresas nacionales y extranjeras con mayor capitalización que cotizan en el Nasdaq Stock Market. Toma el valor 100 el 5 de febrero de 1971. Entre las empresas que forman parte de este índice, se encuentran algunas como, por ejemplo, Apple, Amazon, Microsoft, Cisco, Dell, Intel Corporation, Google, Oracle, Yahoo y Elizabeth Arden.

– El índice Nasdaq 100 es un índice bursátil de Estados Unidos, que refleja la evolución de las 100 empresas nacionales y extranjeras con mayor capitalización bursátil que cotizan en el mercado electrónico del Nasdaq (Nasdaq Stock Market). Toma el valor 100 el 2 de enero de 1986. Se incluyen dentro de este índice, empresas de telecomunicaciones, venta al comercio al por mayor y al por menor, empresas de hardware y software y de biotecnología, siempre y cuando formen parte del Nasdaq Stock Market.

Los mercados financieros viven en la actualidad con un miedo latente a que se haya desencadenado una nueva burbuja tecnológica y que esta pueda pinchar como en el año 2000. Una prueba que se introduce en este debate son los niveles récord que alcanzan los índices Nasdaq.

Como se puede ver en el gráfico, los últimos datos del 8 de diciembre de 2014 sitúan al índice Nasdaq composite y al índice Nasdaq 100 a un 6% y 6,7% de alcanzar los récord históricos del 10 de marzo de 2000, fecha de inicio del pinchazo de la burbuja tecnológica “puntocom” del 2000.

En este contexto, en la prensa estadounidense y en los círculos financieros de Wall Street ha vuelto a aparecer la temida palabra burbuja financiera tecnológica. Parte de los analistas se cuestiona ya si las empresas tecnológicas están sobrevaloradas, tal y como sucedió en el año 2000. Sin embargo, los analistas más optimistas señalan que la naturaleza y el comportamiento de las compañías tecnológicas incluidas en los índices Nasdaq ha cambiado desde el año 2000. En aquella burbuja tecnológica, las empresas eran valoradas por los mercados sin contar con un recorrido previo y las altas valoraciones de sus acciones se sustestaban en función del éxito futuro potencial. Los inversores formaban sus expectativas en función del futuro y en lo intangible. En la actualidad, las empresas tecnológicas tienen que demostrar que son capaces de generar beneficios y que tienen un proyecto solvente para obtener el apoyo de los inversores.

La Regla de Taylor y la política monetaria de la Reserva Federal de EE.UU., 1954-2013

51487-janet-yellen_0

En la últimos meses, distintos miembros (y algunos notables exmiembros) de la Junta de Gobernadores de la Reserva Federal de EE.UU. , han advertido que la subida de los tipos de interés de corto plazo (la tasa de los fondos federales) puede llegar mucho antes de lo que habían previsto hasta ahora los analistas, tal vez ya en el último trimestre de 2014 o en el primer trimestre de 2015. [1]

En la conferencia de prensa posterior a la última reunión del Comité Federal de Mercado Abierto de la Reserva Federal de EE.UU. de 18 de junio, la Presidenta de la Reserva Federal, Janet Yellen, no fué tan contundente. En primer lugar, constató tanto los avances en la reducción de la tasa de desempleo hasta el 6,3% en mayo (el objetivo para la retirada de los estímulos monetarios era del 6,5%), como el paulatino acercamiento de las tasas de inflación al objetivo del 2% (1,34% el deflactor del PIB, primer trimestre 2014; 2,13% el IPC General, mayo 2014; IPC sin incluir alimentos y energía, 1,94%, mayo 2014).

En segundo lugar, señaló que el objetivo de la tasa de los fondos federales actual (el 0,25%) se mantendrá cierto tiempo por debajo de su nivel “normal” a largo plazo (una vez finalizado a finales de 2014 el Programa de Compra de Activos aprobado el 12 de diciembre de 2012) en función de la evolución de una serie de indicadores que tienen relación con los efectos negativos derivados de la crisis financiera de 2007: gasto de los hogares, disponibilidad de crédito bancario, expectativas de crecimiento futuro de la producción y las rentas, y crecimiento del PIB potencial. En tercer lugar, también manifestó que los tipos de interés podrían subir a un ritmo ligeramente más rápido en 2015 y 2016 que las proyecciones anteriores, ya que mantiene su confianza en que la recuperación económica. Por último, Janet Yellen matizó que si la economía de EE.UU. se fortalece más rápidamente como señalan las proyecciones recientes, los tipos podrían subir antes de lo previsto.

¿Pero cuál es el nivel “normal” a largo plazo de las tasas de fondos federales a los que se refiere la Presidenta de la Reserva Federal? Una manera de aproximarse a este nivel “normal” a largo plazo es mediante la conocida Regla de Taylor.

John B. Taylor, catedrático de Economía de Stanford University, EE.UU., propuso en un seminal trabajo de 1993 una regla monetaria para establecer cambios en los tipos de interés de los fondos federales en función de la desviación de la producción real actual respecto a la producción real potencial y de la desviación de la inflación actual del objetivo de inflación, tal y como se puede ver en la siguiente expresión:

i = π + 0,5 (y – y*) + 0,5 (π – π*) + r   [a]

donde i es el tipo de interés nominal a corto plazo y objetivo de la Política Monetaria derivada de la Regla de Taylor (en nuestro caso, la tasa de interés de los fondos federales); y es la tasa de variación del PIB real; y* es la tasa de variación del PIB potencial, (y-y*) es el output gap; π es la tasa de inflación actual (medida por la variación del deflactor del PIB); π* es la tasa de inflación objetivo de la Reserva Federal (en nuestro caso el 2%); y r es la tasa de interés real de equilibrio (en el caso de la economía de EE.UU. el 2%).

Teniendo en cuenta los dos datos fijos, la regla de Taylor quedaría finalmente como:

i = 2+ 0,5 (y – y*) + 0,5 (π – π*) + 2   [b]

Desde el punto de vista práctico, si la economía de EE.UU. mantuviera una tasa de crecimiento real igual al crecimiento potencial y simultáneamente mantuviese su nivel de la tasa de inflación en el objetivo fijado a largo plazo (el 2% en el caso de la Reserva Federal), la Regla de Taylor sugeriría que la Reserva Federal debería fijar unos tipos de interés (nominales) de los fondos federales del 4%, lo que implica unos tipos de interés reales a corto plazo del 2%.

En el gráfico adjunto hemos representado la evolución de la tasas de interés (nominales) de fondos federales efectivos y las tasas de interés (nominales) implícitas de la Regla de Taylor (el tipo de interés que se fijaría de seguirse la Regla de Taylor de la ecuación [b]) para el periodo 1954-2013.

En primer lugar, constatar hasta que punto varían al unísono las dos series de tipos de interés, con quizá la excepción del periodo posterior a la crisis financiera de 2007. En segundo lugar, a finales de 2013 la tasa de interés (nominal) efectiva de los fondos federales se situaba en el 0,07%, mientras que la tasa de interés (nominal) implícita de los fondos federales derivada de la Regla de Taylor sería del 3%.

En síntesis, la Reserva Federal tendría – en base a los datos actuales de crecimiento real, crecimiento real potencial y de inflación – un recorrido de subidas de tipos de interés a corto plazo de 3 puntos porcentuales para cumplir estrictamente con la Regla de Taylor. Cabe determinar si el nuevo objetivo de tasa de fondos federales más elevado se fija en el horizonte de 2015 o 2016, y si comienza ya las subidas graduales en la segunda parte de 2014 o se aplaza a 2015.

En el siguiente cuadro se puede constatar como en la última reunión del 18 de junio del Comité Federal de Mercado Abierto de la Reserva Federal, de los 16 miembros con derecho a voto tan sólo un miembro propuso como objetivo de la tasa de fondos federales para 2015 el nivel del 3% derivado de la Regla de Taylor, mientras que para 2016 ya fue propuesto por seis miembros (cuatro de los cuales por encima del 3%), y ya en el ambiguo largo plazo todos los miembros propusieron objetivos superiores al 3%.

—–

[1] Los tipos o tasas de los fondos federales al que los bancos se conceden prestamos unos a otros. En las reuniones del Comité Federal de Mercado Abierto de la Reserva Federal de EE.UU. se puede elegir un nuevo objetivo para el tipo de los fondos federales y dar instrucciones a los operadores de bonos de la Reserva Federal para que realicen operaciones de mercado abierto con el fin de alcanzar el objetivo deseado.

Un nuevo riesgo para la economía de EE.UU.: el excesivo endeudamiento de los estudiantes universitarios

Cuando parecía que la economía americana comenzaba a recuperarse del alza de la morosidad de los préstamos de la vivienda, vuelven a surgir temores – en los medios de comunicación, en la opinión pública y en los medios financieros especializados – de que una nueva bomba de relojería se sigue gestando con la acumulación sin límite de los préstamos a los estudiantes (en su mayoría con garantía del Gobierno Federal de EE.UU.) y con el mantenimiento de una elevada tasa de morosidad.

La Reserva Federal de Nueva York ha presentado recientemente las estadísticas de préstamos estudiantiles que aparecen en el informe más amplio sobre el crédito y de la deuda de los hogares de los EE.UU.: el Quarterly Report on Household Debt and Credit del primer trimestre de 2014.

En el primer gráfico se muestra la evolución del total de la deuda de los hogares de EE.UU. y su composición por tipos de préstamos desde el primer trimestre de 2013 al primer trimestre de 2014.

Los préstamos a los estudiantes es el único tipo de deuda de los hogares que ha crecido ininterrumpidamente desde el máximo alcanzado en 2008 por la deuda total. Dejando a parte la deuda hipotecaria (mortgage, 8,17 billones de dólares, 70% del total de la deuda), los préstamos a estudiantes continúan superando a finales del primer trimestre de 2014 en montante (1,1 billones de dólares, 9,5% del total) a los préstamos clásicos, tales como los créditos para compra de coches (880.000 millones de dólares, 7,5% del total) y las tarjetas de crédito (660.000 millones de dólares, 5,7% del total). [1] [2]

En el segundo gráfico se muestra la evolución de la tasa de morosidad (delinquent payment) por tipo de deuda de los hogares desde el primer trimestre de 2013 al primer trimestre de 2014.

La tasa de morosidad (más de 90 días sin pagar) ha descendido significativamente en los últimos dos años en todos los tipos de préstamo, excepto en los préstamos a estudiantes. Además la tasa de morosidad de los préstamos a estudiantes se ha situado en un 11%, la más alta de todos los tipos de deuda.

Algunas cifras pueden servir para ilustran el alcance del problema del endeudamiento de los estudiantes universitarios. En primer lugar, de casi los 20 millones de estadounidenses que asisten cada año a la universidad, cerca de 12 millones tienen algún tipo de préstamo a estudiantes. En segundo lugar, un estudiante acumula al final de un grado universitario de cuatro años, un montante medio de 20.926 dólares de préstamos a estudiantes. En tercer lugar, en la actualidad casi 37 millones de estadounidenses tienen un préstamo a estudiantes, con un montante medio de 30.227 dólares de saldo vivo.

Los altos niveles de deuda de préstamos a estudiantes no plantean ningún problema, siempre y cuando la inversión en la educación universitaria genere al individuo una “tasa de rentabilidad o tasa de retorno” posterior elevada (por ejemplo, en forma de salarios relativamente más altos) que le permita: a) reembolsar sin problemas los préstamos obtenidos para cursar los estudios en la universidad; b) y que no le penalize este endeudamiento (al estudiante y/o a sus padres si lo avalaron) para obtener otro tipo de préstamos, tales como créditos para compra de coches o hipotecas para la compra de viviendas, o incluso la disponibilidad de tarjetas de crédito.

Pero la morosidad de los préstamos a estudiantes va en aumento desde el inicio de la crisis financiera internacional y ya alcanza el 11%, tal y como vimos en el gráfico. Respecto a este problema, la Asociación Nacional de Abogados del Consumidor de EE.UU. – National Association of Consumer Bankruptcy Attorneys (NACBA) – ha presentó en 2012 un informe demoledor en el que alertaba del problema. El informe de la NACBA muestra, por ejemplo, que:

  • 4 de cada 5 abogados de la Asociación manifiestan que los clientes potenciales con deuda de préstamos a estudiantes se han incrementado “significativamente” o “algo” en los últimos tres o cuatro años.
  • El 95% de los abogados manifiestan que la mayoría de sus clientes no tienen ninguna posibilidad de obtener una moratoria, dada la excesiva carga que en la actualidad les supone el préstamo a estudiantes.
  • Los préstamos a los padres para la educación universitaria de su hijos han aumentado un 75% desde el año académico 2005-2006. Los padres atendidos tienen un promedio de 34.000 de dólares en préstamos estudiantiles, y esa cifra se eleva a unos 50.000 dólares en un préstamo “estándar” con un plazo de de amortización de 10 años.
  • Por último, el informe revela que, por ejemplo, de los estudiantes graduados en 2005 (“Class of 2005″), los que empezaron a devolver el préstamo al año siguiente de la graduación, el 25% del total acabó con un préstamo impagado, y un 15% del total ha entrado en mora en algún momento de la vida del crédito.

Nuevamente la historia se repite: “El mercado de préstamos a estudiantes de EE.UU. es demasiado grande para quebrar”, repiten los analistas financieros (Too Big to Fail, como España e Italia en la zona del euro).

——

[1] Un trillón en EE.UU. equivale a 1 billón europeo.

[2] Los préstamos HE revolving, son los préstamos obtenidos con garantía hipotecaria, conocidos también por Home Equity Line of Credit (HELOC). Representan un montante de 520.000 millones de dólares, un 4,5% del total de la deuda de los hogares.

La paradoja de los precios en EE.UU.: los bienes y servicios básicos se encarecen y los superfluos se abaratan, 2005-2014

La manera tradicional de medir el poder adquisitivo del ciudadano es a través de la variación del Índice de Precios al Consumo (IPC). El IPC es un índice (ponderado) en el que se valoran los precios de un conjunto de bienes y servicios (determinado sobre la base de la encuesta continua de presupuestos familiares o Encuesta de gastos de los hogares), que una cantidad de consumidores representativos adquiere de manera regular, y la variación con respecto del precio de cada uno en una muestra anterior. Mide los cambios en el nivel de precios de una cesta de bienes y servicios de consumo adquiridos por los hogares. Se trata de un porcentaje que puede ser positivo, en cuyo caso índica un incremento de los precios o negativo, que refleja una caída de los mismos.

Desde hace ya algunos años se ha abierto un debate entre los economistas sobre la cuestión de si el IPC refleja o no adecuadamente el poder adquisitivo del ciudadano. El ejemplo más exagerado de que no mide el coste real de la vida es el caso de EE.UU., tal y como muestran las cifras del siguiente gráfico publicado recientemente por el diario New York Times (hacer clic sobre el mismo para verlo más grande).

En el gráfico se muestra la variación en % de los precios de los principales bienes y servicios del IPC de EE.UU. entre 2005 y 2014. En estos años, los precios de estos bienes y servicios en su conjunto aumentaron un 23%, pero de una manera dual. Por una parte, el conjunto de bienes y servicios que se pueden considerar básicos o esenciales para el bienestar del ciudadano se han encarecido considerablemente (gastos en educación, guarderías, gasto en salud, reparación y mantenimiento de los coches, alimentación). Por otra parte, otro conjunto de bienes y servicios que son relativamente superfluos – en el sentido de que no satisfacen necesidades vitales como en el grupo anterior – se han abaratado considerablemente (teléfonos móviles, televisores, juguetes, coches, ropa, material informático y electrónico, productos de cuidado personal). [1]

En definitiva, una persona representativa de la clase media-baja norteamericana de 40-50 años posee un coche (aunque no lo puede reparar), un televisor, un ordenador, un móvil y una tablet, viste con ropa de baja calidad, puede tener una casa en propiedad o vivir de alquiler (aunque no puede realizar mejoras o pagar reparaciones) ….

… pero tiene diabetes (u otra enfermedad crónica o aguda) y no tiene un seguro de enfermedad ni puede pagar los medicamentos, se enfrenta a una subida constante de los gastos de alimentación, tiene que trabajar a tiempo parcial (porque no puede pagar la guardería de sus hijos) y, en la mayoría de los casos, ya no puede llevar a sus hijos a la universidad (a no ser que se endeude de por vida).

—-

[1] Destaca el crecimiento de los gastos de educación que han aumentado entre 2005 y 2014 más del 40%.

Anteriores Entradas antiguas

Visita nuestra web para información sobre actividades

http://www.alde.es