¿Se ha formado una burbuja en los mercados de deuda pública?

Robert J. Shiller, catedrático de Economía de Yale University y premio Nobel de Economía de 2013, acaba de publicar la tercera edición de su libro “Exuberancia Irracional“, material obligatorio de lectura para los estudiantes de Macroeconomía y de Finanzas.

En la primera edición de este libro libro, publicado en el año 2000, ya advirtió proféticamente en el capítulo 1 (“The stock market in historical perspective”) que los precios de las acciones estaban excesivamente caros y que se estaba gestando una burbuja en el mercado de valores de EE.UU. que tarde o temprano estallaría. La cima de la burbuja se alcanzó el 10 de marzo de 2000, cuando el mercado de empresas tecnológicas que formaban parte del índice Nasdaq composite llegó al punto máximo de 5048,62 puntos. Entre el 10 de marzo de 2000 y el 30 de septiembre de 2002, el índice Nasdaq composite de Nueva York perdió el 76,8% de su valor, al pasar de 5048,62 a 1172,06 puntos. La burbuja especulativa se pinchó y provoco la crisis de las “puntocom”, una fuerte caída del valor bursátil de las empresas y las posteriores quiebras, fusiones y adquisiciones.

En la segunda edición, publicada en 2005, Shiller incluyó un nuevo capítulo 2 dedicado a la valoración de los activos inmobiliarios (“The real estate market in historical perspective”) en el que advirtió que se había formado una burbuja inmobiliaria en EE.UU.,  que tarde o temprano estallaría.  La buena marcha de la economía y los bajos tipos de interés hicieron crecer la concesión de hipotecas de alto riesgo, y la comercialización de productos financieros asociados (titulización hipotecaria). Pero poco después de publicar el libro, se asistió en 2006 – tras una período de política monetaria muy restrictiva de la Reserva Federal (subidas bruscas y elevadas de los tipos de interés nominales) – a un aumento de los impagos de las hipotecas, a una caída brusca de los precios de las viviendas en EE.UU. y, en última instancia, al colapso del mercado de la vivienda y al pinchazo de la burbuja inmobiliaria.

Finalmente, en la tercera edición del libro, Shiller incluye un nuevo capítulo 3 sobre una perspectiva histórica del mercado de bonos (“The bond market in historical perspective”), en el que reflexiona sobre un nuevo problema financiero en el horizonte. En concreto, se muestra preocupado porque los precios de los bonos están en un nivel “irracionalmente” alto (o que los tipos de interés están en un nivel “irracionalmente” bajo) y que, en última instancia, se podría estar formando una burbuja en los mercados de deuda pública de EE.UU.. ¿Una tercera profecía que se cumplirá pronto?

En este vídeo reciente, Robert J. Shiller contesta en una entrevista a cuestiones relacionadas con el significado del término “exuberancia irracional”, los factores que influyen en la formación de burbujas financieras y la situación actual del mercado de bonos (fundamentalmente de deuda pública):

  • Entrevista a Robert Shiller.
  • La transcripción escrita en inglés de la entrevista puede leerse en el siguiente enlace.
  • En el siguiente enlace se puede leer más información sobre el significado del término “exuberancia irracional“, explicado por el propio Robert J. Shiller.

¿Puede la Teoría de Juegos ayudar a entender las negociaciones entre Grecia y el resto de países de la zona del euro?

La teoría de juegos es una disciplina que estudia situaciones en las que es relevante la interdependencia estratégica, es decir, que el resultado para cada jugador depende de sus propias decisiones y de las decisiones de los demás. Ha sido aplicada, principalmente, en economía, pero ha tenido también un desarrollo amplio en gestión, sociología, psicología, filosofía, e incluso en biología evolutiva. En el caso de la Economía, la teoría de juegos inició su análisis formal en 1944 con el trabajo de John Von Neumann y Oskar Morgenstern, The Theory of Games and Economic Behaviour. Posteriormente, merecen ser citados por sus aportaciones centrales tres premios Nobel de Economía: John Nash, John Harsanyi y Reinhard Selten.

Dado que el nuevo gobierno griego ha basado su política electoral en el fin de la austeridad, y dado que el pago de la deuda supone una parte muy importante del PIB griego, las negociaciones para refinanciar la deuda pública de Grecia con la troika y con el resto de los países de la zona del euro, constituyen una baza ineludible para la credibilidad del nuevo Gobierno. Esta situación se puede analizar mediante la Teoría de Juegos.

Para sentar las bases analíticas habría que precisar algunos aspectos. En primer lugar, los jugadores son muy diferentes, mientras que Grecia supone el 1,9% del PIB de la zona del euro, el otro jugador representa, obviamente, el 98,1% restante, sin embargo los intereses de ese 98,1% no son homogéneos, no es lo mismo la posición de Alemania, incluso geoestratégica, que la de Bélgica. Este aspecto matiza algo la desigualdad entre los jugadores. En este sentido, son relevantes las visitas del primer ministro griego a los países que considera menos integrados en la política de austeridad como Italia y Francia, obviamente, tratando de debilitar al gigante. El segundo aspecto a considerar es que en esas negociaciones no solo se juega el juego zona del euro-Grecia, sino que el resultado al que se llegue, condiciona el resto de los juegos futuros zona del euro-resto de los países, además de enviar una señal a las poblaciones de estos países. Dependiendo del resultado final, la señal podría ser muy preocupante para países como España con partidos de extrema izquierda emergentes. Un tercer aspecto es el manejo del farol, con el que Grecia ha iniciado la partida, amenazando con salir del bloque Unión Europea-occidente y entrar en el bloque ruso-oriental. En mi opinión, esta amenaza no es creíble ya que al que la formula no le interesa cumplirla, pero una cosa es el interés del pueblo griego y otra la de sus gobernantes actuales, esperemos que no haya divergencia.

Por lo tanto, el problema tiene que ver con un complicado conjunto de negociaciones entre unas partes muy diferentes en cuanto a su capacidad negociadora y con intereses muy dispares. El problema mayor es que el resultado al que se llegue va a afectar, a largo plazo, a toda la política europea, incluso a la estabilidad de la Unión Europea y, en particular de la Unión Monetaria. Esperemos que, aunque sea por una vez, los políticos negociadores piensen en el largo plazo. Podemos especular a qué juego podrían jugar el gobierno griego y la troika a través de algunos ejemplos.

1) El juego de la gallina. Un camión de gran tonelaje y un turismo se dirigen hacia un puente de único sentido desde puntos opuestos. Si ninguno se desvía, chocarán. Puesto que los costes de la colisión son mucho mayores para el turismo, éste cederá el paso. 

Aplicación a Grecia y a la troika. Grecia y la troika suponen que la otra parte tiene mucho que perder si no cede. Los griegos podrían verse expulsados de la zona euro y no podrían financiar gran parte de sus servicios públicos y de sus pensiones. La troika perderían los cuantiosos préstamos concedidos a Grecia en los sucesivos rescates. A ambas partes les resulta fácil imaginar que la otra parte reaccionará primero y cederá a las demandas de la primera. Pero esto no ocurre.

Sin embargo, como recomendaba el general y filósofo chino Sun Tzu, 650 años antes de Cristo, hay que dejar una salida honorable al otro jugador, para que el resultado sea estable.

2) El dilema del prisionero. La policía detiene a dos hombres y los interroga por separado. No hay suficientes pruebas para condenar a ninguno, así que ofrecen un trato a cada uno. Si cooperan y testifican contra el otro, obtendrán la libertad y el otro irá a la cárcel. El único equilibrio posible de este juego es aquél en el que se delatan mutuamente y terminan condenados. Sin embargo, la noticia optimista en este caso, es que si el juego se juega muchas veces y no se conoce cuando va a terminar este juego, es posible una trayectoria de equilibrios en los que se colabora.

Aplicación a Grecia y a la troika. Si Grecia continua con el ajuste presupuestario y las reformas económicas impuestas con los rescates, los desequilibrios de la economía griega se corregirían gradualmente y se recuperaría una senda de crecimiento duradera y sostenible. Sin embargo, dado que el nuevo gobierno ha anunciado repetidamente su intención de no colaborar, Grecia y la zona del euro podrían acabar con una larga y todavía más profunda recesión en Grecia y la pérdida de la deuda en la zona del euro. Si plantean el juego como una larga partida con muchas jugadas, donde la zona del euro cede en algún aspecto y Grecia renuncia a su programa demagógico, se podría aliviar algo la situación del pueblo griego y no comprometer el futuro de la propia Unión Monetaria.

3) El dilema de la cena. Diez personas salen a cenar y dividen la cuenta a partes iguales. Cada uno decide pedir el plato más caro, aunque sólo sea marginalmente mejor que el más barato porque, cuando el coste adicional se divida entre diez, el importe final será insignificante. Sin embargo, si los diez llegan a la misma conclusión, acabarán pidiendo los diez platos más caros de la carta.

Aplicación a Grecia y al resto de países de la zona del euro. Hay que conseguir que el Banco Central Europeo imprima más dinero y lo emplee para comprar los bonos griegos. De esta manera, los griegos podrían aumentar el gasto público por la vía más barata. Además, el coste se distribuye entre los otros 17 miembros de la zona del euro. Evidentemente, esto que parece tener sentido individualmente, no soporta un análisis colectivo ya que, si todos hacen lo mismo, que lo harán, la dinámica de la deuda pública de los 18 países de la zona del euro se haría insostenible y el Banco Central Europeo no podría mantener el programa de compras. Es como si el menú que adquieren entre todos los comensales no pudiera ser pagado por ellos y tuvieran que pedir prestado para mantener sus alegrías, pero ¿quién se arriesga a prestar si no tiene la seguridad de que, partir de entonces, el consumo de platos tendrá en cuenta lo que uno tiene (produce) y está seguro de que va a recuperar el préstamo más los intereses?

Este último es el juego más peligroso desde el punto de vista de la estabilidad de la zona del euro y en el que los griegos podrían encontrar apoyos. Este juego pone, además, de manifiesto el gran déficit de la Unión Monetaria, que es la inexistencia de un presupuesto europeo con un control a nivel europeo de la deuda. Si la zona del euro lo acepta en la manera en que se está planteando, la inestabilidad a largo plazo estará garantizada.

 

La dinámica temporal de la deuda pública griega: escenarios alternativos para el acuerdo entre la Troika y el Gobierno griego

grecia
La evolución temporal del stock de deuda pública en % del PIB de Grecia se puede descomponer en 3 componentes:

dinamica de la deuda

donde bt representa el stock de deuda (% del PIB), dt el déficit público primario (en % del PIB, sin incluir intereses de la deuda), it los tipos de interés nominales de la deuda pública, gt la tasa de crecimiento nominal de la economía (crecimiento real + tasa de inflación) y addt el componente “ajuste déficit-deuda”.

La expresión anterior implica que si se quiere estabilizar el stock de deuda pública en relación al PIB se deben dar tres condiciones no excluyentes: (1) la tasa de crecimiento nominal de la economía (¡cuidado con la deflación que hace aumentar la deuda!) tiene que superior al tipo de interés nominal de la deuda pública (el llamado efecto “bola de nieve” de los intereses de la deuda); (2) se tiene que generar superávit primarios (componente del “ajuste fiscal”); (3) se debe eliminar o reducir el componente “ajuste déficit-deuda” (addt = 0). [1]

Veamos algunas simulaciones para el caso de la dinámica temporal de la deuda pública de Grecia utilizando la expresión anterior que pueden servir de base para las posibles negociaciones entre la Troika (la Comisión Europea, el Fondo Monetario Internacional y el Banco Central Europeo) y el nuevo Gobierno griego. [2]

Caso 1: reestructuración de la deuda pública (reducción de los tipos de interés nominales de los bonos en 3,7 puntos porcentuales) sin quita (no se reduce el stock de deuda pública inicial).

En el primer gráfico se presenta la evolución temporal futura del stock de deuda pública griego tomando los datos actuales: a) un stock de deuda pública sobre el PIB del 174% a finales de 2014; b) una tasa de crecimiento real de la economía para 2015 del +2,9%; c) una tasa de inflación prevista para 2015 del +0,3%; y d) un superávit público primario previsto para finales de 2015 del 3,0%. Además, los tipos de interés nominales de la deuda pública a 1o años situados en la actualidad en el 8,7% (rendimiento del mercado secundario del 26 de enero de 2015) se reducen a una media del 5% mediante el canje de deuda pública con los acreedores. [3]

deuda griega 1

El resultado es que sólo se consigue estabilizar el nivel del stock de deuda pública en % del PIB en su nivel de 2014, un 174%. El stock de deuda pública aún crecería a una tasa anual del 0,2%.

Caso 2: reestructuración de la deuda pública (reducción de los tipos de interés nominales de los bonos en 3,7 puntos porcentuales) y quita del 30% (se reduce el stock de deuda pública inicial del 174% al 122% del PIB).

Se mantienen los datos del caso 1 relativos a la tasa de crecimiento real, de la tasa de inflación y el Gobierno griego se compromete a mantener el superávit público primario del 3%.

deuda griega 2

El Gobierno griego y la Troika podrían llegar a un acuerdo al combinar el mantenimiento de la austeridad (el superávit público primario se mantiene en el 3%) y un acuerdo de reestructuración de la deuda pública (con canje de bonos) con una quita parcial de deuda. Además se pararía el crecimiento del stock de deuda pública, al generarse una reducción del 0,7% anual, insuficiente para conseguir el objetivo del Pacto de Estabilidad y Crecimiento del 60% en un horizonte de 20 años.

Caso 3: reestructuración de la deuda pública (reducción de los tipos de interés nominales de los bonos en 4,7 puntos porcentuales) y quita del 45% (se reduce el stock de deuda pública inicial del 174% al 96% del PIB) y se genera una tasa de inflación del 2%.

Se mantienen los datos del Caso 1 relativos a la tasa de crecimiento real y el compromiso de mantener el superávit primario en el 3%. La tasa de inflación sube del 0,3% actual al 2%, objetivo del Banco Central Europeo.

deuda griega 3

Este es un escenario mejor que el planteado en el Caso 2 para el Gobierno griego. La Troika podrían llegar a un acuerdo al combinar el mantenimiento de la austeridad (el superávit público primario se mantiene en el 3%) y un acuerdo más ambicioso de reestructuración de la deuda pública (con canje de bonos) con una mayor quita parcial de deuda. El stock de deuda pública se reduciría a un ritmo del 3,7% anual y se alcanzaría el objetivo del Pacto de Estabilidad y Crecimiento del 60% en un horizonte razonable de 10 años. Los salarios y las rentas podrían aumentar moderadamente mediante acuerdos entre los agentes sociales y el Gobierno para impulsar la tasa de inflación hasta el 2%.

——–
[1] En el componente del “ajuste déficit-deuda” (add = 0) se incluye todas aquellas emisiones emisiones de deuda pública que no computan como déficit público (no tienen su origen la diferencia entre ingresos públicos y gastos públicos) pero si como deuda pública. Su origen está en la necesidad de financiar la adquisición de activos financieros por parte del Estado no directamente relacionados con el presupuesto público. Por ejemplo, en España dentro del componente “ajuste déficit” se emitió deuda pública para financiar el FROB (Fondo de Reestructuración Ordenada Bancaria), el FADE (Fondo de Amortización del Déficit Eléctrico) y el Fondo para la Financiación de los Pagos a Proveedores (FFPP), entre otros.
[2] Utilizamos la calculadora de Bloomberg.
[3] Se supone que el componente “ajuste déficit-deuda” es nulo.

Vídeo de las intervenciones en las XXIX Jornadas de Alicante sobre Economía Española

El 6 y 7 de noviembre de 2014 se celebraron en Alicante las XXIX Jornadas de Alicante sobre Economía Española organizadas por la Asociación Libre de Economía Española (ALdE) y el Instituto de Economía Internacional de la Universidad de Alicante.

En esta entrada del Blog se puede ver el vídeo completo de las intervenciones.

Vídeo del 6 de noviembre

Vídeo del 7 de noviembre

¿Está sobrevalorado el índice S&P 500 de la bolsa de Nueva York?

La ratio P/E o PER (del inglés, Price to Earnings Ratio, o la relación entre el precio o valor y los beneficios), mide cual número de veces el beneficio neto anual de una empresa determinada se encuentra incluido en el precio de una acción de ésta. La ratio PER se calcula dividiendo la capitalización bursátil de la empresa y su beneficio neto:

PER = Capitalización bursátil / Beneficio Neto

Como la capitalización bursátil es igual al precio por acción multiplicado por el número de acciones y el beneficio neto es igual al beneficio por acción multiplicado por el número de acciones, el PER también se puede aproximar por:

PER= Precio por acción / Beneficio Neto por acción

Por ejemplo, si la empresa cotiza a 26 dólares y el beneficio neto anual por acción es de 2,60 dólares, su PER sería de 10 (26/2,60).

La interpretación económica del valor que alcanza en un momento determinado la ratio P/E de una empresa que cotiza en bolsa (o de un índice bursátil) es bastante simple. Si una empresa (o un índice bursátil) tiene una ratio P/E elevada puede significar que las expectativas del valor son favorables y están anticipando un crecimiento de los beneficios en el futuro. Aunque también puede indicar que el precio de la acción (o del índice bursátil) está sobrevalorado y, por tanto, que resulte improbable que su cotización (o valor) siga subiendo en el futuro. Por el contrario, si una empresa (o un índice bursátil) tiene una ratio P/E baja puede indicar que la acción (o el índice bursátil) está infravalorada y que su cotización (o valor) puede aumentar a corto plazo.

No obstante, el PER tiene algunos inconvenientes. Por un lado, su utilización es más que dudosa para las empresas de sectores muy dependientes del ciclo económico cuando nos encontremos en la parte alta del ciclo. Los sectores cíclicos más típicos son las aerolíneas, los fabricantes de automóviles, las acerías, las papeleras, y las empresas relacionadas con las materias primas en general. Por ejemplo, una empresa puede tener un PER 10 en lo alto del ciclo económico y parecer “barata”, pero si la economía entra en recesión y esto le provoca una reducción de beneficios del 50%, el PER se duplicará hasta 20, convirtiéndose en una empresa “cara”. Por otro lado, el beneficio neto puede estar sesgado por la operativa contable de la empresa. Por ejemplo, las amortizaciones o las depreciaciones pueden hacer que el beneficio neto sea mayor o menor en base a la política de la empresa.

Para resolver alguno de los inconvenientes del PER para valorar a una empresa que cotiza en bolsa (o un índice bursátil), el catedrático de finanzas de la Universidad de Yale y premio Nobel de Economía, Robert Shiller, propuso una nueva ratio: el PER ajustado cíclicamente o CAPE (Cyclically Adjusted Price-Earnings, por sus siglas en inglés), conocido también como el Shiller PE Ratio o el PE/10.

El CAPE se obtiene por el cociente del precio por acción actual (o del índice bursátil) y el promedio de 10 años de los beneficios ajustados por la tasa de inflación. En definitiva, el CAPE es un indicador más preciso que el PER clásico, ya que elimina las fluctuaciones de la ratio provocadas por la variación de los márgenes de beneficio durante los ciclos económicos.

En el gráfico adjunto, se muestra la evolución histórica del CAPE del índice S&P 500 de la Bolsa de Nueva York para el periodo 1881-2014 (último dato disponible: 8 de diciembre de 2014).

Si utilizamos como ratio de valoración de la Bolsa de Nueva York el CAPE del S&P 500, vemos como el nivel actual se encuentra en 27,03, un 57,2% más alto que su media histórica de 16,61 desde 1881. [1] [2]

En definitiva, podríamos concluir que el mercado de valores de EE.UU. está sobrevalorado respecto a su media histórica.

————

[1] La media del PER clásico para el S&P 500 es de 15,5 desde 1871.

[2] Valor mínimo del CAPE del S&P 500: 4,78, diciembre de 1920. Valor máximo del CAPE del S&P 500: 44,20, diciembre de 1999. Mediana del CAPE del S&P 500: 15,97.

El índice Nasdaq alcanza los niveles récord de 2000: ¿nueva burbuja tecnológica en el horizonte?

Una burbuja especulativa es un fenómeno económico que consiste en un aumento desproporcionado del precio de algún activo, de forma que dicho precio se desvía sustancialmente de su valor teórico. Esta situación aparece como consecuencia de la especulación, de ahí el nombre de burbuja especulativa, y se mantiene hasta que finaliza la euforia y se produce un cambio en las expectativas de los inversores, que pierden la confianza en el mercado. La pérdida de confianza en el valor genera un período de pánico financiero en el que los inversores se apresuran a vender el activo con el objetivo de minimizar sus pérdidas o de obtener beneficios, provocando con su actitud una caída repentina y brusca de los precios del objeto de la especulación, que en determinadas circunstancias puede ocasionar un crack bursátil que produce una enorme caída de la riqueza financiera, e incluso una recesión económica.

La llamada burbuja “puntocom” fue una burbuja especulativa tecnológica que se generó entre 1995 y 2000 en el mercado de valores tecnológicos de EEUU, representado por el índice Nasdaq composite de Nueva York, donde las empresas tecnológicas, de telecomunicaciones y de internet (llamadas “puntocom”) vieron incrementado rápidamente el valor de su acciones. La salida a Bolsa de Netscape (compañía que ofrecía un navegador con el mismo nombre) en 1995, marcó el inicio de esta burbuja. Desde entonces y hasta el año 2000, se produjo una avalancha de operaciones en el sector “online”, en su mayoría fruto de la especulación.

En concreto, la burbuja especulativa tecnológica se sustento en promesas de grandes ganancias con baja inversión, fácil disponibilidad de capitales de riesgo, y nuevas empresas que ya no utilizaban los modelos de negocios y de organización tradicionales. Por ejemplo, estas empresas veían crecer de una manera desmesurada el número de sus clientes, a pesar de que tenían enormes pérdidas anuales o escasos beneficios.

La cima de la burbuja se alcanzó el 10 de marzo de 2000, cuando el mercado de empresas tecnológicas que formaban parte del índice Nasdaq composite llegó al punto máximo de 5048,62 puntos. El nivel de especulación era tan alto, que el valor de las empresas subía simplemente por tener en su nombre una “e-” (de “electronic”) como prefijo o un “.com” como sufijo.

Entre el 10 de marzo de 2000 y el 30 de septiembre de 2002, el índice Nasdaq composite de Nueva York perdió el 76,8% de su valor, al pasar de 5048,62 a 1172,06 puntos. La burbuja especulativa se pincho y provoco la crisis de las “puntocom”, una fuerte caída del valor bursátil de las empresas y las posteriores quiebras, fusiones y adquisiciones. Algunos estudios estiman que en el periodo 2000-2003 desaparecieron casi cinco mil compañías de internet por quiebra, fusión o adquisición.

No obstante, pese a la gran caída de sus acciones en el mercado de valores, muchas de estas empresas sobrevivieron, incluso utilizando estos nuevos tipos de negocios que habían hecho quebrar a muchas otras.

En el siguiente gráfico se representa la evolución temporal histórica de los índices Nasdaq:

– El índice Nasdaq composite es un índice bursátil de Estados Unidos, que refleja la evolución de aproximadamente las 3.000 empresas nacionales y extranjeras con mayor capitalización que cotizan en el Nasdaq Stock Market. Toma el valor 100 el 5 de febrero de 1971. Entre las empresas que forman parte de este índice, se encuentran algunas como, por ejemplo, Apple, Amazon, Microsoft, Cisco, Dell, Intel Corporation, Google, Oracle, Yahoo y Elizabeth Arden.

– El índice Nasdaq 100 es un índice bursátil de Estados Unidos, que refleja la evolución de las 100 empresas nacionales y extranjeras con mayor capitalización bursátil que cotizan en el mercado electrónico del Nasdaq (Nasdaq Stock Market). Toma el valor 100 el 2 de enero de 1986. Se incluyen dentro de este índice, empresas de telecomunicaciones, venta al comercio al por mayor y al por menor, empresas de hardware y software y de biotecnología, siempre y cuando formen parte del Nasdaq Stock Market.

Los mercados financieros viven en la actualidad con un miedo latente a que se haya desencadenado una nueva burbuja tecnológica y que esta pueda pinchar como en el año 2000. Una prueba que se introduce en este debate son los niveles récord que alcanzan los índices Nasdaq.

Como se puede ver en el gráfico, los últimos datos del 8 de diciembre de 2014 sitúan al índice Nasdaq composite y al índice Nasdaq 100 a un 6% y 6,7% de alcanzar los récord históricos del 10 de marzo de 2000, fecha de inicio del pinchazo de la burbuja tecnológica “puntocom” del 2000.

En este contexto, en la prensa estadounidense y en los círculos financieros de Wall Street ha vuelto a aparecer la temida palabra burbuja financiera tecnológica. Parte de los analistas se cuestiona ya si las empresas tecnológicas están sobrevaloradas, tal y como sucedió en el año 2000. Sin embargo, los analistas más optimistas señalan que la naturaleza y el comportamiento de las compañías tecnológicas incluidas en los índices Nasdaq ha cambiado desde el año 2000. En aquella burbuja tecnológica, las empresas eran valoradas por los mercados sin contar con un recorrido previo y las altas valoraciones de sus acciones se sustestaban en función del éxito futuro potencial. Los inversores formaban sus expectativas en función del futuro y en lo intangible. En la actualidad, las empresas tecnológicas tienen que demostrar que son capaces de generar beneficios y que tienen un proyecto solvente para obtener el apoyo de los inversores.

La burbuja del sector de la construcción en China y el consumo de cemento

Los medios financieros internacionales y algunos organismos internacionales como el FMI están alertando del posible pinchazo del sector de la construcción en China, uno de los pilares básicos de las altas de crecimiento económico de la última década. La prueba de que la burbuja del sector de la construcción puede explotar se manifiesta en las ciudades y barrios “fantasma” que están por ocupar a lo largo y ancho del país, los numerosos centros comerciales vacíos por doquier, y el exceso de crédito bancario otorgado al sector inmobiliario.

La economía de China depende en gran medida del sector de la construcción, ya que el 14% de los empleos urbanos (90 millones de personas) y el 12,5% del PIB se concentran en este sector. En el gráfico siguiente se puede observar como la inversión en el sector de la construcción (real estate) ha crecido en los últimos años muy por encima de las impresionantes cifras del crecimiento real del PIB de la economía: una media del 25% frente a una media del 10%.

 china burbuja

Pero quizá las cifras del siguiente gráfico muestren mejor la magnitud del problema. China ha consumido más cemento sólo en los últimos tres años (2011-2013) que los EE.UU. en todo el siglo XX (1901-2000): 6,6 gigatones frente a 4,5 gigatones. [1]

——

[1] gigatón o gigatonelada = mil millones de toneladas métricas.

Evolución histórica de las variables macroeconómicas fiscales de la economía española, 1964-2013, y proyecciones 2014-2017

En esta entrada del Blog se presenta la senda temporal de las principales variables macroeconómicas fiscales de las AA.PP. españolas (medidas en % del PIB) actualizadas para el periodo 1964-2013. En concreto, se ha añadido la cifra provisional del año 2013 y se han corregido también todas las cifras anteriores con datos actualizados de las nuevas series elaboradas por el Instituto Nacional de Estadística (INE). Los datos provienen de las Cuentas Financieras de la Economía Española elaboradas por el Banco de España y de la Contabilidad Nacional de España elaborada por el INE. También se presentan previsiones de déficit público total (incluyendo los pagos de intereses de la deuda pública acumulada), del déficit público primario (sin incluir los pagos de intereses de la deuda pública acumulada) y del stock de deuda pública bruto (según la metodología del Déficit Público Excesivo), previsiones presentadas en el pasado mes de abril por el Ministerio Economía y Competitividad y en el pasado mes de mayo por la Comisión Europea para el periodo 2014-2017.

Me gustaría destacar los tres últimos periodos de la historia presupuestaria de la economía española: a) el ajuste fiscal del periodo 1996-2007; b) el deterioro brusco y profundo de las finanzas públicas en los años 2008 y 2009, después del inicio de la crisis económica derivada de la crisis financiera internacional; y c) el nuevo periodo de ajuste fiscal que comenzó en el año 2010 que avanza a un ritmo excesivamente lento para garantizar la sostenibilidad de las finanzas pública a largo plazo.

En el primer gráfico (hacer clic sobre el mismo para verlo más grande) aparece la evolución de los ingresos totales, los gastos totales y los gastos netos de intereses de la deuda pública o gastos públicos primarios. En primer lugar, destacar el hundimiento de los ingresos en 2008 y 2009, y el espectacular crecimiento de las dos variables representativas de los gastos públicos en los años posteriores a 2008. En segundo lugar, a pesar de los esfuerzos realizados, los gastos totales y los gastos sin intereses de la deuda pública se situaron a finales de 2013 en el 45,3% y el 41,9% del PIB, respectivamente, lejos todavía de las cifras registradas antes del inicio de la crisis de 2008. Por último, los ingresos públicos no logran apenas recuperarse (suben tan sólo 0,6 puntos porcentuales en 2013) y se sitúan a niveles del año 1996 (38,6% del PIB), lejos todavía del máximo de recaudación alcanzado en 2007 (41,5% del PIB), último año del reciente periodo de expansión económica registrado en la economía española (1995-2007).

En el segundo gráfico se presenta la evolución del ahorro bruto total y del ahorro bruto excluido los pagos de intereses de la deuda pública del total de las AA.PP. La primera variable se obtiene del saldo conjunto de las cuentas corrientes (ingresos y gastos corrientes) de las AA.PP. (cuentas de producción, distribución y utilización de la renta). El ahorro bruto total y primario, que había crecido ininterrumpidamente en una década (desde 1997 a 2007), retrocedió bruscamente en el año 2008 y alcanzó en 2009 niveles negativos no conocidos en esta serie histórica. En el periodo 2010-2013 el ahorro público primario ha registrado una ligera mejora (1,1 puntos porcentuales en % del PIB), mientras que el ahorro público total incluso ha empeorado (0,3 puntos porcentuales del PIB) por el fuerte aumentos de los pagos de los intereses de la deuda pública acumulada. Ambas variables se sitúan todavía en 2013 en niveles negativos no deseables que incumplen la “regla de oro” de la política fiscal (emitir deuda pública solamente para financiar la inversión pública).

En el gráfico 3 se presenta la evolución temporal del superávit o déficit de las AA.PP. total y primario (excluidos los pagos de intereses de la deuda). Con más precisión, se trata de la capacidad (+) o necesidad de financiación (-) total y neta de intereses, obtenida como suma del ahorro bruto y del saldo de la cuenta de capital de las AA.PP. En este caso, se incluye además de los ingresos y gastos públicos corrientes, los ingresos y los gastos de capital de las AA.PP., incluida la inversión pública, entre otras partidas.

Como se puede observar en el gráfico, un periodo significativo de ajuste fiscal comenzó después de 1995 (año en el que se alcanzó un déficit público récord hasta entonces del -6,6%), para posteriormente reducirse en años sucesivos el déficit hasta el año 2004, y generándose superávit públicos crecientes en el periodo 2005-2007. Nuevamente, el año 2008 marca un cambio de tendencia brusco, al aparecer cifras de déficit público total del -4,5%, cifras no registradas desde el año 1996. En el año 2009 se alcanzó una nueva cifra récord: un -9,4% de déficit público primario y un -11,1% de déficit público total en estos 50 últimos años de historia de la hacienda pública española. El proceso de consolidación fiscal que había tenido relativo éxito en el periodo 2010-2011, se frenó significativamente en 2012, aunque se ha vuelto ha encauzar en el año 2013. De hecho, el déficit público total se ha reducido en 3,5 puntos porcentuales del PIB en 2013 hasta alcanzar el 7,1%, mientras que el déficit público primario se ha reducido en 3,9 puntos porcentuales del PIB, hasta situarse en el 3,7% del PIB.

No obstante, el déficit público total actual (-7,1% del PIB) se mantiene en una cifra aún muy alejada del límite del -3,0% vigente para los países de la zona del euro. El problema fiscal refleja tanto la insuficiente caída del gasto público, como la insuficiente recaudación impositiva.

En el gráfico 4 se muestra la senda temporal de dos variables representativas del stock de deuda pública de las AA.PP. La primera es el stock de deuda pública total medido por el conjunto de los pasivos financieros totales de las AA.PP. En el segundo caso, la segunda variable representativa del stock de deuda pública (menor en niveles por las partidas que incluye) es construido según la metodología del Protocolo de Déficit Excesivo (PDE) incluido en el Pacto de Estabilidad y Crecimiento de la zona del euro (esta es la cifra oficial que pública el Banco de España y el Banco Central Europeo sobre el total de la deuda pública española). En ambos casos, la reducción es espectacular desde el año 1996 hasta el año 2007, y nuevamente se produce un deterioro muy significativo y persistente desde el inicio de la crisis financiera internacional en el año 2008. Con más detalle, en el año 2013 el stock de deuda pública según la metodología del PDE ha vuelto a crecer hasta alcanzar la cifra récord del 93,9% del PIB, sobrepasando ampliamente el límite impuesto por el Tratado de Maastricht (60% del PIB).

En los gráficos 5 y 6 se han añadido a los gráficos 3 y 4, algunas previsiones disponibles para el periodo 2014-2017 de las cifras del déficit público total y del stock de deuda pública según la metodología PDE. Las previsiones del Ministerio de Economía y Competitividad provienen de la publicación Actualización del Programa de Estabilidad, 2014-2017 remitida a la Comisión Europea el pasado mes de abril, mientras que las previsiones de la Comisión Europea aparecen en el informe European Economic Forecast, Spring 2014, publicado el pasado mes de mayo.

Por una parte, las previsiones disponibles para el déficit público total (gráfico 5) del Ministerio de Economía y Competitividad indican que la continuidad del proceso de ajuste fiscal en 2014-2017 posibilitarán que el déficit del conjunto de las AA.PP. alcance a finales de 2016 y 2017 el 2,8% y el 1,1%del PIB, respectivamente, situándose ya por debajo del límite impuesto por el Tratado de Maastricht del -3%. Las previsiones de la Comisión Europea son mucho más pesimistas y los técnicos del organismo estiman que en 2015 volverá a empeorar el déficit público total hasta situarse en el 6,1% del PIB.

¿A qué se deben estas significativas diferencias en las previsiones del déficit público total nivel stock de deuda pública (en % del PIB) del Ministerio y la Comisión Europea?

Las diferencias se sustentan en las importantes divergencias que existen entre las respectivas previsiones de la tasas de crecimiento real de la economía, de las tasas de interés real de la deuda pública y del nivel de déficit público primario (variable dependiente a su vez de la dinámica de ingresos públicos y de gastos públicos excluidos los pagos por intereses de la deuda pública), variables responsables de la dinámica temporal de la deuda pública (junto al nivel actual del stock de deuda pública).

Por otra parte, las previsiones de la Comisión Europea sobre la evolución del stock de deuda pública según la metodología del PDE (gráfico 6) son claramente pesimistas. Los técnicos del organismo estiman que el stock de deuda pública se situará a finales de 2014 en el 100,2% del PIB, mientras que a finales de 2015 ya alcanzará el 103,8% (cifras muy alejadas del límite impuesto en el Tratado de Masstricht del 60% del PIB). Por otra parte, el stock de deuda pública alcanzó a finales de julio de 2014 los 1.005.714 millones, lo que representa ya el 98,2% del PIB, según las cifras difundidas el 17 de septiembre por el Banco de España.

Si el crecimiento económico de la economía española no se acelera significativamente (a tasas de crecimiento real del PIB cercanas al 3%),  la situación de las finanzas públicas podría desembocar en un futuro no muy lejano en un “default” (impago) de la deuda pública. Y no sería la primera vez. En el siguiente cuadro se recogen las 14 veces que España ha iniciado un procedimiento puro de impago de su deuda pública desde 1557.  Además somos lo que más veces nos hemos declarado en alguna variante de “default” entre 1340 y 2011. [1]

—–

[1] Fuente: Reinhart, C.M. y  & Kenneth S. Rogoff, K.S. (2014): “This Time is Different: A Panoramic View of Eight Centuries of Financial Crises”, Annals of Economics and Finance, Society for AEF, vol. 15(2), pp. 1065-1188; Domínguez Martínez, J.M. y López del Paso, R. (2011): “Situaciones de impago de deuda soberana”, eXtoikos, No. 4, pp. 147-152.

Tres universidades españolas destacan en el ranking 500 de Shanghai 2014 en el área de Economía y Empresa

El Espacio Europeo de Educación Superior (EEES) (conocido también como “proceso de Bolonia”, por el nombre de la ciudad italiana en la que se firmó la declaración política que abrió el espacio europeo universitario) no sólo significa una homologación de títulos a nivel europeo, sino también debería abrir la competencia entre las universidades europeas y españolas entre sí en la captación de los mejores alumnos y profesores.

Una de las variables clave para poder elegir una Facultad y una Universidad en el nuevo contexto debería ser sin duda el nivel científico de su profesorado, por lo que indicadores de la “calidad” de las publicaciones de investigadores y profesores, van a pasar a un nivel más que relevante. Los ranking internacionales de universidades son también importantes por varios motivos. Además del evidente prestigio internacional, son fundamentales por las importantes ventajas económicas que eso puede traer en un momento en el que los planes autonómicos, nacionales y europeos de apoyo a las universidades (fondos de investigación para los profesores, incentivos económicos a los mejores profesores, ..) deberían de tener un claro objetivo: premiar la excelencia. Y la excelencia se cuantifica en este tipo de listados (guste o no guste), entre otro tipo de cosas.

En relación a este tema, se ha publicado recientemente el Academic Ranking of World Universities (ARWU) 2014 elaborado desde 2003 por la Shanghai Jiao Tong University, China. Este ranking de universidades clasifica las mejores 500 universidades a nivel internacional (de un total de 1000 universidades analizadas).

El ranking de las universidades se realiza en base a un Indicador Sintético Ponderado compuesto de 5 indicadores ponderados:

  • La calidad de la docencia medida por los alumnos egresados que han sido galardonados con un Premio Nobel o con premios de investigación relevantes (indicador Alumni, peso del 10%).
  • La calidad de la Facultad medida por dos indicadores: i) los profesores que han sido galardonados con un Premio Nobel o con premios de investigación relevantes (Award, peso del 15%); y ii) los profesores que tienen artículos muy citados por otros artículos en 21 categorías temáticas (indicador HiCi, peso del 25%).
  • La calidad de la investigación medida por dos indicadores: i) los artículos publicados en 2012 y 2013 en la base científica de revistas Journal of Citation Reports Web (JCR) elaborada por la división de Ciencia de la empresa Thomson Reuters, incluyendo el Science Citation Index-Expanded (SCIE) y Social Science Citation Index (SSCI) (indicador PUB, peso del 25%); y ii) el porcentaje de artículos publicados en 2012 y 2013 en el 20% superior por su impacto de cada categoría JCR (indicador TOP, 25% del peso).

A la universidad con mayor puntuación se le asigna un valor 100, y la puntuación del resto de universidades se obtiene como un porcentaje de la puntuación de la universidad que lidera el ranking. La clasificación de universidades se realiza para el conjunto de la misma pero también en base a 5 campos científicos [i) Ciencias Naturales y Matemáticas, ii) Ingeniería, Tecnología e Informática, iii) Ciencias de la Vida y Agricultura, iv) Medicina y Farmacia, v) Ciencias sociales], y en base a 5 campos de conocimiento o materias [(i) Matemáticas, ii) Física, iii) Química, iv) Informática, v) Economía y Empresa].

En esta entrada del Blog nos centramos en la posición de las Facultades de Ciencias Económicas y Empresariales de las universidades españolas en el ranking Top 500 mundial.

En primer lugar, en la Tabla 1 mostramos el ranking utilizando el Indicador Sintético Ponderado (hacer clic sobre el mismo para verlo más grande). En el Top 200 sólo aparecen las Facultades de Ciencias Económicas y Empresariales de seis universidades españolas: la Universidad Pompeu Fabra en el rango del 51 al 71, la Universidad Carlos III en el rango del 101 al 150, y la Universidad Autónoma de Barcelona, la Universidad Politécnica de Valencia, la Universidad de Sevilla y la Universidad de Valencia en el rango del 151 al 200.

El panorama cambia muy positivamente si sólo utilizamos el indicador PUB (véase Tabla 2), que hace referencia a la producción científica global de los profesores en relación a los artículos publicados en las revistas indexadas en la base de datos JCR. En este caso, la Universidad de Valencia lidera el ranking español y escala espectacularmente hasta el puesto 68 mundial, mientras que la Universidad Carlos III se sitúa en el puesto 79 y la Universidad Pompeu Fabra se sitúa en el puesto 125.

La Regla de Taylor y la política monetaria de la Reserva Federal de EE.UU., 1954-2013

51487-janet-yellen_0

En la últimos meses, distintos miembros (y algunos notables exmiembros) de la Junta de Gobernadores de la Reserva Federal de EE.UU. , han advertido que la subida de los tipos de interés de corto plazo (la tasa de los fondos federales) puede llegar mucho antes de lo que habían previsto hasta ahora los analistas, tal vez ya en el último trimestre de 2014 o en el primer trimestre de 2015. [1]

En la conferencia de prensa posterior a la última reunión del Comité Federal de Mercado Abierto de la Reserva Federal de EE.UU. de 18 de junio, la Presidenta de la Reserva Federal, Janet Yellen, no fué tan contundente. En primer lugar, constató tanto los avances en la reducción de la tasa de desempleo hasta el 6,3% en mayo (el objetivo para la retirada de los estímulos monetarios era del 6,5%), como el paulatino acercamiento de las tasas de inflación al objetivo del 2% (1,34% el deflactor del PIB, primer trimestre 2014; 2,13% el IPC General, mayo 2014; IPC sin incluir alimentos y energía, 1,94%, mayo 2014).

En segundo lugar, señaló que el objetivo de la tasa de los fondos federales actual (el 0,25%) se mantendrá cierto tiempo por debajo de su nivel “normal” a largo plazo (una vez finalizado a finales de 2014 el Programa de Compra de Activos aprobado el 12 de diciembre de 2012) en función de la evolución de una serie de indicadores que tienen relación con los efectos negativos derivados de la crisis financiera de 2007: gasto de los hogares, disponibilidad de crédito bancario, expectativas de crecimiento futuro de la producción y las rentas, y crecimiento del PIB potencial. En tercer lugar, también manifestó que los tipos de interés podrían subir a un ritmo ligeramente más rápido en 2015 y 2016 que las proyecciones anteriores, ya que mantiene su confianza en que la recuperación económica. Por último, Janet Yellen matizó que si la economía de EE.UU. se fortalece más rápidamente como señalan las proyecciones recientes, los tipos podrían subir antes de lo previsto.

¿Pero cuál es el nivel “normal” a largo plazo de las tasas de fondos federales a los que se refiere la Presidenta de la Reserva Federal? Una manera de aproximarse a este nivel “normal” a largo plazo es mediante la conocida Regla de Taylor.

John B. Taylor, catedrático de Economía de Stanford University, EE.UU., propuso en un seminal trabajo de 1993 una regla monetaria para establecer cambios en los tipos de interés de los fondos federales en función de la desviación de la producción real actual respecto a la producción real potencial y de la desviación de la inflación actual del objetivo de inflación, tal y como se puede ver en la siguiente expresión:

i = π + 0,5 (y – y*) + 0,5 (π – π*) + r   [a]

donde i es el tipo de interés nominal a corto plazo y objetivo de la Política Monetaria derivada de la Regla de Taylor (en nuestro caso, la tasa de interés de los fondos federales); y es la tasa de variación del PIB real; y* es la tasa de variación del PIB potencial, (y-y*) es el output gap; π es la tasa de inflación actual (medida por la variación del deflactor del PIB); π* es la tasa de inflación objetivo de la Reserva Federal (en nuestro caso el 2%); y r es la tasa de interés real de equilibrio (en el caso de la economía de EE.UU. el 2%).

Teniendo en cuenta los dos datos fijos, la regla de Taylor quedaría finalmente como:

i = 2+ 0,5 (y – y*) + 0,5 (π – π*) + 2   [b]

Desde el punto de vista práctico, si la economía de EE.UU. mantuviera una tasa de crecimiento real igual al crecimiento potencial y simultáneamente mantuviese su nivel de la tasa de inflación en el objetivo fijado a largo plazo (el 2% en el caso de la Reserva Federal), la Regla de Taylor sugeriría que la Reserva Federal debería fijar unos tipos de interés (nominales) de los fondos federales del 4%, lo que implica unos tipos de interés reales a corto plazo del 2%.

En el gráfico adjunto hemos representado la evolución de la tasas de interés (nominales) de fondos federales efectivos y las tasas de interés (nominales) implícitas de la Regla de Taylor (el tipo de interés que se fijaría de seguirse la Regla de Taylor de la ecuación [b]) para el periodo 1954-2013.

En primer lugar, constatar hasta que punto varían al unísono las dos series de tipos de interés, con quizá la excepción del periodo posterior a la crisis financiera de 2007. En segundo lugar, a finales de 2013 la tasa de interés (nominal) efectiva de los fondos federales se situaba en el 0,07%, mientras que la tasa de interés (nominal) implícita de los fondos federales derivada de la Regla de Taylor sería del 3%.

En síntesis, la Reserva Federal tendría – en base a los datos actuales de crecimiento real, crecimiento real potencial y de inflación – un recorrido de subidas de tipos de interés a corto plazo de 3 puntos porcentuales para cumplir estrictamente con la Regla de Taylor. Cabe determinar si el nuevo objetivo de tasa de fondos federales más elevado se fija en el horizonte de 2015 o 2016, y si comienza ya las subidas graduales en la segunda parte de 2014 o se aplaza a 2015.

En el siguiente cuadro se puede constatar como en la última reunión del 18 de junio del Comité Federal de Mercado Abierto de la Reserva Federal, de los 16 miembros con derecho a voto tan sólo un miembro propuso como objetivo de la tasa de fondos federales para 2015 el nivel del 3% derivado de la Regla de Taylor, mientras que para 2016 ya fue propuesto por seis miembros (cuatro de los cuales por encima del 3%), y ya en el ambiguo largo plazo todos los miembros propusieron objetivos superiores al 3%.

—–

[1] Los tipos o tasas de los fondos federales al que los bancos se conceden prestamos unos a otros. En las reuniones del Comité Federal de Mercado Abierto de la Reserva Federal de EE.UU. se puede elegir un nuevo objetivo para el tipo de los fondos federales y dar instrucciones a los operadores de bonos de la Reserva Federal para que realicen operaciones de mercado abierto con el fin de alcanzar el objetivo deseado.

Anteriores Entradas antiguas

Visita nuestra web para información sobre actividades

http://www.alde.es
Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 269 seguidores