El índice Nasdaq alcanza los niveles récord de 2000: ¿nueva burbuja tecnológica en el horizonte?

Una burbuja especulativa es un fenómeno económico que consiste en un aumento desproporcionado del precio de algún activo, de forma que dicho precio se desvía sustancialmente de su valor teórico. Esta situación aparece como consecuencia de la especulación, de ahí el nombre de burbuja especulativa, y se mantiene hasta que finaliza la euforia y se produce un cambio en las expectativas de los inversores, que pierden la confianza en el mercado. La pérdida de confianza en el valor genera un período de pánico financiero en el que los inversores se apresuran a vender el activo con el objetivo de minimizar sus pérdidas o de obtener beneficios, provocando con su actitud una caída repentina y brusca de los precios del objeto de la especulación, que en determinadas circunstancias puede ocasionar un crack bursátil que produce una enorme caída de la riqueza financiera, e incluso una recesión económica.

La llamada burbuja “puntocom” fue una burbuja especulativa tecnológica que se generó entre 1995 y 2000 en el mercado de valores tecnológicos de EEUU, representado por el índice Nasdaq composite de Nueva York, donde las empresas tecnológicas, de telecomunicaciones y de internet (llamadas “puntocom”) vieron incrementado rápidamente el valor de su acciones. La salida a Bolsa de Netscape (compañía que ofrecía un navegador con el mismo nombre) en 1995, marcó el inicio de esta burbuja. Desde entonces y hasta el año 2000, se produjo una avalancha de operaciones en el sector “online”, en su mayoría fruto de la especulación.

En concreto, la burbuja especulativa tecnológica se sustento en promesas de grandes ganancias con baja inversión, fácil disponibilidad de capitales de riesgo, y nuevas empresas que ya no utilizaban los modelos de negocios y de organización tradicionales. Por ejemplo, estas empresas veían crecer de una manera desmesurada el número de sus clientes, a pesar de que tenían enormes pérdidas anuales o escasos beneficios.

La cima de la burbuja se alcanzó el 10 de marzo de 2000, cuando el mercado de empresas tecnológicas que formaban parte del índice Nasdaq composite llegó al punto máximo de 5048,62 puntos. El nivel de especulación era tan alto, que el valor de las empresas subía simplemente por tener en su nombre una “e-” (de “electronic”) como prefijo o un “.com” como sufijo.

Entre el 10 de marzo de 2000 y el 30 de septiembre de 2002, el índice Nasdaq composite de Nueva York perdió el 76,8% de su valor, al pasar de 5048,62 a 1172,06 puntos. La burbuja especulativa se pincho y provoco la crisis de las “puntocom”, una fuerte caída del valor bursátil de las empresas y las posteriores quiebras, fusiones y adquisiciones. Algunos estudios estiman que en el periodo 2000-2003 desaparecieron casi cinco mil compañías de internet por quiebra, fusión o adquisición.

No obstante, pese a la gran caída de sus acciones en el mercado de valores, muchas de estas empresas sobrevivieron, incluso utilizando estos nuevos tipos de negocios que habían hecho quebrar a muchas otras.

En el siguiente gráfico se representa la evolución temporal histórica de los índices Nasdaq:

- El índice Nasdaq composite es un índice bursátil de Estados Unidos, que refleja la evolución de aproximadamente las 3.000 empresas nacionales y extranjeras con mayor capitalización que cotizan en el Nasdaq Stock Market. Toma el valor 100 el 5 de febrero de 1971. Entre las empresas que forman parte de este índice, se encuentran algunas como, por ejemplo, Apple, Amazon, Microsoft, Cisco, Dell, Intel Corporation, Google, Oracle, Yahoo y Elizabeth Arden.

- El índice Nasdaq 100 es un índice bursátil de Estados Unidos, que refleja la evolución de las 100 empresas nacionales y extranjeras con mayor capitalización bursátil que cotizan en el mercado electrónico del Nasdaq (Nasdaq Stock Market). Toma el valor 100 el 2 de enero de 1986. Se incluyen dentro de este índice, empresas de telecomunicaciones, venta al comercio al por mayor y al por menor, empresas de hardware y software y de biotecnología, siempre y cuando formen parte del Nasdaq Stock Market.

Los mercados financieros viven en la actualidad con un miedo latente a que se haya desencadenado una nueva burbuja tecnológica y que esta pueda pinchar como en el año 2000. Una prueba que se introduce en este debate son los niveles récord que alcanzan los índices Nasdaq.

Como se puede ver en el gráfico, los últimos datos del 8 de diciembre de 2014 sitúan al índice Nasdaq composite y al índice Nasdaq 100 a un 6% y 6,7% de alcanzar los récord históricos del 10 de marzo de 2000, fecha de inicio del pinchazo de la burbuja tecnológica “puntocom” del 2000.

En este contexto, en la prensa estadounidense y en los círculos financieros de Wall Street ha vuelto a aparecer la temida palabra burbuja financiera tecnológica. Parte de los analistas se cuestiona ya si las empresas tecnológicas están sobrevaloradas, tal y como sucedió en el año 2000. Sin embargo, los analistas más optimistas señalan que la naturaleza y el comportamiento de las compañías tecnológicas incluidas en los índices Nasdaq ha cambiado desde el año 2000. En aquella burbuja tecnológica, las empresas eran valoradas por los mercados sin contar con un recorrido previo y las altas valoraciones de sus acciones se sustestaban en función del éxito futuro potencial. Los inversores formaban sus expectativas en función del futuro y en lo intangible. En la actualidad, las empresas tecnológicas tienen que demostrar que son capaces de generar beneficios y que tienen un proyecto solvente para obtener el apoyo de los inversores.

¿Clases del mismo sexo o amigos del mismo sexo?

Uno de los debates clásicos, y de los que genera más polémica, en educación es si las clases con alumnos del mismo sexo conducen a mejores rendimientos académicos que las clases en las que se mezclan chicos y chicas. Los primeros estudios empíricos que analizaron esta cuestión concluían mayoritariamente que los alumnos de clases del mismo sexo obtenían mejores resultados académicos que los alumnos de clases mezcladas. La explicación de esta asociación positiva es que los chicos y las chicas aprenden de forma diferente y, por tanto, si los métodos de enseñanza se adecúan mejor a las características de cada grupo, los resultados serán mejores. Sin embargo, como explicaba muy bien el profesor Antonio Cabrales en un post en el blog Nada es Gratis, gran parte de estos resultados positivos se debían a un efecto de autoselección. Los alumnos con padres más motivados por la educación y con una educación, y recursos económicos, superiores a la media tienen una mayor probabilidad de elegir colegios con clases del mismo sexo para sus hijos. Esto genera una correlación positiva artificial entre los resultados académicos y estudiar en clases con alumnos del mismo sexo. Sin embargo, si se controlan estos factores, la ventaja de estudiar en una clase con alumnos del mismo sexo sería muy pequeña o nula. Un reciente meta-estudio, realizado por Pahlke, Hyde y Allison, avala esta conclusión.

Sin embargo, un estudio que se publicará próximamente en el American Economic Journal: Applied Economics, realizado por el profesor Andrew Hill, ha analizado esta cuestión desde otro prisma. El profesor Hill no analiza si en las clases hay muchos o pocos alumnos del sexo opuesto, sino si el tener amigos del sexo opuesto en la misma clase tiene efectos sobre el rendimiento académico de los alumnos. Es decir, si los chicos que tienen un menor número de amigas en su clase tienen un mejor rendimiento académico que los chicos que tienen un mayor número de amigas en su clase. El estudio empírico está cuidadosamente diseñado para salvar los posibles problemas de auto-selección y captar, lo más claramente posible, la relación entre tener una mayor proporción de amigos del sexo opuesto en clase y los rendimientos académicos. La muestra está compuesta por adolescentes entre los 12 y 18 años que asisten al colegio en Estados Unidos. El estudio concluye que los alumnos con una mayor proporción de amigos del sexo opuesto en clase, una vez que se han controlado el resto de factores, tienen un peor rendimiento académico que los alumnos que tienen una menor proporción de amigos del sexo opuesto en clase. El estudio concluye también que el efecto es muy parecido para las chicas y para los chicos.

¿Por qué se produce esta relación negativa? El autor ofrece dos explicaciones. Por una parte, para mantener viva la amistad es importante interactuar con tus amigos. Parte de esta interacción se da fuera de la escuela. Para los adolescentes parte de las actividades que se realizan fuera de la escuela tienen que ver con el deporte, y en las actividades deportivas, la mayoría de las ocasiones, los chicos y las chicas forman grupos separados. Si un alumno tiene amigos del mismo sexo y ellos también realizan actividades deportivas en el mismo equipo, tiene más probabilidades de interactuar con sus amigos fuera de la escuela. Por ello, durante las horas de clase, tendrán una menor necesidad de estar hablando con sus amigos. En cambio, los amigos del sexo opuesto tienen menos oportunidades de interactuar fuera de clase y, por tanto, tienen que recurrir a las horas de clase para hablar. El hablar en clase hace que pierdan atención a lo expuesto por el profesor y que su relación con el profesor sea peor, ya que es más probable que les llame la atención. De hecho, el profesor Hill encuentra una relación positiva entre tener amigos en clase del sexo opuesto y que los alumnos señalen que tienen problemas de seguir la clase o que tienen problemas con el profesor. La segunda explicación es que el tener amigos en clase del sexo opuesto aumenta la probabilidad de tener una relación sentimental, lo cual también podría estar correlacionado con una menor atención en clase, y con una menor dedicación al estudio fuera de clase.

Me imagino que los resultados de este estudio se utilizarán como munición para aquellos que defienden las clases con alumnos del mismo sexo. Si las clases son con alumnos del mismo sexo, ya no puede existir el efecto negativo sobre el rendimiento de tener amigos del sexo opuesto en clase. Sin embargo, como se ha recordado muchas veces, además del rendimiento académico se deben ponderar otros factores para decidir sobre la bondad de la mezcla de sexos en clase. Tener alumnos de diferentes sexos en el aula permite que los chicos y las chicas aprendan a socializar, a trabajar juntos, y apliquen esas enseñanzas ya como adultos en las empresas, en la familia, y en la sociedad en su conjunto.

La ANECA acaba con el monopolio “JCR”

Con una ligera demora con respecto a años anteriores, el BOE ha publicado hoy los criterios por los que se regirá la Comisión Nacional Evaluadora de la Actividad Investigadora (CNEAI) para evaluar la calidad investigadora en el 2014. La principal novedad con respecto al año pasado en el campo de las Ciencias Económicas y Empresariales es la equiparación de los índices Journal Citation Reports (JCR) de Thompson Reuters con SCOPUS de Elsevier.

Mientras en el BOE del 2013, la mención al índice SCOPUS estaba en el apartado 3b)

“Podrán considerarse también los artículos publicados en revistas que ocupen posiciones relevantes en los listados de SCOPUS”

En el BOE del 2014, SCOPUS sube de nivel hasta el 3a):

“Los trabajos publicados en revistas de reconocida valía, aceptándose como tales( …) Journal Citation Reports (JCR) Social Sciences Edition (…) así como en SCOPUS.”

Con la anunciada fusión entre la ANECA y la CNEAI, se ha reparado la “el acusado JCR-centrismo” que impuso el BOE del 2005 (Ruiz-Pérez, Delgado y Jiménez-Contreras 2010, p. 907). Es decir, la ANECA ha terminado con el monopolio del JCR. Bienvenidos al duopolio.

Es cierto que los cambios de criterio que dificultan la planificación de la investigación a largo plazo (piensen que el criterio que se establece hoy establece unos criterios retroactivos para un periodo de seis años). Sin embargo, es previsible que la supresión del monopolio de la indexación científica  tenga efectos positivos (asumiendo que la calidad científica de ambos índices es similar). Se me ocurren las siguientes razones:

  1. Se amplía el número de revistas consideradas de alta calidad.  La cobertura de ambos índices es distinta (SCOPUS indexa 15,000 journals y JCR 9,000.
    1. Una mayor cobertura puede contribuir a reducir el lag editorial y la tasa de rechazo (Conley 2012).
    2. Se fomenta la creatividad al abrirse el abanico a revistas más especializadas o independientes.
  2. La forma de calcular el impacto científico también difiere. SCOPUS suele referenciar un número de citas mayor que JCR (Pislyakov, 2009). Ello implica que un mismo artículo suele tener unos indicios de calidad mayores en SCOPUS que en JCR.
  3. La plataforma de SCOPUS SCImago Journal & Country Rank es totalmente abierta y gratuita, a diferencia de la JCR.
  4. Los criterios de indexado de SCOPUS parecen más transparentes que JCR. Las revistas JCR bailan fuera y dentro del índice sin unos criterios claros de inclusión o exclusión (o al menos yo no he podido encontrarlos en su web).

Puede que algún día Google Scholar acabe barriendo a estos dos índices. Pero de momento el paso del monopolio al duopolio aumentará el bienestar de una parte de la sociedad (como mínimo de los que tratamos de investigar).

El valor económico de la paciencia

“La paciencia es amarga, pero sus frutos son dulces”. Esta frase del filósofo Jean Jacques Rousseau refleja muy bien la percepción que existe sobre esta facultad humana. El mensaje es que cuesta ser paciente, pero si lo somos, obtendremos frutos de ello. De hecho, el cristianismo identifica la paciencia como una de las virtudes a desarrollar por las personas. Sin embargo, ¿es esta intuición correcta en el ámbito económico?, ¿es cierto que las personas pacientes obtienen mayores frutos económicos que las impacientes?

En un artículo que se publicará próximamente en Economic Journal, los profesores Golsteyn, Grönqvist y Lindahl desarrollan un estudio empírico para responder esta cuestión. El primer paso es medir el nivel de paciencia que tiene una persona. Para ello, se realizó la siguiente pregunta a 13.606 adolescentes suecos: “¿Preferís recibir 900 coronas suecas hoy (alrededor de 100€) o 9000 coronas suecas en 5 años (alrededor de 1000€)?”. Los adolescentes podían elegir entre cinco respuestas alternativas, que se graduaban desde el muy impaciente “por supuesto, 900 coronas hoy” al muy paciente “por supuesto, 9000 coronas dentro de 5 años”. Lo increíble del estudio es que esta pregunta se realizó en el año 1963, y los autores han sido capaces de “seguir” a estos alumnos durante cinco décadas, incluyendo su periodo escolar y gran parte de su vida adulta.

¿Y cuáles son los resultados? La respuesta es contundente. Los adolescentes que eran más pacientes han cosechado mayores frutos económicos que los impacientes. Los adolescentes con más paciencia, en primer lugar, obtuvieron mejores resultados académicos que los alumnos menos pacientes. En segundo lugar, una vez alcanzada la edad de trabajar, los alumnos más pacientes han tenido una menor probabilidad de estar desempleados y han alcanzado mayores ingresos. Finalmente, los investigadores concluyen que los adolescentes menos pacientes han tenido mayor probabilidad de tener sobrepeso, ser madres adolescentes o morir jóvenes. Es importante destacar que junto a la pregunta sobre el nivel de paciencia, en el año 1963 todos los alumnos realizaron un test para medir su capacidad cognitiva. Aun cuando se descuenta esta variable, los resultados positivos de la paciencia siguen siendo muy robustos.

No tengan ninguna duda: inculquen la virtud de la paciencia a sus hijos. El comienzo será amargo, pero los frutos serán muy dulces.

La burbuja del sector de la construcción en China y el consumo de cemento

Los medios financieros internacionales y algunos organismos internacionales como el FMI están alertando del posible pinchazo del sector de la construcción en China, uno de los pilares básicos de las altas de crecimiento económico de la última década. La prueba de que la burbuja del sector de la construcción puede explotar se manifiesta en las ciudades y barrios “fantasma” que están por ocupar a lo largo y ancho del país, los numerosos centros comerciales vacíos por doquier, y el exceso de crédito bancario otorgado al sector inmobiliario.

La economía de China depende en gran medida del sector de la construcción, ya que el 14% de los empleos urbanos (90 millones de personas) y el 12,5% del PIB se concentran en este sector. En el gráfico siguiente se puede observar como la inversión en el sector de la construcción (real estate) ha crecido en los últimos años muy por encima de las impresionantes cifras del crecimiento real del PIB de la economía: una media del 25% frente a una media del 10%.

 china burbuja

Pero quizá las cifras del siguiente gráfico muestren mejor la magnitud del problema. China ha consumido más cemento sólo en los últimos tres años (2011-2013) que los EE.UU. en todo el siglo XX (1901-2000): 6,6 gigatones frente a 4,5 gigatones. [1]

——

[1] gigatón o gigatonelada = mil millones de toneladas métricas.

El teorema de Bayes y el ébola: una remedio contra otras patologías contagiosas

En 1763 se descubrió una de las vacunas más eficaces contra la mayoría de las enfermedades infecciosas. La cura del miedo no es otra que el teorema más famoso del matemático inglés Thomas Bayes, el cual lleva su nombre. Desde entonces, la inferencia bayesiana se ha aplicado a la bioestadística, y en espacial al diseño de políticas relacionadas con enfermedades infecciosas e incluso para trazar su origen.

La epidemia de ébola es un asunto serio y preocupante. Tanto, que deberíamos aplicar todo nuestro razonamiento para tratar de paliar la epidemia que se cobra miles de vidas en África. Por ejemplo, ¿es razonable poner en cuarentena a todo aquel pasajero que desembarque de un vuelo procedente de un país afectado por el contagio?

La alarma suscitada por el primer caso de ébola en Nueva York ha propiciado que varios estados Norteamericanos (Nueva York , Nueva Jersey e Illinois) decidieran poner en cuarentena obligatoria a todos los médicos el personal sanitario proveniente de África, con sus consiguientes críticas. Esta reacción solo es comparable a la de Corea del Norte, que ha decidido cerrar sus fronteras a todos los vuelos de África, y de paso a los de EEUU. Parece que algunos países necesitarían también la ayudas de los estadísticos sin fronteras.

Sin embargo, una enfermera americana tenía unas décimas de fiebre cuando aterrizó de un vuelo de África ha decido huir de su confinamiento obligatorio. Han saltado todas las alarmas posibles. En cambio Kaci Hickox, se pasea con su bicicleta feliz y sonriente. Es la sonrisa de quien conoce el teorema de Bayes: “No voy a quedarme aquí y dejar que se violen mis derechos civiles porque no hay base científica”

Realicemos algunas sencillas operaciones matemáticas y entenderemos mejor la sonrisa de la enfermera. Pongámonos en el supuesto más restrictivo y que los aeropuertos tuvieran acceso al test PCR para detectar el ébola. El test para detectar el ébola (PCR) acierta (da positivo) en el 99.6% de los pacientes que tienen ébola (positivo). El test también acierta en (da negativo) en el 99.7% de los pacientes que no tienen ébola. Digamos que un 0.2% de los pasajeros provenientes de África viajan infectados con el virus. Por tanto, ¿cuál es la probabilidad de tener ébela para una persona que ha dado positivo?

Visto lo visto, si fuéramos médicos (o incluso políticos) seguramente diríamos que más del 99% (22/24 de médicos fallaron la respuesta a una pregunta muy similar relacionada con el cáncer). Pero la enfermera Hickox no se saltó la clase de estadística el día que explicaron que la probabilidad a priori no es la misma que la conjunta. Es decir que no es lo mismo tener ébola y dar positivo que tener ébola cuando he dado positivo.

Si queremos averiguar qué porcentaje de viajeros tendrán ébola cuando den positivo utilizaremos la fórmula de Bayes:


P(\textbf{Ebola}|\textbf{Positivo}) = \frac{P(\textbf{Ebola})P(\textbf{Positivo} |\textbf{Ebola})}{P(\textbf{Positivo})},

donde P(\textbf{Ebola}|\textbf{Positivo}) es la probabilidad de estar realmente enfermo dado que he dado positivo, P(\textbf{Positivo} |\textbf{Ebola}) es la probabilidad de dar positivo cuando realmente se tiene ébola y   P(\textbf{Positivo}) es la probabilidad de dar positivo.

La probabilidad de dar positivo es la suma de todos los que dan positivo, contando los “falsos positivos”, aquellos que sin tener ébola dan positivo:

P(\textbf{Positivo})=P(\textbf{Ebola}|\textbf{Positivo})+P(\textbf{No Ebola}|\textbf{Positivo}),

y la probabilidad buscada es:

P(\textbf{Ebola}|\textbf{Positivo}) = \frac{\textbf{0.002*0.996}}{\textbf{0.002*0.996+0.998*0.003}}=0.40.

Por lo tanto, tan solo un 40% de los viajeros que den positivo por ébola en los aeropuertos tendrán realmente la enfermedad. Este porcentaje es muy distinto al 99%. Si en vez del test PCR se toma la temperatura, este porcentaje se reduce drásticamente. Además también habrá un número reducido de viajeros que darán negativo aun con el virus inoculado. Por tanto no tienen ningún sentido la cuarentena discrecional de todos los viajeros.

Afortunadamente un juez de Maine ha recuperado el sentido de la proporción y ha dado la razón a la enfermera Hickox apoyándose en razonamientos científicos. Desafortunadamente, el teorema de Bayes no ha conseguido prevenir  otras patologías contagiosas. La cuarentena “Gangnam Style” Norcoreana tan solo puede ocasionar más confusión y privar de atención médica a los países necesitados sin ninguna base razonada. Esperemos que los responsables de salud pública de nuestro país (incluso aquellos con la vida resuelta) se decanten más por Bayes que por los bailes coreanos.

 

África: ¿Buenas o malas noticias?

Durante las últimas semanas, las noticias que llegan desde África, ligadas al ébola, están contribuyendo a reforzar los lugares comunes que tenemos sobre este continente: pobreza, violencia, falta de infraestructuras o la incapacidad de los Estados para responder ante una crisis humanitaria.

Sin embargo, a esta imagen pesimista deberíamos contraponer otra mucho más optimista, ya que desde el comienzo de este siglo África Subsahariana ha experimentado un ritmo de crecimiento que algunos autores han calificado de milagroso. De acuerdo a los datos del Banco Mundial, en el periodo 2001-2013, África Subsahariana creció a un ritmo medio del 5,5%, por encima de los países de la Unión Europea y de América del Norte, pero también del Norte de África, el Medio Oriente, y Latinoamérica. De hecho, entre los diez países que más crecieron en ese periodo encontramos cinco países de África Subsahariana: Angola, Chad, Etiopía, Guinea Ecuatorial, y Nigeria. Además, este crecimiento económico ha venido acompañado por una reducción de la pobreza, que ha pasado del 58% en el año 2000 (porcentaje de la población que vive con menos de 1,25 dólares al día) al 48% en 2010, y por una reducción en la mortalidad infantil. Incluso en el plano empresarial, firmas africanas han logrado reconocimiento internacional en actividades, como la exportación de flores, con un alto grado de complejidad logística.

¿Está África Subsahariana entrando, por fin,  en una senda de crecimiento estable? ¿o es este crecimiento pasajero y África volverá a ser el continente sin esperanza? Los que apunta a la naturaleza pasajera de este proceso, señalan que el crecimiento de África Subsahariana se explica por el fuerte aumento del precio de las materias primas que exporta esta región. Y algo de cierto hay en este argumento. Casi el 60% del valor de las exportaciones africanas en el periodo 2001-2013 es petróleo, metales preciosos y minerales; y el precio de estas materias primas ha crecido de manera muy importante durante este periodo. La historia económica nos enseña que el precio de las materias primas sufre vaivenes muy importantes; por tanto, si se produce un cambio de tendencia en la evolución de los precios, el crecimiento se podría detener.

Otra variable que ha apoyado el crecimiento, pero que tiene, en parte, un componente temporal, es la inversión china en las infraestructuras de transporte en África Subsahariana. Estas inversiones han permitido que zonas remotas de África hayan mejorado su acceso a los mercados nacionales e internacionales, aumentando notablemente las oportunidades de negocio de muchos productores. La expansión de las telecomunicaciones y, especialmente, de los teléfonos móviles, también han jugado un papel importante en la integración de los mercados.

A favor de la visión de que el crecimiento africano no es pasajero están aquellos que señalan la mejora de la calidad de las instituciones en África. Por calidad de las instituciones nos referimos a la reducción de los episodios de violencia, la estabilidad política, una mejora en el cumplimiento de los contratos y una reducción de la corrupción. Ciertamente, los datos indican que durante este siglo se ha producido una reducción de los conflictos armados en África Subsahariana y que la democracia ha ganado terreno. Además, según los datos del Doing Business del Banco Mundial, algunos países del África Subsahariana, aunque todavía se encuentren muy lejos de los países más avanzados, han logrado mejorar en aspectos tales como el cumplimiento de los contratos.

Sin embargo, el proceso que nos otorga más confianza en la continuidad del crecimiento es algo que ya destacaban los primeros teóricos del desarrollo económico hace más de 50 años: el cambio estructural. La simple comparación de los países más ricos con los países más pobres nos pone de manifiesto que el peso de la agricultura en el conjunto de la economía es muy pequeño en los primeros y muy grande en los segundos. En cambio, el peso de la industria y de los servicios es más grande en los países más ricos que en los países más pobres. La productividad de la industria y de los servicios es superior a la productividad en la agricultura (aunque también existen actividades de alta productividad en la agricultura, tal como señalábamos al inicio del post). Por tanto, si se produce una migración de trabajadores de la agricultura a la industria y los servicios, aumenta la productividad por trabajador. Y según han mostrado los profesores Margaret McMillan y Kenneth Harttgen en un reciente estudio, el 50% del crecimiento en la productividad del trabajo en África Subsahariana se ha debido a este cambio estructural.

¿Qué factores explican este proceso de cambio estructural? En primer lugar, McMillan y Harttgen muestran que los países africanos que partían con un mayor porcentaje de trabajadores en el sector agrícola han logrado mayores reducciones en el peso de la agricultura. Esto parece lógico, ya que las posibilidades de reducción siempre serán mayores para aquellos países que parten de un mayor porcentaje. En segundo lugar, se han producido mayores reducciones en el peso de la agricultura en aquellos países en el que el aumento del precio de las materias primas ha estado acompañado de una mejora en la calidad de las instituciones. La explicación sería que un aumento del precio de las materias primas permite unos mayores ingresos a los Estados. Si estos mayores ingresos se invierten en acciones que fomente el crecimiento a largo plazo, como mejorar el acceso y la calidad de la educación, aumentará la probabilidad de que se puedan desarrollar oportunidades de negocio en la industria y los servicios. De hecho, McMillan y Harttgen muestran que la mejora en la educación de las mujeres en las zonas rurales está correlacionada positivamente con la reducción del peso de la agricultura. Es interesante observar que una variable de carácter coyuntural, como los mayores ingresos por la exportación de materias primas, si se conjuga con un elemento estructural, la calidad de las instituciones, también puede contribuir al crecimiento a largo plazo.

Allá por el año 1954, el Premio Nobel de Economía Arthur W. Lewis ya defendió que el desarrollo económico estaba unido al crecimiento de los sectores modernos y el declive de los sectores tradicionales. Parece que África Subsahariana ha logrado, por fin, tomar esta senda. Por el bienestar de millones de personas es preciso que siga recorriendo este camino.

Evolución histórica de las variables macroeconómicas fiscales de la economía española, 1964-2013, y proyecciones 2014-2017

En esta entrada del Blog se presenta la senda temporal de las principales variables macroeconómicas fiscales de las AA.PP. españolas (medidas en % del PIB) actualizadas para el periodo 1964-2013. En concreto, se ha añadido la cifra provisional del año 2013 y se han corregido también todas las cifras anteriores con datos actualizados de las nuevas series elaboradas por el Instituto Nacional de Estadística (INE). Los datos provienen de las Cuentas Financieras de la Economía Española elaboradas por el Banco de España y de la Contabilidad Nacional de España elaborada por el INE. También se presentan previsiones de déficit público total (incluyendo los pagos de intereses de la deuda pública acumulada), del déficit público primario (sin incluir los pagos de intereses de la deuda pública acumulada) y del stock de deuda pública bruto (según la metodología del Déficit Público Excesivo), previsiones presentadas en el pasado mes de abril por el Ministerio Economía y Competitividad y en el pasado mes de mayo por la Comisión Europea para el periodo 2014-2017.

Me gustaría destacar los tres últimos periodos de la historia presupuestaria de la economía española: a) el ajuste fiscal del periodo 1996-2007; b) el deterioro brusco y profundo de las finanzas públicas en los años 2008 y 2009, después del inicio de la crisis económica derivada de la crisis financiera internacional; y c) el nuevo periodo de ajuste fiscal que comenzó en el año 2010 que avanza a un ritmo excesivamente lento para garantizar la sostenibilidad de las finanzas pública a largo plazo.

En el primer gráfico (hacer clic sobre el mismo para verlo más grande) aparece la evolución de los ingresos totales, los gastos totales y los gastos netos de intereses de la deuda pública o gastos públicos primarios. En primer lugar, destacar el hundimiento de los ingresos en 2008 y 2009, y el espectacular crecimiento de las dos variables representativas de los gastos públicos en los años posteriores a 2008. En segundo lugar, a pesar de los esfuerzos realizados, los gastos totales y los gastos sin intereses de la deuda pública se situaron a finales de 2013 en el 45,3% y el 41,9% del PIB, respectivamente, lejos todavía de las cifras registradas antes del inicio de la crisis de 2008. Por último, los ingresos públicos no logran apenas recuperarse (suben tan sólo 0,6 puntos porcentuales en 2013) y se sitúan a niveles del año 1996 (38,6% del PIB), lejos todavía del máximo de recaudación alcanzado en 2007 (41,5% del PIB), último año del reciente periodo de expansión económica registrado en la economía española (1995-2007).

En el segundo gráfico se presenta la evolución del ahorro bruto total y del ahorro bruto excluido los pagos de intereses de la deuda pública del total de las AA.PP. La primera variable se obtiene del saldo conjunto de las cuentas corrientes (ingresos y gastos corrientes) de las AA.PP. (cuentas de producción, distribución y utilización de la renta). El ahorro bruto total y primario, que había crecido ininterrumpidamente en una década (desde 1997 a 2007), retrocedió bruscamente en el año 2008 y alcanzó en 2009 niveles negativos no conocidos en esta serie histórica. En el periodo 2010-2013 el ahorro público primario ha registrado una ligera mejora (1,1 puntos porcentuales en % del PIB), mientras que el ahorro público total incluso ha empeorado (0,3 puntos porcentuales del PIB) por el fuerte aumentos de los pagos de los intereses de la deuda pública acumulada. Ambas variables se sitúan todavía en 2013 en niveles negativos no deseables que incumplen la “regla de oro” de la política fiscal (emitir deuda pública solamente para financiar la inversión pública).

En el gráfico 3 se presenta la evolución temporal del superávit o déficit de las AA.PP. total y primario (excluidos los pagos de intereses de la deuda). Con más precisión, se trata de la capacidad (+) o necesidad de financiación (-) total y neta de intereses, obtenida como suma del ahorro bruto y del saldo de la cuenta de capital de las AA.PP. En este caso, se incluye además de los ingresos y gastos públicos corrientes, los ingresos y los gastos de capital de las AA.PP., incluida la inversión pública, entre otras partidas.

Como se puede observar en el gráfico, un periodo significativo de ajuste fiscal comenzó después de 1995 (año en el que se alcanzó un déficit público récord hasta entonces del -6,6%), para posteriormente reducirse en años sucesivos el déficit hasta el año 2004, y generándose superávit públicos crecientes en el periodo 2005-2007. Nuevamente, el año 2008 marca un cambio de tendencia brusco, al aparecer cifras de déficit público total del -4,5%, cifras no registradas desde el año 1996. En el año 2009 se alcanzó una nueva cifra récord: un -9,4% de déficit público primario y un -11,1% de déficit público total en estos 50 últimos años de historia de la hacienda pública española. El proceso de consolidación fiscal que había tenido relativo éxito en el periodo 2010-2011, se frenó significativamente en 2012, aunque se ha vuelto ha encauzar en el año 2013. De hecho, el déficit público total se ha reducido en 3,5 puntos porcentuales del PIB en 2013 hasta alcanzar el 7,1%, mientras que el déficit público primario se ha reducido en 3,9 puntos porcentuales del PIB, hasta situarse en el 3,7% del PIB.

No obstante, el déficit público total actual (-7,1% del PIB) se mantiene en una cifra aún muy alejada del límite del -3,0% vigente para los países de la zona del euro. El problema fiscal refleja tanto la insuficiente caída del gasto público, como la insuficiente recaudación impositiva.

En el gráfico 4 se muestra la senda temporal de dos variables representativas del stock de deuda pública de las AA.PP. La primera es el stock de deuda pública total medido por el conjunto de los pasivos financieros totales de las AA.PP. En el segundo caso, la segunda variable representativa del stock de deuda pública (menor en niveles por las partidas que incluye) es construido según la metodología del Protocolo de Déficit Excesivo (PDE) incluido en el Pacto de Estabilidad y Crecimiento de la zona del euro (esta es la cifra oficial que pública el Banco de España y el Banco Central Europeo sobre el total de la deuda pública española). En ambos casos, la reducción es espectacular desde el año 1996 hasta el año 2007, y nuevamente se produce un deterioro muy significativo y persistente desde el inicio de la crisis financiera internacional en el año 2008. Con más detalle, en el año 2013 el stock de deuda pública según la metodología del PDE ha vuelto a crecer hasta alcanzar la cifra récord del 93,9% del PIB, sobrepasando ampliamente el límite impuesto por el Tratado de Maastricht (60% del PIB).

En los gráficos 5 y 6 se han añadido a los gráficos 3 y 4, algunas previsiones disponibles para el periodo 2014-2017 de las cifras del déficit público total y del stock de deuda pública según la metodología PDE. Las previsiones del Ministerio de Economía y Competitividad provienen de la publicación Actualización del Programa de Estabilidad, 2014-2017 remitida a la Comisión Europea el pasado mes de abril, mientras que las previsiones de la Comisión Europea aparecen en el informe European Economic Forecast, Spring 2014, publicado el pasado mes de mayo.

Por una parte, las previsiones disponibles para el déficit público total (gráfico 5) del Ministerio de Economía y Competitividad indican que la continuidad del proceso de ajuste fiscal en 2014-2017 posibilitarán que el déficit del conjunto de las AA.PP. alcance a finales de 2016 y 2017 el 2,8% y el 1,1%del PIB, respectivamente, situándose ya por debajo del límite impuesto por el Tratado de Maastricht del -3%. Las previsiones de la Comisión Europea son mucho más pesimistas y los técnicos del organismo estiman que en 2015 volverá a empeorar el déficit público total hasta situarse en el 6,1% del PIB.

¿A qué se deben estas significativas diferencias en las previsiones del déficit público total nivel stock de deuda pública (en % del PIB) del Ministerio y la Comisión Europea?

Las diferencias se sustentan en las importantes divergencias que existen entre las respectivas previsiones de la tasas de crecimiento real de la economía, de las tasas de interés real de la deuda pública y del nivel de déficit público primario (variable dependiente a su vez de la dinámica de ingresos públicos y de gastos públicos excluidos los pagos por intereses de la deuda pública), variables responsables de la dinámica temporal de la deuda pública (junto al nivel actual del stock de deuda pública).

Por otra parte, las previsiones de la Comisión Europea sobre la evolución del stock de deuda pública según la metodología del PDE (gráfico 6) son claramente pesimistas. Los técnicos del organismo estiman que el stock de deuda pública se situará a finales de 2014 en el 100,2% del PIB, mientras que a finales de 2015 ya alcanzará el 103,8% (cifras muy alejadas del límite impuesto en el Tratado de Masstricht del 60% del PIB). Por otra parte, el stock de deuda pública alcanzó a finales de julio de 2014 los 1.005.714 millones, lo que representa ya el 98,2% del PIB, según las cifras difundidas el 17 de septiembre por el Banco de España.

Si el crecimiento económico de la economía española no se acelera significativamente (a tasas de crecimiento real del PIB cercanas al 3%),  la situación de las finanzas públicas podría desembocar en un futuro no muy lejano en un “default” (impago) de la deuda pública. Y no sería la primera vez. En el siguiente cuadro se recogen las 14 veces que España ha iniciado un procedimiento puro de impago de su deuda pública desde 1557.  Además somos lo que más veces nos hemos declarado en alguna variante de “default” entre 1340 y 2011. [1]

—–

[1] Fuente: Reinhart, C.M. y  & Kenneth S. Rogoff, K.S. (2014): “This Time is Different: A Panoramic View of Eight Centuries of Financial Crises”, Annals of Economics and Finance, Society for AEF, vol. 15(2), pp. 1065-1188; Domínguez Martínez, J.M. y López del Paso, R. (2011): “Situaciones de impago de deuda soberana”, eXtoikos, No. 4, pp. 147-152.

¿Es efectiva la publicidad en Internet?

Hace algunos días estuve mirando en Internet el precio de unos billetes de avión a una ciudad europea. Desde aquel momento, vaya a donde vaya en Internet me encuentro con un anuncio de una super-oferta de alguna compañía: “Vuele por 7€” “Últimas plazas”. Da lo mismo si he ido a mirar las últimas noticias del periódico o si he consultado cómo se traduce una palabra al inglés; ahí aparece el anuncio, incansable. No sé a vosotros, pero a mi esta publicidad intrusiva me pone un poco de los nervios. Motivado por esta experiencia, este post lo voy a dedicar a hablar sobre la publicidad en Internet y a mostrar alguna evidencia de si es rentable para las empresas que nos persigan con anuncios en la red.

Si lo pensamos un poco, Internet es una herramienta estupenda para hacer publicidad de un producto o servicio. Cuando una empresa pone un anuncio en la televisión o en el periódico (de papel) sabe que mucha gente que va a ver el anuncio no está interesada en el producto, y tampoco sabe en qué medida el anuncio va a ayudar a que las personas interesadas compren finalmente el producto. Con Internet, las empresas pueden encontrar el consumidor que les interesa. Por ejemplo, si yo escribo “móviles” en Google, es bastante razonable pensar que estoy interesado en comprar un móvil. Además, si hago click en el primer resultado de la búsqueda, que en este caso es un link promocionado (pagado por una empresa para que aparezca en primer lugar), y finalmente compro el móvil en esa página web, la empresa podrá comprobar la efectividad de la publicidad.

Utilizando las herramientas que ofrece Internet, tres economistas que trabajan en el laboratorio de investigación de eBay, de los cuales dos son también profesores en la Universidad de Chicago y en Berkeley han realizado varios experimentos para analizar si la publicidad en Internet conduce a mayores ventas. Estos experimentos, recogidos en un artículo, se publicarán próximamente en Econometrica, una de las cinco revistas más prestigiosas de economía. El primer experimento analiza los anuncios promocionados (pagados) ligados a la marca. Por ejemplo, si yo tecleo “Ford” en Google el primer resultado es un link promocionado que me lleva a la página web de Ford en España, y el siguiente resultado es un link natural (no pagado) a la página corporativa de Ford. Si hago click en el primero, Ford tendrá que pagar a Google; pero si hago click en el segundo, no. El grupo de investigadores diseñó el siguiente experimento: en marzo de 2012 quitaron el link promocionado ligado a la búsqueda del término “eBay” en Yahoo y en MSN. Después compararon si las entradas a la página web de eBay se habían reducido desde estas plataformas en el periodo en el que se dejó de poner la publicidad. El resultado fue que las entradas a la página de eBay solamente se redujeron en un 0,5%. Al no estar el link promocionado, las personas simplemente habían utilizado el link natural que aparece tras la búsqueda.

El segundo experimento estaba relacionado con la publicidad ligada a las búsquedas genéricas, como el ejemplo del móvil que he explicado más arriba. Lo que hicieron es retirar esta publicidad en algunas poblaciones de Estados Unidos pero no en otras. El resultado fue que en las poblaciones en las que se habían mantenido los links promocionados las ventas solamente habían sido superiores en un 0,66%. Según los cálculos realizados por los autores, este aumento de las ventas no justificaba el gasto en publicidad. También encontraron que la publicidad aumentaba las compras de clientes que apenas habían utilizado anteriormente eBay. Para los que usaban esta plataforma asiduamente la ausencia de links promocionados no había tenido ningún efecto.

Como hemos explicado, los dos estudios se han basado en experimentos. Utilizar esta técnica de investigación no es una casualidad; responde a un problema que sufrimos los que nos dedicamos a los contrastes empíricos: la endogeneidad. Voy a tomar un ejemplo de un post anterior para explicar este problema. Imaginemos que quiero saber si un mayor número de policías de tráfico reduce el número de accidentes. Si el número de policías de tráfico se asignase de forma aleatoria entre los diferentes municipios podría analizar si realmente un mayor número de policías de tráfico está correlacionado con un menor número de accidentes. Sin embargo, si los municipios determinan el número de policías de tráfico en función de los accidentes que hay en el municipio (más accidentes, más policías) entonces no puedo extraer ninguna conclusión del análisis de los datos. En la publicidad por Internet ocurre una cosa similar: las personas que están más interesadas en un producto son las personas que más veces entran en la página web donde se puede comprar ese producto, y las que finalmente realicen un mayor volumen de compras. Si estas personas utilizan los links promocionados para entrar en la página web de la empresa encontraremos una correlación positiva entre links promocionados y ventas. Sin embargo, como muestran en su estudio los investigadores de eBay, estas personas también hubieran ido a la página web de la empresa si no existiese un link promocionado.

Cuando escribía este post he puesto varias veces el término eBay en Google para ver si aparecía algún link promocionado. No he encontrado ninguno. Parece que eBay hace caso a sus economistas.

Tres universidades españolas destacan en el ranking 500 de Shanghai 2014 en el área de Economía y Empresa

El Espacio Europeo de Educación Superior (EEES) (conocido también como “proceso de Bolonia”, por el nombre de la ciudad italiana en la que se firmó la declaración política que abrió el espacio europeo universitario) no sólo significa una homologación de títulos a nivel europeo, sino también debería abrir la competencia entre las universidades europeas y españolas entre sí en la captación de los mejores alumnos y profesores.

Una de las variables clave para poder elegir una Facultad y una Universidad en el nuevo contexto debería ser sin duda el nivel científico de su profesorado, por lo que indicadores de la “calidad” de las publicaciones de investigadores y profesores, van a pasar a un nivel más que relevante. Los ranking internacionales de universidades son también importantes por varios motivos. Además del evidente prestigio internacional, son fundamentales por las importantes ventajas económicas que eso puede traer en un momento en el que los planes autonómicos, nacionales y europeos de apoyo a las universidades (fondos de investigación para los profesores, incentivos económicos a los mejores profesores, ..) deberían de tener un claro objetivo: premiar la excelencia. Y la excelencia se cuantifica en este tipo de listados (guste o no guste), entre otro tipo de cosas.

En relación a este tema, se ha publicado recientemente el Academic Ranking of World Universities (ARWU) 2014 elaborado desde 2003 por la Shanghai Jiao Tong University, China. Este ranking de universidades clasifica las mejores 500 universidades a nivel internacional (de un total de 1000 universidades analizadas).

El ranking de las universidades se realiza en base a un Indicador Sintético Ponderado compuesto de 5 indicadores ponderados:

  • La calidad de la docencia medida por los alumnos egresados que han sido galardonados con un Premio Nobel o con premios de investigación relevantes (indicador Alumni, peso del 10%).
  • La calidad de la Facultad medida por dos indicadores: i) los profesores que han sido galardonados con un Premio Nobel o con premios de investigación relevantes (Award, peso del 15%); y ii) los profesores que tienen artículos muy citados por otros artículos en 21 categorías temáticas (indicador HiCi, peso del 25%).
  • La calidad de la investigación medida por dos indicadores: i) los artículos publicados en 2012 y 2013 en la base científica de revistas Journal of Citation Reports Web (JCR) elaborada por la división de Ciencia de la empresa Thomson Reuters, incluyendo el Science Citation Index-Expanded (SCIE) y Social Science Citation Index (SSCI) (indicador PUB, peso del 25%); y ii) el porcentaje de artículos publicados en 2012 y 2013 en el 20% superior por su impacto de cada categoría JCR (indicador TOP, 25% del peso).

A la universidad con mayor puntuación se le asigna un valor 100, y la puntuación del resto de universidades se obtiene como un porcentaje de la puntuación de la universidad que lidera el ranking. La clasificación de universidades se realiza para el conjunto de la misma pero también en base a 5 campos científicos [i) Ciencias Naturales y Matemáticas, ii) Ingeniería, Tecnología e Informática, iii) Ciencias de la Vida y Agricultura, iv) Medicina y Farmacia, v) Ciencias sociales], y en base a 5 campos de conocimiento o materias [(i) Matemáticas, ii) Física, iii) Química, iv) Informática, v) Economía y Empresa].

En esta entrada del Blog nos centramos en la posición de las Facultades de Ciencias Económicas y Empresariales de las universidades españolas en el ranking Top 500 mundial.

En primer lugar, en la Tabla 1 mostramos el ranking utilizando el Indicador Sintético Ponderado (hacer clic sobre el mismo para verlo más grande). En el Top 200 sólo aparecen las Facultades de Ciencias Económicas y Empresariales de seis universidades españolas: la Universidad Pompeu Fabra en el rango del 51 al 71, la Universidad Carlos III en el rango del 101 al 150, y la Universidad Autónoma de Barcelona, la Universidad Politécnica de Valencia, la Universidad de Sevilla y la Universidad de Valencia en el rango del 151 al 200.

El panorama cambia muy positivamente si sólo utilizamos el indicador PUB (véase Tabla 2), que hace referencia a la producción científica global de los profesores en relación a los artículos publicados en las revistas indexadas en la base de datos JCR. En este caso, la Universidad de Valencia lidera el ranking español y escala espectacularmente hasta el puesto 68 mundial, mientras que la Universidad Carlos III se sitúa en el puesto 79 y la Universidad Pompeu Fabra se sitúa en el puesto 125.

Anteriores Entradas antiguas

Visita nuestra web para información sobre actividades

http://www.alde.es
Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 253 seguidores