Combinación de predicciones y métodos de evaluación. Nuevas alternativas basadas en medidas de información

  1. Moreno Cuartas, Blanca
Dirigée par:
  1. Rigoberto Pérez Suárez Directeur/trice
  2. Ana Jesús López Menéndez Directrice

Université de défendre: Universidad de Oviedo

Fecha de defensa: 04 février 2005

Jury:
  1. Antonio Pulido San Román President
  2. Covadonga Caso Pardo Secrétaire
  3. Pedro Ángel Gil Álvarez Rapporteur
  4. Francisco Javier Trívez Bielsa Rapporteur
  5. Jordi Suriñach Caralt Rapporteur
Département:
  1. Economía Aplicada

Type: Thèses

Teseo: 125696 DIALNET

Résumé

Las predicciones relativas a una misma magnitud económica pueden ser realizadas por diferentes agentes y mediante distintos métodos, dependiendo la elección de la predicción final del grado de precisión que ésta lleve asociado, Dado además que cada método empleado y cada agente implicado pueden capturar diferentes aspectos de la información, parece conveniente llevar a cabo una combinación de predicciones. Como consecuencia de estas consideraciones, en esta Memoria se investigan las posibilidades que las medidas de información ofrecen en el contexto de la predicción económica, distinguiendo la evaluación y la combinación de predicciones. En lo que se refiere a la evaluación, las primeras propuestas basadas en medidas de información corresponden a Theil (1966), quien desarrolla medidas basadas en la incertidumbre del Shannon (1948). En línea con este planteamiento, en esta memoria se examinan nuevas alternativas que incluyen tanto indicadores basados en la incertidumbre (medida de imprecisión cuadrática) como otros construidos a partir de las inquietudes (información cuadrática asociadas a las predicciones e imprecisión cuadrática basada en errores relativos). El análisis del comportamiento empírico de estos indicadores y su comparación con las medidas habituales permite extraer algunas conclusiones de interés. En cuanto a la combinación de predicciones, los trabajos pioneros corresponden a Bates y Granger (1969), quienes proponen técnicas para obtener una predicción de síntesis a partir de combinaciones lineales de predicciones individuales, cuyos pesos se obtienen a partir de las correspondientes varianzas. En este trabajo investigamos las posibilidades de la Teoría de la Información para desarrollar técnicas de combinación cuyas ponderaciones calibren de modo desigual las predicciones individuales. En concreto empleamos el principio de Maximización de Entropía para las medidas de incertidumbre de H