Combinación de predicciones y métodos de evaluación. Nuevas alternativas basadas en medidas de información

  1. Moreno Cuartas, Blanca
unter der Leitung von:
  1. Rigoberto Pérez Suárez Doktorvater/Doktormutter
  2. Ana Jesús López Menéndez Doktormutter

Universität der Verteidigung: Universidad de Oviedo

Fecha de defensa: 04 von Februar von 2005

Gericht:
  1. Antonio Pulido San Román Präsident/in
  2. Covadonga Caso Pardo Sekretärin
  3. Pedro Ángel Gil Álvarez Vocal
  4. Francisco Javier Trívez Bielsa Vocal
  5. Jordi Suriñach Caralt Vocal
Fachbereiche:
  1. Economía Aplicada

Art: Dissertation

Teseo: 125696 DIALNET

Zusammenfassung

Las predicciones relativas a una misma magnitud económica pueden ser realizadas por diferentes agentes y mediante distintos métodos, dependiendo la elección de la predicción final del grado de precisión que ésta lleve asociado, Dado además que cada método empleado y cada agente implicado pueden capturar diferentes aspectos de la información, parece conveniente llevar a cabo una combinación de predicciones. Como consecuencia de estas consideraciones, en esta Memoria se investigan las posibilidades que las medidas de información ofrecen en el contexto de la predicción económica, distinguiendo la evaluación y la combinación de predicciones. En lo que se refiere a la evaluación, las primeras propuestas basadas en medidas de información corresponden a Theil (1966), quien desarrolla medidas basadas en la incertidumbre del Shannon (1948). En línea con este planteamiento, en esta memoria se examinan nuevas alternativas que incluyen tanto indicadores basados en la incertidumbre (medida de imprecisión cuadrática) como otros construidos a partir de las inquietudes (información cuadrática asociadas a las predicciones e imprecisión cuadrática basada en errores relativos). El análisis del comportamiento empírico de estos indicadores y su comparación con las medidas habituales permite extraer algunas conclusiones de interés. En cuanto a la combinación de predicciones, los trabajos pioneros corresponden a Bates y Granger (1969), quienes proponen técnicas para obtener una predicción de síntesis a partir de combinaciones lineales de predicciones individuales, cuyos pesos se obtienen a partir de las correspondientes varianzas. En este trabajo investigamos las posibilidades de la Teoría de la Información para desarrollar técnicas de combinación cuyas ponderaciones calibren de modo desigual las predicciones individuales. En concreto empleamos el principio de Maximización de Entropía para las medidas de incertidumbre de H