Combinación de predicciones y métodos de evaluación. Nuevas alternativas basadas en medidas de información

  1. Moreno Cuartas, Blanca
Dirigida por:
  1. Rigoberto Pérez Suárez Director/a
  2. Ana Jesús López Menéndez Directora

Universidad de defensa: Universidad de Oviedo

Fecha de defensa: 04 de febrero de 2005

Tribunal:
  1. Antonio Pulido San Román Presidente/a
  2. Covadonga Caso Pardo Secretaria
  3. Pedro Ángel Gil Álvarez Vocal
  4. Francisco Javier Trívez Bielsa Vocal
  5. Jordi Suriñach Caralt Vocal
Departamento:
  1. Economía Aplicada

Tipo: Tesis

Teseo: 125696 DIALNET

Resumen

Las predicciones relativas a una misma magnitud económica pueden ser realizadas por diferentes agentes y mediante distintos métodos, dependiendo la elección de la predicción final del grado de precisión que ésta lleve asociado, Dado además que cada método empleado y cada agente implicado pueden capturar diferentes aspectos de la información, parece conveniente llevar a cabo una combinación de predicciones. Como consecuencia de estas consideraciones, en esta Memoria se investigan las posibilidades que las medidas de información ofrecen en el contexto de la predicción económica, distinguiendo la evaluación y la combinación de predicciones. En lo que se refiere a la evaluación, las primeras propuestas basadas en medidas de información corresponden a Theil (1966), quien desarrolla medidas basadas en la incertidumbre del Shannon (1948). En línea con este planteamiento, en esta memoria se examinan nuevas alternativas que incluyen tanto indicadores basados en la incertidumbre (medida de imprecisión cuadrática) como otros construidos a partir de las inquietudes (información cuadrática asociadas a las predicciones e imprecisión cuadrática basada en errores relativos). El análisis del comportamiento empírico de estos indicadores y su comparación con las medidas habituales permite extraer algunas conclusiones de interés. En cuanto a la combinación de predicciones, los trabajos pioneros corresponden a Bates y Granger (1969), quienes proponen técnicas para obtener una predicción de síntesis a partir de combinaciones lineales de predicciones individuales, cuyos pesos se obtienen a partir de las correspondientes varianzas. En este trabajo investigamos las posibilidades de la Teoría de la Información para desarrollar técnicas de combinación cuyas ponderaciones calibren de modo desigual las predicciones individuales. En concreto empleamos el principio de Maximización de Entropía para las medidas de incertidumbre de H