I.- Contraste de hipótesis.
Nuestro modelo
Siendo R la matriz de restricciones; n: número de restricciones y k el número de parámetros.
Una forma de especificar una restricción es .
Ej: ; la Teoría Económica nos dice que
.
Ej2: yt=PIB, y queremos expresarlo en función del IPI y del L. El objetivo es ver si podemos expresar la evolución del PIB por medio de dos variables que observamos mensualmente (aunque utilizamos medias trimestrales). Creamos un indicador sintético que sintetiza la información del IPI y del empleo, al que llamamos zt. Tenemos dos opciones:
1.- Dar igual importancia a las dos variables y obtener un único zt.
2.- La simple regresión sin operador sintético.
Doy una ponderación a los estimadores, pero como es una ponderación de los estimadores, la suma de los coeficientes debe ser igual a cero.
Con Mínimos cuadrados ordinarios lo que buscamos es
Ahora con mínimos cuadrados restringidos buscamos el mismo objetivo, pero sujeto a una restricción.
El estimados por mínimos cuadrados restringidos queda como:
Nos interesa destacar de este estimador:
1.- Insesgado: depende de si se verifica o no la restricción.
que si es insesgado.
2.- Eficiente:
Es decir, la varianza del estimador por mínimos cuadrados restringidos es más eficiente que la del estimador por mínimos cuadrados ordinarios si se verifica la restricción.
II.- Contraste de hipótesis:
1.- Contraste conjunto de dos o más hipótesis formuladas sobre los parámetros del modelo.
1.a.- bj=o
1.b.- b2=....=bk=0 / k-1 hipótesis a contrastar.
1.c.- / m-1 hipótesis a contrastar.
1.d.- .
Sea la matriz de restricciones, siendo m el número de restricciones y k el número de parámetros. Esta matriz puede tomar las siguientes formas en relación con los posibles contrastes anteriores.
1.a.- .
1.b.-
1.c.-
1.d.-
Nuestro problema consiste en contrastar la hipótesis nula:
frente a
(siendo r un vector columna).
El estadístico que usaremos para llevar a cabo el contraste en este caso será .
A.- Si no conocemos entonces tendríamos que utilizar el desarrollo de una
.
y además estimamos a través de una expresión que no depende de
Y dividiendo por los grados de libertad
Al hacer el contraste
Rechazamos H0 cuando cuando el cociente cae en la región crítica, o
Es decir cuando el estadístico tome un valor mayor que F(a).
Ej: Si tomamos un valor 1,6, con una masa de probabilidad del 20% (Pvalue=0,2) aceptamos la H0 porque 0,20>0,05.
Contraste 1.a.-
bj=oSi no conocemos utilizaremos un estimador que no depende de
.
(t value)
Lo que evaluamos es la desviación del valor concreto con la hipótesis en términos de su desviación típica (precisión en el que evaluamos el parámetro).
Si la distancia es pequeña en términos de esa precisión entonces aceptamos H0, la regla de decisión del contraste será se rechaza
, se acepta que la variable xj incluida es significativa.
Otra forma de proceder sería ejecutando un intervalo de confianza y ver si H0 pertenece al intervalo de confianza entonces lo aceptamos.
Contraste 1.b.- Región de confianza conjunta para los k parámetros.
Sabemos que
entonces .
En este caso k es el número de hipótesis que contrastamos.
* Para el caso particular b2=....=bk=0 / k-1 hipótesis a contrastar.
Rechazamos H0 cuando Y’Y>e’e ( la suma de cuadrados explicada es mayor que la suma de cuadrados no explicada). Cuando el modelo es de este tipo se verifica la relación siguiente, siempre que haya constante en el modelo.
* Las consecuencias en el modelo de que
, en función de que:
1.- La media muestral ,
2.- La media muestral .
Cuando , aceptar H0 implica que
lo cual no tiene sentido, ya que la hipótesis
no se cumple.
Cuando no habría ningún problema excepto cuando especificamos el modelo respecto de la media:
. No tendría sentido escribir el modelo
. En la hipótesis nula entrarían k-1 variables, siendo H0:b2=....=bk=0.
Aceptar H0 implicaría que , luego no habría ninguna incoherencia. En este modelo, si lo estimamos tendríamos que
no es cero, sino
; por tanto ambos modelos son equivalentes.
El estadístico de contraste será para aceptar H0.
¿Cómo proceder dándonos el ordenador sólo la suma de residuos, y no nos da la F?.
1.- Hacemos una regresión respecto de sin ninguna
.
2.- Otra regresión respecto a las otras variables.
Si la diferencia de la suma de cuadrados de los residuos obtenidos es grande, entonces las "x" son significativas ( reducción grande).
¿Cual es la contribución de una sola variables explicativa a la variable endógena? La contribución de a la Varianza de yt. Realizamos dos regresiones, una con todas las variables y otra en la que no esté
, y vemos la reducción, la diferencia entre la varianza de los residuos.
Con la regresión completa obtendríamos de la regresión sin
, tendría
y miramos
y
, ya que la variable dependiente es la misma en la dos regresiones. La contribución a la reducción será
.
¿ Existe realmente la correlación entre yt y xh ?, o ¿ la correlación no es una influencia directa sino que es a través de otra variable o de una combinación lineal de variables?
Tengo el vector:
Se puede pensar que como son creciente las dos van a estar muy correlacionadas, pero puede haber una variable t que sea la causante de esta correlación.
Para determinarlo se puede hacer:
1.- Regresión de y con todas las variables menos xh ( los residuos es lo que no nos explica xh).
2.- Regresión de xh frente a todas las demás x excluidas xh ( lo que no nos explica de xh el resto de x).
3.- Estudiar la relación de los residuos de ambas regresiones y nos da la correlación entre "y" y xh.
Contraste 1.c.- Contraste sobre un conjunto de parámetros.
y
a.- Una regresión de yt según el modelo como está. Obtenemos unos residuos:.
b.- Otra regresión que no tuviera las m variables incluidas en las hipótesis.
/residuos:
Si la diferencia es grande, las nuevas x que incorporamos pueden ser significativas.
Estadístico de contraste: .
Contraste 1.d.- Contraste de cambio estructural.
Observamos n observaciones de . Nos planteamos en un momento del tiempo t=n1 si los
son iguales en t=n1-1 y t=n-n1; es decir, no cambian a partir de un momento dado ( son iguales estadísticamente).
a.- Hacemos una regresión hasta n1.
b.- Hacemos una regresión desde n1+1, es decir con n-n1 variables. El problema es que en alguno de los dos intervalos podemos tener pocas observaciones para poder hacer la estimación.
Ej: n=100 y k=s, si n1=96, no podríamos proceder.
1.- (modelo estático)
2.-
3.-
Y=Xb+u
Obtenemos los residuos de las regresiones. Si la suma de cuadrados de residuos de 2.- y 3.- será igual a la suma de cuadrados de la muestra total (sólo pasa si el modelo es estocástico y
).
H0No hay cambio estructural.
Suma de los cuadrados de los residuos totales o de (1).
Suma de los cuadrados de los residuos de (2).
Suma de los cuadrados de los residuos de (3).
Con cambio estructural se explicaría mejor el modelo. Si se cumple
. Si no se cumple
( en el
hemos incorporado una restricción
, en el modelo para las n observaciones, luego es mayor).
El estadístico será: que implicaría rechazar H0.
* Si n-n1<k entonces tendremos:
(2)
(4) / l<k.
El estadístico sería:
2.- Hipótesis sobre la varianza de las perturbaciones en el MRLC. Consecuencias que se derivan de su incumplimiento en los Mínimos Cuadrados Ordinarios.
1.- La nulidad de covarianzas garantiza la ausencia de autocorrelación.
2.- Valor constante de las varianzas garantiza la Homocedasticidad.
Ahora suponemos que
* Si aceptamos que hay homocedasticidad, entonces S recoge las correlaciones, luego sería una matriz de autocorrelaciones.
El modele será: .
¿Qué propiedades de los estimadores se ven afectados ? ¿ Qué otros estimadores propondremos?.
Estimadores ELIO:
1.- Lineales: Lo siguen siendo.
2.- Insesgados: lo siguen siendo ya que . Además siguen siendo consistentes.
3.- Óptimos: se ven afectados, ya que los estimadores no son los de mínima varianza.
¿ Cómo los detectamos?
1.- Estimamos por mínimos cuadrados ordinarios ( bajo el supuesto de cumplimiento de todas las hipótesis).
2.- Miramos que los residuos sean ruido blanco. Si lo son podemos aceptar las hipótesis sobre (pseudo-observaciones).
La matriz de varianzas y covarianzas toma la expresión , pero si no se verifica que
, entonces
La consecuencia de aplicar mínimos cuadrados ordinarios es que cambia la expresión de la varianza, y ahora es
.
El primer contraste a realizar es que los residuos han venido generados por un ruido blanco, después de realizar una estimación por mínimos cuadrados ordinarios; lo que quiere decir que E(U)=0, V(u)=s2, y E(uu’)=0.
Tenemos que , pero de S no sabemos nada. Hay que hacer que S depende de menos factores.
La información que nos dice como es S es ver que los residuos, si son ruido blanco o no, donde propondríamos una hipótesis alternativa ( que su s2 sea constante para que se cumpla la homocedasticidad y para la autocorrelación hay que mirar el correlograma de los residuos).
* Mínimos cuadrados generalizados:
Transformar el modelo hasta que se cumplan las hipótesis básicas y luego aplicar mco (ut se distribuye según las hipótesis básicas).
Si no conocemos S no podemos estimar por mínimos cuadrados generalizados y por eso hay que transformar el modelo para conocer S.
Al estimar por mco cogemos los residuos y estimamos que las hipótesis nula.
( Contraste de Goldfeld y Quandt).
Realizamos dos tipos de contrastes para ver la heterocedasticidad: Brensch-Pagan y White, con la .
A.- Brensch-Pagan:
z: variables que pensamos que son causantes de heterocedasticidad.
1.- Estimamos por mínimos cuadrados ordinarios y obtenemos unos errores.
2.- Normalizar residuos ei: Estimador de máxima verosimilitud de la varianza de las perturbaciones del modelo.
3.- Regresión de frente a los zp.
.
4.- (suma de cuadrados explicada del paso 3).
Rechazo H0. Si rechazo H0 cogemos ambos miembros de la ecuación que define el modelo y la dividimos por
.
B.- Primer contraste de White:
No hay H1.
1.- Estimamos por mínimos cuadrados ordinarios y obtenemos unos residuos.
2.- Coger .
3.- número de coeficientes en 2.-.
Si Rechazo la hipótesis nula.
C.- Segundo contraste de White:
1.- Estimo por mínimos cuadrados ordinarios y obtengo unos residuos. .
2.- Obtengo la estimación de la matriz de autocovarianzas.
3.- Obtengo la estimación de la matriz de varianzas del estimador de los parámetros del modelo:
; se puede demostrar que
es un estimador consistente de la Varianza de los estimadores de los parámetros.
Si la estimación de la varianza por mco y por estimación robusta son similares entonces no hay problemas de heterocedasticidad.
3.- Formas de corregir la Heteroscedasticidad.
Tenemos que tener idea sobre como es la Heteroscedasticidad. Suponemos que la heterocedasticidad se expresa como:
Realizaremos el siguiente contraste:
Diríamos que
Para contrastar H0 utilizamos H1, lo que implica que V es conocido ya que toda xri es conocida.
Transformamos el modelo original y llegamos a un modelo transformado
que se caracteriza porque la matriz de varianzas y covarianzas fuera una matriz escalar
. La transformación consiste en buscar la matriz de transformación que premultiplicada por cada una de las variables del modelo nos lleve a un modelo en el que la perturbación tenga una matriz de varianzas y covarianzas escalar.
La matriz de transformación sería .
La transformación consiste en aplicarla P-1 a todas las variables de manera que si tuvieramos un model de este tipo:
El modelo transformado es:
Si entonces dividiriamos por x2i. Si la heterocedasticidad fuera generada por un vector zi, se dividiría por la raiz de zi ( zi puede estrar formado por vasrias variables).
4.- Autocorrelación.
Los elementos fuera dela diagonal principal son distintos de cer ( los de la disagonal pueden ser iguales o no). La u viene generada por algún tipo de proceso estocástico (AR, MA, o ARMA).
Resolvemos el problema en el supuesto de que u esté generado por un AR(1).
para que el proceso sea estacionario. La matriz S es una matriz de autocorrelaciones tal que los elementos de fuera de la diagonal principal son autocorrelaciones.
La función de autocorrelación de un AR(1) es ;
.
En la matriz S sólo va a haber un parámetro a estimar que es r.
.
¿Cual es la transformación a realizar para que ?
Perturbación transformada y de esperanza cero, y matriz de varianzas y covarianzas escalar.
Para detectar la presencia de esta autocorrelación utilizamos el estadístico de Durvin-Watson.
Siendo (residuos obtenidos por mínimos cuadrados ordinarios).
Estimación de Y=Xb+u por m.c.o., bajo (ruido blanco);
.
Próximo a 2: Ausencia de autocorrelación.
Próximo a 0 o 4: Si hay autocorrelación.
* Próximo a cero: autocorelación positiva.
* Próximo a uno: aucorrelación negativa.
Hay zonas donde no hay posibilidad ni de rechazar ni de aceptar la hipótesis nula. Y además sólo es aplicable a la autocorrelación generada por un AR(1).
* Si la autocorrelación no viene generada por un AR(1) deberíamos observar el estadístico de Box-Pierce-L.Jung que pemite contrastar la hipótesis nula , a través del estadístico
donde p* es el número de parámetros a estimar para generar la autocorrelación.
Para ver la diferencia contemplamos el modelo:
El modelo inicial podríamos haberlo explicado como:
dice que hay un factor común en yt como en x1t y habría que estimar
.
En el segundo caso no se como se han generado los datos ( Estadístico Q), sólo tengo datos de yt y x1t. Estimamos los parámetros suponiendo que se cumplen las hipótesis básicas y obtenemos los residuos, y vía el estadístico D o QBPL, vemos si los residuos siguen un proceso AR(1). Tenemos dos opciones:
1.- Proponer un modelo como en el caso anterior.
.
2.- Reonocer que el modelo inicial estaba mal especificado al contemplar como estático, ya que lo correcto habría sido especificar un modelo dinámico que se puede expresar como el cas 1; o de esta forma:
Reescribimos el modelo:
Este modelo es el más general y una vez obtenido habría que contrastar la hipótesis: ( Restricción de tipo no lineal). Para contrastarlo hay que estimar los dos modelos con y sin restricción y comparar la suma de cuadrados de residuos de ambas estimaciones.