Sei sulla pagina 1di 11

Ejercicios en STATA

1. Reporte los resultados de una regresin de y sobre las variables explicativas x1 y x2,
utilizando la tcnica de mnimos cuadrados ordinarios. Analice los coeficientes estimados
en trminos de magnitud y significancia estadstica. Adems en su anlisis haga alusin a la
bondad de ajuste de la regresin.

= 1.0508 + 0.87991 + 0.80202


Los coeficientes obtenidos indican que un cambio unitario en la variable 1 repercute en un
incremento de 0.8799 en la variable Y, del mismo modo un cambio en una unidad en la variable
explicativa 2 provoca un aumento de 0.8020 en la variable Y. Adems existe un valor constante
que representa el valor autnomo de la variable Y, en un nivel de 1.0508.

En cuanto a la significancia estadstica de los coeficientes estimados, se tiene que son significativos
individualmente, ya que el estadstico t asociado a cada parmetro es mayor que 2, y por lo tanto
esto sugiere que se rechaza la hiptesis de que los parmetros son iguales a cero. Y en lo que se
refiere a la significancia global se obtuvo que el p-value asociado al estadstico F es menor que el
nivel de significancia de 0.05, por lo que se rechaza la hiptesis de que los parmetros no son
significativos de manera global.

La bondad de ajuste corresponde a estadsticos que permiten evaluar la capacidad que tiene
el modelo de explicar la variacin de la variable dependiente. Uno de los criterios utilizados
corresponde al 2, al evaluar dicho coeficiente de determinacin, podemos concluir que la
estimacin obtenida es relativamente una buena aproximacin, puesto que explica el 75.26 % de la
variabilidad de la variable dependiente y. Adems es posible verificar que el valor del 2 ajustado
es (aunque marginalmente) menor que el del 2. Esto es consecuencia que k=2 en este caso.

2. Considere la siguiente prueba de hiptesis:

Ho: 1 = 0; 2 = 0
H1: 1 0; 2 0

Qu tipo de test estadstico se utiliza para probar este tipo de hiptesis? Que distribucin sigue
el estadgrafo que usted utilizara para analizar si rechazar o no la hiptesis nula? Indique los grados
de libertad del test.

El estadstico utilizado para probar dicha hiptesis, corresponde al estadstico F, el cual sirve para
sealar la significacin estadstica del modelo economtrico en su conjunto, es decir de los
parmetros que acompaan a las variables explicativas (excluyendo la constante).

La distribucin F es una distribucin continua de muestreo de dos variables aleatorias


independientes con distribuciones de chi-cuadrado, cada una de las cuales se divide entre sus
grados de libertad, dichos grados de libertad son k, (n-k-1). En el presente ejercicio los grados
corresponden a los valores de (2, 497). Esto se puedo confirmar en la siguiente tabla.
3. Realice el test del punto anterior en Stata y reporte sus resultados.

Realizando la prueba de significancia global se obtuvo como resultado que el p-value asociado
al estadstico F es menor que el nivel de significancia de 0.05, por lo que se rechaza la hiptesis
de que los parmetros no son significativos de manera global, y por lo tanto se concluye que los
parmetros son significativos globalmente para el modelo.

4. Usted sospecha que los residuos del modelo son heterocedsticos. Qu implicancia tiene
esto para la consistencia de los estimadores de mnimos cuadrados ordinarios? Y para la
inferencia estadstica relacionada al modelo estimado en (1)?

Bajo presencia de heterocedasticidad los estimadores de Mnimos Cuadrados Ordinarios continan


siendo insesgados para los parmetros poblacionales (al igual que cuando existe homocedasticidad)
sin embargo dejan de ser eficientes puesto que estos no poseen varianza mnima.

Con respecto a la inferencia estadstica dado que la varianza no es mnima los intervalos de
confianza tienden a ser innecesariamente grandes por lo tanto las pruebas de significancia individual
y global (t y F) tienden a ser imprecisas lo cual conlleva a aumentar las posibilidades de cometer un
error Tipo I.

5. Realice la prueba de heterocedasticidad de White. Reporte y analice sus resultados


haciendo alusin a la hiptesis nula de este test.

La hiptesis nula de este test consiste en que los errores cuadrticos no estn correlacionados con
las variables explicativas, en este caso particular resulta que la probabilidad asociada al estadstico
F=8.05 es de 0.00, lo cual es menor que el nivel de significancia de 0.05, y por lo tanto se rechaza
la hiptesis nula, con lo que se concluye de que los errores cuadrticos si estn correlacionados con
las variables explicativas (hay heterocedasticidad).

6. Reporte los resultados de la regresin de mnimos cuadrados ordinarios con errores


estndar robustos. Cul es la magnitud de 1 y 2? Cmo dieren los errores estndar de
estos parmetros con los de la regresin del inciso 1? Utilice el comando estout para
reportar los resultados de las regresiones estimadas en el inciso 1 y 6.
= 1.0506 + 0.87991 + 0.80202
La magnitud de los estimadores de la regresin, al utilizar errores estndar robustos, siguen siendo
la misma de la regresin realizada en el primer punto. Por otro lado, los errores estndar de los
parmetros 1 y 2, al utilizar errores estndar robustos, son mayores que los de la regresin del
primer punto; se puede ver que en este caso al usar errores estndar robustos ninguna conclusin
importante ha cambiado.

7. Ahora estudiaremos de forma ms profunda la naturaleza de la heterocedasticidad del


modelo estimado en el inciso (1). En este inciso se pide que realice el test de Breusch y
Pagan dependiendo de manera individual de x1 y de x2, as como de manera conjunta. Dada
esta evidencia estadstica, Cul es la variable que est causando la heterocedasticidad?

Con la prueba de Breusch-Pagan se plantea la hiptesis nula de que la varianza de los errores es
constante (Homocedasticidad). Las pruebas realizadas dieron lugar a los siguientes resultados:

Realizando la prueba de manera conjunta (tomando las variables x1 y x2), resulto que el p-
value, asociado al estadgrafo F, es de 0.00 y por lo tanto menor que el nivel de
significancia de 0.05, concluyendo que existe presencia de heterocedasticidad.
Tomando solamente la variable x1, se obtiene que el p-value posee una magnitud de 0.68,
siendo mayor que 0.05, y por lo tanto existe homocedasticidad.
Por ltimo, tomando la variable x2, el valor de la probabilidad asociada al estadgrafo F es
de 0.00, siendo menor que el nivel de significancia del 0.05, y se concluye que la varianza
de los errores no es constante.

La variable que est causando la heterocedasticidad en el modelo es la variable x2, ya que al realizar
la prueba de manera individual a esta variable explicativa resulto que la varianza de los errores no
es constante, y por lo tanto presenta heterocedasticidad.

8. Estime el modelo y = 0 + 1x1 + 2x2 + u por medio de la tcnica de mnimos cuadrados


factibles. Para ello, analice las diferencias entre los errores estndar de mnimos cuadrados
ordinarios, mnimos cuadrados ordinarios con errores estndar robustos y mnimos
cuadrados factibles.

= 0.8113 + 0.88461 + 0.76012



Existen diferencias en los errores estndar de los parmetros al estimar la regresin bajo cada
mtodo de estimacin, aunque estas diferencias no son abismales, por lo general los errores
estndar robustos son mayores a los errores estndar de MCO, en cuanto a los errores estndar de
MCF, en este caso, resultaron ser menores que los de MCO y de MCO robustos, esto puede deberse
a que la funcin h(x) estimada es solo una aproximacin de la funcin h(x) que forma parte de la
varianza.

9. Podra estimar el modelo del inciso (8) utilizando mnimos cuadrados ponderados?
Si, ya que cuando empleamos la prueba de Breusch-Pagan se obtuvo que la variable x2 es la que
est generando heterocedasticidad, por lo que esta posee relacin con el comportamiento de la
varianza, y as podemos corregir la heterocedasticidad utilizando mnimos cuadrados ponderados.

10. Adjunte al documento el log-file con los comandos utilizados en STATA y los resultados.

----------------------------------------------------------------------------------------------------------------------------------
name: <unnamed>
log: C:\STATA\Stata14v9\Stata14\sistematico1.log
log type: text
opened on: 25 Aug 2016, 21:31:35

. set more off

*Ejercicio 1*

. reg y x1 x2

Source | SS df MS Number of obs = 500


-------------+---------------------------------- F(2, 497) = 755.75
Model | 10666.7383 2 5333.36913 Prob > F = 0.0000
Residual | 3507.33309 497 7.05700823 R-squared = 0.7526
-------------+---------------------------------- Adj R-squared = 0.7516
Total | 14174.0714 499 28.4049526 Root MSE = 2.6565

------------------------------------------------------------------------------
y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x1 | .8799776 .031115 28.28 0.000 .8188444 .9411108
x2 | .8020188 .030763 26.07 0.000 .7415773 .8624602
_cons | 1.050684 .1194103 8.80 0.000 .816073 1.285295
------------------------------------------------------------------------------

. estimates store M1

*Ejercicio 3*

. display ((0.7526/2)/((1-0.7526)/(500-2-1)))
755.94624

*Ejercicio 5*
*Test de White*

. predict residuos, r
. generate residuo2=residuos^2
. generate x12=x1^2
. generate x22=x2^2
. generate x1x2=x1*x2
. reg residuo2 x1 x2 x12 x22 x1x2

Source | SS df MS Number of obs = 500


-------------+---------------------------------- F(5, 494) = 8.05
Model | 5581.23734 5 1116.24747 Prob > F = 0.0000
Residual | 68541.3093 494 138.74759 R-squared = 0.0753
-------------+---------------------------------- Adj R-squared = 0.0659
Total | 74122.5466 499 148.542178 Root MSE = 11.779

------------------------------------------------------------------------------
residuo2 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x1 | .055834 .1392468 0.40 0.689 -.217755 .329423
x2 | .7988694 .1384187 5.77 0.000 .5269075 1.070831
x12 | .012683 .0215998 0.59 0.557 -.0297559 .0551218
x22 | .0573414 .0249491 2.30 0.022 .008322 .1063609
x1x2 | -.000406 .0335569 -0.01 0.990 -.0663379 .065526
_cons | 5.780472 .7096571 8.15 0.000 4.386154 7.174791
------------------------------------------------------------------------------

. display ((0.0753/5)/((1-0.0753)/(500-5-1)))
8.0454634

*Ejercicio 6*
*MCO con errores estandar robustos*

. reg y x1 x2, r

Linear regression Number of obs = 500


F(2, 497) = 692.15
Prob > F = 0.0000
R-squared = 0.7526
Root MSE = 2.6565

------------------------------------------------------------------------------
| Robust
y| Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x1 | .8799776 .0322562 27.28 0.000 .8166023 .9433529
x2 | .8020188 .0336277 23.85 0.000 .7359488 .8680887
_cons | 1.050684 .1162219 9.04 0.000 .8223374 1.279031
------------------------------------------------------------------------------

. estimates store M2

*Comparando regresiones estimadas en el ejercicio 1 y 6*


. estout M1 M2, cells(b(star fmt(%9.3f)) se(par))

--------------------------------------------
M1 M2
b/se b/se
--------------------------------------------
x1 0.880*** 0.880***
(0.031) (0.032)
x2 0.802*** 0.802***
(0.031) (0.034)
_cons 1.051*** 1.051***
(0.119) (0.116)
--------------------------------------------

*Ejercicio 7*
*Prueba de Breusch-Pagan de manera conjunta*

. reg residuo2 x1 x2

Source | SS df MS Number of obs = 500


-------------+---------------------------------- F(2, 497) = 17.07
Model | 4763.45648 2 2381.72824 Prob > F = 0.0000
Residual | 69359.0901 497 139.555513 R-squared = 0.0643
-------------+---------------------------------- Adj R-squared = 0.0605
Total | 74122.5466 499 148.542178 Root MSE = 11.813

------------------------------------------------------------------------------
residuo2 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x1 | .0417684 .1383672 0.30 0.763 -.2300884 .3136251
x2 | .7971193 .1368016 5.83 0.000 .5283385 1.0659
_cons | 6.822164 .5310128 12.85 0.000 5.778858 7.865471
------------------------------------------------------------------------------

*Prueba de Breusch-Pagan para x1*

. reg residuo2 x1

Source | SS df MS Number of obs = 500


-------------+---------------------------------- F(1, 498) = 0.17
Model | 25.2809677 1 25.2809677 Prob > F = 0.6804
Residual | 74097.2657 498 148.78969 R-squared = 0.0003
-------------+---------------------------------- Adj R-squared = -0.0017
Total | 74122.5466 499 148.542178 Root MSE = 12.198

------------------------------------------------------------------------------
residuo2 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x1 | .0588788 .1428395 0.41 0.680 -.2217635 .339521
_cons | 7.031543 .5470427 12.85 0.000 5.956747 8.106339
------------------------------------------------------------------------------

*Prueba de Breusch-Pagan para x2*

. reg residuo2 x2

Source | SS df MS Number of obs = 500


-------------+---------------------------------- F(1, 498) = 34.10
Model | 4750.73974 1 4750.73974 Prob > F = 0.0000
Residual | 69371.8069 498 139.300817 R-squared = 0.0641
-------------+---------------------------------- Adj R-squared = 0.0622
Total | 74122.5466 499 148.542178 Root MSE = 11.803

------------------------------------------------------------------------------
residuo2 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x2 | .7979957 .1366459 5.84 0.000 .5295221 1.066469
_cons | 6.809967 .5289899 12.87 0.000 5.77064 7.849294
------------------------------------------------------------------------------

*Ejercicio 8*
*Minimos Cuadrados Factibles*

. generate logr2=log(residuo2)

. reg logr2 x1 x2

Source | SS df MS Number of obs = 500


-------------+---------------------------------- F(2, 497) = 7.43
Model | 81.650728 2 40.825364 Prob > F = 0.0007
Residual | 2730.63786 497 5.49424116 R-squared = 0.0290
-------------+---------------------------------- Adj R-squared = 0.0251
Total | 2812.28858 499 5.63584886 Root MSE = 2.344

------------------------------------------------------------------------------
logr2 | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x1 | -.0142448 .0274545 -0.52 0.604 -.068186 .0396963
x2 | .1039634 .0271439 3.83 0.000 .0506326 .1572943
_cons | .4807228 .1053623 4.56 0.000 .2737123 .6877333
------------------------------------------------------------------------------
. predict g
(option xb assumed; fitted values)

. generate h=exp(g)
. generate yf=y/((h)^0.5)

. generate x1f=x1/((h)^0.5)

. generate x2f=x2/((h)^0.5)

. reg yf x1f x2f

Source | SS df MS Number of obs = 500


-------------+---------------------------------- F(2, 497) = 986.29
Model | 7623.40325 2 3811.70162 Prob > F = 0.0000
Residual | 1920.75225 497 3.86469266 R-squared = 0.7988
-------------+---------------------------------- Adj R-squared = 0.7979
Total | 9544.1555 499 19.1265641 Root MSE = 1.9659

------------------------------------------------------------------------------
yf | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x1f | .8846293 .0277519 31.88 0.000 .8301037 .9391548
x2f | .7600925 .0264233 28.77 0.000 .7081773 .8120076
_cons | .8113087 .0886752 9.15 0.000 .6370842 .9855331
------------------------------------------------------------------------------

. estimates store M3

*Cuadro para analizar diferencias entre los errores estandar con MCO, MCO con errores estandar
robustos y MCF*

. estout M1 M2 M3, cells(b(star fmt(%9.3f)) se(par))

------------------------------------------------------------
M1 M2 M3
b/se b/se b/se
------------------------------------------------------------
x1 0.880*** 0.880***
(0.031) (0.032)
x2 0.802*** 0.802***
(0.031) (0.034)
x1f 0.885***
(0.028)
x2f 0.760***
(0.026)
_cons 1.051*** 1.051*** 0.811***
(0.119) (0.116) (0.089)
------------------------------------------------------------

*Ejercicio 9*
*Minimos Cuadrados Ponderados, h=x2*
. generate yp=y/(x2^0.5)
(224 missing values generated)

. generate x1p=x1/(x2^0.5)
(224 missing values generated)

. generate x2p=x2/(x2^0.5)
(224 missing values generated)

. reg yp x1p x2p

Source | SS df MS Number of obs = 276


-------------+---------------------------------- F(2, 273) = 10.84
Model | 870.232545 2 435.116272 Prob > F = 0.0000
Residual | 10958.3294 273 40.1404008 R-squared = 0.0736
-------------+---------------------------------- Adj R-squared = 0.0668
Total | 11828.562 275 43.0129526 Root MSE = 6.3356

------------------------------------------------------------------------------
yp | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
x1p | .3973982 .104587 3.80 0.000 .1914987 .6032977
x2p | -1.462388 .5483714 -2.67 0.008 -2.541963 -.3828143
_cons | 4.964256 .9517205 5.22 0.000 3.090611 6.8379
------------------------------------------------------------------------------

. log close
name: <unnamed>
log: C:\STATA\Stata14v9\Stata14\sistematico1.log
log type: text
closed on: 25 Aug 2016, 22:40:55
-----------------------------------------------------------------------------------------------------------------------------------
Preguntas
1. Por qu se dice que mnimos cuadrados ordinarios es un caso especial de mnimos
cuadrados generalizados?

Transformando el modelo se obtiene el estimador de MCG:

= + ; () = 0 ; (") = = 2
A uno que cumpla con la hiptesis de perturbaciones esfricas que a la vez se le aplicar MCO. Eso en
el caso que la sea la matriz identidad, los estimadores MCG de los coeficientes de regresin coincidirn
con los mximos-verosmiles.
En vista que queremos conocer los estimadores MCG necesitamos conocer la matriz . No obstante,
puesto que es desconocida, en la prctica se debe estimar previamente a partir de dos datos muestrales y
posteriormente se debe calcular reemplazando por una estimacin constante. Entonces podemos
afirmar que si las anteriores condiciones se cumplen tenemos en nuestras manos Mnimos Cuadrados
Generalizados, es decir MCO siendo este un caso especial de MCG.
2. Bajo qu condiciones el omitir una variable relevante implica la violacin del supuesto de
media condicional independiente?
Partimos primero por definir el supuesto de media condicional independiente; la teora nos explica que
el valor promedio de ser cero en vista de las variables explicativas. Esto significa que se cancelarn
los valores positivos y negativos de teniendo un efecto promedio nulo sobre . Este efecto que
consiste en la omisin de una variable importante incide de dos maneras induciendo un riesgo de sesgo
en la estimacin e incrementando la varianza de las estimaciones
Es muy importante asegurar y conocer la endogeneidad para garantizar el cumplimiento de independencia
condicional y obtener estimadores que sean sesgados e inconsistente por MCO. Llamamos endogeneidad
a la variable omitida que est relacionada con una de las explicativas y a la vez hace parte del error, en
vista de su funcin con otra variable exgena del modelo descrito por el mismo nombre (endgeno).
Las implicancias conducirn a estimadores y varianzas sesgadas e inconsistentes, esto implica dependencia
condicional, que provocar que se invaliden sus intervalos de confianza, pruebas de significancia global
y pruebas de significancia parcial, y en ltima instancia el incumplimiento del supuesto anteriormente
descrito (media condicional).
3. Para utilizar mnimos cuadrados ordinarios con errores estndar robustos no es necesario
conocer la forma de la heterocedasticidad. Entonces, Bajo qu condiciones no es conveniente
utilizar esta tcnica? qu implicancias tienen estas condiciones para el sesgo y la eficiencia de
los estimadores?
No es conveniente si se trabaja con muestras pequeas, as que, si se deja a un lado el clculo estndar y
se aplica el clculo de errores estndares robustos, slo se garantizar una correccin definida por el
clculo de las varianzas de los parmetros. Es decir, no disponemos de muestras grandes, los contrastes
t robustos y los errores robustos pueden presentar distribuciones alejadas de las distribuciones t
de tal forma que en caso de HOMOCEDASTICIDAD la aproximacin habitual, que, si generara una
verdadera distribucin t exacta, sera preferible.
Las implicancias en el sesgo y eficiencia son un ineficiente proceso de mnimos cuadrados y un sesgo que
tender a aumentar a medida que el tamao de su muestra disminuya. Siendo lo primero debido a
equivocaciones en los distintos procesos de observacin que provocan la existencia d errores y lo segundo
a que la muestra no es suficientemente grande y la esperanza del estimador no ser igual al parmetro,
provocando lo descrito al inicio del prrafo.
4. Cules son las fuentes de incertidumbre asociadas a proyecciones puntuales de una
determinada variable? Explique porque son fuentes de incertidumbre
Asociadas a proyecciones puntuales de una variable encontramos:

La especificacin errnea de la estructura del modelo: Incertidumbre en el modelo


Aquella que representa el error en las cantidades observadas: Incertidumbre en la medicin.
El tipo de predictor, el grado de variable explicativa, estos son algunos de los factores que juegan un
papel importante en la exactitud de las proyecciones. Existen dos tipos: La prediccin individual y la
prediccin media, siendo la primera la prediccin individual de la variable dependiente y la segunda
asociada a la prediccin del valor esperado de Y. Entonces son fuente de incertidumbre debido a que en
ambos casos se est sujeto a un determinado valor asignado a las variables explicativas que bien sabemos
pueden variar, y al valor de la estimacin de los parmetros.
5. Cules son las diferencias entre el test de Breusch-Pagan y el test de White para la deteccin
de la heterocedasticidad?

Entre un conjunto de variables la prueba Breusch-Pagan asume entre otras cosas que la varianza es
una funcin (no necesariamente lineal), mientras que en la prueba de White no se precisa la forma
particular que ha de adoptar la heterocedasticidad.

Potrebbero piacerti anche