Sei sulla pagina 1di 18

POR PEDRO PABLO CHAMBI CONDORI

CURSO BASICO DE ECONOMETRIA CON EVIEWS


CONCEPTO DE ECONOMETRIA
En términos sencillos, econometría significa medición económica, cuyo fin es validar la
teoría económica y servir de instrumento de política económica (Meza, 2014).
Existe una amplia aceptación que los pasos del trabajo econométrico empiezan con un
modelo teórico que propone las relaciones entre las variables.

Datos Predicción

Selección Estimación
del modelo del modelo
Modelo econométri Análisis de
teórico co resultados

Figura No. 01: Los pasos del trabajo econométrico


1. COMENZANDO A TRABAJAR
Para comenzar a trabajar con el programa Eviews, bastará con acceder al ícono
correspondiente de nuestro escritorio, y activar la aplicación seleccionada,
presentándonos una pantalla como la que presentamos en la figura 1.1., que está
dividida en dos grandes áreas, marcadas respectivamente del 1 al 2, con los
siguientes cometidos.

Area 1

Area 2

Figura No. 1.1. El Menú Principal del Eviews


Area 1: Menú básico de herramientas generales
En esta área, tal cual en cualquier software se puede localizar el File (archivo),
Edit(Edición), Obeject(Manejo de objetos), Proc( Manejo de procesos), Quick
(accesos rápidos a operaciones básicas), Options(opciones generales del
programa), Window(gestión de ventanas, Help(ayuda en línea).
Area 2: Zona de recepción de comandos
En esta área, que habitualmente ocupará muy poco se podrán introducir y ejecutar

Pág. 1
POR PEDRO PABLO CHAMBI CONDORI

de forma manual todos los comandos habilitados en Eviews , de forma tal que un
usuario avanzado podrá ejecutar las opciones que desee sin necesidad de ir
seleccionando secuencialmente las opciones ofrecidas en las diferentes ventanas
de acceso.
2. ACCESO A FICHEROS DE TRABAJO
Antes de cualquier acción, primeramente creamos una CARPETA DE
TRABAJO.
FILE / NEW /WORKFILE

Figura No. 1.2: Creando carpeta de trabajo, utilizando los datos del ejemplo 1.
Al hacer click en Workfile, aparecerá la pantalla que se observa en la figura
siguiente:

Figura 1.3: Creando las condiciones de la carpeta de trabajo.


En esta opción introducimos el tipo de la estructura de la carpeta de trabajo. Luego
damos OK
Luego la captura de datos:

Pág. 2
POR PEDRO PABLO CHAMBI CONDORI

Luego, para obtener el modelo: Quick/estimate equation ---/

Luego aceptar, como resultado se tiene la estimación correspondiente.


Tabla No. 00 : Reporte de regresión lineal con Eviews.
Dependent Variable: CONSUMO
Method: Leas t Squares
Date: 09/25/17 Tim e: 13:15
Sam ple: 1 9
Included obs ervations : 9

Variable Coefficient Std. Error t-Statis tic Prob.

C 28.17937 1.992146 14.14523 0.0000


PRECIO -1.004762 0.129525 -7.757263 0.0001

R-s quared 0.895795 Mean dependent var 13.77778


Adjus ted R-s quared 0.880908 S.D. dependent var 6.280481
S.E. of regres s ion 2.167373 Akaike info criterion 4.578039
Sum s quared res id 32.88254 Schwarz criterion 4.621866
Log likelihood -18.60117 Hannan-Quinn criter. 4.483459
F-s tatis tic 60.17513 Durbin-Wats on s tat 2.179277
Prob(F-s tatis tic) 0.000111

3. Modelamiento de regresión lineal simple


Modelo teórico:
𝑌 = 𝛽𝑜 + 𝛽1 𝑋𝑖 + Ԑ𝑖
Y: Variable dependiente
X: Variable independiente
Ԑ: error
i: 1, 2, … , n

Caso ejemplo 1:
Tabla 1: Los datos de las variables consumo y precio.

Pág. 3
POR PEDRO PABLO CHAMBI CONDORI

CONSUMO PRECIO
4 24
7 20
8 17
13 17
16 10
15 15
19 12
20 9
22 5
Con los datos arriba expuesto, encontrar:
1. El modelo que describe el consumo
Y= 28.179 + (-1.005)(X) + E

2. Cálculo de las varianzas:


a. Varianza del modelo
∑𝑛 (𝑌−𝑌̂)2
𝜎2 = 𝑖=1
𝑛−𝑘

n : Número de observaciones, en este caso es 9.


K : Número de coeficientes, en este caso es 2
Usamos los datos del MCO:

ANOVAa
Modelo Suma de Gl Media F Sig.
cuadrados cuadrática
Regresión 282,673 1 282,673 60,175 ,000b
1 Residual 32,88254 7 4,698
Total 315,556 8
a. Variable dependiente: CONSUMO
b. Variables predictoras: (Constante), PRECIO

∑𝑛𝑖=1(𝑌 − 𝑌̂)^2 32.88254


= = 4.698
𝑛−𝑘 9−2

b. Varianza del estimador 𝛽0


∑(𝑋 )^2 2129
𝜎𝛽20 = (𝑛 ∑(𝑋−𝑋)^2
1 2
̂ ) 𝜎Ԑ = (9(280)) 4.698 =3.9686
De donde su desviación estándar es 1.992146 (ver Tabla No. 00).
De donde se obtiene el valor de 2129?

Pág. 4
POR PEDRO PABLO CHAMBI CONDORI

CONSUMO (Y) PRECIO(X) (Y- E(Y))^2 (X-E(X))^2 X^2


4 24 95.60 93.44 576
7 20 45.94 32.11 400
8 17 33.38 7.11 289
13 17 0.60 7.11 289
16 10 4.94 18.78 100
15 15 1.49 0.44 225
19 12 27.27 5.44 144
20 9 38.72 28.44 81
22 5 67.60 87.11 25
total: 124 129 315.56 280.00 2129
Media: 13.78 14.33

Ys= 28.179 + (-1.005)(X) + E

CONSUMO (Y) PRECIO(X) Ys (Y-Ys)^2 X^2 (X-Xm)^2 (Ys-Ym)^2 (Y-Ym)^2


1 4 24 4.059 0.003481 576 93.444444 94.454641 95.604938
2 7 20 8.079 1.164241 400 32.111111 32.476068 45.938272
3 8 17 11.094 9.572836 289 7.1111111 7.2026632 33.382716
4 13 17 11.094 3.632836 289 7.1111111 7.2026632 0.6049383
5 16 10 18.129 4.532641 100 18.777778 18.933135 4.9382716
6 15 15 13.104 3.594816 225 0.4444444 0.4539765 1.4938272
7 19 12 16.119 8.300161 144 5.4444444 5.4813215 27.271605
8 20 9 19.134 0.749956 81 28.444444 28.689116 38.716049
9 22 5 23.154 1.331716 25 87.111111 87.913543 67.604938
Total: 124 129 123.966 32.882684 2129 280 282.80713 315.55556
Media: 13.78 14.33

c. Varianza del estimador 𝛽1


𝜎Ԑ2 4.6975
𝜎𝛽21 = ( = = 0.01677
∑(𝑋 − 𝑋̅)2 280
De donde la desviación estándar es 0.1295 (lo que se ve en la tabla 00).

3. Intervalos de confianza
a. Intervalo de confianza del error del modelo
La ecuación es la siguiente:
𝜎Ԑ2 𝜎Ԑ2
𝑃𝑟 [(𝑛 − 𝑘) ≤ 𝜎Ԑ2 ≤ (𝑛 − 𝑘) ]= 1−𝛼
𝑋𝛼2 2
𝑋1−𝛼/2
2

2
De la tabla de 𝑋 2 el valor de 𝑋𝛼/2 = 16.0128 cuando pr=0.025.
2
El valor de 𝑋1−𝛼/2 = 1.68987 cuando pr = 0.975
4.6975 4.6975
𝑃𝑟 [(9 − 2) ≤ 𝜎Ԑ2 ≤ (9 − 2) ] = 1 − 0.025
16.0125 1.68987

2.054 ≤ 𝜎Ԑ2 ≤ 19.459


b. Intervalo de confianza del estimador 𝛽0
Pág. 5
POR PEDRO PABLO CHAMBI CONDORI

Para establecer intervalos de confianza del coeficiente 𝛽0 se asume que


se distribuye normalmente.
Su ecuación es la siguiente:
𝑃𝑟 [𝛽0 ± (𝑡𝛼 ∗ 𝜎𝛽0 )] = 1 − 𝛼
2
𝑃𝑟[28.179 ± (2.365 ∗ 1.9921)] = 1 − 0.025
23.468 ≤ 𝛽0 ≤ 32.891
El 𝛽0 tiene la probabilidad de 95% para ubicarse en el intervalo de
23.468 a 32.891.
c. Intervalo de confianza del estimador 𝛽1
𝑃𝑟 [𝛽1 ± (𝑡𝛼 ∗ 𝜎𝛽1 )] = 1 − 𝛼
2

𝑃𝑟[−1.311 ± (2.365 ∗ 0.1295)] = 1 − 0.025


−1.311 ≤ 𝛽1 ≤ −0.698

Esto muestra que al establecer intervalos de confianza para 𝛽1, tiene


la probabilidad del 95% de ubicarse e n el rango de -1.311 a -0.698.
4. Prueba de hipótesis de los estimadores
A la prueba de hipótesis también se le llama con el nombre de corroboración
empírica. Consiste en someter a la variable a valores críticos de significancia
estadística de 1%, 5% y 10% de probabilidad.
a. Prueba de hipótesis de 𝛽0
Para de hipótesis del coeficiente 𝛽0 se utiliza la distribución de t
student.
Hipótesis nula: Ho = 0
Hipótesis alternativa o de investigación: 𝐻1 ≠ 0
𝛽0 28.179
𝑡= = = 14.145
𝜎𝛽0 1.992

T calculada del intercepto = 14.145


T teórica a 95% de confianzas para 7 gl = 2.365

Regla de decisión:
Si T calculada > T teórica, entonces se acepta que Bo es diferente de cero. Se
acepta H1 y se rechaza Ho.

Prueba de hipótesis de 𝛽1
Hipótesis nula : Ho = 0
Hipótesis de investigación : 𝐻1 ≠ 0

T calculada = -7.757
T teórica a 95% de confianza y 7 gl = 2.365
Regla de decisión:
Si T calculada > T teórica, entonces se acepta que B1 es diferente de cero. Se
acepta H1 y se rechaza Ho.

Pág. 6
POR PEDRO PABLO CHAMBI CONDORI

En valor absoluto la T calculada es mayor que la T teórica, por tanto se acepta la


hipótesis alternativa, con el argumento de que B1 es diferente de cero.
La prueba de hipótesis de los coeficientes, quiere decir que tanto el coeficiente 𝛽0
y el coeficiente 𝛽1son estadísticamente significativos a 95% de confianza.
5. Prueba de hipótesis global
Esta prueba se realiza a los coeficientes de manera conjunta. Para ello se utiliza
la prueba de Fisher – Snedecor, para lo que invocamos la ecuación siguiente:
∑(𝑌 − 𝑌̅)^2 282.67302
𝐹= 𝑘 − 1 = 2−1 = 60.17513
̅
⏞)^2 32.88254
∑(𝑌 − 𝑌
9−2
𝑛−𝑘
Hipótesis nula: Ho: 𝛽0 = 𝛽1 = 0
Hipótesis alternativa: 𝐻1 : 𝛽0 ≠ 𝛽1 ≠ 0
Regla de decisión:
Si Fcalculada > Fteórica, entonces se acepta la H1 y se rechaza la Ho, de lo
contrario se acepta la Ho.
Fcalculada = 60.175
F teórica para grados de libertad 1/7 a 95 de confianza = 5,59
Entonces, como F calculada > F teórica, se acepta la H1. Lo que quiere decir que
los parámetros en conjunto son estadísticamente significativos a nivel de
confianza de 95%.

6. Coeficiente de determinación

𝑆𝐶𝐸 282.673
𝑅2 = = = 0.896
𝑆𝐶𝑇 315.556
Quiere decir, que el precio del bien explica el consumo de las n familias de la
muestra en un 89.60%. las demás variables, que no se tuvieron en cuenta en el
modelo, corresponden al 10.40%.
7. Coeficiente de correlación incondicional:
𝑛 ∑ 𝑋𝑖 𝑌𝑖 − (∑ 𝑋𝑖 ) ∑(𝑌𝑖 )
𝑟𝑦𝑥 =
√(𝑛 ∑ 𝑌𝑖2 − (∑ 𝑌𝑖 )^2)[𝑛 ∑ 𝑋𝑖2 − (∑ 𝑋𝑖 )^2]
9(1496) − 124(129)
= = −0.946
√9(2024) − 13376 ∗ √9(2129) − 16641
De acuerdo al resultado, quiere decir que existe una relación indirecta entre el
consumo y el precio.
Ejercicios propuestos para desarrollarlos:
1. Se tiene la siguiente data
Periodo 1 2 3 4 5 6 7 8 9 10
Consumo 70 65 90 95 110 115 120 140 155 150
Ingreso 80 100 120 140 160 180 200 220 240 260
Con el soporte de Eviews, calcule:
a. El modelo del consumo en el que se manifiesta el ingreso.
Pág. 7
POR PEDRO PABLO CHAMBI CONDORI

b. Prueba de hipótesis de los parámetros del modelo


c. Prueba de hipótesis global de los parámetros en conjunto.

2. Se tiene la siguiente data


Periodo 1 2 3 4 5 6 7 8 9 10
Ventas 126 110 87 97 80 84 129 126 115 91
Gastos 25 21 15 22 15 16 28 30 23 15
promocionales
Con el soporte de eviews, calcule:
a. El modelo que describe las ventas debido a los gastos promocionales.
b. Prueba de hipótesis de los parámetros del modelo
c. Prueba de hipótesis global de los parámetros en conjunto.

4. Modelamiento lineal múltiple


La regresión lineal múltiple consiste en regresar una variable dependiente en
función de más de una variable independiente o exógena.
El modelo multilineal:
𝑌𝑖 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + ⋯ + 𝛽𝑛 𝑋𝑛 + Ԑ
Y: Variable dependiente.
X: Variable independiente
𝛽: Coeficiente de los parámetros
i: 1,2,…n
j: 1,2,…n
Los supuestos del modelo lineal múltiple:
a. Linealidad en parámetros
En la función de regresión muestral, calculando la derivada de Y respecto
a X:
𝑑𝑌𝑖
= 𝛽𝑗
𝑑𝑋𝑗𝑖

El efecto marginal de la variable dependiente debido a un cambio en


alguna de las variables explicativas es constante. Y esto a su vez implica
que los parámetros deben ser lineales para no alterar este resultado (ya que
la variable regresora en cuestión no necesariamente tiene que ser lineal).
b. Covarianza cero entre el término de error y cada variable regresora
𝐶𝑜𝑣(Ԑ𝑖 , 𝑋𝑗𝑖 ) = 0
c. Valor medio de la perturbación estocástica es igual a cero
∈ (Ԑ𝑖 ) = 0
d. Homocedasticidad o varianza constante de Ԑ𝑖
𝑉𝑎𝑟(Ԑ𝑖 ) = 𝜎 2 )
e. No correlación serial entre las perturbaciones
𝐶𝑜𝑣(Ԑ𝑖 , Ԑ𝑗 ) = 0
f. Número de observaciones > número de parámetros por estimar
g. Variabilidad en los valores de X
h. No debe haber colinealidad exacta (relación lineal exacta) entre las
variables 𝑋𝑗

Pág. 8
POR PEDRO PABLO CHAMBI CONDORI

i. El modelo debe estar especificado correctamente (no hay sesgo de


especificación).
Pruebas de hipótesis:
1. Distribución de probabilidad del término de perturbación estocástico
El modelo clásico de regresión lineal normal supone que los residuos
se encuentran normalmente distribuidos.
2. Prueba T o prueba de significancia individual de los coeficientes
de regresión
De acuerdo al formato de regresión muestral:
𝑘

𝑌𝑖 = 𝛽𝑗 ∑ 𝑋𝑗𝑖 + Ԑ𝑖
𝑗=1
La prueba T tendrá la siguiente estructura:
Hipótesis nula : 𝐻0 : 𝛽𝑖 = 0
Hipótesis alternativa : 𝐻1 : 𝛽𝑖 ≠ 0

Regla de decisión:
Si |𝑇𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑎 | > |𝑇𝑡𝑒ó𝑟𝑖𝑐𝑎 |, rechazar Ho.

3. Prueba de significancia general o prueba global: Prueba F


Esta prueba de significancia general dice que de acuerdo a nuestro
formato de regresión muestral
𝑘

𝑌𝑖 = 𝛽1 + 𝛽𝑗 ∑ 𝑋𝑗𝑖 + Ԑ𝑖
𝑗=2

La prueba F tiene la siguiente estructura:


Hipótesis:
Hipótesis nula : 𝐻0 : 𝛽2 = 𝛽3 = 𝛽4 = ⋯ = 𝛽𝑘 = 0
Hipótesis alternativa : 𝐻1 : 𝛽2 ≠ 𝛽3 ≠ ⋯ ≠ 𝛽𝑘 ≠ 0
Se construye el estadístico de prueba de la forma (con datos de
ANOVA)
𝐶𝑀𝐸
𝐹=
𝐶𝑀𝑅
𝑆𝐶𝐸
𝐹 = 𝑘−1
𝑆𝐶𝑅
𝑛−𝑘
En donde:
n: tamaño de la muestra
k: número de variables regresoras en el modelo
k-1: grados de libertad para el nuimerador

Pág. 9
POR PEDRO PABLO CHAMBI CONDORI

n-k: grados de libertad para el denominador

Regla de decisión:
Si |𝐹𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑎 | > |𝐹𝑡𝑒ó𝑟𝑖𝑐𝑎 |, rechazar Ho.
Caso de aplicación 01: con los datos de la tabla siguiente aplique la regresión lineal
múltiple con Eviews.

Consumo (Y) Ingreso (X1) Riqueza (X2)


70 80 810
65 100 1009
90 120 1273
95 140 1425
110 160 1633
115 180 1876
120 200 2052
140 220 2201
155 240 2435
150 260 2636

El reporte del Eviews, con los datos de la tabla arriba indicada:


Dependent Variable: CONSUMO
Method: Least Squares
Date: 09/29/17 Time: 19:21
Sample: 1 10
Included observations: 10

Variable Coefficient Std. Error t-Statistic Prob.

C 24.28543 7.238782 3.354906 0.0122


INGRESO 0.443000 0.910782 0.486395 0.6415
RIQUEZA 0.006573 0.090504 0.072629 0.9441

R-squared 0.962090 Mean dependent var 111.0000


Adjusted R-squared 0.951259 S.D. dependent var 31.42893
S.E. of regression 6.938699 Akaike info criterion 6.955431
Sum squared resid 337.0188 Schwarz criterion 7.046206
Log likelihood -31.77715 Hannan-Quinn criter. 6.855850
F-statistic 88.82424 Durbin-Watson stat 2.652050
Prob(F-statistic) 0.000011

A partir de la tabla arriba presentada, se puede inferir que tenemos problemas con el
modelamiento.
1. Problemas de multicolinealidad
La multicolinealidad se refiere a una situación en la cual existe una relación lineal
exacta (multicolinealidad perfecta) o casi exacta entre las regresoras de la
ecuación de regresión (multicolinealidad casi perfecta). Un supuesto del modelo
clásico de regresión lineal es que no exista ningún tipo de multicolinealidad.
1.1.Multicolinealidad perfecta

Pág. 10
POR PEDRO PABLO CHAMBI CONDORI

1.1.1. Matemáticamente, se dice que hay multicolinealidad perfecta cuando en la


matriz de las variables explicativas, existe una combinación lineal de todas
ellas, tal que multiplicada cada una por alguna constante, me da como
resultado cero, siendo dichas constantes no todas cero a la vez.
𝛾1 𝑋1 + 𝛾2 𝑋2 + ⋯ + 𝛾𝑘 𝑋𝑘 = 0
Donde:
Xi: vector de datos observados para la variable explicativa iésima
Yi: constante iésima que puede tomar cualquier valor.

1.2.Multicolinealidad cuasi perfecta


1.2.1. La multicolinealidad cuasi perfecta se da cuando la ecuación anterior se
cumple al agregar un término estocástico
𝛾1 𝑋1 + 𝛾2 𝑋2 + ⋯ + 𝛾𝑘 𝑋𝑘 + 𝑣𝑖 = 0
Causas de la multicolinealidad:
Las causas de la multicolinealidad son diversas, según Montgomery y Peck (1982) dicho
problema podría deberse a:
 Método erróneo de recolección de la información
 Restricciones en el modelo o en la población muestral
 Mala especificación del modelo
 Modelo sobredeterminado
Consecuencias de la multicolinealidad
 En el caso de existir multicolinealidad perfecta, los coeficientes de la regresión
son indeterminados y sus errores estándar no están definidos debido a que la
matriz (X´X) se vuelve singular, haciendo imposible el cálculo de la matriz de
coeficientes 𝛽 = (𝑋´𝑋)−1 (𝑋Ý).
 En el caso de multicolinealidad cuasi perfecta, los coeficientes pueden ser
estimados por MCO,presentándose las siguientes características de dichas
regresión:
o Los estimadores obtenidos son MELI(mejores estimadores lineales e
insesgados)
o Las varianzas y covarianzas estimadas son grandes, lo que genera una
estimación no precisa. Los estimadores de los coeficientes y de las
varianzas son muy sensibles a cambios pequeños en los datos.
o Debido a lo anterior,los intervalos de confianza se vuelven más amplios,
lo cual genera un sesgo al no rechazo de la hipótesis nula.
o El estadístico t también tiende a ser más pequeño debido al enorme valor
del error estándar, generando un sesgo al no rechazo de la hipótesis nula.
o El 𝑟 2 presenta valores muy altos.
Cómo detectar el problema de multicolinealidad
 La detección de la presencia de multicolinealidad perfecta es relativamene
sencilla, pues no se podrá realizar la estimación. Si utilizamos Eviews, saldrá un

Pág. 11
POR PEDRO PABLO CHAMBI CONDORI

mensaje en la pantalla indicando que no se puede estimar dicho modelo debido a


que es una matriz singular.
 Para detectar la multicolinealidad cuasi perfecta debemos prestar atención a un
conjunto de características:
o 𝑟 2 con valor alto
o Coeficientes no significativos individualmente (ver estadístico t para cada
coeficiente con hipótesis nula, coeficiene=cero.
o Coeficientes significativos de manera grupal (ver estadístico F con
hipótesis nula, coeficientes = 0 en conjunto).
o Correlaciones de orden cero altas entre parejas de regresoras (por lo
general una correlación mayor a 0.8 es un indicador de multicolinealidad)
o Determinante de la matriz (X´X) cercano a cero.
o Dado que la multicolinealidad cuasi perfecta se refiere a una relación
lineal entre las variables explicativas, también podemos hacer regresiones
auxiliares entre las variables explicativas y fijarnos en la prueba F.
Remedios de multicolinealidad:
 Eliminación de las variables causantes de multicolinealidad
 Transformación de datos.
CASO DE APLICACIÓN
En el caso de aplicación 01, a partir del reporte de Eviews se observa las siguientes
características:
 Los estadísticos T de los coeficientes del ingreso y riqueza son muy pequeños,
por lo tanto no significativos.
 El valor de 𝑟 2 es basta alto, 0.962
De donde se puede concluir que existe multicolinealidad entre el ingreso y la riqueza.
CASO DE APLICACIÓN No. 02: Multicolinealidad perfecta.
Con los datos siguientes se verifica el caso de la multicolinealidad perfecta.
CONSUMO INGRESO RIQUEZA
1 3 1 2
2 2 2 4
3 1 3 6
4 4 1 2
5 6 2 4

Pág. 12
POR PEDRO PABLO CHAMBI CONDORI

El mensaje que aparece en la ventana del Eviews al procesar los datos, mensaje de matriz
singular.

Caso de remedio de multicolinealidad:

CONSUMO INGRESO RIQUEZA


70 80 810
65 100 1009
90 120 1273
95 140 1425
110 160 1633
115 180 1876
120 200 2052
140 220 2201
155 240 2435
150 260 2636
En el reporte siguiente se nota la presencia de problema de multicolinealidad, por tanto aplicamos los
remedios.

Dependent Variable: CONSUMO


Method: Least Squares
Date: 09/29/17 Time: 23:14
Sample: 1 10
Included observations: 10

Variable Coefficient Std. Error t-Statistic Prob.

C 24.28543 7.238782 3.354906 0.0122


INGRESO 0.443000 0.910782 0.486395 0.6415
RIQUEZA 0.006573 0.090504 0.072629 0.9441

R-squared 0.962090 Mean dependent var 111.0000


Adjusted R-squared 0.951259 S.D. dependent var 31.42893
S.E. of regression 6.938699 Akaike info criterion 6.955431
Sum squared resid 337.0188 Schwarz criterion 7.046206
Log likelihood -31.77715 Hannan-Quinn criter. 6.855850
F-statistic 88.82424 Durbin-Watson stat 2.652050
Prob(F-statistic) 0.000011

Pág. 13
POR PEDRO PABLO CHAMBI CONDORI

Existe entre la riqueza y el ingreso, lo que se ha probado regresionando la riqueza y el ingreso. Por tal
motivo eliminamos la variable ingreso y regresionamos el consumo con la riqueza.

Dependent Variable: CONSUMO


Method: Least Squares
Date: 09/29/17 Time: 23:16
Sample: 1 10
Included observations: 10

Variable Coefficient Std. Error t-Statistic Prob.

C 23.28635 6.601743 3.527303 0.0078


RIQUEZA 0.050555 0.003610 14.00457 0.0000

R-squared 0.960809 Mean dependent var 111.0000


Adjusted R-squared 0.955910 S.D. dependent var 31.42893
S.E. of regression 6.599328 Akaike info criterion 6.788669
Sum squared resid 348.4090 Schwarz criterion 6.849186
Log likelihood -31.94335 Hannan-Quinn criter. 6.722282
F-statistic 196.1279 Durbin-Watson stat 2.449870
Prob(F-statistic) 0.000001

Quedando el modelo de la siguiente forma:

Consumo = 23.2835 + 0.050555(Riqueza) + E

Con prueba T y F favorable.

Caso ejemplo de Regresión Múltiple:

Con los datos de la tabla siguiente, en donde Y es la variable dependiente y las X!, X2 y X3 son variables
independientes.

X1 X2 X3 Y
1 38 47.5 23 66
2 41 21.3 17 43
3 34 36.5 21 36
4 35 18 14 23
5 31 29.5 11 27
6 34 14.2 9 14
7 29 21 4 12
8 32 10 8 7.6

 Hallar el modelo que explique el comportamiento de la variable Y.


 Realizar la prueba de hipótesis para cada uno de los coeficientes.
 Realizar la prueba de hipótesis global.

Desarrollamos la solución del caso:

 Ingresamos los datos al Eviews


 Corremos la regresión lineal en Eviews, con lo que obtenemos los datos de la tabla
Que se muestra a continuación.

Pág. 14
POR PEDRO PABLO CHAMBI CONDORI

Dependent Variable: Y
Method: Least Squares
Date: 10/02/17 Time: 15:03
Sample: 1 8
Included observations: 8

Variable Coefficient Std. Error t-Statistic Prob.

C -106.7267 13.51361 -7.897717 0.0014


X1 3.251786 0.448625 7.248344 0.0019
X2 1.331326 0.149140 8.926660 0.0009
X3 -0.674566 0.391011 -1.725184 0.1596

R-squared 0.990914 Mean dependent var 28.57500


Adjusted R-squared 0.984100 S.D. dependent var 19.36313
S.E. of regression 2.441584 Akaike info criterion 4.930024
Sum squared resid 23.84532 Schwarz criterion 4.969744
Log likelihood -15.72009 Hannan-Quinn criter. 4.662123
F-statistic 145.4189 Durbin-Watson stat 2.004155
Prob(F-statistic) 0.000154

 El modelo del caso:


𝑌 = −106.73 + 3.2518𝑋1 + 1.331326𝑋2 − 0.674566𝑋3 + Ԑ
 Prueba de hipótesis
 Prueba de hipótesis de :
Hipótesis nula: 𝐻𝑜: 𝛽0 = 0
Hipótesis alternativa : 𝐻1: 𝛽0 ≠ 0
Regla de decisión:
Si |𝑇𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑎 | > |𝑇𝑡𝑒ó𝑟𝑖𝑐𝑎 |, rechazar Ho.

Grados de libertad : n –k = 8-4 = 4


A 95% confianza:
T teórica = 2.776
T calculada : -7.897717
Como se cumple la regla de decisión:
|𝑇𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑎 | > |𝑇𝑡𝑒ó𝑟𝑖𝑐𝑎 | ∶ |−7.897717| > |2.776|, entonces
aceptamos la H1 y rechazamos la Ho.

2. Problemas de heterocedasticidad
La heterocedasticidad es una característica que puede presentar el término de
perturbación estocástica de un modelo econométrico y que implica que sus
varianzas no son iguales para todas las observaciones.
La heterocedasticidad del error es una violación al supuesto del modelo clásico de
regresión lineal de homocedasticidad.
2.1.Causas de la heterocedasticidad
 En modelos en base a la experiencia se logra que los errores sean cada vez
menores en valor absoluto por lo tanto, se obtiene una varianza del error
variable y decreciente.

Pág. 15
POR PEDRO PABLO CHAMBI CONDORI

 Los datos de corte transversal sobre comportamientos de agentes


económicos son muy heterogéneos cuando la muestra seleccionada no ha
sido previamente filtrada, ello conlleva a la existencia de
heterocedasticidad en el modelo desarrollado.
 Debido a que el término de error de un modelo econométrico representa a
aquellas variables no consideradas por lo tanto, una causa de la
heterocedasticidad es la omisión de variables relevantes y la intensidad de
la heterocedasticidad depende del comportamiento de las variables
omitidas.
 La presencia de factores atípicos (variables regresoras cuyo dato puede
tener un valor muy alto a muy bajo en comparación a los otros datos) en
la muestra produce la heterocedasticidad en modelo econométrico
propuesto.
 Incorrecta transformación de datos
 Forma funcional incorrecta del modelo econométrico.
2.2. Test de heterocedasticidad de Park
Es un test de heterocedasticidad cuya estimación tiene por método a los Mínimos
Cuadrados en Dos Etapas (MC2E).
Dado el modelo de regresión lineal siguiente:
𝑌𝑖 = 𝛽0 + 𝛽1 𝑋1 + Ԑ𝑖

2.3. Test de heterocedasticidad de Glejser


2.4. Test de heterocedasticidad de Goldfeld – Quandt
2.5. Test de heterocedasticidad de Breusch – Pagan – Godfrey
2.6. Test de heterocedaticidad de White

2.7. Medidas correctivas de heterocedasticidad


2.7.1. Cuando se conoce 𝜎𝑖2 : Método de White
Este tipo de estimación corrige el problema de heterocedasticidad en un modelo
econométrico de regresión lineal. White expone en su teoría de errores estándar
robustos que es posible hallar los verdaderos valores de los estimadores hallados con
MCO sin considerar el problema de la heterocedasticidad lo que conlleva a que los T
estadísticos de los estimadores de White sean también mayores a los T-estadísticos
hallados en los estimadores de White sean también mayores a los T-estadísticos
hallados en los estimadores por MCO.
2.7.2. Transformación de modelos cuya varianza del error es proporcional al
cuadrado de la variable regresora
2.7.3. Aun así existen diferentes tipos específicos de heterocedasticidad que pueden
ser resueltos con simple manipulación de la información obtenida. Tenga en
cuenta el siguiente modelo econométrico de regresión lineal simple:
2.7.4. Transformación de modelos cuya varianza del error es proporcional a la
variable regresora
2.7.5. Transformación de modelos cuya varianza del error es proporcional al
cuadrado de la esperanza matemática de la variable regresando
2.7.6. Transformación de modelos LIN – LIN a modelos LOG – LOG

Pág. 16
POR PEDRO PABLO CHAMBI CONDORI

3. Problemas de autocorrelación
Mediante el indicador DW.

5. Modelos de Regresión Data Panel

Con los datos siguientes:


Y X1 X2 X3
1 - 00 6 7.8 5.8 1.3
1 - 01 4.6 0.6 7.9 7.8
1 - 02 9.4 2.1 5.400000000... 1.1
2 - 00 9.1 1.3 6.7 4.1
2 - 01 8.300000000... 0.9 6.6 5
2 - 02 0.6 9.800000000... 0.4 7.2
3 - 00 9.1 0.2 2.6 6.4
3 - 01 4.8 5.9 3.2 6.4
3 - 02 9.1 5.2 6.9 2.1

Obtener el modelo con Data Panel.


Dependent Variable: Y
Method: Panel Least Squares
Date: 10/10/17 Time: 13:56
Sample: 2000 2002
Periods included: 3
Cross-sections included: 3
Total panel (balanced) observations: 9

Variable Coefficient Std. Error t-Statistic Prob.

C 13.19689 0.395676 33.35279 0.0191


X1 -0.651914 0.022025 -29.59891 0.0215
X2 -0.002326 0.040499 -0.057421 0.9635
X3 -0.860665 0.038064 -22.61102 0.0281

Effects Specification

Cross-section fixed (dummy variables)


Period fixed (dummy variables)

R-squared 0.999630 Mean dependent var 6.777778


Adjusted R-squared 0.997037 S.D. dependent var 3.016529
S.E. of regression 0.164211 Akaike info criterion -1.194774
Sum squared resid 0.026965 Schwarz criterion -1.019463
Log likelihood 13.37648 Hannan-Quinn criter. -1.573094
F-statistic 385.5144 Durbin-Watson stat 3.016001
Prob(F-statistic) 0.039196

Luego el modelo es:

Y = 13.19689 -0.651914 -0.002326 -0.860665 + E

6. Modelo de Series de Tiempo


a. Series de tiempo de tasa de interés
b. Series de tiempo de tipo de cambio
c. Series de tiempo de cotización de las acciones
Pág. 17
POR PEDRO PABLO CHAMBI CONDORI

d. Serie de tiempo de la inflación

7. Modelos de Series de Tiempo autoregresivos


a. Modelo de Series de Tiempo del tipo Arch/Garch/Tarch.
b. Modelos de Cointegración
c. Modelo de Gravedad.
d. Modelos con Ecuaciones Estructurales.
Referencias Bibliográficas:
1. Meza, Carlos(2014). Econometría Fundamental. Colombia: Universidad de La
Salle.
2. Gujarati, Damodar. Econometría. México: editorial McGraw Hill
3. García Núñez, Luis (2015). Econometría 1. Perú: editorial Fondo Editorial PUCP.

Pág. 18

Potrebbero piacerti anche