Sei sulla pagina 1di 23

MODELOS ECONOMETRICO (ANALISIS DE REGRESIÓN)

• PRONOSTICO
• RELACION DE VARIABLES
o En la práctica es frecuente encontrar una relación entre dos (o más) variables.
Por ejemplo, el peso de un hombre adulto depende en cierto grado de su
estatura, las circunferencias de los círculos dependen de su radio, y la presión
de una masa de gas depende de su temperatura y volumen.
o Entonces es mejor expresar esta relación en forma matemática, lo cual sucede
determinando una ecuación que enlaza las variables.

Y Dependiente Aleatoria
M NO Controlamos
O
D
E
L
O
X Independiente ó Regresiones
Z NO Aleatoria
W
. SI Controlamos
.

Ejemplo 1:

n - casos X Y NOTA: No importa el Orden de cómo coloquemos las


C
X1 Y1 variables, importa el orden de los datos de cada variable:
o
n X2 Y2 X1, X2, X3, …, Xn ó X2, X1, X5, …, Xn [Variables]
o
c X3 Y3 X1: 2, 3, 5, 8, 4, …. así se recolectaron los datos.
. .
i . .
. . X1: 4, 2, 8, 5, 3, …. NO (Ej: VENTAS MENSUALES)
d . .
. .
a . . los datos son de ejemplo 2
s Xn Yn

(Xi, Yi) para toda i = 1, 2, 3, …. n


Gráfica
Y
Nota: (Xi, Yi) i = 1, 2, 3, …. n b

Si las conozco

a b son parámetros del


modelo y queremos
estimarlos

a
X
Yi = a + bxi + Ei
Termino de Error
Modelo de Regresión Lineal “Simple”
En la vida hay modelos PARCIMONIOSOS

PARCIMONIO: Es un modelo lo suficientemente complejo para ser bueno, pero lo


suficientemente simple para ser útil.

• Evaluación del Modelo


• Pronostico
• Control (Modelo de Control)

Aprenderemos a hacer modelos:

• Matemáticamente
• Computadora (SPSS, Excel, E Views, Minitab, R, etc.)

Linealidad se refiere a los parámetros y no en las variables

𝑌𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜀𝑖 Línea Recta o Lineal Simple

𝑌𝑖 = 𝛽0 + 𝛽1 𝑥𝑖2 + 𝜀𝑖 Línea Recta o Lineal Simple

𝑌𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝛽1 𝑧𝑖 + 𝛽3 𝑤𝑖 + 𝜀𝑖 Linealidad Múltiple

𝛽0
𝑌𝑖 = 𝑥
𝛽1 𝑖
+ 𝜀𝑖 No tienen Linealidad

𝑌𝑖 = (𝛽0 + 𝛽1 𝑥𝑖 )𝜀𝑖 No tienen Linealidad

Ejemplo 2:

Supongamos que X’s son años de estudio de un individuo y que las Y’s son el ingreso medio,
¿Podemos relacionar los años de estudio con el ingreso?
X Y
X1 = 2 27 X = Años de estudio
X2 = 3 44 Y = Ingreso Medio
X3 = 5 86 n = Número de Datos
X4 = 8 126
X5 = 4 65

COMENTARIOS:
1) Análisi Gráfico
140
120
100
80
60
40
20
0
0 2 4 6 8 10

2) Relación Positiva, Si hay más años de estudio Más Ingreso

𝑌𝑖 = 𝛼 + 𝛽𝑥𝑖 + 𝜀𝑖
3) Modelo:

4) b > 0
a = ?
b = ?
NOTA GENERAL
Para determinar una ecuación que relaciones variables, un primer paso es recolectar datos que
muestren los valores correspondientes de las variables en consideración. Por ejemplo,
supóngase que x y y denotan la estatura y el peso de hombres adultos, respectivamente;
entonces, una muestra de N individuos revelaría las estaturas x1, x2, . . ., xN, así como los pesos
correspondientes y1, y2, . . ., yN.
El siguiente paso es graficar los puntos (x1, y1), (x2, y2), . . ., (xN, yN) en un sistema rectangular
de coordenadas. El conjunto de puntos resultante suele denominarse Diagrama de Dispersión.
A partir del diagrama de dispersión es posible visualizar una curva suave que se aproxima a los
datos. Tal curva se denomina curva de aproximación.

X Y
X1 Y1
. .
. .
. .
Xn Xn

𝑌𝑖 = 𝛼 + 𝛽𝑥𝑖 + 𝜀𝑖
𝑥𝑖
(𝒙𝒊 , 𝒚𝒊 ) 𝜺𝒊

𝛆𝐢
𝒀𝒊

El problema general para encontrar ecuaciones de curva de aproximación que se ajusten a


conjuntos de datos se denomina ajuste de curvas.

Para realizar ese ajuste de curvas, trataremos de minimizar los errores, utilizando el método
de mínimos cuadrados MCO:
𝑛 𝑛

𝐿(𝛼, 𝛽) = ∑ 𝜀𝑖 = ∑(𝑦𝑖 − 𝛼 − 𝛽𝑥𝑖 )2


2

𝑖=1 𝑖=1

𝜕𝐿(𝛼, 𝛽)
=0
𝜕𝛼

𝜕𝐿(𝛼, 𝛽)
=0
𝜕𝛽
𝑛
𝜕𝐿
= ∑ 2(𝑦𝑖 − 𝛼 − 𝛽𝑥𝑖 ) ∙ (−1) … … … …. (1
𝛼
𝑖=1
𝑛
𝜕𝐿
= ∑ 2(𝑦𝑖 − 𝛼 − 𝛽𝑥𝑖 ) ∙ (−𝑥𝑖 ) … … … …. (2
𝛽
𝑖=1

Igualando a cero tenemos:

[∑(2) ∙ (−1)(𝑦𝑖 − 𝛼̂ − 𝛽̂ 𝑥𝑖 )] = 0 … … … …. (1
𝑖=1

[∑(2) ∙ (−𝑥𝑖 )(𝑦𝑖 − 𝛼̂ − 𝛽̂ 𝑥𝑖 )] = 0 … … … …. (2


𝑖=1

Realizando operaciones tenemos:

[∑(𝑦𝑖 − 𝛼̂ − 𝛽̂ 𝑥𝑖 )] = 0 … … … …. (1
𝑖=1

[∑(𝑦𝑖 𝑥𝑖 − 𝛼̂𝑥𝑖 − 𝛽̂ 𝑥𝑖 2 )] = 0 … … … …. (2
𝑖=1

Para realizar los siguientes cálculos, debemos utilizar, las siguientes ecuaciones:
𝑛 𝑛
∑ 𝑋 ∑ 𝑌
𝑋̅ = 𝑖=1 𝑖 𝑌̅ = 𝑖=1 𝑖 𝑆𝑥𝑦 = ∑𝑛𝑖=1[(𝑥𝑖 − 𝑥̅ )(𝑦𝑖 − 𝑦̅)] = ∑(𝑥𝑖 ∙ 𝑦𝑖 ) − 𝑛 ∙ 𝑥̅ ∙ 𝑦̅
𝑛 𝑛

𝑆𝑥𝑥 = ∑𝑛𝑖=1[(𝑥𝑖 − 𝑥̅ )2 ] = ∑(𝑥𝑖 2 ) − 𝑛 ∙ 𝑥̅ 2 𝑆𝑦𝑦 = ∑𝑛𝑖=1[(𝑦𝑖 − 𝑦̅)2 ] = ∑(𝑦𝑖 2 ) − 𝑛 ∙ 𝑦̅ 2

Retomando la ecuación (1 tenemos:


𝑛 𝑛 𝑛

(∑ 𝑦𝑖 ) − (∑ 𝛼̂ ) − (∑ 𝛽̂ 𝑥𝑖 ) = 0
𝑖=1 𝑖=1 𝑖=1

𝑛𝑦̅ − 𝑛𝛼̂ − 𝑛𝛽̂ 𝑥̅ = 0

𝛼̂ = 𝑦̅ − 𝛽̂ 𝑥̅

Tomando la ecuación (2 tenemos:


𝑛 𝑛 𝑛

(∑ 𝑦𝑖 𝑥𝑖 ) − (𝛼̂ ∑ 𝑥𝑖 ) − (𝛽̂ ∑ 𝑥𝑖 2 ) = 0
𝑖=1 𝑖=1 𝑖=1

Ahora sustituyendo α en la ecuación (2 queda de la siguiente manera:

∑(𝑦𝑖 𝑥𝑖 ) − (𝑦̅ − 𝛽̂ 𝑥̅ )(𝑛𝑥̅ ) − (𝛽̂ ∑ 𝑥𝑖 2 ) = 0

∑(𝑦𝑖 𝑥𝑖 ) − 𝑛𝑥̅ 𝑦̅ + 𝑛𝛽̂ 𝑥̅ 2 − (𝛽̂ ∑ 𝑥𝑖 2 ) = 0


𝑆𝑥𝑦 − 𝛽̂ [(∑ 𝑥𝑖 2 ) − 𝑛𝑥̅ 2 ] = 0

𝑆𝑥𝑦 − 𝛽̂ 𝑆𝑥𝑥 = 0
Entonces:
𝑆𝑥𝑦
𝛽̂ =
𝑆𝑥𝑥
Por lo tanto:
𝑆𝑥𝑦
𝛼̂ = 𝑦̅ − [ ] 𝑥̅
𝑆𝑥𝑥
Ahora retomaremos el ejemplo 2:

n Xi Yi Xi2 Yi 2 XiYi
1 2 27 4 729 54
2 3 44 9 1936 132
3 5 86 25 7396 430
4 8 126 64 15876 1008
5 4 65 16 4225 260
S= 22 348 118 30162 1884
22 348
𝑥̅ = = 4.4 ; 𝑦̅ = = 69.6 ; 𝑆𝑥𝑥 = 118 − 5(4.42 ) = 21.2 ;
5 5

𝑆𝑥𝑦 352.8
𝑆𝑥𝑦 = 1884 − 5(4.4)(69.6) = 352.8 ; 𝛽̂ = = = 16.641
𝑆𝑥𝑥 21.2

𝛼̂ = 𝑦̅ − 𝛽̂ 𝑥̅ = 69.6 − (16.641)(4.4) = −3.62

Modelo Estimador
𝑌̂ = 𝛼̂ + 𝛽̂ 𝑥
𝑌̂ = −3.62 + 16.641𝑥𝑖

Continuación del ejemplo, ¿Qué tan buena es la regresión?, generaremos los valores ajustados
o estimados de Yi para los diferentes valores de Xi.
i = 0 1, 2, 3, 4, . . . , n

𝑌̂𝑖 = 𝛼̂ + 𝛽̂ 𝑥𝑖

Residuales 𝑒𝑖 = 𝑦𝑖 − 𝑦̂𝑖 ; esto es (lo que observamos – lo que ajustamos)

𝑁𝑜𝑡𝑎: 𝑒𝑖 = 𝑒𝑠 𝑢𝑛𝑎 𝑒𝑠𝑝𝑒𝑐𝑖𝑒 𝑑𝑒 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑟


n Xi Yi Xi2 Yi 2 XiYi ei
1 2 27 4 729 54 29.7 -2.7
2 3 44 9 1936 132 46.3 -2.3
3 5 86 25 7396 430 79.6 6.4
4 8 126 64 15876 1008 129.5 -3.5
5 4 65 16 4225 260 62.9 2.1
S= 22 348 118 30162 1884 0.000
𝑌̂1 = −3.62 + 16.641𝑥1 = −3.62 + 16.641(2) = 29.7

𝑌̂4 = −3.62 + 16.641𝑥4 = −3.62 + 16.641(8) = 129.5


Por lo tanto, continuando de forma matemática podemos demostrar que:
1. ∑𝑛𝑖=1 𝑦̂𝑖 = ∑𝑛𝑖=1 𝑦𝑖
𝑛 𝑛

∑ 𝑦̂𝑖 = ∑(𝛼̂ + 𝛽̂ 𝑥𝑖 ) = 𝑛𝛼̂ + 𝛽̂ ∑ 𝑥𝑖


𝑖=1 𝑖=1
= 𝑛(𝑦̅ − 𝛽̂ 𝑥̅ ) + 𝑛𝛽̂ 𝑥̅
= 𝑛𝑦̅ − 𝛽̂ 𝑥̅ 𝑛 + 𝑛𝛽̂ 𝑥̅
𝑛

= 𝑛𝑦̅ = ∑ 𝑦𝑖 ∎
𝑖=1

2. P.D. ∑𝑛𝑖=1 𝑒𝑖 = 0
𝑛 𝑛 𝑛

= ∑(𝑦𝑖 − 𝑦̂𝑖 ) = ∑ 𝑦𝑖 − ∑ 𝑦̂𝑖 ; 𝑇𝑜𝑚𝑎𝑚𝑜𝑠 𝑙𝑎 𝑑𝑒𝑚𝑜𝑠𝑡𝑟𝑎𝑐𝑖ó𝑛 𝑎𝑛𝑡𝑒𝑟𝑖𝑜𝑟


𝑖=1 𝑖=1 𝑖=1

𝑛 𝑛

= ∑ 𝑦𝑖 − ∑ 𝑦𝑖 = 0 ∎
𝑖=1 𝑖=1
Los residuales nos van a servir para verificar que tan buena es la regresión, como anterior
mente ya lo habíamos mencionado.
• Los residuales (ei) no son errores, son los estimadores de los errores.
Y

(Xi,Yi)
Yi

ei
𝑌̂ = 𝛼̂ + 𝛽̂ 𝑥

Ŷi

X
Xi

Algunas condiciones para los residuales:

𝑦𝑖 = 𝑦̂𝑖 + 𝑒𝑖

𝑦𝑖 − 𝑦̅ = 𝑦̂𝑖 − 𝑦̅ + 𝑒𝑖 ∀ 𝑖 = 1, 2, 3, 4, . . . , 𝑛

(𝑦𝑖 − 𝑦̅)2 = (𝑦̂𝑖 − 𝑦̅ + 𝑒𝑖 )2

Demostrando que (𝑦𝑖 − 𝑦̅)2 = (𝑦̂𝑖 − 𝑦̅ + 𝑒𝑖 )2 :

(𝑦𝑖 − 𝑦̅)2 = (𝑦̂𝑖 − 𝑦̅ + 𝑒𝑖 )2


𝑛 𝑛

∑(𝑦𝑖 − 𝑦̅) = ∑(𝑦̂𝑖 − 𝑦̅ + 𝑒𝑖 )2


2

𝑖=1 𝑖=1

𝑛 𝑛 𝑛 𝑛
2 2]
= ∑[(𝑦̂𝑖 − 𝑦̅) + 2(𝑦̂𝑖 − 𝑦̅)𝑒𝑖 + 𝑒𝑖 = ∑(𝑦̂𝑖 − 𝑦̅) + 2 ∑(𝑦̂𝑖 − 𝑦̅)𝑒𝑖 + ∑ 𝑒𝑖 2
2

𝑖=1 𝑖=1 𝑖=1 𝑖=1

Podemos demostrar que 0 = 2 ∑𝑛𝑖=1(𝑦̂𝑖 − 𝑦̅)𝑒𝑖


𝑛

0 = 2 ∑(𝑦̂𝑖 − 𝑦̅)𝑒𝑖 = 2 ∑ 𝑦̂𝑖 𝑒𝑖 − 2 ∑ 𝑦̅𝑒𝑖 = 2𝑛𝑦̅ ∙ 2 ∑ 𝑒𝑖 − 2𝑛𝑦̅ ∙ 2 ∑ 𝑒𝑖 = 0 ∎


𝑖=1

𝑛 𝑛 𝑛

∑(𝑦𝑖 − 𝑦̅) = ∑(𝑦̂𝑖 − 𝑦̅) + ∑ 𝑒𝑖 2


2 2

𝑖=1 𝑖=1 𝑖=1

Suma de Cuadrados del Suma de Cuadrados Suma de Cuadrados


Total Corregido de 𝑦𝑖 de la Regresión de los Residuales

Total de la Variabilidad 𝑦𝑖 = La que Explica la Regresión + Lo que No Explica la Regresión

𝑆𝑆𝑇𝑜𝑡𝑎𝑙 𝐶𝑜𝑟𝑟𝑒𝑔𝑖𝑑𝑜 = 𝑆𝑆𝑅𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 + 𝑆𝑆𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑒𝑠

“TABLA ANOVA” SUMA DE CUADRADOS (SS)


2
𝑆𝑥𝑦
REGRESIÓN 𝑆𝑆𝑅𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 = ⁄
𝑆𝑥𝑥

RESIDUALES 𝑆𝑆𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑒𝑠 = ∑ 𝑒𝑖2 ∗∗

TOTAL CORREGIDO 𝑆𝑆𝑇𝑜𝑡𝑎𝑙 𝑐𝑜𝑟𝑟𝑒𝑔𝑖𝑑𝑜 = 𝑆𝑆𝑦𝑦

𝑆𝑆𝑅𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛
𝑅2 = → % 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑦 𝑞𝑢𝑒 𝑒𝑥𝑝𝑙𝑖𝑐𝑎 𝑙𝑎 𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛
𝑆𝑆𝑇𝑜𝑡𝑎𝑙 𝐶𝑜𝑟𝑟𝑒𝑔𝑖𝑑𝑜

Nota: ** se saca por diferencia = ∑𝑛𝑖=1 𝑒𝑖 2 = 𝑆𝑆𝑇𝑜𝑡𝑎𝑙 𝑐𝑜𝑟𝑟𝑒𝑔𝑖𝑑𝑜 - 𝑆𝑆𝑅𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛

Los residuales no solamente nos sirven en esta idea de la ANOVA, sino que más adelante nos
van a servir para verificar los supuestos que hagamos en el siguiente capítulo (Supuestos del
Modelo). A nosotros a no nos interesa, lo que importa es el termino b xi, por eso corregimos
por la media la suma de cuadrados totales.
la relación de x y y, se cuantifica a través de b, si el modelo fuese 𝑌𝑖 = 𝛼 + 𝜀𝑖 , no existe
relación y entonces tendríamos que 𝛼̅ = 𝑦̅
SUPUESTOS DEL MODELO
Para poder proseguir más allá de cálculo algebraico, es necesario que hagamos algunos
supuestos con el modelo, en particular con la que tiene que ver con los errores 𝜀𝑖 , más
adelante utilizamos a los residuales ei para verificar la grafica en que se encuentran estos
supuestos.

Modelo: 𝒚𝒊 = 𝛼 + 𝛽𝑥𝑖 + 𝜀𝑖

No aleatorio o Determinístico: 𝛼 + 𝛽𝑥𝑖

Aleatorio: 𝒚𝒊

𝜀1 , 𝜀2 , 𝜀3 , 𝜀4 , … . , 𝜀𝑛 ; Modelo en n variables aleatorias

SUPUESTOS
1. Valor esperado: 𝐸(𝜀1 ) = 0, 𝐸(𝜀2 ) = 0, 𝐸(𝜀3 ) = 0, … , 𝐸(𝜀𝑛 ) = 0
𝑖. 𝑒. 𝐸(𝜀𝑖 ) = 0, 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑎 𝑖 = 1, 2, 3, 4, … , 𝑛
2. Varianza: 𝑉𝐴𝑅(𝜀1 ) = 𝜎 2 , 𝑉𝐴𝑅(𝜀2 ) = 𝜎 2 , 𝑉𝐴𝑅(𝜀3 ) = 𝜎 2 , … , 𝑉𝐴𝑅(𝜀𝑛 ) = 𝜎 2
𝑖. 𝑒. 𝑉𝐴𝑅(𝜀𝑖 ) = 𝜎 2 , 𝑖 = 1, 2, 3, 4, … , 𝑛; este es otro parámetro que tendremos que
estimar, esto no implica que sea la varianza sea chica o grande, sino que sea la misma
para todos o constante (Homoscedasticidad)

𝐶𝑂𝑉(𝜀𝑖 , 𝜀𝑗 ) = 0
3. Principio de auto correlación cero: ; 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑎 𝑖 ≠ 𝑗
𝐶𝑂𝑅𝑅(𝜀𝑖 , 𝜀𝑗 ) = 0
4. Supuesto de normalidad: 𝜀𝑖 ~𝑁(0, 𝜎 2 ); 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑎 𝑖 = 1, 2, 3, 4, … , 𝑛

Estos supuestos implican que: 𝐸(𝑦𝑖 ) = 𝛼 + 𝛽𝑥𝑖 ; 𝑉𝐴𝑅(𝑦𝑖 ) = 𝜎 2 ; 𝑦𝑖 ~(𝛼 + 𝛽𝑥𝑖 , 𝜎 2 )


SUMA DE CUADRADOS GRADOS DE LIBERTAD CUADRADOS MEDIOS VALOR DE
“TABLA ANOVA” (g.l) F
(SS) (MS)
𝑆2 𝑆𝑆𝑅𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 𝑀𝑆𝑅𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛
REGRESIÓN 𝑆𝑆𝑅𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 = 𝑥𝑦⁄𝑆 1
𝑥𝑥
𝑔. 𝑙𝑅𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 𝑀𝑆𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙

𝑆𝑆𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑒𝑠 = ∑ 𝑒𝑖2 𝑆𝑆𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑒𝑠


RESIDUALES n -2
𝑔. 𝑙𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙

TOTAL CORREGIDO 𝑆𝑆𝑇𝑜𝑡𝑎𝑙 𝑐𝑜𝑟𝑟𝑒𝑔𝑖𝑑𝑜 = 𝑆𝑆𝑦𝑦 n

ESTIMADOR PARA: 𝜎 2 = MS Residuales = SS Residuales / n-2.

EJEMPLO 3, CON TABLA ANOVA

En un estudio se busca medir el efecto que tiene la temperatura en un proceso químico para lo
cual se tomaron las siguientes observaciones, asumiendo un modelo de primer orden.
encuentra los estimadores y realiza las pruebas correspondientes.

n Xi Yi Xi2 Yi 2 XiYi ei
1 -5 1 25 1 -5 2.1 -1.1
2 -4 5 16 25 -20 3.5 1.5
3 -3 4 9 16 -12 5.0 -1.0
4 -2 7 4 49 -14 6.4 0.6
5 -1 10 1 100 -10 7.8 2.2
6 0 8 0 64 0 9.3 -1.3
7 1 9 1 81 9 10.7 -1.7
8 2 13 4 169 26 12.1 0.9
9 3 14 9 196 42 13.6 0.4
10 4 13 16 169 52 15.0 -2.0
11 5 18 25 324 90 16.5 1.5
S= 0 102 110 1194 158 0.000

n= 11
Promedio x= 0
Promedio y= 9.27
2
Sxx = 110 - 11(0) 110.00
Sxy = 158 - 11(0)(9.27) 158.00
Syy = 1194 - 11(9.27)2 248.18

Beta = b = 158/110 1.4364


Alfa = a = 9.27 - (0)(1.4364) 9.2727

Modelo: 9.2727 + 1.4364Xi

TABLA ANOVA SS G.L. MS F


REGRESIÓN 226.95 1 226.95 96.18
RESIDUAL 21.24 9 2.36
TOTAL CORREGIDO 248.18 10

F vs F(a, g.lregresión, g.lresidual )


F vs F(0.05, 1, 9)
96.18 vs 5.12

Ho: b = 0
Ha: b ≠ 0
Por lo tanto, el valor de tablas de F es de 5.12 y el valor de F en la tabla ANOVA es de 96.18,
como 96.18 > 5.12, se rechaza la hipótesis nula (Ho), esto significa que b es diferente de cero y
esto concluye que existe relación entre x y y.

Ejercicio 1:

n 1 2 3 4 5 6 7 8 9 10 11 12 13
X 0.01 0.48 0.75 0.95 1.19 0.01 0.48 1.44 0.71 1.96 0.01 1.44 1.96
Y 127.60 124.00 110.80 103.90 101.50 130.10 122.00 92.30 113.10 83.70 128.00 91.40 86.20

Ejercicio 2: The height os soap suds in the dishpan is of importaance to soap manufacturers. an
experiment was performed by varying the amount os soap and measuring the height of the
suds in a standard dishpan after a give amount of agitation. the data are as follows:

Suds Height 33 42 45 51 53 61 62
Grams of Product 4.0 4.5 5.0 5.5 6.0 6.5 7.0

Ejercicio 3: the following data indicate the relationship between the amount of b –
erythroidine in an aqueous solution and the colorimeter Reading of the turbidity.

colorimeter Reading 69 175 272 335 490 415 72 265 492 180
Concentration (mmg/ml) 40.0 50.0 60.0 70.0 80.0 90.0 40.0 60.0 80.0 50.0

Ejercicio 4:

n Y X n Y X
1 10.980 35.3 14 9.570 39.1
2 11.130 29.7 15 10.940 46.8
3 12.510 30.8 16 9.580 48.5
4 8.400 58.8 17 10.090 59.3
5 9.270 61.4 18 8.110 70
6 8.730 71.3 19 6.830 70
7 6.360 74.4 20 8.880 74.5
8 8.500 76.7 21 7.680 72.1
9 7.820 70.7 22 8.470 58.1
10 9.140 57.5 23 8.860 44.6
11 8.240 46.4 24 10.360 33.4
12 12.190 28.9 25 11.080 28.6
13 11.880 28.1

Realizar los siguientes pasos a los 4 ejercicios mencionados anterior mente:

1. Graficar
2. Encontrar estimadores
3. Tabla ANOVA
4. Ajustar línea en el Grafico
Estimadores

• Alfa 𝛼̂ = 𝑦̅ − 𝛽̂ 𝑥̅
𝑆
• Beta 𝛽̂ = 𝑥𝑦
𝑆𝑥𝑥
• 2 2
Sigma 𝜎 = 𝑆 = 𝑀𝑆𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑒𝑠 (𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎)
• 𝜎̂ = 𝑆 = √𝑀𝑆𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑒𝑠 (𝐸𝑟𝑟𝑜𝑟 𝐸𝑠𝑡á𝑛𝑑𝑎𝑟)

Podemos demostrar para 𝛽̂:


𝜎2 𝜎2
𝐸(𝛽̂ ) = 𝛽 𝑖. 𝑒. 𝛽̂ 𝑒𝑠 𝑖𝑛𝑠𝑒𝑠𝑔𝑎𝑑𝑜 (𝐸𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑟 𝑝𝑢𝑛𝑡𝑢𝑎𝑙1); 𝑉𝐴𝑅(𝛽̂ ) = ; 𝛽̂ ~𝑁 (𝛽, )
𝑆𝑥𝑥 𝑠𝑥𝑥

𝜎 𝑠
𝜎(𝛽̂ ) = , 𝑃𝑟𝑢𝑒𝑏𝑎 𝑑𝑒 𝐻𝑖𝑝𝑜𝑡𝑒𝑠𝑖𝑠 ó Error Estándar (𝛽̂ ) = , 𝐼𝑛𝑡𝑒𝑟𝑣𝑎𝑙𝑜 𝑑𝑒 𝐶𝑜𝑛𝑓𝑖𝑎𝑛𝑧𝑎
𝑠
√ 𝑥𝑥 𝑠
√ 𝑥𝑥

Intervalo de confianza para 𝛽̂ :

Estimador Puntual ± (Error Estándar) * (Valor de Tablas)


𝑠 𝑡 − 𝑆𝑡𝑢𝑑𝑒𝑛𝑡
𝛽̂ ± ( )( ); Nota: El a que se utiliza para el nivel de significancia es
√𝑠𝑥𝑥 𝑛 − 2 𝑔. 𝑙.
diferente a la del modelo.

Pruebas de Hipótesis para 𝛽̂ :

𝐻0 : 𝛽 = 𝑘 v.s 𝐻1 : 𝛽 ≠ 𝑘 ; k = constante (cte.) conocida

𝛽−𝑘 𝛽̂ − 𝑘
𝑡= =𝑠 , 𝑐𝑜𝑚𝑝𝑎𝑟𝑎𝑟 𝑐𝑜𝑛 𝑣𝑎𝑙𝑜𝑟 𝑑𝑒 𝑡𝑎𝑏𝑙𝑎𝑠 𝑡 − 𝑠𝑡𝑢𝑑𝑒𝑛𝑡 𝑐𝑜𝑛 𝑛 − 2 𝑔. 𝑙.
𝜎(𝛽̂ ) ⁄ 𝑠
√ 𝑥𝑥

de particular interés se realiza la prueba: 𝐻0 : 𝛽 = 0 v.s 𝐻1 : 𝛽 ≠ 0; 𝑦𝑖 = 𝛼 + 𝛽𝑥𝑖 + 𝜀𝑖


Bajo 𝐻0 : 𝑦𝑖 = 𝛼 + 𝑂𝑥𝑖 + 𝜀𝑖 = 𝛼 + 𝜀𝑖 la cual algunos programas de estadística realizan en
automático.

1
ESTIMADOR PUNTUAL Estadístico calculado a partir de información de la muestra para estimar
el parámetro poblacional
Pero nosotros sino contamos con ningún software estadístico tendremos que realizarla. (esta
prueba es individual)
Si fuera: 𝑦𝑖 = 𝛼 + 𝛽1 𝑥𝑖 + 𝛽2 𝑧𝑖 + 𝜀𝑖 , la prueba con respecto a la Hipótesis nula seria:
𝐻0 = 𝛽1 = 𝛽2 = 0

Análogamente se realizará la prueba para el estimador 𝛼̂


𝛼̂ = 𝑦̅ − 𝛽̂ 𝑥; 𝑓𝑢𝑛𝑐𝑖𝑜𝑛 𝑑𝑒 𝑙𝑎𝑠 𝑦𝑖′ 𝑠, 𝑒𝑛𝑡𝑜𝑛𝑐𝑒𝑠 𝛼̂ 𝑒𝑠 𝑢𝑛𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑎.
1
∑𝑥𝑖2 ∑𝑥𝑖2 2
𝐸(𝛼̂) = 𝛼; 𝑉𝐴𝑅(𝛼̂) = 𝜎 2 { }; 𝐷𝑒𝑠𝑣𝑖𝑎𝑐𝑖ó𝑛 𝐸𝑠𝑡á𝑛𝑑𝑎𝑟 (𝛼̂) = 𝜎 = { } ;
𝑛𝑆 × 𝑥 𝑛𝑆𝑥 𝑥
∑𝑥𝑖2 2
∑𝑥𝑖2
𝐸𝑟𝑟𝑜𝑟 𝐸𝑠𝑡á𝑛𝑑𝑎𝑟 = 𝑠 √ ; 𝛼̂~𝑁 (𝛼, 𝜎 { })
𝑛𝑆𝑥 𝑥 𝑛𝑆 × 𝑥
Intervalo de confianza para 𝛼̂:
Estimador Puntual ± (Error Estándar) * (Valor de Tablas)
∑𝑥 2 𝑡 − 𝑆𝑡𝑢𝑑𝑒𝑛𝑡
𝛼̂ ± √𝑛𝑆 𝑖𝑥 ∗ ( ); Nota: El a que se utiliza para el nivel de significancia es
𝑥 𝑛 − 2 𝑔. 𝑙.
diferente a la del modelo.

Pruebas de Hipótesis para 𝑎̂:

𝐻0 : 𝛼 = 𝑘 v.s 𝐻1 : 𝛼 ≠ 𝑘 ; k = constante (cte.) conocida

𝛼−𝑘 𝛽̂ − 𝑘
𝑡= = 𝑣. 𝑠 (𝑡 − 𝑆𝑡𝑢𝑑𝑒𝑛𝑡 𝑐𝑜𝑛 𝑛 − 2 𝑔. 𝑙. )
𝜎(𝛼̂) 2
∑𝑥
𝑠√𝑛𝑆 𝑖𝑥
𝑥

Ahora realizaremos pruebas para el estimador de la varianza 𝜎 2 :

SUMA DE GRADOS DE LIBERTAD CUADRADOS MEDIOS VALOR DE


“TABLA ANOVA” (g.l) F
CUADRADOS (SS) (MS)
𝑀𝑆𝑅𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛
REGRESIÓN 𝑆𝑆𝑅𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 1 𝑀𝑆𝑅𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛
𝑆2
RESIDUALES 𝑆𝑆𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑒𝑠 n -2 𝑆 2 = 𝑀𝑆𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑒𝑠
TOTAL CORREGIDO 𝑆𝑆𝑇𝑜𝑡𝑎𝑙 𝑐𝑜𝑟𝑟𝑒𝑔𝑖𝑑𝑜 n

Debido a los supuestos de normalidad

𝐻0 : 𝑅𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 𝑁𝑂 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑎 𝑣. 𝑠 𝐻1 : 𝑅𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 𝑆𝐼 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑎


𝐻0 : 𝑇𝑜𝑑𝑜𝑠 𝑙𝑜𝑠 𝑝𝑎𝑟á𝑚𝑒𝑡𝑟𝑜𝑠 = 0 𝑣. 𝑠 𝐻1 : 𝐴𝑙𝑔𝑢𝑛𝑜 ≠ 0; (𝑛𝑜 𝑐𝑜𝑛𝑡𝑎𝑚𝑜𝑠 𝑐𝑡𝑒. 𝛼)

Si el modelo es 𝑦𝑖 = 𝛼 + 𝛽1 𝑥𝑖 + 𝛽2 𝑧𝑖 + 𝛽3 𝑤𝑖 + 𝜀𝑖 entonces:

𝐻0 : 𝛽1 + 𝛽2 + 𝛽3 = 0 𝑣. 𝑠 𝐻1 : 𝐴𝑙𝑔𝑢𝑛𝑜 ≠ 0

Si el modelo es 𝑦𝑖 = 𝛼 + 𝛽1 𝑥𝑖 + 𝜀𝑖 entonces:

𝐻0 : 𝛽1 = 0 𝑣. 𝑠 𝐻1 : 𝛽1 ≠ 0
𝑀𝑆 𝑅𝐸𝐺𝑅𝐸𝑆𝐼Ó𝑁
Esta Prueba se realiza con la F de la ANOVA F = 𝑠2
𝑣. 𝑠 𝐹 − 𝐹𝑖𝑠ℎ𝑒𝑟 𝑐𝑜𝑛 (1, 𝑛 − 2)

Grafica de 𝐹 − 𝐹𝑖𝑠ℎ𝑒𝑟

Para el caso del modelo de regresión lineal simple 𝑦𝑖 = 𝛼 + 𝛽𝑥𝑖 + 𝜀𝑖 la prueba global es igual a
la individual 𝑡 2 = 𝐹
𝑠𝑠𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 𝑀𝑆𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛
La relación que existe entre 𝑅 2 = con respecto a 𝐹 = es estudiada para
𝑠𝑠𝑟𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑒𝑠 𝑠2
decir que tan bueno o compatible en R2 está en términos de porcentaje, pero la F es mejor
para un análisis, funciones del modelo y el supuesto de correlación.

Nota: El estadístico Durbin – Watson nos servirá para verificar el supuesto de la auto
correlación cero. Significancia es el menor porcentaje al que se esta rechazando Ho,
mejor conocido como a.

P.D: 𝑡 2 = 𝐹
2 2
𝛽 𝑀𝑆𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 𝛽 𝑀𝑆𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 𝛽2 𝑀𝑆𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛
(𝑠 ) = ⇒ (𝑠 ) = 𝑠2
⇒ 𝑠2 ∕𝑠𝑥𝑥
= 𝑠2

√𝑠𝑥𝑥 𝑀𝑆𝑟𝑒𝑠𝑖𝑑𝑢𝑎𝑙 √𝑠𝑥𝑥

2 2 2
(𝑠𝑥𝑦 ) (𝑠𝑥𝑦 ) (𝑠𝑥𝑦 )
2 2
(𝑠𝑥𝑥 )2 𝑀𝑆𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 (𝑠𝑥𝑥 )2 𝑠 𝑠𝑥𝑦 𝑠𝑥𝑦
2
= 2
⇒ 2 = 𝑥𝑥 ⇒ = ∎
𝑠 ∕ 𝑠𝑥𝑥 𝑠 𝑠 ∕ 𝑠𝑥𝑥 𝑠2 𝑠 2 𝑥𝑥 𝑠 2 𝑥𝑥
USO DE SOFTWARE EN EL MODELO DE REGRESION LINEAL SIMPLE.
– SPSS y HERRAMIENTAS DE EXCEL -

Para el uso de estos dos paquetes estadísticos usaremos el EJEMPLO 3, empezando con SPSS y
posterior EXCEL – DATOS – HERRAMIENTAS PARA EL ANALISIS – REGRESIÓN.

El primer paso será colocarlos datos, en la 1er. columna insertaremos los datos de las X’s y en
la siguiente el de las Y’s, como se puede observar al abrir el programa de SPSS las columnas
solo cuentan con la palabra var (variables), una vez colocados los valores, renombraremos las
var, ya que a estas al insertarle los valores le cambiaran los nombres de las columnas, como se
observa en las imágenes siguientes.

como podemos observar en la parte inferior hay 2 pestañas, ahora pasamos a la pestaña de
vista de variables para colocar el nombre a las columnas y algunas otras cosas.

el siguiente paso será pedir el análisis, esto se realizará de la siguiente forma:


1. Parte superior seleccionar pestaña analizar.

2. Seleccionar Regresión - Lineales


3. Ahora colocamos las variables, para después seleccionar los datos que requerimos de
los botones que están ala derecha, comenzando por los Estadísticos.

Y dejamos lo demás sin cambios, para luego


presionar el botón de Aceptar.

4. Resultados de lo pedido a SPSS


Ahora para terminar con los datos que se guardaron (PRE_1 y RES_1) se graficaran con la
temperatura cada uno, para tener 2 graficas. (Temperatura vs Residuales y Temperatura vs Predicción)
5.0 20.0
Predicción
Predicción

10.0
0.0
0.0
-5 -4 -3 -2 -1 0 1 2 3 4 5
-5 -4 -3 -2 -1 0 1 2 3 4 5
-5.0
Temperatura Temperatura
Ahora lo haremos para Excel:

1. Capturar los datos en las celdas de Excel y seleccionar la pestaña de DATOS, para luego
elegir del segmento de Análisis – Análisis de Datos – Regresión.

2. Ahora seleccionamos los datos que requerimos y escogemos donde,(celda E2)


queremos el resumen estadístico, presionamos Aceptar.

3. Esperamos los resultados:


Verificación de los supuestos “Análisis de Residuales”

lo primero que debemos preguntarnos es si el modelo propuesto es el correcto, para lo cual


realizaremos un análisis gráfico de la propuesta del modelo (Yi vs Regresores(𝑌𝑖 ))

Se puede decir que el modelo se ve bien. Ya que el modelo propuesto es lineal y su relación
pare corresponder a este supuesto.

En esta grafica podemos observar el supuesto de que el modelo es lineal (línea color rojo),
pero los datos obtenidos rechazan este supuesto, ya que podemos apreciar la tendencia
cuadrática que los datos arrojan (línea punteada color azul), por lo tanto, concluimos que el
supuesto de linealidad esta incorrecto con un análisis gráfico.

Prueba de falta de ajuste:


En este apartado verificaremos que existen la posibilidad de observaciones repetidas para
algunos datos de la variable x’s
Para esta prueba de falta de ajuste utilizaremos nuestra tabla ANOVA, solo que ahora
insertaremos un renglón, entre los residuales y el total.

SUMA DE GRADOS DE LIBERTAD CUADRADOS MEDIOS VALOR DE


“TABLA ANOVA” (g.l) F
CUADRADOS (SS) (MS)
𝑀𝑆𝑅𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛
REGRESIÓN 𝑆𝑆𝑅𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛 1 𝑀𝑆𝑅𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛
𝑆2
RESIDUALES 𝑆𝑆𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑒𝑠 n -2 𝑆 2 = 𝑀𝑆𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑒𝑠
𝑆𝑆𝐹𝑎𝑙𝑡𝑎 𝑑𝑒 𝐴𝑗𝑢𝑠𝑡𝑒 𝑔. 𝑙.𝐹𝑎𝑙𝑡𝑎 𝑑𝑒 𝐴𝑗𝑢𝑠𝑡𝑒 𝑀𝑆𝐹𝑎𝑙𝑡𝑎 𝑑𝑒 𝐴𝑗𝑢𝑠𝑡𝑒 𝑀𝑆𝐹𝑎𝑙𝑡𝑎 𝑑𝑒 𝐴𝑗𝑢𝑠𝑡𝑒
FALTA DE AJUSTE
𝑀𝑆𝐸𝑟𝑟𝑜𝑟 𝑝𝑢𝑟𝑜
+ + + −−−−−−−−−−
ERROR PURO 𝑆𝑆𝐸𝑟𝑟𝑜𝑟 𝑝𝑢𝑟𝑜 𝑔. 𝑙.𝐸𝑟𝑟𝑜𝑟 𝑝𝑢𝑟𝑜 𝑀𝑆𝐸𝑟𝑟𝑜𝑟 𝑝𝑢𝑟𝑜
TOTAL CORREGIDO 𝑆𝑆𝑇𝑜𝑡𝑎𝑙 𝑐𝑜𝑟𝑟𝑒𝑔𝑖𝑑𝑜 n

𝑀𝑆𝐹𝑎𝑙𝑡𝑎 𝑑𝑒 𝐴𝑗𝑢𝑠𝑡𝑒
Este valor nuevo de F (𝐹 = 𝑀𝑆𝐸𝑟𝑟𝑜𝑟 𝑝𝑢𝑟𝑜
) se comparara con el valor de tablas de F- Fisher
(g.l.FA, g.l.EP) con los siguientes términos de Hipótesis:

Ho: Modelo Adecuado vs H1: Modelo NO Adecuado

Tabla de Error Puro


Aquí colocaremos los datos obtenidos de las x´s para cada dato de las y´s (estas siempre deben
tener datos repetidos) y así llenar la tabla de Error Puro, para llenar la tabla ANOVA.

Nivel de Media Suma de Cuadrados Núm. de Grados de


Valores de Yi’s
X de Y (SS) repeticiones libertad (g.l.)
xA yA1, yA2, yA3, ….. 𝑦𝐴
̅̅̅ 𝑦𝐴 2
∑(𝑦𝑖 − ̅̅̅) 𝑛𝐴 𝑛𝐴 − 1

xB yB1, yB2, yB3, ….. ̅̅̅


𝑦𝐵 𝑦𝐵 2
∑(𝑦𝑖 − ̅̅̅) 𝑛𝐵 𝑛𝐵 − 1
. . . . . .
. . . . . .
. . . . . .
𝑆𝑆𝐸𝑟𝑟𝑜𝑟 𝑝𝑢𝑟𝑜 𝑔. 𝑙.𝐸𝑟𝑟𝑜𝑟 𝑝𝑢𝑟𝑜

Para terminar el llenado de la tabla ANOVA, solo falta obtener los valores de la suma de
cuadrados y grados de libertad de la Falta de Ajuste.

𝑆𝑆𝐹𝑎𝑙𝑡𝑎 𝑑𝑒 𝐴𝑗𝑢𝑠𝑡𝑒 = 𝑆𝑆𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑒𝑠 − 𝑆𝑆𝐸𝑟𝑟𝑜𝑟 𝑃𝑢𝑟𝑜 ; 𝑔. 𝑙.𝐹𝑎𝑙𝑡𝑎 𝑑𝑒 𝐴𝑗𝑢𝑠𝑡𝑒 = 𝑔. 𝑙.𝑅𝑒𝑠𝑑 − 𝑔. 𝑙.𝐸𝑃

Para mejor comprensión de lo ya mencionado, realizaremos un ejemplo con los siguientes


datos:
n 1 2 3 4 5 6 7 8 9 10 11 12
x 4.7 5.0 5.2 5.2 5.9 4.7 5.9 5.2 5.3 5.9 5.6 5.0
y 3 3 4 5 10 2 9 3 7 6 6 4
1. Lo primero que se debe de realizar, será un gráfico con los datos proporcionados:

12

10

0
4.5 4.6 4.7 4.8 4.9 5.0 5.1 5.2 5.3 5.4 5.5 5.6 5.7 5.8 5.9 6.0

NO se puede suponer por completo un Modelo Lineal, así que proseguimos a realizar
una prueba de Falta de Ajuste.

2. n xi yi xi2 yi2 xiyi


1 4.7 3 22.09 9.00 14.1
2 5.0 3 25.00 9.00 15
3 5.2 4 27.04 16.00 20.8
4 5.2 5 27.04 25.00 26
5 5.9 10 34.81 100.00 59
6 4.7 2 22.09 4.00 9.4
7 5.9 9 34.81 81.00 53.1
8 5.2 3 27.04 9.00 15.6
9 5.3 7 28.09 49.00 37.1
10 5.9 6 34.81 36.00 35.4
11 5.6 6 31.36 36.00 33.6
12 5.0 4 25.00 16.00 20
suma de los datos = 63.6 62.0 339.2 390.0 339.1
Promedio = 5.3 5.2
Sxx = 2.10 Syy = 69.67 Sxy = 10.50

ANOVA SS g.l MS F
Regresion 52.50 1 52.50 30.58
Residual 17.17 10 1.72
Falta de Ajuste 5.50 4 1.375 0.7071
Error Puro 11.67 6 1.944
Total 69.67 11

Tabla de Error Puro


xi yi yi SS n g.l
4.70 2, 3 2.5 0.50 2 1
5.00 3, 4 3.5 0.50 2 1
5.20 3, 4, 5 4.0 2.00 3 2
5.90 6, 9, 10 8.3 8.67 3 2
11.67 6.00

Ho: Modelo Adecuado vs H1: Modelo NO Adecuado

El valor de F de la table de Error Puro


es de 0.7071, el cual cae en la region de
NO rechazo Ho; Por lo tanto, el modelo
es adecuado. (Modelo Lineal)
Ejercicio 5:

xi 0 0 1 1 2 2 3 3 4 4
yi 4 3 3 2 1 0 2 3 4 5

Ejercicio 6: Per Cent of Available Chlorine in a Unit of product.

Realizar los siguientes pasos a los 2 ejercicios mencionados anterior mente:

1. Graficar
2. Encontrar estimadores
3. Tabla ANOVA
a. Error Puro
b. Falta de Ajuste
4. Ajustar línea en el Grafico
Análisis de los residuales
Estos son como los estimadores de los errores y vamos a esperar que estos se comporten
como nuestros supuestos.
Residuales (e1, e2, e3, e4,…, en); Errores (Ꜫ1, Ꜫ2, Ꜫ3, Ꜫ4, …, Ꜫn)
∑𝑒𝑖 ∑(𝑦𝑖 −𝑦̂𝑖 ) ∑𝑦𝑖 ∑𝑦̂𝑖 ∑(𝛼+𝛽 𝑥𝑖 ) ∑((𝑦̅−𝛽 ̅̅̅
𝑥)+𝛽 𝑥𝑖 )
i. 𝑛
= 𝑛
= 𝑛
− 𝑛
= 𝑦
̃ − 𝑛
= 𝑦
̅ − 𝑛
1 1
= 𝑦̅ − 𝑛 (∑𝑦̅ − ∑𝛽̂ 𝑥̅ + 𝛽̂ 𝛴𝑥𝑖 ) = 𝑦̅ − 𝑛 [𝑛𝑦 − 𝑛𝛽̂ 𝑥̅ + 𝛽̂ 𝑛𝑥̅ ] = 𝑦̅ − 𝑦̅ − 𝛽̂ 𝑥̅ + 𝛽̂ 𝑥̅ = 0.
este supuesto siempre se cumple.
𝑠𝑠 ∑𝑒𝑖2
ii. Varianza constante: Estimar 𝜎 2 = 𝑠 2 = 𝑀𝑠𝑟𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑒𝑠 = 𝑔𝑙𝑟𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑒𝑠 = 𝑔𝑙
𝑟𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑒𝑠 𝑟𝑒𝑠𝑖𝑑𝑢𝑎𝑙𝑒𝑠
Análisis Gráfico: Residuales vs X’s.

a. NO graficamos e´s vs y´s, porque están correlacionadas


b. Cu dado con los “Outl ers” (o servac ones atíp cas)
i. Verificar si son errores de dedo.
1. Si lo son corregir y volver a estimar.
2. Si son correctos investigar el dato.
ii. Es una auténtica desviación atípica.
1. Tienen mucha información.
2. Estudiarlo.
3. Quitarlo y volver a estimar (cuidar que no influya mucho).
c. Si la varianza es constante, entonces el resultado de la regresión es correcto.
d. Si la varianza NO es constante, entonces los resultados son inválidos.
i. Se corrige: transformando las y’s
1. ln(y) - Las y’s deben ser positivas, caso contrario, sumar una
constante y el resultado elevarlo al cuadrado, para después
restar la constante.
𝑦𝑖 +1
2. Crecimiento en porcentaje: ( 𝑦𝑖
− 1) ∗ 100
3. Cambio neto: 𝑦𝑖+1 − 𝑦𝑖
4. √𝑦𝑖 ; estas deben de ser positivas.
𝐻0 : 𝜌 = 𝑜
iii. Auto correlación cero; Estadístico Durbin – Watson: 𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛 𝑣𝑠 𝐻1 : 𝜌 ≠ 0
𝑑𝑒 1𝑒𝑟 𝑜𝑟𝑑.
∄ para: 𝑐𝑜𝑟𝑟(𝜀𝑖 , 𝜀𝑗 ) = 𝑜 𝑝𝑎𝑟𝑎 𝑖 ≠ 𝑗; ∃ para: 𝑐𝑜𝑟𝑟(𝜀𝑖 , 𝜀𝑖−1 ) = 𝑜 𝑝𝑎𝑟𝑎 𝑖 = 1,2,…, n
NOTA: Datos en orden, con sentido temporal ó espacial, sin intersecciones o
∑(𝑒𝑖 −𝑒𝑖−1 )2
interrupciones. Estadístico Durbin – Watson: 𝑑 = ∑𝑒𝑖2
iv. Normalidad: 𝜀𝑖 ~𝑁(0, 𝜎 2 ); graficar los e’s en papel de probabilidad normal, también se
conoce en algunos softwares como P-P Plot.
MODELO ECONOMETRICOS EN TERMINOS MATRICIALES

BIBLIOGRAFIA

DRAPER N.R & SMITH H, APPLIED REGRESSION ANALYSIS, JOHN WILEY & SONS, INC.

SPIEGEL MURRAY R. STEPHENS LARRY J, ESTADISTICA 3 EDICION SCHAUN., MC GRAW HILL

Potrebbero piacerti anche