Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
o Oficina: 324-D
Ejemplos:
Los mismos que los de la slide anterior pero añadiendo una
perturbación aleatoria.
• Teoría de la demanda: Qdemandada=f(PA, PB, G)+u
Modelo Económico vs
Modelo Econométrico
Regresión Lineal Simple
Yi = b0 + b1Xi + ui
Contenido
• Introducción
• Medidas de dependencia lineal
• Estimación por mínimos cuadrados ordinarios
• Propiedades de los estimadores MCO
• Teorema de Gauss-Markov
• Inferencias sobre el modelo de regresión
• Bondad de ajuste: R2
• Tabla ANOVA
• Análisis de Residuos
Introducción
Supongamos que la variable Y es una función lineal de una variable X
cuya relación depende de parámetros β0 y β1 desconocidos.
Y= b0 + b1X
β0
x1 x2 x3 x4 X
Supongamos que tenemos una muestra de 4 observaciones (X,Y).
Y
.
. Y= b0 + b1X
.
.
β0
x1 x2 x3 x4 X
Si la relación entre X e Y fuera exacta, bastarían sólo dos puntos para
encontrar una solución para los parámetros β0 y β1.
Y
. .
. . Y= b0 + b1X
. .
. .
β0
x1 x2 x3 x4 X
En la prác*ca las relaciones entre X e Y no son exactas, muchos puntos
no van a estar sobre la recta.
Y
. .
. . Y= b0 + b1X
. .
. .
β0
x1 x2 x3 x4 X
Para permi)r divergencia entre la variable Y de la recta de interés, introducimos
un término de perturbación al modelo, que no es observable: Y=β0+β1X+u
Y
. .
u3
. . Y= b0 + b1X
. .
. .
β0 b0 + b1X3
x1 x2 x3 x4 X
Cada valor de Y *ene entonces una parte “no aleatoria” β0+β1X y una parte
aleatoria u.
Modelo de regresión lineal simple
Y = b0 + b1X + u
• donde Y es: • mientras que X es:
– Variable dependiente – Variable independiente
– Variable explicada – Variable explicativa
– Variable respuesta
– Covariable
– Etc.
– Predictor
• u es: – Regresor
– Residual
– Etc.
– Término de error
• b0 y b1: parámetros o
coeficientes a estimar
Un modelo de regresión es un modelo que
permite describir cómo influye una variable X
sobre otra variable Y.
. E(Y|X=x) = b + b x
0 1
.
x1 x2
Homocedas)cidad
• Un supuesto importante es sobre la varianza del
termino de error: Var(ui)=!2, i=1,…,n.
b + b 1X
Y= 0
b0
X1 X2 X3 X4 X5 X
b + b 1X
Y= 0
b0
X1 X2 X3 X4 X5 X
Obviamente, las observaciones donde u tiene poca varianza, como la de X1, tenderán a ser
mejores guías de la relación subyacente que aquellas como la de X5, donde existe una
varianza relativamente más alta.
Y
b + b 1X
Y= 0
b0
X1 X2 X3 X4 X5 X
y E(y|x) = b0 + b1x
y4 .{
u4
y3 .} u3
y2 u2 {.
y1 .} u1
x1 x2 x3 x4 x
Derivación de es-madores MCO
• El supuesto E(u|x) = E(u) = 0 implica que
Cov(x,u) = E(xu) = 0
• Recordemos que :
β̂0 = y − β̂1 x
n
∑(x − x )(y − y )
i i
sy
i=1
β̂1 = n
=r
sx
∑ i
(x − x ) 2
i=1
donde
% %
Luego:
$%! $%)
!" = =1−
$%& $%&
donde SCT = suma de cuadrados del total, SCE = Suma de cuadrados explicada por la
regresión, y SCR = Suma de cuadrados residual.
.
1 "
$%& = *(0+ − 0)
+,-
.
1 "
$%) = *(03+ − 0)
+,-
donde 03+ es el valor predicho de la variable respuesta, es decir, 03+ = 546 + 54- 8+ . Solo
en el caso de regresión lineal simple se tiene que R2=r2.
TABLA DE ANÁLISIS DE LA VARIANZA (ANOVA)