Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
𝑦 = 𝛽0 + 𝛽1 𝑥 + 𝜀
• Modelo determinístico
𝑦 = 𝛽0 + 𝛽1 𝑥
Ecuación de regresión
• La ecuación de regresión estimada será representada así: 𝑦ො = 𝑏0 + 𝑏1 𝑥
ො 2
𝑆𝑆𝐸 = (𝑦 − 𝑦)
*Varianza residual
A la varianza de los errores se le llama varianza residual.
𝑆𝑆𝐸
𝑠𝑒2
=
𝑛−2
Donde n-2 son los grados de libertad asociados con la varianza
de los residuales.
A 𝑠𝑒 se le llama error estándar de estimación, que es la raíz
cuadrada positiva de la varianza residual.
Método de los mínimos cuadrados
• 𝑆𝑆𝐸 = 𝑆𝑆𝑦 − 𝑏1 𝑆𝑆𝑥𝑦
Aclaración
El valor de una variable aleatoria se predice, mientras que el valor de un
parámetro se estima.
Inferencias sobre el modelo de
regresión lineal
Prueba de Hipótesis:
Ho: 𝛽1 = 0
H1: 𝛽1 ≠ 0
ത 2 = (𝑦 − 𝑦)
(𝑦 − 𝑦) ො 2 + (𝑦ො − 𝑦)
ത 2
Cuadrados Medios
Cualquier suma de cuadrados dividida entre sus grados de libertad asociados
proporciona una estimación de la varianza, llamada un cuadrado medio,
𝑆𝑆
denotado por MS. Así: MS =
𝑔𝑙
Cuadrados medios
• Cuadrado medio de la regresión
SSR
MSR = = SSR
1
Fuente de SS gl MS F
varianza
Regresión 𝑆𝑆𝑅 1 SSR 𝑆𝑆𝑅ൗ
𝑠𝑒2
Error 𝑆𝑆𝐸 n-2 𝑠𝑒2 = SSE/(n − 2)
Total (y) 𝑆𝑆𝑦 n-1
𝑆𝑆𝑅
• Calcular 𝑓0 =
𝑠2
n 2
S xx X i X
i 1 S xy
r
n 2
S yy Yi Y S xx S yy
i 1
n
S xy X i X Yi Y
i 1
MRL: Diagrama de Dispersión – Relación entre variables
Propiedades de r
• Es adimensional
• Sólo toma valores entre [-1,1]
• Las variables no tienen correlación lineal r=0
• Relación lineal perfecta entre dos variables r=+1 o r=-1
• Cuanto más cerca esté r de +1 o -1 mejor será el grado de
relación lineal.
Relación
inversa Relación
perfecta directa
Variables
incorreladas casi
perfecta
-1 0 +1
Correlación
Coeficiente de determinación
• Coeficiente de determinación
𝑆𝑆𝑦 = 𝑆𝑆𝑅 + 𝑆𝑆𝐸
𝑆𝑆𝑅 𝑆𝑆𝐸
Luego dividiendo a ambos lados por 𝑆𝑆𝑦 , tenemos: 1 = + .
𝑆𝑆𝑦 𝑆𝑆𝑦
𝑆𝑆𝑅
La expresión determina la calidad del modelo para replicar los
𝑆𝑆𝑦
resultados, y a su vez representa la proporción de variación de los
resultados que puede explicarse por el modelo. Se le llama coeficiente
de determinación.
𝑆𝑆𝐸
Luego, 1 = 𝑅2 + . Entonces 𝟏 − 𝑹𝟐 representa el porcentaje de la
𝑆𝑆𝑦
suma total de cuadrados que no se puede atribuir a la regresión, pero
sí al error.
5. Validación de supuestos
(Normalidad, Independencia,
Homocedasticidad)
Supuestos de los Residuales
positiva
negativa
Verificación de Supuestos: 2) Prueba
de Independencia
Verificación de Supuestos: 3) Prueba
de Homocedasticidad
Verificación de Supuestos: 3) Prueba
de Homocedasticidad
Verificación de Supuestos: 3) Prueba
de Homocedasticidad
6. Inferencias acerca de los
coeficientes de regresión
Intervalos de confianza
• Intervalos del 1 − 𝛼 100% de confianza para 𝛽0 :
1 𝑥ത 2 1 𝑥ҧ 2
b0 − t n−2,αΤ2 ∗ se + ≤ β0 ≤ b0 + t n−2,αΤ2 ∗ se +
𝑛 SSx 𝑛 SSx
Fuente de SS gl MS F
varianza
Regresión 𝑆𝑆𝑅 1 SSR 𝑆𝑆𝑅ൗ
𝑠𝑒2
Error 𝑆𝑆𝐸 n-1 𝑠𝑒2 = SSE/(n − 1)
Total (y) 𝑆𝑆𝑦 n
Intervalos de confianza, Si 𝑏0 no es
significativo
• Intervalos del 1 − 𝛼 100% de confianza para 𝛽1 :
se se
b1 − t 𝐧−𝟏,αΤ2 ≤ β1 ≤ b1 + t 𝐧−𝟏,αΤ2
SSx SSx