Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Q1.-Describa las hipótesis nulas a las que corresponden los valores p dados
en la Tabla 3.4. Explica qué conclusiones puedes sacar en base a estos
valores p. Su explicación debe expresarse en términos de ventas, televisión,
radio y periódico, en lugar de en términos de los coeficientes del modelo
lineal.
Las hipótesis nulas asociadas con la tabla 3.4 son que los presupuestos
publicitarios de "TV", "radio" o "periódico" no tienen efecto en las ventas.
Más precisamente H (1) 0: β1 = 0H0 (1): β1 = 0, H (2) 0: β2 = 0H0 (2): β2
= 0 y H (3) 0: β3 = 0H0 (3): β3 = 0. Los valores p correspondientes son
muy significativos para "TV" y "radio" y no son significativos para
"periódico"; entonces rechazamos H (1) 0H0 (1) y H (2) 0H0 (2) y no
rechazamos H (3) 0H0 (3). Podemos concluir que el presupuesto
publicitario de los periódicos no afecta las ventas.
Q3. Supongamos que tenemos un conjunto de datos con cinco
predictores, X1 = GPAX1 = GPA, X2 = IQX2 = IQ, X3 = GenderX3 =
Gender (1 para mujeres y 0 para hombres), X4 = Interacción entre GPA e
IQX4 = Interacción entre GPA e IQ, y X5 = Interacción entre GPA y
GenderX5 = Interacción entre GPA y Gender. La respuesta es comenzar el
salario después de la graduación (en miles de dólares). Supongamos que
usamos mínimos cuadrados para ajustar el modelo, y obtenemos β0 ^ =
50β0 ^ = 50, β1 ^ = 20β1 ^ = 20, β2 ^ = 0.07β2 ^ = 0.07, β3 ^ = 35β3 ^ =
35, β4 ^ = 0.01β4 ^ = 0.01, β5 ^ = - 10β5 ^ = - 10.
Q5. Considere los valores ajustados que resultan de realizar una regresión lineal sin una
intercepción. En esta configuración, el i-ésimo valor ajustado toma la forma yi ^ = xiβ ^
yi ^ = xiβ ^, donde
y ^ i = ∑j = 1najyj.y ^ i = ∑j = 1najyj.
¿Qué es ajaj?
Q7. Se afirma en el texto que en el caso de una regresión lineal simple de YY sobre XX,
Probar que este es el caso. Para simplificar, puede suponer que x¯¯¯ = y¯¯¯ = 0x¯ = y¯
= 0.
2∑jyj2
Aplicado.
a. Q9. Esta pregunta implica el uso de regresión lineal múltiple
en el conjunto de datos "Auto". a. Produzca una matriz de
diagrama de dispersión que incluya todas las variables en el
conjunto de datos.
pairs(Auto)
names(Auto)
## [9] "name"
cor(Auto[1:8])
summary(fit2)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit3)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
plot(log(Auto$horsepower), Auto$mpg)
plot(sqrt(Auto$horsepower), Auto$mpg)
plot((Auto$horsepower)^2, Auto$mpg)
set.seed(1)
x <- rnorm(100)
y <- 2 * x + rnorm(100)
summary(fit5)
##
## Call:
## lm(formula = y ~ x + 0)
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit6)
##
## Call:
## lm(formula = x ~ y + 0)
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
escribirse como
Tenemos
(∑jxjyj).
n <- length(x)
as.numeric(t)
## [1] 18.72593
summary(fit7)
##
## Call:
## lm(formula = y ~ x)
##
## Residuals:
## Min 1Q Median 3Q Max
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit8)
##
## Call:
## lm(formula = x ~ y)
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
x <- rnorm(100)
b. Usando la función rnorm (), cree un vector, "eps", que contenga 100
observaciones extraídas de una distribución N (0,0.25) N (0,0.25).
length(y)
## [1] 100
La relación entre "x" e "y" parece lineal con algo de ruido introducido por
la variable "eps".
summary(fit9)
##
## Call:
## lm(formula = y ~ x)
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
plot(x, y)
summary(fit10)
##
## Call:
## lm(formula = y ~ x + I(x^2))
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
set.seed(1)
x <- rnorm(100)
plot(x, y)
summary(fit11)
##
## Call:
## lm(formula = y ~ x)
##
## Residuals:
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
x <- rnorm(100)
summary(fit12)
##
## Call:
## lm(formula = y ~ x)
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
confint(fit9)
## 2.5 % 97.5 %
## x 0.3925794 0.6063602
confint(fit11)
## 2.5 % 97.5 %
## x 0.476387 0.5233799
confint(fit12)
## 2.5 % 97.5 %
## x 0.4055479 0.5935197
library(MASS)
attach(Boston)
summary(fit.zn)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.indus)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.chas)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.rm)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.age)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.dis)
##
## Call:
##
## Residuals:
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.rad)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.tax)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.ptratio)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 8.24 on 504 degrees of freedom
summary(fit.black)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.lstat)
##
## Call:
##
## Residuals:
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.medv)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.all)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 6.439 on 492 degrees of freedom
cor(Boston[-c(1, 4)])
Entonces, por ejemplo, cuando "edad" es alta, hay una tendencia en "dis" a
ser baja, por lo tanto, en una regresión lineal simple que solo examina
"crim" versus "edad", observamos que los valores más altos de "edad"
están asociados con valores más altos de "crim", a pesar de que "age" en
realidad no afecta a "crim". Entonces "edad" es un sustituto de "dis"; "Age"
obtiene crédito por el efecto de "dis" en "crim".
d. ¿Existe evidencia de asociación no lineal entre alguno de los predictores
y la respuesta? Para responder esta pregunta, para cada predictor XX, ajuste
un modelo del formulario
Y=β0+β1X+β2X2+β3X3+ε.Y=β0+β1X+β2X2+β3X3+ε.
summary(fit.zn2)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.indus2)
##
## Call:
## lm(formula = crim ~ poly(indus, 3))
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.nox2)
##
## Call:
##
## Residuals:
##
## Coefficients:
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.rm2)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.age2)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.dis2)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.rad2)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.tax2)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.ptratio2)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.black2)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.lstat2)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
summary(fit.medv2)
##
## Call:
##
## Residuals:
##
## Coefficients:
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
Para "zn", "rm", "rad", "tax" y "lstat" como predictor, los valores p sugieren
que el coeficiente cúbico no es estadísticamente significativo; para "indus",
"nox", "age", "dis", "ptratio" y "medv" como predictor, los valores p
sugieren la adecuación del ajuste cúbico; para "negro" como predictor, los
valores p sugieren que los coeficientes cudráticos y cúbicos no son
estadísticamente significativos, por lo que en este último caso no es visible
ningún efecto no lineal.