Sei sulla pagina 1di 27

INTEGRANTES

Aroni Vilca Eder


Lecca Rafael Lillian
Quispe Condori Williams

Modelos
Lineales
Modelos Rango completo

Profesor: Luis Huamanchumo de la Cuba

Modelos Lineales

PROBLEMAS DE MODELOS RANGO COMPLETO


1. Comente: Adicionar variables predictores al modelo de regresin no reduce el
coeficiente de determinacin R2, en consecuencia, se puede incluir todas las
variables predictores posibles en el modelo.
Sol:
MODELO A :
MODELO B:
x1, x2, , xn
x1, x2, , xn, xn+1, xn+2, , xn+k ( k
variables explicativas adicionales)

2
1
1 2 = 1
2 2 = 1

SCT es constante en ambos modelos : = 1 1 + 1 () y = 2 2 +


2 (modelo B).
Por existir mas variables explicativas en el modelo B se tiene que :
1 2
1
2
1
1

1 2 2 2
con lo que podemos notar que al adicionar variables el coeficiente de
determinacin no se reduce sin embargo es importantante saber que adicionar
muchas variables no siempre ser lo mas adecuado ya que dependiendo d ela
relacin que exista en entre las variables esta pueden no adicionar valor y suele
ser mas costoso
2. Sea x1, x2, , xn una muestra aleatoria con media . Considere el modelo lineal
yi= + (xi - ) + i, i=1,n y los supuestos del MLC. Mostrar que el MELI de y
no estn correlacionados.
Sol:
3. Suponga que xi, yi y zi, i=1,n, son 3n observaciones independientes con
varianza comn igual a 2 y expectativas iguales a E(x i)=1, E(yi)= 2 y E(zi)=
1-2, i=1,n. Encontrar el MELI de 1, 2 y calcular la suma de cuadrados
residual.
Sol:
Sea la muestra aleatoria: x1, x2,, xn con densidad de probabilidad conjunta
depende del parmetro desconocido .
Como se estableci entonces = =1 xn (i) donde las constantes
deben ser determinadas.

Modelos Lineales

Sea = (1 ) y = (1 ) entonces: = =1 xn = x
Adems por ser insesgado ( ) = ( ) = ( ) = (ii)

( ) = ( )( ) = [ (x ( ))(x ( )) ] = ( ).

Luego para garantizar la solucin del ejercicio se debe cumplir ( ) = , por


consiguiente la condicin (ii) se logra cuando s =1.
Ahora planteado la funcin pertinente para poder minimizarla.
Minimizar
Sujeto: = 1
La solucin del problema es directa de aplicar tcnicas de optimizacin con
Lagrangiano:
b(, ) = ( 1)
= 2 = 0

= 2 1
Por otro lado la ecuacin:

=

1=0

1 = 2 1
Finalmente: =

1
1

Por lo tanto el MELI es =

1
1

, donde C es matriz varianza covarianza de

x.

En nuestro problema tenemos los parmetros 1 y 2 , debemos calcular el MELI


de cada uno , por lo expuesto anteriormente.

El MELI de 1 es 1 =

1 =

1
1

2
1n[
0
2
1 [
0

, done s=1

0
]
2

0
]
2

[ ..2 ]

Modelos Lineales

Anlogamente para el caso de 2 .

El MELI de 2 es 2 =

1
1

, donde C es la matriz de covarianza de Y.

Donde s=1 .

2 =

2
1n[
0
2
1 [
0

0
]
2

0
]
2

[ ..2 ]

= .

Nos piden la suma residual. Entonces creo que debemos plantear un modelo
con las variables implicadas en el problema.
Sea los vectores

1
2
X= .
.
[ ]

1
1
2
2
Y= .
,Z= .
.
.
.
[ ]
[ ]

Sea = - + / E( )= 0.
Si le tomamos esperanza cumple la condicin E(zi)= 1-2.
Entonces planteamos el modelo.
1
Z = [|] [ ] + .
1
Sea = , =[|] .
= +
Se sabe que:

= , donde es idempotente.
Ahora la suma de cuadrados residual.

= , aqu reemplazamos el por el Z nos queda:

= Z Z, Este sera la suma de cuadrados residual del modelo.

Modelos Lineales

4. Sea x1, x2, , xn una muestra aleatoria y R(nxn) su matriz de correlacin.


Suponga que ||=1, qu se puede concluir acerca de cov(xi,xj) para todo i,j.
Sol:
1

Si R es la matriz de correlacion entonces se cumple donde = (())2 :


= 1 1
=
|| = | | | || |

|| = ( ) 1 ( ) = 2n
=1

=1

Entonces se puede notar que cov(xi,xj)=0 i j adems cov(xi,xi)= 2


5. Sea x1, x2, , xn una muestra aleatoria con media y var(xi)=i2, i=1,n donde
>0 es conocido. Encontrar el MELI de .
Sol:
El criterio para seleccionar el MELI empieza por restringir a la clase de
estimadores posibles al que sea lineal en los datos y dentro de ellos uno que
sea insesgado y de menor varianza posible el cual solo requiere de conocer el
primer y segundo momento de la distribucin para ser construido
Sea la muestra aleatoria: x1, x2, , xn con densidad de probabilidad conjunta
que depende del parmetro desconocido .
Como se estableci entonces = 1
=0 xn (1) donde las constantes
deben ser determinadas.

Sea = (1 ) y = (1 ) entonces : = 1
=0 xn =
adems por ser insesgado ( ) = ( ) = ( ) = (2) y ( ) =

( )( ) = [ (x ( ))(x ( )) ]= (3) donde C es la

matriz varianza covarianza de x . Para que este problema tenga solucin se


debe cumplir que ( ) = luego la condicin (2) se logra cuando = 1.
Entonces debemos resolver:
Minimizar
Sujeto : = 1
La solucin del problema es directa de aplicar tcnicas de optimizacin con
Lagrangiano:

Modelos Lineales

b(, ) = ( 1)
= 2 = 0

= 2 1 .
Por otro lado la ecuacin:

=

1=0

1 = 2 1
1

Finalmente: = 1
1


Por lo tanto el MELI es = 1

Entonces en nuestro caso la muestra aleatoria x1, x2, , xn tiene densidad

1 2

)
2

conjunta con media 1n y cov(X)=(

0
1 2

Entonces s=1n
=

(1n)(

1 2

(1n)(

)(1

0
)(1n)

=1 xi
2

=1

=1 xi

=1

6. Sea y la variable dependiente y x(px1) el vector de variables explicativas.


Determine el modelo de regresin lineal sabiendo que xNp(,), y= cov(y,x) y
la varianza del trmino de perturbacin del mencionado modelos es 2.
(Establezca los supuestos que crea conveniente).
Sol:

En el problema tenemos los siguientes.

2
1
.
.

2
(, )
= . , . como una v. a, tambin = [ ], = (
)

(, )

.
.
[ ] [ ]

= ( ())( ())

= [

11

] (, ) =

Modelos Lineales

= [

(, )
]=[
] = [

(, )

Con este resultado comprobamos que con 1 = 11 es la nica manera de que exista el
modelo de regresin y adems 1 = 11

Por ello el modelo resulta


11 = 11 11 + 11

Sabiendo que xNp (,), y= cov (y) y la varianza del trmino de perturbacin del
mencionado modelos es 2 que ese es el supuesto

7. Si M es la matriz nxn que transforma las observaciones X(nxp) en desviaciones


con respecto a la media muestral. Encuentre qu relacin existe entre la suma
de cuadrados residual del modelo original Y=X+ y el modelo transformado por
M.
Sol:
Modelo A:
Y=X+ = = (y x ) (y x )
Modelo B:
MY=MX+M = (M)() = M=(I 1n.1n/n)
Considerando que el modelo tiene termino independiente :
M=(I 1n.1n/n) = entonces la =
8. Sea el modelo de regresin lineal poblacional Y = X + . Verifique que si
incorporamos una variable explicativa Z independiente de las variables
explicativas originales la bondad de ajuste del modelo, medido sobre la base
del coeficiente de determinacin R2, mejora. Comente el resultado.
Sol:
9. Si M es la matriz nxn que transforma las observaciones X(nxp) es desviaciones
con respecto a la media muestral. Encuentre la expresin matricial de la suma
de cuadrados explicada.
Sol:

Sea el modelo:

Modelos Lineales

Y=X +.
Tenemos a la matriz de datos X.

11
X=[
1

12 . .

X1

1
];

X2

1
2
.
=
.
.
[ ]

, = 1

Xn

Ahora denominamos a la Matriz Xc. donde sus componentes son las desviaciones respecto
a la media muestral

11 1

Xc = [
1 1

12 2

2 2

1 2 .
1 2 . . . . ..
1
.

] = Xnxp .

1
[

.
.

= X 1n
Finalmente:
Tenemos al
1

Xc = X 1n = X - 1n 1 = (In

)X

Entonces la matriz que transforma matriz de datos en desviaciones con respect a la media
es

M0 =(In

) , llamada tambin matriz de centralidad.

La expresin matricial de suma de cuadrados explicada es:


Utilizando el modelo :
Y=X +.
Al modelo pre multiplicamos M0 nos quedara de la siguiente manera
M0Y = M0X + M0 .. (I)
Y M0= x M0 + M0. (II).

Modelos Lineales

Multiplicando la Expresin (I) (II) miembro a miembro.


Entonces tenemos:
Y M0 M0Y = x M0 M0X + M0 M0 + M0 M0X + x M0 M0 ,
Adems M0 M0X = x M0 M0 = 0 y Se sabe que = M0.
Y M0 Y = x M0 X + M0 M0 .(III)
SCT = SCE + SCResidual

(IV)

Haciendo la equivalencia entre la expresin (III) (IV) tenemos que la forma matricial del
SCE es igual a x M0 X , siendo M0 la matriz de centralidad.
10. Sea el vector aleatorio (y, x1, , xp) cuya matriz de covarianzas es:

2 u '
V

u
donde es una matriz definida positiva de orden p. Calcule la lnea de regresin
y el coeficiente de correlacin mltiple entre y y las variables explicativas.
Sol:
11. Sea el vector aleatorio (y, x1, , xp) cuya matriz de covarianzas es:
2 u '
V

u
donde es una matriz definida positiva de orden p. Demuestre que el coeficiente
de correlacin mltiple entre y y x1, x2, , xp es: u-1u/2.
Sol:
Para demostrar debemos tener en cuenta los siguientes teoremas
2

Primero, teorema 1: max

( )

= 1

Ahora, para demostrar el teorema 1 debemos tener en cuenta el siguiente


teorema max
0

Entonces, max
0

= 1 , donde 1 es el valor caracterstico mximo de A.

= max
0

()( )

= max
0

1 1

2 2 2 2
1 1

2 2

Modelos Lineales
1

Haciendo un cambio de variable = 2 entonces,


1

max

2 2

= 1 .. (i)
1

El cual es el valor caracterstico mximo de 2 2


1

( 2 2 ) = min{ (2 ) , ( 2 )}
Tomando la Tr.
1

(2 2 ) = ( 1 ) = 1 = 1 . (ii)
Ahora de (i) y (ii)
1

max

2 2

= 1

Ahora que hemos demostrado el teorema1 podemos hallar el coeficiente de


correlacin mltiple entre y y x1, x2, , xp.
2
(
= max((, ))2
1 2 )
0

= max
0

( ((, ))

()( )
2

( )
1
= max 2 =
0
2
Por tanto queda demostrado que el coeficiente de correlacin mltiple o correlacin
mxima queda como:
2
(
=
1 2 )

1
2

12. Sea el modelo lineal general de trmino constante sobre p-1 variables
explicativas. Considere un conjunto alternativo de variables explicativas Z=XP
tal que P es una matriz no singular. Probar que los residuos obtenidos con
ambas variables explicativas son los mismos.
Sol:

Modelos Lineales

Sea el Modelo
Y=X +.
Y = 0 + 1X1 + 2X2 +................. + p+1Xp+1 +
Expresando matricialmente.

1
2
11
.
. =[
1
.
.
[ ]

1
0
2
12 . . 1 1
.

] .
+ .
.

.
.
.
[1 ]
[ ]

El conjunto alternativo de represores. Determinando el modelo.


Y = Z + .
Adems. Z = XP; |P| 0. .. (i)
Ahora por una de las propiedades de los estimadores de mnimos cuadrados
tenemos:

x = MxY , donde Mx es la matriz idempotente equivalente a ( I - x(xx)-1x )


Por lo que tenemos:

x = (I - x(xx)-1x)Y

.. (ii)
Anlogamente tenemos para Z

z = (I - z(zz)-1z)Y

(iii)

Remplazando (i) en (iii)

z = ( I XP(PXXP)-1PX)Y
= (I X(PP-1)XX(P-1P)X)Y
= (I - X(XX)-1X)Y
= (Mx)Y = x
Para este caso particular no es relevante la presencia del termino constante, Asi con todo lo
expuesto podemos decir que :
Los Residuos obtenidos por ambos represores ( Z=XP X ) son los mismos .

Modelos Lineales

z = x.

13. Sea el modelo de regresin lineal poblacional Y = X + con trmino


independiente y p+1 variables explicativas. Si consideramos un conjunto de
variables explicativas alternativo Z=XP donde X es la matriz de datos
muestrales original y P una matriz no singular. Pruebe que el ajuste del modelo
se mantiene. (Sugerencia: Considere la bondad de ajuste del modelo como
R2=SC Regresin/SC Total).

Sol:
Y=XB + .
Y = 0 + 1X1 + 2X2 +................. + p+1Xp+1
1
2
11
.
. =[
1
.
.
[ ]

1
0
2
1
12 . . 1
.

] .
+ .
.

+2
.
.
.
[+1 ]
[ ]

El conjunto alternativas de variables explicativas.


Z =XP, |P| 0. . (i)
O sea el modelo seria:
Y=Z+

Sabemos que:

x = MxY = (I - x(xx)-1x) Y . (ii)


z = MzY = (I - z(zz)-1z) Y .(iii)
Donde M es una matriz idempotente.
Reemplazando (i) en (iii)

Modelos Lineales

Tenemos :

z = ( I XP(PXXP)-1PX)Y
= (I X(PP-1)XX(P-1P)X)Y
= (I - X(XX)-1X)Y
= (Mx)Y = x
Como z = x

z. z = x. x ( )

Debemos Demostrar R2x = R2z . En este problema es importante la presencia del trmino
constante.

R2 x =

R2z =

2
)

x.x
(
=
1
=
1
2

=1-

=1-

z. z
2

Por lo demostrado en la relacin ()

R2x = R2z con esto podemos decir que cuando se un conjunto alternativo de
regresores el ajuste del modelo se mantiene.

14. Si (1) se distribuye como (, 2 I), donde X es nx(k+1) de rango k+1<n y


()()
= (0 , 1 ) donde = ( )1 , 2 =
. Demostrar:

a) se distribuye como +1 (, 2 (X X)1 ).


b) 2 /2 se distribuye como 2 ( 1).
c) 2 son independientes.

Prueba.
a)
Hiptesis
ynx1 (, 2 I) , Ran(X) = K+1
()()
= (0 , 1 ) , = ( )1 , 2 =
.

Modelos Lineales

Tesis:
+1 (, 2 (X X)1 )
Sol:
P.H
Decimos que es el estimador de mnimos cuadrados que es igual a ( )1 .
Entonces definimos una matriz A k+1xn = ( )1 un matriz de constantes
El = Ay, Ahora por por una transformacin lineal de y (una variable aleatoria
normal), entonces se distribuye como una normal.
Sabiendo que es una normal. Calculamos los parmetros de la variable aleatoria.
Ahora sabemos que ( ) es una matriz no singular.
1
1
E () = E(Ay) = ( ) (()) = ( ) = = .
1
1
1
1
Var()=Var(Ay)= A var(y) A = ( ) (2 I) (( ) ) = 2 ( ) ( )( )

= 2 ( )
Luego despus de calcular los parmetros.
+1 (, 2 (X X)1 )

b)
Hiptesis:
ynx1 (, 2 I) , Ran(X) = K+1 ,
()()
= (0 , 1 ) , = ( )1 , 2 =

Tesis:
2 /2 se distribuye como 2 ( 1).
Sol:
Por H.p
Tenemos 2 =

()()

,.. (i)

Modelos Lineales

Dando forma al expresin en el numerador tenemos:


( )( ) = .. (ii)
Entonces tenemos ahora :
Reemplazando (i) (ii) en la siguiente expresin y tenemos

2

=
2
2
Ahora nosotros sabemos que

=M , donde M es una matriz idempotente, simtrica igual a (I X(XX)-1X)


Tomando:
E () = E((M)( M)) = (MM) = M
E () = E(tr(M)) = E(tr (M)) = tr(ME())= tr(M2 ) = 2 () ..(iii)
Donde Xnx(k+1) .
Analizando tr(M) = tr (I X(XX)-1X) = Tr ( In ) - Tr(X(XX)-1X) =
= Tr ( In ) - Tr(Ik+1) = n ( k+1) = n-k-1. .(iv)
Reemplazando (iv) en (iii)
E () = 2 .(n-k-1).

De aqu

2 = 1 , es estimador insesgado de 2

Ahora podemos decir con mucha ms claridad que:

2
2

M
2

Se sabe que por supuestos de MLC el N (0, 2 I),


v=

, es normal porque es una transformacin lineal de una variable aleatoria

normal. N (0, I) , y M es idempotente por lo que :

M
2

X2(ran(M)) , pero ran(M) = tr(M)= n-k-1 ,

X2(n-k-1)
2
Finalmente

2
2 X2(n-k-1).

Modelos Lineales

c)
Hiptesis
ynx1 (, 2 I) , Ran(X) = K+1

1
() ()
= (0 , 1 ) , = ( ) , 2 =

Tesis
2 son independientes.

Prueba.
Tenemos que :
=M , adems M es una matriz idempotente, simtrica igual a (I X(XX)-1X)
Donde tr(M) = n-k-1 . Demostrado en el tem b).
Adicionalmente sabemos que H = X(XX)-1X donde esta matriz tambin es simtrica
e idempotente.
Ahora utilizamos la siguiente expresin en donde est presente el
1

2 ( )( )

Por h.p
1
1
= ( ) = ( ) ( + )
1
= ( ) .
1
2
1
2
1
2

(( ) )(( ) )
1

( ( ) )(( ) )
1

, H=( ) .
1

Se sabe que N (0, I) , H idempotente,


1
2

( ( ) ( ) ) = 2 ( ) = 2 ()

( ) X2(k+1)

Modelos Lineales

Demostrado anteriormente que:


( 1)

= 2 X2(n-k-1) ,

Y con estas dos formas cuadrticas cada una distribuida una X2.
Realizamos esta equivalencia.

M = (M)(M)

H = (H)(H).

Con esto si demostramos que ( M ) (H ) son independientes

M H son independientes.

Ahora (M ) (H ) son normales debido a que son transformaciones lineales de


una variable aleatoria normal.

Entonces creamos un vector aumentado

, Z es normal por ser una transformacin lineal de .

] = [ ]
Z= [

H
Nos centramos ahora en la matriz de covarianza de Z.

Cov (Z) = Cov ([ ] ) = [ ]I[ | ] = [

Pero sabemos que MH = 0.


Cov (Z) = [
decir que

0
] , por propiedades de la normal cov(xi,xj) = 0 ij , podemos
0

Modelos Lineales

(M ) (H ) son independientes

M H son independientes.
Finalmente
Como las formas cuadrticas estn en funcin de las variables aleatorias 2
Y como estas son independientes.
Los estimadores 2 son Independientes.
15. Si (1) se distribuye como (, 2 I), donde X es nx(k+1) de rango k+1<n,
demostrar que la = . Hallar su esperanza.
Sol:
Hip: (1)~2 (, 2 I) , X es nx(k+1) de rango k+1<n
Tesis: =
Dado (1)~2 (, 2 I)

Y = X +
Modelo estimado : Y = X +
= (y y)(y y)
= y y y y . y y = y y
= y y y y

= y y () ( Y = X + )=y y- xx
E( ) = ( Y X ) ( Y X )=y-x(xx)xy=(I- x(xx)x)y
idempotente y de rango n-k-1
E() = E[(My)(My)] = ( )
E() = traz(2 M) + ( X)M(X)= 2 (n k 1)

donde (I- x(xx)x) es

16. Dado un modelo de rango completo (sin intercepto), conformado por n


observaciones y k variables exgenas, es particionado de tal forma que la
primera contenga las s primeras columnas de la matriz de datos (s<k).
Analizar si la covarianza del vector de parmetros estimado que resulta de
calcular un modelo reducido con la primera particin es mayor a la covarianza
de los parmetros estimados de la primera particin en el modelo completo.
Justificar cada paso.

Modelos Lineales

Sol:
Dado el modelo sin intercepto de rango completo. O sea no hay termino
independiente en el modelo.
La matriz de datos X
11
X=[
1

12 . . 1

] = [ |() ] = [1 |2 ].

Y = X + = [1 |2 ] [ 1 ] +
2
Y = X11 + 2 2 +
Ahora por cuestiones del problema necesitamos calcular cov (1 ). En el modelo
completo.

+
Y=

Y = X11 + 2 2 +

.. (i)

Sabemos Mx2 = In X2(X2.X2)-1X2


Ahora pre multiplicamos por Mx2 , a (i) .
Mx2Y = Mx2. X11 + Mx2

, Donde Y* = Mx2Y

, X*= Mx2. X1 , = Mx2


.

Sea el modelo equivalente. Y*= X*1 +


1 = ( )1

, ahora reemplazando X*= Mx2. X1 . Quedara lo siguiente:

1 = (1 M2 1 )1 1 M2

en el modelo completo. Adems var(y) = 2 M2 ,

Ahora calculando:
La cov (1 ) = (1 M2 1 )1 1 M2 )var (y) (1 M2 1 )1 1 M2 )
= (1 M2 1 )1 1 M2 ) 2 M2 M 2 1 (1 M2 1 )1
= 2 (1 M2 1 )1 (1M2 1 )(1 M2 1 )1
= 2 (1 M2 1 )1.I

Cov (
) = 2 (1 M2 1 )1 .

Modelos Lineales

Ahora trabajando en el modelo reducido con la primera particin 1 :


1

Y = X11 + del modelo podemos decir que 1 = ( 1 1 ) 1

) = 2 ( 1 1 )
Y la cov (

Ya hemos calculado las covarianza del parmetro del modelo reducido y del modelo
completo.
Para justificar lo expuesto en el problema, vamos hacer una diferencia de
covarianzas.
1

cov (1 ) - cov (1 MCO) = 2 ( 1 1 ) 2 (1 M2 1 )1

= 2 ( 1 ( M2 )1 )1
Ahora la matriz 1 ( M2 )1 es definida positiva. Esto implica que
1 ( M2 )1 > 0.
Finalmente
2 ( 1 ( M2 )1 )1 > 0

Cov (1 ) - cov (1 MCO) > 0

Cov (1 ) > cov (1 MCO)

Con esto demostramos que la covarianza del parmetro de la primera particin en


el modelo reducido es mayor que en el modelo completo.

17. En un modelo de rango completo, con k variables independientes y n


observaciones, el modelo planteado es 1 = (+1) +1 + 1 . Se multiplica
a la matriz de datos X por una matriz idempotente A de tal forma que quede
centrada respecto a la media. Encontrar la forma de la suma de cuadrados
explicada (SCE) , del modelo que se forma con esta nueva matriz de datos
centrada, en funcin de la matriz de covarianza muestral de las variables

Modelos Lineales

independientes originales ( ) y el vector de covarianzas de y con las xs


originales. Justificar cada paso.

Sol:
Dado el modelo 1 = (+1) +1 + 1 .se tiene :
( ) = 0 +1 1 +2 2 + + +i
( ) = 0 + 1 1 + + + +1 (1 1 ) + +1 ( ) +i
Hacemos = 1 1 + + + 0
( ) = +1 (1 1 ) + +1 ( ) + i
1
1 1 1

( ) = (

1 1 1

) ( ) + 1

(1)

= (1 ) ( ) + 1
(1)

Modelo estimado

= (1 ) ( ) = (1 )
(1)

SCE==1( )2=(1)
( ver problema numero 20)

=
=

=1( )( )
1

= =( )

)
=1( )(
1

= =

Adems se puede expresar

(1)
= ( )1

(1)
= ( )1 entonces

Modelos Lineales

SCE= ( )1

18. Dado el modelo:

Demostrar:

1
2
.
y= .
.
.
[ ]

1
1
.
x= .
.
.
[1

1
2
.
.
.
.
]

= [ 0]
1

Demostrar:
Var (0 ) =

( )

Var (1 ) =

2
( )2

Sol:
Para demostrar los tems hacemos los siguientes clculos previos
XX = [


]
2


, Xy = [ ] ,

; cov (0 , 1 ) = (
.
)2

Modelos Lineales

(XX)-1

1
2 ( )2

2
[
] .. (i)

Tenemos nuestro estimador particionado de la siguiente manera: = [ 0 ].


1
Sabemos que (, 2 (X X)1 ) demostrado anteriormente en el problema 14
parte a)
Hallamos la covarianza de .
(0 ) (0 , 1 )

] = 2 ()-1
Cov ( ) = cov ([ 0 ]) = [
1
(0 , 1 ) (1 )
Reemplazando (i) en
Cov ( )= 2 ()-1 =

2 ( )

2[

2
]

2 2

( )2


( )
] = [
2

2
2

( )2

( )2
2

( )2

Simplificando queda de esta manera:


2 2

( )

=[

( )

( )

( )

]=[

(0 ) (0 , 1 )
]
(0 , 1 ) (1 )

Concluimos por equivalencia de matrices los siguiente:


Var (0 ) =

( )

Var (1 ) =

2
( )2

; cov (0 , 1 ) = (
)2

2
19. Respecto al coeficiente de correlacin mltiple (
:
1 2 )

a) Expresarlo en funcin del determinante de la matriz de varianza y


covarianza (esta matriz contiene la variabilidad de , 1 , 2 , ); el

Modelos Lineales

determinante de la matriz de varianza y covarianza (esta matriz contiene


la variabilidad de 1 , 2 , ); y la varianza de y ( 2 ).
2
b) Analizar el (
cuando se hacen transformaciones lineales a y y a
1 2 )
1 , 2 , y concluir si el coeficiente de correlacin mltiple es invariante o
no.
Sol:
2
A) Respecto al coeficiente de correlacin mltiple (
:
1 2 )
2
Se sabe que (
=
1 2 )

= [

2
1

se puede formar

1
]; Esto para el vector aleatorio [ ]
1

Por propiedad si = [

11
21

12
] entonces = 22 11 12 1
22 21
22

= 2 1 siendo 2 1 una constante


1

Entonces = ( 2 ), dividimos entre 2



2

= (1

2
) Pero sabemos que (
=
1 2 )

Remplazando

2 ||

2
= (1 (
)
1 2 )

Por lo tanto el coeficiente de correlacin mltiple quedara de esta manera.


2
(
1 2 )


= 1 2
||

B) Hacemos las siguiente transformaciones


= Tambin =
Remplazando en la frmula del coeficiente de correlacin mltiple
2 , =

.()

Modelos Lineales

Ahora hallamos cada componente de ()


2 = () = 2 () = 2 () = 2 2 .. (1)
1 = ( ) = (, ) = B(2)
= (, ) = (, ) = . (3)
= (, ) = (, ) = . (4)
Remplazando (1), (2), (3) y (4) en ()
2 , =
2 ,

2 , =

(B)1

Como B es no singular

2 2
1 1

( )

2
U1
2

2
= ,

Por lo tanto es invariante a las transformaciones lineales

20. Sea:

(+1)

1 11
1 12
=(
:
:
1 1

1
2
)

1
2
=( : )

0
)
= (
(1)(1)

El (1) contiene los parmetros correspondientes a x1,x2,,xk. A partir de ello se


tiene el modelo = + . Demostrar que a partir de la suma de cuadrados
residual de este modelo, se puede llegar a la siguiente expresin:

= ( )2 (1)

=1

Donde:
11 1
12 1
= (
:
11

1
2
)

Sugerencia: Durante el desarrollo de puede demostrar y usar: = 0 + (1) ,

Modelos Lineales

Sol:
= 0 + 1 1 + 2 2 + + +
= 0 + 1 1 1 1 + 2 2 2 2 + + +
= 1 (1 1 ) + 2 (2 2 ) + + ( ) + + 1 1 + + + 0
Hacemos = 1 1 + + + 0
Ahora = + 1 (1 1 ) + 2 (2 2 ) + + ( ) +

1
.
1
.
. =[
1
.
[ ]

= (

1
.
.
1 .
.

] . + .
.
.
[ ] [ ]

)( ) +
(1)

Ahora en la ecuacin normal ( ) =


[

1
1

) = [ ]
] (1 ) (

(1)

11
1
1
] [ ] = [ ]

1
(1)

11
01

01
][
]=[
]



(1)

11
01

01
] [ ] = [
] Entonces 1 1 = , por ello =


(1)

(1) = Ahora bien, = 0 + (1) (*)


como tenemos un modelo con termino independiente se cumple
( 2 ) = ademas realizaremos la siguiente particin

Modelos Lineales

(+1) = (1 1 ), y

0
) entonces :
= (
(1)(1)

2 = ((0)
(1)) [ ] 2

(0)
1 + (1) 1 reemplazado lo hallado en(*)y Resolviendo a expresin se

demuestra

(1)
(

) = (1)

Potrebbero piacerti anche