P. 1
Econometría - Apéndice C

Econometría - Apéndice C

5.0

|Views: 376|Likes:
Published by Insumo Crítico

More info:

Published by: Insumo Crítico on Sep 13, 2010
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

10/15/2014

pdf

text

original

APENDICE C

ENFOQUE MATRICIAL EN EL MODELO DE REGRESION LINEAL

En este apendice se presenta el modelo clasico de regresi6n lineal de k: variables (Yy X2, X3, .•. , Xk) en notaci6n de algebra matricial. Conceptualmente, el modele de k variables es una extensi6n 16gica de los modelos de dos y tres variables considerados hasta ahora en este texto. Por consiguiente, en este capitulo se presentan muy pocos conceptos nuevos a excepci6n de la notaci6n matricial. I

Una gran ventaja del algebra matricial sobre la escalar (algebra elemental que trata con escalares 0 nurneros reales) es que proporciona un rnetodo compacto de manejo de modelos de regresion, que involucran cualquier numero de variables; una vez que el modelo de k variables ha sido formulado y resuelto en notaci6n matricial, la soluci6n se puede aplicar a una, dos, tres 0 cualquier numero de variables.

C.1 MODELO DE REGRESION LINEAL DE kVARIABLES

Si generalizamos los model os de regresi6n lineal de dos y tres variables, el modele de regresi6n poblacional de k variables (FRP) que contiene la variable dependiente Y y k - 1 variables explicativas X2, X3, ..•• Xk puede escribirse asi:

donde f31 = la interseccion, 132 a 13k = coeficientes parciales de pendientes, u = terrnino de perturbaci6n estocastica e i = z-esima observacion, siendo n el tamafio de la poblaci6n. La FRP (C.I.I) debe interpretarse en la forma usual: la media 0

1 Los Iectores que no est en familiarizados con eI algebra matricial deben revisar el apendice B antes de continuar. EI apendice B proporciona las bases del algebra matricial requeridas para comprender este capitulo.

898

APENDICE C ENFOQUE MATRICIAL EN EL MODELO DE REGRESION LINEAL 899

el valor esperado de Y condicionado a los valores fijos (en muestreo repetido) de X2, X3, ... , Xb es decir, E(Y I X2i, X3i,··" XkJ

La ecuaci6n (C.l.I) es una expresi6n abreviada para eI siguiente conjunto de n ecuaciones sirnultaneas:

Y1 ;::: f31 + f32X2 I. + f3:X31 + + f3kXkJ + UI

Y2 ;::: f31 + f3~2 2 + 13732 + + f3kXk 2 + U2

(C.1.2)

EI sistema de ecuaciones CCl.2) puede escribirse en una forma alterna aunque mas ilustrativar'

~ 1 XII X.11 Xkl /31 UI
y? 1 Xn X3? Xk1 /32 U1 ,
= + (C.1.3)
~, 1 X2"a X301 Xk!1 !3k un
Y== X /3 + u
n xl nxk kxl nxl donde y;::: vector columna n xl, de observaciones sabre la variable dependiente Y

X == matriz n x k, que contiene n observaciones sobre las k ~ 1 variables X2 a Xb la primera columna de numeros 1 representan el termino de la intersecci6n. (Esta matriz se conoce tambien como 1a matriz de informacion) .

fJ ;::: vector columna k x 1, de los parametres desconocidos f3v f32"'" 13k u s vector columna n x 1, de n perturbaciones u,

Utilizando las reglas de multiplicacion y adici6n de matrices, eI lector debe verificar que los sistemas (c. 1.2) y (C.1. 3) sean equivalentes,

El sistema CCl.'3) es conocido como la representacion matricial del modelo de regresion lineal general (de k variables). Puede escribirse en forma mas compacta como

(C.1.4 )

Donde no haya confusi6n sobre las dirnensiones u 6rdenes de la matriz X y de los vectores y, 13 y u.Ta ecuaci6n (CIA) puede escribirse simplemente como:

y = XI3 + u

(C.1.5)

Como ilustraci6n de la representaci6n matricial, considerese el modele de dos variables consumo-ingreso presentado en el capitulo 3, a saber, Yi;::: f31 + f32Xi

1 Siguiendo la nota cion introducida en el apendice B, representaremos los vectores por letras minusculas en negrilla y las matrices par Ietras rnayusculas en negrilla,

900 APENDICE c. ENFOQUE MATRICIAL EN EL MODELQ DE REGRESION LINEAL

+ u., donde Yes el gasto de consumo y X es el ingreso. Utilizando la informacion dada en la tabla 3.2, se puede escribir la formulaci6n matricial asi:

70 1 80 u1
65 1 100 u2
90 1 120 uJ
95 1 140 u4
110 1 160 [~:] + u"
=
115 1 180 U6 (C. 1.6)
120 1 200 u7
140 1 220 Us
155 1 240 u9
150 1 260 Uw
y = X Il + u
10 x 1 10x2 2x1 10 x 1 Como en los casos de dos y tres variables, el objetivo es estimar los parametres de la regresion multiple (C.l.1) y tener inferencias sobre ellos a partir de la informacion disponible. En la notacion matricial esto equivale a estimar Il ya inferir sobre ella. Para fines de estimacion, se puede utilizar el rnetodo de minimos cuadrados ordinarios (Mea) 0 el metodo de maxima verosimilitud (MV). Pero como se anoto antes, estos dos metodos producen valores estimados identicos de los coeficientes de regresion.' Por consiguiente, se limitara la atencion al metodo de MCt).

C.2 SUPUESTOS DEL MODELO CLAslCO

DE REGRESION LINEAL EN NOTACION MATRICIAL

Los supuestos en los cuales se basa el modele clasico de regresi6n lineal estan dados en la tabla C.1; se presentan en notaci6n escalar y en notacion matricial. El supuesto 1 dado en (C.2.1) significa que el valor esperado del vector de perturbaciones u, es decir, de cada uno de sus elementos, es cero. Mas explicitamente, E(u) = 0 significa

U1 E(uj) 0
E u2 E(u2) 0
= =
(C.2.I)
u" E(u.) 0 _1 La prueba de que esto es asf en el caso de k variables, puede encontrarse en las referencias de pie de pagina dadas en el capitulo 4.

APENDICE C: ENFOQUE MATRICIAL EN EL MODELO DE REGHESION LINEAL 901

Notaci6n escalar

TABLA C.1 SUPUESTOS DEL MODELO CLASICO DE HEGRESION LINEAL

Notaci6n matricial

1. E(u;) '" 0 para cada i

2. E(uj,u)=O i,cJ

= cr2 i = j

3. X2, X3, .. .X, son fijas a no sstocasticas

4. No hay retacion lineal exacta entre variables X; es decir, no hay multicolinealidad

5. Para la prueba de hip6tesis u, ~ N(O, cr2)

(3.2.1)

(3.2.5) (3.2.2)

(7.1.7)

(4.2.4)

1, E(u):; 0

donde u yO son vectores columna n x 1, siendo o un vector nulo

2. E(uu')= 0-21

donde I es una matriz de identidad n x n

3. La rnatriz X, n x k, es no estocastica: es decir, consisteen un conjunto de numsrcs tijos

4. EI rango de X es p(X). '" k, donde kes el numere de columnas en X y k es manor que el numero de observaciones, n

5. EI vector u tiene una distribuci6n normal multlvariada, es decir, U - N(O, (T21)

El supuesto 2 [ecuaci6n (C.2.2)] es una forma compacta de expresar 105 dos supuestos dados en (3.2.5) y (3.2.2) bajo notaci6n escalar. Para ver ester se puede escribir

u"

donde u' es la transpuesta del vector columna u, 0 vector renglon, Efectuando la multiplicacion, se obtiene

B(uu') = E

Aplicando el operador de valor esperado E a cada elemento de la matriz anterior, se obtiene

E(u,2) B(uu') == E(u~u,)

E(u.uz) E(u~)

(C.2.2)

E(up,,) E(u1u,,)

E(u"uJ

E(u~)

Debido a los supuestos de homoscedasticidad y de no correlaci6n serial, la rnatriz (9.2.2) se reduce a

902 APENDICE c: ENFOQUE MATRtCIAL EN EL MODELQ DE REGRESION LINEAL

E(uu') ==

100 0

o 1 0 0

= (72

000

donde I es una matriz identidad N x N.

La matriz (C.2.2) [y su representacion dada en (C.2.3)] se denomina matriz de varianza-covarianza de las perturbaciones u ; los elementos sobre la diagonaJ principal (que van de la esquina superior izquierda a la esquina inferior derecha) de esta matriz dan las varianzas. y los elementos por fuera de la diagonal principal dan las covarianzas." Observese que la matriz de varianza-covarianza es simetrica: los elementos par encima y por debajo de la diagonal principal son reflejos unos de los otros.

EI supuesto 3 establece que la matriz X de n x k es no estocastica: es decir, consta de nurneros fijos. Como se dijo anteriormente, el analisis de regresi6n es de regresion condicional, es decir, condicional a los valores fijos de las variables X.

El supuesto 4 establece que la matriz X tiene rango columna completo igual a k, el nurnero de columnas en la matriz. Esto significa que las columnas de la matrizX son linealmente independientes; es decir, no hay relacion lineal exacta entre las variables X. En otras palabras no hay multicolinealidad. En notacion escalar esto es equivalente a decir que no existe un conjunto de numeros AI, A2, ..• , Ak = 0 no todos iguales a cera tales que [vease (7.1.8)]

(C.2.4)

donde XI; = 1 para todo i (para dar cabida a 1a columna de rnirneros 1 en la rnatriz X). En notaci6n matricial, (C.2A) puede estar representada par

i\'x = 0

(C.2.S)

donde }t..' es un vector renglon de 1 x k y x es un vector columna de k x 1.

Si existe una relaci6n lineal exacta tal como (C.2A), se dice que las variables son colineales. Si, par otra parte, (C.2A) se cumple solamente si Al = A2 = A3 = ... = 0, entonces se dice que las variables X son linealmente independientes. Una raz6n intuitiva para el supuesto de no multicolinealidad se dio en el capitulo 7. Se analizo mas a fonda este supuesto en el capitulo 10.

4 Por definicion, la varianza de u, = E(ui - E(u)J2 y la covarianza entre u, Y ~l} = E[tl, - E(u,)][u} - E(IlJ). Pero debido al supuesto E(uJ = 0 para cada i, se tiene la matriz de varianza-covarianza (C.2.3).

APENDICE C: ENFOQUE MATRICIAL EN EL MODELO DE REGRESION LINEAL 903

C.3 ESTIMACION MCa

Para obtener el estimado Mca de ~, se escribe primero la regresi6n muestral de k-variables (FRM):

.............._ ....

1'; = /31 + [32Xli + {3oX,,; + ... + [3kXU + u;

(C.3.1)

la eual puede ser escrita en forma mas compacta en notaci6n matricial como:

y=X~+u

(C.3.2)

y enforma matricial como

y

n

~ A
[3\ u\
/32 + U2
A
13k U"
t3 + u
kxl nxl (C.3.3)

1 XII X31 1 Xn X32

y = nx 1

X nxk

don de ~ es un vector columna de k elementos compuesto por los estimadores Mca de los coeficientes de regresi6n, y donde u es un vector columna de n x 1 can n residuos.

Como en los modelos de dos y tres variables, en el caso de k variables los estim adores Mca se obtienen minimizanclo

(C.3.4)

clonde LU; es la suma de residues al cuadrado (SRC). En notaci6n matricial, esto equivale a minimizar 6'6 puesto que

u'U = [UI

(C.3.5)

Ahora, de (C.3.2), se obtiene

11 = y-XJ3

(C.3.6)

Par consiguiente,

li'u = (y - X~)'(y - X~)

= y'y - 2~'X'y + ~'X'X~

(C.3.7)

904 APENDICE C ENFOQUE MATRICIAL EN EL MODELO DE REGRESION LINEAL

doride se .hace uso de las propiedades de la transpuesta de una matriz, a saber, (X 13)' = WX'; y 12uesto que WX'y es un escalar (un nurnero real), es igual a su transpuesta y'X 13.

La ecuaci6n (C3.7) es la representaci6n rnatricial de (C.3.4). En notaci6n escalar, el metoda MCO consiste en estirnar /31' i32"'" 13k de tal manera que Iet; sea 10 mas pequefio posible. Esto se logra diferenciando parcialmente (C3.4) con respecto a PI' /32>"" /3k e igualando a cera las expresiones resultantes, Este proceso produce k ecuaciones sirnultaneas con k incognitas. que son las ecuaciones normales de la teorfa de minimos cuadrados. Como se muestra en el apendice CA, secci6n CA.I , estas ecuaciones son las siguientes:

n~l + fi1LX2i + Pl L x, + ... + Pk"LXh = IY.

iJILX1, + P1LX;, + fi,LX2,X'i + + fikLXuXk' = L X2iY,

fi, I X1i + tc: x, x, + fiJ I x:, + + ft, I XJiXh = L Xli¥;

(C.3.8)5

En forma matricial, la ecuacion (C3.8) puede representarse de la siguiente rnanera

n

LX2i LX]

21

IXJiXl,

IX,,.

IX1,X"

IX;,

LX ..

IX1,Xki IX3iX.i

/3, 1 1 1 ~
132 XlI X12 XlII Y2
133 = Xli X.12 XlII Y,
.....................
~ Xu Xu x.,
13k Y"
13 XI y
(C.3.9) IXk,X3,

(X'X)

o en forma mas compacta, como

(X'X)(3 = XJy

(C.3.10)

N6tense las siguientes caracterfsticas de la matriz (X'X): 1) Proporciona las sumas simples de cuadrados y productos cruzados de las variables X, una de las cuales es el termino interseccion que toma el valor 1 para cada observaci6n. Los elementos sabre la diagonal principal dan las sumas simples de cuadrados y aquellos que no estan en la diagonal principal dan las sumas simples de productos cruzados (por simples se quiere decir que no estan en las unidades

5 Estas ecuaciones pueden recordarse Iacilmente. Se ernpieza con la ecuacion Y; ~ P1 + fi.;x2i + fj,x3i + ... + f30'ki' Sumando los n val ores en esta ecuaci6n se obtiene la primera ecuaci6n de (C.3.8); multiplicando esta por X2 en ambos lados y surnando sabre las n se obtiene la segunda ccuaci6n; multiplicando esta por X, en ambos lados Y surnando sobre las n se obtiene la tercera ecuacion, y ~si s.!lce~i~amente. AA_prop6sito, observese que a partir de la primera ecuacion en (C.3.S) resulta f31 __ y _ f32X2 - ... _ f3kXk [vease (7.4.6)].

Una ilustracten

APENDICE C: ENFOQUE MATRICIAL EN EL MODELO DE REGRESI6N LINEAL 905

originales de medicion). 2) Es sirnetrica puesto que el producto cruzado entre X2i y X3i es el mismo que entre X3i Y X2,. 3) Es de orden (k x k), es decir, tiene k renglones y k columnas.

En (C.3.10), las cantidades conocidas son (X'X) y (X'y) eel producto cruzado entre las variables Xyy) y la incognita es ,~. Ahora utilizando algebra matricial, si la inversa de (X'X) existe, es decir, ocxr', entonees premultiplicando ambos lados de (C.3.1O) por esta inversa, se obtiene

(X'Xtl(X'X)~ = (X'X/I X'y

Pero, dado que (X'X)-l (X'X) = I es una matriz identidad de orden k: x k, se obtiene

IP = (X'Xtl X'y

o

rc.s.m

La ecuaci6n (C.3.11) es un resultado fundamental de la teoria MCO en notaci6n matricial. Muestra la forma como el vector ~ puede ser estimado a partir de la informacion dada. Aun cuando (C.3.11) se obtuvo de (C.3.9), esta puede obtenerse directamente de (C.3. 7) diferenciando u'u can respecto all. La prueba se cia en el apendice CA, seccion CA.2.

Como ejemplo de los rnetodos matriciales ciesarrol1ados hasta el momento, se analiza nuevamente sobre el ejemplo consumo-ingreso del capitulo 3. cuya infermaci6n se reproduce' en (C.1.t?). Para el caso de dos variables se bene que

XI X

x: ~[L:' ~~;l

X,,/

y

[1 ,1 1 .. · 1 1

X'y=

X X X ···X

1 2.3 11

y.

906 APENDICE c. ENFOQUE MATRICIAL EN EL MODELO DE REGRESION LINEAL

Al utilizar la informacion dada en (C.1.6), se obtiene

x x _ [10 1700]

- 1 700 322 000

y

X' - [ 1 110] Y - 205 500

Haciendo usa de las reglas de inversion de matriz dadas en el apendice B, pue-

de verse que la inversa de 1a matriz (X'X) anterior es

X'X-I = [ 0.97576 -0.005152

-0.005152] 0.0000303 •

Por consiguiente,

~ == [/31] = [ 0.97576

f32 -0.005152

= [24.4545]

0.5079

-0.005152][ 1 110] 0.0000303 205 500

Anteriormente se obtuvo SI = 24.4545 Y /32 = 0.5091 utilizando la computadora.

La diferencia entre las dos estimaciones se debe a errores de aproximacion. A proposito observese que al trabajar can calculadora de escritorio, es esencial obtener resultados can un nurnero significativo de digitos para rninimizar los errores de aproximaci6n.

Matriz de varianza-covarianza de 13

Los metodos matriciales permiten desarrollar formulas no s610 para la varianza de fJi' cualquier elemento dado de ft sino tambien para la covarianza entre dos elementos de ~ cualesquiera, par ejemplo, Pi y Sr Se necesitan estas varianzas y covarianzas para fines de inferencia estadistica.

Par definicion, la matriz de varianza-covarianza de ~. es [vease (C.2.2)]

var- coy (~) = E([~ - E(~)J[~ - E(~)]'}

la eual puede ser escrita explicitamente como

APENDICE G: ENFOQUE MATRICIAL EN EL MODELO DE REGRESION LINEAL 907

Se muestra en el apendice CA, seccion CA.3, que la matriz anterior de varianzacovarianza puede obtenerse a partir de la siguiente f6rmula:

var-cov (~) = a2(X'X)I

(C.3.13)

donde 0"2 es la varianza hornoscedastica de u, y (X'xt1 es Ia matriz inversa que aparece en Ia ecuaci6n (C.3.11), la cual da el estimador MeO, 11.

En los modelos de regresi6n lineal con dos y tres variables, un estimador insesgado de 0"2 estaba dado por &2 :;::: Iu~/(n - 2) y &2 :::; IU7/(n - 3), respectivamente. En el. caso de k variables, la formula correspondiente es

(C.3.14)

donde ahara hay n - k g de L (ePor que")

Aun cuando, en principia, ft'tl puede calcularse a partir de los residuos estimados, en la practica puede ser obtenido directamente de la siguiente manera. Recuerdese que La} (:;::: SRC) :;::: STC - SEC, en el caso de dos variables se puede escribir

L e = I,2_ f3~' 2 I, Xl

---, - - y, 2 ,

(3.3.6)

yen el caso de tres variables

(7.4.19)

A] extender este principio, puede verse que para el modele de k variables

(C.3.15)

En notacion matricial,

(C.3.16)

(C.3.17)

donde el terrnino ny2 se conoce como la correcci6n para 1a media." Par consiguiente,

(C.3.18)

6 Nota: 'Ey t = 'E(1'; - Y)2 = 'EY; - n}1"2 =s» - Ii y2. POI' consiguiente, sin cl termino de correccion.y'y dara simplemente 1a suma sencilla de cuadrados, no la suma de las desviaciones al cuadrado.

908 APENDICE c: ENFOQUE MATRICIAL EN EL MODELO DE REGRESION LINEAL

Una vez obtenida ft'u, &2 puede calcularse facilmente de (C.3.14), 10 cual, a su vez, perrnitira estimar la matriz de varianza-covarianza (C.3.13).

Para el ejemplo ilustrativo,

u'u = 132 100 - [24.4545 = 337.373

0.5091] [ 1 110 l 205 500 J

Por tanto, &2 = (337.273/8) = 42.1591, que es aproximadamente el valor obtenido previarnente en el capitulo 3.

Propiedades del vector MCa 13

En los casos de dos y tres variables, se sabe que los estimadores Meo son lineales e insesgados y en la clase de tad as los estimadores lineales e insesgados. estes tienen varianza minima (la propiedad de Gauss-Markov). En resumen, los estimadores Mca son los mejores estimadores lineales insesgados (MELI). Esta propiedad se extiende a todo el vector ~; es decir, ~ es lineal (cada l!_DO de sus elementos es una funcion lineal de Y, la variable dependiente). E( (3) = p, es decir, el valor esperado de cada elemento de p es igual al elemento correspondiente de la verdadera (3, y en la clase de todos los estimadores lineales e insesgados de p, el estirnador MCQ, ~ tiene varianza minima.

La prueba se da en el apendice CA, secci6n CA.4. Como se establecio en la introduccion, el caso de k variables es como en la rnayorfa, una extension directa de los casos de dos y tres variables.

C.4 COEFICIENTE DE DETERMINACION R2 EN NOTACION MATRICIAL

El coeficiente de determinacion R2 ha side definido como

En el caso de dos variables.

(3.-5.6)

yen el caso de tres variables

A A

R2 = [31 LYiXli + f3, LYiXli

Ly~

(7.5.5)

Generalizando, para el caso de k variables se obtiene

A A A

Rl = [32 I. YiX" + f33 I. YiXli + ... + /3, I. YiXki

Lv.2

(C.4.1)

APENDICE C: ENFOQUE MATRICIAL EN EL MODELO DE REGRESION LINEAL 909

Utilizando (C.3.16) y (C.3.17), la ecuacion (C.4.!) puede escribirse as!

(C.4.2)

10 cual da la representacion matricial de R2.

Para el ejemplo ilustrativo,

~'X'y = [24.3571

0.s079[ 1110] 20S 500

= 131409.831 y'y = 132100

y

ny2 =123210

Reemplazando estos valores en (C.4.2), se ve que R2 = 0.9224, que se acerca al valor obtenido antes, salvo por errores de aproximacion ..

C.S MATRIZ DE CORRELACION

En los capitulos anteriores se encuentran los coeficientes de correlacion de orden cero 0 simple, r, 2, r, 3' rz 3 y las correlaciones parciales 0 de primer orden r] 2,3' rl 3,2' r23.1 Y sus interrelaciones. En el caso de k variables se tendra en total ktk: - 1)/2 coeficientes de correlacion de orden cera. (ePor quei') Estas k(k -1)/2 correlaciones pueden situarse en una matriz, denominada la matriz de correlaci6n R de la siguiente manera:

(C.S.l)

donde el subtndice I, al igual que antes, denota la variable dependiente Y(rt 2 significa el coeficiente de correlaci6n entre Y y Xv y as! sucesivamente) y donde se aplica el hecho de que el coeficiente de correlacion de una variable con respecto a ella misma es siempre 1 (1'1 1 = 1'22='·· = 1~kk= 1).

910 APEND1CE c: ENFOQUE MATR1C1AL EN EL MODELO DE REGRESION LINEAL

A partir de la rnatriz de correlaci6n R pueden obtenerse los coeficientes de correlacion de primer orden (vease el capitulo 7) y de ordenes superiores tales como rJ 2.3 4 ... k- (Vease el ejercicio CA_) Muchos programas de computadora calcuIan mediante rutinas la matriz R. Se utiliz6 la matriz de correlaci6n en el capitulo 10.

C.S PRUEBA DE HIPOTESIS SOBRE COEFICIENTES INDIVIDUALES DE REGRESION EN NOTACION MATRICIAL

Por las razones expresadas en los capitulos anteriores, si el objetivo es tanto la inferencia como la cstimacion, se tendra que suponer que las perturbaciones u, siguen alguna distribuci6n de probabilidad. Adernas, por las razones dadas anteriormente, en el analisis de regresi6n usualmente se supone que cada Hi sigue una distribucion normal con media cero y varianza constante a2• En notacion matricial, se tiene

(C.6.1)

donde u y 0 son vectores columna n x 1 e I es una matriz identidad (n x n), siendo 0 el vector nulo.

Dado el supuesto de normalidad, sabemos que c;,n los modelos de regresion lineal de dos y tres variables 1) el estimador MeO,fii' Y el estimador MV f3i son identicos, perc el estimador MV (j2 es sesgado, aun cuando este sesgo puede eliminarse utilizando el estimador MCG insesgado 0- 2; Y 2) los estimadores MeO Si tambien estan normalmente distribuidos. Generalizando, en el caso de k variables podemos demostrar que

(C.6.2)

es decir, cada elemento de ~ esta normalmente distribuido con media igual al elemento correspondiente del verdadero Jl y la varianza esta dada por 0-2 veces el elemento correspondiente de la diagonal de la matriz inversa (X'X)-I_

Puesto que en la practica a2 es desconocida, esta se estima mediante 6-2, Entonces por el desplazamiento usual hacia la distribuci6n t, se cumple que cada elemento de ~ sigue la distribuci6n t con n - k g de 1. Simb6licamente,

t = f3i - Pi ee (f3.)

con n - kg de I, donde Si es cualquier elemento de ~.

Por consiguiente, la distribuci6n t puede ser utilizada para probar hip6tesis sabre el verdadero f3i y para establecer intervalos de confianza sobre este. El verdadero mecanisme ya se ilustro en los capitulos 5 Y 8. Para un ejemplo completo, vease la secci6n C.l O.

(C.6.3)

C.7 PRUEBA DE. SIGNIFICANCIA GLOBAL DE LA REGRESION:

ANALISIS 'DE VAAIANZA EN NOTACION MATRICIAL

En el capitulo 8 se desarroll6 la tecnica ANOVA 1) para probar la significancia global de la regresi6n estimada, es decir, para probar la hip6tesis nula de que

APENDICE C: ENFOQUE MATRICIAL EN EL MODELO DE REGRESION LINEAL 911

TABLA C.2 FORMULACION MATRICIAL DE LA TABLA ANOVA PARA EL MODELO DE REGRESION LINEAL CON k VARIABLES

Fuente de variaci6n

SC

9 de I

SMC

Debido a la reqresion

(es decir, debido a X2, X3,· .• , Xk)

~'X'y-ny2

k-1

t\'X'y-ny2 k-1

Debido a los residuos

Y'Y-~'X'y y'y-nP

n-k

Y'Y-~'X'Y n-k

Total

n-1

los verdaderos coeficientes de pendiente (parciales) son simultaneamente iguales acero, Y 2) para evaluar Ia contribucion incremental de una variable explicativa, La tecnica ANOVA puede ampliarse facilrnente al caso de k variables. Recuerdese que la tecnica ANOVA consiste en descomponer la STC en dos cornponentes: la SEC y la SRC. Las expresiones rnatriciales para estas tres sumas de cuadrados ya se dieron en (C.3.16), (C.3.17) Y (C.3.18), respectivamente .. Los grados de libertad asociados con estas sumas de cuadrados son n - 1, k - 1 y n - k, respectivamente. ((Por que") Entonces, siguiendo el capitulo 8} tabla C.l, se puede elaborar Ia tabla C.2.

Suponiendo que las perturbaciones u, estan norrnalmente distribuidas y la hipotesis nula es 132 :::: 133 ::: •.. :=: 13k ::: 0, y de acuerdo con el capitulo 8, puede demostrarse que

(C.7.1)

sigue la distribucion F can k - 1 y n - k g de 1.

En el capitulo 8 vimos que, bajo los supuestos postulados anteriormente, existe una estrecha relacion entre F y R2, a saber,

F = H2; (k-l)

(1-R2)/(n-k)

(8.5.11)

Por consiguiente, 1a tabla ANOVA C.2 puede expresarse como tabla C.3. Una ventaja de la tabla C.3 sabre la tabla C.2 es que la totalidad del analisis puede

TABLA C.3 TABLAANOVA DE kVARIABLES EN FORMA MATRICIAL EN TERMINOS DE R2

Fuente de variacion

SC

9 de I

SMC

Debido a la regresi6n

(es decir, debido a X2, X3,· .. , XI<

k-l

R2(y'y_ny2) k-l

Debido a los residues

n-k

(1_R2)(Y'y_ny2j n-k

Total

9112 APENDICE c. ENFOQUE MATRICIAL EN EL MODELO DE REGRESION LINEAL

hacerse en terrninos de R2; no se requiere considerar el termino (y'y _ny2), pues este se cancela en la razon F.

C.B PRUEBA DE RESTRICCIONES LINEALES: PRUEBA F GENERAL UTILIZANDO NOTACION MATRICIAL

En la secciori 8.7 se introdujo la prueba general F, para verifiear la validez de las restricciones lineales impuestas sabre uno 0 mas parametres del modelo de regresi6n lineal de k variables. La prueba apropiada se dio en (8.7.9) [0 su equivalente (8.7.10)]. La matriz correspondiente a (8.7.9) puede derivarse facilmente.

Sea

UR = el vector residuo de la regresion de minimos cuadrados restringidos UNR = el vector residuo de la regresion de minimos cuadrados no restringidos

Entonces,

fiRuR = Ia~ := SRC de la region restringida fi'NRUNR = IU~R ;::: SRC de la region no restringida m = numero de restricciones lineales

k = numero de parametres (incluyendo la intersecci6n) en la regresion no restringida

n := nurnero de observaciones

La matriz correspondiente a (8.7.9) es entonees

(C.B.l)

que sigue la distribucion F con (m, n - k) g de 1. Como es usual, si el valor F ealculado a partir de (c. 8.1) excede al valor F crftico, se puede rechazar la regresi6n restringida; de 10 contrario, no se rechaza.

c.s PREDICCION MEDIANTE REGRESION MULTIPLE:

FORMULACION MATRICIAL

En la secci6n 8.9 se analizo, utilizando notaci6n escalar, la forma en que la regresion multiple estimada puede utilizarse para predeeir 1) la media y 2) los valores individuales de Y, dados los valores de las regresoras X. En esta seccion se rnuestra la forma de expresar estas predicciones en forma matricial, Tambien se presentan las f6rmulas para estimar las varianzas y los errores estandar de los valores proyectados; en el capitulo 8 notamos que estas formulas se trabajan mejor mediante notaci6n matricial, ya que las expresiones escalares 0 algebraieas de estas f6rmulas se hacen inmanejables.

APENDICE C: ENFOQUE MATRICIAl EN El MODElO DE HEGRESION LINEAL 913

Prediccidn media

Sea

(C.9.l)

eJ vector de valores de las variables X para las cuales deseamos predecir Yo, la prediccion media de Y

Ahora la regresi6n multiple estirnada en forma escalar es

(C.9.2)

1a cual en notacion matricial puede escribirse de manera compacta como:

(C.9.3)

/3.
~
rJ= /32
13k La ecuacion (C.9.2) 0 (C.9.3) es, por supuesto, la prediccion media de Y; que corresponde a una x;' dada.

Si xi es igual a la de (C.9.1), (C.9.3) se convierte en

(~ I x~)= x~~

(C.9.4)

donde, por supuesto, los valores de Xo estan especificados. Observese que (c. 9.4) da una prediccion insesgada de E(Yi I xo), puesto que E(xo ~) -=- Xo ~. «Por quei')

Varianza de la predlcclon media

La formula para estimar la varianza de (Yo I xo) es la siguiente:?

var (Yo I x~)= (i2X~(X'Xtlxo

(C.9.5)

donde 0'2 es la varianza de U;, Xo son los valores dados de las variables X para los cuales se desea predecir, y (X'X) es la matriz dada en (C.3.9), es decir, en la matriz utilizada para estimar la regresion multiple, reemplazamos 0'2 por su estimador insesgado &2.

7 Para la derivacion, vease J. Johnston, Econometric Methods, McGra\>\"Hill, 3a. ed., Nueva York, 1984, pp. 195-196.

914 APENDICE c. ENFOQUE MATAICIAL EN EL MODELO DE REGAESION LINEAL

Predicci6n individual

Como se sabe de los capitulos 5 y 8, la prediccion individual de Y(~ Yo), esta dada generalmente por (C.9.3) 0 en forma mas especffica por (C.9.4). La diferencia entre las predicciones de la media y la individual consiste en sus varianzas.

Varianza de la predlcclon individual

La formula para la varianza de una predicci6n individual es la siguiente:"

(C.9.6)

donde var (Yo I xo) representa E[Yo - Yo I X]2. En la practica, se sustituye 0:2 por su estimador insesgado &2. En la siguiente seccion se ilustra esta formula.

C.10 RESUMEN DEL ENFOQUE MATRICIAL:

UN EJEMPLO ILUSTRATIVO

Considerense los datos proporcionados en la tabla C.4, los cuales pertenecen al gasto de con sumo personal per capita (GCPP) y al ingreso disponible personal per capita (IDPP), as! como al tiempo 0 variable de tendencia. AI incluir esta ultima en el modelo, se trata de averiguar la relaci6n del GCPP con el IDPP neto de la variable de tendencia (que podrfa representar una multitud de otros factores, como la tecnologia, el cambio en gustos, etc.).

Para fines empiricos, por consiguiente, el modelo de regresion es

(C.IO.I)

donde Y = gasto de consumo per capita, X2 = ingreso disponible per capita, y X3 = tiempo. La informacion requerida para efectuar la regresion (C.IO.I) se proporciona en la tabla .C.4.

TABLA C.4 GASTO DE CONSUMO PERSONAL PER CAPITA (GCPP) E INGRESO DISPONIBLE PERSONAL PER CAPITA ([DPP) EN ESTADOS UNIDOS, 1956-1970, EN OOLARES DE 1958

GCPP, Y IDPP, X2 Tiempa, X3 GCPP, Y IOPP, X2 Tiempa, X3
1673 1839 1 (= 1956) 1948 2126 9
1688 1844 2 2048 2239 10
1666 1 831 3 2128 2336 11
1735 1 881 4 2165 2404 12
1749 1883 5 2257 2487 13
1756 1 910 6 2316 2535 14
1 815 1969 7 2324 2595 15 (= 1970)
1867 2016 8
Fuente: Economic Report of the President. enero de 1972, tabla 8-16.
8 Idem. APENDICE C: ENFOQUE MATRICIAL EN EL MODELO DE REGRESION LINEAL 915

En notacion matricial, el problema puede mostrarse de la siguiente manera:

1 673 1 1 839 1 U1
1 688 1 1 884 2 U2
A
1 666 1 1 831 3 u3
1 735 1 1 881 4 U4
1 749 1 1 883 5 Us
1 756 1 1 910 6 [~l u6
1 815 1 1 969 7 u7
1 867 = 1 2 016 8 uB
1 948 1 2 126 9 ~ (C.IO.2)
/3, u~
2 048 1 2 239 10 ulO
2 128 1 2 336 11 U11
2 165 1 2 404 12 U12
2 257 1 2 487 13 u.
2 3] 6 1 2 535 14 U14
2 324 1 2 595 15 ulS
X 13 A
Y + u
15 x 1 15x 3 3x1 15 x 1
De la informacion anterior, se obtienen los siguientes resultados:
y :::0 1942.333 Xl = 2 126.333 X3 = 8.0
L(Y; - ¥Y = 830121.333
L(X2; - XJ2 = 1 103 111.333 L(X3i - Xl)2 = 280.0 1 X21 X31
X~=[~" 1 ... j,,] 1 X22 Xn
Xn Xn ... 1 X23 X33
x; XH XB
3"
1 X, X3>!
.n
[ n LX,. LX, 1
.1 LX2i~Ji
= LX2; LX;
_I
LX3; LX2iX" LX3, [ 15 31895

= 31895 68922.513

120 272144

X'y = [62 9~~ ~~~1

247934

1201

272144

1240

(C.IO.3)

(C.I0.4)

916 APENDICE c. ENFOQUE MATRICIAL EN El MODELO DE REGRESION LINEAL

Al utilizar las reglas de inversion de matrices dadas en el apendice B, puede verse que

[ 37.232491 (X'X):' = -0.0225082 1.336707

-0.0225082 1.3367071 0.0000137 -0.0008319

-0.0008319 0.054034

(C.IO.S)

Por consiguiente,

[ 300.28625]

~=(X'XrlX'y= 0.74198

8.04356

(C.I0.6)

La suma de residuos al cuadrado puede calcularse asf:

~~l <»>

L...U =uu

,

= y'y -WX'y

= 57420003 - [300.28625 0.74] 98 8.04356J [62 9~~ ~~~] 247934

= 1 976.85574

(C.IO.7)

de donde se obtiene

~ I ~

0'2 = U U = 164.73797 12

(C.IO.B)

Por tanto, la matriz de varianza-covarianza para ~ puede presentarse como

var- cov (~) = ';'(X'X)"' = [

6133.650

-3.70794

220.20634] -0.13705

8.90155

(C.IO.9)

- 3.70794 0.00226 220.20634 -0.13705

Los elementos diagonales de esta matriz dan las varianzas de fil, P2 Y P3' respectivamente, y sus rakes cuadradas positivas dan los errores estandar correspondientes.

De la informacion anterior; puede verificarse facilmente que

SEC: ~'X'y - ny2 == 828144.47786

(C.I0.10)

STC: y'y - ny2 ;:::: 830121.333

(C.IO.lt)

APENDICE C: ENFOQUE MATRICIAL EN EL MODELO DE REGRESI.ON LINEAL 917

Por consiguiente,

2 ~'X'y _ny2

R == "'------"-_=_-

y'y _ ny2

828144.47786

830121.333 == 0.99761

(C.I0.12)

_------

Aplicando (7.8.4), puede verse que el coeficiente de determinacion ajustado es

R' == 0.99722

(C.I0.13)

Reuniendo los resultados obtenidos hasta ahora, se tiene

Y; == 300.28625 + (78.31763) t= (3.83421) R2 == 0.99761

0 . .74198X21 + 8.04356X3r

(0.04753) (2.98354)

(15.60956) (2.69598)

R2",.O.99722 gdel=12

(C.I0.14)

La interpretacion de (C.1O.14) es esta: si tantoX, como X3 reciben un valor fijo de cero, el valor promedio del gasto de consume personal per capita se estima alrededor de US$300. Como es usual, est a interpretaci6n mecanica de la intersecci6n debe tomarse con cautela. El coeficiente de regresion parcial de 0.74198 significa que, manteniendo todas las otras variables constantes, un incremento en el ingreso per capita de un dolar, por ejemplo, es acompanado por un incremento en el gasto de consumo personal per capita medio de alrededor de 74 centavos de dolar; En resumen, se estima que 1a propensi6n marginal a consumir sea de alrededor de 0.74074%. En forma similar, manteniendo constantes todas las otras variables, el gasto de consumo personal per capita medio aumento a una tasa de alrededor de US$8 por afio durante el periodo del estudio, 1956- 1970. EI valor R2 de 0.9976 muestra que las dos variables explicativas mostraron mas del 99% de la variaci6n en el gasto de consumo per capita en Estados Unidos durante el periodo 1956-1970. Aun cuando R_2 se reduce ligerarnente, este continua siendo muy elevado.

Volviendo a Ia significancia estadfstica de los coeficientes estimados, a partir de (C.IO.14) se observa que cada uno de los coeficientes estimaclos es estadisticamente significative individualmenie, a un nivel de significancia del 5%, par ejemplo: las razones entre los coeficientes estimados y sus errores estandar (es decir, las razones t) son 3.83421,15.61077 y 2.69598, respectivamente. Utilizando una prueba t de dos colas al nivel de significancia del 5%, se observa que el valor t critico para 12 g de I es 2.179. Cada uno de los valores t calculados excede este valor critieo .. Por tanto, a nivel individual, puede rechazarse 1a hipotesis nu1a de que el verdadero valor poblacional del coeficiente relevante es cera.

Como se observ6 anteriormente, no es posible aplicar la prueba t usual para verificar la hipotesis de que /32 = /33;::: 0 simultaneamente, porque el procedirniento de prueba t supone que se toma una muestra independiente cada vez que se aplica una prueba t. Si se utiliza 1a misma muestra para pro bar !a hipotesis sobre /32 y /33 simultaneamente, es probable que los estimadores f32 Y /33 esten

918 APENDICE C ENFOQUE MATRICIAL EN EL MODELO DE REGRESION LINEAL

eorrelaeionados, violando as] el supuesto en eJ eual se basa el procedirnientode la prueba t. I} En realidad, la matriz de varianza-covarianza de ~ dada en (C10.9) rnuestra que los estirnadores gl Y fi3 estan correlacionados negativamente (Ia covarianza entre los dos es -0.13705). Por tanto, no se utiliza la prueba 1 para probar la hip6tesis nub de que [32 == [33 ::; O.

Pcro recuerdese que una hipotesis nula como [32 == f33 == 0, simultaneamente, puede ser probada mediante la tecnica de analisis de varianza y la tradicional prueba F, las cuales fueron introducidas en el capitulo 8. Para el problema, la tabla del analisis de varianza es la tabla C.S. Bajo los supuestos usuales, se obtiene

F= 414072.3893 =2 513.52 164.73797

(C.IO.I5)

euya distribuci6n es igual a la distribuci6n F con 2 y 12 g de l. EI valor F calculado es, obviamente. muy significative: se puede rechazar la hip6tesis nula de que f32 == f33 == 0, es decir, que el gasto de consumo personal per capita no esta relacionado linealmente con el ingreso disponible per capita ni con la tendencia.

En la seccion C.9 se estudi6 el mecanisme de pronostico, media e individual.

Supongase que para 1971 la cifra del IDPP es US$2 610 y se desea pronosticar el GCPP correspondiente a esta cifra, Entonces, la proyeccion media y la individual del GCPP para 1971 es la misma y esta dada por

(C.IO.16)

= 2365.55

donde se hace usa de (e.9.3).

Como se sabe par la secci6n C9, las varianzas de Y1971 Y Y1971 son diferentes y son las siguientes:

var CY;971 I X~'71 ) = 6-2 [X;9;1 (X'Xf1 XIY~I]

=164.73797[1 2610 16](X'Xtlr26l~1 (C.I0.I7)

16 ~

donde (X'X)-l es como se muestra en (C.IO.S). Sustituyendo esto en (C.10.17), el lector debe verificar que

var (~971 I X;~71) = 48.6426

(C.10.IS)

y por consiguiente,

ee (:Y1971 I X:~'l) ::::: 6.9744

~ Para rnavor detalle vease la seccion 8.5.

APENDICE C: ENFOQUE MATRICIAL EN EL MODELO DE REGRESI6N LINEAL 919

TABLA C.5 LA TABLA ANOVA PARA LA INFORMACION DE LA TABLA CA

Fuente de variac ion

SC

9 de J

SMC

Debido a X2• X3 Debido a los residuos

8.28144.47786 1976.85574

830 1.21.33360

2 12

14

414072.3893 164.73797

Total

Se deja que ellector verifique, utilizando (C.9.6), que

(C.IO.19)

y

~ A 2

Nota: var (Y1971 I X~971) :::: E[Yl971 - YI971 I ~971] •

En la secci6n C.5 se introdujo la matriz de correlaci6n R. Para los datos, la matriz de correlaci6n es la siguiente:

Y X2 X,
Y II 0.9980 0.97431
R= x, 0.9980 1 0.9664 (C.IO.20)
X 0.9743 0.9664 1
3 Observese que en (C. 10.20) se ha limitado la matriz de correlaci6n can las variables del modele, de tal forma que se pueda identificar facilmente cuales variables estan incluidas en el calculo del coeficiente de correlaci6n. Asi, el coeficiente 0.9980 en el primer renglon de la matriz (C.I0.20) es e1 coeficiente de correlaci6n entre Yy X2 (es decir, Y12)' A partir de las correlaciones de orden cero clad as en la matriz de correlaci6n (C.1D.20) se pueden derivar facilmente los coeficientes de correlaci6n de primer orden (vease el ejercicio C. 7).

C.11 MINIMOS CUADRADOS GENERALIZADOS (MeG)

En diversas ocasiones se ha mencionado que los MCO son un caso especial de los MeG. Para percatarse de 10 anterior, se reconsiclera la ecuaci6n CC.2 .. 2). Con el objeto de tamar en euenta las varianzas heteroscedasticas [los elementos de la diagonal principal de (C.2.2)] y las autocorrelaciones en los terminos de error [los elementos que no estan en la diagonal principal de (C.2.2)], se supone que

E(uu') = a"V

(C.I1.!)

donde V es una matriz de n x n conocida.

En consecuencia, si el modelo es:

y = XI3+ u

clonde E(u) = 0 y var-cov (u) :::: ()2V. En caso de que if no se conozca, 10 eual suele suceder, entonees V representa Ia estructura supuesta de las varianzas y de las covarianzas entre los errores aleatorios u ..

920 APENDICE c. ENFOQUE MATRICIAL EN EL MODElO DE REGRESIDN LINEAL

Bajo la condicion impuesta de la varianza-covarianza de los terminos de error, se puede demostrar que:

(C.l1.2)

IJ,mcg se conoce como el estimador de los minimos cuadrados generalizados

(MeG) de (l. .

Tambien se puede demostrar que

(C.l1.3)

Se puede probar que (lmcg es el mejor estimador lineal insesgado de (l.

Si se supone que la varianza de cada termino de error es la misma constante (}2 y que los terminos de error estan rnutuamente no correlacionados, entonces la matriz V se reduce ala matriz identidad, como se muestra en (C.2.3). Si los terminos de error no estan mutuamente correlacionados. pero tienen distintas varianzas (es decir, heteroscedasticas), entonces la matriz V sera diagonal, con varianzas diferentes a 10 largo de la diagonal principal, Por supuesto, si hay heteroscedasticidad y autocorrelacion, entonces la matriz V tendra entradas en la diagonal principal y fuera de esta.

El verdadero pro blema en la practica consiste en que se desconoce C;2, as! como las varianzas y covarianzas verdaderas (es decir, la estructura de la matriz V). Como una solucion, se puede utilizar el metodo de los minirnos cuadrados generalizados estimados, 0 factibles (MCGE). En dicho metoda, primero se calcula el modelo mediante MeO, pasando por alto los problemas de la heteroscedasticidad ylo la autocorrelacion. Se obtienen los residuos a partir de este modelo y se forma la matriz de varianza-covarianza (estimada) del termino de error mediante la sustituci6n de las entradas de la expresi6n que esta justamente antes de (C.2.2) por los estimados u, a saber, U. Se puede demostrarque los estimadores MCGE son estimadores consistentes de los MCG. Simbolicamente,

(C.l1.4)

var-cov (IJ,mcg<) = a2(X' V-1xt1 donde Ves un estimado de V.

(C.I1.S)

C.12 RESUMEN Y CONCLUSIONES

EI proposito principal de este apendice fue introducir el enfoque matricial al modele clasico de regresion lineal. Aun cuando se introdujeron muy pocos conceptos nuevos del analisis de regresion, la notacion matricial proporciona un metoda compacto para abordar los modelos de regresi6n lineal que contienen cualquier numero de variables.

Al concluir este capitulo observese que si las variables X y Y estan medidas en f01111a de desviaciones, es decir, como desviaciones de sus medias muestrales, hay po cos cambios en las formulas presentadas anteriormente. Estos cambios se enumeran en la tabla C.6. 10 Como 10 muestra dicha tabla, en la forma de des-

10 En estos dias de computadoras de alta velocidad quiza no sea necesaria la forma de desviaci6n.

Pero esta simplifica formulas y, por consiguiente, los calculos si se esta trabajando con calculadora de escritorio y si se estan manejando nurneros grandes.

APENDICE C: ENFOQUE MATRICIAL EN EL MODELO DE REGRESION LINEAL 921

TABLA C.S MODELO DE REGRESION CON k VARIABLES EN UNIDADES ORIGINALES Y EN FORMA DE DESVIACION'

Unidades origin ales Forma de dssviacion
y=X~+u (C.3.2) y = X(3' +u
la columna de 1 en la rnatriz X
se elimina (L.Por que?)
(3 = (X'Xr1X'y (C.3.il) Igual
var-cov(~) "= (J2(X'Xrl (C.3.i3) Igual
u'u = rv ~ ~'X'Y (C.3.18) Igual
Iy; =y'y_ny2 (C.3.16) IyF = y'y (C.12.i)
SEC = ~'X'y-ny2 (C.3.i?) SEC = IlX'y (C.12.2)
R2= ~'X'y-ny2 (CA.2) R2 WX'y (C.12.3)
y'y-nY· y'y 'Observese que a pesar de que en ambos casos los slrnbolos para las matrices y los vectores son iguales, en la forma de desviaci6n se supone que los elementos de las matrices y de los vectores son desviaciones y no datos simples. Obssrvese adernas que en la forma de desviaci6n Il es de orden k -1 Y la var-cov( Il) es de orden (k - 1 )(k - i).

viaciones, se elimina de STC y de SEC la correccion para la media nf2. ((Por que?) Esta perdida resulta en un cambio en la f6rmula para R2. Por 10 dernas, la mayoria de las f6rmulas desarrolladas en las unidades originales de medicion se mantienen para la forma de desviaci6n.

EJERCICIOS·

. C.l. Para el ejernplo ilustrativo analizado en la seccion C.] 0, las X'X y las X'y, utilizando la informacion en forma de desviacion, es la siguiente:

x-x = [1103111.333 16984

X' = 1 .. 955099.333]. y l 14854 .. 000

16984] 280

a) Estimese /32 Y /33'

b) (C6mo se estimaria fit?

c) Estfmese la varianza de /32 Y t3 Y sus covarianzas.

d) Obtengase R2 Y R_1.

e) Comparando los resultados con aquellos dados en la seccion C.10, (cua1es ventajas se encuentran en la estimaci6n en forma de desviaci6n?

C.2. Refierase al ejercicio 22.23. Utilizando los datos proporcionados en dicho ejercicio, deffnase la matriz (X'X) Y el vector X'y; asimismo, calculese el vector parametro Jl y su matriz de varianza-covarianza. Tambien obtengase R2. (C6mo se demostraria la hip6tesis de que las e1asticidades de M 1 con respecto al PIE y la tasa de interes R son numericarnente iguales?

C.3. Verificaci6n de igualdad de dos coeficientes de regresi6n. Sup6ngase que se tiene el siguiente modelo de regresion:

y, = /3, + /3,X" + /3,X". + U;

922 APENDICE c ENFOQUE MATRICIAL EN EL MODELO DE REGRESIQN LINEAL

y se desea probar la hipotesis de que /32 = /33' Si se supone que los u, estan normalmente distribuidos, puede mostrarse que

t=-'I====A==~~fi~2=~~fi~J======A===A= '1,:' var (fi2) + var (f33 ) - 2 cov (/32 ! /33 )

sigue la distribucion t con 11 - 3 g de I (vease la secci6n 8.6). (En general, para el caso de k variables los g de 1 son n - k.) Por consiguiente, 1a anterior prueba t puede utilizarse para probar la hipotesis nula /32 = {33'

Apliquese la prueba t anterior para verificar 1a hip6tesis de que los verdaderos valores de/32 Y {33 en la regresion (C.1O.14) son identicos.

Pista: utilicese la matriz var-cov de f3 dada en (C.10.9).

CA. Forma de expresar correlaciones de orden superior en terminos de correIaciones de orden inferior. Los coeficientes de correlaci6n de orden p pueden ser expresados en terrninos de los coeficientes de correlaci6n de orden p - 1 mediante la siguiente formula de reclucciem:

r: - [r: r ]

12.34 S.I p-I ) I p.3 4 .I .. .f p-IJ 2 p.34 5 ... li,-1 )

t;214S.p = 'l . I ']" ~[2 'J'

I 1- r _ ,I 1- r _

I: I pJ 4 ,,,.( ;>-11 V 2p.14 , .... p-Il

Asi,

igual a la obtenida en el capitulo 7.

Dada la siguiente matriz de correlacion:

y Xl X X4 X5
3
Y 1 0.44 -0.34 -0.31 -0.14
Xl 1 0.25 -0.19 -0.35
R=X 0.44 0.33
3
X. I 0.85
X, 1 Ericuentrese 10 siguiente:

a) r12.345 b) r12.34 c) r12J

d) r13.2 4.5 e) rl 324 f) r. 3.2

C.S. Forma de expresar coeficientes de regreslon de orden superior en terrninos de coeficientes de regresion de orden inferior. Un coeficiente de regresi6n de orden p puede expresarse en -terminos de un coeficiente de regresion de orden p - 1 mediante la siguiente formula de reduccion:

APENDICE C: ENFOQUE MATRICIAL EN EL MODELO DE REGRESION LINEAL 923

Asi,

~ A'

/3, 2 - /3, 3 /3 J2

. "-

1- /3" f332

donde (31 2.3 es el coeficiente de la pendiente en la regresi6n de y sobre X2 manteniendo Xl constante. En forma similar (312.34 es el coeficiente de la pendiente en la regresi6n de Y sabre X2 rnanteniendo X3 Y X4 constantes, y asf sucesivamente.

Utilizando Ja formula anterior, encuentrense expresiones para los siguientes coeficientes de regresion en terminos de coeficientes de regresion de orden menor:f31234 56, PI 2345 Y fil2.J 4'

C.6. Establezcase la siguiente identidad:

. . .

PiLl f32,JJ11.l = r; 2.31'2 .llr] L2

c.?. Para la matriz de correlaci6n R dada en (C.10.20), encuentrense todos los coeficientes de correlaci6n parcial de primer orden,

e.s. Al estudiar la variacion en las tasas de criminalidad en algunas ciudades gran des de Estados Unidos, Ogburn obtuvo la siguiente informacion:"

y x, X3 X4 X"
Y = 19.9 8, = 7.9 y 1 0.44 -0.34 -0.31 -0.14
X2 = 49.2 82 = 1.3 Xl 1 0.25 -0.19 -0.35
X] = 10.2 5] =4.6 R=XJ 1 0.44 0.33
X4 = 481.4 84 = 74.4 X4 0.85
X .. = 41.6 5; =10.8 Xs
.> donde Y = tasa de crirninalidad, nurnero de delitos conocidos par cada mil

personas

Xz = porcentaje de habitantes masculinos

X3 = porcentaje del total de habitantes masculinos nacidos en el exterior X4 = mirnero de nifios menores de 5 aries por cada mil mujeres casadas

entre los 15 y los 44 afios de edad

Xs = pertenencia a la Iglesia, numero de miem bros de la iglesia de 13 anos de edad 0 mayores par cada 100 personas de Ia poblacion total de 13 afios de edad y superior; de 51 a 52 son las desviaciones estandar muestrales de las variables Y hasta Xs Y R es la matriz de correlaci6n.

a) Tratando Y como variable dependiente, obtengase la regresion de Y sabre las cuatro variables X e interpretese la regresi6n estirnada.

b) Obtengase rI2.3, r14.35 Y rI5.34•

c) Obtengase R2 Y pruebese la hipotesis de que todos los coeficientes de pendiente parciales son simultanearnente iguales a cero .

• W. F. Ogburn, "Factors in the Variation of Crime among Cities", Journal otAmerican Statistical Association, vol. 30, 1935, p. 12.

924 APENDICE c: ENFOQUE MATRICIAL EN EL MODELQ DE REGRESION LINEAL

Producci6n Total costos, $
193
2 226
3 240
4 244
5 257
6 260
7 274
8 297
9 350
10 420 C.9, En la tabla anterior se da informacion sobre la producci6n y costo total de produccion de un bien a corto plazo (vease el ejemplo 7.4).

Para probar si los datos anteriores sugieren las curvas de costa promedio y de costo marginal en forma de U encontrada generalmente a corto plaza, se puede utilizar el siguiente modelo:

donde Y -= costa total y X -= producci6n. Las variables explicativas adicionales Xf y x: son derivadas de x.

a) Expresense los datos en la forma de desviaci6n y obtengase (X'X),(X'y) y

(X'X)-I.

b) Estfrnense (32' (33 y (34' ~

c) Estimese la matriz var-corde 13.

d) Estfrnese (31' Interpretese f31 en el contexto del problema.

e) 0 btengase R2 y R2.

f) A priori, (cmiles son los signos de f32, /33 Y f34? (Par que?

g) De la fund on de costo total dada anteriormente, obtenganse expresiones para las funciones de casto marginal y promedio.

h) Ajustense las funciones de costo promedio y marginal a los datos y realicense comentarios sabre el ajuste.

i) Si f33 = (34 = 0, (cual es la naturaleza de la funcion de costo marginal? (C6mo se probarfa la hip6tesis de que f33 = f34 = O?

j) (C6mo se derivarian las funciones de costo variable total y de costa variable promedio a partir de la informacion dada?

C.IO. Con el fin de estudiar la participacion de la fuerza laboral de las familias urbanas pobres (familias con ingresos menores a US$3 943 en 1969), se obtuvieron los datos siguientes del Censo de Poblaci6n de 1970.

a) Utilizando el modelo de regresi6n Y, ::= PI + f3zX2i + f33X3i + f3tX41 + u, obtenganse las estimaciones de los coeficientes de regresion e interpretense sus resultados.

b) A priori, (cuMes son los signos esperados de los coeficientes de regresion en el modelo anterior y par que?

c) (Como se probaria la hipotesis de que la tasa global de desempleo no tiene efecto sobre la participacion en la fuerza laboral de la poblaci6n urbana pobre en el area del censo dada en la tabla anterior?

d) (Debe eliminarse alguna de las variables del modelo anterior? (Par que?

e) (Que otras variables se considerarta que deben incluirse en el modelo?

APENDrCE C: ENFOQUE MATRrCIAL EN EL MODELO DE REGRESrON LINEAL 925

TABLA C.? EXPERIENCIA DE PARTICIPACION EN LA FUERZA LABORAL DE LA POBLACION URBANA POBRE:

AREA DEL GENSO, CIUDAD DE NUEVA YORK, 1970

% en la fuerza Ingreso familiar Tarnafio familiar Tasa de
Area nurn. laboral, y' medio, X2t medio, X3 desempleo, x;
137 64.3 1 998 2.95 4.4
139 45.4 1 114 3.40 ;3.4
141 26.6 1942 3.72 1.1
142 87.5 1 998 4.43 3.1
143 71.3 2026 3.82 7.7
145 82.4 1853 3.90 5.0
147 26.3 1666 3.32 6.2
149 61.6 1 434 3.80 5.4
151 52.9 1 513 3.49 12.2
153 64.7 2008 3.85 4.8
155 64.9 1 704 4.69 2.9
157 70.5 1 525 3.89 4.8
159 87.2 1 842 3.53 3.9
161 81.2 1 735 4.96 7.2
163 67.9 1639 3.68 3.6 Y =' cabeza de familia de edad inferior a 65 aries. 'X, =' d6lares .

.. X. = porcentaje de la fuerza laboral civil desempleada.

Fuente: Area del censo: Nueva York, Oficina del Oenso, Departamento de Cornerclo de Estados Unidos, 1970.

c.lt. En una aplicacion de la funcion de produccion Cobb-Douglas se obtuvieron los siguientes resultados:

In 1'; = 2.3542 + 0.9576 In X; + 0.8242 In X3i

(0.3022) (0.3571)

Rl = 0.8432

g de 1 = 12

donde Y = produccion, X2 = insumo trabajo y X3 = insumo capital y donde las cifras en parentesis son los errores estandar estimados.

a) Como se dijo en el capitulo 7, los coeficientes de los insumos trabajo y capital en Ia ecuacion anterior dan las elasticidades de 1a producci6n con respecto al trabajo y al capital. Pruebese la hip6tesis de que estas elasticidades son individualmente iguales a la unidad.

b) Pruebese la hip6tesis de que las elasticidades trabajo y capital son iguales, suponiendo i) que la covarianza entre los coeficientes estimados del trabajo y del capital es cera y ii) que esta es -0.0972.

c) (Como se probaria la significancia global de la ecuaci6n de regresi6n anterior?

*C.12, Expresese la funci6n de verosimilitud para el modelo de regresi6n can k variables en notaci6n matricial y muestrese que ~, el vector de estimadores de maxima verosimilitud, es identico a ~ el vector de estimadores Meo del modelo de regresion can k variables.

C.13. Regresi6n mediante variables estandarizadas. Considerense las siguientes funciones de regresi6n muestral (FRM):

(1)

(2)

" Opcional.

926 APENDICE c: ENFOQUE MATRICIAl EN El MOOElO DE REGRESION LINEAL

dande

donde las letras 5 denotan las desviaciories estandar muestrales. Como se observe en el capitulo 6, seccion 6.3, las variables que aparecen can asterisco se conocen como variables estandarizadas. Estas tienen medias cera y desviaciones estandar unitarias (= 1). Expresando todas las variables en forma de desviaeiones, dernuestrese 10 siguiente para el modelo (2):

d) ~ = [::J = 1_\i, [~: = ;,:~:l

e) b, = 0

Establezcase tarnbien la relacion entre las bylas JJ.

(Observese que en las relaciones anteriores, n denota el tamafio de la rnuestra; r] 2' r] 3 y r23 denotan las correlaciones entre Y y X2, entre Y y X3 Y entre X2 Y X3, respecrivamente.)

C.t4. Veriffquense las ecuaciones (C.lO.18) y(C.I0.19). "C.tS. Minimos cuadrados restringidos. Sup6ngase que

y == Xj3+u

(1)

la eual se desea estimar sujeta a un conjunto de restricciones de igualdad:

RI3==r

(2)

dande R es una matriz conocida de orden qxk (q ~ K) Y res un vector conocido de q elementos. Para ilustrar, supongase que el modelo es

(3)

y sup6ngase que se desea estirnar este modelo sujeto a estas restricciones:

, Opcional,

APENDICE CA

APENDICE C: ENFOQUE MATRICIAL EN EL MODELO DE REGRESION LINEAL

927

f3l - 133 = 0 134 + /35 = 1

(4)

Se pueden utilizar algunas de las tecnicas estudiadas en el capitulo 8 para incorporar estas restricciones (por ejemplo, /32 -- /33 Y /34 = 1 - f3s, eliminando as] /32 Y /34 del rnodelo) Y probar la validez de estas restricciones mediante la prueba F alli tratada. Pero una forma mas directa de estimar (3) incorporando las restricciones (4) directamente en el procedimiento de estimacion, es expresar primero las restricciones en la forma de la ecuacion (2), que en el presente caso se convierte en

R=[O 1 -1 0 0] r=[O]

° ° ° 1 1 1

(5)

Al permitir que 13" denote el estimador de minimos cuadrados restringidos, puede demostrarse que 13* puede ser estimado por la siguiente formula:'

(6)

donde ~ es el estimador usual (no restringido) calculado mediante la f6rmula usual (X'X)-·X'y.

a) (eual es el vector f3 en (3)?

b) Dado este vector f3, verifiquese que la matriz R y el vector r dado en (5) incorpora en realidad las restricciones especificadas en (4).

c) Escrfbase la matriz R y el vector r en los siguientes casas:

i) f32 -- f33 -- /34 -- 2

ii) f32 -- f33 Y f34 = /35

iii) f32 - 3f33 -- Sf34

iv) f32 + 3f33 =AO

d) (. Cuando sera If = 13?

CA.1 DERIVACION DE k ECUACIONES NORMALES 0 SIMULTANEAS

Diferenciando

I £lil = ICY; - 13. - f3ZX2i _ ••• - f3kXkY

parcialmente con respecto a Pi' Pl,"" Pb se obtiene

a IuL A A A

--' = 2 ICY - f3 - J3 x , _ ... - J3 X )(-1)

afjl r I 2 2, k k,

aIuL A A A

--'= 2 I(Y - f3 - J3 x ' - ... - f3 x )(- x .)

afjz 1 I 2 21 k ki 2r

• Vease J. Johnston, op. cit., p. 205.

928 APENDtGE G: ENFOQUE MATRtGtAL EN EL MODELO DE REGREStON UNEAL

Igualando a cera las derivadas parciales anteriores y reordenando los terminos, se obtiene las k ecuaciones normales dadas en (C.3,8),

CA.2 DERIVACION MATRICIAL DE LAS ECUACIONES NORMALES A partir de (C.3.7), se obtiene

u'u = y'y - 2~/X'y + ~/X'X~

Utilizando las reglas de diferenciaci6n matricial dadas en el apendice B, se obtiene

Igualando a cero la ecuaci6n anterior se obtiene

de donde t3 := (X'X)-IX'y siempre que la inversa exista,

CA.3 MATRIZ.DE VARIANZA~COVARIANZA DE P De (C.3.11), se obtiene

Sustituyendo y := Xfl, + U en la expresi6n anterior, se obtiene

t3 = (X'X):' X'(XJ3 + u)

= (X'X)' X'XJ3 + (X'X):' X'u = 13 + (X'X):' X'u

(1)

Por consiguiente,

(2)

Por definici6n

var-cov(l3) = E[(~ - P)(~- py]

= E([(X'Xt' X'u][(X'Xtl X'u]'} = E[(X'Xt' X'uu'XeX'X)-']

(3)

'donde en el ultimo paso se hace usa del hecho de que (AB), = B' A' .

Puesto que las X son no estocasticas, al tomar el valor esperado de (3) se obtiene:

var-cov(~) = (X'XtIX'E(uu')X(X'Xtl = (X'Xtl X' (j2IXeX'Xtl

= a2(X'xtl

APENDICE C: ENFOQUE MATRICIAL EN EL MODELO DE REGRESION LINEAL 929

que es el resultado dado en (C.3.13). Observese que al derivar el resultado anterior se hace uso del supuesto de que E(uu') = 0-21.

CA.4 PROPIEDAD MELI DE LOS ESTIMADORES MeO De (C.3.11) se tiene que

~ = (X'Xtl X'y

(1)

Dado que (X'X)-lX' es una matriz de numeros fijos, pes una funcion lineal de Y. Par 10 tanto, par definicion, es un estimador lineal.

Recuerdese que la FRP es

(2)

Sustituyendo esto en (1), se obtiene

~ == (X'xtl X'(XI3 + u) == 13 + (X'X)" X'u

(3) (4)

Debido a que eX'X)-IX'X = I.

Tomando el valor esperado de (4)

E(~) = E(I3) + (X'X):' X'E(u) ==13

(5)

puesto que B(I3) = 13 «(par que.') y B(u) = 0 par supuestos, 10 eual indica que p es un estimador insesgado de 13.

Sea ~* cualquier otro estimador lineal de 13, el eual puede eseribirse como

w == [(X'X)-t X' + C]y

(6)

donde C es una matriz de eonstantes.

Sustituyendo y de (2) en (6), se obtiene

~* = [(X/xt1 X' + C1(XI3 + u)

= 13 + CXIl + (X'xt X'u + Cu

(7)

Si ~' es un estimador insesgado de Il, se debe tener

cx- o

«(Par quer)

(8)

Utilizando (8), (7) puede ser escrito asi:

13' -Il == (X'XtJX'u + Cu

(9)

Por definici6n, la matriz de var-cov (~;) es

930 APENDICE c ENFOOUE MATRICIAL EN EL MODELO DE REGRESION LINEAL

E(~' - fl)(~' - flY == E[(X'X) I X'U + Cu][(X'X)1 X'U + Cu]' (10)

Haciendo usa de las propiedades de inversion y transposici6n de matrices y despues de simplificacion algebraica, se obtiene

var-cov (~') = a' (X'X) 1 + (j2CC' = var-cov (~) + a2CC'

(11)

10 cual indica que la matriz de varianza-covarianza del estimador lineal e insesgado alterno ~' es igual a la matriz de varianza-covarianza del estimador MeO, 11 mas cr2 veces CC', que es una matriz sernidefinida- positiva. Por tanto, las varianzas de un elemento dado de fl" deben ser necesariamente iguales 0 mayores al elemento correspondiente de ~, 10 cual demuestra que .(3 es MEL!. Por supuesto, si C es una matriz nula, es decir, C ::: 0, entonees ~* = ~, 10 que equivale a decir que si se ha encontrado un estimador MELI, este debe ser el estimador de minimos cuadrados ~.

"Vease referencias en el apendice B.

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->