Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
i
i i
x
y x
B
X B Y B
Para 1.2, usamos la frmula del R
2
en desvos:
963 . 0
4 . 122
1 . 13 * 3
2
2
2
2
2
^
2
~ = = =
i
i
y
x B
SCT
SCE
R
Para 1.3, utilizamos la frmula de la Varianza y sacamos raz cuadrada. Recuerde que SE
PIDE LA DESVIACIN ESTNDAR, NO LA VARIANZA:
199 . 0 0398129 . 0
1 . 13 ) 2 10 (
1724 . 4
) 2 (
) 2 (
) ( ) (
2
2
2
2
^
2
^
2
= =
=
=
= =
i
i
i
i
x n
e
x
n
e
B VAR B o
Para 1.4, podemos argir que el valor estimado de la propensin marginal a consumir est
fuera de la realidad. El argumento keynesiano clsico marca un 0 B
2
1, por lo que sta
muestra en particular est sobreestimando lo que la teora econmica marca como rango
aceptable para B
2.
Esto significara que por cada peso extra que ganamos, consumimos 3
pesos, lo que no es coherente con el sentido comn.
Problema 2:
Lo importante aqu es tener claras las frmulas, porque el resto sale muy mecnicamente.
El evento tirar un dado tiene: = {1,2,3,4,5,6} y f(x) ={
1
/
6,
1
/
6,
1
/
6,
1
/
6,
1
/
6,
1
/
6
}
Para 2.1, resolvemos: E(x) = xf(x) = (1
1
/
6
+ 2
1
/
6
+ 3
1
/
6
+ 4
1
/
6
+ 5
1
/
6
+ 6
1
/
6
) = 3.5
Y luego calculamos: VAR(x) = (x-)
2
f(x) VAR(x) = (x-E(x))
2
f(x)
= (1-3.5)
2
1
/
6
+ (2-3.5)
2
1
/
6
+ (3-3.5)
2
1
/
6
+ (4-3.5)
2
1
/
6
+ (5-3.5)
2
1
/
6
+ (6-3.5)
2
1
/
6
=
1
/
6
( 6.25 + 2.25 + 0.25 + 0.25 + 2.25 + 6.25) = (35/12)
Para 2.2, aunque el valor esperado (3.5) queda en medio de los dos valores que dice pepe,
en realidad 3.5 no es un nmero en la cara del dado, as que nunca saldr. Rico tiene razn,
pues a priori no podemos decir que un dado caiga ms que otro, sino que todos tienen la
misma probabilidad de ocurrencia, es decir,
1
/
6.
Para 3, tenemos que:
07 . 6 1
6
1
20
1
3
6
1
20
1
6
1
20
1
20
1
)
20
1
( ) ( )
42 . 2 1
5
1
20
1
3
5
1
20
1
5
1
20
1
20
1
)
20
1
( ) ( )
:
)] ( [ ) ( ) (
) ( ) ( ) (
6 6
3
1
3
1
3
1
6 5 3 2 2
5 5
3
1
3
1
5 4
3
1
3
2 2
2
=
(
=
(
= = =
=
(
=
(
= = =
=
=
} }
} }
}
x dx x dx x x x E ii
x dx x dx x x x E i
Caso Este En
x E x E x VAR
dx x f x x VAR
Por lo tanto, la varianza pedida es: 6.07 - (2.42)
2
= 0.2136
=================================================================
Serie de Problemas Nmero 3:
3.1
Recuerde que se trata de una minimizacin en dos variables! Por lo tanto, requerimos
adems del gradiente igual a cero (condicin de primer orden) la matriz Hessiana
Semidefinida Positiva (condicin de segundo orden para la minimizacin):
0 ) ( ) ( ' ' :
0 ) ( ' :
f(x) Mx
: sin Pr . max ) (
2
2
2
x
< =
c
c
= =
c
c
dx x f
x
f
ORDEN SEGUNDO DE CONDICION
x f
x
f
ORDEN PRIMER DE CONDICION
es n restricci oblema El imizar a funcin la x f SEA
Recuerde que las condiciones para maximizacin son exactamente las inversas!! En
nuestro Modelo, dado que estamos minimizando con dos variables de decisin, las
condiciones tanto de primer como de segundo orden son las siguientes:
( )
2
2
2
^
1
^
1
^
0
^
1
^
0
2
2
2
^
1
^
0
2
2
^
1
2
2
2
^
0
2
2
^
1
^
0
^
1
2
^
1
^
0
^
0
2
^
1
^
0
^
1
^
0
2 :
2
2 1
:
2
2
1
0
0
2
0
0 1
2
>
(
=
=
c c
|
.
|
\
|
+ c
=
c c
c
|
.
|
\
|
+ =
c
c
=
c
c
=
=
|
.
|
\
|
+
=
c
c
=
=
|
.
|
\
|
+
=
c
c
+ =
+ + =
i i i
i i i
i
i
i i
i
i i i i i
i
i
i i
i i i i
i
i i i
i i i
i i i
X X e que basta donde en
X e X
X
H
sigue como queda Hessiano el que lo Con
X
X Y
e
CSO
X e X Y X
e
CSO
e
CSO
X e
X X Y e
CPO
e
X Y e
CPO
X Y e
e X Y
o
o o
o o
o o
o
o
o o
o
o o
o
o o
o o
Para demostrar que el Hessiano es Positivo Definido, lo que implica un mnimo.
RECUERDE QUE un Hessiano es Negativo Definido implica un mximo, porque
maximizar f(x) es idntico a minimizar -f(x). Usted no necesitaba demostrar la
desigualdad para ganar todos los puntos, bastaba llegar a definir la matriz Hessiana.
=================================================================
3.2
Esta era demasiado fcil! Dado lo aburrido del asunto, remtase al Gujarati, pginas 58 a la
67 para releer la respuesta correcta.
=================================================================
3.3
Ji-Cuadrado. Sean { Z
1
, Z
2
, Z
n
} variables aleatorias Normales.
=
=
k
i
i
Z Z
1
2
Distribuye Ji-Cuadrado con k grados de libertad.
F de Fisher. Si Z
1
y Z
2
son dos Ji-Cuadrado con k
1
y k
2
grados de libertad,
respectivamente, la variable:
2
2
1
1
k
Z
k
Z
F = Distribuye F con k1 y k2 grados de Libertad.
t de Student. Si Z1 es Variable Normal y Z2 es Ji-Cuadrado con k grados de libertad.
2
1
2
1
Z
k Z
k
Z
Z
t = = Distribuye t de Student con k Grados de Libertad.
Teorema del Lmite Central. Sean { Z
1
, Z
2
, Z
n
} variables aleatorias con Media = y
Varianza =
2
. Si el tamao de la muestra n aumenta, entonces X (la media aritmtica):
|
|
.
|
\
|
~
n
N X
n
2
,
o
La intuicin es que si estamos promediando variables aleatorias, no
importa cuan diferentes sean entre s, a medida que sumamos un nmero cada vez ms
grande el promedio de ellas se asemejar cada vez ms a una normal, hasta convertirse en
una normal cuando el nmero de variables sumadas es lo suficientemente grande.
=================================================================
3.4
Como vinos repetidamente, un estimador es insesgado si su valor esperado es igual al
verdadero valor poblacional, es decir, si:
B = B) (
^
E
Por otra parte, es eficiente si tiene varianza mnima dentro de todos los estimadores
insesgados. El utilizar el mximo R
2
como criterio de seleccin de estimadores es una mala
idea ya que, para cada muestra en particular, nuestro problema de optimizacin garantiza
minimizar el error estndar, lo que significa maximizar el R
2
.
El mejor criterio de decisin, en todo caso, es el criterio del mnimo error cuadrtico
medio. Definido como:
2
^
2
^ ^
2
^
) ( ) (
) (
(
+
(
=
+ =
B B E E B E B E ECM
SESGO B VAR ECM
Implica un trade-off entre varianza y sesgo. En el caso de los estimadores insesgados, el
segundo miembro del ECM es cero y slo nos preocupa minimizar la varianza del
estimador para encontrar el MELI.
=================================================================
Las respuestas de 4.1, 4.2 y 4.3 son bastante complejas en clculo y notacin, por lo que no
se reproducen aqu, aunque se refieren directamente a las notas de clase, o remtase al
apndice 3A del Gujarati.
4.4
El argumento de su suegro es Falso. Aun cuando las condiciones de Gauss-Markov se
cumplan, recordemos que nos movemos en la rama de los estimadores lineales. Hasta el
momento, nada garantiza que, dentro de los estimadores no lineales exista un mejor
estimador. En la segunda mitad del curso demostraremos que agregando el supuesto de
distribucin normal de los errores, los estimadores MICO alcanzan la cota de Cramer-
Rao. ste fortsimo resultado implicar que son MEI, es decir, los Mejores Estimadores
Insesgados, que es un concepto de estimador ms fuerte que MELI porque abarca tanto a
los estimadores lineales como a los no lineales.
Existe algo mejor aun que MEI? MEI es tan poderoso que yo siempre me
conformara con encontrarlo! Sin embargo, recordemos que aun nos movemos dentro de los
estimadores insesgados. Pero justamente eso es lo que queremos, O no? Recordemos que
aun podra existir un estimador sesgado, pero con varianza tan pequea que compense al
sesgo. La mejor manera de solucionar este trade-off entre varianza y sesgo, y de paso
encontrar el Mejor Estimador, es utilizar el criterio del Mnimo Error Cuadrtico
Medio. ste sera el first-best, o el "mejor de los mejores".
Dado que existen infinitos estimadores, en la prctica hallar MELI ser suficiente,
pero siendo rigurosos, no debemos olvidar que siempre existe algo mejor.