Sei sulla pagina 1di 11

Teoremi Analisi Reale

Teorema 1. Sia (S, A, P) uno spazio di probabilit`a e sia X : S R una


variabile aleatoria tale che E(X) e V ar(X) esistono. Allora:
V ar(X) = E(X
2
) E(X)
2
(1)
Dimostrazione. Sia c R una costante. Allora:
E(c) = c e inoltre E(cX) = cE(X)
Quindi:
V ar(X) = E((X E(X))
2
) =
= E(X
2
+E(X)
2
2XE(X)) =
= E(X
2
) +E(E(X)
2
) E(2XE(X)) =
= E(X
2
) +E(X)
2
2E(X)E(X) =
= E(X
2
) +E(X)
2
2E(X)
2
=
= E(X
2
) E(X)
2
Teorema 2 (della probabilit`a totale). Sia (S, A, P) uno spazio di probabilit`a e
sia B
1
, B
2
, ..., B
n
una partizione di S tale che P(B
k
) > 0 se (1 k n). Gli
eventi B
1
, B
2
, ..., B
n
sono a due a due disgiunti e

n
k=1
B
k
= S. Sia A A un
evento. Allora:
P(A) = P(A|B
1
)P(B
1
) +P(A|B
2
)P(B
2
) +... +P(A|B
n
)P(B
n
) (2)
Dimostrazione. Si pu`o scrivere:
A = (A B
1
) (A B
2
) ... (A B
n
)
dove gli eventi sono a due a due disgiunti. Per denizione si ha che:
P(A|B) =
P(A B)
P(B)
P(A B) = P(A|B)P(B)
Quindi:
P(A) = P(A B
1
) P(A B
2
) ... P(A B
n
) =
P(A|B
1
)P(B
1
) +P(A|B
2
)P(B
2
) +... +P(A|B
n
)P(B
n
)
1
Teorema 3 (di Bayes). Sia (S, A, P) uno spazio di probabilit`a e sia B
1
, B
2
, ..., B
n
una partizione di S tale che P(B
k
) > 0 se (1 k n). Gli eventi B
1
, B
2
, ..., B
n
sono a due a due disgiunti e

n
k=1
B
k
= S. Sia A A un evento tale che
P(A) > 0. Allora:
P(B
k
|A) =
P(A|B
k
)P(B
k
)

n
i=1
P(A|B
i
)P(B
i
)
(3)
Dimostrazione. Per il Teorema 2:
P(A) =
n

i=1
P(A|B
i
)P(B
i
)
Siano A A e B A tali che P(A) > 0 e P(B) > 0, allora:
P(B|A) =
P(A|B)P(B)
P(A)
Da cui segue:
P(B
k
|A) =
P(A|B
k
)P(B
k
)
P(A)
=
P(A|B
k
)P(B
k
)

n
i=1
P(A|B
i
)P(B
i
)
.
Teorema 4. Sia (S, A, P) uno spazio di probabilit`a e siano A A e B A
tali che P(A) > 0 e P(B) > 0. Allora S e B sono indipendenti se solo se
P(A|B) = P(A).
Dimostrazione. Se A e B sono indipendenti, P(A B) = P(A)P(B). Da cui:
P(A|B) =
P(A B)
P(B)
P(A|B) = P(A)
Viceversa:
P(A|B) = P(A)
P(A B)
P(B)
= P(A) P(A B) = P(A)P(B)
Teorema 5. Sia (S, A, P) uno spazio di probabilit`a e sia : S R
2
tale che
(s) = (X(s), Y (s)) una variabile aleatoria. Allora:
E(X +Y ) = E(X) +E(Y ) (4)
Dimostrazione. (Caso continuo)
E(X +Y ) =

(t +s) f

(t, s) dt ds =
=

t f

(t, s) dt ds +

s f

(t, s) dt ds =
2
=

t
_
_

(t, s) ds
_
_
dt +

s
_
_

(t, s) dt
_
_
ds =
=

t f
X
(t) dt +

s f
Y
(s) ds =
= E(X) +E(Y )
Teorema 6. Sia (S, A, P) uno spazio di probabilit`a e sia : S R
2
tale che
(s) = (X(s), Y (s)) una variabile aleatoria. Allora:
V ar(X +Y ) = V ar(X) +V ar(Y ) + 2[E(XY ) E(X)E(Y )] (5)
Dimostrazione. Sia Z = X +Y . Per il Teorema 1 si ottiene:
V ar(Z) = E(Z
2
) E(Z)
2
=
= E(X
2
+Y
2
+ 2XY ) [E(X)
2
+E(Y )
2
+ 2E(X)E(Y )] =
= E(X
2
) E(X)
2
+E(Y
2
) E(Y )
2
+ 2E(XY ) 2E(X)E(Y ) =
= V ar(X) +V ar(Y ) + 2[E(XY ) E(X)E(Y )]
Teorema 7. Sia (S, A, P) uno spazio di probabilit`a e sia : S R
2
tale che
(s) = (X(s), Y (s)) una variabile aleatoria, e siano X e Y indipendenti. Allora:
P

(x
i
, y
i
) = P
X
(x
i
)P
Y
(y
i
) (Caso Discreto) (6)
f

(t, s) = f
X
(t)f
Y
(s) (Caso Continuo) (7)
Viceversa se vale la formula allora le variabili aleatorie sono indipendenti.
Dimostrazione. (Caso Continuo) Siano I
1
R e I
2
R due intervalli. Si ha:
P(X I
1
, Y I
2
) =

I
1

I
2
f

(t, s) dt ds
Per lindipendenza di X e Y si ha:
P(X I
1
, Y I
2
) = P(X I
1
)P(Y I
2
) =

I
1
f
X
(t) dt

I
2
f
Y
(s) ds =
=

I
1

I
2
f
X
(t) f
Y
(s) dt ds
Ne segue che

I
1

I
2
f

(t, s) dt ds =

I
1

I
2
f
X
(t) f
Y
(s) dt ds
3
per ogni coppia di intervalli I
1
R e I
2
R. Quindi:
f

(t, s) = f
X
(t)f
Y
(s)
Supponiamo che esista (t
0
, s
0
) tale che f

(t
0
, s
0
) = f
X
(t
0
)f
Y
(s
0
), ad esem-
pio f

(t
0
, s
0
) > f
X
(t
0
)f
Y
(s
0
). Per la continuit`a delle integrande, esistono due
intervalli I
1
R e I
2
R tali che f

(t, s) > f
X
(t)f
Y
(s) per ogni t I
1
, s I
2
.
Quindi:

I
1

I
2
f

(t, s) dt ds >

I
1

I
2
f
X
(t) f
Y
(s) dt ds
che `e assurdo.
Teorema 8. Sia (S, A, P) uno spazio di probabilit`a e sia : S R
2
tale che
(s) = (X(s), Y (s)) una variabile aleatoria, e siano X e Y indipendenti. Allora:
V ar(X +Y ) = V ar(X) +V ar(Y ) (8)
Dimostrazione. Per il Teorema 6 si ha:
V ar(X) +V ar(Y ) + 2[E(XY ) E(X)E(Y )]
Poiche X e Y sono indipendenti si ha anche che:
f

(t, s) = f
X
(t)f
Y
(s)
Quindi:
E(XY ) =

ts f

(t, s) dt ds =
=

ts f
X
(t) f
Y
(s) dt ds =

t f
X
(t) dt

s f
Y
(s) ds =
= E(X)E(Y )
Quindi si arriva alla tesi:
E(XY ) E(X)E(Y ) = 0 V ar(X +Y ) = V ar(X) +V ar(Y )
Teorema 9. Siano X
1
, X
2
, ..., X
n
delle variabili aleatorie tutte indipendenti
tra loro, aventi tutte lo stesso valore atteso e la stessa varianza
2
. Sia
M
n
=
1
n
[X
1
+X
2
+... +X
n
] =
1
n

n
i=1
X
i
la media campionaria. Allora:
E(M
n
) = e V ar(M
n
) =

2
n
(9)
Dimostrazione. Per il Teorema 5:
E(M
n
) =
1
n
n

i=1
X
i
=
1
n
n =
4
Inoltre:
V ar(M
n
) = V ar(
1
n
n

i=1
X
i
) =
1
n
2
V ar(
n

i=1
X
i
) =
1
n
2
n
2
=

2
n
Teorema 10 (Disugualianza di Cebiscev). Sia (S, A, P) uno spazio di proba-
bilit`a e sia X : S R una variabile aleatoria e sia > 0. Allora:
P(|X | )

2

2
(10)
Dimostrazione. Sia f
X
(t) la densit`a di probabilit`a di X, si ha:

2
= E(|X |
2
) =

(t )
2
f
X
(t)dt

|t|
(t )
2
f
X
(t)dt
2

|t|
f
X
(t)dt =
=
2
P(|X | )
Quindi si ottiene la tesi:
P(|X | )

2

2
Teorema 11 (Legge dei Grandi Numeri). Sia (S, A, P) uno spazio di probabilit`a
e siano X
1
, X
2
, ..., X
n
delle variabili aleatorie tutte indipendenti tra loro, aventi
tutte lo stesso valore atteso e la stessa varianza
2
. Sia M
n
=
1
n

n
i=1
X
i
la
media campionaria. Allora M
n
converge a in probabilit`a, ovvero:
lim
n
P(|M
n
| ) = 0 0 (11)
Dimostrazione. Per il Teorema 9:
E(M
n
) = e V ar(M
n
) =

2
n
Per il Teorema 10:
0 P(|M
n
| )
V ar(M
n
)

2
=

2

2
n
0
Per il Teorema dei Carabineri:
P(|M
n
| ) 0 se n 0
5
Teorema 12 (del Limite Centrale). Sia X
1
, X
2
, ..., X
n
una successione di
variabili aleatorie indipendenti, tutte aventi la stessa legge di probabilit`a. Sia
S
n
=

(N
n
) e siano a < b due numeri reali. Allora:
lim
n
P(a S
n
b) = P(a Z b) = (b) (a) (12)
Teorema 13. Sia f : [a, b) R una funzione integrabile nel senso di Riemann.
Allora f `e misurabile, e sommabile, nel senso di Lebesgue e:
b

a
f(x) dx =

[a,b)
f d (13)
Teorema 14 (di Levi o della Convergenza Monotona). Sia E R
n
un insieme
misurabile, e sia f
k
una successione di funzioni misurabili in E, a valori in
R {}. Si supponga che:
f
1
`e sommabile in E
f
1
(x) f
2
(x) ... f
k
(x) per q.o. x E
Allora:

E
lim
k
f
k
d = lim
k

E
f
k
d (14)
Teorema 15. Sia E R
n
un insieme misurabile, e sia f
k
: E [0, ) {}
una funzione misurabile (k = 1, 2, ...). Allora:

E
(lim f
k
) d lim

E
f
k
d (15)
Teorema 16 (di Lebesgue o della Convergenza Limitata). Sia E R
n
un
insieme misurabile, e sia f
k
: E R {} una funzione misurabile (k =
1, 2, ...). Sia f : E R {} una funzione. Si supponga che:
f
k
f puntualmente quasi ovunque
esiste una funzione sommabile : E [0, ) {} tale che |f
k
(x)|
(x) q.o. per k = 1, 2, ...
Allora:

E
f
k
d =

E
_
lim
k
f
k
_
d = lim
k

E
f
k
d (16)
Teorema 17 (della Consistenza di Kolmogorov). Sia T = [0, ] oppure T =
{0, 1, ..., n, ...}. Sia {P
t
1
...t
n
|n 1, t
1
< t
2
< ... < t
n
T} una famiglia di
misura tale che:
P
t
1
...t
n
`e una misura di probabilit`a in R
n
se {t
k
1
< t
k
2
< ... < t
k
n
} allora P
t
k
1
...t
k
n
`e la misura marginale di P
t
1
...t
n
che corrisponde alla m-upla t
k
1
...t
k
m
6
Allora esistono uno spazio di probabilit`a (S, A, P) ed un processo stocastico
{X
t
|t T} tali che, se t
1
< t
2
< ... < t
n
T}, allora la misura di probabilit`a
in R
n
determinata da (X
t
1
, X
t
2
, ..., X
t
n
) coincide con {P
t
1
...t
n
}.
Teorema 18 (della Continuit`a di Kolmogorov). Sia (S, A, P) uno spazio di
probabilit`a e sia {X
t
|t [0, )} un processo stocastico per cui esistono > 0,
> 0 e c > 0 tali che:
E(|X
t
X
s
|
p
) c|t s|
1+
t, s R
Allora esiste una modicazione {Y
t
|t [0, )} di {X
t
|t [0, )} tale s S,
la traiettoria t Y
t
(s) `e continua.
Teorema 19. Siano X e Y due variabili aleatorie tali che:
E(|X|) < E(X
2
) < E(|Y |) < E(Y
2
) <
Allora:
(E(XY ))
2
E(X
2
)E(Y
2
) (17)
Dimostrazione. Si ha:
0 E((X +tY )
2
) = E(X
2
+ 2tXY +T
2
Y
2
) =
= E(X
2
) + 2E(XY )t +E(Y
2
)t
2
= C + 2Bt +At
2
Quindi per ogni t R si ha che At
2
+2Bt +C 0. Perci`o se At
2
+2Bt +C = 0
si avr`a al pi` u una soluzione reale, ma le radici soddisfano a
2B

4B
2
4AC
2A
Da cui segue:
4B
2
4AC 0 B
2
AC (E(XY ))
2
E(X
2
)E(Y
2
)
Teorema 20. Sia X una variabile aleatoria, e sia un parametro della legge
di X. Sia X
1
, X
2
, ..., X
n
un campione della variabile aleatoria X. Sia

uno
stimatore di tale che:


`e asintoticamente non distorto
V ar(

) 0 se n 0
Allora

`e consistente, ovvero:
lim
n
P(|

| ) = 0 > 0 (18)
Dimostrazione. Sia (S, A, P) uno spazio di probabilit`a tale che tutte le variabili
aleatorie X
1
, X
2
, ..., X
n
siano denite in S. Un tale spazio di probabilit`a esiste.
Notiamo che se s S, e se n 1 allora:

(X
1
(s), X
2
(s), ..., X
n
(s)) =

(X
1
(s), X
2
(s), ..., X
n
(s)) +E(

) E(

)
7
|

(X
1
(s), X
2
(s), ..., X
n
(s))|

(X
1
(s), X
2
(s), ..., X
n
(s))E(

)+|E(

)|
Per la distorsione asintotica di

, esiste n tale che se n n
0
allora:
|E(

) | <

2
Introduciamo gli eventi :
A = {s S | |

(X
1
(s), X
2
(s), ..., X
n
(s)) | < }
B = {s S | |

(X
1
(s), X
2
(s), ..., X
n
(s)) E(

)| <

2
}
Se n n
0
si ha che B A e quindi A B.
Consideriamo linsieme:
B = {s S | |

(X
1
(s), X
2
(s), ..., X
n
(s)) E(

)|

2
}
Applichiamo a disugualianza di Cebiscev :
P(B)
V ar(

)
(/2)
Quindi per ogni > 0 corrisponde n
1
n
0
tale che se n n
1
allora P(B) .
Tenendo conto che A B si vede che se n n
1
allora:
0 P(A) 0 P(s S | |

(X
1
(s), X
2
(s), ..., X
n
(s)) | ) .
Ovvero:

in probabilit`a
Teorema 21. Il valore atteso di SS =

n
i=1
(X
i
M
n
)
2
`e:
E(SS) = (n 1)
2
(19)
Dimostrazione. Si ha:
E(SS) = E
_
n

i=1
(X
i
M
n
)
2
_
= E
_
n

i=1
(X
i
+ M
n
)
2
_
=
= E
_
n

i=1
(X
i
)
2
_
+E
_
n

i=1
E(M
n
)
2
_
+E
_
n

i=1
2(X
i
)( M
n
)
_
=
=
n

i=1
E(X
i
)
2
+
n

i=1
E(M
n
)
2
E
_
n

i=1
2(X
i
)(M
n
)
_
=
= n
2
+
n

i=1

2
n
2E
_
n
1
n
(X
i
)(M
n
)
_
=
= n
2
+
2
2nE
_
(M
n
)
2
_
=
= (n + 1)
2
2
2
= (n 1)
2
8
Teorema 22. Lo stimatore S
2
`e uno stimatore consistente della varianza, cio`e
S
2
tende in probabilit`a a
2
Dimostrazione. (Bozza) Vogliamo dimostrare che S
2
=
1
n1

n
i=1
(X
i
M
n
)
2
tende in probabilit`a a
2
, ovvero che
1
n1
SS tende in probabilit`a a
2
. Si verica
che:
1
n 1
SS tende in probabilit`a a
2

1
n
SS tende in probabilit`a a
2
Studiamo
1
n
SS:
1
n
SS =
1
n
n

i=1
(X
i
M
n
)
2
=
1
n
n

i=1
X
2
i

2
n
n

i=1
X
i
M
n
+
1
n
n

i=1
M
2
n
I tre membri possono essere considerati come segue:
1
n
n

i=1
M
2
n
= M
2
n
Per la Legge dei Grandi Numeri M
n
in probabilit`a, da cui segue che
M
2
n

2
in probabilit`a.
1
n
n

i=1
X
i
M
n
=
M
n
n
n

i=1
X
i
= M
n
M
n
= M
2
n
M
2
n

2
in probabilit`a.
Per quanto riguarda
1
n

n
i=1
X
2
i
, poniamo Y = X
2
, Y
1
= X
2
1
, ..., Y
n
= X
2
n
.
Vogliamo sapere E(Y ) e vogliamo sapere se Y
1
, Y
2
, ..., Y
n
sono indipendenti.
E(Y ) = E(X
2
)

2
= V ar(X) = E(X
2
) E(X)
2

E(Y ) =
2
+E(X)
2
=
2
+
2
Verichiamo che Y
1
, Y
2
, ..., Y
n
sono indipendenti, ovvero che:
P{Y
1
I
1
, ..., Y
n
I
n
} = P{Y
1
I
1
}...P{Y
n
I
n
}
Supponiamo che:
I
1
= [a
1
, b
1
], I
2
= [a
2
, b
2
], ..., I
n
= [a
n
, b
n
] dove a
1
, ..., a
n
0
Studiamo:
P{Y
1
I
1
, ..., Y
n
I
n
} = P{X
2
1
[a
1
, b
1
], ..., X
2
n
[a
n
, b
n
]} =
= P
_
_
_
X
1
[

a
1
,

b
1
], ..., X
n
[

a
n
,

b
n
]
oppure
X
1
[

b
1
,

a
1
], ..., X
n
[

b
n
,

a
n
]
_
_
_
=
= P
_
_
_
X
1
[

a
1
,

b
1
]
oppure
X
1
[

b
1
,

a
1
]
_
_
_
P
_
_
_
X
2
[

a
2
,

b
2
]
oppure
X
2
[

b
2
,

a
2
]
_
_
_
...P
_
_
_
X
n
[

a
n
,

b
n
]
oppure
X
n
[

b
n
,

a
n
]
_
_
_
9
Si ottiene che E(Y ) =
2
+
2
e che Y
1
, Y
2
, ..., Y
n
sono un campione di Y .
Quindi per la Legge dei Grandi Numeri si ha che:
M
Y
n
=
1
n
n

i=1
Y
i

2
+
2
in probabilit`a
Riprendendo:
1
n
SS =
1
n
n

i=1
X
2
i

2
n
n

i=1
X
i
M
n
+
1
n
n

i=1
M
2
n

1
n

n
i=1
M
2
n

2

2
n

n
i=1
X
i
M
n
2
2

1
n

n
i=1
X
2
i

2
+
2
1
n
SS =
2
+
2
2
2
+
2
=
2
Quindi S
2
=
1
n1

n
i=1
(X
i
M
n
)
2
`e uno stimatore consistente e non distorto
della varianza.
Teorema 23. Supponiamo che X sia normale: X N(,
2
). Consideriamo
la quantit`a n1
S
2

2
: questa quantit`a ha legge di probabilit`a uguale a quella della
variabile aleatoria
2
n1
(chi-quadro, di n 1 gradi di libert`a).
Teorema 24 (di Student). Supponiamo che X sia normale: X N(,
2
).
Introduciamo un campione X
1
, X
2
, ..., X
n
della X e determiniamo M
n
=
1
n

n
i=1
X
i
, S
2
=
1
n1

n
i=1
(X
i
M
n
)
2
e S =

S
2
. Allora la legge della
variabile aleatoria

n
S
(M
n
) `e del tipo T
n1
di Student, di n 1 gradi di
libert` a.
Teorema 25 (di Pearson). Sia c
i
=
n
p
i
con (1 i n) e deniamo:
D
N1
=
n

i=1
n
p
i
(

i
n
p
i
)
2
Se la legge di X `e eettivamente uguale a quella di Y allora la legge di D
N1
tende a quella di
2
n1
se n .
Teorema 26 (Cramer, Fisher). Sia R un intervallo. Sia X una variabile
aleatoria e sia un parametro della legge di X. si f(X, ) la densit`a della
variabile aleatoria X. Si supponga che:
1.

f(x, ),

2

2
f(x, ),

3

3
f(x, ) esistono e sono continue in R
2.

f(X, )

F
1
(x),

2
f(X, )

F
2
(x)

3
f(X, )

H(x) x R,
, ove

F
1
(x)dx < ,

F
2
(x)dx < e

H(x) f(x, )dx M =


costante che dipende da
10
3. Linformazione di Fisher I() =

(ln f(x, ))
_
2
f(x, )dx assume val-
ore in (0, ), ovvero 0 < I() < per .
4.
0
Int()
Allora lequazione di verosimiglianza:
0 =

ln L()
d`a luogo ad uno stimatore

(X
1
, X
2
, ..., X
n
) per n 1, che gode delle seguenti
propriet` a:


`e consistente, ovvero


0
in probabilit`a


n(


0
) tende in legge alla normale N
_
0,
1
I(
0
)
_


`e asintoticamente eciente
11