Mirko D’Ovidio
2020
c 2015 by Mirko D’Ovidio
�
All rights reserved. This book or any portion thereof may not be re-
produced or used in any manner whatsoever without the express written
permission of the publisher except for the use of brief quotations in a
book review or scholarly journal.
ISBN 978-1-329-61591-5
Capire l’incertezza per ridurla
1 Osservazione e Probabilità 1
1.1 Statistica descrittiva . . . . . . . . . . . . . . . . . . . . . 1
1.2 Probabilità . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Statistica inferenziale . . . . . . . . . . . . . . . . . . . . . 9
1.4 Il concetto di Probabilità . . . . . . . . . . . . . . . . . . 11
1.5 Probabilità e Applicazioni . . . . . . . . . . . . . . . . . . 12
2 Misura e Probabilità 15
2.1 Insiemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Misure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Misure di Probabilità ✍ . . . . . . . . . . . . . . . . . . . 23
2.4 Spazi di Probabilità uniformi . . . . . . . . . . . . . . . . 34
3 Variabili Aleatorie 47
3.1 Definizione e caratterizzazione ✍ . . . . . . . . . . . . . . 47
3.2 Media e Momenti ✍ . . . . . . . . . . . . . . . . . . . . . 64
3.3 Relazioni tra variabili aleatorie ✍ . . . . . . . . . . . . . . 70
3.3.1 Probabilità congiunte e condizionate . . . . . . . . 70
3.3.2 Relazioni di dipendenza . . . . . . . . . . . . . . . 75
3.3.3 Trasformazioni di v.a. . . . . . . . . . . . . . . . . 84
3.3.4 Somme di variabili aleatorie . . . . . . . . . . . . . 93
3.3.5 Variabili aleatorie ordinate . . . . . . . . . . . . . 103
3.3.6 Simulazione, generatori di numeri casuali . . . . . 109
3.3.7 Alcune disuguaglianze fondamentali . . . . . . . . 111
3.4 Trasformate di densità . . . . . . . . . . . . . . . . . . . . 112
3.5 Convergenza di variabili aleatorie . . . . . . . . . . . . . . 119
3.5.1 Convergenza in distribuzione . . . . . . . . . . . . 120
3.5.2 Convergenza in probabilità . . . . . . . . . . . . . 122
3.5.3 Convergenza in media . . . . . . . . . . . . . . . . 123
3.5.4 Convergenza quasi certa . . . . . . . . . . . . . . . 124
3.5.5 Altre questioni sulla convergenza . . . . . . . . . . 126
i
ii INDICE
4 Esercizi 145
5 Approfondimenti 154
7 Esercizi 197
A Somme Notevoli
B I modelli lineari
Bibliografia
Introduzione
iii
iv INDICE
Osservazione e Probabilità
ad esempio.
1
2 CAPITOLO 1. OSSERVAZIONE E PROBABILITÀ
x = (2, 2, 3, 4, 2, 4, 3, 2, 5, 1, 1)
numero invece del nome, ci sono 10000 studenti quindi se X è l’età dello
studente, allora Xi è per noi l’età dello studente i con i = 1, 2, . . . , 10000.
All’ingresso della Facoltà di ingegneria trovo i 5 studenti corrispondenti
ai numeri (6, 60, 114, 1002, 8657) registro le loro età e ottengo il campione
x = (X6 = 19, X60 = 20, X114 = 26, X1002 = 18, X8657 = 21).
1.2 Probabilità
Per introdurre il concetto di probabilità cerchiamo di impostare il pro-
blema visto sopra da un punto di vista più matematico.
Si capisce bene che l’età di una persona può essere considerata come
una variabile in un dato problema, in particolare è una variabile quantita-
tiva discreta2 . Nel nostro caso, dobbiamo aggiungere che si tratta di una
variabile aleatoria, non sappiamo cioè quanto vale fino a quando non os-
serviamo (fino a quando non si realizza la variabile aleatoria). Dobbiamo
quindi distinguere tra
Notiamo che
quantitativa continua.
6 CAPITOLO 1. OSSERVAZIONE E PROBABILITÀ
i) X =“lancio il dado”;
i) X =“altezza”;
1 �
X̄n = Xj (1.9)
n j∈c
n
P (X = xi ) = fi i = 1, 2, . . .
x = (60, 62, 59, 66, 70, 55, 64, 61, 68, 62).
processi aleatori che sono oggetti più complessi e prevedono, tra le altre
cose, una diversa struttura di dipendenza tra le osservazioni. I processi
aleatori possono rappresentare fenomeni evolutivi e quindi dipendono dal
tempo. Tali processi rappresentano fenomeni fisici, biologici, finanziari e
si possono associare a moti aleatori (di particelle o titoli ad esempio) che
seguono delle leggi governate da equazioni differenziali.
Misura e Probabilità
2.1 Insiemi
Useremo le seguenti notazioni:
N = {1, 2, 3 . . .}, N0 = N ∪ {0},
Z = {. . . , −3, −2, −1} ∪ N0 ,
Q = {m/n, m ∈ Z, n ∈ N},
R = (−∞, +∞), R∗ = R ∪ {−∞, +∞}.
15
16 CAPITOLO 2. MISURA E PROBABILITÀ
elemento) tale che |A| = |B| mentre è finito un insieme che non risulti
infinito. Tutti gli insiemi finiti sono numerabili, è facile pensare nel caso
f : I �→ KI che esista un unico n ∈ N per cui |A| = |{1, 2, . . . , n}| e
scriveremo |A| = n, abbiamo ottenuto quindi che un insieme A è finito se
e solo se vale |A| < |N| e quindi è finito numerabile5 . Si dice invece che
un insieme ha la potenza del continuo se risulta |A| = |R|.
Definizione 5. (Insieme numerabile) Un insieme A è detto numerabile
se esiste una funzione iniettiva f : A �→ N . Se f è anche una funzio-
ne suriettiva (quindi è biunivoca), allora A è chiamato insieme infinito
numerabile.
Si noti che |{a, b, f, 3, h}| = 5, |{•, ♣, ♠}| = 3, si sta considerando il
numero di elementi che costituiscono un insieme. E’ importante notare
che se un insieme è finito allora è numerabile. Se un insieme non è finito,
può essere infinito numerabile. Dato un insieme a ∈ Rn possiamo scrivere
a = {ak , k = 1, 2, . . . , n} oppure a = (a1 , a2 , . . . , an ). Dato un insieme
x ∈ Rn useremo la stessa notazione e scriveremo
x = {xk , k = 1, 2, . . . , n} = {xk }k∈N
oppure
x = (x1 , x2 , . . . , xn ).
Sia A un insieme, sia P(A) la famiglia dei sottoinsiemi di A.
Definizione 6. (Algebre) Una famiglia A ⊆ P(A) è detta algebra su A
se
1. {∅} ∈ A;
2. E ∈ A ⇒ Ē ∈ A;
3. E, F ∈ A ⇒ E ∪ F ∈ A
Quindi ogni algebra è stabile rispetto alla unione finita (o numerabile),
nel senso che l’operazione di unione su insiemi di A porta ad un insieme
di A, inoltre è numerabile visto che a due a due possono formarsi le unioni
di tutti gli elementi di A. Ogni famiglia non vuota A ⊆ P(A) stabile per
il passaggio al complementare e per unione finita contiene l’insieme vuoto
{∅} e quindi è un’algebra.
5 Vale la pena di notare che l’insieme dei razionali Q = {p/q|p ∈ Z, q ∈ N} è
1. {∅} ∈ A;
2. E ∈ A ⇒ Ē ∈ A;
�∞
3. per ogni successione {Ek } ⊆ A risulta k=1 Ek ∈ A.
1. A è una σ-algebra;
aleatorie.
20 CAPITOLO 2. MISURA E PROBABILITÀ
2.2 Misure
Proposizione 3. (Misura di Lebesgue) Valgono le seguenti:
1. ogni intervallo limitato Ia,b = (a, b) ⊂ R è misurabile secondo
Lebesgue e risulta µ� (Ia,b ) := b − a,
2. ogni intervallo non limitato I (I = I(−∞,b) o I = I(a,+∞) ) è misu-
rabile secondo Lebesgue e risulta µ� (I) := ∞.
2. area di R.
Osservazione 3. Notiamo che µ� ([a, b]) = µ� ({a} ∪ (a, b) ∪ {b}) =
µ� ((a, b)) visto che µ� ({a}) = µ� ({b}) = 0. Vale infatti quanto sotto
riportato.
Proposizione 4. Ogni sottoinsieme numerabile di R è misurabile secon-
do Lebesgue e ha misura nulla.
Si scelga una funzione f e si calcoli il limite
� a+1/n
lim f (x)dx.
n→∞ a
in A.
9 Tornate a questa definizione dopo aver studiato le variabili aleatorie condizionate.
22 CAPITOLO 2. MISURA E PROBABILITÀ
Esercizio 8. Si calcoli
� x
I(x) = f (u)du, x∈R (2.3)
−∞
Una esempio di misura (di Lebesgue) che "non vede" i punti (separa-
tamente) ma "vede" solo gli intervalli. Le funzioni (2.4) e (2.5) sono
diverse ma si ottiene la stesso integrale I(x). Conoscendo I(x) e la sua
rappresentazione (2.3) non si può risalire ad f .
Esempio 5. Nel lancio di due dadi si deve considerare uno spazio degli
eventi elementari dato da
Ω = {ωi,j = (i, j) : 1 ≤ i, j ≤ 6}
2 1 1
P (ottenere entrambi i numeri 1 e 2) = = +
36 36 36
che introduce il concetto di eventi incompatibili (insiemi disgiunti) ed il
fatto che P (A ∪ B) = P (A) + P (B) se A ∩ B = ∅. Inoltre, si vede subito
che
1 1 1
P (ottenere (1, 2)) = = · = P (ottenere 1) · P (ottenere 2)
36 6 6
2.3. MISURE DI PROBABILITÀ - 25
P (E) = P (E ∩ A) + P (E ∩ Ac ). (2.7)
Ovviamente si può procedere con più di tre eventi. Lasciamo questo eser-
cizio al lettore interessato, si noti che un modo di procedere è il metodo
grafico (diagrammi di Venn).
P (A ∩ B) P (A ∩ B)
P (A|B) = e P (B|A) = .
P (B) P (A)
P (faccia < k|A) = P (faccia < k), P (faccia < k|B) = P (faccia < k).
Esempio 10. Si consideri una scatola contenente due palline rosse e tre
palline nere. Vogliamo calcolare la probabilità di ottenere tutte palline
nere estraendo tre palline in blocco. Allora, sia Ni ="pallina nera alla
i-esima estrazione", otteniamo
P ({1}|somma = 3)
=P ((D1 = 1) ∪ (D2 = 1)|D1 + D2 = 3)
P ([(D1 = 1) ∪ (D2 = 1)] ∩ (D1 + D2 = 3))
=
P (D1 + D2 = 3)
P ([(D1 = 1) ∩ (D1 + D2 = 3)] ∪ [(D2 = 1) ∩ (D1 + D2 = 3)])
=
P (D1 + D2 = 3)
P ((D1 = 1) ∩ (D2 = 2)) + P ((D1 = 2) ∩ (D2 = 1))
= = 1.
P (D1 + D2 = 3)
Esempio 12. Seguendo il precedente esercizio, vediamo invece che
P ({1}|somma = 4)
P ([(D1 = 1) ∩ (D1 + D2 = 4)] ∪ [(D2 = 1) ∩ (D1 + D2 = 4)])
=
P (D1 + D2 = 4)
P ((D1 = 1) ∩ (D2 = 3)) + P ((D1 = 3) ∩ (D2 = 1))
=
P (D1 + D2 = 4)
1 2
= ·
P (D1 + D2 = 4) 36
P (E ∩ Ar ) P (E|Ar )P (Ar )
P (Ar |E) = = .
P (E) P (E)
Inoltre, E ⊂ ∪r Ar e quindi
� �
� �
E=E∩ Ar = (E ∩ Ar ).
r r
La dimostrazione è conclusa.
2.3. MISURE DI PROBABILITÀ - 31
A \ B = A ∩ Bc (2.13)
Inoltre,
� ∞
�
�
lim P (Ak ) = P Ak , (se la successione è crescente)
k→∞
k=1
34 CAPITOLO 2. MISURA E PROBABILITÀ
� ∞
�
�
lim P (Ak ) = P Ak , (se la successione è decrescente).
k→∞
k=1
µ� (casi possibili) = µ� {k : k = 1, 2, . . . , N } = N.
|P n | = n!.
i) di cardinalità k ≤ n,
ii) che non differiscono per ordine (non ordinati)
formano l’insieme Cn,k delle
combinazioni semplici degli n elementi di U in classi di k.
Inoltre,
� �
n n!
|Cn,k | = = .
k (n − k)!k!
Sia U = {a, b, c}, allora P 3 = {abc, acb, bac, bca, cab, cba}, C3,1 =
{a, b, c}, C3,2 = {ab, ac, bc}, C3,3 = {abc}.
Esercizio 14. Da un urna contenente 5 palline rosse e 5 palline nere, si
estraggono, con reimbussolamento (o con ripetizione), due palline a caso.
Calcolare le seguenti probabilità:
1. P (estrarre una pallina rossa e una nera);
2. P (estrarre due palline rosse);
3. P (estrarre due palline nere);
4. P (avere estratto una pallina rossa se so che una è nera).
Esercizio 15. Da un urna contenente 5 palline rosse e 5 palline nere,
si estraggono, senza reimbussolamento (o senza ripetizione), due palline
a caso. Calcolare le seguenti probabilità:
1. P (estrarre una pallina rossa e una nera);
2. P (estrarre due palline rosse);
3. P (estrarre due palline nere).
Esercizio 16. Da un urna contenente 4 palline rosse e 6 palline nere,
si estraggono, senza reimbussolamento, due palline a caso. Calcolare le
seguenti probabilità:
1. P (estrarre una pallina rossa e una nera);
2. P (estrarre due palline rosse);
2.4. SPAZI DI PROBABILITÀ UNIFORMI 37
Supponiamo ora che dal campione relativo a cn si sia ottenuta l’età media
x̄ = 20. Dobbiamo notare che P (X̄n = 20) �= P (cn ) infatti ci possono
essere diversi campioni con la stessa media campionaria (la media delle
età di Maria e Alberto può essere uguale alla media delle età di Marta e
Simone). Il problema di determinare la legge distributiva di X̄n è quindi
ancora aperto, non sappiamo cioè scrivere P (X̄n = x) per ogni x.
52
2. P (RR) = P (R ∩ R) = P (R)P (R) = 102 ;
52
3. P (N N ) = P (N ∩ N ) = P (N )P (N ) = 102 ;
P (R∩N )
4. P (R|N ) = P (N ) = 10 .
5
1
P (G al tentativo numero 1) =P (G) =
n
n−1 1
P (G al tentativo numero 2) =P (S)P (G) =
n n−1
n−1n−2 1
P (G al tentativo numero 3) =P (S)P (S)P (G) =
n n−1n−2
....
..
1
P (G al tentativo numero k) =P (S)P (S) · · · P (S)P (G) =
n
i) di cardinalità k ≤ n,
ii) che differiscono per ordinamento (ordinati),
iii) in cui ogni elemento di U può essere preso una sola volta (senza
ripetizione)
formano l’insieme Dn,k delle
disposizioni semplici di n elementi in classe di k.
Inoltre,
n!
|Dn,k | = n · (n − 1) · · · (n − k + 1) = .
(n − k)!
2. P (RR) = 10 9 ;
5 4
3. P (N N ) = 10 9 .
5 4
Esercizio 22. Mario e Piero (in questo ordine) estraggono una pallina
numerata a testa con reimbussolamento da una scatola contenete i numeri
da 1 a 9. Guardano i numeri sulle due palline estratte, chi ha un numero
pari vince 5 euro e se si sono estratte due palline con un numero pari
non vince nessuno. Si ripete questa operazione due volte. Calcolare le
probabilità dei seguenti eventi:
1. nessuno vince;
Variabili Aleatorie
47
48 CAPITOLO 3. VARIABILI ALEATORIE
partire da Ω.
3.1. DEFINIZIONE E CARATTERIZZAZIONE - 49
xn ↓ x ⇒ FX (xn ) ↓ P (X ≤ x) = FX (x)
1.0
●
0.8
●
0.6
●
0.4
●
0.2
●
0.0
0 1 2 3 4 5 6 7
dove
�
P (X = xk ), xk ∈ spet(X)
pk := (3.9)
0, altrimenti
X ∼ (xk , pk ), k ∈ IX . (3.10)
µ� (B) 1 �
P (X ∈ B) = = µ (B).
µ� (Ω) |Ω|
Ritroviamo cioè uno spazio di probabilità uniforme e la probabilità di un
evento si può calcolare usando il metodo classico (si veda la Sezione 2.4).
6 Ricordiamo che per ogni E ⊂ Z si ha |P(E)| = 2|E|
3.1. DEFINIZIONE E CARATTERIZZAZIONE - 53
oppure
2. 1 − FX (2) e P (X ≤ 1),
o equivalentemente
è derivabile e vale
ed il rapporto incrementale
� x+h
F (x + h) − F (x) 1
= f (u)du.
h h x
integrabile. Dobbiamo notare che fX > 0� è una condizione necessaria affinché fX sia
una legge di densità. Quindi deve essere B fX (x)dx < ∞.
11 Per una discussione dettagliata sulle funzioni assolutamente continue si veda [10,
pag. 311].
3.1. DEFINIZIONE E CARATTERIZZAZIONE - 57
X = (X1 , X2 , . . . , Xn )
oppure
�
dFX1 (x) ��
fX1 (x1 ) = .
dx �x=x1
∂nϕ
φn (x) = (x) = fX1 ,...,Xn (x1 , . . . , xn ),
∂x1 · · · ∂xn
e
φn−1 (x) = fX1 ,X2 ,...,Xj−1 ,Xj+1 ,...,Xn (x1 , x2 , . . . , xj−1 , xj+1 , . . . , xn )
otteniamo
�
φn−1 (x) = φn (x)dxj .
supp(Xj )
P (X1 ≤ x1 , X2 ≤ ∞) = P (X1 ≤ x1 )
con
P (x < X ≤ x+ � x) �
lim = FX (x).
�x→0 �x
60 CAPITOLO 3. VARIABILI ALEATORIE
e
�
fX (x)dx = P (X ∈ A) = 0.
Rn \supp(X)
x, y si ha
∀ � > 0 ∃ δ = δ(�) > 0 : |y − x| < δ ⇒ |f (y) − f (x)| < �.
/ L1 (f non è integrabile18 ).
è differenziabile e verificare che F � = f ∈
Esercizio 35. Sia X ∼ fX con fX (x) = κ1E (x) con E = (0, l), κ, l > 0.
Dire se X è c. oppure a.c. in R. Quanto vale κ? Chi è X? (Chiedere
chi è X equivale a chiedere di caratterizzare X. Scrivere la sua densità.)
che è continua.
� �
Eg(X) := g(x) fX (x)dx, Eg(Y ) := g(yk ) pk . (3.20)
supp(X) k∈IY
una v.a. X per cui EX r = ∞ e non avrà senso per noi considerare un
momento infinito,
con r > 0.
i) E1A (X) = P (X ∈ A)
22 Si usa il simbolo E per ricordare il termine Expectation o Expected value
v) se X ≥ 0 e p > 0, si ha
� ∞ �
EX p = pxp−1 P (X > x)dx, EX p = p(xk )p−1 P (X > xk )
0 k∈IX
vi) se X ≥ 0 e EX = 0, allora P (X = 0) = 1
vii) se p e q sono esponenti coniugati, allora
1 1
E|XY | ≤ (E|X|p ) p (E|Y |q ) q
la covarianza25
ed i momenti
Mr := EX r . (3.23)
23 Ci riferiamo a valori di sintesi nel senso che caratterizzano le v.a. allo studio e
X ⊥ Y ⇒ Cov(X, Y ) = 0. (3.25)
Se invece X ∼ (xk , pk ), k ∈ IX ,
� �
E1A (X) = 1A (x)f (x)µδ (dx) = 1A (xk ) pk = P (X ∈ A).
k∈IX
FX (0) = 0, FX (+∞) = 1,
dove X1 ="peso del gessetto" avrà una sua distribuzione con un peso me-
dio e varianza prossima a zero, X2 ="forza nel lancio" avrà media uguale
alla forza stabilita nella fase iniziale dell’esperimento e varianza che di-
penderà dalla sensibilità generale dei lanciatori, X 3 ="forza del vento"
avrà un valore medio prossimo a zero (nel senso che “mediamente” 26 non
ci sarà vento) ma la varianza può essere elevata (per via delle folate di
vento). Il modello aleatorio consentirà di individuare una distribuzione di
probabilità per il punto di contatto del gessetto. Inoltre data una regione
di piano, diciamo R, attraverso tale distribuzione di probabilità diremo
che il gessetto (in un lancio effettuato da uno studente) cadrà in un punto
di R con una certa probabilità. Se Rρ è un disco di raggio ρ > 0, possiamo
trovare quel valore di ρ per cui P (Y ∈ Rρ ) = α con α = 0.95 o α = 0.99
ad esempio. Se ρ è molto grande, P (Y ∈ Rρ ) = 1 ma questo rappresenta
il caso banale. La giusta scelta di ρ ∈ (0, ∞) va fatta massimizzando la
probabilità α ∈ (0, 1) ma in relazione alla regione Rρ più piccola possibile.
26 Questo termine è usato qui in modo improprio. Si intende infatti che tendenzial-
mente non si rileva vento tranne che in poche occasioni, quindi misurando la velocità
del vento in tutto un lasso di tempo e facendo la media, si ottiene un valore molto
basso e prossimo a zero.
27 Soluzione: La vita della lampada è misurata in termini di numero di accensioni.
29 Dovremmo dire anche rispetto alla stessa misura µ che noi supporremo essere
(a) (b)
(c) (d)
Otteniamo quindi il seguente risultato che vale per f.r. e per densità.
Proposizione 8. Sotto l’ipotesi di indipendenza, le congiunte sono il
prodotto delle marginali.
Passiamo alla probabilità condizionata. Si vede subito, dalla legge
delle probabilità composte che
pr,s
P (X1 = xr |X2 = xs ) = pr|s = . (3.28)
ps
Consideriamo ancora v.a. continue (e quindi integrali). La probabilità
condizionata può essere riscritta come segue, sfruttando formalmente la
legge delle probabilità composte,
P (X ∈ A, Y ∈ B)
P (Y ∈ A|X ∈ B) =
P (Y ∈ B)
�
P (X ∈ dx, Y ∈ B)
=
P (Y ∈ B)
�A �
= dFY |X (y, x)
�A �B
= fY |X (y, x)dxdy.
A B
30 Siconsidera il caso in cui sono identicamente distribuite solo per semplicità di
notazione ma si potevano considerare le Xj ∼ (xjk , pjk ), k ∈ IXj .
74 CAPITOLO 3. VARIABILI ALEATORIE
Si ottiene che
fX,Y (x, y)
fY |X (y, x) = (3.29)
fX (x)
è la densità doppia della v.a. Y |X. Quindi, data la f.r. doppia condizio-
nata (continua), si ottiene per il dFY |X scritto sopra,
∂2 fX,Y (x, y)
FY |X (y, x) = = fY |X (y, x).
∂y∂x fX (x)
Osserviamo che
∂2 fX,Y (x, y)
FX|Y (x, y) = = fX|Y (x, y).
∂x∂y fY (y)
Diremo che fX,Y (x, y) è una densità (doppia) congiunta mentre fY |X (x, y)
è una densità (doppia) condizionata. Nel caso di dimensioni n > 2
parleremo di densità n-dimensionale (congiunta o condizionata).
xν−1
Esercizio 44. Sia fX (x1 , x2 ) = λν Γ(ν)
2
e−(x1 +λx2 ) con x1 , x2 > 0, ν > 0,
λ > 0 la legge di densità del vettore X = (X1 , X2 ): 1. Dire se X1 ⊥ X2 ;
2. Scrivere la marginale fX1 ; 3. Scrivere la marginale fX2 ; 4. Scrivere
la f.r. FX2 .
2 2
Esercizio 45. Data la densità congiunta fX (x1 , x2 ) = κe−(x1 +x2 ) con
x1 , x2 ∈ R del vettore X = (X1 , X2 ): 1. determinare κ; 2. scrivere le
marginali fXj (xj ), j = 1, 2.
3x2 +2y 2
2. lim(x,y)→(0,0) (x2 +y 2 )2 ;
x−y
3. lim(x,y)→(0,0) log(x2 +y 2 +1) .
X⊥Y ⇔ � g : Y = g(X).
Quindi se non esiste una funzione g che lega due v.a. possiamo dire
che tali v.a. sono indipendenti. Si noti che vale la doppia implicazione
logica.
76 CAPITOLO 3. VARIABILI ALEATORIE
per a, b > 0. Per la legge delle probabilità composte si vede subito che
deve verificarsi
P (X > a + b, X > a) P (X > a + b)
= = P (X > b)
P (X > a) P (X > a)
Se la covarianza tra le due v.a. è nulla potremmo dire che non cono-
sciamo la dipendenza tra X e Y che implicherebbe l’esistenza di una g
tale che Y = g(X) ma sappiamo che g se esiste, non è lineare del primo
ordine, cioè g(x) �= ax + b (potrebbe essere, ad esempio ax2 + b o altre
combinazioni lineari di funzioni elemtari). Si utilizza spesso un indice di
correlazione detto di Bravais-Pearson dato da
Cov(X, Y ) σX,Y
ρ(X, Y ) := � = .
V ar(X) V ar(Y ) σX σY
e quindi
�
|Cov(X, Y )| ≤ V ar(X) V ar(Y ) ⇒ −1 ≤ ρ(X, Y ) ≤ 1.
yi = β0 + β 1 x i + �i
e sono le stesse sia con il metodo dei MQ31 che con la MV32 ; inoltre
sono stimatori33 corretti34 . Le stime della covarianza e della varianza
(parliamo di stime e quindi utilizziamo il simbolo σ
�, sono stime perchè si
considerano i dati campionari) sono date da
n
� n �� n �
1� 1� 1�
σxy = xi yi − xi yi
n i=1 n i=1 n i=1
x = (x1 , x2 , . . . , xn ), y = (y1 , y2 , . . . , yn )
X = (X1 , X2 , . . . , Xn ), Y = (Y1 , Y2 , . . . , Yn ).
Supponendo che esista la relazione lineare di cui sopra, sarà possibile ap-
prossimare le yi osservate con i valori g(xi ) ottenute dalle osservazioni
xi . Inoltre, la relazione lineare sarà tanto più plausibile quanto più l’er-
rore ei = yi −g(xi ) sarà minimo. Vogliamo allora trovare gli a e b tali per
�n
cui i=1 e2i = min. Seguendo la soluzione dell’Esercizio 51 con a = β̂1
e b = β̂0 si vede che il coefficiente angolare (e quindi il coefficiente che
determina la relazione lineare) è legato a ρ = ρ(x, y), il coefficiente di
correlazione campionario. Ricordiamo che il coefficiente di correlazio-
ne campionario è una statistica, cioè una funzione dei dati campionari
(in questo caso i vettori x = (x1 , x2 , . . . , xn ) e y = (y1 , y2 , . . . , yn )). In
particolare,
1
�n
n i=1 xi yi − x̄ȳ
ρ(x, y) = �� � � � 1 �n �
1 n
n i=1 xi − x̄ n i=1 yi − ȳ
livello di colesterolo. Tali valori sono rappresentati dalla v.a. doppia (Xi , Yi ). Una
volta selezionato a caso il paziente, ho tali valori, cioè la v.a. si realizza ed ottengo la
coppia (xi , yi ) relativa al paziente i-esimo.
80 CAPITOLO 3. VARIABILI ALEATORIE
e le matrici
Y 1 = y1 Y 2 = y2
X 1 = x1 1/3 2/3
X 2 = x2 1/6 1/3
e dire se X ⊥ Y .
F = {fk,s } 1≤k≤n .
1≤s≤m
1
F= N dove N = {Nk,s } 1≤k≤n .
N 1≤s≤m
EZ = Eg(X1 , X2 ).
oppure
� �
Eg(X1 , X2 ) = g(x1 , x2 ) dF(X1 ,X2 ) (x1 , x2 ).
supp(X1 ) supp(X2 )
1
h� (g) = (3.33)
g � (h)
1 1
h� (g(x)) = e h� (y) = .
g � (x) g � (h(y))
Teorema 9. Sia g una funzione misurabile. Sia X una v.a. con legge di
densità fX nota. Se g è invertibile e derivabile con inversa37 h = g −1 , la
densità della v.a. Y = g(X) è data da
ha derivata
F � (x) = ϕ� (x) f (ϕ(x)) − ψ � (x) f (ψ(x)). (3.36)
Teorema 10. Sia g una funzione misurabile. Sia X una v.a. con di-
stribuzione di probabilità (xk , pk ), k ∈ IX nota. Se g è invertibile con
inversa h = g −1 , la distribuzione di probabilità della v.a. Y = g(X) è
data da
P (Y = y) = P (X = h(y)), y ∈ spet(g(X)). (3.37)
Inoltre, Y ∼ (yk = g(xk ), pk ), k ∈ IY = IX e spet(Y ) = {g(xk ) : xk ∈
spet(X), k ∈ IX }.
Esercizio 54. Dimostrare la (3.37).
Esercizio. Sia X ∼ (xk , pk ), k ∈ IX una v.a. discreta. Caratterizzare la
v.a discreta Y = g(X).
Svolgimento. La v.a. X è discreta e esiste una applicazione Z �→
spet(X) per cui diciamo che lo spetto è numerabile (cioè k �→ xk ). Quindi,
data la trasformazione Y = g(X) dallo spettro di X definiamo lo spettro
di Y , cioè
e quindi P (Y = yk ) = P (X = xk ) = pk , k ∈ IY = IX . Conoscendo
X, otteniamo la caratterizzazione di Y . Lo spettro di Y è un insieme
numerabile infatti esiste una applicazione che mette in corrispondenza
biunivoca l’insieme degli indici Z con gli elementi di spet(Y ), cioè k �→
g(xk ).
Esercizio. Caratterizzare Y = X 2 dove X ∼ Geo(p), p ∈ [0, 1].
Svolgimento. Si ha
spet(X) = N = {k : k ∈ N} quindi k �→ xk = k
spet(Y ) = {k 2 : k ∈ N} quindi k �→ yk = k 2
P (Y = 1) =P (X = 1) = (1 − p)0 p,
P (Y = 4) =P (X = 2) = (1 − p)p,
...
88 CAPITOLO 3. VARIABILI ALEATORIE
FY (y) =P (Y ≤ y) definizione
=P (g(X) ≤ y) dato del problema
=P (X ∈ Ay ) si determina Ay considerando h = g −1
A questo punto
1. X, Y ∼ Exp(λ), λ > 2;
1. gli insiemi di definizione per κ e θ tali che f sia una legge di densità.
Infatti
� n
�2 � n
� � n
�
� � �
ak X k = ak X k · ak X k
k=1 k=1 k=1
94 CAPITOLO 3. VARIABILI ALEATORIE
� n � � n �
� �
= ak X k · as X s
k=1 s=1
n �
� n
= ak X k as X s
k=1 s=1
Quindi, si ottiene
n �
� n
M2 (Zn ) − M12 (Zn ) = ak as (E[Xk Xs ] − E[Xk ] E[Xs ]) .
k=1 s=1
V ar(X1 )
E X̄n = EX1 , e V ar(X̄n ) = .
n
X + Y = Z ∼ (zk , pk ), k ∈ IZ
con
pk =P (Z = zk ) (3.40)
� �
= P (Y = zk − xi ) pi = P (Y = zk − xi ) pi
i∈I�
X
i∈Z
� �
= P (X = zk − ys ) ps = P (X = zk − ys ) ps
s∈I�
Y
s∈Z
e
� �
P (Z ≤ zk ) = P (Y ≤ zk − xi ) pi = P (Y ≤ zk − xi ) pi
i∈I�
X
i∈Z
� �
= P (X ≤ zk − ys ) ps = P (X ≤ zk − ys ) ps
s∈I�
Y
s∈Z
dove
I�
X = {i ∈ IX : zk − xi ∈ spet(Y ), zk ∈ spet(Z)}
I�
Y = {s ∈ IY : zk − ys ∈ spet(X), zk ∈ spet(Z)}.
96 CAPITOLO 3. VARIABILI ALEATORIE
X ∼ (xi , pi ), i ∈ IX , Y ∼ (ys , ps ), s ∈ IY
P (Z = z) =P (Y = z − X) = P (Y = z − X, X ∈ spet(X))
= [(considero l’intersezione con un evento certo)]
� �
�
=P Y = z − X, (X = xi )
i∈IX
X + Y = Z ∼ fZ
con � �
FZ (z) = FY (z − xi ) pi = FY (z − xi ) pi (3.41)
i∈IX i∈Z
3.3. RELAZIONI TRA VARIABILI ALEATORIE - 97
e �
fZ (z) = fY (z − xi ) pi (3.42)
i∈I�
X
dove
I�
X = {i ∈ IX : z − xi ∈ supp(Y ), z ∈ supp(Z)}.
X + Y = Z ∼ fZ
con densità
� �
fZ (z) = fY (z − x)fX (x)dx = fX (z − y)fY (y)dy, z ∈ supp(Z)
SX SY
(3.43)
dove
FZ (z) =P (Y ≤ z − X) = P (Y ≤ z − X, X ∈ supp(X))
�
= FY (z − x)fX (x)dx
supp(X)
e derivando
�
FZ� (z) = fY (z − x)fX (x)dx
supp(X)
(infatti FZ < ∞ e FZ� < ∞ quindi posso derivare sotto il segno di in-
tegrale) si ottiene fZ = FZ� e l’integrale si calcola su tutti i punti per
cui fX (x) �= 0 e fY (z − x) �= 0. La prima condizione è soddisfatta per
tutti i punti x ∈ supp(X) mentre la seconda è soddisfatta per i soli punti
x ∈ supp(X) tali che, fissato z ∈ supp(Z) si ha che z − x ∈ supp(Y ).
Osservazione 33. Valgono le seguenti uguaglianze
� �
fY (z − x)fX (x)dx = fY (z − x)fX (x)dx
SX R
e quindi
� z
fZ (z) = e−(z−x) e−x dx.
0
dove 1(0,1) (x) = 0 per ogni x ∈ (−∞, 0) ∪ (1, +∞) e per z ∈ (0, 2),
e quindi
� z
dx, 0<z≤1
fZ (z) = �0 1
dx 1<z≤2
z−1
λk −λ
Esempio 27. La densità discreta pk = k! e = f (k; λ) al variare di λ
definisce la famiglia di densità
pk (n − k + 1)p
=
pk−1 k(1 − p)
Osserviamo che
• Se n è grande e p è molto piccola possiamo approssimare la binomiale
Bin(n, p) con la legge degli eventi rari o di Poisson di parametro
λ = np. Quando p è molto grande vale la stessa approssimazione
se consideriamo che 1 − p = q è molto piccola. Infatti, se Xn ∼
Bin(n, p) con p = λ/n, allora
� �n−k
n! λk λ
P (Xn = k) = 1−
k!(n − k)! nk n
k
� �n � �−k
λ λ λ
= 1− 1− cn
k! n n
dove
n(n − 1)(n − 2) · · · (n − k + 1)
cn = .
nk
102 CAPITOLO 3. VARIABILI ALEATORIE
Per n → ∞,
� �n � �−k
λ λ
1− → e−λ , 1− → 1, cn → 1
n n
e quindi si ottiene
λk −λ
lim P (Xn = k) = e , k = 0, 1, 2, . . . .
n→∞ k!
Inoltre, la P oi(λ) può essere approssimata al crescere di λ da una
N (λ, λ).
• Se n è grande e p � q � 0.5, approssimiamo la binomiale Bin(n, p) con
la normale N (np, npq).
In ultima analisi quindi la Bin(n, p) può essere approssimata al cre-
scere di n da una normale N (µ, σ 2 ) di media µ = np e varianza σ 2 = np
oppure σ 2 = npq se p è molto piccola oppure se p � q rispettivamente.
Dimostrazione.
Y = max {Xj }
1≤j≤n
P (Y ≤ y) =P ( max {Xj } ≤ y)
1≤j≤n
(teorico) di λ.
106 CAPITOLO 3. VARIABILI ALEATORIE
P (K� ≤ k) =P (Sk ≥ �)
� ∞
λk
=P (Gamma(λ, k) ≥ �) = uk−1 e−λu du.
Γ(k) �
per ogni j ∈ N.
3.3. RELAZIONI TRA VARIABILI ALEATORIE - 109
P (g −1 (U ) ≤ x) = P (U ≤ g(x)) = g(x)
−1
implica che X = FX (U ).
Esercizio 81. Se il vettore X è stato ottenuto generando n valori U nif (0, 1),
come ottengo il vettore Y con distribuzione U nif (0, a), a > 0?
Teorema 15. (Dis. di Markov) Sia X una v.a. non negativa, allora
� .
∀ � > 0 P (X > �) ≤ EX
E|X|r
∀� > 0 P (|X| > �) ≤ , r > 0. (3.51)
�r
44 Se X ∼ f
X è una v.a. non negativa (X ≥ 0), possiamo dimostrare la disu-
guaglianza di Markov come segue. Dalla definizione di media per v.a. continue,
scriviamo
� �
EX = xfX (x)dx ≥ xfX (x)dx
supp(X) {x∈supp(X) : x>�}
3. si deve considerare
� �
|φX (ξ + h) − φX (ξ)| =�EeiξX+ihX − EeiξX �
� � ��
=�E eiξX+ihX − eiξX �
[linearità della media]
� �
≤E �eiξX+ihX − eiξX �
[proprietà del modulo]
�� � � ��
=E �eiξX � · �eihX − 1�
� �
=E �eihX − 1�
[si è usato cos2 ξX + sin2 ξX = 1]
=Mh
che non dipende da ξ e quindi
|φX (ξ + h) − φX (ξ)| ≤ Mh .
Si deve notare che qui con il simbolo Mh si sta indicando una
costante46 . Volendo fornire una rappresentazione esplicita, si ha
�� �
2
Mh =E � (cos hX − 1) + sin2 hX �
46 Dal contesto sarà sempre possibile capire quando invece ci si riferisce al momento
Proposizione 19. Se X ha momento di ordine n+1 finito, cioè M n+1 (X) <
∞, allora
� �n �
� (iξ)r � |ξ|n+1
�φX (ξ) − Mr (X)�� ≤ Mn+1 (|X|) (3.55)
� r! (n + 1)!
r=0
|x|n+1
|Rn (ix)| = |Rn (x)| ≤ .
(n + 1)!
Quindi si ha che
� n
� � � � n
�
��
� (iξ) r � � (iξ) r �
�φX (ξ) − Mr (X)�� =��E e iξX
− X ��
r
� r! r!
r=0 r=0
� n �
� � (iξ)r r ��
≤E ��eiξX − X � = E|Rn (X)|
r!
r=0
e la dimostrazione è conclusa.
Da quanto visto possiamo enunciare i seguenti risultati.
116 CAPITOLO 3. VARIABILI ALEATORIE
|ξ|r
lim Mr (|X|) = 0, (3.56)
r→∞ r!
allora
∞
� (iξ)r
φX (ξ) = Mr (X). (3.57)
r=0
r!
1. fX è uniformemente continua,
Dal teorema precedente arriviamo alla proposizione che segue (si veda
anche la formula (3.5)).
�n n
�
iξ Xk
φZn (ξ) = Ee k=1 = φXk (ξ)
k=1
�n 1 1 2 2 2 2
ei 2k ξ− 2 σk ξ = ei(1− 2n )ξ− 2 σn ξ , ξ ∈ R dove σn2 =
1 1
2. φ
�Znn (ξ) = k=1
2
k=1 σk
�n 1 1 1 2 2
ei n ξ− 2 3k ξ = eiξ− 2 2 (1− 3n )ξ , ξ ∈ R
1 1 1
3. φZn (ξ) = k=1
e allora
1. ψX (0) = 1,
(n)
2. (−1)n ψX (0) = Mn (X),
3.5. CONVERGENZA DI VARIABILI ALEATORIE 119
3. se per ogni ξ,
ξk
lim Mk (X) = 0
k→∞ k!
allora
� ∞
� ∞
� (−ξX)k � (−ξ)k
−ξX
ψX (ξ) = Ee =E = Mk (X). (3.59)
k! k!
k=0 k=0
oppure ∀ � > 0
lim P (|Xn − X| ≤ �) = lim P (ω : |Xn (ω) − X(ω)| ≤ �) = 1.
n→∞ n→∞
e scriviamo
M P
Xn →r X ⇒ Xn → X.
M2 (Xn − X) → 0 ⇒ M1 (Xn − X) → 0.
per Yn = Xn − X.
Osservazione 39. Sia X ∼ U nif (a, b) ed {fn } ∈ Lr ((a, b)) una succes-
sione. Notiamo che
� b
r 1
E|fn (X)−f (X)| = |fn (x)−f (x)|r dx → 0 se n → ∞ (3.61)
b−a a
Si vede subito che la convergenza quasi certa è più forte della convergen-
za in probabilità. La convergenza q.c. implica quindi una convergenza
puntuale (pointwise) in ω, cioè per ogni ω ∈ Ω \ N , Xn (ω) → X(ω),
cioè a meno di un insieme N ⊂ Ω di misura nulla e quindi trascurabile
per cui P (N ) = 0. Inoltre la convergenza q.c. implica la convergenza in
probabilità (Lemma di Fatou). La convergenza quasi certa (almost sure)
è anche detta convergenza quasi ovunque (almost everywhere), con pro-
babilità uno (with probability one), in senso forte (strongly). Raramente
ci si riferisce alla convergenza certa (o ovunque) in cui si ha convergenza
quasi certa (quasi ovunque) a meno di insiemi di misura nulla.
Esempio 34. La funzione fn (x) = xn converge punto per punto a 0 in
[0, 1) ma non uniformemente. La convergenza non è puntuale in [0, 1].
Inoltre, converge q.o. in [0, 1] a 0 rispetto alla misura di Lebesgue, visto
che µ({1}) = 0 se µ è la misura di Lebesgue.
Esempio 35. Il limite puntuale di una successione di funzioni conti-
nue può essere una funzione discontinua solo se la convergenza non è
2n
uniforme. Si consideri fn (x) = (cos πx) .
Esercizio 88. Sia Xk , k = 1, 2, . . ., una successione di v.a. i.i.d. e
U nif (0, 1). Studiare la convergenza della successione di v.a. Z n =
max1≤k≤n {Xk }, n ∈ N.
Esercizio 89. Sia X ∼ U nif (0, 1). Studiare la convergenza della suc-
cessione di v.a. Zn = X n , n ∈ N.
Esercizio 90. Sia X ∼ U nif (0, 1). Studiare la convergenza della suc-
cessione di v.a. Zn = (−X)n , n ∈ N.
Esercizio 91. Siano X, Y due v.a. in D ⊆ R, studiare la convergenza
della successione di v.a. Zn = X + n1 Y , n ∈ N.
P
Proposizione 22. Se Xn → X, allora esiste una sotto-successione tale
q.c.
che Xnk → X.
126 CAPITOLO 3. VARIABILI ALEATORIE
e allora
1. Zn → Z ∼ N (0, 1)
�∞
2. Zn ∼ N (1, σ 2 ) dove σ 2 = k=1 σk2 (se finita!)
3. Zn ∼ N (1, 1).
I seguenti esercizi sono estremamente istruttivi.
49 Attribuiamoil risultato a Sheffé perché è una sua formulazione ma ricordiamo,
come anche lui ha fatto, che si poteva ottenere come caso particolare di risultati noti
più generali.
3.5. CONVERGENZA DI VARIABILI ALEATORIE 129
σ2
P (|X̄n − µ| > �) ≤ →0 se n → ∞.
n �2
Dalla definizione di convergenza in probabilità segue l’enunciato.
3.5. CONVERGENZA DI VARIABILI ALEATORIE 131
Si ottiene
M
P (|X̄n − µ| > �) ≤ →0 se n → ∞
n �2
e allora possiamo riformulare la legge debole dei grandi numeri come
segue:
Sia {Xj }j∈N una successione di v.a. indipendenti con EXj = µ e
P
varianza finita per ogni j. Allora X̄n → µ.
ovvero
n �
1� P
g(Xj ) → Eg(X) = g(x)fX (x)dx.
n j=1 supp(X)
#include <stdio.h>
#include <stdlib.h>
double sum(double v[])
{
int i;
int s;
s=0;
for(i=1; i<length(v)+1; i++)
{
s=s+v[i];
}
return s;
}
e allora
√ � n
π
g(Xj ) dove Xj ∼ N (0, 1/2) (3.69)
n j=1
Si ottiene
n
β� α
X Xj ∼ Exp(1)
n j=1 j
Stima per intervalli. Dal teorema del limite centrale sappiamo che,
per n → ∞,
1
�n
n j=1 g(Xj ) − Eg(X) √ d
Zn = � n → N (0, 1)
V ar(g(X))
∂u ∂2u
(x, t) = (x, t), x ∈ R, t > 0 (3.72)
∂t ∂x2
u(x, 0) = g(x)
∂u ∂2u
(x, t) = (x, t), x ∈ D, t > 0 (3.74)
∂t ∂x2
u(x, 0) = g(x)
Xi ∼ N (0, ti ), i = 1, 2, . . . , 300.
3.6. PROCESSI ALEATORI 139
600
400
rnorm(300, 0, c(1:300))
200
0
−200
−400
Index
Si è considerata la funzione di R
>cumsum(vector)
0
cumsum(rnorm(300, 0, 1))
−5
−10
−15
Index
Noi però conosciamo di tale fenomeno solo quello che abbiamo osservato.
Possiamo allora pensare che le osservazioni fatte siano realizzazioni di
uno stesso oggetto aleatorio ad istanti dati dal vettore t. In particolare
tale oggetto è un processo aleatorio, diciamo Xt indicizzato da t ∈ t e la
collezione di dati {Xt , t ∈ t} è una serie storica. Il processo è a tempo
discreto e le equazioni governanti sono discrete.
(1 − p)k−1 p dove p = P (N ).
P (N |k − 1 ritardi) = p = P (N )
P (X > k) (1 − p)k
P (X > k|X > k.1) = = = 1 − p = P (N c ).
P (X > k − 1) (1 − p)k−1
(2n − k)! 1 1
, k ∈ {0, 1, . . . , n}. (3.76)
n!(n − k)! 2n 2n−k
Il Dilemma del prigioniero. Due criminali arrestati per aver com-
messo un reato vengono rinchiusi in due celle diverse e non comunicanti.
In fase di interrogatorio viene spiegato loro che
• se uno confessa: chi ha confessato eviterà la pena mentre l’altro
verrà condannato a 7 anni di reclusione;
• se entrambi confessano: entrambi verranno condannati a 6 anni di
reclusione;
• se nessuno confessa: entrambi verranno condannati a 1 anno di
reclusione.
Questo è un esempio di gioco in cui si cerca la strategia migliore e che
può essere descritto dalla tabella a doppia entrata 3.1. Se si pensa ad un
gioco non cooperativo, la strategia da seguire per entrambi i detenuti è
(6, 6). Se si pensa ad un gioco cooperativo, la strategia migliore è (1, 1).
Supponiamo che i due detenuti, diciamo A e B, scelgano cosa fare in base
ad una certa distribuzione di probabilità, diciamo:
P (A confessa) = pc , P (B confessa) = qc
allora, la Tabella 3.1 può essere descritta con la tabella a doppia entrata52
3.2. Si vede che la scelta (furba) di confessare porta con probabilità pari
ad uno a 6 anni di reclusione mentre, se entrambi scegliessero a caso
avrebbero eguale probabilità di rimanere 0, 1, 6 o 7 anni in prigione, ad
esempio lanciando una moneta non truccata e quindi
pc = qc = 1/2.
conduttore sa già cosa troverà dietro le porte. Aprendo una delle altre
due porte il conduttore libera una capra lasciando due porte chiuse. A
questo punto offre al concorrente la possibilità di cambiare la sua scelta,
cioè di mantenere la porta scelta oppure di cambiare con l’altra ancora
chiusa. Il problema allora è:
• conviene cambiare la scelta fatta?
La soluzione si ottiene considerando tre scenari possibili, ciascuno di pro-
babilità 1/3. Infatti, se chiamiamo A la porta con l’auto, B e C le porte
con la capra e considerando le triplette di scelte
Si vede che cambiando il concorrente vince l’auto due volte su tre quindi
Inoltre, supponiamo di non sapere dove sia l’auto. Se scelgo una porta e
mantengo la scelta, vinco con p = 13 12 mentre se scelgo una porta e non
mantengo la scelta, vinco con p = 23 21 .
Esempio 41. Si lanciano cinque dadi regolari, colcolare le probabilità di
ottenere
144 CAPITOLO 3. VARIABILI ALEATORIE
a) una coppia,
b) una doppia coppia.
Il problema non deve essere associato all’analogo nel � �caso delle carte,
infatti con un mazzo di 52 carte devo considerare 52 5 modi diversi di
distribuire le carte mentre il nostro problema prevede 6 5 realizzazioni pos-
sibili. Ad esempio, il 2 si può ripetere cinque volte mentre il 2♣ si può
ripetere una sola volta, inoltre le realizzazioni dei dadi sono indipendenti.
Otteniamo: a) scelgo un numero (in 6 modi diversi) col quale fissare la
coppia, i restanti tre numeri possono essere presi in modo da non forma-
re tris o una seconda coppia. Scelgo il terzo numero (in 5 modi diversi),
il quarto (in 4 modi diversi) ed il quinto (in 3 modi diversi). Inoltre
considero |P2,1,1,15
| ordinamenti diversi dei cinque dadi dove i tre numeri
diversi non possono permutare (il primo va preso tra 5, il secondo tra 4,
il terzo tra 3), quindi divido per 3!. La probabilità cercata è quindi data
da 6 · 5 · 4 · 3 · P2,3
5
|/65 ; b) scelgo un numero (in 6 modi diversi) e fisso una
coppia, scelgo un numero (in 5 modi diversi) e fisso la seconda coppia,
sceglo un numero (in 4 modi diversi) e ho fissato cinque numeri totali in
6 · 5 · 4 modi diversi. I cinque numeri si possono presentare in |P 2,2,1 5
|
ordinamenti diversi dove i numeri che fisso per le coppie non possono
permutare (la prima coppia è data da un numero preso tra 6, la seconda
è data da un numero preso tra 5), quindi divido per 2!. La probabilità
cercata è pari a 6 · 5 · 4 · |P2,2,26
|/66 .
Esempio 42. Si vogliono riempire due scatole inserendo a caso otto pal-
line. Nel momento in cui una delle due scatole contiene quattro palline
ci si chede con quale probabilità
Esercizi
145
146 CAPITOLO 4. ESERCIZI
P ((E ∩ M c )|P) = P (E ∩ M c ) = 1%
147
Esercizio 123. Sia {Xk }k∈N una successione di v.a. indipendenti ognu-
na esponenziale
�n di parametro λk > 0. Si dimostri che X(1) ∼ Exp(λ)
dove λ = k=1 λk . Si scriva la densità di Z = X(n) .
149
Esercizio 124. Sia {Xk }k∈N una successione di v.a. i.i.d. e U nif (0, 1).
Studiare la convergenza della v.a. Zn = min1≤k≤n {Xk }.
Esercizio 125. Sia {Xk }k∈N una successione di v.a. i.i.d. e U nif (0, 1)
e Zn = min1≤k≤n {Xk } . Studiare la convergenza della v.a. Yn = n · Zn .
Esercizio 126. Sia Xn = n−1 Z, n ∈ N e Z ∼ Exp(λ), λ > 0. Studiare
la convergenza di Xn .
Esercizio 127. Siano Xk ∼ U nif {−1, +1} v.a. indipendenti. Studiare
�n 2
la convergenza della v.a. Zn = n1 ( k=1 Xk ) .
Esercizio 128. Sia Xk ∼ N (1, 2) una successione di v.a. indipendenti.
Caratterizzare X̄n .
Esercizio 129. Sia Xk ∼ N (0, 1) una successione di v.a. indipendenti.
Caratterizzare X̄n .
Esercizio 130. Sia Xk ∼ Exp(3) una successione di v.a. indipendenti.
Caratterizzare X̄n .
Esercizio 131. Sia Xk ∼ Exp(λ), λ > 1 una successione di v.a. indi-
pendenti. Caratterizzare X̄n .
Esercizio 132. Sia Xk ∼ P ois(2) una successione di v.a. indipendenti.
Caratterizzare X̄n .
Esercizio 133. Sia Xk ∼ Ber(p), p ∈ (0, 1/3) una successione di v.a.
indipendenti. Caratterizzare X̄n .
Esercizio 134. Sia Xk ∼ 1(0,1) (x), x ∈ R una successione di v.a.
indipendenti. Caratterizzare X̄n .
Esercizio 135. Calcolare P (X > −1) nei seguenti casi:
1. X ∼ U nif (−2, +2); 2. X = 1/Y 1/α , α ∈ (0, 1), Y ∼ U nif (0, 1); 3.
X ∼ Exp(λ), λ > 0; 4. X ∼ Cauchy; 5. X ∼ N (0, 1).
Esercizio 136. Un dispositivo di riconoscimento ottico non funziona
correttamente. Una squadra di due tecnici sottopone il dispositivo a mi-
nuziosi test: prende una scatola, diciamo S, contenente palline con lettere
e numeri, in particolare S = {A, B, C, D, E, 1, 2, 3, 4, 5}. Estrae dalla sca-
tola con probabilità P (S) = p e con probabilità P (S c ) = 1 − p = q sceglie
(pensa) un numero a caso , cioè senza estrarre la pallina, immagina un
150 CAPITOLO 4. ESERCIZI
3. la somma è pari ad n
Nel caso Maria estragga in blocco (ad ogni estrazione Maria legge il
numero e getta via la pallina), calcolare le probabilità degli eventi:
7. la somma è pari ad n
Approfondimenti
Alcune Notazioni
µ, media di una v.a. se non diversamente specificato
µ, misura (quando specificato)
µ� , misura di Lebesgue
µ� , misura di conteggio
Lp , spazio di Lebesgue, p ≥ 1
C, insieme delle funzioni continue
C 1 , insieme delle funzioni continue con derivata continua
Cb , insieme delle funzioni continue e limitate (bounded)
Lip, insieme delle funzioni Lipschitziane
Spazi Lp e Convergenze
Gli spazi di Lebesgue possono intendersi come una classe di equiva-
lenza per funzioni misurabili.
Definizione 41. (Spazi di Lebesgue) Sia (Ω, A, µ) uno spazio di misura.
Sia M(Ω, A) l’insieme delle funzioni misurabili in Ω. Per ogni p ∈ [1, ∞]
sia
Lp (Ω, A, µ) = {f ∈ M(Ω, A) | �f �p < ∞},
lo spazio di Lebesgue di ordine p, dove
�� �1/p
p
|f | dµ , p ∈ [1, ∞)
�f �p = Ω (5.1)
ess sup |f |, p = ∞.
Ω
154
155
dalla norma � · �p . Dato uno spazio di Banach (X, � · �), si dice base per tale spazio
un insieme B ⊂ X, costituito da elementi linearmente indipendenti e tali che lo spazio
generato da B sia denso in X (o ogni elemento di X possa scriversi come combinazione
lineare di elementi di B). Si dice poi che X è separabile se esiste una base costituita
da un numero finito di vettori o al più da una infinità numerabile.
156 CAPITOLO 5. APPROFONDIMENTI
oppure, se
dove �� �1/p
p
�fn − f �p := |fn (x) − f (x)| µ(dx) . (5.9)
A
Esempio 48. Sia fn (x) = nx(1 − x2 )n , x ∈ [0, 1]. Si vede subito che
fn (0) = fn (1) = 0 e fn → 0 per ogni x ∈ (0, 1) (infatti, se a > 1,
n/an → 0 per n → ∞). Inoltre,
� �n
n 1
�fn − 0�∞ = √ 1−
2n + 1 2n + 1
�� �2n+1 � 2n+1
n
n 1
=√ 1−
2n + 1 2n + 1
dove
��
� � �2n+1 � 2n+1
n
n lim 1
lim �fn − 0�∞ = lim √ 1−
n→∞ n→∞ 2n + 1 n→∞ 2n + 1
� �� �
n
= lim √ e−1/2
n→∞ 2n + 1
e quindi �fn − 0�∞ → +∞ (non converge uniformemente). Vogliamo
sottolineare che
� 1 � 1
lim fn (x)dx �= lim fn (x)dx = 0.
n→∞ 0 0 n→∞
Basta vedere che fn� (0) = 1 per ogni n mentre f � (x) = 0 per ogni x.
Quindi la convergenza uniforme di fn non è sufficiente per il passaggio
al limite sotto il segno di derivata.
159
Disuguaglianze
Definizione 43. Una funzione reale, due volte differenziabile f è detta:
Teorema 28. (Dis. di Jensen) Sia µ una misura positiva su Ω tale che
µ(Ω) = 1. Sia f ∈ L1 (Ω) tale che a < f (x) < b per ogni x ∈ Ω e ϕ una
funzione convessa. Allora2
� � � �
ϕ◦ f dµ ≤ (ϕ ◦ f )dµ. (5.11)
Ω Ω
41. Valgono quindi anche per successioni. Dalle proprietà del modulo,
per funzioni integrabili si ottiene
�� � �
� �
� f (x)dx� ≤ |f (x)|dx
� �
Allora
f � (x) = g(x) in [a, b]. (5.18)
162 CAPITOLO 5. APPROFONDIMENTI
oppure scriviamo
n
� (x − z)k dk f
f (x) = (z) + Rn (x) (serie di Taylor in z)
k! dxk
k=0
|x − z|n+1
|Rn (x)| ≤ γn+1 , γn+1 = max{|f (n+1) (x)| : x ∈ [a, b]}.
(n + 1)!
(5.21)
e
� ∞
�� ∞
� ∞ k
� � � �
k k
ak x bk x = ck xk dove ck = as bk−s .
k=0 k=0 k=0 s=0
Ricordiamo che
n
� 1 − xn+1
xk = per |x| < 1 (serie geometrica). (5.23)
1−x
k=0
Osservazione 46. Si noti che tali risultati valgono per serie numeriche,
basta porre x = 1.
Esercizio 150. Si calcoli il limite per n → ∞ delle serie con f k (x) = xk ,
fk (x) = kxk−1 , fk (x) = xk /k!.
6
Inferenza statistica
P (cs ) = P (ki ∈ cs ) = P (i ∈ s) = πi
P ({ki , kj } ∈ cs ) = P ({i, j} ∈ s) = πi,j
insieme di nomi con i quali identificare gli elementi ma senza ambiguità, non possiamo
avere due elementi con lo stesso nome.
164
6.2. POPOLAZIONI VIRTUALI 165
Funzione di verosimiglianza
Sia X (continua) la popolazione oggetto di studio ed x un campione
osservato. Si definisce funzione di verosimiglianza la funzione
n
�
L(θ; x) = L(θ; x1 , . . . , xn ) := fX (xi ; θ). (6.1)
i=1
dP = f · dµ (6.2)
3 Ad esempio se X ∼ P ois(λ), θ = λ. Se X ∼ N (µ, σ 2 ), θ = (µ, σ 2 )t .
6.2. POPOLAZIONI VIRTUALI 167
e di conseguenza
�
1B (x) fX (x)dx, se X è continua,
� supp(X)
P (X ∈ B) = .
1B (xk ) pk , se X è discreta.
k∈IX
λk
f (xk ; θ) = f (k; λ) = e−λ .
k!
Se la v.a. allo studio è una Gaussiana, allora
x2
k
e− 2σ2
f (xk ; θ) = f (xk ; µ, σ 2 ) = √
2πσ 2
θ̂ = g(x1 , x2 , . . . , xn )
E[Θ̂] = E[g(X)].
Dn = E[Θ̂n ] − θ �= 0
lim Dn = 0
n→∞
2 n
Sn−1 = S2
n−1 n
diciamo che Θ̂1 è efficiente rispetto a Θ̂2 . Dato uno stimatore corretto Θ̂e
si dice efficiente (in senso assoluto) se è lo stimatore di varianza minima
nella classe degli stimatori corretti del parametro θ. Siano Θ̂e , Θ̂ ∈ Cθ e
sia Cθ la classe degli stimatori corretti di θ, allora
2 2
σΘ̂e ≤ σΘ̂ ∀ Θ̂ ∈ Cθ .
allora si ha
1
E[Θ̂ − θ]2 = σΘ̂
2
≥ � �2 .
d log L
E dθ
e dalla v.a.
n
�
L(θ; X) = fX (Xi ; θ)
i=1
che è funzione della sola n-upla campionaria per tutti gli i ∈ {1, 2, . . . , I}.
Sembra logico pensare quindi che il passaggio da Ugi� ad U sia definito
in termini di verosimiglianza dalla fattorizzazione di Neyman-Pearson.
Basta ricordare che
fX (x; θ) = L(θ; x).
Consideriamo ora due campioni xa , xb ∈ U ⊆ Rn ed osserviamo che
�
L(θ; xa ) γ(xa ) ϕ(θ, g � (xa )) γ(xa )/γ(xb ), g � (xa ) = g � (xb )
= =
L(θ; xb ) �
γ(xb ) ϕ(θ, g (xb )) c(xa , xb ), g � (xa ) �= g � (xb )
(6.6)
dove in generale, c(·, ·) può dipendere da θ. Si vede quindi che la parti-
zione su U indotta da una statistica sufficiente g � è tale per cui campioni
appartenenti allo stesso insieme di livello (xa , xb ∈ Ugi� ) sono equivalenti
in verosimiglianza. Non è in generale vero il contrario visto che può ve-
rificarsi c(xa , xb ) = γ(xa )/γ(xb ) a meno che g � non sia minimale, come
vedremo!
Osserviamo che
�
ii) V ar G [g �� (g0� )] ≤ V ar Uθ [g]
�
�
e possiamo riferirci a g �� (g0� ) = E U |g0 [g|g � = g0� ] come allo stimatore
migliorato.
Per ricollegarci al formalismo già usato consideriamo il caso in cui lo
stimatore Θ̂ sia una statistica sufficiente per θ, quindi se Θ̂ = g � (x1 , x2 , . . . , xn ),
�θ = G� . Indichiamo con
si ha U
θ̂ = g �� (g0� )
θ� = g(x), � = g(X),
Θ e g è una statistica.
max P (X = x) dato x ∈ Rn
θ
dove G(θ0 ) = gα/2 e G(θ1 ) = g1−α/2 sono i percentili della fG(Θ̂) (·)
che una volta calcolati o individuati (ad esempio attraverso le tavole dei
percentili) consentono di scrivere
� �
P G−1 (gα/2 ) ≤ Θ̂ ≤ G−1 (g1−α/2 ) = 1 − α.
X̄n − µ √
G(X̄n ) = n = Z ∼ N (0, 1).
σ
Si vede subito che
σ
G−1 (Z) = µ + √ Z = X̄n .
n
Dai passaggi visti sopra con α = 0.05 (si vedano le tavole dei percentili
della normale) scriveremo
� �
0, 95 =P G−1 (−1.96) ≤ X̄n ≤ G−1 (1.96)
o equivalentemente
� �
0, 95 =P − 1.96 ≤ G(X̄n ) ≤ 1.96 .
(n − 1)S 2
G(S 2 ) = ∼ χ2(n)
σ2
180 CAPITOLO 6. INFERENZA STATISTICA
Inoltre
G(S 2 ) ∼ χ2(n−1)
se µ non è nota e la v.a. varianza campionaria diventa
n
1 �
S2 = (Xi − X̄n )2 .
n − 1 i=1
infatti si deve considerare il più piccolo n tra quelli che soddisfano alla
condizione richiesta. In altre parole, cerchiamo il più piccolo n per il
2
z1−α/2 σ
quale n ≥ e2 che corrisponde alla parte intera superiore
� 2 �
z1−α/2 σ
n= .
e2
in particolare
�n cerchiamo il vettore â ∈ Rk tale che per ei = yi − ŷi si possa
scrivere i=1 ei = min ed ei rappresenta l’errore che si commette ap-
2
prossimando gli yi con la relazione f (x; â), diverso quindi dal significato
di � che rappresenta una v.a. qualunque (di media nulla) e quindi il grado
di incertezza o di imprecisione inevitabile nella realtà fattuale (è interes-
sante per il confronto con la verosimiglianza il caso in cui � ∼ N (µ, σ 2 )).
182 CAPITOLO 6. INFERENZA STATISTICA
n
� n
�2
2 1� 2 1�
σ̂X = m2 − m21 = x − xi
n i=1 i n i=1
�n
oppure µ̂X = m1 = n1 i=1 xi ottenute appunto dai momenti campionari
m1 e m2 in questo caso del primo e del secondo ordine rispettivamente.
In generale quindi si dovranno conoscere le relazioni teoriche tra i mo-
menti che non prescindono sempre dalla legge distributiva come invece
accade nel caso sopra illustrato. Se si devono stimare k parametri della
popolazione, diciamo θ ∈ Rk sarà possibile impostare un sistema di k
equazioni del tipo
Mr = mr , r = 1, 2, . . . , k
1. P ∼ Ber(p),
2. P ∼ P ois(λ),
e �
β= fg(X) (g(x)|H1 )dg, θ̂ = g(x)
A|H1
6.4. VERIFICA DELLE IPOTESI STATISTICHE - 185
e
P (g(X) ∈ A|H1 ) = P (A|H1 ) = β
dove R ed A sono le regioni di accettazione e di rifiuto dell’ipotesi di
base (o nulla). Quindi R|H0 (R|H1 ) è la regione di rifiuto sotto l’ipotesi
di base (alternativa) ed A|H0 (A|H1 ) è la regione di accettazione sotto
l’ipotesi do base (alternativa)9 . La funzione g(x) è qui presentata nella
notazione più usuale per uno stimatore del parametro θ piuttosto che
per una funzione test, ovviamente sempre funzione dei dati campionari,
θ̂ = g(x), il valore θ � in questo caso delinea le regioni di accettazione e
di rifiuto sotto entrambe le ipotesi.
Sono importanti le probabilità P (A|H0 ) = 1−α detta livello di fiducia
dove α è detta livello di significatività e la probabilità P (R|H 1 ) = 1 − β
detta potenza del test.
Il test migliore si ottiene rendendo piccole le probabilità di ottenere
un errore (quindi α e β), di norma si fissa α essendo strutturato il test
in modo da rendere preferibile mantenere l’ipotesi di base10 e si cerca di
massimizzare la potenza del test ovvero la probabilità di non commet-
tere errori di seconda specie (la situazione ottimale può essere ottenuta
fissando entrambe le probabilità degli errori piccole a piacere o secon-
do le necessità del caso). Se le ipotesi sono composte si avranno diversi
valori di tali probabilità e fissata α avremo una funzione di potenza da
massimizzare.
P (·|H0 ) e P (·|H1 ) sono dunque funzioni differenti che assegnano misure differenti
alle due regioni. Tali funzioni dipenderanno dai differenti parametri identificati dalle
differenti ipotesi.
10 Ad esempio se si sta testando l’affidabilità di un prodotto alternativo (espresso
appunto dall’ipotesi alternativa) contro l’ipotesi nulla secondo cui il prodotto cosí come
è proposto risulta il piú affidabile, sarà certamente meno auspicabile commettere un
errore di seconda specie perché evidentemente comporterebbe ammodernamenti nel
meccanismo di produzione e quindi delle spese che non rappresenterebbero un buon
investimento.
186 CAPITOLO 6. INFERENZA STATISTICA
H0 è Vera H0 è Falsa
Accetto H0 decisione corretta errore II
(1 − α) (β)
Rifiuto H0 errore I decisione corretta
(α) (1 − β)
X̄n − µ0 ��
√ √ H0 ∼ N (0, 1).
2/ n
La regione R va scelta in modo tale da ottenere
� � �
X̄n − µ0 �
P √ √ ∈ R��H0 = α = P (−z1−α/2 ≤ Z ≤ z1−α/2 )
2/ n
dove −z1−α/2 = zα/2 per la simmetria della legge normale. Osserviamo
anche che considerando le trasformazioni G e G−1 , si ha
� �
X̄n − µ0
α =P z1−α/2 ≤ √ √ ≤ z1−α/2
2/ n
� �
=P (µ0 − z1−α/2 2/n ≤ X̄n ≤ µ0 + z1−α/2 2/n).
X̄ − µ0 �� X̄ − µ0 ��
√ H0 ∼ N (0, 1), √ H0 ∼ t(n−1)
σ/ n s/ n
ovviamente
che può essere vista come una realizzazione della v.a. χ2 (|IX | − 1), cioè
una χ-quadrato con |IX | − 1 gradi di libertà. Il test ci permette di indivi-
duare un p-value e quindi una regione di rifiuto/accettazione per l’ipotesi
nulla
H0 : χ2 = 0 (stesse distribuzioni) (6.8)
che corrisponde all’ipotesi che X descriva bene il fenomeno oggetto di
studio. Se χ2oss = 0 allora fk = pk per ogni k ma se χ2oss > 0 dobbiamo
individuare una soglia (il p-value) al di sotto della quale si possa ancora
accettare (con un certo livello di significatività) l’ipotesi H 0 .
È stata già introdotta la tabella di contingenza, in quel caso si voleva
studiare la dipendenza di due variabili osservate. Se si considera
� (fk,s − pk,s )2
χ2oss =
pk,s
(k,s)∈I
0.3
0.2
0.1
0.0
−3 −2 −1 0 1 2 3
Esercizi
197
198 CAPITOLO 7. ESERCIZI
– determinare κ,
√
– determinare lo stimatore θ̂M V di MV per θ se λ = log θ.
Esercizio 173. Dato il campione osservato xoss = (−1, 2, 1, −4, 1, −1)
proveniente da una popolazione P ∼ X con densità
2 √
fX (x) = e−(x−µ) / π1R (x), µ ∈ R :
2. θ�M OM
3. Se X ∼ N (θ, 1), determinare l’intervallo di confidenza per la media
di P al livello α = 0.05 sapendo che dalle n = 50 osservazioni
risulta x̄ = 3.
2. θ�M OM
3. Se X ∼ N (θ, 1), determinare l’intervallo di confidenza per la media
di P al livello α = 0.05 sapendo che dalle n = 25 osservazioni
risulta x̄ = 3/25.
8
Distribuzioni elementari
(xk , pk ), k ∈ IX
1. pk ≥ 0,
�n 1
2. k=1 n = n.
n
201
202 CAPITOLO 8. DISTRIBUZIONI ELEMENTARI
pk = P (X = k) = (1 − p)k−1 p, k ∈ IX = {1, 2, . . .} = N.
oppure la v.a.
Si vede che
∞
� ∞
� d k
EX =p kq k−1 = p q (q = 1 − p)
dq
k=1 k=1
∞
d � k
=p q (derivazione per serie)
dq
k=1
�∞ � � �
d � k d 1 1
=p q −1 =p −1 = .
dq dq 1 − q p
k=0
EK 1 2 q(1 − q)
EQ = = p, V ar(Q) = σ = .
n n2 K n
Se K rappresenta il numero di successi in n prove indipendenti, allora Q
rappresenta la frequenza dei successi.
Concludiamo ricordando che se X ∼ Bin(θ) con θ = (n, p), p ∈ [0, 1]
e n ∈ N, allora il parametro vettoriale θ caratterizza la densità discreta
� �
n k
pk = P (X = k) = p (1 − p)n−k , k ∈ IX = {s ∈ N ∪ {0} : s ≤ n}
k
(8.2)
e la distribuzione Binomiale può essere associata alla v.a.
in cui le variabili Xi sono i.i.d. dove �(Xi ) ="il numero di volte che
si è verificato Xi " e la v.a Xi si verifica con probabilità pi . L’evento
(�(Xi ) = xi ) = "Xi si verifica xi volte" ha probabilità pxi i di verificarsi
(oppure P (�(Xi ) = k) = pki ). La probabilità di ottenere la n-upla x =
(x1 , x2 , . . . , xn ), vista l’indipendenza, è data dal prodotto
n
�
P (V = x) = pxi i .
i=1
Di tutte
�n le n-uple che si possono ottenere, vogliamo tenere solo quelle per
cui i=1 xi = N . Allora la v.a. X si può ottenere considerando
P (X = x) = P (V = x, |V | = N )
�n �n
dove |V | = i=1 �(Xi ) = i=1 xi . In quanti modi si può ottenere |V | =
N ? In
N!
= |PxN1 ,...,xn |
x1 ! · · · xn !
modi, cioè il vettore (xi1 , xi2 , . . . xin ) può permutare in N ! modi man-
tenendo però lo stesso numero di ripetizioni per ogni caratteristica x i .
Ogni permutazione ha la stessa probabilità di realizzarsi e quindi
�n
N!
P (X = x) =P (V = (x1 , . . . , xn ), |V | = N ) = px i .
x1 ! · · · xn ! i=1 i
λk −λ
pk = P (X = k) = e , k ∈ IX = N ∪ {0}.
k!
Notiamo che si sta usando la scrittura xk = k con k ∈ IX = N ∪ {0} per
pura comodità, in generale avremmo scritto
λxk −λ
pk = P (X = xk ) = e , k ∈ IX = N ∪ {0}.
xk !
Verifichiamo che sia una distribuzione di probabilità:
1. pk ≥ 0,
2.
� ∞
�
−λ λk
pk =e =1 (espansione di Maclaurin)
k!
k≥0 k=0
Si ottiene
�
EX = x k pk
k≥0
∞
� λk
=e−λ (per k = 0 il primo addendo è nullo)
(k − 1)!
k=1
210 CAPITOLO 8. DISTRIBUZIONI ELEMENTARI
∞
� �∞
λk−1 λs
=λe−λ = λe−λ
(k − 1)! s=0
s!
k=1
=λ (espansione in serie della funzione esponenziale).
V ar(X) = EX 2 − (EX)2 = λ.
Infatti,
∞
� � λk−1+1∞
λk
EX 2 =e−λ k2 = e−λ k
k! (k − 1)!
k=0 k=1
�∞ s+1
λ
=e−λ (s + 1) = λEX + λ.
s=0
s!
e−(λ1 +λ2 ) �� �
Z = X1 − X 2 ∼ I |z| λ 1 λ 2 , z∈Z
(λ2 /λ1 )z/2
dove Iν è la funzione di Bessel del primo tipo modificata.
Esercizio 193. Calcolare la funzione caratteristica di X.
La v.a. di Poisson viene anche detta legge degli eventi rari perché,
fissato λ, si ha la convergenza in legge
1
fX (x) = 1[a,b] (x), x ∈ R.
b−a
1 b 2 − a2 a+b
EX = =
b−a 2 2
che è la media aritmetica di a e b,
(b − a)2
V ar(X) =
12
0, x≤a
FX (x) = (x − a)/(b − a), a≤x≤b .
1, x≥b
1 1
fX (x) = fX1 ,X2 (x1 , x2 ) = 1R (x1 , x2 ) = 1R (x), x = (x1 , x2 )
|R| |R|
212 CAPITOLO 8. DISTRIBUZIONI ELEMENTARI
1 1
EX = , V ar(X) =
λ λ2
�
0, x≤0
FX (x) = λ > 0.
1 − e−λ x , x≥0
Esercizio 197. Siano X, Y esponenziali di parametro λ > 0 e X ⊥ Y .
Calcolare fZ dove Z = X + Y .
Esercizio 198. Calcolare la funzione caratteristica di X.
λν ν−1 −λx
fX (x) = x e 1[0,∞) (x), x∈R
Γ(ν)
dove � ∞
Γ(z) = uz−1 e−u du, z>0 (8.3)
0
è la funzione Gamma. Si ottiene che
ν ν
EX = , V ar(X) = 2
λ λ
�
0, x≤0
FX (x) =
Γ(x, λ, ν), x > 0
8.2. VARIABILI CONTINUE - 213
dove
� x
λν ν−1 −λu
Γ(x, λ, ν) = u e du
0 Γ(ν)
è la Gamma incompleta.
Esercizio 199. Dimostrare che la Gamma è chiusa rispetto alla somma.
Esercizio 200. Calcolare la funzione caratteristica di X.
Diamo alcune proprietà molto importanti della funzione Gamma:
• (la formula di duplicazione) per m ∈ N, z > 0, si ha che
�m � �
k−1 m−1 1
Γ z+ = (2π) 2 m 2 −mz Γ(mz). (8.4)
m
k=1
Cauchy. Se X ∼ Cauchy,
1
fX (x) = , x ∈ R.
π(1 + x2 )
EX =∞
1 1
FX (x) = + arctan(x), x ∈ R.
2 π
Esercizio 203. Calcolare EX r per r ∈ (0, 1) ∪ [1, ∞).
φX (ξ) = e−|ξ| , ξ ∈ R.
1 (x−µ)2
fX (x) = √ e− 2σ 2 , x∈R
2πσ 2
EX = µ, V ar(X) = σ 2
� �
1 x−µ
FX (x) = √ Φ √ , x∈R
2σ 2 2σ 2
dove
� x 2
e−u
� x −u2 √ du,
x≤0
e −∞ π
Φ(x) = √ du = � x −u2
−∞ π 1
e
+ √ du, x≥0
2 0 π
Infatti,
∞
� (iξ)r
φX (ξ) = Mr (X)
r=0
r!
dove
�
EX 2k , r = 2k
Mr (X) = k∈N
EX 2k+1 = 0, r = 2k + 1
e
� 2
− x2 � ∞ − x2
2
2k 2k e 2k e Γ(k + 1/2)
EX = x √ dx = 2 x √ dx = 2k √
R 2π 0 2π π
√
dove si è posto x = y (ricordiamo anche che Γ(1/2) = π 1/2 ). Dalla
formula di duplicazione della Gamma, si ottiene per r = 2k
√
k 1 4π Γ(2k) 1 2k Γ(2k) 1 Γ(2k + 1) 1 (2k)!
Mr (X) = 2 √ k
= k = k = k
π 4 Γ(k) 2 k Γ(k) 2 Γ(k + 1) 2 (k)!
per cui la matrice è simmetrica. Si vede subito che σi,i = V ar(Xi ), quindi
la diagonale di Σ è costituita dalle varianze degli elementi del vettore X.
Ovviamente se le componenti sono indipendenti si ottiene
Σ = diag{σi,i }1≤i≤n
1
fX (x) = xα−1 (1 − x)γ−1 1[0,1] (x), x∈R
B(α, γ)
X1 /ν1
se X1 , X2 ∼ χ2 (νi ) e indipendenti, allora X2 /ν2 ∼ F (ν1 , ν2 ).
1 1
fX (x) = �1 ν
�√ � � ν+1 x ∈ R, ν > 0
B 2, 2 ν 1− x2 2
ν
Dj = [dj , dj+1 ), j = 0, 1, 2, 3
dove d1 , d2 , d3 sono detti quartili; si definiscono decili, quei valori per cui
α = 1/10 e
Dj = [dj , dj+1 ), j = 0, 1, . . . , 9
Dj = [dj , dj+1 ), j = 0, 1, . . . , 99
zα = inf{x : P (X ≤ x) ≥ α}.
P (Z ≤ z) = Φ(z) = 0.95
devo cercare 0.9500 nella tavola (se non c’è, posso considerare il valore
più vicino. Si dovrebbe procedere in modo diverso ma il valore più
vicino è sufficiente per il momento). Tale valore corrisponde alla riga 1.6
e alla colonna 0.05. Allora, z = 1.6 + 0.05 = 1.65 è il valore cercato.
8.2. VARIABILI CONTINUE - 219
Tabella 8.1: Tavola della funzione di ripartizione Φ(z) di una N (0, 1).
z 0.00 0.01 0.02 0.03 0.04
0.0 0.50000 0.50399 0.50798 0.51197 0.51595
0.1 0.53983 0.54380 0.54776 0.55172 0.55567
0.2 0.57926 0.58317 0.58706 0.59095 0.59483
0.3 0.61791 0.62172 0.62552 0.62930 0.63307
0.4 0.65542 0.65910 0.66276 0.66640 0.67003
0.5 0.69146 0.69497 0.69847 0.70194 0.70540
0.6 0.72575 0.72907 0.73237 0.73565 0.73891
0.7 0.75804 0.76115 0.76424 0.76730 0.77035
0.8 0.78814 0.79103 0.79389 0.79673 0.79955
0.9 0.81594 0.81859 0.82121 0.82381 0.82639
1.0 0.84134 0.84375 0.84614 0.84849 0.85083
1.1 0.86433 0.86650 0.86864 0.87076 0.87286
1.2 0.88493 0.88686 0.88877 0.89065 0.89251
1.3 0.90320 0.90490 0.90658 0.90824 0.90988
1.4 0.91924 0.92073 0.92220 0.92364 0.92507
1.5 0.93319 0.93448 0.93574 0.93699 0.93822
1.6 0.94520 0.94630 0.94738 0.94845 0.94950
1.7 0.95543 0.95637 0.95728 0.95818 0.95907
1.8 0.96407 0.96485 0.96562 0.96638 0.96712
1.9 0.97128 0.97193 0.97257 0.97320 0.97381
2.0 0.97725 0.97778 0.97831 0.97882 0.97932
2.1 0.98214 0.98257 0.98300 0.98341 0.98382
2.2 0.98610 0.98645 0.98679 0.98713 0.98745
2.3 0.98928 0.98956 0.98983 0.99010 0.99036
2.4 0.99180 0.99202 0.99224 0.99245 0.99266
2.5 0.99379 0.99396 0.99413 0.99430 0.99446
2.6 0.99534 0.99547 0.99560 0.99573 0.99585
2.7 0.99653 0.99664 0.99674 0.99683 0.99693
2.8 0.99744 0.99752 0.99760 0.99767 0.99774
2.9 0.99813 0.99819 0.99825 0.99831 0.99836
3.0 0.99865 0.99869 0.99874 0.99878 0.99882
3.1 0.99903 0.99906 0.99910 0.99913 0.99916
3.2 0.99931 0.99934 0.99936 0.99938 0.99940
3.3 0.99952 0.99953 0.99955 0.99957 0.99958
3.4 0.99966 0.99968 0.99969 0.99970 0.99971
3.5 0.99977 0.99978 0.99978 0.99979 0.99980
3.6 0.99984 0.99985 0.99985 0.99986 0.99986
3.7 0.99989 0.99990 0.99990 0.99990 0.99991
3.8 0.99993 0.99993 0.99993 0.99994 0.99994
3.9 0.99995 0.99995 0.99996 0.99996 0.99996
220 CAPITOLO 8. DISTRIBUZIONI ELEMENTARI
Tabella 8.2: Tavola della funzione di ripartizione Φ(z) di una N (0, 1).
z 0.05 0.06 0.07 0.08 0.09
0.0 0.51994 0.52392 0.52790 0.53188 0.53586
0.1 0.55962 0.56356 0.56749 0.57142 0.57535
0.2 0.59871 0.60257 0.60642 0.61026 0.61409
0.3 0.63683 0.64058 0.64431 0.64803 0.65173
0.4 0.67364 0.67724 0.68082 0.68439 0.68793
0.5 0.70884 0.71226 0.71566 0.71904 0.72240
0.6 0.74215 0.74537 0.74857 0.75175 0.75490
0.7 0.77337 0.77637 0.77935 0.78230 0.78524
0.8 0.80234 0.80511 0.80785 0.81057 0.81327
0.9 0.82894 0.83147 0.83398 0.83646 0.83891
1.0 0.85314 0.85543 0.85769 0.85993 0.86214
1.1 0.87493 0.87698 0.87900 0.88100 0.88298
1.2 0.89435 0.89617 0.89796 0.89973 0.90147
1.3 0.91149 0.91308 0.91466 0.91621 0.91774
1.4 0.92647 0.92785 0.92922 0.93056 0.93189
1.5 0.93943 0.94062 0.94179 0.94295 0.94408
1.6 0.95053 0.95154 0.95254 0.95352 0.95449
1.7 0.95994 0.96080 0.96164 0.96246 0.96327
1.8 0.96784 0.96856 0.96926 0.96995 0.97062
1.9 0.97441 0.97500 0.97558 0.97615 0.97670
2.0 0.97982 0.98030 0.98077 0.98124 0.98169
2.1 0.98422 0.98461 0.98500 0.98537 0.98574
2.2 0.98778 0.98809 0.98840 0.98870 0.98899
2.3 0.99061 0.99086 0.99111 0.99134 0.99158
2.4 0.99286 0.99305 0.99324 0.99343 0.99361
2.5 0.99461 0.99477 0.99492 0.99506 0.99520
2.6 0.99598 0.99609 0.99621 0.99632 0.99643
2.7 0.99702 0.99711 0.99720 0.99728 0.99736
2.8 0.99781 0.99788 0.99795 0.99801 0.99807
2.9 0.99841 0.99846 0.99851 0.99856 0.99861
3.0 0.99886 0.99889 0.99893 0.99896 0.99900
3.1 0.99918 0.99921 0.99924 0.99926 0.99929
3.2 0.99942 0.99944 0.99946 0.99948 0.99950
3.3 0.99960 0.99961 0.99962 0.99964 0.99965
3.4 0.99972 0.99973 0.99974 0.99975 0.99976
3.5 0.99981 0.99981 0.99982 0.99983 0.99983
3.6 0.99987 0.99987 0.99988 0.99988 0.99989
3.7 0.99991 0.99992 0.99992 0.99992 0.99992
3.8 0.99994 0.99994 0.99995 0.99995 0.99995
3.9 0.99996 0.99996 0.99996 0.99997 0.99997
A
Somme Notevoli
n
� n
�
1. c=c+ c = c(n + 1) (banale!)
k=0 k=1
�n n
� n(n + 1)
2. k= k= (somma dei primi n numeri)
k=0 k=1
2
�n �n
n(n + 1)(2n + 1)
3. k2 = k2 = (somma dei primi n quadrati)
k=0 k=1
6
�n �n � �
n(n + 1) 2
4. k3 = k3 = (somma dei primi n cubi)
k=0 k=1
2
n
�
5. (2k − 1) = n2 (verificare!)
k=1
n �
� n�
6. = 2n (verificare!)
k=0
k
�∞
1
7. =e (verificare!)
k=0
k!
�∞
(−1)k 1
8. = (verificare!)
k=0
k! e
�∞
k
9. =1 (verificare!)
k=1
(k + 1)!
n−1
� xm − x n
10. xk = (verificare!)
k=m
1−x
11. calcolare 10. per m = 0
12. calcolare 10. per m = 0 e n → ∞ se |x| < 1
� n �2 n n n
� � � � �
13. xk = xk xs = x2k + xk xs (verificare!)
k=1 k=1 s=1 k=1 0≤k≤n
0≤s≤n
k�=s
B
I modelli lineari
det(Xt X) �= 0,
� �
4. si ha il vettore dei residui e = In − X(Xt X)−1 Xt � ed inoltre
- E[e] = 0
- E[et e] = σ 2 (n − k − 1)
5. si ha σ 2 = σY2 = σ�2 .
E β̂ =E[(Xt X)−1 Xt Y]
=E[(Xt X)−1 Xt (Xβ + �)]
=E[(Xt X)−1 Xt Xβ] + E[(Xt X)−1 Xt �]
=E[β] + (Xt X)−1 Xt E[�]
=β,
non è corretto mentre lo è β̃ che coincide con lo stimatore dei MQ (β̃ = β̂),
scriviamo allora
n
σ̂�2 = σ̃ 2
n−k−1 �
e lo stimatore corretto coincide con lo stimatore dei MQ. Elenchiamo i
seguenti fatti:
1. β̂ e σ̂�2 sono corretti,
(n − 2)σ̂�2
β̂0 ∼ N (β0 , σβ20 ), β̂1 ∼ N (β1 , σβ21 ), ∼ χ2(n−2)
σ�2
β̂0 − β0 β̂1 − β0
∼ t(n−2) , ∼ t(n−2) .
σ̂β0 σ̂β0
Tornando alla formulazione matriciale scriviamo
σβ̂2 = σ�2 (Xt X)−1 , β̂j ∼ N (βj , σ�2 [(Xt X−1 )]j+1,j+1 )
Appendice B. I modelli lineari
exp{xti β}
E[Yi |Xi ] =
1 + exp{xti β}
dove la funzione link è data da
� �
µi
logit(µi ) = ln
1 − µi
ed è il caso del modello logistico lineare,
3. funzione logaritmo: g(µi ) = ln(µi ),
P (Y = 1|X = x) π(x)
odds(x) = = .
P (Y = 0|X = x)) 1 − π(x)
Considerata la probabilità
exp(β0 + β1 x1 + β2 x2 + . . . + βk xk )
π(x) =
1 + exp(β0 + β1 x1 + β2 x2 + . . . + βk xk )
logit(x) = ln odds(x) = β0 + β1 x1 + β2 x2 + . . . + βk xk
Appendice B. I modelli lineari
Esercizio 4. Dal vettore x = (60, 62, 59, 66, 70, 55, 64, 61, 68, 62) rica-
viamo media x̄ e varianza σ̄ 2 . La stima puntuale del prezzo medio è la
media campionaria. Non interviene la varianza campionaria che invece
risulta essere un informazione importante. Per tale motivo cerchiamo
una stima intervallare e rispondiamo al secondo punto. Supponiamo che
X ="prezzo" si distribuisce come una normale di media µ e varianza σ 2 ,
le stime trovate sono µ̂ = x̄ e σ̂ 2 = σ̄ 2 quindi la variabile standardizzata
X −µ
Z= per cui si ha X = µ + σZ
σ
ci consente di definire gli estremi di interesse per l’intervallo che stiamo
cercando. La variabile Z è la normale standard, le quantità zα codifi-
cati nelle tavole dei percentili della Z secondo la relazione P (z α2 < Z ≤
z1− α2 ) = 1 − α ci consentono di trovare x1 , x2 tale che P (x1 < X ≤ x2 ) =
1 − α dalle relazioni
Richiedendo una probabilità del 95% si deve scegliere α = 0.05 e per i per-
centili che ci interessano vale z ∗ = zα/2 = −z1−α/2 essendo Z simmetrica
e centrata in zero. Si osserva che P (Z ≤ zα/2 ) = α/2 = P (Z > z1−α/2 ).
Esercizio ??.
Appendice C. Svolgimenti, Tracce, Soluzioni
Esercizio 21.
a) per n = 1, 2, . . . , 13
n!(13 − n)! 1
P (tutte minori o uguali ad n) = = �13�
13! n
b) �13−n�
P (tutte maggiori di n) = �13
n
� , n ≤ 13 − n (C.2)
n
e
P (tutte maggiori di n) = 0, n > 13 − n (C.3)
c)
1
P (tutte di cuori) =
4
Esercizio 22.
1. (4/9)4 + 2[(4/9)2 · (5/9)2 ] + (5/9)4
2. (5/9)2 · (4/9)2
3. 0 ⇔ (vince M ario) ∩ (vince P iero) = {∅}
� �
4. 2 · (5/9)2 · (4/9)2 − 2 · 0
5. 2 · (5/9)2 · (4/9)2
Esercizio 23. Si possono considerare 9 oggetti da riporre in 3 scatole,
allora in quanti modi posso disporli? I numeri da 1 a 9 indicano come un
etichetta l’oggetto che metto in una scatola (o lo squalo che attraversa il
tunnel). In particolare,
2. devo avere AA, BBBB e CCC in uno dei modi in cui possono
comparire in una sequenza di nove lettere e con le probabilità ri-
spettivamente date da (1/3)2 , (1/3)4 e (1/3)3 . Si hanno |P2,4,3
9
|
modi possibili;
Esercizio 26.
1. 0, evento impossibile
5
�
P (2 teste) = P (2 teste | Ei )P (Ei ). (C.4)
i=1
5 � �
�5�� 5
�
� i 1 i i
P (2 teste) = ( ) �106−i
� .
i=2
2 2 6
4. La probabilità richiesta può essere ottenuta mediante il teorema di
Bayes
P (1 teste | E2 )P (E2 )
P (E2 | 1 testa) = �5
i=1 P (1 testa | Ei )P (Ei )
�2� 1 2 (52)(54)
1 ( 2 ) (10)
6
=� � i � 1 (5i )(6−i
5
5 i )
i=1 1 ( 2 ) 10
(6)
1
= �5 � i � � �� 5 � .
2 i=1 1 (1/2)i 5i 6−i
infatti
� X � X
dx = X e µδ (dx, spet(X)) = X ∈ spet(X).
0 0
Esercizio 47.
Appendice C. Svolgimenti, Tracce, Soluzioni
x ρ cos θ
lim = lim = 0 uniformemente
z→∞ x2 +y 2 ρ→∞ ρ2
e quindi
3x2 + 2y 2 5 1
lim = lim = +∞.
(x,y)→(0,0) (x2 + y 2 )2 x→0 4 x2
3. Si può passare alle coordinate polari, vedere che si ottiene una forma
indeterminata (ma non uniformemente e questo già è sufficiente)
e quindi usare la regola di de l’Hôpital per vedere che il limite
diverge ma non per tutti i valori di θ (non per θ = π/4). Oppure si
può vedere cosa succede sulle rette, basta considerare y = mx per
ottenere
x2 (1 + m2 )(1 − m) + (1 − m)
lim =∞
x→0 2x(1 + m2 )
2 2 2 2
Esercizio 45. Basta osservare che e−(x1 +x2 ) = e−x1 e−x2 e riconoscere
la normale multidimensionale. Quindi κ = 1/π e
2
e−xj
fXj (xj ) = √ , j = 1, 2.
π
Esercizio 51. Sia y = (y1 , . . . , yn )t il vettore da stimare e y� = xβ� una
stima per y dove x = (x1 , . . . , xn )t . Dobbiamo minimizzare la quantità
� 2 rispetto al vettore β� = (β�0 , β�1 ), ovvero β� tale che
(y − y�)2 = (y − xβ)
� = min dove Q(β)
Q(β) � = �n (yi − β�0 − β�1 xi )2 . Si arriva al sistema
i=1
1 dQ
− = ȳ − β�1 x̄ − β�0 = 0
2n dβ�0
n
1 dQ 1�
− = xi yi − β�1 x̄2 − β�0 x̄ = 0
2n dβ�1 n i=1
FZ (z) =P (Z ≤ z) = P (X ≤ zY )
(moltiplico per Y ≥ 0 e non cambio il verso della dis.)
Si vede subito che per ogni z ∈ (0, ∞), Az ∩ D è una regione del piano
che identifica sempre la stessa figura geometrica, ho una sola figura e un
solo caso per z, cioè z > 0. Considerando un riferimento cartesiano (di
assi y, x invertiti), rappresentando Az ∩ D e quindi la retta X = zY , vedo
che per ogni z > 0
� 1 � zy
P (X ≤ zY ) = dy dxf(Y,X) (y, x)
0 0
Si vede che
1 − e−λz λe−λz
lim FZ (z) = 0, lim FZ (z) = lim 1 − = lim 1 − =0
z↑0 z↓0 z→0 λz z→0 λ
e scriviamo
0, z≤0
FZ (z) = 1 − e−λz
1− , z > 0.
λz
Inoltre, limz→∞ FZ (z) = 1. Derivando la f.r. si ottiene la densità
1 � �
fZ (z) = 2
1 − e−λz − λze−λz 1(0,∞) (z), z ∈ R.
λz
Esercizio 61.
1. x ∈ R, x2 − y 2 �= 0 ⇒ def (f ) = {(x, y) ∈ R2 : x �= y},
2. potremmo distinguere i tre casi:
• y − x = 0 ⇒ {(x, y) ∈ R2 : y = x};
• y − x > 0, y ∈ R, x > 0 ⇒ {(x, y) ∈ R2 : y > x > 0};
• y − x < 0, y �= 0, x �= 1 ⇒ {(x, y) ∈ R2 : y < x, x �= 1, y �=
0};
ma def (f ) è più facilmente definito dalle relazioni y ln x > 0 (perché
base di potenza) e x > 0 (perché argomento del logaritmo). Inoltre
con potenza positiva y − x > 0 ha senso considerare anche la base
nulla, y ln x = 0. Quindi:
• y ln x > 0, x > 0 ⇒ def1 = A ∪ B dove
3.
� �θ−1
θ 1 1
fZ (z) = a− 1(1/a,∞) (z)
aθ z 2 z
e quindi
� z � �
P (T ) = dxλe−λx 1 − e−µ(z−x) dx
0
Appendice C. Svolgimenti, Tracce, Soluzioni
λ � −µz �
=1 − e−λz − e − e−λz = P (Z ≤ z).
λ−µ
Si ottiene la densità
λ � −λz �
λe−λz − λe − µe−µz , z ∈ (0, ∞),
fZ (z) = λ−µ
0, z∈
/ (0, ∞).
a)
b)
e−y y 1/2−1 −y
fY (y) = √ = e , y≥0
yπ Γ(1/2)
z n/2−1 −z
fZ (z) = e , z≥0
Γ(n/2)
Esercizio 91. Un occhio attento vede subito che non conviene consi-
derare altre forme (più deboli) di convergenza, si può verificare subito la
convergenza quasi certa. In particolare, Y ∈ D è una v.a. finita e
1
∀ω ∈ Ω Zn (ω) = X(ω) + Y (ω) → X(ω)
n
q.c.
(convergenza puntuale in Ω) e quindi Zn → X.
converge a
�
0, x<0
FX (x) =
1, x ≥ 0.
ξ2
1. φXj (ξ) = 1 − 2n
� �n
ξ2
2. φZn (ξ) = 1 − 2n
ξ2
3. φZ∞ (ξ) = e− 2 e quindi
x2
e− 2
fZ∞ (x) = √ , x ∈ R.
2π
1 Potremmo dire però che X diverge con probabilità 1 (q.c.) ad X ”degenere” ed
n
in particolare P (X = −∞) = P (X = +∞). In questo caso P (X ∈ R∗ ) = 1 dove
R∗ = R ∪ {−∞} ∪ {+∞} è l’estensione di R (il completamento dei reali).
Appendice C. Svolgimenti, Tracce, Soluzioni
Esercizio 96.
1. 0,
�∞
2. Bisogna osservare che l’integrale si riduce a 12 0 ye−y dy e quindi
la soluzione MC è data da
n
1 �
Xj , Xj ∼ Exp(1),
2n j=1
3. Si vede che � � √
1 1 + x2
√ dx = 2
dx
R 1+x
1+x 2
R
e quindi una soluzione MC è
π ��
n
1 + Xj2 , Xj ∼ Cauchy.
n j=1
Esercizio 98.
0, x≤0
FXn (x) = nx, 0 < x ≤ 1/n
1, x > 1/n
si vede che
�
0, x<0
lim FXn (x) =
n→∞ 1, x≥0
Ȳn 1 Ȳn − 0
Zn = =
√1 λ λ√ 1
n n
5 5
5 5
3. posso fare un poker con ognuno dei 13 numeri. Ne fisso uno e poi
moltiplico per 13 e per le combinazioni relative alla quinta carta,
�13��4��12��4� �13��4��48�
1 4
�52� 1 1
o anche 1 4
�52 � 1
5 5
4. per fare un poker di assi, devo considerare solo gli assi, quindi
�4��12��4� �4��48�
4 1
�52 � 1 o anche 4
�52�1
5 5
1. P (A ∩ B) = P (A)P (B),
4. P (B)/P (A ∪ B).
2 dove P (A ∩ (A ∪ B)) = P (A ∪ (A ∩ B)) = P (A)
Appendice C. Svolgimenti, Tracce, Soluzioni
(E ∩ M ) ∪ (E c ∩ M c ) ∪ (E ∩ M c ) ∪ (E c ∩ M ) = Ω
infatti
(E c ∩ M c ) ∪ (E ∩ M c ) = M c e (E ∩ M ) ∪ (E c ∩ M ) = M
con P (M ∪ M c ) = 1 oppure
(E ∩ M ) ∪ (E ∩ M c ) = E e (E c ∩ M ) ∪ (E c ∩ M c ) = E c
si ricava
P (E ∩ M c ) = 0.01 · P (M c ) = 0.0094
0.94 = P (M c ) = P (E ∩ M c ) + P (E c ∩ M c )
P (M |E) ≈ 67%
e quindi con esame positivo nel 67% dei casi circa la persona è effettiva-
mente malata.
Rispondiamo al secondo problema osservando che P (M ∩E c ) = 0.0406
e P (E c ) = 0.9712 quindi
0.0406
P (M |E c ) = ≈ 0.042
0.9712
che sembra essere confortante per il paziente.
si ha
10 9 8
P (A, A, A) = .
100 99 98
P (B) = 1 − P (B c )
Appendice C. Svolgimenti, Tracce, Soluzioni
allora
� �
20
P (Ak ) = (0.03)k (0.97)20−k , k = 0, 1, . . . , 20
k
e Ak ∼ Binom(n, p) con n = 20 e p = 0.03.
Esercizio 112.
�
�
20
1− (0.97)0 (0.03)20−0 = 1 − (0.03)20 .
0
Si deve considerare
Allora
� �
20
P (Ack ) = (0.97)k (0.03)20−k , k = 0, 1, . . . , 20
k
e Ack ∼ Binom(n, p) con n = 20 e p = 0.97.
Quindi si ottiene
2 26 100 13
P (D2 |D1 ) = 2
= .
2 100 6 300
y =P (D1 ∩ D2 ∩ (A ∪ B)c )
=P (D1 ∩ D2 |(A ∪ B)c ) P ((A ∪ B)c )
=P (D1 |(A ∪ B)c ) P (D2 |(A ∪ B)c ) P ((A ∪ B)c )
1 + 4000z 2
P (D2 |D1 ) = , z ∈ (0, 1).
25 + 4000z
Se P (D|(A ∪ B)c ) = 0 (cioè per z → 0), P (D2 |D1 ) = 0.04 mentre per
P (D|(A ∪ B)c ) ≈ 1, P (D2 |D1 ) ≈ 0.99 è prossima ad uno.
Esercizio 115.
1. Sia D =”il sensore è difettoso”. Si ha che
Quindi
�
z, 0 < z < 1/2
P (X ≤ zY ) = 1 1
1− + 2, 1/2 < z < ∞
2z 4z
che è continua nel punto z = 1/2 (e nel punto z = 0)
1
lim P (X ≤ zY ) = lim P (X ≤ zY ) =
z↑1/2 z↓1/2 2
(come ci si aspettava, infatti Z è una v.a. continua) e la f.r. diventa
0,
z≤0
FZ (z) = z, 0 < z ≤ 1/2
1 − 1 , z > 1/2
4z
Si osservi che
|Az ∩ D|
P (X ≤ zY ) = P (U ∈ Az ∩ D) =
|D|
dove U ∼ U nif (D) e |A| = area(A).
2. Il dominio della coppia (Y, X) è D = (0, ∞) × (0, 1), basta invertire
gli assi nell’Esercizio 57.
Quindi
�
0, z<0
FZ (z) = 1
1− , z>0
1+z
La densità è data da
P (D ∩ Az ), z ∈ supp(Z) = (0, 2)
dove
Az = {(x, y) ∈ R2 : y ≤ z/x}.
Inoltre,
−2/z
lim P (D ∩ Az ) = lim = 0, lim P (D ∩ Az ) = 1.
z↓0 z→0 −2/z 2 z↑2
Quindi,
0, z≤0
FZ (z) = P (D ∩ Az ), z ∈ (0, 2]
1, z>2
dove (X ⊥ Y )
e
�
0, z≤0
FZ (z) =
P (Az ∩ D), z>0
Appendice C. Svolgimenti, Tracce, Soluzioni
con
� 1 � � � 1
d −λ z z dx
fZ (z) = − dx e x =λ e−λ x .
0 dz 0 x
Si vede che
� ∞ � � dy
lim FZ (z) = 0, lim FZ (z) = 1 + lim λze−λzy =1
z→0 z→∞ 1 z→∞ y
dove si è usata la convergenza dell’integrale ed il limite uniforme in
y (per ogni y, la funzione esponenziale decresce più velocemente di
ogni polinomio come z → ∞). Inoltre, si ricava
� ∞
� dx 1
FZ (z) =fX (z) + λe−λx − z fX (z)
z x z
e
�� ∞ �
−λx dx
fZ (z) = λe 1(0,∞) (z), z ∈ R.
z x
λ � −λz � λ � �
lim λe − µe−µz = lim µze−µz − e−µz
µ→λ λ − µ µ→λ −1
=λe−λz − λ2 ze−λz
λ2 2−1 −λz
fZ (z) = λ2 ze−λz 1(0,∞) (z) = z e 1(0,∞) (z), z ∈ R.
Γ(2)
FZ (z) =P (|X − Y | ≤ z)
� �
=P (|X − Y | ≤ z) ∩ [(X ≤ Y ) ∪ (X > Y )]
� �
=P [(|X − Y | ≤ z) ∩ (X ≤ Y )] ∪ [(|X − Y | ≤ z) ∩ (X > Y )]
= [gli eventi sono incompatibili, legge delle prob. totali]
� � � �
=P (|X − Y | ≤ z) ∩ (X ≤ Y ) + P (|X − Y | ≤ z) ∩ (X > Y )
= [utilizzo le informazioni X ≤ Y e X > Y ]
� � � �
=P (Y − X ≤ z) ∩ (X ≤ Y ) + P (X − Y ≤ z) ∩ (X > Y )
� � � �
=P (Y ≤ z + X) ∩ (X ≤ Y ) + P (X ≤ z + Y ) ∩ (Y < X)
� � � �
=P X ≤ Y ≤ z + X + P Y < X ≤ z + Y
� �
=2P X ≤ Y ≤ z + X (entrambe le v.a. sono uniformi).
Dal grafico sul piano (X, Y ) si vede quindi che per z ∈ supp(|X − Y |) =
(0, 1),
� 1−z � z+x � 1 � 1
FZ (z) =2 dx dy + dx dy = 2z − z 2
0 x 1−z x
e quindi fZ (z) = FZ� (z)1(0,1) (z), z ∈ R. Per verificare che FZ sia una
f.r. basta osservare che fZ ≥ 0 (la f.r. è non decrescente) e FZ (z) → 0
se z → 0, FZ (z) → 1 se z → 1. Inoltre, potevamo ricavare la f.r. FZ
considerando le aree del quadrato unitario sopra e sotto la retta Y =
z + X, ovvero il triangolo superiore del quadrato ha area 1/2 mentre il
triangolo sopra la retta Y = z + X ha area (1 − z)2 /2. Quindi tra le due
rette troviamo un area pari a
1 (1 − z)2 z2
− =z− .
2 2 2
Dovendo calcolare due aree uguali, si moltiplica per 2 e si ottiene il
risultato cercato.
Si ricava,
2
fY (y) = 2λ2 y 3 e−λy 1(0,∞) (y), y ∈ R.
�n
Esercizio 123. Sia λ = k=1 λk . Per il minimo di v.a. si ha
n
� n
�
P (X(1) > z) = P (Xk > z) = e−λk z = e−λz
k=1 k=1
per cui
n
� �
fZ (z) = fXk (z) FXs (z)1(0,∞) (z), z ∈ R.
k=1 s�=k
Esercizio 124.
�� 1 �n
1 − FZn (z) =P (Zn > z) = P (X1 > z, . . . , Xn > z) = 1(0,1) (u)du
z
da cui si ricava
0, z≤0
FZn (z) = 1 − (1 − z)n , 0<z≤1
1, z>1
d P
La convergenza Xn → 0 implica Xn → 0. Inoltre si poteva considerare la
disuguaglianza di Cebicev e la definizione di convergenza in Probabilità
che è una v.a. Chi-quarato con un grado di libertà (o una Gamma(1/2, 1)).
Esercizio 136.
� �
1. n3 p3 q n−3 nella seconda come nelle altre sequenze
Appendice C. Svolgimenti, Tracce, Soluzioni
� n ∗ �n ∗ � ∗
2. s=2 s pn q dove n∗ = min{n − 2, 5} oppure 1 − P (0 su n∗ ) −
−s s
∗
P (1 su n )
3. Dato che p = q possiamo considerare una scatola unica
S = {S1 , S1 , S1 , S1 , S1 , S2 , S2 , S2 , S2 , S2 }
Esercizio 137.
Y =1 Y =2
X=1 1/4 1/4 1/2
1.
X=2 1/4 1/4 1/2
1/2 1/2 1
2. No
3. FZ (z) = P (X > 1/z), z ∈ (−∞, ∞) (verifica della continuità,
2 √
evento impossibile e certo), fZ (z) = z −2 e−1/2z / 2π1R (z)
4. calcolo FW , verifico continuità, e. impossibile, e. certo , calcolo fW
oppure X − Y + µ ∼ N (µ, 2) quindi FW (w) = P (N (µ, 2) > 1/w),
2 √
w ∈ R e fW (w) = w−2 e−(µ−1/w) /4 / 4π1R (w)
5. 5. X − ν ∼ N (−ν, 1), Y + γ ∼ N (γ, 1), S ∼ N (µ − ν, 2), fS (s) =
2 √
e−(γ−ν−s) /4 / 4π1R (s).
Esercizio 138.
Y =1 Y =2
X=1 1/4 1/4 1/2
1.
X=2 1/4 1/4 1/2
1/2 1/2 1
2. sia pk = P (U = k) con k ∈ IU = {1, 2, 3, 4} e spet(U ) = {1, 2, 4},
si ha che p1 = p4 = 1/4, p2 = 1/2, p3 = 0
3. FZ (z) = e−8/z , z ∈ (0, ∞) (verifica della continuità, evento impos-
sibile e certo), fZ (z) = 8z −2 e−8/z
4. calcolo FW , verifico continuità, e. impossibile, e. certo , calcolo fW
8/w
1−e
, w≤0
FW (w) = 8 8
1 7
+ e−8/w , w > 0
8 8
e quindi
e8/w e−8/w
fw (w) = 2
1(−∞,0) (w) + 7 1(0,∞) (w), w ∈ R
w w2
82 2−1 −8s
5. fS (s) = Γ(2) s e 1(0,∞) (s), s∈R
4. P (1, 1, 2) = P (1)P (1)P (2) = P (1|S2 )P (S2 )P (1|S2 )P (S2 )P (2|S1 )P (S1 ) =
� �2
1 1 1 1
m2 2 m1 2
Appendice C. Svolgimenti, Tracce, Soluzioni
� �� m2 � �m1 +m2 �
5. P (k pari) = mk1 n−k / n 1(0≤k≤m1 ) , posso considerare m1 +
m2 palline in una sola scatola perché la scelta delle scatole S1 , S2 è
casuale
� �� 2 � �m1 +m2 �
6. P (2k dispari, k pari) = mk1 m 2k / n 1(n=3k,k≤m1 ,2k≤m2 ) ,
7. 0, evento impossibile
8. 0, evento impossibile
Esercizio 140.
�n
1. kXk ∼ N (0, k 2 ) quindi Zn ∼ N (0, σn2 ) dove σn2 = k=1 k2 =
n(n+1)(2n+1)
6
0, w≤0
FW (w) = w − w ln w, 0<w≤1
1, w>1
Si vede che:
limw↑0 FW (w) = limw↓0 FW (w) = limw→0 (−1/w)/(−1/w 2 ) = 0.
La f.r. è continua in 0,
limw↑1 FW (w) = limw↓1 FW (w) = 1. La f.r. è continua in 1.
Esercizio 141.
1. Xk → X degenere in 0, P (X = 0) = 1
p d
2. EXk = 1 per ogni k e quindi X n → 1 (⇔ X n → 1) per la L.D.G.N.
3. si vede che
�
sin(x) 1
3 1(0,3) dx = 3E [g(X)]
R sin(x2 ) 3
sin(X)
dove X ∼ U nif (0, 3) e g(X) = sin(X 2 ) . Allora, data la successione
Esercizio 142.
1. P (nessuna chiamata in 3 munuti) = (1/4)3 ,
2. P (A1 ∪ A2 ) = P (A1 ) + P (A2 ) = 32 /43 dove
P � 1 ) = P (12 volta una chiamata e 2 volte nessuna chiamata) =
�3(A
1 (1/2)(1/4) ,
P � 2 ) = P (12 volta due chiamate e 2 volte nessuna chiamata)=
�3(A
1 (1/4)(1/4)
��
3. P (1 volta due chiamate e 2 volte una o zero chiamate) = 31 (1/4)(1/2+
1/4)2
��
4. P (2 volte due chiamate e 3 volte una o zero chiamate) = 52 (1/4)2 (1/2+
1/4)3
5. P (1, 1, 1) = p3
��
6. 43 p3 q
7. [P ((1, 1, 1, 0) ∪ (1, 1, 0, 1)]/P (1, 1) = 2pq = P ((1, 0) ∪ (0, 1)) = P (2
chiamate in 2 minuti di servizio)
Appendice C. Svolgimenti, Tracce, Soluzioni
Esercizio 143.
Esercizio 144.
12. X n → 1
2 per n → ∞ in probabilità
13. Y n → −1 per n → ∞
�1
14. I = 0 ln(x) dx
Esercizio 145. Data f (x) = x−1 1[1,∞) (x), x ∈ R, si vede subito che
� � ∞ �∞
x1−p ��
|f (x)|p dx = x−p dx =
R 1 1 − p �1
è una quantità finita solo se p > 1. Quindi f ∈ Lp (R) con p > 1. Si noti
che per p = 1 si ha
� �∞
�
|f (x)|dx = log x��
R 1
� n �
1� 2 n−1 2
E (Xk − X̄) = σX
n n
k=1
Appendice C. Svolgimenti, Tracce, Soluzioni
La varianza cercata è 2
σX̄= σX2
/n cioè la varianza teorica (finita) della
popolazione caratterizzata dalla v.a. X diviso la numerosità campionaria
n. Come al solito, volendo sottolineare la dipendenza da n scriviamo X̄n
invece di X̄. Si vede subito che (X̄ = X̄n , dipende da n)
2
2 σX
σX̄ = →0 quando n → ∞.
n
n
Si ottiene µ
�M V = x̄.
�n
1
fX (x) = 1[0,θ] (xj )
j=1
θ
ed ovviamente
n
�
log L(θ; x) = −n log θ + log 1[xj ,∞ (θ).
j=1
Osservando che
cioè 1.96 è il percentile z0.975 della tavola in Tabella 8.1 (si noti che
0.975 = 0.95 + 0.025 dove 0.025 = P (N (0, 1) ≤ −z) = Φ(−z)). Possiamo
a questo punto sfruttare l’identità
�√ � �
n = 1.96 ⇒ n = (1.96σ/�)2 oppure n ≥ (1.96σ/�)2 .
σ
EX = x̄, EX 2 = x̄2
� = x̄
µ e �2 = x̄2 − (x̄)2 .
σ
X̄n − 1
Z|H0 = √ ∼ N (0, 1)
1/ n
x̄ − 1 1√
−1.96 < √ = 30 < 1.96
1/ 30 5
x̄ − 1 2√
zoss = √ = 30 > 1.96
1/ 30 5
Esercizio 171.
a) Dalla trasformazione lineare Y = aX si ottiene che Y ∼ N (aµX , a2 )
quindi la stima per µY è la media campionaria del vettore y = ax =
(ax1 , . . . , axn ). Ovvero µ
�X = ȳ = ax̄ essendo x̄ uno stimatore di
massima verosimiglianza per µX .
b) Con il metodo dei momenti otteniamo ȳ = EY = aEX e x̄ = EX
quindi µ
�X = x̄ ⇒ µ�Y = ax̄.
c) Si deve calcolare la probabilità P (|Ȳ − µY | < �) ≥ 0.95. Quindi
� � � �√
|Ȳ − µX | √ �√ �√ �
P n< n =P − n < N (0, 1) < n
a a a a
=0.95
Esercizio 172.
�n
1. λ̂ = x̄ = 1
n i=1 xi = conti
Esercizio 173.
Esercizio 174.
1. p̂M V = x̄,
2. p̂M OM = x̄,
X̄n −µ
3. σ |H0 ∼ N (0, 1) quindi si deve verificare se 2−1
√
1/ 8
∈ A dove per
α = .05, si ha A = (−1.96, +1.96).
Esercizio 176.
X̄n√−µ
�
X̄n√−1 �
2. X̄n ∼ N (µ, σ 2 /10) ⇒ 1/ 20
∼ N (0, 1) ⇒ 1/ 20
H0 ∼ N (0, 1) ⇒
3/2−1
√
1/ 20
∈ A? dove al livello α = 0.05 con Φ(1.97) = 0.975 si ottiene
A = (−1.97, +1.97). Quindi NON posso accettare H0
Esercizio 178.
� �n �−1
1. θ̂M V = − n1 k=1 ln xk
√
2. (3/4 − 2) n ∈ (−1.96, +1.96) per n ≤ 2
3. (3/4 − 1.96
√ , 3/4
n
+ 1.96
√ )
n
Esercizio 179.
1. θ�M V = e1/x̄
2. θ�M OM = e1/x̄
3. IC(α) = (x̄ − l, x̄ + l) dove l = z1−α/2 √150 e z0.975 = 1.96
Esercizio 180.
12. θ�M V = e2/x̄
13. θ�M OM = e2/x̄
14. IC(α) = (x̄ − l, x̄ + l) dove l = z1−α/2 √125 e z0.975 = 1.96
Esercizio 182.
n
1 � iξk eiξn 1 − eiξ
φX (ξ) = e = , ξ ∈ R.
n n 1 − eiξn
k=1
Appendice C. Svolgimenti, Tracce, Soluzioni
Esercizio 185.
∞
�
φX (ξ) = C k −α−1 eiξk , ξ ∈ R.
k=1
Esercizio 188.
∞
� � �k pqeiξ
φX (ξ) = q peiξ = , ξ ∈ R.
1 − eiξ
k=1
Esercizio 190.
n � �
� n � �k � �n
φX (ξ) = peiξ q n−k = q + peiξ , ξ ∈ R.
k
k=0
0 ≤ k ≤ K,
0 ≤ n − k ≤ N − K,
0 ≤ n ≤ N,
per N, K ∈ N dati e n, k ∈ N.
Esercizio 193.
∞
� 1 � iξ �k iξ
φX (ξ) = e−λ λe = e−λ(1−e ) , ξ ∈ R.
k!
k=0
Esercizio 196.
Esercizio 198.
φX (ξ) = λν (λ − iξ)−ν , ξ ∈ R.
Esercizio 206.
σ 2 ξ2
φY (ξ) = Eeiξµ+iξσX = eiξµ EeiξσX = eiξµ− 2 , ξ ∈ R.
Bibliografia
famiglia misurabile, 19
chiusa rispetto alla somma, numerabile, 18
100
di densità, 99 legge
formula debole dei grandi numeri, 130
di Bayes, 30 delle pr. composte a più
di duplicazione, 212 alternative, 30
di riflessione, 212 delle probabilità composte, 26
funzione delle probabilità totali, 26
caratteristica, 112 forte dei grandi numeri, 131
caratteristica di un insieme, limite
17 centrale, 135
codominio, 91 livello
continua, 54 di fiducia, 185
convessa, 159 di significatività, 185
dei momenti generalizzati, 119 mancanza di memoria, 76
di Lipschitz (o Lipshitziana), matrice
60 delle covarianze, 79
di verosimiglianza, 166, 177 media, 64
dominio, 91 media
Gamma, 211, 212 campionaria, 2
generatrice dei momenti, 118 memoria, 76
generatrice delle probabilità, metodo
119 dei minimi quadrati, 181
immagine, 91 dei momenti, 181
insieme di definizione, 91 di massima verosimiglianza,
limitata, 60 177
supporto, 91 Monte Carlo, 131
uniformemente limitata, 60 misura
funzione caratteristica di conteggio, 21
di un insieme, 17 di Dirac, 21
di Lebesgue, 20
identità di Wald, 103 modello
indice aleatorio, 62
di Bravais-Pearson, 77 deterministico, 62
di correlazione, 77 lineare, 69, 76, 78
insieme modulo
limitato, 60 proprietà, 160
INDICE ANALITICO
momenti, 64 somme
aleatorie, 102
numeri casuali di v.a., 93
generatori, 109 spettro, 50, 53, 57
statistica
passeggiata aleatoria, 102 descrittiva, 1
percentile, 217 funzione, 1
permutazioni inferenziale, 9, 164
con ripetizione, 41 stima
semplici, 35 dei minimi quadrati, 181
popolazione dei momenti, 181
finita, 164 di Bayes, 183
virtuale, 165 di massima verosimiglianza,
potenza del test, 185 177
principio di induzione, 32 per intervalli, 178
problema MMC, 134 successioni
monotone di insiemi, 16
quantile, 217 monotone di v.a., 106
quartile, 217 supporto, 53, 56, 57
random walk, 102 tabella di contingenza, 80
regola del tavola dei percentili, 217
ne fisso uno, 37 tempi di attesa, 106
procedo per iterazioni Teorema
successive, 39 del limite centrale, 135
di Blackwell-Rao, 175
serie di Cesàro, 130
armonica, 160 di Helly-Bray, 120
di funzioni, 161 di Lévy, 127
di Maclaurin, 162 di Scheffé, 128
di potenze, 163 fondamentale del calcolo
di Taylor, 162 integrale, 55
geometrica, 163 test
numerica, 160 del χ2 , 190
telescopica, 161 di Kolmogorov-Smirnov, 191
simulazione, 109
soluzione MMC, 134 valore
somma atteso, 64
famiglia chiusa, 100 medio, 64
INDICE ANALITICO
variabile
χ-quadrato, 84
aleatoria, 5
Beta, 216
Binomiale, 203
Chi-quadrato, 216
degenere, 122
deterministica, 5
di Bernoulli, 203
di Cauchy, 213
di Fisher-Snedecor, 216
di Poisson, 208
di Student, 216
di Weibull, 215
Esponenziale, 211
Gamma, 211
Geometrica, 201
Ipergeometrica, 207
media campionaria, 7
Multinomiale, 205
Normale, 213
Normale Multidimensionale,
215
Uniforme continua, 210
Uniforme discreta, 200
varianza campionaria
corretta, 84
Zipf, 201
variabili
i.i.d., 70
indipendenti, 71
ordinate, 103, 106
varianza, 64, 66
varianza
campionaria, 2
campionaria corretta, 84