Sei sulla pagina 1di 183

Indice

Introduzione vii
1. Statistica descrittiva 1
I.I Introduzione I
I
1.3 Frequenze relative
1.2 Tipi<lidati

1.4 Istogrammi
2

1.5 Media.varianza
2
4
1.6 Mediana, quantili 8

1.8 Altre medie


L7 Correlazione e regressione 9
13
1.9 !lfomenti, indici di forma e di simmetria 15
I .IO Conclusione 16

2. Spazi di probabilità 17
2.1 Fenomeni deterministici e casuali 17
2.2 Spazi di probabiliti1 18
2.3 Probabilità condizionale, indipendenza 22
2.4 Calcolo combinatorio 26

3. Modelli discreti 31
3.1 Variabili aleatorie e loro distribuzio11i 31
3.2 Variabili aleatorie discrete 32

3.4
3.3 Leggi congiunte, indipendenza 42
Calcoli con densità 48
3.5 Speranza matematica 53

3.7
3.6 Momenti, varianza, covarianza 57
La legge dei grandi numeri 62
vi Indice

* 3.8 La retta di regressione 65


* 3.9 La compressione ùei segnali e il teorema di Shannon-McMillan 67
* 3.lO Funzioni generatrici 70

4. Modelli continui 75
4.1 Definizioni 75
4.2 Calcolo di leggi 79
* 4.3 Densità congiunte 82
4.4 Leggi normali 91
4 .5 Leggi Gamma 93
* 4.6 Il Processo di Poisson, processi di arrivi 96
4.7 Speranza matematica, momenti 98
* 4.8 Generatori aleatori, simulazione 1 02
* 4.9 Funzioni generatrici dei momenti, trasformata di Laplace 105

5. Convergenza e approssimazione 109


* 5.1 La Legge dei Grandi Numeri: applicazioni 109
5 .2 Convergenza in legge 1 17
5.3 li Teorema Limite Centrale 119
5 .4 Problemi di stima 121

L'eserciziario
Tracce e-3
Esercizi per il Capitolo I e-3
faercizi per il Capitolo 2 e-5
Esercizi per il Capitolo 3 e-12
Esercizi per il Capitolo 4 e-20
Esercizi per il Capitolo 5 e-3 1

Risultati e-39

Tavole e formule a-l


Indice analitico a-5
1
Statistica descrittiva

1 .1 Introduzione
Nelle scienze sperimentali il ricercatore si trova in presenza di dati che deve elaborare per poterli
interpretare: è la situazione tipica della statistica. Tradizionalmente si suddivide la statistica in
descrittiva e inferenziale.
Ad esempio, volendo vedere come i cittadini di un paese si ripartiscono tra i vari partiti, ci sono
due possibilità.
Si può innanzitutto chiedere ad ogni individuo di esprimere il suo voto. Ci si troverà di fronte
ad una massa ingente di dati che occorrerà elaborare. peraltro con operazioni abbastanza semplici
(contare i voti per ognuno dei partili, calcolare le percentuali. . . ).
Un secondo modo consiste nell ' interrogare un numero limitato di cittadini (un sondaggio. . . ).
Una volta ripartiti i voti, però, occorrerà domandarsi quanto i dati ottenuti siano significativi e
che cosa, a partire da essi , si possa dire (inferire) del voto dell'intera popolazione.
Il primo è un problema di statistica descrittiva; il secondo invece riguarda la statistica inferen­
ziale e pone una questione evidentemente più delicata. Basti pensare che due sondaggi darebbero
probabilmente risultati diversi. In altre parole il risultato del sondaggio è casuale. Per questo, per
affrontare problemi dì tipo inferenziale, sarà necessario prima analizzare la struttura dei fenomeni
casuali (Calcolo delle Probabilità).
In questo capitolo vedremo gli aspetti elementari della statistica descrittiva, mentre nei capitoli
successivi si studieranno i modelli del Calcolo delle Probabilità. Nell'ultimo capitolo si vedrà
come questi ultimi forniscono le prime risposte al problema inferenziale.

1.2 Tipi di dati


Una prima distinzione che è necessario fare è tra dati qualitativi e quantitativi. Ad esempio, se
studiamo il gruppo sanguigno di un gruppo di persone, il risultato di ogni osservazione potrh
prendere i valori A, B, A B oppure O. Se invece ne misurassimo il peso (o l'alrezza . . . ), il risultato
dì ogni singola misurazione sarebbe un numero. Nel primo esempio i dati sono [. lJl!P!ita,ti�i.J. nel
secondo sono lq1111nlita�ivi ;.
---� - - -'.."'\
-·---··· ·-
4 Capitolo 1 Statistica descrittiva

Figura 1.4 Qui i dati sono gli stessi della figura precedente, ma è diversa la scelta dell 'ampiezzadegli
-2.3 - 1 .5 --0.7 O.I 0.9 1.7 2.5 3.3

intervalli in cui si suddividono le osservazioni. Probabilmente qui gli intervalli sono troppo l?iccoli:
appare un numero elevato di mode che probabilmente non corrisponde a fatti significativi.

Figura 1.5 Ancora un istogramma dei dati della Figura 1 .3, ma con una scelta di classi più larghe.
-3. 15 -2.25 --l .35 -.45 0.45 l.35 2.25 3. l 5 4.05

L1 bimodali là continua nd essere presente, il che fa pensare a un comportamento reale dei dati e non
dovuto alla scelta delle classi.
Si chiama la classe h che nell'istogramma ha il rettangolo più alto. Si parla di moda
Ulòdii.1
anche per le classi che hanno un rettangolo più alto delle classi adiacenti. In un certo senso la
nozione di moda somiglia a quella di punto di massimo relativo.
Per gli istogrammi di caratteri continui occorre non dimenticare che la scelta delle classi h ,
nelle quali suddividere i dati, è arbitraria e lasciata all'iniziativa del ricercatore. Questo fatto è
importante perché scelte diverse delle classi possono portare a istogrammi di aspetto diverso.
Ad esempio se le classi sono troppo larghe e in numero ridotto l'istogramma può risultare
grossolano e nascondere dei fenomeni importanti. Viceversa troppe classi possono fare apparire
fluttuazioni prive d'interesse. Il problema di determinare quale sia la migliore ampiezza delle
classi in cui si suddividono le osservazioni è stato molto studiato. Qui ci limitiamo a segnalare la
regoletta di Sturges, che suggerisce, per 11 osservazioni, un numero di classi uguale a l + )�- 1.
Nella pratica, la realizzazione dell' istogramma, come pure la maggior parte delle operazioni
descritte in questo capitolo, viene realizzata con l'aiuto di software specializzati, nei quali queste
operazioni sono già programmate.

1.5 Media,varianza
i!;-9��to e nei prossimi paragrafi consideriamo un campione numerico X1 , . • . , Xr. . Si chiama
iinediaJ (o media aritmetica) del campione la quantità
Il
I
( 1 .2) .i:· = � (x 1 + . . . + x,, ) = -· °"' x; .
Il Il L
i=!

La media di un campione è uno di quelli che si chiamano indici di ce11tralità . In altre parole la
1.5 Media.varianza 5

media indica il centro del campione. Esistono altri indici di centralità che ve::dremo più avanti;
mettiamo ora piuttosto in evidenza alcune proprietà importanti della media.
Siano a. b E IP.. e poniamo y; = ax; + b. Allora la media ji del campione y1 , . • . , y,. è uguale a
a.i + b. In altre parole la media è invariante per un cambio di unità di misura: fare un cambio di
scala e poi la media è lo stesso che calcolare la media e poi fare il cambio di scala. Infatti

l "
y_ = - °"' Y; = n-1 ;_J I � J ,'.:.._ _
).(ax; + b) = a(- ,� x;) + - "'\' b = ax -t- b .
11

n� 11 � n�
i=l i=l j=l i=I

Esempio 1.1 Se x1 , . . . , Xn sono temperature misurate in gradi Fahrenheit e .i = 50 •F , qual è la


media delle stesse temperature in gradi centigradi?
I gradi 'C si ottengono da quelli °F con la trasformazione x ➔ (x - 32) {-� . Dunque la media
in •e è (50 - 32)� = l 0 °C. Se la proprietà d'invarianza della media non fosse vera, avremmo
dovuto prima convertire tutte le misurazioni in gradi centigradi e poi calcol are la media dei valori
dopo la convers ione.
I
Se il carattere ha un numero finito di modalità z 1 , . . . , zi: e P I , . . . , Pt sono le frequenze relative
del campione, allora può essere utile la formula

(1 .3) x = I; p;z; .
i=l

Infatti dire che Pi , . . . , Pk sono le frequenze relative vuol dire che un numero np 1 <li dati assume
il valore z.1 , 11p2 il valore z2 , . . . , 11/Jt il valore Zk. Dunque

_ l n l
X = Il- G
" X; ,= - (!!p [ Z I + . . . + ll/JtZ:d = PIZI + . . . + PkZk .
1l
i=l

Esempio 1 .2 Alla fine dell'SOO A. Ge.issler raccolse molti dati sulla composizione (maschi/fem­
mine) di famiglie numerose. Uno dei campioni che raccolse riguardava 11 = 26 500 famiglie di
IO figli . Dopo avere censito quante di queste avessero i figli maschi lrovò la seguente tabella

o 2 3 4 5 6 7 8 9 10
N; 35 239 1058 2714 48G8 6363 5674 3567 1542 397 43
0.0013 0.0090 o.o,, 0.102� 0.1841 0.2401 0.2141 0.1358 0.0582 O.O I 5 0.0016

dove, come poco fa , N; sono le numerosità e /3; = N; /11 sono le frequenze empiriche, cioè, in
questo caso, N; è il numero di famiglie aveni.i i figli maschi e p ; la proporzione relativa. Qual è
il numero medio di figli maschi nelle famiglie di questo campione?
I dati qui sono in forma raggruppala e dobbiamo perciò usare la formula (1.3):

i = 0 - PO + 1 - PI + 2 - pz + . . . 10 - PIO = 0 - 0.00 1 3 +. l -0.0090 + 2 - 0.04 + . . . 1 0 - 0.0016 = 5 . 1 7 .

Qui In questione segu ente è molto naturale : nel campione sono presenti più maschi che femmine,
6 Capitolo 1 Statistica descrittiva

qualcosa sulla proporzione di maschi in famiglie di questo tipo in tu!la la popolazione (e non solo
nel campione che abbiamo)?
Riprenderemo questo tipo di questioni (che sono quindi di tipo inferenziale) più tardi quando
avremo a disposizione gli strumenti per farlo (vedi gli Esempi 3 .46, e 5.22)

Supponiamo ora invece di essere in presenza di due campioni x = {x 1 , . . . , xd e y = IY 1 , . . . , y.,J


aventi medie .i: e y rispettivamente e consideriamo il campione w = {w 1 , . . . , w,. } ottenuto ri­
unendo i due campioni x c y. Cioè supponiamo che i primi l elementi del campione w sono i
numeri x 1 , . . • , Xt, mentre i successivi m sono i numeri y1 , . • • , y,. (e naturalmente n = l + m) .
Allora è possibile esprimere la media w di w in termini delle medie di x e y. Infatti

_ 1 l( ! m ) I _ _ l _
11
( 1 .4) "' Yi = - (lx + my) = - x + - y .
111 _
w = - ). W; = - �
"' x; + �
n� n Tl n n
i= I i=l i=!

Si chiama �;;,;:;; del campione la quanlit/t

l Il
(1 .5) - "'(x; - _t) 2
li L..,
i= I

La varianza si indica spesso con il simbolo cr2 , oppure a; per indicare che si tratta della va1ianza
del campione x = {x 1 , • • • , x� }, nel caso si stia lavorando con più di un campione e ci sia pericolo
di confusione.
La varianza è u11 indice di dispersione: essa misura se i valori ciel campione sono o no lontani
dal loro baricentro i. Valori grandi della varianza indicano che vi sono valori del campione lontani ;
dalla media i.

I
La radice quadrata a della varianza si chiama! scaruj' quadrarko 1oppure(d��i�-iio11e standard ,.
Per la varianza esiste una formula analoga alla ( Ì.3Yseìi carattèr.:; ha un nu�1ero finito di modalit1t
z 1 , . . . , Zk e P1 , . . . , Pk sono le frequenze relative del campione, allora
k
( 1 .6) a 2 = L P; (z; - x )2 . '
i=l
Infatti basta riconoscere che nella somma che figura nella (1.5) compaiono p 1 11 termini che
valgono (z 1 - i) 2 , p211 termini che valgono (z2 - i) 2 e così via. Attenzione in queste formule a
non confondere i numeri Zj che sono i possibili valori delle osservazioni (e che sono in numero
di k) dagli x; che sono i valori delle singole osservazioni (e che sono in numero di 11).
Per la varianza si può trovare un'espressione alternativa a ( 1 .5) che è molto utile ed è anzi
quella che si usa in pmtica per il calcolo:
Il n
a2 '-'(x2 + i 2 - 2x;i) =
= _!_ '-'(x; - it)2 = ]_ L..J
i=I i=I
Il � 11 t

n
( 1 .7) 1 " 1 " I 1 Il
= 'n L x; + Il L i - 2.i Il L x; = ;i L x; + i - 2i = ¾ L x; - i .
Il
2 2 2 2

i=J i=l j;:;;J i= l i =I


._______, '----..---'
=.i
1 .5 Media.varianza 7

Cioè la varianza è anche uguale alla media dei quadrati meno il quadrato della media.
Vediamo ora le proprietà della varianza. Se b E JR e y; = X; + b, allora a} = aJ . Infatti
sappiamo già che ji = i + b e dunque

a; = _!_ �(y; - W = _!_11 L


�(x; + b - x - b) 2 = _!_ \.� (x; - x)2 = a;
· .
11 L 11 L
i= l i=l i=l
Del resto, intuitivamente, sommare b a tutti gli elementi del campione significa spostare di b
anche la media i e quindi non cambia la dispersione del campione rispetto alla sua media.
È invece facile verificare che se y; = a x; allora a; = a2a;. Ad esempio, passando dai gradi
•F ai •e la varianza viene moltiplicata per ( 1 00/ 1 80)2 = it-
La media i gode di una importante proprietà: è il numero a per il quale la somma dei quadrati
delle distanze di x; da a è minima. Infatti se vogliamo determinare il numero a in cui la funzione
l .,,
a -> - >(x; -- a) 2
11 L.....J
i=l
è minima, allora derivando rispetto ad a e imponendo che l a derivata sia nulla, si trova

2 tJ
O = - - "'(x; - a) = -2(x - a)
I! L..,
i=}

da cui si ricava facilmente che a = .i: è il punto di minimo cercato.

Esempio 1.3 La Tabellal .6 rip011a 100 misurazioni della velocità della luce nell'aria, effettuate
da A.A.Michelson nel I 879 (fonte: S .M. Stigler, The Annals of Statisties 5, 1055-I098, 1977). I
dari si devono intendere, in km/s, 299000 più il valore indicato.
La media di questi valori è i = 852.4 e la deviazione standard v = 78 . 6. La domanda naturale
ora è la seguente: cosa sì può dire della velocità della luce nell'aria? Che informazioni si possono
ricavare da questi dati? Si tratta di una questione di statistica inferenziale a cui daremo una
risposta nel capitolo 5 (vedi l ' Esempio 5 . 1 9).

850 740 900 1 070 930 850 950 980 980 880
1000 980 930 650 760 810 1 000 1000 960 960
960 940 960 940 880 800 850 880 900 840
830 790 810 880 880 830 800 790 760 800
880 880 880 860 no 720 620 860 970 950
880 9IO 850 870 &,IQ 840 850 840 840 840
890 810 8 1 0 820 800 770 760 740 750 760
910 920 890 860 880 720 840 850 850 780
890 840 780 810 760 8 1 0 790 810 820 850
870 870 810 740 810 940 950 800 810 870
'fabclla L6 100 misurazioni della velocità della luce nell'aria (Michelson, 1879) .
8 Capitolo 1 Statistica descrittiva

1.6 Mediana, quantili


Dato un campione x1 , • , • , Xn si possono definire altri indici di centralità e di dispersione alternativi
a media e varianza, che possono presentare dei vantaggi ed essere più appropriate in determinate
situazioni.
Indichiamo con X( t), . . ,, X(n) i dati del campione ordinati in maniera crescente: xm :s xm :s
. . , :s X(n) . Si chiama [m�d{izìi{],] il più piccolo di questi valori che lasci alla sua destra almeno
metà delle osservazioni. In particolare se n = 2k + I è dispari, allora la mediana è x(k+t) - Se
invece n = 2k è un numero pari, allora la mediana è il valore X(tJ ; se n = 2k, talvolta si definisce
come mediana,ìl punto medio tra x(k) e x(k+!J, cioè i (X(kl + X(k+I) ) .
Media e mediana, che sono entrambe misure di centralità, non sono i n generale uguali, anche
se dì solito non sono lontane l'una dall'altra. La mediana è più complicata da m aneggiare della
media: ad esempio non c'è una formula semplice per il calcolo della mediana della riunione di
due campioni , come abbiamo visto per la media nella formula ( 1.4). D'altra parte essa presenta
alcuni vantaggi. È ad esempio poco sensibile a errori nei dati (cioè, nel gergo detla statistica, è
robusta). I veri dati con i quali lo sperimentatore si trova a lavorare sono infatti inevitabilmente
contaminati da errori di misurazione, di campionamento (quando si studiano gli individui di una
certa specie può capitare di prendere in considerazione, per errore, individui dì una specie simile)
o anche di trascrizione (uno zero di troppo, una virgola spostata. . . ), che spesso producono valori
molto più grandi o più piccoli degli altri. È facile rendersi conto che l 'influenza di questi errori,
da considerarsi inevitabili, è molto maggiore sulla media che sulla mediana (vedi il commento
alla Figura 1.7).

i
--- �--�- � -
- --....C,,� •---�-•-·--·--•-- ------- ---
lc;,
Figur.1 1.7 La mediana è data dal valore di X(5) c\l è diversa dalla media. Se poi facessimo cr<0.scerc
X(6) X(7) X(8)

il valore di .t(9l , il valore della media aumenterebbe, ma non quello delta mediana, che resterebbe
invariata.

Ci sono inoltre delle situazioni in cui è più opportuno considerare come indice di centralità del
campione la mediana invece che la media .
.È il caso, ad esempio, dei campioni molto asinunetrici. Se vogliamo stabilire qual è il reddito
medio dei dipendenti di una ditta, ci troveremmo di fronte ad un campione formato da molti valori
medio-bassi (operai e impiegati) e pochi valori molto elevati (i dirigenti). In questa condizione è
più ragionevole considerare come valore centrale la mediana.
L'intervallo [x( I J , x(,,Jl contiene tutti i dati. Si chiama ��� l'ampiezza di questo intervallo,
cioè la quantità x,,,> - x0 >; si tratta di un indice di dispersione, che ha il vantaggio di essere
facile da calcolare. È però un indice grossolano, molto sensibile agli errori nei dati descritti
precedentemente. .- --- ____ _ ________ _ ,
Un indice di dispersione più efficiente è invece l'ampiez7�, dell';.i11te,:vallo i11terquarti/e , che
ora vediamo. Se O < a < I ,si cl1iama Q U A N T I L E di ordine a il nume�o q0 =-X(i) dove i =
o:(:i + I) se a(11 + 1) è intero; altrimenti, cioè se av,+ l) non è intero, si sceglierà i uguale al
numero intero immediatamente più piccolo oppure più grande di 0:(11 + I) (a seconda dei
testi le definizioni possono variare), cio� i = la(11 + l )J , oppure i = La(11 + l)J + l , dove l J
1. 7 Correlazione e regressione 9

tra X la(n+ I JJ e Xta(n+IJJ l , calcolato in maniera opportuna. Grosso modo q" è un numero che
ha alla sua sinistra an +elementi del campione (�___Q_l!ll_qtJe (1 - a)n alla sua destra). In questo
senso la_ mediana � il quanti�e q1 12. Si chiamano �à� i quantili q 114 , q214 (cioè la mediana) e
q3i4 · L'intervallo mterquarule [ql /4• q314J contiene al suo interno dunque metà delle osservazioni.
L'ampiezza qJ/4 - ql/4 dell'intervallo interquartile è una misura della dispersione che non ha i
difetti che avevamo riscontrato per il range .
A partire dalla mediana e dai quantili è possibile costruire un grafico che dà un'idea abbas­
tanza i mmediata del valore di centralità e della dispersione del campione, ed permette anche di
confrontare più campioni tra di loro. Esso è presentato nella Figura 1.8: per ogni campione viene
costruita una scatola le cui estremità inferiori e superiori sono rispettivamente il primo e il terzo
quartile. All 'intcmo della scatola è tracciata una linea in corrispondenza della mediana; al di fuori'
della scatola vengono tracciali due segmenti rispettivamente tra il primo quartile ed il più piccolo
valore delle osservazioni ed il terzo quartile ed il valore più grande . La distanza tra le estremità di
�ll�ti-�� menti è dunque il range. Nella letteratura anglosassone questo tipo di grafici si chiama
i boxplot !.

Esempio 1.4 Le misurazioni della velocità della luce riportate nell 'Esempio 1 .3 in realtà si
riferiscono a 5 gruppi <li osservazioni corrispondenti a esperimenti effettuati in tempi diversi.
Cosa si può dire? I gruppi di dati presentano caratteristiche simili?
Come primo approccio alla questione si possono tracciare i boxplot dei 5 campioni e confrontarli
tra loro, come nella Figura 1 .8.

1 100

EOO

700

Figura 1.8 Boxplot <lei cinque gn1ppi di dati di Michelson . Ci sono delle differenze, sia per i
valori delle mediane (che sono indicate dalle linee orizzontali più spesse) che per quelli dell'intervallo
intcrquartile (che sono dati datla,lunghezza della "scatola"). Probabilmente le condizioni sperimentali
hanno influito sulle misurazioni.

1.7 Correlazione e regressione


Talvolta più caratteri vengono misurati per ogni individuo del campione (peso, altc?.za, sesso,
reddito . . . ) e si vuole mettere in evidenza l'esistenza di un legame tra di essi.
Vediamo come si può fare nel caso di due caratteri quantitativi. Supponiamo quindi che i
dati si presentino sotto la forma di vettori (x 1 , y1 ) , (x2, y2) , . _ . , (x,., y,,). (x; , y;) è il risultalo
10 sc
e_
Capitolo 1 Statistica d_ tiv_a____
_r_it_ ___ ___ ___ _ _ __
_

nel disegnare sul piano i punti di coordinate (x; , y;) e vedere se essi si dispongono secondo un
andamento regolare come ad esempio nel grafico della Figura 1 .9, nel quale i punti tendono a
formare una parabola.

. .•: ..
., ., .. ·........ . .. ..

Figura 1.9 J punti sì dispongono, più o meno, lungo una parabola, che suggerisce una dipend<:nza
quadratica tra i due caratteri.

La relazione più semplice tra i due caratteri è di tipo lineare: ci si può chiedere se esistano
due numeri a e b tali che, grosso modo, si abbia y; = ax; + b, i = 1, . . . , Il . Più precisamente:
in generale non esisteranno dei numeri a, b E R !ali che si abbia esattamente y; = ax; + b per
ogni i = I , . . . , ,: (significherebbe che, nel grafico, i punti si allineerebbero esattamente lungo
una retta). Esisterà però una retta che rende minimi gli scarti tra i valori Y1 e ax; + b; in un certo
senso è ]a relta che meglio delle altre spiega i valori y; come funzione lineare-affine degli x; .
Cerchiamo dunque due numeri a, b E JR in maniera che la quantità

S (a, b) = I)Y; - ax; - b)2


i=l

sia minima. Conviene sommare e sottrarre le medie all'interno del quadrato, cioè

S(a, b) = I)(y; - y) - a (x; - .i:) + (y - h - a.i:)) 2 .


;�1

Sviluppando il quadrnto si trova

S(a, b) = I)y; - y)2 + a 2 I::<x, - i) 2 + n (y - b - 11.t)2 - 2a l)Y; - y)(.r; - x)+


i:-::1 i=l f;_J

+ (y - b - ai) L()•; ·- ji) -2a(y - b - a.i') L(x; - i)


i=l
__________ _ _ ____ _
_ _ __
_ _ . 7___C
1_ :_o_rr_
elazione e regressione 11

Le due quantità indicate sono nulle perché, ad esempio,


Il

L ( Y; - y ) = L Y; -n y = 0 .

Se poniamo

I
(J.8) Uxy = n I)x; - i) (y; - y)
n

j,-- : 1
allora si può scrivere
1
S (a , b) = aJ + a 1a; '- 2aa,>, + (y - b - a .i:)2 .
11
Poiché b compare unicamente nell'ultimo termine, è chiaro che, per ottenere il minimo, deve
essere b = 5• - a.x. Basta quindi trovare il valore di a che rende minimo il trinomio

Derivando rispetto ad a e uguagliando a O si trova 2aa; - 2axy = O. Dunque,

( J .9) a.-cy
a;-
ll = -_,.. 1

La retta y = ax + b si chiama la 'l!.._e!i__a di regressia,i"è ! del carattere y sul carattere x .


-'
.. �

...
• •

Figura 1.10 E.sempio di grafico di due caratteri con una correlazione positiva, con la rela1iva retta di
rcgn:ssione.

Figura 1.11 Qui, invece, la correlazione è negativa.


12 Capitolo 1 Statistica descrittiva

...... .. .
., .�·.

Figura 1.12 Qui la rc:tla di regressione è praticamente orizzontale ed effeuivumenle non sembra che
il comportum_ento del carattere y sia influenzalo da x .

.•: ..
. . ··· ..
• ,I ••• \
..· .. . • •• . ·......:. · . . ..
. . . ...

Figur!l l.13 Si tratta degli stessi dati della Figura 1 .9. La retta di regressione è praticamenleori::.:zonlale,
nonostante sia evidente una dipendenza tra i caratteri (andamento a "sorriso"). La retta di r�grcssione
in effetti mette in evidenza solo una dipendenza lineare.

La q11antitl1 ax_v si chiama la (<::_{j�����fJ di x e y. Sviluppando i prodotti nella ( J .8), si trova

Oxy = - I)x; - x) (y; - y) = ,i


l _!.� _ _ I (I:;x;y; - I:;n x;y_ - I:;xy; Jt _ - )
r. _ + I:;xy
11
n

i=I i=I i=l i=I i=l


Ma s i ha
I:x;y = fI> = iy
Il

i=i i:-::1

:E xy; = .i :E )'; = .i'y


Il

i=i i=l

da cui si ricava l'espressione equivalente


"
Ux)' = -l °"' x;y; - xy
Il �
-.
.
1.8 Altre medie 13

Se la covarianza è nulla, allora a = O e la retta di regressione è orizzontale e, in un certo senso, i


valori del carattere y non dipendono da quelli del carattere x (vedi però la Figura l .l 3).
Osserviamo comunque che il coefficiente angolare a della retta di regressione ha lo stesso
segno della covarianza axy · Se dunque Oxy > O, ciò indica che y tende a crescere al crescere di
x. Ci si può aspettare qualcosa del genere; ad esempio, se x e y fossero rispettivamente il peso
e l'altezza d i individui. Se invece a_,1 < O, l'effetto di x su y sarà antagonista: al crescere dei
valori di x i valori di y tenderanno a decrescere.
-
Si chiama [ �;;�ffi�iente di correlazi01id dei caratteri x e y la quantità

Px.y = Uxy
r;_, uy

Si può dimostrare che si ha sempre - I � Px .y � 1. Un valore di Px ,y vicino a O indica scarsa


correlazione tra i due caratteri. Viceversa V\tlori di P., ,y vicini a - I indicheranno una forte
correlazione antagonista e valori vicini a I , al contrario, una forte correlazione all'unisono.
Il pregio del coefficiente Px.y , rispetto alla covarianza, è che esso è insensibile ai cambiamenti
di scala: se tutti i valori di X; vengono moltiplicati per uno stesso numero a > O ed i valori di y;
per uno stesso numero b > O, il coefficiente di correlazione non cambia. Infatti a.,y risulterebbe
moltiplicato per ab, a, per u e uy per b .

1.8 Altre medie

Esempio 1.5 In una popolazione di batteri si osservano aumenti degli effettivi del

100 . Pi% il primo giorno


100 · Pi% il secondo giorno

100 - Pn % 1'11-esimo giorno .

Qual è l'aumento medio?


Dovrebbe essere l 'aumento p tale che, se ogni giorno vi fosse stato un aumento sempre pari a
p, allora l'aumento totale sarebbe stato quello osservato. Orn se il numero di batteri inizialmente
era N, esso diventa (I + p1 ) N dopo il primo giorno, (1 + pi)(! + P2)N dopo il secondo e così
via. Dunque, dopo II giorni il numero di bal!eri è ( 1 + p 1 ) • • • ( l + p,,)N; se invece l'aumento
fosse stato costantemente pari a p ogni giorno, dopo n giorni i balteri presenti sarebbero stati
(l + p)" N. p deve dunque essere tale che N(l + p) n = N(l + P 1 ) . . . (I + Pn ) e cioè

l + /J = ((! + P I ) . . . ( l + /ln )) l/n .


Dati dei numeri q1 , . . . , q,, , tutti > O, si chiama fmeditì ge�irietri�a� di q1 , . . . , q,, il numero
(

Esempio 1.6 11 macchine producono un servizio impiegando dei tempi T1 , • • • , 1;, rispettivamente.
Qual è il tempo medio di produzione?
14 Capitolo 1 __S..!_atistica descrittiva

Si tratta cli quel tempo T tale che, se tutte le macchine avessero un tempo cli produzione pari a
T, allora la produttività sarebbe la stessa. Il numero di servizi prodotti dalle n macchine nell'unità
di tempo è l/T1 + . . . + 1 / T,, mentre 11 macchine tulle di tempo T ne produrrebbero 11/T. Deve
'ti
dunque essere J� = + . . . + }� ovvero

T= I( I , I
,; ri- + - - - --r r,;)
Si chiama (metlia ar,_1!<!.'�i<:_q_; dei numeri x1 , . . . , .x,., , tutti > O, il numero

1n altre parole la media annonica è l'inverso della media degli inversi.

Esempio 1.7 Vengono osservate delle colonie di batteri di forma circolare, di diametri rispettiva­
mente d1 , . . . , d., . Qual è il diametro medio?
Si tratta di quel valore d tale che se tutte le colonie avessero questo stesso diametro, allorn le
colonie avrebbero la stessa consistenza totale. La superficie totale delle11 colonie è 7r(df + . . . +d}) ,
mentre la superficie di n colonie di diametro d sarebbe mrd2 . Dunque deve essere m/2 =
df + . . . + d,7 , ovvero
I , ,
-;(d1 + . . . + d;;) .
_b
Dati dei numeri z 1 , . . . , z,, , tutti ?: O, si chiama Lmedia quadratica./ il numero

_2 ) .
z = ;l Cz21 + . . . + �,,

Occorre quindi fare attenzione ed usare la media appropriata, a seconda delle situazioni. ft
possibile del resto definire altre medie. In effetti tutte queste medie si possono costruire con la
ricetta seguente. Sia I una funzione reale e tale che la sua inversa 1- 1 esista. Dato un campione
x, , . . . , x,. possiamo allora considerare il numero

I tre tipi di media appena introcloui si ottengono in questo modo con una opportuna scelta della
funzione. f .
½,
• La media armonica si ottiene scegliendo l(.x) = x > O (e dunque J- 1 (y) = �). Abbiamo
già osservato che la media armonica è l'inverso della media aritmetica degli inversi.
• La media geometrica si ottiene scegliendo f (x) = logx, x > O (e dl!nque 1- 1 (y) := cl").
• La media quadratica appare per f(.x) = .x 2 , x > O (e dunque J- 1 (y) = .jf).
È quindi possibile costniire altre medie, scegliendo opportunamente 13 funzione I.
Questa costruzione delle medie diverse dalla media aritmetica ha però un aspetto più profondo:
talvolta, i n presenza di un campione .x 1 , . . . , x,, è più opportuno operare la trasformazione J
1 .9 Momenti, indici di forma e di simmetria 15

e passare a considerare il campione trasformato f(x 1 ) , • • • , j(x,,), su cui si effettuerà l'analisi


statistica. Una volta fatta l ' elaborazione statistica, i risultati verranno trasportati al campione
d'origine tramite la trasfonnazione inversa 1- 1 •
Nel caso dell'Esempio 1 .6 ciò avrebbe significato passare a considerare le quantità ij, . . . , i;·
Tenendo conto che gli inversi dei tempi sono l e velocità, ciò significherebbe che in questo caso è
piì1 opportuno studiare i valori delle velocità.
In effetti spesso una buona elaborazione statistica inizia con una buona trasformazione dei dati
(per poi usare sui dati trasformati la media aritmetica).

È utile menzionare che la media aritmetica è sempre più grande della media geometrica, che è .
sempre più grande della media armonica.

1 .9 Momenti, indici di forma e di simmetria


Si chiama :_,,_ _•(!mento centrato ' di ordine k il numero

µ.k = -I L
" (.t;. - .X' )k •
11
j::,-:J

Naturalmente µk > O se k è pari mentre può anche essere µk < O per k dispari. Per k pari µ.k è un
indice di dispersione mentre per k dispari può essere un indice di simmetria, come preciseremo
tra breve. Osserviamo che /.l2 non è altro che la varianza .
Sì chiama indice di ;f;;;;;;;;-j la quantità

l'2 è un indice di forma indipendente da trasfonnazioni di scala (se y; = ax; + h, la kurtosi del
campione y coincide con quella di x). Y2 tende ad assumere valori vicini a O se il campione
proviene da una popolazione normale (vedremo più tardi, vedi il paragrafo 4.4 e l 'Esempio 5.5,
cosa ciò voglia dire). Invece Yz < O se il campione proviene da una legge che ha una densità che
tende a O all 'infinito più velocemente della densità normale; Yl > O se la densifa tende a O più
lentamente.

==:c1=::::i.---1---4---1---l---1--..!--.J....--1-��====i
-3.25 -2.2) - I .25 -.25 .25 1 .15 2.25 3.25
l<'igura 1.14 Grafico di dati con indice di kurtosi più gr:mde di O: r- = l.7.6. Notare che l'istogramma
si trova al di sopra della curva a campana per valori estremi.
16 Capitolo 1 Statistica descrittiva

Figura 1.15 Istogramma di dati con indice di kurtosi negativo: Yz = -0.9.


-2.25 - 1 .25 -.25 .25 1.25 2.25

Si chiama invece indice di [skè11111es.i: (che in inglese vuol dire asimmetria) l 'indice

Anche Yt è indipendente da trasformazioni di scala e sarà vicino a O quando il campione tende


a prendere valori in modo simmetrico intorno alla media i. Valori di y1 maggiori di O indicano
una distribuzione a.�immetrica con una coda verso destra (come nella Figura 1 L 6), mentre valori
più piccoli di O indicano una coda verso sinistra. .

Figurn 1.16 Istogramma di dati con indice di skewncss positivo: Yl = 1 .09. È evidente una
0.2 0.6 I.O 1.4 1.8 2.'.'. 2.6 3.0 3.4 3.8 4.2 4.6 5.0 5.4 5.8 6.2

asimmetria rispetto alla media x = 1.7 1 : verso destra l'istogramma ha una "coda" più lunoa che a
sinistra. L'asimmetria del campione si può quindi valutare, sia a partire dall'indice di skew;css che
dall'istogramma . L'asimmetria spesso comporta una differenza tra i valori di media e mediana; in
questo caso la mediana vale 1 .53 {piì1 piccola della media).

1.10 Conclusione
Molte volte in questo capitolo e negli esercizi ci siamo trovati di fronte alla stessa questione: cosa
si può dire di tutta una popolazione a pa1tire dai valori misurati su un campione (se nel campione
i maschi sono in maggioranza, cosa si può dire della popolazione da cui il campione è tratto?
Se la media dell'altezza nel campione è III cosa si può dire della media nella popolazione?. . . ).
Per rispondere a queste domande bisogna prima comprendere che un campione viene ottenuto
cfalla popolazione mediante una scelta casuale. Occorre qui11di costruire dei modelli matematici
di fenomeni aleatori, cosa che risulta importante anche in molte altre situazioni d' interesse.
Questo è l'oggetto dei prossimi capitoli nei quali ritroveremo alcuni degli esempi di questo
capitolo che potremo studiare alla luce elci nuovi concetti che avremo imparato.
2
Spazi di probabilità

2.1 Fenomeni deterministici e casuali


Nei problemi di predizione si incontrano due tipi di situazioni.
Se una pallina cade siamo in grado cli dire istante per istante quale sarà la sua posizione e,
più in generale, dato un sistema meccanico è sempre possibile teoricamente, se si conoscono le
condizioni iniziali, risolvere le equazioni del moto e dire quale sarà lo stato del sistema ad un
assegnato tempo 1.
Se invece viene fatta un'estrazione da un'urna che contiene palline colorate, di solito non si
sa prevedere quale colore si otterrà, il che si esprime dicendo che questo esperimento è aleatorio
(o casuale). Ciò però non significa che in un esperimento casuale non si possa dire niente del
risultato: se l'urna contiene 999 palline bianche e I rossa, è chiaro che ci aspettiamo di ottenere
come risultato una pallina bianca e che considereremo l'estrazione della pallina rossa come un
fatto piuttosto eccezionale.
Nei due esempi che seguono vedremo qual è la struttura tipica di un fenomeno casuale.
Esempio 2.1 Un'urna contiene sei palline numerate da I a 6, peraltro identiche. Una pallina
viene estraua a caso e se ne guarda il numero. I possibili risultali di questa operazione sono i
numeri l , 2, 3, 4, 5, 6. Dire qual è la probabil ità di ottenere 1, ad esempio, significa dare una
valutazione di quanto facilmente il risultato possa essere I. Talvolta però si è interessali alla
probabilità di eventi più complessi, come la probabilità di ottenere un numero dispari oppure
un numero più piccolo (:S:) di 4. Se indichiamo con Q = { 1 , 2, 3, 4, 5, 6) l'insieme dei possibili
risultati, possiamo far corrispondere ad ogni evento un sottoinsieme di Q. Ad esempio.l'evento
"esce un numero dispari" corrisponderà al sottoinsieme {l, 3, 5} mentre l'evento "esce un numero
:Se 4" corrisponderà al souoinsicme { l , 2, 3, 4 j. Questa identificazione tra eventi e sottoinsiemi
cli Q pennette di trasportare agli eventi le operazioni di u, n e passaggio al complementare. II
significato intuitivo di queste operazioni riferite agli eventi è facile: se A e B sono sottoinsiemi
di n corrispondenti a due eventi allora
;\ n B corrisponderà all'evento: "i due eventi associati ad /1. e B si verificano entrambi";
A u B corrisponderà all'ev�nlo: "uno almeno dei due eventi, A o B, si verifica";
18 Capitolo 2 Spazi di probabilità
_ ___ ________

A e corrispondenì all'evento: "!'evento associato ad A non si verifica".


In questa identificazione Q sarà "l'evento certo", cioè quello che si verifica certamente, mentre
l'insieme vuoto 0 sarà "l'evento impossibile", quello che certamente non si verifica.
Una valutazione di probabilità sarà un'applicazione P che ad ogni evento (ovvero ad ogni
sottoinsieme di Q) associa un numero reale e vorremo che questo numero sia tanto più grande
quanto più l ' evento è probabile. Sarà ragionevole richiedere che P goda di un certo numero di
proprietà, ad esempio che se A e B sono eventi disgiunti (cioè A n B cc 0. ovvero se A e B non
si possono verificare simultaneamente) allora

(2. 1) P(A u B ) = P(A) + P(B)

Esempio 2.2 Consideriamo l 'istante in cui un certo componente elettronico si guasta e deve
essere sostituito. In questo caso l'insieme dei possibili risultati è Q = JR + e anche in questo
caso possiamo mettere in corrispondenza gli eventi di cui vogliamo calcolare la probabilità con
dei soltoinsiemi di Q. Ad esempio, all'intervallo [ I , 2] corrisponderà l'evento "il componente
smene di funzionare a un istante I compreso tra 1 e 2". A differenza dell'esempio precedente
ora però l 'insieme dei possibili risultati, Q, contiene una infinità (continua) di elementi e non è
opportuno considerare eventi tutti i sottoinsiemi di Q, poiché la classe di tutte le parti di R + è un
oggetto sco1nodo da trattare . Dobbiamo dunque stabilire quali dei sottoinsiemi di Q sono eventi.
Dato però il significato intuitivo delle operazioni di intersetione, unione e complementare quando
riferite agli eventi, sarà opportuno che se A e B sono eventi, allora anche A n B, A u B e A < lo
siano. Infatti gli eventi sono i sottoinsiemi di cui si può calcolare la probabilità ed è opportuno
che si possa parlare della probabilità, ad esempio, che due eventi si verifichino entrambi oppure
che un evento non si verifichi. Quindi vorremo che la classe 91 degli eventi sia stabile per le
operazioni di intersezione, unione e complementare.

2.2 Spazi di probabilità

I:_
Come è suggerito negli esempi precedenti, nello studio di un fenomeno casuale siamo sempre in
presenza di
a) un insieme Q (l'insieme elci possibili risultati);
b) una famiglia ,!I. di sottoinsiemi cli Q tale che
b i) se A , B e sl allora A \J B E s'!.;
b2) se A, B E dJ. allora A n B e dl;
b3) se A E Sll. allora ;1 c e .sil.

È chiaro che, per ricorrenza, da b 1 ) si ricava che se A 1 , . . . , A,. E si allora U:'-i A; E s,1 e
analogamente eia b2) se /\ 1 , . . . , A,. E 91 allora n;'=I A; E sL l·
----
jl
Una famiglia di. di parti di un i nsieme Q si dice una ! a-algebr:a ; se
• -
i) 0, Q e dl.
ii) Se A € .91 allora A' E sL .
iii) Se A 1 , . . . , i\ 11 • • • E di allora
iiia) u A,. E al
00

n=I
2.2 Spazi di probabilità 19

iiib) nA
00
,. E si..
Osserviamo che la definizione precedente è ridondante nel senso che la condizione iiib) è
n=I

conseguenza di ii) e di iiia) grazie alla formula di De Morgan

n (u A ,, = A� r -
11=J n=l

Allo stesso modo iiia) è conseguenza di iiib) e ii).


Evidentemente la famiglia (i]'(Q) di tutti i sottoinsiemi di n è sempre una a-algebra
Abbiamo detto che una probabilità è un 'applicazione P che ad ogni evento associa un numero -
reale. Più precisamente

Definizione 2.3 Siano Q un .ùisieme e s1. mìfa•--� 0hlgebra di parti di Q, Una probabilità P è
un'applicaziorìe P:-s!I ➔ JR+ tale che- _ ." .
.a) P(Sl) � l. .. _ . _-_ . . . . . · _ _ _ . _ . . .
_ . - -•- .. _ - 1-
b) Sé (A;,),; .è .lii;a ;;i2��ssiòne di èièniè�ti cli � a d.tìe a J.ue disgi�nh, all�ra (;;�;;dditi1;i!à)

Definizione' 2k Chiarhèremò spazio di proba . una tema (.Q , Sll, P)


. bilità dove . .
.
Q è ùn insie1ne;· ' ' .
si. è una a-�lgebç;_i èpàiti di Q;'·
P è ùiia·p;ohabi1hrsii si .,. · - · ;, •

Come è suggerito dagli esempi, gli spazi di probabilità sono dei modelli matematici ragionevoli cl i
fenomeni aleatori . Affrontando un problema concreto il primo passo consisterà nella costruzione
di uno spazio di probabilità adeguato. Questa prima operazione (111odel/izzazio11e) viene effettuata
basandosi s11 considerazioni empiriche e soggeltive, tenendo conio della natura del problema. Ciò
significa che, in generale, dato un fenomeno aleatorio, non c 'è uno spazio di probabi lità privilegiato
che lo descriva ed è anzi possibile che persone diverse scelgano di studiarlo mediallle spazi di
probabilità differenti.
Nella maggior parte dei problemi trattati in questo libro alcuni concetti fondamentali del Calcolo
delle Probabilità (equiprobabilità, indipendenza . . . ) permetteranno di costruire uno spazio di
probabilità "naturale". Anche in questi casi però la costruzione si basa sulla ipotesi. soggettiva
anche se spesso ragionevole, che il fenomeno soddisfi a certe proprietà.

Ad esempio, nel caso dell'Esempio 2.1 è ragionevole. sulla ba�e delb discussione fotta, conside­
rare lo spazio dì probabilità dato da
Q = { ] , 2, 3, 4, 5, 6}, J/1 = 0'• (,Q) (tutte le parti di Q) .
Resta da determinare la probabilità P. Ma, per la natllra del problema, se nell 'estrazione non c'è
modo di d istinguere le palline, è ragionevole supporre che i possibili risultati si verifichino tutti
con uguale probabilità, cioè che sia
P({ I } ) == P ({2 ] ) = 1'([3 ) ) = P({4l) = P({Sl) = P({6 J) = p .
20 Capitolo 2 Spazi di probabilità

Il numero p risulta poi determinato dalla relazione


1 = P(Q) = P(( l } u (2} u {3) u {4} u {5 ) u {6}) =
= P(( l l) + P( (2 ) ) + P( (3}) + P({4} ) + P((5)) + P({6]) = 6p
cioè p = Questo del resto è solo un esempio di una situazione particolare nella quale è facile
¾.
costnùre uno spazio di probabilità per descrivere un fenomeno aleatorio: quel la che si presenta
quando, per la natura del problema (come nell'Esempio 2.1), si può supporre che tutti i possibili
risultati abbiano la stessa probabilità di verificarsi.
,,
Sia Q un insieme di cardinalità finita. Una distribuzione di probabilità f HTJiforme,) su Q è una
,
probabilità P tale che P((w]) = p, dove w E Q e p è un numero che non dipeiiile·oa Ripetendow':
il ragionamento di poco fa, si vede che, dalla relazione
I = P(Q) = L P({w)) = p - #0.. ,
weQ

si ricava che deve essere P([w)) = p = ,b . Se A e n, allora è facile determinare P(A): se A è


composto dagli elementi w 1 , W:2, . . . • Wk , allora
P(A) = P{(ct) 1 , . . . , Wk])
A è dunque la riunione degli eventi disgiunti {w 1 l u . . . LJ {wd e qui11di

P(A) #A
(2.2) = P((w 1 I) + . . . + P({wd) = pk = p - #A = #0.
e quindi resta determinato il valore di P(A) per ogni sottoinsieme A e n.
Si ritrova nella (2.2) u n a definizione popolare d i probabilità: l a probabilità di u n eve11to è il
rapporto tra il numero di casi favorevoli (#A) e il numero di casi possibili (#Q). Attenzio11e
però: questa relazione vale solo quando la natura del fenomeno è tale che si possa supporre la
equiprobabiltà.
L;i formula (2 .2) lega, per uno spazio di probabilità finito e uniforme, il calcolo della probabilità
di un evento a quello della cardinalità di un i11sieme (calcolo combinatorio).
Esempio 2.5 Qual è la probabilità di fa.re terno al lotto giocando i 11umeri 3, 13, 87 su una singola
ruota?
Al gioco del lotto vengono estratte. per ogni ruota e senza reimbussolainento, 5 palline da
un'urna che ne contiene 90, numerate da 1 a 90. Possiamo scegliere per Q l'insieme di tutte le
ci nq11i11e (t) = (w 1 , • • • , ws) dove gli w; possono assumere i valori da I a 90, ma devono essere tuni
diversi trn loro. Se l'estrazione non è truccata, è 11aturale supporre che tutte le possibili ci11quine
abbiano la stessa probabilità di essere estratte, il che significa che è ragionevole considerare su Q
la distribuzione uniforme. L' eventO che ci interessa è dato dal sottoinsieme A e Q delle cinquine
che co11tcngono i numeri 3, 13 e 87. Per la (2.2) il calcolo della probabilità di A è ricondotto al
calcolo delle cardinalità di A e di Q. Vedremo più tardi (vedi a p. 30) alcuni risultati di calcolo
combinatorio con i quali potremo rispondere a questa domanda.

Un problema tecnico invece si po11e per l'Esempio 2.2. È ovvia la scelta Q = R+ (Q è l'insieme
dei possibili risultati). Vedremo inoltre che sotto certe ipotesi può essere ragionevole supporre
che sia
2.2 Spazi di probabilità 21

dove À è un parametro positivo. Non è invece chiaro quale sia la a-algebra degli eventi . Infatti gli
interval li [a, b] 11011 costituiscono u11a a-algebra (la riunione di due i11tervalli non è un intervallo,
in generale) ed i11oltre la a-algebra QJ>(Q) di tutte le parti di r.! non va bene perché si può vedere che
11011 è possibile definirvi sopra una probabilità P che assuma sugli intervalli il valore dato da (2.2).
Il problema dunque è il seguente: esiste una u-a!gebra di parti di JR+ , contenente gli intervalli,
sulla quale si possa definire u11a probabilità P che sugli intervalli prenda il valore dato da (2.2)?
A questa domanda si può rispondere in maniera affermativa, usando però tecniche matematiche
che vanno al di là degli obiettivi di questo testo. Torneremo su questo punto nel capitolo 4 .

Non è inopportuno comunque sottolineare ancora la differenza concettuale tra le due fasi dello
studio di un fe11om�no aleatorio. La prima (modellizzazione) è essenzialmente soggettiva {non
ha senso, ad esempio, dimostrare che uno spazio di probabilità è un buon modello). La seconda,
nella quale si fanno calcoli usando lo spazio di probabilità, necessita invece il rigore usuale in
.
matematica. Il lettore non deve quindi stupirsi se nella fase di modellizzazione ci accontenteremo
di argomenti euristici (parleremo di spazi di probabilità "ragionevoli" o "naturali") mentre una
volta scelto lo spazio (Q • .111, P) richiederemo che le sue proprietà siano dimostrate e che i calcoli
siano giustificati.

Vediamo ora alcune proprietà generali di uno spazio di probabilità (Q, sl, P). come conseguenza
delle definizioni.
Osserviamo inta11to che se A E stl. allora anche A c E s1. e si ha A u Ac = Q. Dunque se B E s1
abbiamo B = B n (A u N) = (lJ n A) u (B n N) e gli eventi B n A e B n A c sono disgiunti;
quindi vale la relazione

(2.3) P(B) = P(B n A) + P(B n A°)

Dalla (2.3) si possono ricavare alcune relazioni molto utili.


• Se A E sii allora
P(N) = I - P(A)
(segue da (2.3) scegliendo B = Q). Cioè la probabilità che un evento non si verifichi è uguale a
I meno la probabilit11 che si verifichi.
Se A e B allora P(A) � P(B) . Infatti in questo caso si ha A n B = A e quindi da (2.3) si ha

P(B) = P(B n A) + P(B n Ac) = P(A) + P(B n A c) 2: P(A) .

• Dalla formula di De Morgan (U,, A,,)'" = n,. A;, si ricava


(2.4) P(LJ A,i) = 1 - r(n A�) .
u n

Questa formula può essere utile nel calcolo della probabilità di una riunione di eventi non disgiunti.
.C_�pltolo·2 Spazi di probabilità

Es!!mpiò 2.6 Qual è la probabilità di ottenere almeno una volta 6 lanciando due volte un dado?
,'-'I L'insieme dei possibili risultati è dato dall'insieme delle coppie (w 1 , wi) di numeri interi w1 ,
«>2 compresi tra 1 e 6, cioè Q e= (w; w = (<01 , <t>i), w; = 1 . - . . , 6, i = I , 2}. Echiaro che #Q = 36, f
mentre l 'evento che ci interessa è
A = (w; w = (w 1 , w2) dove almeno uno degli w; è = 6}
Possiamo scrivere A = A 1 u A2 <love A; = (w; = 6) (cioè Ai è il sottoinsieme delle coppie
w = (wi , wi) che hanno la prima coordinata uguale a 6, mentre A2 è il sottoinsieme delle coppie j
per le quali è ]a seconda coordinata ad essere uguale a 6). Naturalmente A; corrisponde all'evento ;s
"lo i-esimo lancio dà 6". Gli eventi A; non sono disgiunti (la loro intersezione contiene1:1, = (6, 6)) �
-
ma A1 n A 2 è l'insieme di tutti gli w le cui componenti w1 , <oi possono prendere solo i valori da
1 a S; dunque #(A1 n A�) = S x 5 = 25 . Per la (2.4) quindi

P(A) = I - P(A1 n A 2 ) = I - � = � = 0.306 .


Probabilità della unione d i più eventi (non necessariamente disgiunti). Se A e B sono due
-�
eventi allora
P(A u B) = P(A) + P(B n A') l
perché A e B n A' sono disgiunti e la loro unione è A u B. D ' ;iltra patte, per (2.3), P(B n A') = iJ
P(B) - P( B n A) e quindi �.

(2.5)
r-'- P(A u B) = P(A) + P(B) - P(A n B) .
_;._----------'----�---------------- 1i
i Ese�pi� 2.7 Rispondiamo alla stessa questione dell'Esempio 2.6 usando la (2.5). Con le stesse
l notazioni ,
f
P(A I U A2) = P(A 1 ) + P(A2) - P(A 1 n A 2) �
Ora P(A 1 ) = P(A2 ) = à (probabilità di ottenere 6 in un singolo lancio) mentre l 'evento A 1 n A2
è costituito dal solo elemento (6, 6) ed ha dunque cardinalità uguale a I _ La probabilità richiesta ..
I = li .
vaIe eIunque e;I + 0I - 30 .
'.lo I j.
,i
,i>·
Formule simili a (2.5) esistono per la riunione finita di un numero qualunque di eventi. Ad esempio
per tre eventi A, B, C si ha, usando ripetutamente (2.5), i.
P(A u B u C) = P((A u B) u C) = P(A u B) + P(C) - P((A u B) n C) "" If
= P(A) + P(B) - P (A n B) + P(C) - P((A n C) u (B n C)) =
= P(A) + P(B) + P(C) - P(A n B) - P(A n C) - P(B n C) + P(A n B n C) .
Come si vede, queste formule d iventano rapidamente complicate al crescere ciel numero II di

-1t.
eventi coinvolti e non ci capitcrìt di averne bisogno al cli là cli 11 = 3 .

23 Probabilità condizionale, indipendenza


Siano (S� . s!, P) uno spazio di probabilità e A, B E s1 con P(A) > O. Si cbi,.ma: probabilità c��c�i:_,;
i
!z;;;;;;ì,;: di B rispelto ad A la qum1Lifa
P(A n B) . 1
(2.6) P \'B I il) =
P(A)
2.3 Probabilità condizionale, indipendenza 23

Intuitivamente la probabilità condizionale P(B I A) è la probabilità che B si verifichi sapendo che


,1 si è verificato, come illusu·a l 'esempio seguente.

Esempio 2.S Si giocano alla roulette i numeri 3, 1 3 , 22. Poiché i possibili risultati sono 37 (i
nu meri da O a 36) ed è naturale considerare la distribuzione uniforme, la probabilità di vincere è
,ù -Se però veniamo a sapere che il gioco è truccato in modo che esca un numero dispari, qual è
ora la probabilità di vincere ?
Se poniamo B "" /3, 1 3 , 22) e A = ( 1 , 3, 5, . . . , 35) un istante di riflessione mostra che ora la
probabilità di vincere è
P(A n B ) ..!_ =
P(B I 1\) = _
P(A) 9

La scrittura P(B I A) può trarre in inganno: non si tratta della probabilità dell 'evento B I A (che
non abbiamo definito), ma della probabilità dell'evento B secondo la nuova probabilità P(· I A).
La nozione di probabilità condizionale è quindi legata al calcolo di probabilitlt quando si venga
a sapere che certi eventi sono verificati.
Essaè però importante anche nel problema della modcll izzazione: un problema concreto spesso
impone che, nello spazio di probabilità che si deve costmire, siano assegnate sia le probabilità di
certi eventi che le probabilità condizionali di altri rispetto ai primi.

Esempio 2.9 Una popolazione si compone per il 40% di fumatori ( F ) e per il 60% di non fumatori
(N). Si sa che ìl 25% dei fumatori e il 7% dei non fumatori sono affetti da una forma di malattia
respiratoria cronica (M) . Qual è la probabilità che un individuo scelto a caso sia affetto dalla
malattia ?
È chiaro che, se (Q, .!A, P) è uno spazio di probabilità che descrive questa situazione, �l dovrà
contenere gli eventi
F: l'individuo prescelto è fumatore,
N: l'individuo prescelto è non fumatore,
M: l'individuo prescelto è affetto cla!la malattia
e che dovrà essere
P(F ) = 0.4, P(N) = O.G,
P(M l F) == 0.25, P(M I N) = 0.07
È quindi facile calcolare

(2.7) P(M) = P(M n F) + P(M n N) = P(F) P(M I F) + P(N) P(M i N) = 0.142 .


Si dice che gli eventi A 1 ' . . . A ,. sono una �iiziònel di Q se sono disgiunti e A 1 u . . . U A 11 = Q .
'
S e B € .111 e A 1 , . . • , A n è u n a partizione dtQ-;-iillora-poiché gli eventi A 1 n 8, . . . , A,, n B sono
a due a due disgiunti (sono rispettivamente contenuti in A 1 , • • _ , A11 ) e la loro unione è uguale a
B, troviamo la relazione
"
(2.8) P(B) == L P(Ai n H) = L P(At)P(B \ Ad
k=I k=I

Si tratta cli una formula molto utile: talvolta non è immediato calcolare direttamcn1e P(B) mentre
si può trovare una partizione A 1, . . . , A ,, di Q per la quale il calcolo di P( B I A;) sia facile per
24 Capito!o 2 Spazi di probabilità

o<rni i (intuitivamente si tratta di decomporre B in tante parti la cui probabilità si calcoli più
f;cilmente). La (2.8) si chiama la 'ifo,n_n_ultl _(iej_le:propqbilftà,tqiai,i j. In realtà di questa formula
ci siamo già serviti nella (2.7): inf;itr gU-éve1itiF "é"N-soiìo""im�-partizione (esauriscono tutte le
possibilità). Un altro esempio è il seguente.
Esempio 2.10 Un'urna contiene b palline bianche e r palline rosse e ne viene estratta una che
viene messa da parte senza guardarla. Qual è la probabilità che la seconda pallina estratta sia
bianca?
Consideriamo gli eventi
R 1 : la prima pallina estratta è rossa
B1 : la prima pallina estratta è bianca
B2 : la seconda pallina estratta è bianca
È ragionevole supporre le palline equiprobabili, quindi, posto n = b -t- r , P(R i ) = � e P(B1 ) = *·
Inoltre
P(B2 I B 1 ) =
n_I •
b-1

poiché, dopo la prima estrazione di una pallina bianca, nell'urna sono rimaste 11 - I palline di cui
b - I bianche; analogamente P(B2 I R1) = �. Usando la (2.8)

cioè la stessa probabilità che ottenere una pallina bianca alla prima estrazione.

Se B E al e A 1 , . . . , A,, è una partizione di n, al lora vale la 1fo("Ì111i(a di Bajes}


·:1•
.}
t

I
r
= P(A;)P(B I A;)
(2.9) P(A·I I B) P(B)

La (2.9) è irrunediata perché P(A; n B) = P(A;) P(B I A;). La (2.9) è interessante perché esprime
P(A; I B) in termini di quantità che fanno intervenire le probabilità P(B I A; ) . Nonosta!lle sia una
formula molto semplice da ottenere, la formula di Baycs ha una grande iniportall7..a e spesso porta
a delle conclusioni inattese.
Esempio 2.11 (Conlinuazione dell'Esempio 2.9) Qual è la probabilil11 che una persona affetta
dalla malattia respiratoria sia un fumatore?
La formula di Bayes applicata alla partizione F, N dà immediatamente

P(M I F)P(F)
P(F I M) = = O .704 .
P (M)

Esempio 2.12 Tre mobili tra dì loro indistinguibili contengono ciascuno due cassetti. Il primo
contiene una moneta d'oro in ciascuno dei due cassetti, il secondo una moneta d 'argento nel primo
cassetto e una d'oro nel secondo, il terzo una moneta d'argento in ciascuno dei dLte. Si apre un
cassetto a caso e si trova una moneta d'oro. Qual è la probabilità che anche l'altro cassetto dello
stesso mobile contenga una moneta d'oro ?
2.3 Probabilità condizionale, indipendenza 25

A 1 : il cassetto prescelto appartiene al J O mobile


A1: il cassetto prescelto appartiene al 2° mobile
A3: il cassetto prescelto appartiene al 3° mobile
B : il cassetto prescelto contiene una moneta d'oro
È chiaro che la probabilità richiesta è P( A 1 I B) ed inoltre che
I
P(B ! A i ) = l , P (B I A3) = O, P(B) = P(A I·) = � ' I' = 1 ' 2 ' 3 .
2, 3
A 1 , A 2 e A 3 costituiscono una partizione di n e la formula di Bayes dà

P(A i ) P(B i A 1 ) 2
P(A 1 I B)
P(B) = 3'
che è un risultato probabilmente diverso da quello suggerito iniiial mcnte dall'intuizione.

Notiamo che negli ullimi esempi non abbiamo descritto completamente lo spazio di probabilità,
ma ci siamo limitati a dire che (Q, al, P) doveva contenere certi eventi con assegnate probabilità
e probabilità condizionali. È chiaro però che una descrizione completa non sarebbe stata difficile.
Ad esempio, nel caso dell'Esempio 2 . 1 2, avremmo potuto considerare Q = {w;,j , i = J , 2 e j =
1, 2, 3 ) dove w;,i corrisponde all'evento "viene scelto il cassetto i-esimo del mobile j -esimo"
e quindi considerare su n la probabilità uniforme. Nel seguito vedremo che è spesso possibile
evitare una descrizione completa dello spazio di probabilità e che solo la conoscenza di una parie
di esso sarà rilevante. Del resto la costruzione completa dello spazio di probabilità sarà sempre
possibile e spesso evidente come eoco fa.
Gli eventi A, B E :il si dicono ('indip_tf/lde,uf: se e solo se

(2. 10) P(A n B ) = P(A)l'(B)

Si dice invece che gli eventi A ; , . . . , A,. e s1 sono indipendenti se e solo se per ogni k :;: Il e per
og ni scelta di indici i 1 , . . • , ik , tutti distinti e compresi tra I e 11, si ba

(2. 1 1 ) P (A; , n . . . n A;, ) = P(.4; , ) . . . P(A;,)


Se A, B sono indipendenti e P(A) > O, allora la (2. 10) implica P(B 1 ,1) = P(B) , cioè intuiti­
vamente, ricordando il significato della nozione di probabilità condizionale, se due eventi sono
indipendenti, sapere che uno di essi è verificato non apporta nessuna informazione sul fatto che
anche l'altro si verifichi.
Come la nozione di probabilità condizionale, anche quella cl ' indipendenza è utile nei problemi
di modelliu.azione.

Esempio 2.13 ll lancìo di una moneta dà testa con probabilità p , O ::<: p :<: I e croce con probabi lità
I - p. La moneta viene lanciata II volte. Qual è la probabilità di ottenere una prefissata sequenza
di teste e croci ?
Uno spazio di probabilità opportuno può essere quello formato da tutte le possibili sequenze
di teste e croci. Se scriviamo l per testa e O per croce, allora
26 Capitolo 2 Spazi di probabilità

Se p = ½ allora P([w)) = 2 -11 = in,


perché è naturale considerare la distribu'.t.ione unifonne su Q
(tutte le sequenze sono equiprobabili). Se p =fa ½ cerchiamo di determinare quanto debba valere
P([wl) dove w è la particolare sequenza

w = (l , . . . , l , 0, . . . , 0) .
'--.,---' '--.,---'
k volce n-k volte

Poniamo, per i = I , . . . , n , A; = {w; w; = 1 ); il sottoinsieme A; corrisponde all'evento "il


risultato dello i-esimo lancio d11 testa" e quindi P(A;) = p . Possiamo ora scrivere

[,,,) = A 1 n . . . n A. n Ai+i n . . . n A� .

Poiché non c'è motivo di pensare che la conoscenza del risultato di alcuni lanci dia infonnazioni
urili alla previsione degli allri, gli eventi A 1 , . . . • Ak, Af+i . . . . , A;; devono risultare indipendenti.
Dunque
P([w)) = P(A 1 ) . . . P(A,) P(A f+ 1 ) . . . P(A�) = 1i ( l - p)" -t .
Un istante di riflessione ora fa capire che questo risultato dipende solo dal numero di I presenti
nella sequenza e non dalle loro posizioni. Abbiamo quindi ottenuto la formula

(2.12)

dove k è il numero di I presenti nella sequenza (:). Da notare che se p = ½ ritroviamo P(w) = 2-n . I
Nell'Esempio 2.13 si costruisce uno spazio di probabilità per una situazione molto frequente:
quella in cui si è in presem:a di una successione di esperimenti casuali identici, tra di loro indipen­
denti e ciascuno dei quali può dare luogo a due possibili risultati che chiameremo convenzional-
mente successo � i!!.1ii���!!1.o_��)__e) r!suc�esso �Q), .
, ì . .
Parleremo di J sc/_l_ema'siiccesso-ins11i;_d.!!!>:{ò_l o di 1 sç__l!e!.1i_a_ ef:(!1.�r.!1!'!.'!!J; facendo nfenmento a
questa si1uazionc.

2.4 Calcolo combinatorio


Il calcolo combinatorio si occupa di calcolare la cardinalità degli insiemi finiti e quindi fornisce
formule utili per il calcolo della probabilità di eventi negli spazi di probabilità uniformi. Ora ne
vedremo alcuni risultati con le loro applica1.ioni. Non daremo le dimostrazioni, che si possono
tutte ottenere facilmente per ricorrenza . Ossen·iamo comunque che dalle formule se ne possono
ricavare altre usando la regola di base del calcolo combinatorio: due insiemi hanno la stessa
cardinalità se e solo se si possono mettere in corrispondenza biunivoca.
Nel seguito indichererno con N. K degli insienù di cardinalità n e k rispettivamente.

Esempio 2.15 Quante parole di 8 lettere si possono formare con un alfabeto binario? Quante
parole di al più S lettere?
2.4 Calcolo combinatorio
--------------· - ----------- 27

Indichiamo con O , 1 le due lettere dell'alfabeto. Una parola di 8 lettere di quest'alfabeto è della
forma
Wt W],W3W4W5W6WJW3

dove w1 , . . . , 03 possono essere uguali a O oppure a 1 . Dunque una parola di 8 lettere non è altro
che un elemento del prodotto cartesiano

N x ... x N
'----v----"
8 >Olle

dove N = {O, l } . Per la Proposizione 2.14 le parole di 8 lettere sono 2 8 = 256.


Ripetendo il ragionamento precedente, il numero delle possibili p,trolc di k lettere è 2k . Per
determinare quante sono le parole con al più 8 lettere occorre sommare le numerosità delle parole
di 1 lettera, di 2 lettere, . . . , di 8 lettere. Cioè

(Vedi le formule a p. 35 per il calcolo della somma geometrica J + . . . + 27)

Proposizione ·2.16 Supponiamo k � La cardinalfrà dell'insìemè D;; delle applicazioni


inicttive f: K -, N è n!/(n - k)!.
11 .

Osserviamo che dan, una applicazione iniettiva da K in N equiv�J� a scegl�.!.".. una k-upla ordinata
(11 1 , • • . , n1) di elementi di N tutti distinti tra loro. Ovvero una ì disposizione i di k elementi di N.
Dunque dato un insieme di cardinalità 11, ci sono {"�� ! modi di disporre k suoi elementi.
Se n = k allora possiamo supporre K = N e un'applicazione J
iniettiva di N in se stesso è una
'p�;,;;lllaz,i�7ze·:. L'insieme delle permutazioni di N ha quindi cardinalità n ! .
. .Indì.cfii:i.mci"con e;: l 'insieme dei sottoinsiemi di N di cardinalità k. Scegliere un elemento d i
Cf equivale a scegliere a caso k elementi distinti dell'insieme N . Per questo u11 elemento di e;
si chiama anche una l�ombinllzio,;�-, cli Il elementi di cardinalità k . È utile osservare la differenza
tra una disposizione ed una combinazione: nella prima conta anche l'ordine con cui gli elementi
\..._ _ _ _ _ _ _ ,_ _ _ _ ,__ •• J

vengono scelti, mentre nella seconda no.


-

, ::, {· _!.•

i Esempio 2.lS Si gioca al lotto b cinquina secca ( I , 2, 3, 4, 5) su una ruota (cioè si vince se i
I numeri escono nell'ordine). Qual è la probabilità di vincere?
Nel lotto i numeri estratti non vengono rimessi nell 'urna. L' insieme Q dei possibili risultati
è quindi costituito da tutte le cinquine w = (w 1 , . • • , w5 ) dove gli w; sono diversi tra loro e
possono prendere tutti i valori interi da I a 90. n è dunque l' insieme di tutte le disposizioni di
5 elementi di ( 1 , . . . , 90) cd ha quindi cardinalità 90!/85! . La probabilità richiesta è quindi (è
naturale considerare la probabilità uniforme) 85!/90! e= J .9 . 1 0 - 1 0 .
Se invece avessimo giocato la cinquina semplice, con la quale si vince se i 5 numeri escono in
un ordine qualunque, allora avremmo potuto a scelta
28 Capitolo 2 Spazi di probabilità

G)
Il coefficìemc binomiale (Z) = I �kl'. è un oggetto scomodo da_ maneggiare, con tutti �u�ì
fattoriali. Dato che ci capiterà di usarlo spesso, è opportuno ricordarne alcune propncta.
Intanto ricordiamo la formula del binomio di Newton (che spìeg,1 ìl nome):

(a + b)'1 = t
k=O
G)clb"-k .

Scegliendo a = b = I sì trova che

tG) = 2"
k=O

Altre relazioni utili sono

I�
(2. 13)

La seconda dì queste relazioni seguirà dai calcoli dell'Esempio 3.35 b), mentre la terza verrà
studiata nell'Esercizio 2.40. La prima è immediata (ma comunque molto utile). Ricordare
.

anche che, per ogni 11,

I
(� ) = C:
) = l, 1
( ;) = e� I = 11
) .

Occorre fare attenzione anche per il calcolo numerico di un coefficiente binomiale. Calcolare
prima numeratore e denominatore e poi fare il quoziente non è in genere una bella idea: 11!
è un numero grandissimo anche per valori di 11 abbastanza bassi e la divisione di due numeri
grandissimi è una delle tipiche situazioni in cui un computer produce errori di arrotondamento.
Conviene piuttosto semplificare al massimo numeratore e denominatore. Per avere un'idea,
ricordare che 14 1 � 87 miliardi!

a) calcolare la cardinalità dell'insieme A degli w E Q tali che {«11 , . . . , w5] = [ I , . . . , 5J (cioè


tali che w 1 , • • • , w5 siano i numeri 1, . . . , 5 eventualmente in un ordine diverso) e quindi calcolare
/f A/Itri.;
b) più semplicemente considerare lo spnzio di probabilità Q = C�0 cd ottenere immediatamente
la quantità cercata : I/ (9f) .
Jn questo esempio si vede che la scelta di Q non è unica: uno stesso problema può essere risolto
correttamente (ma con diversa diffìcol!à) usando spazi di probabilità diversi. !
Esempio 2.19 Qual è. la probabilità che Ira II persone scelte a caso almeno due festeggino il
compleanno nello stesso giorno?
2.4 Calcolo combinatorio 29

dove w; può assumere i valori da l a 365 (w; è il giorno della nascita della i-esima persona).
Sappiamo già che #Q = 365" . Se supponiamo (il che non è del tutto corretto perché si sa che le
nascite sono più frequenti in certi periodi dell'anno) che la probabilità che una persona sia nata in un
determinato giorno sia uni forme su [ 1, .. . , 365} , possiamo considerare la probabilità uniforme su
Q. Dobbiamo ora calcolare la cardinalità di A = (w E Q; w ha almeno due componenti uguali}.
È però più facile calcolare la cardinalità di A c = (w E Q; w ha tutte le componenti diverse), dato
che N = DJ65 . Sostituendo #Q = 365" e # Ae = 365 ! / (365 - n) ! si trova
365! 364 363 _ _ _ 365 - n + I
P(A) = 1 _ P(Ac) = 1 _ =1_
365" (365 - Il) ! 365 365 365
In particolare per n = 23 si ha P(A} = 0.507 > � e, per 11 = 50, P(.4) = 0.974, che sono risultai!
un po' sorprendenti.

Esempio 2.20 Quante sono le parole di II letterc di un alfabeto binario che contengono esattamente
k volte il simbolo 1 ?
Abbiamo visto che una parola d i lunghezza n di u n alfabeto binario è u n oggetto della forma
w = wi . . . Wn
dove w; , i = I , . . . , 11 può prendere i valori O o J. Se w contiene esattamente k uni, ad esso
possiamo associare il sottoinsieme di ( 1 , 2, . . . , 11J formato dagli indici i tali che CùJ = l . Ad
esempio se n = 4 e k = 3, abbiamo quattro possibilità
0111
l1.;.Q . J19_l ' !Ol i ...__,_,
:t :t :t :t
...__,_,
{ ] , 2, 3 } { l , 2, 4) { I , 3, 4) {2, 3, 4J
Dunque ad ogni parola con esattamente k simboli l si può associare un sottoinsieme di k elementi
ùi ( I , 2, . . . , n). cioè un elemento di Cf . Viceversa ad ogni elemento A E e; si può associare una
parola con k uni: sarà quella tale che W; = I se e solo se l'indice i appartiene al sottoinsieme A .
I n altre parole abbiamo costruito una corrispondenza biunivoca tra l'insieme delle parole con k
uni e Cf . Questi due insiemi hanno quindi la stessa cardinalità, uguale a m.
Alcuni tipici problemi d i probabilità fanno riferimento a estrazioni d i palline d a urne. In questo
caso ci sono due situazioni diverse: quando le palline estratte vengono rimesse nell' urna prima
dell'estrazione successiva e quando invece vengono messe da parte. Faremo riferimento a queste
due situazioni parlando dì estrazione con reimbussolamemo e senza reimb11sso/ame11to rispetti­
vamente. Negli esempi seguenti vediamo come le formule di calcolo combinatorio che abbiamo
visto si possono usare per le estrazioni senza reimbussolamento.
! Esempio 2.21 (Legge ipergeometrica) Da un'urna contenente h palline bianche e r rosse se ne
I e�trnggono n (11 5' b + r) senza reimbussolamento. Qual è la probabilità che esattamente k di esse
siano rosse ?
Possiamo considerare Q = cf,+r e su Q la probabilità uniforme P. Quindi Q è l'insieme cii
tutti i sottoinsiemi cù = {w1 , • • • , w,. } di { l , . . . , b + r) . Supponiamo che le palline siano numerate
da I a b + r e che le rosse siano quelle con i numeri 5' r. Allora, se
A = [w; w contiene CS,71tan1c1Jlc k elementi con indice :'.: r J ,
30 Capitolo 2 Spazi di probabilità

]a probabilità richiesta è il quoziente tra #Ak e la cardinalità di Q che è data dalla Proposizione 2.17.
Ma un attimo di riflessione mostra che un elemento <li A.t è assegnato fissando un sottoinsieme
di cardinalità k di { I , . • . , r) e uno di cardinalità ,r - k di {b + I , . . . , b + r}. Quindi At è in
corrispondenza biunivoca con q; x C,�- k. Quindi

(2. 1 4) P(Ak) = C)(ll : k)


t!'" )
(naturalmente a condizione che sia n - k :S b e k :S r). La (2.M) definisce una probabilità su
{0, 1, . . . , n} che si chiama (ip,er_geqmetrica :-

La (2. 1 4) pennette di risolvere immediatamente la questione del!' Esempio 2.5; consideriamo le


90 palline nell'urna suddivise in due gruppi (come le palline rosse e bianche di poco fa): il primo
gruppo costituito dalle palline 3 , 1 3 ,87 e il secondo da tutte le altre. La probabilità di fare terno
non è altro che la probabilità, ir"1 cinque estrazioni, di avere 3 palline del primo gruppo e 2 del
secondo. Cioè
1
= 1 1748 = 0.000085 .

Esempio 2.22 Un'urna contiene b palline bianche e r rosse; k - 1 palline (k < b + r) vengono
I estratte e messe da parte senza guardarle. Qual è la probabilità che la k-esima estratta sia bianca?
Poiché effettuiamo k estrazioni senza rimpiazzo da un insieme di b + r elementi , consideriamo
Q = Df+r . Posto al solito w = (w1 , . . . , wk), dovew; può essere uguale a B oppure R, A; = {w; ==
B ) è l'evento "la i-esima pallina estratta è bianca". La probabilità di estrarre una pallina bianca alla
prima estrazione vale -,;i-;: , evidentemente. Dunque P(A 1) = -,;},: , mentre la probabilità richiesta
è P(Ak) . Ma l'applicazione </> (w) = c/J (w1 , "-'2 , . . . , w,) = (wk , w2, . . . , wi ) è un'applicazione
f.! ➔ 0. che è biunivoca (in effetti ,p scambia la prima e la 11-esima coordinata tra loro e dunque
</> (,P (w)) = w, che implica che <f, è biunivoca). Poiché ef, trasforma Ak in A 1 , questi due insiemi
hanno la stessa cardinalità e dunque la stessa probabilità = -,;¼, . Questo esempio completa
l'Esempio 2.10, dove ci limitavamo al caso k = 2.
I
Ricordiamo che, dato un insieme N, una collezione {A 1 , A2, . . . , A,,, ) di suoi sottoinsiemi è una
partizione se essi sono a due a due disgiunti e la loro unione è uguale a N. Supponiamo #N = 11
e fissiamo dei numeri k 1 , . . . , k111 tali che k 1 + . . . + k,,, = 11. Indichbmo con C (k1 , • • . , km )
l ' insieme di tutte le partizioni {A 1 , A 2 , . . . , A,,, ) di N tali che t/A 1 = k 1 , • • . , ftA,,, = km . Qual è
la cardinalità di C (k1 , . . . , k,,.) ?
Se 111 = 2 conosciamo già In risposta. In effetti , poiché deve essere k 1 + k2 = 11 , nllora
k2 = 11 - k1 ; una partizione (A1 , /h } E C(k1 , k2) è assegnata non appena un insieme ,1 1 di
cardinalità 1: 1 è scelto. poiché necessariamente A2 = A�. Dunque C(k 1 , k2) è in corrispondenza
biunivoca con q\ e #C(k 1 , k2) = (,;'J = -r Per ricorrenza si può dimostrare che
iifh ·
l
.
-l'ropÒsizione 2:23 -�, . :,: · .,,,./iil;/•r. Kc' ,1 ç�,,;,
- .
·, 1 r,fct :�:tt,; tiif;':''. \'.,'.}.. ,.
1
,_;. ,··.:.. ·r,';,-:.��-,;r,-�.t·�--- �··"·.� ·:-:·�-,;':.•, .,: .. -,:. · ,.- · 1·-�: :. -.
3
Modelli discreti

3.1 Variabili aleatorie e loro distribuzioni


Nei problemi di calcolo delle probabilità si è spesso condotti a considerare delle quantità che sono
funzioni del risultato di un fenomeno casuale.
Esempio 3.1 Supponiamo di giocare alla roulette per tre volte 1 euro sull'uscita del numero 29.
I Sapp}amo o mai facih".1ente calco! r la probabilità di vincere O, 1 , 2 o ure tutte e 3 le partite; in
: _ �� ��
realta però , m questa s1tuaz1one, pm interessante sarebbe fare una prev1swne su quello che sarà il
nostro capitale alla fine del gioco. In altre parole ciò che interessa è la quantità

X = ammontare del nostro capitale dopo le tre partite .

Alcune questioni interessanti sono le seguenti.


a) Qual è la probabilità che X sia cresciuto dopo la scommessa ?
b) In media il capitale X sarà cresciuto o diminuito?

Defo_1i_zi?1fè . 3{2 Dato�uiÌ:O spazio di pt'òb.a��ìtà (Q , sl, P) Ì S1'éfiiììn1àii,a,Wbì�i àÌè/ilòi·iti. 'rin'àp:


pliç:17:�g•�s�".r. �::+:lt�e çht!; )ig og�i) Éj;1-Ìf!-HÌ.!Ii �lll�),�;;�.(�Y<i! l:1i�'.lìi1,i!{r::t, :).\ !�-/
Una variabile aleatoria (v.a.) è dunque una funzione di w tale che si possa calcolare P(c,>; X (tr>) :S
t). cioè tale che abbia senso calcolare la probabilità che X prenda valori più piccoli di t.
Più in generale è fondamentale per le v.a. il calcolo di probabilità del tipo P(w; X (w) E A)
dove A è un sottoinsieme di IR.. È di questo tipo la questione a) dell'Esempio 3. 1 . Siamo dunque
condotti a studiare l'applicazione

(3. I ) A ➔ P(w; X (,,,) E A)

c_he a u n sottoinsieme � e JR associa la proba�ili:à c�e �prenda valori appartenenti a d A. Ci


nfenremo a questa applicazione parlando della �:�?.:J o [!.listrib11zio11e]
. di X.
32 Capitolo 3 Modelli discreti

In generale non si può definire quest' applicazione per ogni sottoinsieme A e IR: (può succedere
che (w; X(w) E A) non sia un evento), ma non è questa una grossa complicazione perché vedremo
che ciò è comunque possibile per una classe di sottoinsiemi A e 1R. abbastanza vasta.
Osserviamo comunque che {w; X (w) > a) è un evento per ogni a E i!t (è il complementare cli
{w; X (w) s a)) e dunque anche

(w; a < X (w) s b) = {w; X (w) s bi n {w; X (w) > a )


lo è, come intersezione dì eventi . [w; X (w) = x) è anch 'esso un evento per ogni x E IP... Ù facile
infatti mostrare che è possibile ottenerlo come intersezione di eventi mediante la relazione

\w; X (w) = Xl = n[w; x - ;� < X (<v) :'., X) .

Nello studio delle leggi delle v.a. considereremo separatamente due casi: quello i n cui X può
prendere al più una infinità numerabile cli valori (come nell'esempio della roulette di poco fa,
dove X ha 4 valori possibili) e quello in cui i valori possibili sono tutto lit o un suo intervallo.
Un 'altra nozione importanteè quella di media, evocata nel punto b) del! 'Esempio 3 . 1 . Pensando
all'esempio della scommessa, si tratta di una nozione abbastanza intuitiva: anche chi in questo
momento non sarebbe capace di dame una definizione rigorosa sente intuitivamente che vi sono
scommesse nelle quali in media si vince ed altre in cui in media si perde o si rimane in parità.
Definiremo rigorosamente la media (nel gergo probabilistico si chiama speranza matematica)
di una v.a. X e vedremo come anche questa nozione sia strettamente legata a quella di legge (o
distribuzione).
Abbiamo motivato la nozione di v.a. con l 'opportunità di considerare delle funzioni di un
esperimento casuale. In realtà la loro importanza va molto al di fa: d'orn in avanti il modello
fondamentale dello studio di un fenomeno aleatorio sarà costituito da uno spazio di probabilità
(Q , .s/1., P) , di cui spesso ignoreremo la natura, su cui sono definite delle v.a. con certe leggi
assegnate. Questo fatto spiega l'importanza che nei prossimi capitoli dedicheremo alle v.a. cd al
calcolo delle loro leggi.
Per semplicità di notazione nel seguito scriveremo {X =s t ), {X E A} . . . invece di [w; X(c,J) :'.é I } ,
{w; X (w) E A ) . . .

3.2 Variabili aleatorie discrete


Nel resto d i questo capitolo consideriamo delle v.a. X per le quali supporremo, oltre alla con­
dizione della Definizione 3.2, che prendano al più un insieme discreto (finito oppure numerabile)
di valori reali {x 1 , . . . , Xk , • • . ) .
Abbiamo visto che gli insiemi [ X = x,. ), 11 = I , 2 . . . sono degli eventi. Data una v.a. discreta
X, consideriamo la funzione p : JR ➔ nt+ defmita da p (x) = P(X = x) . È chiaro che p gode
delle proprietà seguenti:
a) p(x) = O tranne al più per un numero finito o una infinità numerabile di valori x 1 , x2 , . . • (i
valori assunti eia X).
b)

(3.2) L P(Xr.) = l .
3.2 Variabili aleatorie discrete 33

dove la somma può essere una somma finita oppure una serie, a seconda che i possibili valori
x1 , x2 , . . . siano in numero finito o numerabile.
La a) è ovvia. Per la b) osserviamo che gli eventi ( X = x,,) sono a due a due disgiunti, perché
se X (w) = x; non può essere anche X (w) = Xj con Xj 'F x; . Inoltre, poiché X (w) deve essere
uguale ad uno dei valori x,, , si ha anche LJ11 {X = x,,) = Q; quindi

L P (x,, ) = L P(X = x,,) = r( LJ,x = X11l) = P(Q) = 1 .


n n

cioè la (3.2).
n

Chiameremo (de11�·i(à,.c[iscrè1�J u11;1 funzione p che soddisfi alle condizioni a) e b) qui sopra.
La conoscenza della densità permette facilmente di determinare In legge di X: se A e JR e
vogliamo calcolare P(X E A) possiamo scrivere

(3.3) {X E A) = LJ {X = x; ) .
x;EA

Dunque (X E A l è un evento come unione al più numerabile di eventi; gli eventi (X = xi i sono
anzi a due a due disgiunti e dunque

(3.4) P(X E A) = L P(X = x;) = L p(x;) .


.t;EÀ

La (3 .4) riconduce il calcolo della probabilità P(X E A) al calcolo di una serie o di una somma
finita, a seconda che A contenga un numero infinito o finito di valori x;.
Esempio 33 (v.a. [�sEc.�triècÒ Sia (Q, .sa, P) uno spazio d i probabilità e ,1 E di.. Indichiamo con
l,t la Jum:ìone indicàir.ic;: di A , cioè la funzione Q ➔ JR che assume il valore 1 su A e O su A c.
Lasuadcris1tà pCdata cfiiaramcnte da p ( l ) = P(I A = J) = P(A), p(O) = P(l A = O) = 1 - P(A),
mentre p (x) = O se x è diverso da O o da I .

Esempio 3.4 Consideriamo lo schema successo-insuccesso dell 'Esempio 2.13. Qual è la proba­
bilità cli ottenere k successi in II prove?
Facendo riferimento allo spazio di probabilità dell'Esempio 2.13, si tratta di calcolare la densità
della v.a X (w) = W1 + . . . +w,,. Ma {X = kl non è altro che l 'insiemc formato dallcsequenze w che
contengono esattamente k simboli l e, per la (2.1 2), ognuna di esse ha probabilità pk ( I - p)11 -• .
Dunque P(X = k) è uguale a pk ( l - p)"--k moltiplicato per la cardinalità dell'insieme A k formato
da tutte le possibili sequenze di O e di J nelle quali I appare esattamente k volte. Abbiamo già
calcolato la cardinalità di questo insieme nell'Esempio 2.20, dove abbiamo trovato chc#.4.k = (i) .
In conclusione
P(X = k) = (�) rl (l - p)11-k .

(3.5) p (k) =
I(
Dunque il numero di successi in uno schcm� successo-insuccesso è una v.a. di densità discreta

Il k [
/ ) p ( ·- P)
"-k k = 0, l , . . . , 11
.)i; ch,iam.;i.: �:mJ di parametri _,� e _ P e si indica con il simbolo B(n, p).
ctìèpe�ù =; 1 Ja (3.5) si riduce alla denslta di una v.a. che assume solo i due valori O
' �js:iinente p ( l } = p, p(O) = I - p. La legge B ( l , p) si chiama anche(!!.!_ _§émmilli:
_ lJ?�ejro' p. È di Bernoulli la legge della v.a. indicatrice dell'Esempio 3.3.
Esei�;pio 3 5 I bulloni prodotti da una ditta sono difettosi con una probabilità del 20% e vengono
messi in commercio in confezioni di 3 pezzi ciascuna. Qual è la probabilità che in una confezione
vi sia al più un bullone difettoso?
Si può fare l'ipotesi che ognuno dei 3 bulloni possa essere difettoso indipendentemente dagli
altri. Usiamo quindi Jo schema successo-insuccesso con n = 3 e p 0.2. Il numero totale X di
=
bulloni difettosi segue dunque una densità B(3, 0.2) e la probabilità richiesta vale

P (X '."' I ) = P(X = O) + P(X = 1) = G)o.83 + G)u.2 x o.8 = o.896 .


2

Esempio 3.6 Un'urna contiene 8 palline rosse e 2 bianche. Ne vengono estratte 3 senza rimpiazzo.
Qual è la probabilità di estrarne al più I bianca?
Per le estrazioni senza rimpiazzo abbiamo visto (Esempio 2.2 1 ) che il numero totale, X, di
palline bianche estratte segue una distribuzione ipergeometrica. Dunque

P(X -
< l ) = P(X = O) + P (X = l ) = m_ + (D @ = 0. 933
(�o) (111) -
@

I due Esempi 3.5 e 3.6 riguardano il calcolo della legge di una v.a., X, che conia quante volte
un determinato fenomeno si verifica in una sequenza di prove ripetute. In entrambe le situazioni
la probabilità che il fenomeno si verifichi in una singola prova (il bullone difettoso oppure la
pallina bianca estratta, rispettivamente) è la stessa (pari a 0.2). La differenza sta nel fatto che,
nella seconda, le prove ripetute non sono indipendenti; se lo fossero le due probabilità sarebbero
state uguali , perché saremmo stati in presenza d i uno schema successo-insuccesso in entrambe le
situazioni. Del resto è intuitivo che i risultati di estrazioni senza rimpiazzo non debbano essere
indipendenti, perché, ad esempio, se la prima estrazione dà una pallina bianca, la probabilità di
ottenere ancora una pallina bianca alla seconda dovrà essere minore.
Nel seguito ci riferiremo alla situazione dell'Esempio 3.6 parlando di .rchema successo-insuc­
cesso senza rimpiazzo.
11 calcolo di una probabilità è ìmmediato non appena si riconosca che la situazione può essere
ricondo!la a uno dei due schemi successo-insuccesso appena introdotti. Se ad esempio una quantità
casuale X si può vedere come il numero di successi in II prove indipendenti con probabilità p di
successo in ogni singola prova , allora automaticamente sappiamo che X ha lc:gge ll(n , p).
Esempio 3.7 Sapendo che il 30% dei passeggeri che hanno prenotato non si presenta alla partenza,
una compagnia aerea accetta fino a 28 prenotazioni su un volo con una capienza di 24 posti. Qual
è la probabilità che almeno un passeggero che ha regolarmente prenotato resti a temi, per un volo
su cui sono state accettate 28 prenotazioni?
Se supponiamo che i comportamenti dei singoli passeggeri siano indipendenti, possiamo usare
come modello lo schema successo-insuccesso con prove indipendenti. Il numero X di passeggeri
che si presentano è il numero di successi in 28 prove indipendenti, dove in ogni prova si ha
3.2 Variabili aleatorie discrete 35

successo con probabilità p 1 - 0.3 = 0.7 . X ha dunque legge B(28, 0.7) . Poiché la probabilità
=
richiesta non è altro che P(X :: 25),

P(X :: 25) = L (2k8)0.1 o_3 = 0.01 57 = 1.57% .


28
k 2H

k�25

Esempio 3.8 La memoria secondaria di un calcolatore è composta da 30 lettori di nastri, contenenti


ognuno 100 registrazioni (file, in inglese). Un programma dovrà accedere a 28 di questi file (tutti
diversi). Qual è la probabilità p che esso non debba usare il lettore n° 1 ?
S i riconosce facilmente u n a situazione che s i modellizza con uno schema successo-insuccesso
senza rimpiazzo; sono 28 prove ripetute in ognuna delle quali viene scelto un file tra i 3000
possibili_ Considereremo "successo" la scelta di un file appartenente al primo lettore (sono 100)
e "insuccesso" la scelta di uno degli altri lettori (2900). Non c·è rimpiazzo perché u n file, una
volta letto, non verrà più richiamato in seguito. La probabilità richiesta è dunque la probabilità di
ottenere O successi in uno schema successo-insuccesso senza rimpiazzo. Applicando l 'espressione
della densità ipergeometrica si ottiene

!} = C8°)(2rao) = 0·-1ss .
(3�)
Se invece i 28 file fossero stati scelti a caso con possibilità di ripetizione, il numero di volte in
cui il programma avrebbe dovuto accedere al lettore n° 1 sarebbe stata una v.a. B(28, ,lo ) . La
probabilità che il lettore n° 1 non venga utilizzato ora sarebbe dunque

(2S) ( 1 - 301 )28 = 0.387 .


O

l risul lati dei due modelli sono molto vicini. Era forse da prevedere?

Le figure mostrano l'andamento di alcune densità binonùali. Come sì vede, al crescere di k,


la densità cresce fino ad un valore massimo (che si trova non lontano dal valore np ) per poi
decrescere.

Figura 3.1 Andamento di una densità B(8. 0.5) .

Esempio 3.9 Un dado viene lanciato più volte fino a che si ottiene 6. Qual è la probabil ità che
occon-ano esattamente k lanci ?
36 Capitolo 3 Modelli discreti

o
Figura 3.2 Andamento di una densità B(B, 0.2) . La prooabilità di avere 7 oppure 8 è piccolissima
(= 8.45 - 10-5 ) .

0 I
• 2 4
Figura 3 .1 Andamento di una densità B(S, 0.65) .

Indichiamo con T il numero di lanci necessario e con Xk il numero di volte in cui si è ottenuto
6 nei primi k !�nei; allora l'evento "nei primi k lanci non è mai apparso il 6" si può indicare
indifferentemente con (T > k) oppure con { Xk = 0); poiché Xk segue una legge B(k, p) con
t,
p = abbiamo

P(T > k) = P(Xk = O) = (i},0 ( 1 - Pi = ( I - p )k .

ì-,fa chiaramente si ha {T = k) u {T > k} = {T > k - 1} e l'unione è disgiunta. Dunque


P(T = k) = P(T > k - 1 ) - P(T > k) c

P(T = k) = P(Xk = O) = {1 - p/ - 1 - (J - p)" = p ( J - p/- 1 = i (¾f-l


per k = I , 2 . . .

S i d1iama densità gèometric(l) di parametro p , O s p =:: I , la densità


I
k = 0, 1, 2 . . .
(3.9)
altrimenti .
La (3.2) è foci! rncntc verificata per la d.::nsità di (3.9), ricordando il valore della somma di una
5erie geometrica
00
I 1
_I)i - Pl = --� =-.
I - { l -- p) p
k�O
La distribuzione geometrica è legata alta v.a. T dell' Esempio 3.9 (che non è altro che il tempo cli
primo successo della successione d i lanci); infatti abbiamo visto che
3.2 Variabili aleatorie discrete 37

Somme geomctdche
I calcoli di quantità relative alla distribuzione geometrica richiedono una certa dimestichezza
con Je somme geometriche, di cui è opportuno richiamare alcune proprietà. La relazione chiave
è, per x cJ l ,

I - x•+l
(3.6) l + x + . . . + x" = --r:=-x ·

Questa si Ycrifica immediatamente moltiplicando il denominatore di destra per il termine di


sinistra e osservando che tutti i termini si elidono, tranne il primo e l'ultimo. Dalla (3.6) sj
ricava subito, per lxl < 1 , il valore della somma della serie

(3.7)
I> = 1 -l x ·
00

11=0
Il

Da queste relazioni se ne possono ricaYare altre per derivazione: poiché la (3.7) vale p:::r ogni
Jxl < I , derivando a destra ed a sinistra rispetto a x e ricordando (o dando per scontato) che in
una serie di potenze si può derivare termine a termine all'interno dell'intervallo di convergenza,
si ottiene
00 00
1
L (n + l )x" "' � nx 11 - 1 = ---- .
L, ( 1 - x)Z
n=O r.=1

Poiché

troviamo la relazione
00

(3.8) L nx" == __ .. ___ - --�- = ___:__


(1 - x) 2 1 - x (l - x)2
!

n=O

e dunque
P(T - I = k) = P(T = k + 1) = p ( l - p)' .
Quindi T - l segue una distribuzione geometrica di parametro p. Chiameremo Lgeometriç:a)
:,�'.'!�Jicatà i di parametro p la densi fa definita nella (3. 10).

Osservazione 3.10 Nell'Esempio 3.9 siamo stati un po' sbrigativi: abbiamo definito una v.a. T e
ne abbiamo calcolato la legge senza nemmeno preoccuparci di dire su quale spazio di probabilit11
essa fosse definita. È inoltre chiaro che lo spazio cli probabilit1, dello schema successo-i nsuccesso
del l 'Esempio 2 . 1 3 non è adatto, perché esso descrive un numero prefissato II di prove successive,
mentre per studiare l'istante di primo successo T occorre poter considerare un numero arbitraria­
mente grande di prove.
·,t;s�frt��-o spazio di probabilità (Q, si., P) ed una v.a. X su di esso, tali
-�nsità . Ad esempio se XJ , X2 . , . sono i numeri per cui p(x) > o, si può
. §�,i:
-
'rtt. f'tt• � •
_,;_'. .: :- � = {.q , x2 . . . J , si. = insieme delle parti di Q
robabilltà P ponendo P({x;}) = p(x;); se su (Q, s!, P) definiamo una v.a. X :

#
'mediante X (xi) = x; , si ha P(X = x;) = p(x;) e dunque X ha p come densità.
r questo 'motivo, nel seguito, lo spazio di probabilità sarà sempre meno esplicito e ci ac­
tciiiéreino di supporre che esiste uno spazio di probabilità sul quale certe v.a. sono definite,
�itzfprécisarlo ulteriormente. La nozione sempre più importante d'ora in avanti sarà quella
ili ,distribuzione di una variabile aleatoria. Abbiamo appena visto del resto che, datà una den-
.I
sità discreta p, esistono sempre uno spazio (Q, f.11, P) ed una v.a. X ivi definita che ha p come
distribuzione; nei calcoli poco importerà di sapere come siano fatti esplicitamente (Q, s1, P) e X.

Se X ha legge geometrica di parametro p, è talvolta utile la formula


00 00

rcx o:.. k) = I> o - pi = c1 - pl I > o - p>j = <1 - d .


i=k i�O
----,,.-----,

D a questa relazione s i ricava facilmente una classica proprietà della distribuzione geometrica: se
�1

m o:., O ,

{3. 1 1)
P(X = k + m) p ( I - p) k+m
= p( l -- p)m = P(X = m) .
P(X o:, k) ( l - p)k
La (3.1 ! ) è detta la proprietà di mancanza di memoria della distribuzione geometrica. La ragione
di questo nome è i!!ustrata dall'esempio seguente.
Esempio 3.1.1. In uno schema successo-insuccesso supponiamo di non avere ottenuto alcun suc­
cesso nelle prime k prove. Qual è la probabilità che il primo successo avvenga tra m prove?
Se indichiamo con T l'istante di primo successo, allora con un attimo di rillessione si vede che
la probabilità richiesta non è altro che la probabilità condizionale P(T = k + m I T > k}. Poiché
T - l è una v.a. geometrica, grnzie alla (3.J I ) abbiamo
P(T = k + m I T > k) = P(T - 1 = k + m - I I T - I ?: k) = P(T - 1 = m - J) = P(T = m) .
Dunque la probabilità di dover attendere per il primo successo ancora m prove è la stessa che
si avrebbe se le prime k prove non avessero avuto luogo. Questa proprietà è del resto ovvia se
si pensa che in uno schema a prove ripetute indipendenti i risultati delle prime prove non hanno
influenza sulle successive; dunque, se le prime k prove non hanno dato successo, non si vede
perché la probabilità di avere successo nelle prove successive debba essere modificata.

La proprietà di mancanza di memoria è in realtà una caratteristica della distribuzione geometrica:


si può dimostrare che se una v.a. gode di questa proprietà ed è a valori interi o:, O, allora si tratta
necessariamente cli una v.a. di legge geometrica (in esercizio: non è difficile).
3.2 Variabili aleatorie discrete 39

Osservll'i;ione 3.12 Spesso un gioco consiste in prove ripetute indipendenti ( lotto, roulette.. . ) e
i giocatori usano la tecnica di giocare sugli eventi in ritardo. Cioè, ad esempio, di puntare si­
stematicamente su un numero al lotto che non esca da molte settimane. Se le prove ripetute sono
indipendenti , è chiaro che questa tecnica non ha fondamento, a causa della proprietà d i mancanza
di memoria della legge geometrica, per la quale la probabilità di dover attendere un certo numero
di estrazioni l'uscita di un numero non dipende dal ritardo del numero. I giocatori che usano questa
tecnica sostengono però che se, ad esempio, un numero al lotto ha un ritardo di 100 settimane,
allora se esso non uscisse si avrebbe un ritardo di I O I settimane. Poiché la probabilità di un tale
ritardo è effettivamente molto piccola, è molto improbabile che ciò si veri fichi.
Dov'è l'errore in questo ragionamento?

Osservazione 3.13 In alcuni degli esempi abbiamo fatto ipotesi che ci hanno permesso di costruire
un modello con il quale abbiamo calcolato le probabilità che ci interessavano. Ad esempio nel caso
delle prenotazioni aeree abbiamo supposto che i comportamenti dei singoli passeggeri fossero
indipendenti. A ben guardare non è una ipotesi totalmente ovvia, perché si sa che i passeggeri
viaggiano spesso in gruppo (famiglie, squadre dì calcio . . . ), il che significa che i comportamenti
dei passeggeri del gmppo non sono indipendenti (o partono tutti o non parte nessuno). L'ipotesi
d'indipendenza in questo caso, come in altri, va quindi considerata una prima approssimazione
che comunque pe1mette di costruire un modello semplice e di dare delle risposte.
È però naturale il problema dì verificare a posteriori se il modello sia adeguato o no . È questa
una questione che prende il problema al contrario rispetto a come lo abbiamo sempre considerato:
mentre finora abbiamo fatto delle previsioni sul fenomeno basate sul suo modello, ora si richiede,
a partire dall'osservazione del fenomeno, di decidere della bontà del modello. È questo un tipico
problema di Statistica Matematica.
li Calcolo delle Probabilità e la Statistica Matematica si servono degli stessi strumenti mate­
matici ma, mentre il primo usa un modello per fare delle previsioni su un fenomeno, la seconda
cerca, al contrario, di ricavare informazioni sul modello a partire dall'osservazione.

Si chiama distribuzione (di PoissonJ di parametro À, À > O, la densità

. CÀ !'{__ k = O, 1 , 2 . . .
(k) ={ k!
P O altrimenti
Si tratta di una densifa perché (sviluppo in serie di potenze della funzione esponenzialt:)
oo )._k
è = L rr
k=O
e quindi (3.2) è verificata. Vedremo più tardi delle situazioni in cui le distribuzioni di Poisson
appaiono in modo naturale. Mostriamo intanto che esse possono essere usate per approssimare le
leggi binomiali. Consideriamo infatti una v.a. X ~ B(n, ¾) e studiamo il comportamento della
sua densità per 11 ➔ oo.

(ll)( )._)k()._ , 11-k = -ii! -- )._ )_ n-k


P(X == k) = - l -- - I - -) =
k Il 11 ) l: !(ll - k) ! ll k ( li
k

= !'{__ l ) . . . (11 - k + 1) � -k ->


(l _ 11 )
k! Il nk n-,oo
(i _ �)" 11(11 -
40 Capitolo 3 Modelli discreti

dove abbiamo usato i limiti

(1 - � )" ➔ e-i.
n(11 - 1) . . . (n - k + 1)
-► l.
nk n-+oo

Quest'ultimo lirrùtc si calcola facilmente osservando che si tratta del quoziente di due polinorrù
di grado k nella variabile n e che il lirrùte per n --> oo del rapporto di due polinomi nella variabile
11 aventi Io stesso grado è uguale al quoziente dei coefficienti dei temùni di grado mas�imo, qui
entrambi uguali a 1 , dato che, sviluppando, il terrrùne di grado massimo al numeratore è nk .
Quindi , se X è una v.a. di legge B(n, p) con n grande e p piccolo, la su a densità può essere
approssimata con una densità di Poisson d i parametro 11p. Ciò è molto utile, perché per n grande
la manipolazione dei coefficienti binonùali è disagevole.

0.20
0.15
O.IO
0.05
0.00
Figura 3.4 Confronto frn una distribuzione binomiale B(20, 0.2} (sbane piene) ed una di Poisson di
parametro À = 20 • 0.2 = 4 (sbarre chiare).

-�-0 1l_ J
0.20
0. 1 5
O.tO

0 05
.
0.00
O 5 6 9 tO Il 12
r(l -ç,
Fig1m1 35 Confronto fra una distribuzione binomiale B(4, O.O ! ) (sbarre piene) cd una di Poisson
sempre di parametro À = 40 • O.I = 4 (sbarre chiare). L'approssimazione è ora migliore.

Qne.sto calcolo implica anche che le distribuzioni di Poisson appaiono in maniera naturale
come leggi di quantità casuali X che rappresentano il numero di successi su un numero molto
grande di prove ripetute indipendenti, in ciascuna delle quali la probabilità di successo sia molto
piccola. Un esempio tipico di questa situazione è il numero di telefonate che giungono ad un
central ino in un determinato periodo di tempo. Si può infatti supporre che il numero di persone
che potrebbero fare una chiamata sia molto grande e che ciascuna di esse chiami effettivamente
con piccola probabilil;i (e indipendentemente dalle altre).
Ripetendo questo tipo di argomenrazioni si può supporre che seguano una distribuzione di
3.2 Variabili alealorie discrete 41

a) il numero di complicazioni postoperatorie per un dato intervento chirurgico in un dato


periodo di tempo, quando il numero di interventi nel periodo considerato è elevato e la probabilità
di complicazione piccola;
b) il numero di piante di un determinato infestante presenti in una parcella di terreno;
c) il numero di clienti che si presentano ad uno sportello in un dato periodo di tempo;
eccetera.

Data una v.a. X si chiama \fi111i.i@e di ripartizione i di X la funzione Fx ; ìlt - ► [O, 1] definita da

Fx(t) = P(X S: I) .

La funzione di ripaitizione (f.r.) è definita per ogni v.a. (discreta o no) ed è chiaro che è sempre
una funzione non-decrescente, poiché se I cresce l'evento (X s t) diventa più grande.
Se X è discreta, l'andamento della sua f.r. è molto semplice da descrivere; se, per semplicità ,
supponiamo che X sia a valori interi , allora Fx è costante nell 'intervallo tra due interi successivi,
mentre può presentare una discontinuità in corrispondenza dei valori interi.

o
Figura 3.6 Funzione di ripartizione di una v.a. uniforrne su O, . . . , 6.

O 2 3
Figura 3.7 Funzione di ripartizione di una v.a. di legge B(6, 0.5).

La funzione di ripartizione è importante perché la sua conoscenza è equivalente a quella della


densità cli X. Infatti per la (3.4) si ha la relazione

Fx (I ) = L p(x,.)
che esprime la f.r. in tcrnùni della densità. Viceversa, se supponiamo per semplicità che X µr�nda
solo valori interi, allora

2
.
,.. tà,·di,uria v.a. può essere più facile ca.Icolare prima la funzione di
' d;si&so;,la. funzione I - FX) e poi da questa ricavare la densità tranùtc
,_p,òcedura che abbiamo seguito nell'Esempio 3.9 per trovare la densità del
èesso. '
Xgèometrica di parametro p la f.r. vale

Fx (k) = P(X :'é k) = p I)1 - Pi = l - ( I - pl+1 , k = 0, 1 , . . .


k

i=O

(si usa la (3.6)). Se invece Y è geometrica modificata, allo stesso modo si trova

(3. 14) = P(Y s k) = p �)1 - p) i - l = l - (I - p)k , k = 1 , 2, . . .


k
Fy(k)
i=l

Invece per te densità binomiali o di Poisson non ci sono formule semplici per la f.r. In questo caso
può essere necessario ricorrere al calcolo numerico. Quasi tutti i pacchetti software dì calcolo
scientifico (mathcmatica®, matlab®, scilab®,. . . ) e quelli specificamente orientati alla statistica
(come R®, ma ce ne sono tantissimi) prevedono comandi per il calcolo di queste f.r. (e anche di
quelle delle v.a. continue che vedremo nel prossimo capitolo). Tra questi scilab e R sono gratuiti
e si trovano in rete ai siti www . scilab . org e cran . r-project . org rispettivamente.
Esempio 3.14 I processori prodotti da una ùitta sono difellosi con probabilità p == 0.02, indipen­
dentemente tra di loro. Qual è la probabilità che in un lotto di 1000 ce ne siano non più di 18
difettosi?
Il numero X di processori difettosi nel lotto considerato si modcllina con una v.a. binomiale
B(1000, 0.02). La quantità richiesta non è altro che Fx 0 8) , cioè la f.r. di X calcolata in
1 8. Usando scilab il comando è cdfbin. 1n questo caso è ragionevole anche dì pensare ad
approssimare la legge B(IO00, 0.02) con una di Poisson di parametro 0.02 >< 1 000 = 20. In
questo caso il comando scilab è cdfpoi. Il risultato numerico sarebbe in questo caso

valore esatto 0.3797


approssimazione poissoniana 0.38 14 .

3.3 Leggi congiunte, indipendenza


Talvolta è necessario considerare delle quantità aleatorie a valori multidimensionali. Per questo
introduciamo la seguente, che è un 'estensione della definizione di v.a.

i.��?i:�fI:::� �1!Ye%:t}�f;J�;�i:i��ll�]r11�1vtJ,;;;;�;;;:�};;;�;:1 :it!:���t.�f t


'. 7:ioìii

È chiaro che se X è una v.a. m -dimensionalc discreta a!lorn essa può assumere al più un'infinità
numernbi!e di valori x E !R"' . Infatti, se x = (x 1 , . . . , x,;,) E ìR"' , a!lora

{X = x ) = {X1 = x1 } n . . . n (X,,, = xm} ,


3.3 Leggi congiunte, indipendenza 43
---- - ---- ---- - - -- - - - -
- -

x è dunque un valore assunto da X se e solo se simultaneamente x 1 è un valore assunto da X t ,


x2 u n valore assunto <la X2 eccetera e questi sono a l più una infinità numerabile. L a relazione
precedente mostra inoltre che {X = x} è un evento, come intersezione di eventi.
Se X è una v.a. m-dimensionale discreta, che prende i valori x C I) , x <2l . . . (che sono quindi
vcetori di ntm ), sì può definire la densità discreta di X ponendo

(3. 1 5)

Come nel caso di v.a. reali la funzione p definita da (3 .15) verifica


a) p (x(i) ) � O per ogni i = 1 , 2 . . .
b) Li> I p(x (il) = I .
Esattamente come nel caso delle v.a. reali, chiameremo densità una funzione p che soddisfi
alle condizioni a) e b) qui sopra. I ragionamenti che hanno portato alla (3.4) si possono inoltre
ripetere esattamente per ottenere che, per una v.a. 111-dimensiona]e X e A C R"' , si ha

(3.16) P(X E A) = L p(x Cil ) .


x(1lt:A

Se X 1 , • • • , x',., _sono_v.�-. .!<c.�_,\a densità p della v.a. X = (X 1 , . . . , X,,, ) , che è m-dimensionale,


si chiama la l1�,t�i11/�r1��,��(� delle v.a. X 1 , . . . , X,,, . Viceversa se X = (X1 , . . . , X,,.) è una
v.a. m -dimensionale, le densità PI ' . . . , Pm delle X I, . . . ' Xm si chiamano [aèilsf1,Yiil�rg1i1iiji) <li
X.
Se la densità p di X è nota, è facile calcolare le marginali. Supponiamo, per semplicit1t, m = 2
e dunque X = (X 1 , X2). Se con x <n . x <2l . . . indichiamo i possibili valori ùi X e x<il = (xji) , xfl ) ,
allora X I assume i valori x \ 1l, x\2l . . . (eventualmente non tutti distinti tra loro) e

p1 (z) = P(X1 = z) = P ( LJ!X1 = z, X2 = xi l l) =


i
i

(3. 17)
=�� P(,,V I :e Z , X2 = ·'.2(i) ) = � · (i)
� p (< , X2 )

Analogamente sarà

(3. 1 8) p2 (z) = L p (xfl, z)


Non è invece possibile, in generale, conoscendo le sole densità marginali ricostruire la densità
congiunta. Vedremo infatti degli esempi di densità congiunte diverse che hanno le stesse marginali.
Esempio 3.16 Da un'urna contenente 6 palline numerate da L a 6, se ne estraggono 2 con rimpiazzo.
Indichiamo con X t e X2 rispettivamente i risultati delle due estrazioni e calcoliamo la distribuzione
I~
congiunta di X 1 e X2 .
1 possibili valori di X sono le coppie (i, j) dove i e j possono prendere i valori interi da I a
6. Si tralta di 36 valori possibili e, poiché essi sono chiaramente equiprobabili, ciascuno di essi
verrà assunto con probabilità 3 La situazione è visualizzata nella Figura 3.8, nella quale con •
t
indichiamo i possibili valori.
44 Capitolo 3 Modelli discreti

5.
4

Figura 3.8

Inoltre le v.a. X I e X2 prendono entrambe i valori interi da I a 6, tutti con probabilità .l poiché
anche in questo caso i valori sono equiprobabili. Dunque entrambe le distribuzioni mar�inali 0 di
X sono uniformi su ( 1 , 2, 3, 4, 5, 6} .
Effettuiamo ora invece due estrazioni senza rimpiazzo, i cui risultati indicheremo con y1 e y2
e poniamo Y = (Y, , Y2). I valori della v.a. Y non sono gli stessi poiché, ad esempio, il risultato
(1 , I) non è più possibile. I risultati possibili sono infatti le coppie (i, j) con i e j variabili i n
( I , 2 , 3, 4 , 5, 6], m a con i ,J, j. S ì tratta d i 30 valori, tutti equiprobabili e dunque assunti ciascuno
con probabilità Jb · Ciò sì può vedere nella Figura 3 .9, dove ognuno dei valori, i ndicati con • ,
viene assunto con probabilità 3\J.
M a anche le v.a. Y1 e Y2 hanno distribuzione uniforme s u { l , 2 , 3, 4 , 5, 6}: basta fare i l calcolo
con le (3. 17) e (3.18) (oppure ricordare l'Esempio 2.22): quindi le distribuzioni marginali sono
le stesse che per le estrazioni con rimpiazzo.

���no dunque in presenza di due densità congiunte diverse ma aventi le stesse m,u· ginali .

Una importante distribuzione multidimensionale è introdotta nell 'esempio seguente.

�sempio 3.17 (Densità multinomìale) Consideriamo una sequenza di n prove ripetute indipendenti
j di uno stesso fenomeno che può avere m risultati possibili, che indicheremo conven,,ionalmente
1, . . . , 111, con probabilità q i , . . . , q,,, rispettivamente. Indichiamo con Y; il numero di prove che
hanno dato per risultato i, i = l , . . . , 111 (quindi Yi + . . . + Ym = n). Qual è la legge del vettore
Y "" (Y, , . . . , Y,,, )'?
3.3 Leggi congiunte, indipendenza 45

Sem = 2 conosciamo già la risposta: Y1 è binomiale B(n, q1 ) e Y2 = n- Y1 . Poiché q2 = l -q1 ,


avremo
P(Y = (m , n - m)) = (ll )q'"l (I - q 1 )"-"' .
m
Per questo motivo la legge cli !'.:.��_e <>ra det�,r_n.i,i ��:�!!!,2. è, in un certo senso, una generalizzazione
della binomiale e si chiama fdisiribuzibn�_ niì,ltindÌ?Ì(ale). Consideriamo lo spazio di probabilità
costituito dall'insieme
Q = {w; lù = (w1 , . . . , Wn ) )
dove w, può prendere i valori I , . . . , m (ovvero Q = ( 1 , . . . , mJ") e dalla a-algebra s1 d i tutte le
parti di Q. Definiamo su Q le v.a.

Xk (w) = Wk , k = ], . . . , 11 .

Xk rappresenta quindi il risultato della k-esima prova. Poiché i risultati delle singole prove devono
risultare indipendenti e P(Xk = i) = q; , si deve avere

P({w} ) = P(X i = w1 , • • . , X,. = W11 ) = P(X 1 = u.>1 ) . . . P(X11 "" u,11) = q;1 • • • q,�t
dove H; è il numero di indici k tali che wk = i (ovvero è i l numero di prove che hanno dato
per risultato i nella sequenza w ). Sappiamo quindi calcolare la probabilità di osservare una
prefissata sequem.a di prove w. Se ora 11 1 , • • • , 11,,. sono numeri interi tali che 11, + . . . + n ,.. = 11 e
y = (11 1 , . . . , 11,,. ) , calcoliamo la probabilità

P(Y = y) = P(Y1 = Il I , . . . , Y,., = lln, ) .


L'evento (Y = y) è composto da tutte le sequenze w nelle quali l figura n1 volte, 2 figura
112 volte, . . . , /Il figura 11m volte. Poiché ognuna di queste sequenze ha probabilità q;•• q;;,m , ...
resta solo da calcolare quante sono. Ma è facile vedere che l'insieme di queste sequenze è in
corrispondenza biunivoca con l 'insieme delle partizioni C (11 1 , . . . , 11,,.) (vedi la Proposizione 2.23)
che ha cardinalità ,, /_!11M , . In conclusione

li ! '11 . • • (1,"· ,
(3. 19) P(Y = y) = P(Yl = Il! • . . . • }'."' = 11,,, ) = I , ,,
l I ! . . . Il,,, ! q !

La relazione precedente definisce una densità che sì chiama mu!tinomiale di parametri II e


qi , . . . . q,,, .

I Esempio 3.18 Da un 'urna contenente 4 palline rosse, 4 bianche e 4 blu ne vengono estraile 3 con
rimpiazzo. Qual è la probabilità che le tre palline estratte siano di tre colori diversi?

Basta osservare che si tratta di tre estrnzìoni indipendenti (dato che c'è rimpiazzo) e che ad ogni
estrazione ognuno dei tre colori può apparire con probabìlitn j . La (3.19) dà immediatamente
che la probabilità cercata è
3! 2
Ì! l ! l ! J} 9 ·
=
46 Capitolo3. Modelli discreti

Definiiionè 3 .19 ·Lc:v.a, (discrete) X f,: . . . ,,, Xm ,' definite su uno stesso spazio di probabilità, si
3[fi5fiffi;;J/pendenti se è solo se, per ogni scelta di A 1 , . , . , A111 e IR, .·.. ·
.
. , _ -·.-� ! ,:_ �� . �; ..:, { .; .! .!. - � ":•, ; ·:, ;·• - � - 1 :' ,
D.. 20) .
{ffet�{:+:-�· .
. P(X1 E At, . . . , X,!, E -'.1mh= P,(X1 E Ai) . . . P(Xm E Am) .

§ki:f9�&,��Iit :��;.�;:�::: ,t��,-,:oxJ11_��u.?,iit�Th:ffEi{f>),9n.i>:\��i;�zj·4ri1.t��,ePi1ò �ip��·�g�


m > O risultano indipendenti le v.a. X 1; ; , , , X . "• :· m

Il significato intuitivo della nozione d'indipendenza di v.a. non è dissimile da quello di indipen­
denza di eventi:.m v.a. sono indipendenti se la conoscenza dei valori assunti da alcune di esse non
dà infonuazioni che modifichino la previsione dei valori assunti dalle altre. Del resto. la (3 .20)
scritta nel caso di due v.a. diviene

(3.2 1)

che significa che i due eventi (X 1 E A 1 } e {Xz E A2J sono indipendenti per ogni scelta degli
insiemi A 1 . A2. Ved iamo ora come l'indipendenza di v.a. è collegata con la loro densità congiunta.
Scegliendo A 1 == {x1 } , . . . , Am = {x,,. J, (3.20) diviene

(3.22) P(X 1 = xi , . . . , X,,, = .x,,,) = P(X 1 = x1) . . . P(X,,, = x111 ) .


Indichiamo con p la densità congiunta di X 1 , . . . , X,,, e con P I , • . . , p111 rispettivamente le densi fa
d i X , , . . . , X,,, . Se x = (.q , . . . , x,,, ), la (3 .22) si può scrivere

(3.23)

Viceversa supponiamo che valga (3 .23) (ovvero, che è lo stesso, (3 .22)); se A 1 , • . • , A,,, e JR,
allora ponendo A = A1 x . . . x A,,, , X = (X 1 , • • • , X,,, ) , si ha

P(X 1 E A 1 , . . . , X,,, E A,,, ) = P(X E A) = L p(x) = L p(x 1 , • • • , x,,, ) =

P1 (x 1 ) . . . fl,,, (X,,, ) = L P1 (x 1 ) . . . L p(x ) == P(X


;c,,. EA,,,

L m 1 E tl i ) . . . P(X,,, E A ,. ) .
_t:�_A1 .t1 EA 1 x""EAr.r
x,.., EAr:o

Ciò dimostra chc la (3.23), che lega la densità congiunta delle v.a. X 1 , • • • , X,. con le marginali,
è una condizione equivalente all'indipendenza di X1 , . . . , X,. . In pa.i1icolare, nel caso di v.a.
indipendenti, tramite (3.23) è 1m.ui/Jile cnlcolare la densità co11gi1111ra a partire dalle 111argi11ali,
ciò che non è vero in generale.

Esempio 3.20 Siano (Q , si, P) lo spazio di probabilità dello schema successo-i nsuccesso (Esem­
pio 2. I 3) e X 1 , . . . , X,. le v.a. definite da X; (ro) = <cJ; . Mostriamo che sono indipendenti.
Ciascuna d i essc prende i valori O con probabilità 1 - p e 1 con probabilità p (sono cioè di
Bernoulli H( l , p)). La (3.22) è immediala perché
3.3 Leggi congiunte, indipendenza 47

dove k è il numero di valori x; che sono uguali a l .

Osserviamo che per determinare se due v.a. sono indipendenti basta conoscere la loro distribuzione
congiunta p. In fatti a partire da essa è possibile, tramite (3 .17) e (3 . l 8), calcolare le marginali P I
e P2 e quindi verificare se vale (3.23) .
In particolare se (Xt, X2) e (Y1 , Y2) hanno la stessa distribuzione congiunta e X 1 e X2 sono
indipendenti, lo stesso è vero per Yt e Y2 .

I Esemp�o 3:21 Da un' � rna cont_e_nente b palline bianche e r palline rosse ne vengono estraile due
! senza rimpiazzo. Pomamo, pe1 1 == l , 2,
se la i-esima pallina estratta è rossa
altrimenti .
È chiaro che P(X 1 = l) = 0:, . Come visto nell'Esempio 2.10, si ha anche P(X2 == l ) = ffi .
Invece, usando l'espressione della densità ipergeometrica, sì trova

r r- 1 r2
P(X1 = l . X2 == I) = -- °" -- ---- =f. ---- ·
(2)@
r+br+b- I (b + r ) 2
nb)
Dunque le due v.a. Xt , X2 non sono indipendenti. Ciò è abbastanza naturale data la natura del
problema: se le estrazioni avvengono senza rimpiazzo , la conoscenza dei risultati delle estrazioni
gi� avvenute dà delle informazioni sulle palline rimaste e quindi sui risultati delle estra7.ioni a
venire.

Consid:!riamo due v.a. X e Y aventi densità congiunta p c indichiamo con X 1_ , x2 • • • , .Yt ,. Y2 . . .


rispettivamente i loro valori assunti. Se P(Y = y1 ) > O , si chiama I densità condi,ionale : di X
dato Y "" YJ la quantità

_ p , J)
(x; Y
(3.24 ) PX I Y (x; lyj)
py )'j
= __ _( _
) ·
Analogamente: si definisce la densità condizionale di Y dato X == x; . Per la (3 . 1 7) si ha

L Px 1 r (x; ly1 ) = I
i?; i

cioè, come funzione di x; , la densità condizionale di X dato Y = Yj è una densità. Intuitivamente


è la densilà di X sapendo che la v.a. Y ha assunto il valore Yj - Da notare che, se X e Y sono
indipendenti, allora per la (3.23} si ha

ovvero la densità condizionale di X dato Y = Yj coincide con la dem,ità di X , in accordo con il


significato intuitivo di indipendenza e di densit1t condiziomile.

Siano X una v.a. 111 - dimensionale e ,P : JR"' ➔ JRd una funzione; 1110s!riamo che t/> (X } è ancora una
v.a. (d-dimensionale, questa volta). È chiaro infalti che r/> (X) assume i valori q, (x Cll ) , ef> (x <2l) . . .
48 . Capitolo 3 Mo__d_ li_
el_ is_c_
d_ _t_
re i __ _ _______ _ _ ______ _______

che sono al più un'infinità numerabile (può succedere naturalmente che questi valori non siano
tutti distinti, se ,t, non è iniettiva). Inoltre , se indichiamo con y uno dei valori <f>(x<n) , ef, (x <2l) . . . ,
{</>(X) = y) = (X E <J>- 1 (y)} = {X = x}
LJ
xEç- 1 (.,)

e dunque {,p (X) = y) è un evento come riunione al più numerabile di elementi di m; come abbiamo
visto ciò è equivalente a supporre che t/J (X) sia una v.a.
Ricordiamo che, per definizione, ,p- 1 (y) è l' insieme di tutti i valori x tali che </> (x) = y. Si : t'
tratta dunque di un insieme che è definito anche quando rJ, non è iniettiva (e dunque anche quando
'.
1
l ' i nversa 4>- non esiste).
S iano ora X e Y due v.a. i ndipendenti e </J, rfr : JR ➔ R due applicazioni. Si può dire che anche
</>(X) e iµ-(Y) sono indipendenti ? �,._ ',.
Intuitivamente è ovvio di sì. Se la conoscenza di X non dà informazioni utili alla previsione ��
di Y non si vede perché </> (X) dovrebbe darne per la previsione di ,t, (Y). Occorre però verificare
che ,t, (X) e yr(Y) soddisfano alla Definizione 3.1 9. Indichiamo con p la densità congiunta di X
e Y e con P I , p2 le marginali. Allora, per ogni z , w E !R,
P(q., (X) = z , 1/I(Y ) = w) = P( X E q;- l (z), Y E iµ-- 1 (w)) =

p(x, y) =

= P(X E ,,v- 1 (z))P(Y E iµ-- 1 ( w )) = P(if, (X) = z)P(\fr (Y } = w)


Dunque ,P (X) e ,f, (Y) soddisfano alla (3.22) e sono indipendenti. Con un calcolo del tutto simile,
solo più complicate da esprimere, si dimostra il risultato seguente, un po' più generale.

l'ropÒsiziorie 3Jf'slari� _X1 '. �''.i. ': :x,;i: i1 , ::2_ ,-y/J.a. "ii1&pe_ndeBti'e';p: :J!i1:f)f i : jk' - . ;-<­
IR.-dehe•àpillicàzioni. Allòra:lé v,a.\f, (Xj'-: ,:- . , x;,} � ifr(Yì; . . : , Yi:) sanò irÌdipériden'tL
In particolare, considcrando le applicazioni </J (x , , . . . , x.,) = x, +. . . +xm e \fr (y, , . . . , yk} = YI +
. . . + Yk , si ha che se le v.a. X 1 , . . . , X,,, , 1'1 , . . . , Yk sono indipe11de11tì , allora and1c X, + . . . + X,,,
e Y1 + . . . + Yk sono indipendenti .

3 .4 Calcoli con densità


Molti problemi si riconducono al calcolo della probabilità di u n evento della forma {X E A) dove
X è una v.a. 111-dimensìonalc e A e lR.111 e dunque, grazie a (3 .16), al calcolo di una somma oppure
di una serie.
Esempio 3.23 Una mo11eta e un dado vengono lanciati insieme ripetutamente. Qual è la probabiliù
che la moneta dia testa prima che ìl dado dia 6 ?
Se T è ii primo istante in cui il dado dà 6 e S il primo ist,1nte in cui la moneta dà testa. sappiamo
che T e S sono v.a. geometriche modificate cli parametri ¼ e ½ rispettivamente. f'!Sse sono inoltre
indipendenti. La prubabilitìt richiesta non è altro che P(S < T) . Se p indica la ùensità congiunta
di T ed S, allora
(3.25) P(S < T) = P((T, S) E .4) = L p(x, y)
3.4 Calcoli con densità 49

dove A = {(x, y); y < x ) . Il problema è dunque risolto se


a) sappiamo calcolare la densità congiunta, p, di T cd S;
b) sappiamo calcolare la somma in (3.25).
Per i l punto a), poiché S e T sono indipendenti e grazie a (3.23),

! (�)/r-1 ! (!)k-1 se x = (h, k) , h, k = l , 2 .


p (x) = {6 6 2 2
o altrimenti .
La somma in (3.25) è estesa a tutti i punti x = (h, k) con k < h e vale

Con i soliti calcoli di somme geometriche, si ha

e quindi

Lo schema di risoluzione dell'Esempio 3.23 permette di affrontare tutta una serie di situazioni.
Un problema frequeme, ad esempio, è il calcolo della densità di una v.a. della forrna </>(X) , dove
X è una v.a. 111-dimensionale di densità nota p e c/J una funzione lR"' ➔ R. Questo problema è in
teoria immediatamente risolto, tenendo conto che, se z è un valore assunto da <{,(X) , allora

(3.26) P(,P (X) = z) = P(X E ,p - 1 (z) ) = L p(x) .


., e91- 1 (z)

Questa relazione è di grande importanza, intanto perché mostra che la densità di r/J (X) dipende
solo da quella di X: cioè se Y è un'altra v.a. avente la stessa densità p , allora le densità cli tf, (Y)
e di ef,(X ) sono uguali.
Esempio 3.24 Siano U1 , . . . , U111 v.a. indipendenti di legge <li Bernoulli B(l, p). Allora u, +
. . . + U,,, è binomiale B(m, p) .
Abbiamo già visto che, se X 1 , • • • , X111 sono le v.a . definite nell 'Esempio 3 .20 da X;(w) = w; ,
esse sono indipendenti c di legge B( l , p) . La loro somma X è il numero di successi inm prove.che,
come sappiamo già , segue una legge B(m, p). Ora queste v.a X 1 , . • . , X,,, e le U1 , . . . , U,,, hanno
la stessa legge congiunta (sono indipendenti cd hanno le stesse marginali) e dunque, scegliendo
.P (x1 , . . . , x,,, ) = x, + . . . + Xm , le v.a. X t + . . . + Xm e Ui + . . . + Um hanno la stessa legge.
Dunque anche U1 + . . . + Um ~ B (m, p).

ln particolare si può definire la densità B(n, p) come la densità di una v.a. elle è la somma di 11
v.a. di Berno11/li i11dipe11denti di parametro p. Da questa considerazione è immediata la seguente
50 Capitolo 3 Modelli discreti

Proposizione 3 .25 Siano X 1 , . . . , Xm ·v.a. indipendenti e aventi rispettivame[!te legge B (li 1, p);
•, .- : ; B(n�,, p). Allora la loro somma-X 1 +': -: :-+'X;d · ha legge -B(n,'p) ; dove ii = 11 1 + :/+ n,;, :

� Per semplicità faremo la dimostrazione nel caso di due v.a. (m = 2). Siano
Y1 , • • • , Y,, , 11 == n 1 + 112 , delle v.a. indipendenti e di legge di Bernoulli B ( [ , p ) . Allora le v.a.
Z 1 = Y1 + . . . + Yn , e Z2 = Y,,,+ 1 + . . . + Y,, hanno legge 8(11 1 , p} e B (n2, p) rispettivamente e f.,
sono indipendenti per la Proposizione 3 .22. Ma Z = Z 1 + Z2 = Y1 + . . . + Y,, � B(11, p) .
R!'Ri
Il calcolo dell a legge della somma di due v.a. è un problema importante. Un modo di risolverlo
(ne vedremo altri, vedi i paragrafi 3.10 e 4.9) è dato dalla proposizione seguente.
Proposizione 3.26 Siaiio -:U:e · V v.à. · (<!i_screte) di densità còhgiùnt� 'p � ",Indichiamo con
u j ; 112 ·>:c . · e-v1 , lii . :·. ·i ·valori - -
· · assunti-rispettivamente da U- e da V. Allora' U + V ha
·'
densità
g data da ·-',.,;· .:--,. , . •·-· --

(3.27) ,g{z)·=
. .
E p(ti; .·z·+ ·11;)
i:
----� - .

dove z è un numero della fonna u; + vj ·per qualcÌie i, j.

@ì,jititfJi§ift<:J Basta applicare (3.26) alla v.a bidimensionale X = (U, V) e alla funzione t/J :
IR. > JR definita da ,p (u , v) = Il + v. In effetti q,- 1 (z) è l 'insieme dei vettori (11. v) tali che
-
u + v = z, cioè della forma (t, z - t) al variare di t in JR.
2

Se per di più U e V sono indipendenti e di densità P I e P2 rispettivamente, allora p(u, v) =


P I (11)p2(v) e la (3.27) diventa
(3.28) g (z) = Pi (11;)P2 (Z - u,) .
L
I

Esempio 3.27 (Somma di v.a. di Poisson) Siano U e V v.a. indipendenti di legge di Poisson di
parametri À e µ. rispettivamente. Qual è la legge di U + v·>
Poiché sia U che V assumono solo valori interi � O, lo stesso è vero per U + V. Dobbiamo
dunque calcolare la densità p(k) di U + V per k intero e � O. Nel calcolo della somma che
figura in (3 .28) dobbiamo però ricordare che Pi (t) i O solo per I intero � O. Analogamente
P 2 (k - t) ,f O solo se t è intero e k - t � O, ovvero I ::: k. Dunque
k k--i
� ),_Ì
g (k) = L P 1 U ) p� (k - i ) = L e -J. e-1\( i ! =
- )
k
i!
i=.0 i=O

= e-(J.+1•) � � (k) ),!µk -i = c -(J.+µ) (À + µ)


k! L.., i k!
k

dove abbiamo riconosciuto lo sviluppo del binomio


i=O

k
µ.H = (À - 1- µ.l
L G}--·
1=0
.
3.4 Calcoli con densità 51

Dunq ue U + V è di Poisson di parametro À + µ..

Talvolta, per calcolare la legge di una v.a. della forma 4> (X), conviene prima calcolarne la funzione
di ripartizione e poi ricavare la densità usando la (3.12).
Esempio 3.28 Due monete vengono lanciate più volte fino a che entrambe abbiano dato almeno
una volta testa. Qual è la probabilità che occorrano k lanci ?
Se indichiamo con S e T il numero di lanci necessari perché la prima e la seconda moneta
rispettivamente diano testa, allora il numero di lanci necessario perché entrambe abbiano dato
testa è max(S, T) , il piì1 grande tra S e T. La questione proposta quindi non è altro che i l calcolo
della densità della v.a . max(S, T). Più in generale, date due v.a. U e V indipendenti di legge ·
geometrica modificata di parametri q e ,- rispettivamente, qual è la legge di Z = max(U, V)?
Z può assumere i valori k = 1 , 2 . . . Per calcolarne la densiràdeterminiamone prima la funzione
di ripartizione, Fz . Ora , poiché si ha max(U, \'.) 5 k solo se sia U :S k sia V 5 k,

Fz (k) = P(max(U, V) :S k) = P(U :S k, V 5 k) = P(U :S k)P(V :S k) .

Ricordando che la funzione di ripartizione F di una v.a. geometrica modificata di parametro q è


F(k) = 1 - (I - q)' per k = 1 , 2 . . . , si ha

Fz (k) = (1 - (I - ql) ( l - (I - d) .

da cui

P(Z = k) = Fz(k) - Fz(k - I ) = (1 - ( 1 - q/ ) (l - ( l - r/) - (1 - ( 1 -ql- 1 )(1 - ( I - r)k- 1 ) =


1 -1 1
= q ( l - q)• - + r(l - -- r/ - (I - ql- ( 1 - r)k-·l cq + r - qr) .
Tornando al problema originale, ricordando che S e T hanno legge geometrica modi ficata di
parametro ½ ,
l
_ = __
P(max(S' T) = k) = �k + �k - � _!. � __!_
2 2 4 4k- l 2k-l - 4 4k- l
per k = l , 2 . . . Se invece avessimo dovuto calcolare la probabilità che occorrano k lanci perché
una almeno delle monete dia testa, allora saremmo ricondotti al calcolo della densità di Y =
min(U, V) . In questo caso conviene calcolare prima I - Fr (k) = P{Y > k). Infatti

P(min(U, V) > k) = P(U > k, V > k) = P(U > k)l'(V > k) =


= (1 - ql ( I - r/ = ((l - q) ( l - r)J" .

Dunq�e Fl' (k) = I - [(I - q) ( l - r)]< = 1 - (I - (r +q - rq))•. Y ha dunque :mcora la funzione


di ripartizione di una v.a. geometrica modificata ma, di parametro ,- + q - rq . Poiché la funzione
di ripartizione caratterizza la densitl,, abbiamo mostrato che min(U, V) segue ancora una legge
geometrica modificata di parametro ,- + q - rq.
52 Capitolo 3 Modelli discreti

Esempio 3.29 Consideriamo una successione di v.a. X1, X2, . . . e sia N un'altra v.a. a valori
interi � O. Poniamo, per ogni 11 > O, S,, = X 1 + . . . + Xn ed inoltre
SN (w) = X 1 (w) + . . . + XN(w)(w) .
La quantità SN (w) viene determinata nel modo seguente: si calcola prima il valore N(w) assunto
da ,V e poi si fa la somma di X; pe� _i_ _':; .l i ·. c� _ ,J'{_(w) (se N(w) = O si pone S,v(w) = O). Per
questo motivo chiameremo SN unal.iqmhia aléciioriij]. Variabili di questo tipo appaiono spesso in
presenza di fenomeni casuali che dipendono a loro volta da altri fenomeni casuali. Supponiamo
ad esempio che in una colonia di batteri ogni individuo dia luogo, suddividendosi, ad un numero
z 1 aleatorio di d iscendenti, dove Z 1 è una v.a. di densità p. La seconda generazione i;arà allora
composta da un numero z2 d'individui, dove Z2 è una somma di Z 1 variabili indipendenti tutte
ancora di densità p . Possiamo qu indi descrivere Z2 come una somma aleatoria.
Vediamo ora come si può determinare la densità di SN , quando si fa l 'ipotesi che le v.a.
N, X 1 , X2 , . . . siano indipendenti. L'idea è di usare la formula delle probabilità totali (2.8). In
effetti gli eventi {N = i l , i = O, I , 2, . . . costituiscono una partizione di Q, per cui

P(SN = X) = L P(SN = .X , N = i) .
i= O
Ma su (N = i) si ha SN = S; e dunque, ricordando anche che S; e N sono indip-�ndenti,
P (SN = x, N = i) = P(S; = x, N = i) = P(S; = x)P(N = i)
e quindi
00

(3.29) P(SN = x) = L/(S1 = x) P(N = i ) .


i=O

j Esempio 3.30 Le telefonate che giungono a un centralinovengono indirizzate a u n operatore con


I probabilità p, O :.:; p :.:; 1 , e smistate a un altro servizio con probabilità 1 - p. Supponendo che
il numero N di telefonale che giungono in un giorno si modellizzi con una v.a. di Poisson di
parametro À e che gli esiti delle singole telefonate siano indipendenti tra loro, qual è la probabilità
che all'operatore in un giorno giungano k telefonate?
Se indichiamo con X 1 , X2, . . . gli esiti delle singole telefonate (I se giungono all'operatore, O
altrimenti), il numero di telefonate che giungono all'operatore si può scrivere
SN = X I + . . . + XN
Applichiamo la(3.29). In questo caso S; - B(i, p) e P (S; = k) == Osek ?'.: i. Dunque, sviluppando
il coefficiente binomiale c poi ponendo j = i - k,
00
"" (i) . .._
Ài I _. . I
P(SN = k) = L k 1/c l - p)• -• c >. = B e A Pk L i - k) ! A ( l - p) =
,; i-k
� ,d (
TI

= _.!._ c ->. 1/
k!
j
:f:-,
L1!
� O
k!
f�
..!... ;_ì+k ( I - p)j = 2_ e->-(Àp)"
.
....
1___=0
J.
(À( I - p)).Ì
�--�
= k-'.,. e-1-P(i,p)" .
3.5 Speranza matematica 53

Dunque SN è di Poisson di parametro Àp.

3.5 Speranza matematica


Sia X u na v.a. (discreta) che assume i valori x1 , x2 . . . ed indichiamo con p la sua densità.
Si dice che X ha speranza matematica finita s e
(3 .30) L lx;! p(x; ) < +oo .
Jn questo caso si chiama(spe.i-a11za maieb1àtiéaÌ di X la quantità

(3.3 1 ) E[X] = LX; p (x;) = I:x.- P(X = x;) .

Jn altre parole la speranza matematica di X è data dalla (3 .31), a condizione che la serie converga
assolutamente. Sinonimi di speranza matematica sono i temùni media, valore medio, attesa,
valore aueso.
In effetti, osservando che i termini che intervengono nella (3 .3 1 ) non sono altro che i possibili
valori di X moltiplicati per la probabilità con cui essi vengono assunti, il significato intuitivo della
speranza matematica è quello di media dei valori assunti da X.
ln analogia con la meccanica di un corpo rigido, se ponessimo sulla retta nei punti x 1 , x2 . . .
delle masse proporzionali a p (x 1 ) , p(x2) • • • rispettivamente, l a quantità E[XJ non sarebbe altro
che la coordinata del baricentro del sistema di masse così definito.
Se E[X] = O si dice anche che X è centrata.
È importante osservare che la speranza matematica di una v.a. dipende 1111icamcnte dalla scia
densità: se due v.a. hanno la stessa densità, allora se una di esse ha speranza matematica finita
ciò è vero anche per l'altra e le due speranze matematiche sono ugt1ali.
Sia X = (X 1 , . . . , X.,) una v.a. (discreta) m-dimensionale e </, : lR."' -·> JR una funzione.
Poniamo Z = </, (X): per calcolare E[ZJ secondo la definizione bisogna prima calcolare la densità
di Z e poi la serie che compare nella (3.3 1). Per questo è molto utile il risultato seguente, che
fornisce un metodo molto più semplice. Indichiamo con x< 1 l , x(2) . . . i valori assunti da X e con
p la densità di X.

��9 Indichiamo con z 1 , z2 . . . i valori assunti da Z e poniamo


A = (.x (i ); ,p (x (i)) = Zj } = <p- l (Zj ) .
54 Capitolo 3 Modelli discreti

Quindi
), P(Z = ZJ) = p(xii> )
(Z = Zj ) = U [X -- X (i}
L
.t <11 EAj
.

I>j J P(Z = zj ) = L IZj J L p (x U>) =


xtilEAJ

Dunque se la serie ( 3.32) è convergente Z ha speranza matematica tìnita. Per dimostrare che vale
( 3.33) basta ripetere il calcolo senza i valori assoluti:

L Zj P(Z = Zj ) = L ZJ L p(x (i) ) =


x 11J EAJ

( il passaggio segnato con (') è possibile solo perché sappiamo già che la serie converge assoluta­
mente. Solo in qtiesto caso è lecito fare la somma riordinando i tem1ini).

Il Teorema 3 .3 1 ha molte applicazioni ed utile molto spesso. Intanto, se X è una v.a. reale e
<t, (x) = lxi. osserviamo che se X ha speranza matematica finita, allora lo stesso vale per J XJ;
E[IX I] è anzi la somma della serie con i valori assoluti, come nella (3.30).

:».'.f!tf• b) Applichiamo il Teorema 3.3 1 al vettore (X, Y) e alla funzione ,P : lì!'. -> JR
fj}ì}}
definita da ço(x, y) = x + y. Verifichiamo che vale (3.32): se x 1 . x2 . . e y , y2 . . . sono i valori
2

.
assunti da X e da Y rispettivamente, il vettore (X. Y) può assumere i valori x; + Yi al variare di
1

i, j; se Px , py sono le densit/1 di X e Y rispettivamente e p la densitr, di (X, Y), allora per le


( 3.17) e (3.18)
Px(x;) = L p(x; , y; ) , py ()'j ) = L P(Xi , Yj )
3.5 Speranza matematica 55
------ ·
per cui

i.j i,j i.j

== L x ( ;,
J ;J p x Yi ) + L IYJ p (x; , Jj ) =
I L Jx! I px(x;) + L IYJ I py(yj ) < +oo .
1, j i,j i j

Dunque X + Y ha speranza matematica finita; ripetendo ìl calcolo senza valori i assoluti si trova

"" I>1:; p(x; , YJ) + LYJ p(x; , Yj) = I: x, px (x1 ) + L Yi py (Yj ) = E[XJ + E[Y]
i, j i,j i,j

i, j i,j

che termina la dimostrazione di b). Allo stesso modo si dimostra il punto a) .

i, j i, j i ,j

che mostra che XY ha speranza matematica finita. Poi, ripetendo il calcolo senza i valori assoluti,

E[XY] = E[t/> (X, Y)) = Lx; y1 p(x; . Yi ) = L X; JjPx (x; ) py (yj ) =


i, j i, j

= I: x, px (x; ) L Y;Pr (Yj) = E[X] E[Y] .


56 Capitolo 3 Modelli discreti

tutti i valori assunti z 1 , z2 . . . di Z sono 2:: O. Dunque

(3.35) E[Zl = I>rcz = z;) :::. o


perché nella somma compaiono solo temùni :::: O. S� ne deduce che E[X_J - E[�] "". E[Z] ?: O. Se
_
E[Z] = o, allora necessariamente nella (3.35) tutti I ternum sono nulh, 1I che s1gmfica che z = O
è il solo valore assunto da Z, cioè che P(X = Y) = P(Z = O) = 1 .
b ) Poiché -IX I :'.': X :,: !Xl , dal punto a) s i deduce che -E[IX I] :'.': E[X] :'.': E[JXI], che è
equivalente a IE(X]j :'.': E[ i XJl.

Esempi 335 Ricordiamo che E(X) dipende solo dalla dcnsitl, di X.


a) X ~ B (I, p). Una v.a B ( l , p) prende i valori O e 1 con probabilità 1- p e p rispettivamente.
Quindi
E[X] = o . (] - p) + I · p = p .
b) Sia A E d1 e consideriamo la v.a. indicatrice J A . Sappiamo che l ,1 ha legge di Bernoulli di
parametro p = P(A). Dunque
E[J A ] = p = P(A) .
e) X ~ 8(11, p). Per la definizione data dalla (3.31)

E(X] = i > (�) pk (I - p) n-k .


k=O

Questa somma si può calcolare con qualche sforLO, ma è pi 1, semplice ragionare in un altro modo:
se X 1 , . . . , X,, sono v.a. indipendenti B ( 1 , p), allora la somma X 1 + . . . + Xn è B(n, p). Dunque
E[X] = E[X 1 + . . . + X,. ] = E[Xi J + . . + E[X,.] = n p .
d) X di Poisson di parametro ). .

1.
Esempio 3.36 (Media di una v.a. ipergeometrica) Un'urna contiene b palline bianche e r rosse; ne
vengono estratte 11 (11 ::: b + r) senza rimpiazzo. Qual è il numero medio di palline rosse estratte?
La probabilità di estrarre k palline rosse è data dalla distribuzione ipergeometrica. li numero
m.:dio richies10 è dunque
Ik > - P(X = k) = I>(;;)rk)
k (,, )
JJ calcolo diretto di questa sonuna non si presenta bene. . . Conviene piuttosto aggirare l'ostacolo
con un ragionamento simile a quello utilizzato per la distribuzione binomiale. Se poniamo
={I se J? -esima estrazione dà una pallina rossa
X;(w)
3.6 Momenti, varianza, covarianza 57

allora X = X 1 + . . . + Xn è i l numero di palline rosse estratte. Come abbiamo visto nell'Esempio


2.22, le v.a. X; prendono i valori 1 con probabilità LTr' e O con probabilità o¼, e sono dunque
di Bernoulli B ( l , LTr' ). Dunque E[X;) = LTr' e E[X] = #;: . Il numero medio di palline rosse
estratte è, in particolare, lo stesso che le estrazioni avvengano o no con rimpiazzo.

jEscmpio 3.37 Calcoliamo la media delle somme aleatorie dell'Esempio 3.29.


I, Supponiamo N, X 1, X2, . . . indipendenti e tutte aventi speranza matematica finita. Le v.a. X;
han no l a stessa densità e quindi la stessa speranza matematica. Dunque E(Sk) = E(X i ) + . . . +
E(Xk ) = kE(X1 ) e

(3.36) = I> L P(Sk = x) P(N = k) = L P(N = k) I: xP(Sk = x) =


k=O k=O

= I)'(N = k)E[Sd = L k P(N = k)E[Xd = E[NJ E[X iJ .


k�O k-0

La relazione E[SN J = E[NJ E[Xt J data dalla (3 .36) è la:Jormiìlà ,ddVald;. Qui abbiamo tralasciato
di verificare prima che SN ha speranza matematica finità: sardioc bàstaio fare lo stesso conto con
i valori assoluti.
j

3.6 Momenti, varianza, covarianza


Diremo che la v.a. X ha momemo dì ordine kfinito, k = I , 2 . . . , se Xk ha speranza matematica
finita. In questo caso si chiama QiJ�ìèiitJD dì ordine k di X la quantità E[Xk ]. Analogamente se
(X -- E[X]) ha speranza matematica finita diremo che X ha mome11to centrato di ordine kfinito
e chiameremo [111gmell(o ce11_trato ) di ordine k la quantità E[(X - E[X])k] .
k

-
Per i l Teorema 3.3 1 applic�;-;;lle funzioni if> (x) = xk e ef, (x) = (x - E[X]i rispettivamente ,
si ha, indicando con p la densità di X e con µ. = E[X] la sua media,

(3 .37)
E[(X - 11.)•J = L(x; - µ./ p(x;)

se le somme convergono assolutamente. Le (3 .37) sono importa11ti perché da una parte forniscono
un modo pratico di calcolo dei momenti e dall'altra mostrano che i momenti dipendono, anch'essi,
solo dalla legge di X.
')M6diìÌII dlsi:reti

ogni caso, lxi' :::= l +lx l '


' Se fxl :':: 1 allora Jxl' :<:: l mentre se lx! 2: 1 allora 1xl' :5: lxl . Insomma, in
k

e dunque
L lx;I' p(x;) :::= :Z:)1 + tx; l ) p (x; ) = 1 +
k
lx; lk p(xi ) < += -
L
b) Perché X + Y abbia momento di ordine k finito occorre che sia
ì

p(x; , Jj) < +oo


L fx; + Jj l
k

,,j
dove ora con p indichiamo la distribuzione congiunta di X e Y - Si può però dimostrare che, per
ogni coppia x, y di numeri reali, vale la disuguaglianza
IX + Ylk :::= 2• - 1 (lx!< + IYl )
k

e dunque
2 )x; + Jj lk p (x;, Jj) :é 2k- l I)lx; 1k -1 - !Y/) p(x;, Yj ) =

L lx; l p(x; , Jj) + 2 -- l L IYil p (x;, Yi) =


ì,j ì.}

= 2*- 1
i,j
k k k

= 2 -- l I: 1x; 1 Px(x;) + 2• - 1 L I Yi l• p y (yj) < +oo ·


i, j
k k

Il pi,1 im.eci!"l�!l!.<:.. dei momenti è il momento centrato del second'ordi�e. Più precisamente, si
chiama [variaùza \ di X il suo momento centrato del second'ordme e lo s1 denota Var(X). Dunque
(3.38) Var(X) = E[(X - E(X])2J
Abbiamo visto che la speranza matematica di una v.a. X è la media dei valori che essa assume.
La varianza è invece una misura della dispersione dei valori X rispetto alla media. Infatti se X
prende dei valori lontani dalla sua media allora la v.a. (X - E[X])2 assumerà dei valori grandi e
b varianza di X sarà grande di conseguenza. All'altro estremo, se X è costante e prende 11 solo
valore E(X], allora (X -· E(X])2 = O con probabilità l e la varianza è nulla.
Ad esempio consideriamo due v.a. X e Y e supponiamo che X assuma i valori 1 e -I con
probabilità � , mentre Y i valori 100 e - 100 , anch'essi con probabilità ½. È immediato verificare
che E[X] =· E(Y] = O, ma la v.a . (X - E[XJ)2 prende il solo valore l e dunque Var(X) = 1 ,
mentre ( Y - E[Y])2 = 10000 e dunque Var(Y) = 1 0000.
Questo aspclto della nozione di v:1rianza viene bene messo in evidenza dalla seguente classica
disuguaglianza.
----------- - - ---- -- 3.6 Momenti, varianza, covarianza 59

Poniamo Y = 1)2 l ux- E[XJl> q}; cioè la v.a. Y vale 112 se ìX - E[X) I > T/ e O

altrimenti. È chiaro che
(X - E[X])2 ;o: Y
perché Y = 1/ < (X - E[XJ)2 sull'evento [IX - E[X]I > TJ} mentre sull ' evento { I X - E[X] I :': 11}
y vale O mentre (X - E[X])2 � O. Prendendo la speranza matematica si ha

Var(X) = E [(X - E [X}) 2) � E[Y] = E[11 2 1 11x-F.[Xll>q} ] = ry2 P(I X - E[X] I > T/)

Osserviamo che, per dimostrare la Proposizione 3.39, ci siamo serviti solo della definizione della·
varianza, data dalla (3.38)), e di alcune proprietà della media come, ad esempio la Proposizione
3.3 4 a) . Vedremo nel prossimo capitolo delle v.a. che non hanno la limitazione di prendere solo
un insieme discreto di valori e la cui legge è definita in maniera diversa. Per queste v.a., però, la
speranza matematica e la varianza continueranno a soddisfare le proprietà che abbiamo visto per
le v.a. discrete, ed in particolare la Proposizione 3 .34 a). Potremo quindi affermare che anche per
esse vale la disuguaglianza di Chebyshcv. Vedremo che lo stesso discorso si può ripetere anche
per i risultati dei prossimi due paragrafi.

La disuguaglianza di Chebyshcv affenna che più Var(X) è piccola, più è piccola la probabilità
che X prenda valori lontani dalla sua media. Ritroviamo quindi in maniera più precisa l'idea
intuitiva che la varianza misura la dispersione di una v.a.
La disuguaglianza di Chebyshev è in realtà una maggiorazione grossolana della probabilità
P(I X - E(X]i > 11) . Se X è ad esempio la v.a. di poco fa, con i valori 1 e - 1 assunti entrambi
con probabilità e per la quale E[X} = O e Var(X) = I , scegliendo 71 = 2 si ha P(I X - E[X]! >
i
11) = O mentre Var(X)/1-,2 = Per ,, < 1 si ha addirittura Var(X)/1,2 > 1 mentre è chiaro che
¼.
P(IX - E[XJ! > 11) può valere al massimo 1 . Ciononostante e anche se più tardi vedremo stime
di dispersione più precise, si tratta di una disuguaglianza preziosa in molte circostanze.
Si usa indicare con il simbolo a 2 la varianza di una v.a. X, così come si usa indicare con µ la
speranza matematica. La quantità a = var(X) si chiama la id_el'iaziom;}fq,Ì1dàrè{ di X .

Riprendendo l a (3.38) e indicando con µ. la speranza matematica d i X, s i trova

(3.39) Var(X) = E[(X - 11.)2] = E[X 2 - 2µ.X + 11.2] = E[X2 ] - 2Jt . µ + µ2 = E[X2] - E[X]2
che è un 'altra definizione della varianza: è la differenza tra la speranza del quadrato e il quadrato
della speranza. La (3.39) è am:i la formula che si usa di solito per il calcolo (vedi gli Esempi
3.40). Osserviamo comunque che da (3 .38) è chiaro che la varianza è sempre 2: O, cosa che non
è evidente nella (3 .39).
Sono utili le seguenti proprietà della varianza:

Var(aX) = a2 Var(X)
(3.40)
Var(a + X) = Var(X)

Le (3 .40) sono praticamente immediate: per la seconda delle due, ad esempio basta scrivere

Var(a + X) = E[(X + a - E[X + a]) 2 ] = E[(X + a - E[X] -- a}2] = E [(X - E[X])2} = Var(X) .
GO Capitolo 3 Modell� �i,sc reli ___
- ::� _:.: ____ ___ ____________

Questa- relazione è,del resto coerente con l'interpretazione della varianza com� _misura_ della
1
dispersione: se si aggiunge ad X una costante a, �a med_ia_µ,_ s1 sposta della quant_Lla � , co� pure
come i valori �
a. sunti da X. In definitiva la dispersion e d1 X nspetto a µ, e quella d1 X -r a nspetto
a µ. + a sono le stesse.
(;· céchiahi:o un'espressione per la varianza di X + y. Si ha
Var(X + Y ) = E[(X + Y - E[X + YJ) ] = E[( (X - E[X]) + (Y - E[YD) ] =
2 2

(3.41) = E[ (X - E[X])2] + E[ (Y - E[Y])2) + 2E[ (X - E[X])(Y - E[Y])] =


= Var(X) + Var(Y) + 2 Cov(X, Y) .

dove abbiamo posto

(3.42) Cov(X, Y) = E[ (X - E[X]) (Y - E[Y])]

La quantità Cov(X, Y) si chiama la [ cò�driaizia·: di X e Y. Una espressione alternativa per la


covarianza è

Cov(X, Y) = E[ (X - E[Xl)(Y - E[Y])] =


(3.43)
= E[XY - XE[Y] - YE[XJ + E[XJE[YJ] = E[XY] - E[X) E[Y] .

In particolare se X e Y sono indipendenti, allora per la Proposizione 3.33

(3.44) Cov(X, Y) = E[XY] - E[X]E[Y] = O


da cui segue che, se X e Y sono indipendenti, allora Var(X + Y) = Var(X) + Var(Y). Anzi,
ripetendo i calcoli della (3.41) per i l caso di III v.a., si ha facilmente

(3.45) Var(X1 + . . . + X,,, ) = L Var(X;) + L Cov(X;, Xj)


i=l i.j=l ,if-j

e, se X 1 , . . . , X111 sono indipendenti ,

(3.46) Var(X 1 + . . . + X,,. ) = Var(X i) + . . . + Var(X,.) ,

ovvero la varianza di 1<11a somma dì v.a. indipendenti è uguale alla somma delle varianze.
Se X e Y sono indipendenti , quanto vale Var(X -Y)? Attenzione a non cadere nell'errore tipico:
110n è vero che Var(X - Y) = Var(X) - Var(Y) (che tra l'altro potrebbe risultare u1ia quantità
negativa) . Il calcolo corretto è invece: Var(X - Y) = Var(X + (-Y)) = Var(X) + Var(-Y) =
Var(X) + (- 1)2 Var(Y) = Var(X) + Var(Y) (si us,1 la prima delle (3.40) con a = - 1).

Esempi 3.40
a) (Leggi di 13eruoulli) Se X ~ B ( l , p) al lora
2 2
3.6 Momenti, varianza, covarianza 61

b) (Leggi binomiali) Se X B (11, p) allora sappiamo che si può scrivere X = X 1


~ + . . . + Xn
dove X1 , . . . , Xn sono v.a. indipendenti e B ( l , p). Dunque, per (3.46),

Var(X) = Var (X1) + . . . + Var(X,,) = np(l - p) .

e) (Leggi di Poisson) Sia X di Poisson di parametro À. Allora

Dunque
Var(X) = E[X2 ] -- E[XJ2 == À(,l_ + 1) - À2 = À
Per una v.a. di Poisson dunque il valore À de.I p arametro coincide sia con la media che con la
varianza. Dunque al crescere di À aumentano sia media che dispersione.

A causa di (3.44) la covarianza viene spesso usata come una misura dell'i11dipe11de111.a: se la
covarianza dì X e Y è prossima a zero, le v.a. sono considerate "quasi" indipendenti, mentre valori
grandi della covarianza fanno pensare ad una "forte" dipendenza. Vi sono però esempi di v.a. che
hanno covarianza nulla senza essere indipendenti. Se Cov(X, Y) = O si dice che X e Y sono non
correlate. Come "misura d'indipendenza" è però meglio usare il /éòe]fièient<di corre/azio11iì
Px,r definito da

Cov(X, Y) Cov(X, Y) _
(3.47) = -,:=====
JVar(X) Var(Y) crx<7r
PX, I'

Il coefficiente di correla-,;ione ha il vantaggio, rispetto alla covarianza, di essere invariante rispetto


ai cambiamenti di scala, cioè, se a , b > O, allora

PaX,bl' = P:<,Y

Si può dimostrare che si ha

(3.48) E[X Y] 2 :S E[X2J E[Y2] .

Dunque, applicando questa relazione alle v.a. X - E[X] e Y - E[Y].

Cov(X, Y)2 = E[(X - E[Xl)(Y - E[Y])J .é: E[(X - E[XJ)2]E[(Y - E[YJ)2] = Var(X) Var( Y)
2

e dunque j Cov(X, Y)i :S JVar(X) Var(Y). Ne segue che lPx. rl :S 1 : il coefficiente di corre­
lazione prende solo valori compresi tra - I e I .

Esempio 3.41 Un'urna contiene b pailìne bim1chc e ,- rosse. Da essa se ne estraggono 2 senza
rimpiazzo. Poniamo
I se la prima pallina estratta è rossa se la seconda estratta è rossa
X1 = {
62 Capitolo 3 Modelli discreti

Quanto vale il coefficiente-dLcorielaiione.di X I e X2?


Cominciamo col calcr1;ùk,i}(J{l1_x;J-. La v.a. X i �2 può prender� solo i valori I e O. Si tratta
dunque di una v.a. -di Bemçìulli B(l , p). Per detenrunare p, osserviamo che X 1 X2 = 1 solo se
simultaneamente Xi . =- l e Xi =, I . Dunque

+r - 1 .
, ._ .. "
p = P(X1 X2 = 1) = P(X1 = 1, X2 = 1) = P (X2 = l I X 1 = l)P(X1 = 1) = b - 1- r b r - I
r

e quindi'
r(r - I)
E[X 1 X2] =" (b + r) (b + r - I) -

D'altra parte sappiamo (Esempio 2.10) che sia X1 che X2 sono B(l , ffi ), dunque

r(r - l) r2
Cov(X1 , X2 ) = E[X1 X2] - E[X i ] E( X2) =
(b + r) (b + r - l ) ·- (b + r)2
-br
(b + r) 2 (b + r - 1 )

Poiché
r ( -- r br
Var(X 1 ) = Var(X2) - 1
- ) = ---2 ,
h -1 r h+r (b + r)
= --
il coefficiente di correlazione vale

Osserviamo che Px , ,x2 è in valore assoluto tanto più piccolo quanto più il numero totale b + r
di palline è grande. Ciò è in accordo con l'intuizione: X I e X2 non sono mai indipendenti, ma
la dipendenza d iviene tanto pit1 debole quanto più il numero totale di palline è grande. In questo
caso il risultato della prima estrazione influisce poco su quello della seconda.

3.7 La legge dei grandi numeri

Supponiamo di lanciare II volte una moneta e indichiamo con k il numero di lanci in cui è stato
ottenuto testa. La quantità � è dunque la propor,:ione di teste ottenute negli 11 lanci. Se la moneta è
equilibrata l'intuizione suggerisce che questa propor,:ione non debba discostarsi troppo dal valore
J. Naturalmcrite sarà difficile che sia esattamente � = ½ (vorrebbe dire che si sono ottenme
esattamente tante teste quante croci), ed è sempre possibile che negli n lanci , per combinazione,
si sia verificato un numero abnorme (molto grande o mollo piccolo) di teste, il che porterebbe
ad u n v.ùore della proporzione * distante da ½ - L'intuizione dice però che, se n cresce, questo
3.7 la legge dei grandi numeri 63

fenomeno dovrebbe tendere a sparire: se i primi lanci hanno dato una eccedenza di teste, ciò
dovrebbe poi essere compensato dai lanci successivi e, insomma, al crescere di n la proponione
dovrebbe stabilizzarsi intorno al valore ½.
Questa situazione può essere modellizzata con una successione X 1 , X2 • • . di v.a. indipendenti
tutte di Bernoulli B { l , ½), dove al solito considereremo che {X; = 1) corrisponde all'evento
"lo i-esimo lancio ha dato testa". Con questo modello il numero di teste ottenute in n lanci è
X 1 + . . . + Xn e la proporLCÌone di teste in n lanci (che poco fa indicavamo con *) sarà

Come conseguenza dunque ci aspettiamo che Xn assuma dei valori lontani da ½ con probabilità
sempre minore. È un caso particolare di quanto afferma la Legge dei Grandi Numeri.

- . 1 1
E[X,,J = ii- E(X1 + . . . -1- Xn] = ;; (E[Xtl -1- • • • + E[Xnl) = µ.

e varianza
- I 1 I o- 2
Var(Xn) = � Var(X1 + . . . + X,,) = (Var(Xt) + . . . + Var(Xn)) = � - 11 - Var(X 1) = 7i"

Basta ora applicare la disugnaglianw di Chebyshev (Proposizione 3 .39):
- Var(X ) o-2
P(IX,. - !-LI > 11) � --2--n - = -2 ➔ O.
1) lll/ ,:➔OO

Esempio 3.44 Supponiamo di non sapere se una data moneta sia equilibrata o no. La Legge dei
Grandi Numeri fornisce uno strumento per valutare la probabilità p di ottenere testa in un singolo
lancio. Basterà infatti lanciare 11 volte la moneta e stimare p con la quantità
# di teste ottenute in n lauci
Xn = 11
Jnfatti. se poniamo
= I se lo i-esimo lancio dà testa
X'· {
O altrimenti ,
allora Xn = ¾ (X1 + . . . + Xn ) e, per il Teorema 3.43, X,, -,,,_,00 p = E(X;) in probabilità. In
pratica è però possibile fare solo un numero finito di lanci e quindi occorre valutare l'errore che
64 Capitolo 3 Modelli discreti

sì commette stimando p con X,, , per n fissato. Naturalmente può succedere che lanciando una
moneta equilibrata 1000 volte si ottenga testa tutte le volte, il che darebbe Xn = 1, ben diverso dal
vero valore p = è chiaro però che la probabilità che ciò si verifichi è molto piccola. Un modo
½;
di procedere consiste nel fissare un numero l'/ > O per poi stimare la probabilità P(JXn - PI > 71)
di commettere un errore più grande del valore T/ prefissato. Vedremo nel capitolo 5 come stimare
questa probabilità.
I

Esempio 3.45 (Convergenza delle frcquenzc empiriche) Molto simile alla situazione dcli 'Esempio
3.44 è la seguente: consideriamo una successione di v.a. indipendenti (X,, ),, e aventi la stessa den­
sità. Supponiamo che esse possano assumere m valori, che indicheremo 1, . . . , m,con probabilità
p 1 • • • • • p.,, rispettivamente. Fissiamo un valore k scelto tra 1, . . . , m e poniamo

se X; = k - l "
"'\""' yi .
P11,k = n- �
altiimenti
Y; =
{�
i=l

Quindi fl,, ,, è la proporzione di osservazioni X; che hanno preso il valore k tra le prime n. Le
v.a. Y; sono chiaramente di Bernoulli (prendono i soli valori O e I) di parametro Pt = P(X 1 = k).
Poiché sono anche indipendenti (Y; è funzione di X;), per la Legge dei Grandi Numeri,

Pn.k
p
➔ E (Y1 ) = E01x , =k)) = P(X 1 = k) = Pk .

Le quantità P11 ,k ' k = I, . . . . lii ' si chiamano le [Proporzio,ii l o J,;eque1ìie'e11ipiriche '.- Per la
Legge dei Grandi Numeri quindi le probabilità P1 , . . . , Pm si..possono ottenere come limiti delle
..;,
.
>'
proporzioni empiriche fJ11. 1 , . . • , p,._,,. per 11 --,. co.

Esempio 3.46 Riprendiamo i dati di A. Geissler (Esempio 1 .2 a p. 5) Se supponiamo che gli esiti
delle nascite in una data famiglia siano tra loro indipendenti, è: chiaro che il numero di figli maschi
in una famiglia con 10 bambini dovrebbe allora seguire una legge B ( lO , p) , dove p è la probabilità
di avere un figlio maschio in una singola nascita. Qui il numero medio di maschi in una famiglia
è 5. 17, che corrisponderebbe a un valore p = 0.517. Proviamo a confrontare le distribuzioni
empiriche, p;, con le probabilità p; di una binomiale B( lO, p). La tabella è: la seguente:

o 2 3 4 5 6 7 8 9 IO
/Ji O.OOOì 0.0073 0.0354 O . I O L3 0. 1 9 0.2446 0.2 1H6 0.13� 0.0539 0.0128 0.0014
Pi 0.00 13 0.0090 0.04 0.1024 0 . ! S4! 0.2401 0.2 141 0.[358 0.0582 0.0!5 0.0016

(attenzione: indichiamo qui con p; quello che nella tabella a p. 5 chiamavamo p;) . Si nota una
ce11a discrepanza tra i valori, confermata dal diagramma a barre della Figura 3.10. Si tratta di una
discrepanza significativa oppme aUribuibile alla casualità del campione?
Questa questione, Cl'idcntemente di grande lmportam.a, verrà ripresa nell'Esempio 5.22. Qui
ci limitiamo solo a osservare, innanzitutto, che il campione è da considerarsi molto grande (n =
26 500) e quindi differenze anche piccole devono ritenersi significative. Inoltre 1 ';1ndamento
del diagramma a ban· e della Figura 3 . 1 0 è un po' sospetto. Se la differenza tra le distribuzioni
empiriche e quelle teoriche fosse atlribuibile alla casualità ciel campione, dovremmo aspettarci
3.8 La retta di regressione 65

11igura 3.10 Le sbarre piene indicano i valori teorici Pi , le altre quelli empirici p;.
4 5 6 7 8 9 10

.
che per alcuni valori le prime siano più grandi delle seconde e vice�ersa in maniera casuale e
sen a un preciso andamento. Qui invece i valori teorici sono sempre più grandi di quelli empirici

per I valon centrah (1 = 4, 5, 6) e più piccoli per gli altri, il che fa pensare ad una sionificativa
0
differenza tra le due distribuzioni.
_ In conclu�ione ci sono indizi che il modello binomiale qui non funzioni . Ci mancano, per ora,
gh s trumenl! per arrivare ad affermarlo in maniera rigorosa (nei limiti dell'evidenza statistica) ma
notiamo che comunque . l a legge dei grandi numeri e i metodi grafici come i diagrammi a barre
danno già delle indicazioni u tili. j
Sottolineiamo comunque che in questi esempi ci stiamo ponendo il problema di verificare,
a partire dalle osservazioni, il modello di un fenomeno aleatorio . Quindi, come accennato
nell'Osservazione 3 .13, si tratta dì problenù di Statistica Matematica.
?sserviamo i �oltre che la Legge dei Grandi Numeri è conseguenza di alcune proprietà della
vananza (essenzialmente delle (3 .40) e della (3.45)), oltre che della disuguaglian7.a cli Chebyshev.
P�iché _vedremo che queste f?rmule valgono anche per le variabili continue, la Legge dei Grandi
Numen vale, con le stesse 1potes1, anche per le v.a. (X,,) ,, aventi una densità continua che
studieremo nel prossimo capitolo.

*3.8 La retta di regressione


Siano X e Y v.a. (continue o discrete). Vogliamo trovare i numeri a e b che rendono m.inìma la
quantità

(3.49) E[(Y - aX - b}2 ] .

Poiché la quantità in (3 .49) è tanto più piccola quanto più Je v.a. Y e aX + b sono vicine. il
problema in oggetto consiste nel trovare la migliore approssimaiione di Y mediante wiaf11nzio11e
lineare di X .
Si tratta di una questione d i grande .interesse applicativo: s i può pen�are che l a quantità y
rappresenti un segnale che non si può osservare direttamente, mentre X è una osserva7.ione di y
tramite un'apparecchiatura di misura, eventualmente distor1a o con l'aggiunta dì un errore. Ci si
trova quindi confrontati con il problema di dare una stima di Y mediante una funzione </J (X) della
osservazione X. Se, come prima approssimazione, ci limitiamo alle funzioni </> eh :: sono lineari
allora si stimerà Y con aX + b, dove a e b rendono minima la quantitt1 in (3 .49).
Conviene scrivere la quantità in (3 .49), sommando e sottraendo E(X) cd E(Y) nel modo
. a matematica dei singoli ternùni. Osserviamo

' Var(Y ) , E{ (X - E(X)) 2] = Var(X),


J(f'-- E(Y)) (X -- E(X))] = Cov(X, Y)
'(Y))b] � bB(Y - E(Y)J = O = E[(X - E(X))b] .

·· E[(Y - a X - b)2] = Var(Y) + a2 Var(X) - 2a Cov(X, Y) + ij2 .

...,. �� o,,.prima il minimo del!� funzione a -► Var (Y) + a Var(X) - 2a Cov(X, Y) e poi
�g]eremo di b in modo che sia b = O. Derivando rispetto ad si trova il punto critico
2

. a

Cov(X, Y)
a = Var(X)

Sostituendo nel!'espressione di b si trova che b = O se

(3.51 ) Cov(X,
h = E(Y) -
( l]_
) E(X)
Var X

La retta y = ax + b, con i valori di a e b appena calcolati si chiama la �ira··


lei'"''"""a(;�j fressio,"iel di y
'''"'�=->�
nspetto a X.
�sem�io 3.47 Sup�o�iamo che il segnale Y segua una legge di media /L e varianza 2
a (si suppone
cioè �1 sapere � pnon �he _li segnale segue una legge con queste proprietà) . Supponiam
o inoltre
c'.1 e l osse�vaztone X s1� della forma X = Y + W, dove W è una v.a. (che j:
_ _ rappresenta un errore
d1 m1suraz1one), d1 media O e varianza p2 e indipendente da y . Come si
da X ? , y a partn· .e
può stimare
Si ha
Var(X) = Var(Y) + Var(W) = a2 + p2
Cov(X, Y) = Cov(Y, Y) + Cov(W, Y) = Var(f) = a2
(Cov(W, Y) = O poiché Y e W sono indipendenti). Le fonnule precedènti danno

a1 a2 p1
a = ---i ' b = fl - --,--, /.l = ---- µ.
a2 + p u- + p·· 2 a + p2
e dunque la stima cercata è

aX + b = ---(l2 • p2 p2
X + -- --,; /L = X - -- (X - µ.)
a 2 + p2 a-? + p- a 2 + p2
3.9 La compressione
------------ --- dei segnali e il teorema di Shannon-McMillan 67

il che significa che bisogna "correggere" l'osservazione X spostandola un po' nella direzione della
media µ. di Y. Come abbiamo osservato, questa è la migliore stima di Y mediante una funzione
lineare di X. J
Osserviamo che il coefficiente a della (3 .50) ha lo stesso segno che la covarianza Cov(X, Y). Ciò
i ndica che, tendenzialmente, se la covarianza è positiva a valori grandi di X corrispondono valori
grandi di Y e, viceversa, se la covarianza è negativa a valori grandi di X corrispondono valori
piccoli di Y .
Anche qui s i può ripetere l'osservazione che è staia fatta alla fine del paragrafo precedente: le
formule ottenute per la retta di regressione, come pure l'Esempio 3.47, valgono anche per le v.a.
aventi una densità continua, che vedremo a partire dal prossimo capitolo.

*3.9 La compressione dei segnali e il teorema di Shannon-McMillan


Consideriamo un esperimento casuale consistente nella scelta a caso di una sequenza (un mes­
saggio) di lunghezza n di simboli con le regole seguenti:
a) i simboli vengono scelti indipendentemente trn di loro;
b) essi possono prendere i possibili valori x 1 , • . . , Xk (un alfabeto) con probabilità PI , . . . , Pk
rispettivamente.
Abbiamo già visto che uno spazio adeguato è n = {x1 , • • • , xkt ; Q è cioè fom1ato dalle
sequenze w = (wi , . . . , <On ), dove w; può essere uno qualunque dei simboli xi , . . . , Xk . Ripetendo
il ragionamento dell'Esempio 2.13 (dove si considerava il caso di un alfabeto composto dalle due
sole lettere O e 1) è facile vedere che è ragionevole considerare su Q la probabilità

dove

11 1 = # di coordinate di w che sono = x1


(3.52)
nk = # di coordinate di w che sono = xk •
Si chiama �?,B� di p = (p 1 , • • • , /Jk ) la quantità

/z == h (pi , . . . , Pk) = - L P; log p; .


k

i=J

Naturalmente h :".: O , poiché i numeri p; sono ::: 1 e dunque log p; ::: O. La funzione x --> -x log x
è concava ed anzi non è difficile verificare che anche h è una funzione concava di P t , . . . , Pk·
Inoltre si può vedere che, al variare di p = (p 1 , • • • , p.) nell' insieme di !Jl'• fonnato dai punti p
aventi tutte le coordinate :".: O e tali che Pl + . , . + p; = 1 , h assume un unico valore massimo in
p == ( ½ , . . . , f ) , dove vale - log i = log k. Ciò significa, in particolare, che li < log k , a meno
che non sia p = ( f , . . . , ¾), cioè che p sia la distribuzione uniforme su 1, . . . , k.
68 Capitolo 3 Modelli discreti

. , L�o i
j

Figura 3.11 Se k = 2, allora, se si pom, PI = t, necessariamente P2 = t - 1 e l'entropia di


P = (t, 1 - t) è uguale a -r logt - (1 - 1) log(l - t) . In questa figura si ripo rta il grafico della
funzione t -> -t log r - (I - 1) log{l - t). Si ritrova il fatto che l'entropia è massima per p = ( ½ , ½l -

Prima della dimostrazione, cerchiamo di capire il significato del Teorema di Shannon-McMillan.


Consideriamo il problema di registrare su qualche supporto di massa (un disco. . _ ) Io output
.
d1 un calcolatore, composto da una lunga stringa di caratleri presi dall' alfabeto x 1 , • . . , Xk - Un
problema di evidente interesse è quello di comprimere il segnale da registrare, in maniera da
occupare meno spazio. Un problema sinùle si incontra quando si deve trasmettere un segnale: un
segnale compresso richiede meno tempo di trasmissione.
_Lo spazio necessario a registrare il segnalé (ovvero il tempo necessario alla trasnùssione) è
cluaramente legato al numero dei possibili segnali: possiamo infatti supporre di associare ad
ognuno dei segnali possibili un numero (cioè di codificare il segnale) e poi trasmettere il numero
corrispondente.
Vediamo in che modo il Teorema di Shannon-McMillan permette di ridurre il numero di segnali
che è necessario considerare. Esso afferma che, per II grande, esiste u11 insieme A n di segnali, di
probabilità arbitrariamente grande (P(A,.) 2: I - ;:) e di cardinalità significativamente più piccola
di quella di Q. Infatti, grazie a 2), # A11 s e•<1i➔-,,l , mentre #Q = k" = e" log k. Abbiamo visto che
il massimo valore di 1, è proprio log k e che quest'ultimo valore si ottiene unicamente quando
p è la distribuzione uniforme su x 1 , . • • , Xk; dunque se p non è la distribuzione uniforme, si ha
li < log k. Si può quindi scegliere 17 abbastanza piccolo in modo che sia ancora li + TJ < log k.
Dunque, se p non è la distribuzione uniforme, la cardinalit1, di A. è significativamente inferiore
a quella di n: si ha addirittura
tlA11 - o
Q Ji - > 00

a velocità esponenziale.
In questo senso il Teorema d i Shannon-McMillan fornisce un metodo d i compressione: esso
infatti afferma che con grande probabilità possiamo restringere l'insieme dei possibili segnali a
quelli che si trovano in A,, , poiché la probabilità di osservare un segnale fuori da A11 è piccola.
Il 'foorcma 3.48 è in realtà una versione semplice del Teorema di Shannon-McMil!an, soprattutto
pcrchè è molto limitativo considerare solo segnali in cui i bit successivi sono indipendenti. Di
esso esistono versioni più sofisticate, in cui si prendono in considerazione strutture del se<>nale
"'
più complesse e realistiche. .
3.9 La compressione dei segnali e il teorema di Shannon-McMillan 69

Esempio 3.49 Consideriamo un segnale binario di lungheaa n per il quale si possa supporre
che i bit sono indipendenti. Supponiamo che il simbolo 1 appaia con probabilità ¼ (e dunque O
con probabilità. ¾) - Quale guadagno massimo si può pensare di ottenere nella compressione del
segnale con il Teorema di Shannon-McMillan?
Senza ricorrere alla compressione la registrazione del segnale richiede 11 bit. Usando il Teo­
rema 3.48 invece, se ci restringiamo a considerare i segnali dell'insieme An , questi sono al più
e•(h+ q) . L' entropia Jr vale in questo caso -(¼ log { + ¾ log ¾) = 0.56. Dunque per 7/ -> O (cioè
considerando la compressione massima) basta considerare un numero e056 " = 1. 75" di segnali,
che si possono codificare usando numeri binari di lunghezza
log l .75
=c. 0 . 8 1 11
log Z
11 .

È possibile quindi una compressione fino al 20% circa.

f!IW@iii del Teorema 3 .48. Perogni w € Q definiamo il vettore delle frequenze empiriche
Pn = ( fin. I , • • • , Pn.k )
dove fin.i = g/- (n ; è definito in (3.52)). In altre parole p,,_; è la proporzione di simboli in w che
sono uguali a x; , ovvero la frequenza empirica di x; in w. Indichiamo ix - yl la distanza euclidea
tra punti di l!t" :
lx - y!2 = (x 1 - y1J 2 + . . . + (x" - y" )2 .
Fissiamo un numero 8 > O e poniamo
A" = [w; lji,. - p! s 8 ) , A 11 ,i = [w; 11111,i -- p;I S :7rl. i = I. , ... • k

(p è il vettore (p1 , • • • , Pk)). Mostriamo che P(A 11 ) --,.11 _, 00 l . È chiaro che se lfJ,. - JJ I > 8,
allora almeno una delle coordinate del vettore p,, - p deve essere più grande di Se così non

fosse sarebbe

lii,, - PI = )1 J1n.l - P i i2 -i- · · • + IJJ11.k - 1h 12 S g =O·


Dunque Ae == (lp11 - pi > 8 ) e A' 1 u. . . u A' k . Per la Legge dei Grandi Numeri (vedi l 'Esempio
3 . 5) jJ,, _; "_, Pi in probabilità e dunque P(A:::i ) --,. 1 per n -> oo, per ogni i = I , . . . , I: . Dunque
4
P(A;. ) -> O e P(A�) -> O per ,r --,. oo. Ne segue che P(A ,. ) --+ I cd esisterà quindi un numero
11 0 tale che, per 11 > 110 , P(A,,) 2: I - E.
Per provare 2 ) eonùnciamo con il mostrare che, se w E A11 , allora P(w) non può essere troppo
piccola. Sappiamo che
I:
P(u>) = P? . . . p�• = exp ( L n; log p;) = exp (11 L P11. i log pi) .
k

i=] i =1
Ma se w € A11 , allora, per i = I , . . . , k, si ha I fin.i -- p; I S IPn - pi :::: li e, in particolare,
/>r.,i :s Pi + 8. Quindi, se w E A,, , ricordando che i numeri Pi sono pi(1 piccoli di 1 e dunque i
loro logaritmi sono negativi,
k k k
(3 .53) P(w) :::. exp n Ì:::(p; + lì) log p;) = exp (11
( p; log Pi - 110 LI log p;I) � e-"('•+ql
L
i=l i=I i=I
70 Capitolò 3 Modem discreti

�; :..�•· -�· �--


"-':il"�:�ndizione ,di scegliere 8 abbastanza piccolo, in modo che sia o L ��i I log p; I _:s 1'/ , Come
· ,c4�guénza di (353), si ottiene
.
·-i<-:-/t�h:.t-;?F�;�--·: i.-�:
l :è: P(A,. ) = P(w) ;o:: ffAn . e -r.Ch ·!·•1l
L
wEA._.,

é ·dunque

che completa la dimostrazione di!! punto 2).

*3.10 Funzioni generatrici


Sia X una v.a. a valori O, l . . . e poniamo, per z E IR,

(3.54)

La funzione t/fx si chiama la f%!;z(p;i�:I:{ffe?i


_ /Ì,}f(li7zte:}f.r7]b1i�i!iià) di X. Se p è la densità di
· ��
X, per il Teorema 3.3 I ,

(3.55) ifrx (z) = L z" p(n)


n=O

Quindi la funzione generatrice dipende solo dalla densità p e, se ùue v.a. hanno uguale densità ,
allora hanno anche la stessa f.g.
Nella (3 .54) siamo stati in realtà un po ' sbrigativi: perché la definizione abbia senso occorre
infatti che la v.a. zX abbia speranza matematica finita, ovvero che la serie in (3 .55) converga
assolutamente. Ma se lzl =: 1 la serie risulta maggiorata in valore assoluto, termine a termine,
dalla serie di termine generale p(n) che è convergente (e di somma = !). Dunque la funzione
generatrice Vlx è definita almeno per - 1 � z � 1 , qualunque sia la v.a. X. Naturalmente può
succedere che il raggio di convergenza della serie sia più grande. È il caso ad esempio se X prende
solo un numero finito di valori. In questo caso la serie in (3.55) si riduce a una somma finita (e la
funzione generatrice è un polinomio).
Esempi 3.50 L, f.g. si calcola sommando la serie che compare nella (3.55).
a) (Leggi binomiali) Se X ~ R(11 , p) , allora ricordando lo sviluppo del binomio

b) (Leggi cli Poisson) Se X è di Poisson di parametro À. allora


3.1 O Funzioni generatrici 71

e) (Legge geometrica) Se X ha legge geometrica di parametro p allora, ricordando come si


somma una serie geometrica,

>/,x(z) = f
n=O
zn p ( I - p) " = f
ll=O
p(z(l - p) ) " = 1 - zfi - p)

a condizione che sia lz(l - p) I < 1 , altrimenti la serie non converge. In questo caso la funzione
generatrice è definita per lzl < -2-;,. I
Abbiamo visto che se X e Y hanno la stessa densità, allora hanno anche la stessa funzione.
generatrice. Ancora più importante è il viceversa: se X e Y hanno la stessa f.g. allora hanno la
stessa densità. In effetti (3.55) definisce la funzione ifrx dandone lo sviluppo in serie di potenze,
che sappiamo essere unico: se per una funzione ,fr si ha

,fl(z) = L DnZ"
n=U

al variare di z in un intervallo aperto contenente O, allora necessariamente

l d" -.frx
0 .
a,, = n! dx• ( )
Dunque, se v, è la f.g. della v.a. X, necessariamente la densità di X è

1 d" ,frx
(3.56) Px (n) = ).
n! dx" (0
Questa relazione fornisce un metodo concreto per ricavare la densità di una v.a. di cui si conosca
la funzione generatrice; esso può rivelarsi però poco pratico se le derivate successive di ifrx non
si calcolano facilmente. Ricordiamo perciò che la (3.56) fornisce solo uno dei metodi possibili.
Ogni metodo di calcolo dì uno sviluppo in serie di potenze è infatti utilizzabile.
Esempio 3.51 Sia X una v.a. avente funzione generatrice

t/fx (z) = e'-C,'-iJ

Qual è la densità di X?
Se provassimo a fare le derivate successive, come in (3 .56), saremmo presto in difficoltà perché
il calcolo delle derivate diventa sempre più laborioso al crescere di 11. Basta invece osservare che

Dunque, sostituendo z2 a z,
"1x(z) = e -À I:: z211 - ·
11!
0

11=0
À
72 Capitolo 3 Modelli discreti

La densità di X è dunque

. n
p (k) = { e-! Ànf se k = 211 = O, 2, 4, . .
O altrimenti .

Buona parte dell'importanza delle f.g. è dovuta alla proposizione seguente.

;f{fitliii�ir�:1,11�;iillft;,tii
��
Se X e Y sono indipendenti, allora per la Proposizione 3.33 applicata alle v.a.
z e z , che sono anch'esse indipendenti per la Proposizione 3.22,

Il calcolo della funzione generatrice di una somma di v.a. indipendenti è dunque molto semplice.
Ciò suggerisce un modo di calcolo della densità della somma di v.a. indipendenti che è talvolta più
agevole del calcolo della serie della Proposizione 3.26: si calcolano le f.g. di X e Y e, attraverso
la Proposizione 3.52, si ha immediatamente la f.g. di X + Y. A partire da questa si calcola la
densità di X + Y sviluppando in serie come abbiamo visto poco fa.
Questa tecnica non funziona sempre (soprattutto lo sviluppo in serie di iJrx+r può risultare
complicato), ma è talvolta molto efficace.

Esempio 3.53 Siano X e Y indipendenti e di Poisson di parametri À e µ, rispettivamente. Qual è


la densità di X + Y'!
Conosciamo già il risultato (Esempio 3 .27). Usando le funzioni generatrici il ragionamento è
iimnediato:

Riconosciamo che X + Y ha la stessa f.g. di una legge di Poisson di parametro ). + µ,. Poiché la
f.g. individua la legge, X + Y è di Poisson di parametro ). + µ,.

Esempio 3.54 Siano X e Y v.a. indipendenti di legge geometrica di parametro p. Qual è la legge
di X + Y ?
Mettendo insieme l'Esempio 3.50 e) e la Proposizione 3.52,

1/tx-p· (z) = 1/tx (z),fty(Z) = ( I _ zC- p))2


Per dctcrniinare la densità di X + Y, basta ricordare lo sviluppo in serie di potenze
ro
l
-- ·- = °"(n + l )t" .
3.1 O Funzioni generatrici 73

Dunque, sostituendo I = z ( l - p) ,
P2 ·L>2c11 + 1)c1 - p)"z" •
(1 - z ( l - p))2
=
n=O
e quindi P x+r (n ) = p2 (n + 1) ( 1 - pt , 11 = O, 1, 2 . . .

Dalla conoscenza di ,Jrx si possono calcolare media e la varianza d i X . Vediamo come: d a (3 .55)
derivando si ha
iJr� (z) = 1 p(n)
I>z"-
n �I
e dunque, se il raggio di convergenza della serie in (3 .55) è > 1, ponendo z = I ,

(3.57) iJrk O) = I: 11p (11) = E[X] .


n=l

Derivando un'altra volta


,ftf! (z) = L 11 (11 - l)z"-2 p(n)
e dunque
n=2

,ftf( l ) = 2)112 - n) p (n) = L(n2 - 11) p(11) = E[X2J - E[XJ

per cui
n=2

(3.58) Var(X) = E[X2J - E[XJ 2 = t/,f!. (l ) + 1/,:� 0 ) - ,t,{ (1 ) .


2

Esempio 355 (Media e varianza di una v.a. geometrica) Se X è geometrica di parametro p , allora

,( ) p (l - p) ,, 2p(l - p)2
1/tx z = (I - z ( l - p))2 . 1"x (z) = (1 - z( I - p))3

e dunque
l
E[XJ = _-_P:_
2p(l - p)2 l - p (1 - p)2 I - p
p
Var(X) = 3 + -···- - -
p2 - -
-
p2 ·
p p
Se z = X + l è geometrica modificata, allora E(Z) "" Naturalmente Var (Z) = Var(X) =
i. 0 7f.
Le f.g. sono utili anche per calcolare l a legge delle somme aleatorie SN dell'Esempio 3.29.

�'i!�tai:�r;g't{1{�t1�ìflj�tf�m!J���;tfJ:�,l��g2:tt"
Vr<i.) � vr�ci'x<z)! .
74 Capitolo 3 Modelli dis_creti

l@@fij-ij Ricordando che 1/fs, (z) = 1/lx (d , da (3 .29) si ha


l/t(z) = I:, z k P(SN = k) =
k=O
f f
l P(S; = k) P(N = i) =
k=O ;=O

= f
i=O
r(N = i) f
k=O
zkP{S; = k) = fi=O
(-rfrx (z)) P(N = i) = VfN (l/fx (z )) .
i

1111111
Esempio 357 Abbiamo già visto (Esempio 3.30) che se le v.a. N, X 1 , X2, . . . sono in�pendent!
con N di Poisson di parametro ). e le X; di Bernoulli B(I, p), allora la somma aleatona SN è dt
Poisson di parametro J..p. Con l'uso delle f.g. è immediato ritrovare questo fatto: si ha infatti
o/N (Z) = e1(:-l l e 1/tx; (z) = I - p + zp. Dunque

1/fsN (z) = YN (,J.rx, (z)) == e·'-( l -p+<p-l J = e Ap (,-JJ


che è appunto la f.g. di una v.a. di Poisson di parametro J..p .

Esempio 3.58 50 monete vengono lanciate simultaneamente. Dopo il lancio quelle che hanno dato
croce vengono eliminate e si lanciano di nuovo quelle che restano. Si continua così eliminando
ogni volta le monete che danno croce e lanciando le rimanenti, fino a che tutte le monete sono
state eliminate. Indichiamo con Z; il numero di monete ancora in gioco dopo i lanci. Qual è la
legge di Z; ? Indichiamo con T il numero di lanci necessario per eliminare tutte le monete (cioè
T = i se Z, = O m:i Z,_ 1 > 0). Qual è la legge di T?
È chiaro che z 1 ~ 8 (50, ½), perché Z ! si può scrivere come una somma di 50 v.a. indipendenti
di Bernoulli B(l, ½). Un attimo di riflessione mostra che Z2 è a sua volta la somma di Z 1 v.a.
indipendenti tutte di legge 8 ( 1 , ½)- Ricordando che l a f.g. di una legge B(n, p) è z -➔ (1 -p+pz) n
e quindi quella di una B( l , ½) è z --,. (1 - ½ + � ) , per la Proposizione 3.56 si ha

1 I l z))so = ( l - 41 + 4z: ) 50 .
( ( -
l/tz, z} = I - 2 + 2 ( l 2 + 2

Questa è la f.g. di una v.a. B (50, } ) e dunque Z2 ~ B(50, ¼)- Ripetendo il ragionamento e
osservando che Z3 è una somma di Z2 v.a. indipendenti di legge R ( l , ½ ) si ricava facilmente
ripetendo il calcolo appena fatto che Z3 ~ B(50, ¾ ) e per ricorrenza Zn ~ 8(50, 2-") .
Resia d a calcolare l a densità d i T . Conviene (come spesso succede con l e v.a. che sono dei
tempi di at1esa) calcolarne prima la funzione di ripmtizione. In effetti (T ::: i} = {Z; = OJ e
dunque
P(T ::: i) = P( Z; = O) = O
(50)( 'i[1 )0(I - 1 )50 = ( 1 - 1 )50
7J if
J )50
P(T = i). = P(T < i) - P(T < i - 1) = 1 - ...., - { l - -.-1
( I )so I

- - . 2• , 2• -
4
Modelli continui

4.1 Definizioni
Nel capitolo precedente abbiamo considerato la nozione di variabile aleatoria in situa?ioni in cui
si modellizzavano quantità che prendono al più una infinità numerabile di valori. È facile però
immaginare quantità casuali che possono �ssumere qualunque valore in JR (oppure in u n intervallo
di JR).
Se, come nell'Esempio 2.2, vogliamo studiare il primo istante in cui un componente elettronico
smette di funzionare (il tempo di vita del componente) siamo condotti a considerare una quantità
casuale che può prendere qualunque valore reale � O.
Le idee fondamentali che abbiamo sviluppato per le v.a. discrete restano valide per le v.a. che
studieremo ora. Vedremo che, a parte alcune differenze tecniche (le somme saranno sostituite da
integrali) anche le formule e le dimostrazioni saranno simili a quelle del caso discreto.

Sia dunque X una v.a., nel senso della Definizione 3.2. Poiché {X ::: I} è un evento, ha senso
calcolare la probabilità P(X ::: t). Dunque, come già osservato a p. 4 1 , si può definire la funzione
di ripartizione
F(t} = P(X ::: t)

Osserviamo intanto che, se di una v .a. si conosce la funzione di ripa1tizione F, allora si conosce
anche la quantità

P(a < X :o b) == P(X ::: b) - P(X :'.o a) = F(b) ··· F(a)


.
Se la f.r. F è continua, diversamente da quanto accade per le v.a. discrete, si ha

(4. 1 ) P(X == x) = 0, perogni .x E lR .

Tnfatti , per ogni 11 , (X = .x} e {x - ¾ ::: X '.'o x) e dunque


P(X = x) ::: P(x - ¼ ::: X ::: x) = F(x) - F (x - ¾) .
76 Capitolo 4 Modelli conlinui

Basta ora prendere i l limite per n ➔ oo nel termine d i destra e osservare esso tende a O. Osserviamo ·
che per una v.a. X, avente una f.r. continua, le quantità
P(a < X < b),
P(a :s X < b),
P(a < X s b),
P(a s X S b),
sono uguali. Infat ti, ad esempio,
P(a :5 X < b) - P(a < X < b) = P ( X = a) = O .
Siano � una v.a. e Fx la sua f.r. Sia f : JR. -► R una funzione integrabile; diremo che X ha
�.i!® f se, per ogni x E JR, si ha
(4.2) Fx (x) = [� f(l) dt .

Osserviamo, a voler essere precisi, che la densità f associala ad una v.a. X trarrùte ( 4.2) non è
unica: se g, ad esempio, è una funzione che differisce da f solo in un punto (o, più in generale, in
un insieme di misura nulla), allora gli integrali in (4.2) non cambiano s�si sostituisce g___;i_ f.;j_unque
anche g è una densità per x. Una V.a. che ha densità si dice che è @'sTd!Ua,ii!iiticb11ti_;illii],
La (4 .2) è equivalente a
b
(4.3) P(a :5 X :5 b) = Fx (b) - Fx (a) = 1 f (t)dt

per ogni a, b E R, a :5 b.
È chiaro che, se X ha densità, allora la sua f.r. è continua e dunque vale la (4.1).
Per la (4.3) inoltre la densità f gode della proprietà che il suo integrale su ogni intervallo deve
essere 2: O . Si può dimostrare che questo implica che f � O e inoltre che

(4.4)
l +oo
-00
f(x) dx = 1 .

Grazie alla (4.3) il calcolo e.li eventi del tipo {a :::: X s b) si riconduce al calcolo di un integrale
(Figura 4.1 ). In particolare le regioni in cui f assume valori grandi sono regioni nelle quali X
prende valori con probabilità elevata.

I
(I b
Vigura 4.J Se questo è il grafico della densità di una v.a. X, la probabilit:1 P(a < X ::: b) è uguak
4.1 Definizioni n

La (4.2) permette, almeno in teoria, di calcolare la f.r. F se si conosce la densità f. Viceversa,


supponiamo nota la f.r. F e supponiamo di voler calcolare la densità f (o meglio una densità /).
per questo basta osservare che (4.2) non fa che affermare che F è la funzione integrale di / . Per
il teorema fondamentale del calcolo integrale se F è derivabile con derivata continua su tutto lR
(tranne al più in un numero finito di punti) allora F è la funzione integrale della sua derivata F'.
Dunque f = F' può essere scelta come densità per F.

Esem pio 4.1 Supponiamo che una v.a. X abbia una f.r. data da (vedi la Figura 4.2)
O se t < 0
Fx (t) ={1 se O :::: t :5 1
I se t > ! .
Osserviamo che Fx è continua. Inoltre si può dire che X prende valori nell'intervallo [O, I ].
poiché P(0 :::: X :5 1) = 17>: (I) - 17>: (O) = l . Infine Fx è derivabile con derivata continua, trnnne
che in O e in I . Una densità è dunque data dalla sua derivata, che vale
I se O < t < I
f( )
t = {O altrimenti .

Figura 4.2 Il grafico di Fx .

Osserviamo che, se O s a < b :5 1, si ha


b
P{a :5 X :5 b) = 1 dt = b - a
Cioè la probabilità che X assuma valori in un sottoinlervallo [a . hj di [O, J] dipende solo dall'am­
piezza del souointervallo e non, ad esempio, da dove esso è collocato. Quindi si tralla di una v.a.
che prende, in �n certo senso, ogni valore in [O, 1] C�!J,4:JICs�� _probabilità. Diremo, in analogia
;
con la nozione introdotta nel paragrafo 2.2, che X è UIJ.! iforpze ; rn [O, 1].
Si possono facilmente definire delle densità / umform1 su un 1ntervallo [e, ti] . con e, cl E IR,
e < d. Infatti, se / è uguale ad una costante k su [e, cl] e vale O al cli fuori, si ha ancora, per
e ::: a < b :5 d e indicando con X una v.a. cli densità /,
b
P (a :5 X :5 b ) = 1 k dt = k(b - a)
e si vede ancora che P(a :5 X ::' b) dipende solo dall'ampiezza dell'intervallo [a, b]. La cost;u!le
k resta determinata dal fatto che deve essere
d
l =1 f (t ) dt = k(d - e)
78 Capitolo 4 Modelli continui

e dunque k = ;t-:;:-

Esempio 4.2 Si chiama (espo�1e11ziale / di parametro 1 la densità


. se t > O
(4.5) fx (t) = { �e-J '
altrimenti .
È immediato verificare che f soddisfa alla condiiione (4.4). La f.r. di X si calcola facilmente:
Fx (t) = O per t :::: O. mentre

Fx (t) = À Jf' e->-, d.1· = 1 - e- �,


o
per t > O. Se X è esponenziale di parametro À e s, t > O, si ha
P( t + s, X > t) P(X > t + s)
- X>
l'(X > t + s· ! X > I ) -
P(X > I) P(X > t)
(4.6)
= � = e__,_, = P(X > s) .
e-À(l+s)

Dunque le leggi esponenziali godono anch'esse della proprietà di mancanza di memoria, che
avevamo già messo in evidenza per le v.a. geometriche.
Vedremo meglio, più tardi, che le v.a. esponenziali appaiono in maniera naturale per mo­
dellizzare dei tempi d'attesa. La proprietà di assenza di memoria è allora utile per capire il
campo di applicazione di questo modello. Ad esempio non si userà una densità esponenziale per
modellizzare il tempo di rottura di un 'apparecchiatura soggetta a usura, per la quale dunque più
è grande il tempo di servizio, più è grande la probabilità di una rottura imminente.

Supponiamo che la f.r. Fx sia cont.inua. Per il teorema dei valori intermedi l'equazione
(4. 7) Fx (x) = et
ha sicuramente soluzione per ogni O < a < 1 . Se per di più Fx è strettamente crescente (il
che succede ad esempio se X ha densit1, strettamente positiva), aliora questa soluzione è unica.
Jndichiamola con l]a : lJa è dunque l'unico numero reale tale che
P(X _:::: lJ« ) = a .
q" si chiama il �@� di ordine a di X. Si chiama 1Ì(ei!iq1�J di X il quantile q 112 ; si tratta
cioè di quel numero lll tale che P(X :::: m) = ½ - Naturalmente si ha anche P(X 2: m) = i·

2 4 6 8 10
,--=,--,
Figurn 43 Il quanlile qa , per O < a < I , I: quel numero tale che !'are.� ombreggiata abbi• superficie
uguale ad a. Qui Ì! indicato il quantile di ordine a = 0.1, cioè la superficie ombreggiata ha area O.I.
Questo è il grafico di una densità f(3, 1), che vcnà introdotta nel paragrafo 4.5.
4.2 Calcolo di leggi 79

0.25 1�
0.2

:,: � 2 q1 _n 4 6 8 10
Figura 4.4 Per la stessa densità della Figura 4.3 qui troviamo segnata la mediana= q112 , cioè la
superficie ombreggiata ha area ½, come pure l'altra metà del sottogralico.

Esempio 4.3 S.ia X una v.a. esponenziale di parametro À. Quanto vale il suo quantile di ordine
a? Quanto vale la sua mediana?
Per trovare il quantile di ordine a, O < et < I, occorre risolvere l'equazione (4.7). Abbiamo
visto che la funzione di ripartizione di una v,a. esponenziale è Fx (x) = 1 - e -u, per cui
l 'equazione precedente ha soluzione

qa = _ .!_ Ioga
).
e, scegliendo o· = ½, troviamo che la mediana è uguale a
1 1
lJI/2 = -). log = ). log2 .
J
2

4.2 Calcolo di leggi


Molti problemi di probabilità si riconducono alla determinazione di una densità, per poi calcolare
la probabilità di eventi tramite il calcolo di integrali come nella (4.3).
Spesso il problema si riconduce al calcolo della densità di una v.a. della forma ,p (X), dove X
è una v.a. di cui si conosce la densità f e ,p è una funzione lR -+ [�. A differenza del caso delle
v.a. discrete, ora bisogna fare un po' di attenzione perché, date una v.a. X ed una funzione ,p, non
è detto che ip(X) sia sempre una v.a., a differenza del caso discreto in cui ciò era sempre vero.
Si può però dimo.�trnre che t/J (X) è una v.a. non appena rj, sia abbastanza regolare. Ad esempio
se ,/J è continua oppure comunque del tipo delle funzioni che si incontrano abitualmente nei corsi
di calcolo (cioè, in pratica, quasi sempre). Faremo tacitamente l'ipotesi che ef, soddisfi a queste
condizioni, per cui ,j, (X) sarà sicuramente una v.a. d ' ora in avanti.
Vedremo in questo paragrafo vari modi per calcolare la legge di 4> (X) .
Un primo metodo consiste nel detem1inare prima la f.r. di <!>(X); essa si può in teoria sempre
ottenere con la relazione
G (t) = P(</> (X) ::S r) = P(</>(X) E) - oo, t]) = P(X E ,p - 1 () - oo, t])) =
(4.8) f /(x) dx .
4>- 1 0-00.1])

Una volta determinata la f.r. C, la densità g si ottiene per de1ivazione, come nell'esempio seguente.
80 Capitolo 4 Modelli continui

Esempio 4.4 Sia X una v.a. reale di densità f . Qual è la densità di X2 ?


n questo caso <P (x) = x2 e, se t > O, <f,- 1 (1 - oo, tl) = [- ✓i, -v'tJ; il calcolo in (4.8) è quindi
_ �
tacile: se I > O,

G (t) = P (X2 :5 t ) = P(-✓ì :5 X :5 ✓ì) = Fx(✓ì) - Fx (-✓ì)


e, derivando,

(4. 9) l
= G'(t) = ✓i (J (✓i) + f(- ✓ì))
2
g(t)

mentre chi�ramente � (I) � O pert :5 O (X2 prende solo valori ?:; O): Non abbiamo però la g�anzia
che (4.9) d '.a la densità d1 X2 perché non sappiamo se siamo nelle condizioni in cui derivando
la f r. s'. ott.Jene la densità (sappiamo che la densità sì ottiene derivando la f.r F solo se questa è
: _
denvab1le con derivata continua). Si può però veri ficare direttamente che la funzione g data dalla
.
(4.9) ha effettivamente G come funzione integrale. Infatti

I
-oo 1, g (s) ds =
1' ? r.:U<✓s) + f ( -- ✓s)) ds
O --,tS
e, con il cambio di variabile 11 = ✓s ,
Jr
1,-oo
g(s) ds =
1
o ✓,
(f (u) + f( -11)) du = 1 - Jr
J(u) du = Fx(✓i) - Fx(--✓i) = G(I) .

D'ora in avanti ricaveremo sempre la densità dalla f.r. per derivazione, tralasciando la oiustifi­
cazione di questa operazione, che si potrà sempre ottenere con opportuni cambiamenti di v:rìabile
come qui sopra.
Esempio 4.5 Siano X una v.a. di densità f e a, b numeri reali con a ,t, O. Qual è la densità di
aX + b?
Supponiamo a > O, allora

G(t) = P(aX + h .:5 t) = P(X :5 1·;/ ) = Fx ( ':b )


e, derivando,
g(t) = G' (t) = � f('-/) .

Se invece a < O, bisogna stare attenti al cambio di verso nella disuguaglianza:

G(t) "' l'(aX + b :5 t) = P(X ?: ';b ) = I - Fx(!.'f!-!)


e quindi

a ,, ) .
g(t) = G'(t) = -� f( r-1,

Mettendo insieme i due casi si ha, qualnnque sia il segno di a,

4.10)
4.2 Calcolo di leggi 81

In particolare, se scegliamo a = - 1 e b = O, troviamo che -X ha densità g (t) = J(-t) . Dunque


se la densità J è una funzione pari, le due v.a. X e -X hanno la stessa densità. Si dice in questo
caso che X è Gr;;J;;�fri;;':.
J
La nozione d'indipendenza di v.a., che abbiamo visto per le v.a. discrete nella Definizione 3.19,
si può dare anche per il caso generale (cioè per v.a. non necessariamente discrete). In generale
vale la definizione seguente, che si potrebbe d imostrare che implica la Definizione 3.19 se le v.a.
sono discrete.

\<aTr X(:<: f1!::,A, ;_f!i/ - J,;(_:i:/m�tt(tti1- �i1,�};f :·-�1;tC!ni s i�, i_ bm)


-
t

In particolare, scegliendo a 1 = . . . = a,,, = -oo, si trova che, per delle v.a. indipendenti,
';, , .-·· -�_-,

L'esempio seguente mostra come questa relazione possa servire a calcolare la densità di v.a . che
sono funzione di v.a. indipendenti.
Esempio 4.7 Siano X, Y v.a. indipendenti di densitlt esponenziale di parametri À e IL rispettiva­
mente. Qual è la densità di Z = max(X, Y)?
Calcoliamo la f.r. di Z: Fz(I) = P(Z :5 t ) = P(max(X, Y) :5 t) . Osserviamo che si ha
max(X, Y) :5 t se e solo se simultaneamente X :5 1 e Y :5 I. Dunque, poiché X e Y sono
indipendenti,
Fz (I ) = P(Z ::: 1) = P(X :5 t , Y :5 t) = P(X :5 t)P(Y :o t ) = Fx (t)Fy(I ) .
Derivando si ottiene quindi la densità

per t > O. Naturalmente /z(!) = O per t :5 O.


La dcnsitlt di v.a. <le! tipo max(X, Y) può apparire in maniera naturale nelle applicazioni. Ad
esempio, se X e Y rappresentano il tempo di vita di due apparecchiature indipendenti, max(X, Y)
rappresenta il tempo di rottura di un sistema formato dalle due apparecchiature in parallelo (che
quindi continua a funzionare fintanto che almeno una delle due funziona). Il tempo di rottura di un
sistema in cui i due clementi sono messi in serie avrà invece come tempo di rottura W = min (X, Y).
La densità di questa v.a. si calcola in maniera simile. Però conviene ora calcolare l - Fw . Infatti,
dire che min(X, Y) > t è lo stesso che dire che X > t e Y > t . Dunque, per t > O,
1 - Fw(t) = P( W > t) = P(min(X, Y} > t ) = P ( X > t , Y > 1) = P(X > r)P(Y > t ) = e -i,e- 1"

da cui, pc. r > O, Fw (t) = I - c·--Arc -w = I - c··().+µ )r. Dcrivaudo troviamo che la densità di W
è, sempre per 1 > O, (À + µ) e-P-+1•l' : W è anch 'essa cspone117jaJe, ma di parametro )._ + µ .
82 Capitolo 4 Modelli continui

*4.3 Densità congiunte


Come nel caso discreto è opportuno studiare delle v.a. multidimensionali. Supponiamo ad esem'
pio di considerare due dispositivi indipendenti aventi tempi di rottura esponenziali di parametri
>,_ e J.L rispettivamente. Qual è la probabilità che il primo si rompa prima del secondo? A quest;
domanda sarà facile rispondere con le nozioni di questo paragrafo. l '.
Sia (Q, .11., P) uno spazio di probabilità e Z ; Q -,. JR"' un'applicazione. Ricordiamo (Definì.:
zione 3.15) che Z è una v.a. m-dimensionale se le sue componenti Z1 , . . . , Zm sono delle v.a:
(reali). Per semplicità nel seguito supporremo m = 2 e indicheremo con ?[. Y le componenti dellà
v.a. bidìmension�le Z = (X, Y) . Diremo che X e Y hanno \de,j�itp!'�qfz� f. f ; �2 -.- R,
se f è integrabile, positiva e tale che, per A e IR.2

(4 . 1 1) P((X, Y) e: A) = P(Z E A) cc i f(u, v) du dv .

Scegliendo A = JP..2 si vede subito che deve essere

(4. 12) f J(z) clz = I .


]p,.2
Osservazione 4.S Se le v.a. X e Y sono discrete, abbiamo visto nel capitolo 2 che l'insieme
((X, Y) E A} e Q è un evento, qualunque sia il sottoinsieme A e JR . Se X e Y non sono discrete
I ciò non è più vero in generale e si conoscono esempi di sottoinsiemi A e iR tali che {(X, Y) E A} ;
2

non è un evento (e tali quindi che non si può calcolare la probabilità P((X, Y) E A)).
2

Dctcrminare qualì siano i sottoinsiemi A e lft2 tali che { (X, Y) E A) sia un eventoè un problema
che va al dì là degli scopi di questo testo. Si può però dimostrare che perché ciò sia vero basta
che A sia un sottoinsieme di JR2 abbastanza regolare. In particolare {(X, Y) E A} è un evento se
A è uno dei sottoinsiemi di 11{2 che s'incontrano nei corsi sugli integrali multipli.
Una questione simile si presenta quando, data una funzione ip ; H.2 -> JR, si considera
l'applicazione <f,(Z), dove Z = (X. Y). Se X e Y sono discrete,ql (Z) è sempre una v.a.,qualunque
sia ,P. Ciò non è più vero in generale: occorre ora qualche ipotesi dì regolarità su ,P. Nei casi
concreti queste ipotesi sono però quasi sempre soddisfatte; lo sono ad esempio per le funzioni
che s'incontrano nei corsi sugli integrali multipli.
In conclusione se determinare quali siano gli i nsiemi A e lR2 tali che [(X, Y) E A) sia un
evento e quali siano le funzioni ,P tali che </>(Z) sia una v.a. è un problema delicato, d'altra parte
vi sono delle condizioni sufficienti su A e </J che sono verificate praticamente in tutti i casi che
s'incontrano di solito.
I
Osserviamo che la (4. 1 1 ) riconduce il calcolo della probabilità di alcuni eventi al calcolo di un
integrale multiplo e per di più in senso improprio, perché sia l'insieme d'imcgrazione A che
!'integrando f possono non essere limitati.
Come per le v.a. discrete si possono ricavare dalle quantità congiunte (f.r., densità) le rispettive
quantità marginali. Se f è la densità congiunta di X e Y, come si può ottenere la densità di X?
Si può scrivere [a ::: X ::: b) = { (X, Y) E ;\) dove A = {(11. v) ; a :e u :S b, v E JR} e, per la
(4.1 1),

P(a :S X :S b) = P((X, Y) E A) =
1 f(u, v) du dv =
1 du f(u , v)dv .
4.3 Densità congiunte 83

Dunque se poniamo

+ /(11, v) dv
(4. 1 3) fx (u) ""
1 -oo00

allora si ha b
P(a :S X :S b) = l fy_ (u) du

che vuole dire che Jx data dalla (4.13) è la(o meglio wia) densità per X. Analogamente la densità
Jy dì Y si ottiene mediante la formula

(4.14) r J(u, v) du .
fr(v) = 1-oo
+°"

Jn particolare, se esiste una densità congiunta f, allora esistono le L1.:!'.sita ii1d;ij__;(§J[ fx ': [r
che si possono calcolare facilmente con le (4.13) e (4.14). Vedremo, viceversa, cfie e possibile
che due v.a. X e Y abbiano ciascuna una densità, senza però che esista una densità congiunta.
Esempio 4.9 La nozione di distribuzione uniforme, che abbiamo incontrato a p. 20 e nell'Esempio
4.1 , si può estendere al caso di densità multidimensionali. Sia A e .IR.m un insieme di misura finita
e consideriamo la densità f che vale O su A c e prende il valore costante ;;;;-k:TT su A (mìs(A) è la
misura dì Riemann di A). Si tratta dì una funzione � O che evidentemente soddisfa alla condizione
(4. 12). Se una v.a. X ha densità f e B e A, allora

mis(B)
P(X E B) = f(x)dx = --:---(
1B ll! IS A)

e troviamo ancora la proprietà caratteristica delle distribuzioni uniformi: la probabilità P(X E B)


per un sottoinsieme B di A dipende solo dalla misura di B (e non, ad esempio, dalla sua forma o
dalla sua collocazione).

Esempio 4.10 (Distribuzione uniforme sul cerchio) Sia Z = (X, Y) una v.a. uniforme sul cerchio
di raggio I , cioè di densità
se x2 + y2 :S 1
f(x , y) = { ;
altrimenti .
Calcoliamo k densità marginali. Nel calcolo dell'integrale nella (4.13) fissiamo 11, con -- 1 S u S
I. Allora, come funzione di v tenendo u fissato, sì ha f (u, v) = ¾ se 112 + v2 :'.:' I , ovvero se
---/! - 112 � v :S � e f(tt, v) = O altrimenti. Dunque l ' integrale della (4.13) diventa
�i
fx ( t,) = J .!._ dv = 3._ � -
rr rr
_..r,:-;:I
_...ri=;;z -------

F!g_ura 4.5 Se --: l S II S I , Jx(u) è uguale alla lunghezza del segmento segnato con il tratto spesso
d1v1sa per rr.

Se invece 1111 > l si vede facilmente che l(u, v) = O per ogni v. In conclusione

" . 1 -- u2 se --1 .::= u .::= I


JX (li ) = {3 J
O altrimenti .
rr

e analogamente

fy(v) = { � J1 - u
2 se - 1 .::= v .5 1
O altrimenti .

Supponiamo che X e Y siano v.a. indipendcnti, <li densità congiunta f e marginali lx . Jr . Allora la
elazione d'indipendenza P(a , .::: X1 :S b 1 , a2 s X2 s hz) = P(a 1 s X 1 s bi ) P(a2 s x2 s bi),
critta in termini di densità, diviene

4. 1 5)
i d b
[ f(x, y) dx dy = [d b
fr (Y) dy 1 fx (x) dx .
e

Quest'uguaglianza è certo soddisfatta se

4. 1 6) f(x, y) = fx (x) fy (y)

er ogni x, y . Viceversa si può dimostrare che, se vale la (4.15) per ogni scelta di a s b, e .5 d,
llora necessariamente deve valere la (4.1 6), (tranne al più per un insieme dì punti (x, y) di misura
i Riemann nulla). In altre parole la condizione (4.16) è equivalente all ' indipe ndenza di X e Y.
Quindi, analogamente a quanto si è visto per le v.a. discrete, per determinare l 'indipendenza
i due v.a. X e Y basta conoscere la loro densità congiunta f: a partire da J si possono calcolare
e densità marginali lx e fy tramite le (4 . 1 3) e (4 .14) e quindi verificare se vale la (4.16).
In particolare se X, Y sono indipendenti e U, V sono altre v.a. ave111i la stessa densità con­
iu11ta, allora anche U e V sono i11dipe11de111i.

ichiamo 4.11 (Calcolo di integrali multipli) La (4. 1 1) riconduce il calcolo della probabilità
i Jlcuni eventi al calcolo di un integrale multiplo e per di più in senso improprio, perché sia
insieme d'inregrazione A che !'integrando f possono non essere limitati.
Richiamiamo ora alcune regole di calcolo degli integrali multipli. Nel seguito considereremo
n insieme A e IR2 m isurabile secondo Riemann e una funzione J integrabile su A. Non ci
4.3 Densità congiunte 65

cureremo di dare le definizioni né di come l'integrale multiplo viene definito, ma solo di come,
n ella pratica, il calcolo si può effettuare. Supponiamo inizialmente che f ed A siano limitati e
che A sia normale rispetto all'asse x, ovvero che sia della forma
A = ((x, y); a :S x .5 b, ,f, (x) S y :s </J (x)]
dove ,P e i/I sono due funzioni sufficientemente regolari. Allora si ha

(4. 17) ff f(x, y) dx dy = [ dx 1


la
b 4\(xJ

v<x>
f(x, y) dy .
A

Più precisamente l'integrale


1�(x)
j(x , y) dy ,
1,(x}
che è un integrale unidimensionale nella sola variabile y (x qui è fissato), esiste tranne che per x in
un insieme di misura nulla. Il risultato cli questa prima integrazione è una funzione della variabile
x che, integrata da a a b, dà il valore dell'integrale doppio di f su A. Il calcolo di quest'ultimo
i
viene così ricondotto a quello di due integrali su R.
Se invece A è normale rispetto ali'asse y , cioè della forma A = ( (x, y) ; e s y :'.:: d, -i, (y) :'.::
x s �(y)), allora vale la formula

{4.18) Jf f(x, y)dx dy = l


,
d
dy (�(y} f(x, y) dx .
h(y)
A

Se A è normale rispetto a entrambi gli assi l 'integrale doppio si può calcolare sia mediante
la (4.17) che la (4.18) (che quindi danno lo stesso risultato). Se A non è nonnale si procede
decomponendolo nella unione di sottoinsiemi misurabili A i , . . . , Ak disgiunti e normali rispetto
a uno degli assi e l 'integrale su A è dato dalla somma degli integra lì su A 1 , . . . , Ak, calcolati
tramite le (4 .17) o (4 .18).
Le (4.17) e (4.JS) restano valide se f oppure A (o entrambi) non sono limitati, a condizione
che l 'integrale converga assolutamente, ovvero a condizione che sia

dx lf(x. y)i dy s +oo ovvero dy _ 1/(x, y)I dx :S +oo .


1ab 1,�(x)
v(x) e 1/
1 y,(y)
1�(y}

Naturalmente può succedere che alcune delle quantità a, b, c,d , <p (x) , Y1 (x) ,<f}(y), "if, (y) assumano
i valori +oo oppure -oo e che gli integrali su JR che figurano nel termine a destra delle (4.17) o
(4.18) siano degli integrali generalizzati.

Esempio 4.12 Riprendiamo l'esempio introdollo all' inizio di questo paragrafo: due dispositivi
indipendenti hanno tempo dì rottura esponenziale di parametri ), e µ. rispettivamente. Qual è la
probabilità che il primo si rompa prima del secondo?
Se indichiamo con X e Y i tempi di rottura dei due dispositivi (X è quello di parametro À,
Y quello di parametro µ,) , allora la probabilità richiesta non è altro che P(X > Y). Ma si puù
scrivere
P(X > Y) = P((X, Y) E A)
86 Capitolo 4 Modelli continui

dove A è la porzione di piano in cui l'ascissa è più grande dell'ordinata (ombreggiata nella Figura
4 .6). Dobbiamo dunque calcolare l ' integrale della densità congiunta di X e Y sull'insieme A .
Poiché X e Y sono supposte indipendenti, la loro densità congiunta è i l prodotto delle marginali,
cioè f(x, y) = J..µ.e->•.x e-JLY per x, y > O e = O altrimenti. Dunque siamo condotti al calcolo
dell'integrale di f sull'insieme ombreggiato nella Figura 4.6.

Jligura 4.6

Ricordando le regole di calcolo degli integrali multipli dell'Esempio 4.1 I ,


+00 dx À .
P(X > Y) = À/L
10 1+00
.t
e-À.<e-JJ.Y dy = À
1+00
O
e - (.l.+µ.)x dx = --
À + µ.

I Ese_mpio 4 13 Due punti vengono scelti ncll'i 1 t rvaJ lo [O, 1] indipend


:
buz10ne uniforme. Qual è la probabili _ '. � _ entemente e con dis1ri­
tà che essi diffenscano per meno di ¼ ?
Se indichiamo con X e Y i due punti, allora X e Y sono indi ndenti
e d i densità uguale a J
nell'intervallo [O, I) e O al di fuori. La loro densità congiunta è dunque
f (x, y) = I sul quadrato
pe

Q = [O, I] x [O, I) e O al di fuori.


L'evento di cui si richiede la probabilità si può scrivere {(X, Y) E A] dove
A = {(x, y); /x - y/ s
¼ } , che non è allro che la striscia di piano compresa tra le rette y = x + l e
y = x - l . La probabili tà
richiesta è l'integrale della densità congiunta su questo insieme A . Tenendo
conto che la densità
si annulla fuori del quadrato Q e che vale I su Q , dobbiamo semplice
mente calcolare J ' area della
superficie A n Q, indicata nella Figura 4.7 .

Figura 4 .7

L'arca si calcola facilmente osservando che essa vale I meno l'area


dei due triangoli rimanenti,
cioè l - f6 = ft , che è la probabili tà richiesta.
j
4.3 Densità congiunte 87

Osservazione 4.14 Un semplice criterio d'indipendenza di v.a. è il seguente. S upponiamo che


X e Y abbiano densità congiunta f della forma

f (x, y) = f1 (x) f2 (y) ,


cioè che la densità congiunta si fattorizzi nel prodotto di una funzione della sola variabile x
moltiplicata per una funzione della sola variabile y . Allora X e Y sono indipendenti.
. .
Infatti, poiché J è una densità congiunta, il suo integrale su IR.2 deve essere uguale a 1 e qumd1

f_� f1 (x) dx 1_:00 fz(y) dy = I


Dunque, posto e = f fi(y) dy, si ha J J1 (x) dx = ½ e le marginali di f sono date da
+o:, +
J_00 f(x, y) dy = f1 (x)
f- oo
fx (x) = fz (y) dy = c f1 (x }
oo
fr (y ) = + f(x, y) dx = fz(y) oo /1 (x) dx = 1 fz(y)
f-oooo e
-oo
f+
da cui risulta verificata la relazione d' indipendenza

f(x, y) = Jx (x) fr (y)

Esempio 4.15 Le v.a. X, Y dell'Esempio 4.10 sono i ndipendenti?


.,
Le densità marginali fx , fr sono strettamente positive sull'intervallo [ - 1 , I_], dunque la densHa
(x , y) ➔ fx (x)fy(y) è strettamente positiva sul quadrato Q = [- 1 , 1] x [- !, ! ) . La densità
congiunta f è invece = O al di fuori del cerchio C = (x2 + y2 < 1 ) . Qum�1 A = Q_ \ C (la
porzione di quadrato che sta fuori del cerchio) è un insieme di misura �osillva su mi le due
_
funzioni f (x , y) e fx (x)fy(y) differiscono. Le due v.a. quindi non sono md1penden11.

Osservazione 4.16 In generale per dimostrare che due v.a. non sono indipendenti purtroppo
non basta mostrare che esiste un punto (x, y) per il quale l'uguaglianza (4.16) non vale; un
punto infatti ha misura O, mentre occorre invece provare che la (4.16) non vale su un insieme
di misura > O. Se però le funzioni J, fx, fy sono per di più co11ti1111c in un punto (x , y) tale
che f(x , y) 'i" fx (x)fy (y) , allora X e Y non sono indipendenti. Suppon(amo i nfatti che sia
.
f(x, y) > fx (x)fr (y); allora si avrebbe /(11, v) > fx (u)fy (v) su tutto nn mto:no LJ_ d� (x, y):
Dunque le due funzioni f(u, v) e fx (11)fy(v) differirebbero su tutto V , che e un rns1eme d1
misura > O.

La definizione seguente estende la Definizione 4.6 (d'indipendenza) al caso di v.a. a valori in JRd .

tiii���1} .,
:t}G:)f .
one;·:;-�e Xt _ E ]Rd1 , , • • , Xm E ]ld� indicft1�remo con
�'b-cii+ . . . + dm le cui prime d1 coordinate coincidono con
d��o:con quelle di x2 e così via. Se le v.a. X t , , . . . Xm sono
ssrn�ò èÒ'risiderare la v.a . X = (X 1 , . . . , Xm ), che è dunque a va­
tei;ido gli argomenti che_a�1bia1�0 util'.zzato_ per ricavare la (4.16)
Jf�ipe,
be'; se le v.a. X 1 , • • • , X,,, hanno dens1ta contmue nspett1vamente J1 , • • • , J,,, ,
:dèÌÌ7'D;fi;;iiione 4.17 è equivalente ad affermare che anche X ha densità f data da
'< l_. � .-..

Siano X e Y due v.a. indipendenti a valori in JRk e !Rr rispettivamente e </> : N! ➔ R e tfr : JRr ➔ R
due funzioni. Le v.a. 4>(X) e i/f(Y) sono indipendenti? Come per il caso discreto l'intuizione
dà immediatamente una risposta affermativa, mentre un po' più complicata è la verifica formale
delle definizioni. Supponiamo per semplicità k = r = 1 , allora
1
P (tj> (X) E [a, b]. ,t'(Y) E [e, d]) = P(X E cf,- ( (a , b]), Y E r~ 1 ([c, d])) =
11
,--1 ([o,b])x,:,- 1 ([c.dj)
h W hM b � = 1
,--l ([a,b))
hW� 1
r'([c,dj)
fy (y) dy =

= P(ef, (X) E [n , b]) P(t/r (Y) E [e , d]) ,

Più precisamente si può dimostrare la proposizione seguente, che estende la Proposizione 3 .22.

�t!if!t1!1til��iflliiftlffjf1;�fi
Come caso particolare, se le v.a. X 1 , . • , , X,, Y1 , . . . , Yr sono indipendenti, applicando l a Propo-
izione 4 . 1 8 alle applicazioni 4> 1 (.q , . . . , xk) = x 1 + . . , + Xk c 1"2 (y1 , . • . , y, ) = y1 + . . . + Yr , si
icava che le v.a. X1 + . . . + X, e Y1 + . . . + Y, sono anch'esse indipenclenti .

Siano X e Y due v.a. ___�i densità congiunta f e indichiamo con fx e fy le rispettive densità
marginali. Si chiama (-de11S1tà'co�1iliziò11tjiii] di X dato Y = y la funzione

4.20) J,w(xly) = f (}f


- . f (x, y)
y
e /y (y) > O e definita arbitrariamente (= O ad esempio) se fy (y) = O.
Analogamente, scambiando i ruoli di X e Y , si definisce la densità condizionale di Y dato
X = x. Come conseguenza della (4.13) si vede subito che se jy (y) > O allora

1
00
fxp· (x lY) dx = r f (x, y) dx :c l
1 /
-=
+ _ f (y)

dunque x ➔ fxtY (x)y) è una densità.


4.3 Densità congiunte 89

Intuitivamente fx1r( ·IY) è la densità di X quando si viene a sapere che Y ha preso il valore
y. Se X e Y sono indipendenti, allora per la (4.16) fx 1r (x!y) = fx(x) e dunque la conoscenza
del valore assunto da Y non modifica la previsione del valore assunto da X, in accordo con il
significato intuitivo della nozione di indipendenza.

Esempio 4.19 Se X e Y sono uniformi sul cerchio come nell'Esempio 4.lO e -1 ::: y :e: l allora

altrimenti
ovvero la legge condizionale di X dato Y = y è la distribuzione uniforme su [-�. /I=:v2' i.
La (4.20) permette di calcolare l a densiià condizionale a partire dalla densità congiunta ma anche,
viceversa, di calcolare la densità congiunta qualora i dati del problema forniscano la densità di Y
e la densità condizionale di X dato Y, poiché evidentemente

f(x, y) = fx1Y (x)y) fy ( y) .


Esempio 420 Il tempo di vita di un componente elettronico dipende dalla concentrazione di
silicio nel materiale di cui è fatto; più precisamente esso ha legge esponenziale di parametro À,
dove .l. è appunto il valore di tale concentrazione. Una macchina produce questi componenti, ma
nel processo produttivo non è possibile controllare la concentrazione di silicio che pertanto si può
considerare una variabile aleatoria, che indicheremo con A, uniformemente distribuita su [O, l ] .
Indichiamo con Y i l tempo d i vita del componente prodotto. Qual è la legge d i Y?
I dati del problema permettono di affermare che

se y ::: O
altrimenti .
Tenendo conto che A è uniforme su [O, 1], la densità congiunta f dì A e Y vale dunque
_
j(À, y) = { >-- e-) y se � ::: O, _ O :::: >-- :: l
O altnmenl! ,
Il calcolo della densità di Y si riduce ora a quello della seconda marginale di f, che si fa facilmente
usando la (4. 1 4). Il calcolo numerico dà, con una integrazione per parti,

fy (y) = t
lo
À e-1->' dÀ = � ( 1 - y e-Y - e-Y)
Y
per y > O, mentre Jy(_y) = O per _y :'.': O.

Come nel caso discreto, spesso si deve calcolare la densità della sonuna di v.a.
90 Capitolo 4 Modelfl còntlnui

I& :Consideriamo il vettore Z = (X, Y) e la �nzione ,j, �x, y) _=_x + y. La regione


dèhpianq:dei,punti"(x, y) tali che q', (x, Y! = x + y :'.S t non e altro c he 1! sem1pian A che • trova
� �
fsinistiadella:retta x + y = t (ombreggiato nella FJgura 4.8). Dunque la f.r. G di X + Y e
oo
= P(X + Y s t) = P((X, Y) E A) = fJ f(x, y) dx dy ""' 1-:
x

•�i(t) dx 1-: f(x, y) dy .


,\

x -t- y = t

Ma, con il cambio di variabile z = y + x,

1'
11-X

_ f (x, y) dy = f(x, z - x) dz
00 _00

(in questo integrale la variabile d'integrazione è y mentre .x è una costante). Riprendendo il


calcolo e cambiando l 'ordine d'integrazione

G (r) =
l 1/-x +
-+oo
oo
dx
-=
f (x , y ) dy =
1+00
-oo
dx
1'-oo f(x, z - x) dz =
= 1' 1 ""
-oo
dz f(x, z - x) dx = 1'
-cc
g(z)dz

che esprime appunto il fatto che g è la densità di X + Y .


-CX)

Esempio 4.22 Siano X , Y indipendenti e csponenziali di parametro ).. _ Qual è l a densità d i X +Y?
Poiché X e Y sono indipendenti, la loro densità congiunta è f(x, y) "" fx (x) fy (y). Dunque
per il Teorema 4.21 la densità g della loro somma è

g (y) = f fx (x ) fy (y - x) dx .

Osservi�mo che fx (x) = O per x :'.S O e anche che fy (y - x ) = O a meno che non sia y - x > O
ovvcro x < y . Dunque nell'integrale precedente l'integrando è diversoda zcro solo se O < x < y .
Per questi valori di x e y inoltre si ha fx (x)J.,. (y - x) "" À2 e-J.xc-!.(y-x) = À2 e-J.y . Dunque

Il problema del calcolo della densità della somma di due v.a. è una questione che si presenta
4.4 Leggi normali 91

calcolo di un integrale che non sempre si riesce a fare. Vedremo più tardi altri metodi che,
talvolta, possono portare al risultato più rapidamente.

4.4 Leggi normali


Si può dimostrare che la funzione

(4.21) f (x) = __I___ e-x /2


./2ir
2

è una densità di probabilità (cioè che il suo integrale da -oo a +oo è uguale a I). Essa è il prototipo
di una classe importante di distribuzioni. Se X è una v.a. di densità f e <r, µ sono numeri reali .
con a > O , allora sappiamo, grazie all'Esempio 4.5, che l a v.a .

ha densità
V - µ, I (y - µ,)
(4.22) g ( y) = iai 1 ( � ) = JTii <r exp (- �-) ·
l 2

Si dice che una densità dì probabilità su lR è [;;_�-::;;;_-;_"i}j o ! ga1dsiana ; di parametri µ e <r 2 , oppure
che è N(µ,, <r2 ) , se è della forma (4.22).
La densità f della (4.21) è quindi una N(O, 1) e abbiamo appena visto che N(µ, <r2) è la legge
di una v.a. della fonna o-X + µ, dove X è N(O, 1). Quest'ultimo fatto è molto utile: i l modo
più semplice di fare calcoli con le leggi normali consiste nel farli prima per le N (O, 1), per poi
passare alle N (µ, u2 ) con la trasformazione Y = o-X + µ,.
II grafico di una densità N(µ, o- 2 ) ha l'andamento a campana delle figure; µ è il punto di
massimo della densità; inoltre a valori di a 2 piccoli corrispondono campane strette e alte, a valori
grandi campane aperte e appiattite.

-2 -I
Figura 4.9 G�fico della densità N(O, I). In realtà la "campana" è più appiattita di come appare qui
-3

(l'unità di misura sull'asse delle ascisse è tre volte più piccola che su quello delle ordinate).

o- 2 = 0.5

92 Capitolo 4 Modelli continui

Una proprietà importante delle leggi gaussiane, che useremo spesso nel seguito ma che dimostr­
remo solo nel paragrafo 4.9, è la seguente: se X e Y sono indipendenti di legge rispettivamente
N(µ x . o;) e N(J.ty, o}), allora X + Y è ancora gaussiana, di legge N(µx + µy, o; + o}).

ndicheremo la f.r. di una v.a. N (O, 1 ) con il simbolo <P. Non è possibile calcolarla analiticamente
perché per l'integrale
<P(x) =
1
✓2rr -oo
1-"e- , 12 dt
2

on esiste una primitiva elementare. Data però la sua importanza, <l> è calcolata numericamente
riportata su tavole (vedi a p . a-1). Il suo grafico è riportato nella Figura 4.1 1 . Dalle Figure 4.9
4 .1 1 si vede in particolare che una v.a. N(O, I) assume valori al di fuori dell'intervallo [ - 3, 3)
on probabilità mollo piccola.

I ········· ······················_:_:··:.c··=··�---

-3 -I o
Figura 4,1 1 La funzione di ripartizione di una v.a. N(O, !).
-2

Poiché I -·> e-1 /2 è una funzione pari, per l 'Esempio 4.5 con a = - 1 e b = O, si vede che
2

e X ~ N(O, 1 ) , allora le due v.a. X e -X hanno la stessa legge e dunque la legge N (0, 1) è
immetrica. Da questa proprielil si ricava la relazione

4.2 3) ${x) = P(X :::: x) = P(-X :::: x) = P(X � -x) = l -- P(X :,: -x) = I - <1> (-x) .
Esempio 4.23 Quanto vale la probabilit11 <l>(- 1.05} = P(X :::: - 1 .05} per una v.a. N (0, ])?
Quanto vale i l quantile di ordine 90% di una v.a. N (O, l)?
Uno sguardo alla tavola a p. a-1 mostra che essa riporta i valori di <l> (t) solo per valori positivi
i t. La quantità P(X ::::: 1 .05) vale 0.853 14 (all'incrocio tra la riga che comincia con il valore 1 .0
la colonna che porta in alto il valore .05). Dunque, grazie alla (4.23), otteniamo <l> (-1 .05) =
- <1> (1 .05) = 0. 147 .
Invece il quantile di ordine a = 0.9 è qnel valore di t tale che <!>(I) = 0.9. Cerc�ndo sulla tavola
trova che <1>( 1.28) = 0.899, mentre <1>(1 .29) = 0.90 1 . Dunque il quantile cercato è compreso
a 1 .28 e 1.29. Con un software adatto si troverebbe subito il valore 1 .281 5 .

a (4.23) permelte di ricavare alcune relazioni molto utili per i quantili. Indichiamo con t/>a il
uantile di ordine a della N(0, 1 ) . Ricordando che il numero <Pa è caratterizzato dalla relazione
(X _::: </>,,) = <l>(,J,,, ) = a , si ha
4.5 Leggi Gamma 93

da cui la relazione

(4.24) -•Pa = <Pl -a:

Osserviamo comunque che per ottenere le (4.23) (e dunque la (4.24)) ci siamo serviti solo della
proprietà di simmetria della legge N (O, I ) . Queste due relazioni sono quindi valide per tulle le
v.a. simmetriche (che, ricordiamolo, sono quelle tali che -X e X hanno la stessa legge).

.Figura 4.12 La relazione </>« = -if,1-a deriva dai fallo che le due aree tratteggiate sono uguali.

4.5 Leggi Gamma


Si chiama Cr,-;;zio11e:G,w1ma j la funzione f' : JR+ -> rri+ definita da

(4.25)

Tranne che in alcuni casi speciali non è possibile calcolare analiticamente l'integrale in (4.25);
esistono però anche qui delle tavole numeriche. Osserviamo comunque che

(4.26) r(l) = 1+oo e--' dx = l

e, integrando per parti , se a > O,

(4.27)

Da (4.26) e (4.27) si ha facilmente, per ogni intero positivo 11,

f (ll) = (ll - 1) ! .

Se a > 0 e À > O , chiameremo [deiisità GÌllimici) di paramelri a e À (oppure diremo che è r (cr, À))
la densità
-- x"-l e-/.x x > O
"'
f(x) = '(a) ·

{ À altrimenti .
Osserviamo che per a = I ritroviamo le densità esponenziali.
Figura 4.13 Grafico di densità Gammn per ).. = 2 e diversi valori di a.

Osservazione 4.24 Se una densità g è della forma

se x > O
altrimenti
dove e è una costante positiva, allora g è necessariamente una densità f(a, À) e e = J...a/ f (a).
Infatti, poiché g è una densità, con il cambio di variabile Àx = y,

e dunque e = Àa / f(a).

Esempio 4.25 Sia X una v.a. N(O, a 2); allora (Esempio 4.4) X2 ha densità

per y > O mentre g(y) = O per y � O. Poiché g è una densità (è la densità di X2 ), per
l'Osservazione 4.24 g è r(½, �) ed inoltre scopriamo che l'( ! ) = ✓ii.

Una proprietà importame è la seguente.

�!i�,���;;5��1f;��tf1il�f ����� '.;


' l·.· , : •� · :: ," ''
( '.'.:

Mdli � (La dimostrazione fa uso di no:lioni .introdotte nel paragrafo 4.3; vedi l ' Esempio
4.46 per una dimostrazione diversa) Cominciamo con il caso m = 2 e indichiamo con / , h le 1
densità f'(a1 , À) e f(a2, À) rispettivamente. Per la Proposizione 4.21 la densità g di Xi + x2 è

cc f1 (x) h (y - x) dx .
g (y) =
l +oo
4.5 Leggi Gamma 95

Tenendo conto che sia fi che fz sono nulk per valori negativi della variabile, l'inregrando si
annulla al di fuori dell'intervallo [O, y] e

Con il cambio dì variabile x = ty si trova

Quindi per l'Osservazione 4.24 g è una densità f (c, 1 + a2 , À) e per di più vale la relazione

(4.28)

per ogni a 1 > O, a2 > O. Abbiamo quindi completato la dimostrazione nel caso m = 2. Se
m = 3, basta osservare che X 1 + X2 e X3 sono indipendenti per l'osservazione successiva alla
Proposizione 4.18. Applicando due volte il risultato sulla somma di due v.a. si ha

e iterando questo ragionamento si ha la tesi.

Non ci sono formule semplici per la funzione di ripartizione delle leggi Gamma, a meno che a
non sia un numero incero. Infatti esiste una relazione di ricorrenza tra le funi.ioni di ripartizione:
indichiamo con Fa la f.r. di una v.a. f(a, ),) , si ha allora, per x > O,

che per a = m intero diviene

(ì.xr~ t -
(4.29) r",., (X ) = - e ÀX + l'
'm- t (X) •
(lii _ l ) !
Poiché sappia1110 già che per 111 = J , cioè le leggi esponenziali,

(4.30)
96 Capitolo 4 Modelli continui

terando la (4.29) otteniamo


m- 1 Àx
. = - (Àx)
F,,, (x) e - + Fm__ 1 (x) =
(m - l ) !
4.3 1)
ÀX m - 1 - ()..x ) m-2 _ . m- 1 '
_ -( ) c >-x - c > x + Fm -2 (x) = . . . = J - e->-x L (Àx) ·
- (m - l ) ! (m - 2) ! �
k=O
Esempio 4.2.7 Una lampada ha un tempo di vita che segue una legge re i4 ) . Appena si guasta
i,
iene sost1tu1ta con un'altra. Qual è la probabilità che IO lampade non siano sufficiellli per un
nno (= 365 giorni)?
Supponendo i tempi di vira delle IO lampade indipendenti, il tempo di guasto della decima
ampada si rappresenta con una v.a. Z ~ r{5, ,k ) . II valore richiesto dunque non è altro che
(Z .S: 365), cioè il valore della f.r. F di Z calcolata in x = 365. Con uno dei software indicati
opra si ottiene F(365) = 0.55.

e leggi Gamma quando il parametro cx è intero si chiamano anche i leggi di Erl;;;g,_ Si chiama
nvece legge del [�,;�;�J;:;;i�j con n gradi di libertà e si indica co� �2 (11) una legge re 2, il­
�r l 'Esempio 4.25 e la Proposizione 4.26, r(,:, è la densità di una v.a. Y della forma y =
!)
Xj + . . . + X� dove X 1 , . . . , Xn sono v.à. i ndipendenti e N(O, I ) .

.6 Il Processo d i Poisson, processi di arrivi


elle applicazioni 1alvoltaoccorre rnodellizzare un processo di arrivi. Esempi di queste situazioni
ono gli arrivi di telefonate a un centralino, l'arrivo di nuovi clienti in una fila d'attesa, di veicoli
un incrocio, il prodursi di guasti in apparecchiature. . .
Un approccio per modellizzare queste situazioni consiste nel considerare una succc�sione di
a. S1. S2 . . . a valori ':: O, che rappresentano i tempi che intercorrono tra due arrivi successivi
li "intertcrnpi"). Dunque il primo arrivo avviene al tc"n-tpo S 1 , il secondo al tempo S1 + S2 e così
a. Il tempo dello n-esimo arrivo è dunque T,, = S 1 + . . . + Sn . Lo studio di questi processi ha
to luogo ad una teoria molto avanzata che va al di là delle possibilità di qucsl_i agpu nti, possiamo
rò vedere _una proprietà impo�ante di un partic�l �e proces �o di arrivi, il_ [Er��e.i-.fo' d{Poissa.fi}
Questo s1 presenta quando st suppone che gli 111tcrtemp1 s1 , s2 . . . s1anoìrul 1pcndenti Oi
c

nsità esponenziale di parametro À > O fissato. Sappiamo allora, per la Proposizione 4.26, che
- f(k, À).
Qual è la probabilità che, per un processo di Poisson, nell'intervallo di tempo [O, t] vi siano
attamente k arrivi ?
Se indichiamo con N, i! numero di arrivi nell' intervallo di tempo [O, t], dobbiamo calcolare
probabilità P(N, "' k) , ovvero la densità (discreta) di N, . Poiché 1� è il tempo dello ,,-esimo
rivo, un attimo di riflessione mostra che
{N1 _s; k} = {Tk I > t) .
+
fatti, dire che N, S k equivale a dire che il (k + i)-esimo arrivo ha avuto luogo dopo il tempo
Poiché Tk ~ f(k, ).) , la sua f.r. Fk è quindi data da (4.31) e dunque

P(N, .S: k) = P(Tk I > = I - l�+I (t) = e ~J.r L (�?


k
t)
4.6 Il Processo di Poisson, processi di arrivi 97

Riconosciamo a destra la funzione di ripartizione di una legge di Poisson di parametro J..t . Dunque
N, è di Poisson di parametro Àt e P(N, = k) = e-À,.
Q{f-
Il processo di Poisson è l'esempio più importante di processo di arrivi e costituisce un modello
soddisfacente in molte situazioni applicative. Tuttavia il fatto che gli intertempi siano modelliaali
da v.a. esponenziali l o rende poco adatto, ad esempio, nei problemi di affidabilità, in cui gli "arrivi"
sono i guasti di apparecchiature. In questi casi, se usassimo la legge esponenziale per modellizzare
il tempo di vita, la proprietà di assenza di memoria affermerebbe che la probabilità di guasto in un
intervallo ]t, t +h] di un'apparecchiatura che è stata in funzione nell'intervallo [O, t}. non dipende
da quanto sia grande t , cioè non dipende da quanto tempo l'apparecchiatura sia stata in servizio.
Spesso invece è ragionevole supporre che ci sia un effetto di usura e dunque che la probabilità di'
guasto in un intervallo ]t, r +h], di ampiezza h fissata, aumenti al crescere del tempo r, trascorso
dal momento della messa in servizio.
In questi casi, quale densità è ragionevole attribuire agli intertempi Sk '!
Supponiamo che Sk abbia una densità continua f e chiamiamo F la sua f.r. Osserviamo che l a
probabilità che un'apparecchiatura s i guasti nell 'intervallo d i tempo ]1, t + h] sapendo che è staia
in funzione nel periodo [O, t} è data da

P(Sk :e: t + h I Sk > t) =


l'(t -< S - < t --t- h)
P(S: � t) =
l 1,-;./,
I _ F(I) '
j (s) ds .

Se h è piccolo e f è continua, questa probabilitii è dell'ordine di


h f(t)
"f=""F(t)
Poniamo allora

(4.32) r(l) = _fl!l_


1 - F(t)

La funzione ,- si chiama il ftasso istantaneo di guasto i ( i11stantaneousjail11re-��t� ;, i.f.r. in in­


glese) della densità f. Vol�nèlo moclclhzzare 1!"temp� d1 v1ta<l1 un'apparcccfoatufa soggetta a
usura sarà ragionevole cercare, per i tempi St , una densità J che abbia un i.f.r. crescente. Ri­
cordiamo che, se f è una densità esponenziale di parametro À, allora, per t > O, f(t) = À e-!-1 e
F(t) = I - e-�,. Dunque r(f) = À: in questo caso lo i .f.t. è costante.
È interessante osservare che, data una funzione r : JR + -> R+ , diciamo continua a tratti, tale
che J0+00 r(s) ds = +oo, esiste sempre una densità f avente r come i .f.r. Infatti, posto

f (t) == r(t)e- J; r(s) ds , I > 0,

si vede subito che


+oo = l
r "" f(t) dt = - e- J; r(s)ds l r=O
+

lo
e dunque f è una densità. La sua fa. è

(I ) = fo' f (11 ) d11 = l - e- J; ,(s) ds , t >O


98 Capitolo 4 Modelli continui

e F(t) = O per I ::o O. Facendo il quoziente, si vede subito che la densìtà / ha proprìo i.f.r. uguale
a r. Non è difficile di mostrare anzi che questa densità è l'unica avente i.f.r. r. In particolare le
densità esponenzi ali sono le uniche ad avere i.fa. costante.
Esempio 4.28 Per À, f3 > O fasati, consideriamo la funzione r : R+ ...... JR+

r(t) = "iiÀ r - I
/J

Qual è l a densità f avente r come i .f.r.?


Si ha facilmente J; r(s) ds = À 1P e, come abbiamo vìsto,

(4.33) 1>0
e / (1) = O per t :,: O. La f.r. è invece F(t) = 1 - e-M" per t > O. La densità definita dalla (4.33)
si chiama di [@j_pÈf] di parametri À e /3. Si vede subito che, se /J > 1 , lo i.f.r. è crescente (per
f3 = I ritroviamo le leggi esponenziali) e quindi si tratta di densità adatte a model!izzare fenomeni
di usura.
Per f3 < 1 invece lo i.f.r. è decrescente in I; pensando all 'esempio dei guasti, l 'apparecchiatura
diventerebbe sempre più affidabile al passar del tempo. È meno immediato i mmaginare una
situazione di questo genere, ma, pensandoci bene, nella realtà un apparecchio appena messo in
servizio può nascondere dei difetti di produzione che si manifestano nei primi tempi di servizio;
è quindi ragionevole pensare che un apparecchio che ha superato senza inconvenienti il primo
periodo di funzionamento debba essere considerato più affidabile di uno nuovo di fabbrica.
Le leggi d i Weibull sono l'oggetto degli Esercizi 4.12 e 4.46.

A voler essere realistici, per modellizzare il tempo di vita di un 'apparecchiatura, Io i .f.r. dovrebbe
avere un andamento come quello della Figura 4.14: decrescente per t piccolo, crescente per t
grande e senza grandi variazioni per valori di I intermedi.

Figura 4.14

4.7 Speranza matematica, momenti


In questo paragrafo definiremo la speranza matematica delle v.a. assolutamente continue. Sia X
una v.a. òi densità (continua) J. Si dice che X ha speranza matematica finita se e solo se

1 co lxlf(x) dx < +oo .


-+00
4.7 Speranza matematica, mo01_enti__�

Se X ha speranza matematica finita si ch iama fillf�I!�a;effjifi(!)i. p'i�çp_,j di X la quantità


.

(4.34) E[XJ =
1 oc xf(x) dx .
-+00

In altre parole la speranza matematica è data dalla (4.34), a condizione che_l'integrale converga
assolutamente. Il significato intuitivo della speranza matematica come media dei valori assunti
da X è abbastanza evidente anche nella (4.34).
La speranza matematica delle v.a. assolutamente contìnue gode delle stesse proprietà che
abbiamo visto per le v.a. discrete. Non ne daremo la dimostrazione.che pure non è particolarmente
complicata e consiste nell'approssimare le v.a. a�solutamente continue che stiamo considerando
con delle v.a. discrete, alle quali si appl i cano i risultati citati.

Esempi 431 a) (Distribuzione uniforme su [O, 1)) Una v.a. X uniforme su [O, l] ha una densità
f che vale I su [O, l ] e O fuori di [O, l]. Dunque

E[X] =
1 o
1 1
x dx = - ·
2

b) (Leggi nonnali) Calcoliamo la speranza matematica di una v.a. X di legge normale N (µ., a2) .
Trattiamo prima i l caso X ~ N(O, 1 ) . Poiché x ➔ x e -• /2 è una funzione dispari
2

(tralasciamo, qui come negli esempi che seguono, la verifica che gli integrali convergono assolu­
tamente). Se invece Y ~ N(µ., a 2 ) allora, poiché Y = a X + µ, dove X ~ N (O, I ) ,

E{Y] = aE[X] + µ. = µ. .
00 Capilo/o 4 Modelli continui

:J!e,fftCc:l_i .densità fx è. jy. rispettivàmcnte: Se esse hanrìò'.


:iÌ-:;furb'prodottò XY ha speianzil 'm• atenìJÙcà finii� e [J
• •
,,,i;:f/?;\?t•�>,;,• �:-�::; .•�• :•.�:')� ,• .: '-
V•. :�

. �r�YJ::;: E�x;J �rp ::: :-,,,:i

Teorema 433, molco simile a l Teorema 3.3 1 che avevamo visto nel caso discreto, è anch'esso
olto utile: supponiamo di dover calcolare la speranza matematica di una v.a. Y = <f>(X), che è
na funzione di una v.a X di cui conosciamo la densità fx - Se applicassimo la definizione (4.34)
ovremmo prima calcolare la densità, Jr , di Y e poi l'integrale

f tfy(t) dt .

Teorema 4.33 ci dice che si ottiene lo stesso risultato facendo l'integrale

j if> (x)fx (x) dx

parmiandoci quindi il calcolo di fy .

empio 4.34 Supponiamo che X sia uniforme su [O, I]. Quanto valgono E[sin(2rr X)] e E[ex]?
Usando il Teorema 4.33 si trova subito
I
E[sin(h X)J = lo
sin(2rrx) dx = O
I
E[e ] = fu e dx = e - l .
x -<

alogamente al caso discreto si definiscono i l!_116me1i!{J delle v.a. assolutamente continue. Per
ni k = I , 2 . . . si chiama momento di ordine k della v.a. X la quantità E[ Xk ] , mentre il momento
ntrato di ordine k è la quantità E[(X - E[XJiJ. a condizione naturalmente che le v.a. xic e
- E[XJl rispettivamente abbiano speranza matematica finita. 11 Teorema 4.33, applicato alle
nzioni </J (x) = xk e q, (x) = (x - E[XJ)k rispettivamente, riduce il calcolo dei momenti a quello
gli integrali
E[XkJ = f x k fx (x ) dx

E[(X - E[X]ll = f (x - E[X])k fx (x) dx .


4.7 Speranza matematica, momenti 101

In particolare i momenti, come pure la Eieranza matematica, di una v.a. X sono quantità che
_
dipendono solo dalla densità di X. La ��ill"!zta:J di una v.a. continua è definita dalla (23�) o
dalla (2.3 1) come per le v.a. discrete e gode delle stesse proprietà. In effetti tutte le proprietà
della varianza del paragrafo 3.6 non dipendono dal fatto che le v.a. siano o no discrete, ma
dalle proprietà della speranza matematica stabilite nelle Proposizioni 4.29, 4.30 e 4.32, che sono
analoghe a quelle del caso discreto. In particolare restano valide la disuguaglianza di Chcbyshev,
la cui dimostrazione si può ripetere tale quale �r le v.a. assolutamente continue, e le formule
relative alla varianza della somma di v.a. La f!ov� di X e Y resta definita dalla relazione
Cov(X, Y) = E[XY] - E[XJ E[YJ .
Per la Proposizione 4.32 resta vero il fatto che v.a. indipendenti hanno covarianza nulla (mentre
il viceversa non è vero).
Il coefficiente di correlazione resta definito dalla (3.47) e gode delle stesse proprietà del caso
discreto; in particolare si ha -1 s Px. r s 1 , poiché anche l a (3.48) continua a valere nel caso
continuo.
1 Esempi 435 a) Varianza della distribuzione uniforme su [O, 1 ]:
1 1
1
E[X 2] = ro x2 dx =
3
J
e dunque
Var(X) = E[X 2] - E[X]2 = i
b) Varianza di una v.a. X ~ N(µ., a ). Se X ~ N(O, 1 ) , integrando per parti e tenendo conto
che E[X] = O,
2

1 00
Var(X ) = E[X2] = -- _ __ 1·+ x2c-•211 dx = _ I - ( -xe --•2/2 +co + j e --'212 dx) = I .
1
00
+oo

✓2rr -oo ✓'iii -- -oo


=0
Se invece Y ~ N(p,, a1) allora, scrivendo l' = a X + µ. dove X è N (O, I),
Var(Y) = Var(a X + �l) = Var(a X) = a 2 Var(X) = a 2 .
Dunque per una v.a. N (µ., a 2) il parametro µ. è la media, a2 è la varianza.
c) Speranza matematica e momenti delle leggi Gamma. Se f3 > O e X ~ f'(a, À ) ,

"" _,JH«- l e -)--' dx =


+00
E(Xil) = r�:) 1 xfl xa - l e-À.t dx = /e:) L
+

- � r(a + /J) { � f +co xP t- a -l e-�-' dx } = l ' (a + /3) .


- rea) À"+/l f' (a + /Jl lo )i real
Infatti la quantità tra { } è uguale a 1, essendo l'integrale di una densità l'(a + /3 , À ) . Ponendo
prima f3 = I e poi f, = 2, si trova
!' (et + 1) = ::.
E(XJ "'"'
l'(a + 2) r:5a + I)
)S(a) À

(4.36) E(X 2) �, = ;._2


A2r(a)
2 , a
Var(X) = E(X ) - E(X)- = ""iJ. -
102 Capitolo 4 Modelli continui

In particolare per a = I (leggi esponenziali)

E[XJ = �. J_ .
Var(X) = )._2
).

Se invece X ~ x 2 (11) (ovvero T'(:f, J))

E[XJ = n, Var(X) = 2n .

In particolnre la media di una v.a. chi-quadrato è pari ai gradi di libertà.


_
d) Momenti di una v.a. X ~ N(O, 1). I momenti di ordine dispari sono tutti nulli:

perché l'integrando è una fun�ione dispari. Per calcolare i momenti di ordine pari conviene
ncordare che X 2 è una v.a. 1 (1 , J). Le formule sui momenti delle leggi Gamma danno

E[XuJ = Ef(X2ll = z r (k + J ) - z r (J: ) 1 i ... (k -


D = l - 3 - - - (2k - 1 ) .
.t k

r( i) - I' ( i )
Il prodotto di t� tti i numeri dispari da l a 2k - 1 si può scrivere come
_ _ il quoziente tra (2k) ! e il
prodotto d1 tutti 1 numeri pari da J a 2k, che è uguale a ztk!, dunque

In particolare, per k = 2,

4!
(4.37) E(X4) = =3.
4 -2

�a qL1cste formule si ricavano facilmente i momenti delle leggi N (0, a1): se X ~ N (O' a2 ) ' allora
X è della forma X = a Z , con Z ~ N(O, 1 ) . Dunque

Come ab?iamo osservato alla fine dei paragrafi 3.G e 3.7, Ja disuouaolianza di Chcbyshev e la
Legge dei Grandi Numeri valgono anche per le v.a. assolutament; co�tinue. Lo stesso vale pc�
la retta d1 regressione e le nozioni sviluppate nel paragrafo 3.8.

'4.S Generatori aleatori, simulazione


Nei problemi di simulazione t !volta si richiede a un comput
� er di produrre dei numeri a caso
c?n un� legge asse�nata. Se s1 lavora con un pacchetto statistico
_ _ specializzato, oppure di rna­
mpolaz1one numenca o s1mbolica, in genere si trovano già preprogr
_ _ ammati dei comandi che
formscono delle sequenze di numeri aleatori indipend enti con le
distribuzioni più comuni. Se
4.8 Generatori aleatori, simulazione 103

però si lavora con uno degli usuali linguaggi di programmazione (pascal, fo1tran, C,. . . ), in essi
si trovano unicamente delle routines che producono sequenze di numeri a caso indipendenti e con
distribuzione uniforme su [O. lJ. Se si vuole, ad esempio, produrre una successione di numeri
aleatori indipendenti di legge esponenziale occorrerà trovare un modo per costruirla a partire dalla
successione di numeri aleatori uniformi su [O, I ) che il linguaggio di programmazione è capace
di produrre.
Un primo modo per produrre dei numeri a caso con distribuzione assegnata consiste nel costruire
una funzione </> tale che, se X è uniforme su fO, 1), allora ,P(X) abbia la distribuzione assegnata.
Quindi il problema si può formalizza.re nel modo seguente: data una v.a. X unifonne su [O, 1)
ed assegnata una densità (discreta o continua) f. trovare un'applicazione iP tale che <P (X) abbia
densiù f.
Se f è una densità continua che è nulla al di fuori cli un intervallo )a, b( e strettamente positiva
all ' interno di ]a, b[. allora la relativa funzione di ripartizione F sarà strettamente crescente, e
dunque invertibile, da ]a, b[ in ]O, I [. Mostriamo che la scelta <J, = p- l risolve il problema.
Infatti poiché la f.r. di X è
se x .:': 0
se O < x < I
se I :::: x
e poiché O s F (t) :'.:: 1, allora
P(r 1 (X) s t) = P(X :'.:: F(t)) = F(t)
e dunque la v.a. p - I (X) ha proprio F come f.r.
Esempio 4.36 Legge unifonne su un intervallo [a, b]: si tratta della legge avente una densità che
prende i valori 1/(b - a) su [a, b] e O al di fuori di [a, b] {vedi l ' Esempio 4.l). Si vede facilmente
che la funzione di ripartizione F è
o
x -a
l Se X :'.:, G

F( ) = se a < x < b
' X b-a
1 se 1 :::: b
e quindi p-t (y) = a + (b - a)y, per O .:': y s l. Dunque se X è uniforme su [O, 1], a + (b - a)X
è uniforme su [a, b].

Esempio 4.37 Simuliamo una legge esponenziale cli parametro À. La f.r. è


se t < O
F(t) = { O1 - e-J.r se 1 2: 0 .
F è invertibile su ne+ con p- I (x) = -¼ log(l - x). Dunque, se X è unifonne su [O, 1), allora
- ¾ log(l - X) è esponenziale di parametro À.

Questo metodo è però poco efficace quando la funzione p -1 non ha una espressione analitica
esplicita, come succede ad esempio per le leggi normali, binomiali e di Poisson.
Gli esempi seguenti mostrano altri approcci al problema.
-{J�_'(I:.eggi i:!i:Poisson) La simulazione di una v.a. X di Poisson è facile: basta simulare
:.&p'é,di'V!a: z 1 , z2 • . • esponenziali indipendenti e di parametro À e poi porre X = k
. ;più,,grimde numero tale che Z 1 + . . . + Zk :o I , ovvero se

a v.a. X così definita è di Poisson di parametro À, come si è visto nel paragrafo 4.6.

sempio 4-19 Simuliamo un dado, cioè una v.a. aleatoria uniforme su [ I , 2, 3, 4, 5, 6). Se X è
niforme su [O, IJ allora la v.a. Y definita da

4.38) i-I i
se
-6- ::: X < 6
gue la distribuzione assegnata. Tnfatri, se i = I, . . . , 6,

P(Y = i) = P( i�I :o X < �) = i .

ò si può anche esprimere ponendo Y = </>(X ) dove <f.> (x) = L6xJ + I (L J è la funzione parte
tcra). Questo secondo modo di vedere è più semplice da scrivere in un programma che non la
1mula (4.38), per realizzare la quale occorre un "if' condizionale con sci possibili risultati.
Questo metodo si può adattare alla simulazione di una probabilità uniforme su un insieme
ito: se l 'insieme E ha cardinalità n , possiamo supporre che sia E = { 1 . . . . • 11). Se X è una v.a.
iforme su [O, I]. allora, ripetendo l'argomento del dado di poco fa, si vede che

y = lllXJ + I
niforme su E. Questo metodo diventa però ìnutiliZ7.abile quando la cardinalità, Il, dì E è molto
ande o quando è comunque difficile ordinare gli elementi di E in maniera da poter scrivere
= { i , . . . , n ) . Il prossimo esempio affronta una situazione di c1uesto tipo.

cmpio 4.40 (�imulazione di una permutazione) Come fare per simulare una smazzata a caso
un maao d1 52 carte? S1_ tratta d1 scegliere _
a caso con distribuzione unifonne un ele­
nto nell'insieme E di tutte le permutazioni di { l , . . . , 52). Si tratta di una v.a. discreta, �a
levatissimo numero di possibili valori (52! ::::< 8 • 1067) rende impraticabile il metodo i ntrodotto
l'esempio precedente. Come fare?
In generale, vediamo come simulare una permutazione aleatoria di (], . . . , 11). Si procede nel
do seguente.
) Indichiamo con .to il vettore ( I , 2, . . . , 11) . Scegliamo a caso 1111 nu111ero tra I e n, usando il
todi dell'Esempio 4.39. Se ro è questo numero scambiamo tra loro nel vettore xo le coordinate
ndice ro e 11 . Chiamiamox, il vettore risultante da questa operazione: x 1 ha i[ numero ,-0 come
sìma coordinata e n come ro -csima coordinata.
) Scegliamo a caso un numero tra l e " - 1 , diciamo rt , e scambiamo tra loro nel vettore x 1
oordinate di indici rt e 11 - 1 . Chiamiamo x2 questo nuovo vettore.
) Continuiamo così: a partire dal vettore Xt , scegliamo a caso un numero rk tra 1 e 11 - k ,
4.9 Funzioni generatrici dei momenti, trasformata di Laplace 105

4) Ci fcnniamo per k = " - 1. Le coordinate del vetto1e Xn - 1 sono ora i numeri ( 1 , . . . , 11) in
un ordine diverso, cioè una permutazione di (!, . . . , 11). È abbastanza immediato rendersi conto
che la permutazione Xn -J può essere una qualunque permutazione di ( l , . . . , n) con probabilità
uniforme.

Vediamo un esempio concreto per 11 = 5. I passi da dfettuare sono


• xo = (1, 2, 3, 4, 5). Scelgo un numero a caso in ( 1, 2, 3, 4, 5). Supponiamo che sia venuto
ro = 2, allora scambio le coordinate di indice 2 e 5 , trovo x 1 = ( l , 5, 3, 4, 2) .
• Scelgo un numero a caso in ( l , 2, 3, 4), supponiamo r1 = I. Scambio le coordinate dì indice
1 e 4, trovo xz = (4, 5, 3, I , 2).
• Scelgo un numero a caso in { l , 2, 3), supponiamo r2 = 3. Scambio le coordinate di indice ·
3 e 3 (cioè non cambio niente), chiamo x3 il nuovo vettore (uguale a x2).
• Scelgo un numero a caso in {!, 2). supponiamo r3 = 1. Scambio le coord inate di indice I e
2 trovo x,1 = (5, 4, 3, l , 2) , che è la permutazione finale.
Questo metodo serve anche per simulare la scelta di una disposizione dì k elementi: se x =
(x 1 • . . . , x.) è una permutazione di ( I , . . . . Il) , allora (xn-k J , . . . , x,,) è una k-upla di clementi
+ 1
di { l, . . . , n) senza ripetizione.
j

I Esempio 4.41 (Leggi di Bernoulli e binomiali) Dati dei numeri casuali X 1 , X2 . . . indipendenti
e uniformi su [O, !], poniamo Zi = l se Xi :o p e Zi = O se p < X; :o I . S1 ha P(Z; = I) =
P(X :o p) = p. Dunque le v.a. Z 1 , • • • , Z,, sono B ( I , p ); esse sono anche indipendenti , essendo
funzioni di v.a. indipendenti. Dunque Z 1 + . . . + Z,, ~ B(n, p).

I metodi introdotti finora non si applicano alla simulazione delle densità normali. Purtroppo per
affrontare questo problema occorrono degli strumenti che non hanno trovato posto in questo tes10.
Data però l'importanza di questa questione, vediamo almeno la "ricetta". Si può in falli dimostrare
che se z e R sono v.a. indipendenti con Z uniforme su [-rr, rr) (la si simula con la procedura
dell'Esempio 4.36) ed R esponenziale di parametro (che si simula come visto nell'Esempio
i
4.37), allora la v.a.
✓R cos Z

è normale N(O, l ). Sì può anzi mostrare che le due �- :__ :ifl_E�s_?__lè__{_Jt�Ìll Z sono entrambe
normali N(O, I) e indipendenti. Questo si chiama if'atgoritmo di Box-Muller i.

�'4.9 F'unzioni generatrici dei momenti, trasformata di Laplace


Si chiama ffunz.ione gimeratrice dei 1iiomè111il (o l ira.iformàrn di Lap/ace;) di una v.a. d-dimcn­
sionalc X 1� funzione ;llX : JR.d .... JR+. definita da'

(4 . 39)

dove ( . ) indica i l prodotto scalare di E-?d : (0, x) = x , 01 + . . . + xdOd .


La funzione mx, naturalmente, è definita solo per quei valori z E JR,, per i quali la speranza
106 Capitolo 4 Modelli continui

mx (O) "" l . I Teoremi 4.33 e 3 .3 1 implicano immediatamente che

JR�
mx (z) =• { e <z ,x) f (x) dx
{4. 40)
mx(z) = L ef,..,,; p(xk)
J:

a seconda che X abbia densità continua f oppure densità discreta p. Queste relazioni mostrano
che la f.g. dei momenti dipende solo dalla legge di X .
Può succedere che il valore O sia l'unico in cui la funzione generatrice dei momenti è definita
e in queste situazioni naturalmente mx non ha nessuna utilità. È quello che succede, ad esempio,
per la legge di Cauchy (vedi l'Esercizio 4.4), che ha una densità f tale che l'integrale nella prima
delle (4.40) d iverge per qualunque valore di z f- O.
Osserviamo però che se d = I e X è una v.a. a valori positivi, allora per z :"' O si ha e<X :"' I e
dunque mx è definita (almeno) per z :"' O.
Cominciamo con alcuni esempi di calcolo della funzione generatrice dei momenti.
E.�empi 4.42 a) (Leggi binomiali) Se X ~ B(n, p) allora, ricordando lo sviluppo del binonùo,

b) (Leggi di Poisson) Se X è di Poisson di parametro À allora

c) (Legge geometrica) Se X ha l egge geometrica di parametro p allora, ricordando l'espressione


della somma della serie geometrica (3.7),
00 00
= Le'" p(l - p)" = L p(e (1 - p))" = 1 - e'p(! - p).
n-0 n-0
mx(z) 2

a condizione che sia c' (l - p) < 1 , altrimenti la serie non converge. In questo caso la f.g. dei
momenti è definita per e' < ,; ovvero z :"' log -2,,.
-d ,
Osserviamo comunque che, per una v.a. a valori interi positivi, avevamo definito nel paragrafo
3.JO la funzione generatrice delle probabilità, cioè la funzione

1/tx(t) = E(r'') = E (ex log , ) .


È chiaro quindi che per queste v.a. vale la relazione mx(z) = i/Jx(e') . Avre1runo dunque potuto
anche ricavare le trasformate di Laplace delle leggi binomjaJi, geometriche e cli Poisson usando
questa relazione e le espressioni delle f.g. di queste v.a., calcolate nell'Esempio 3 .50 b).
4.9 Funzioni generatr ici de i momenti, trasformata di LapJace 107

Esempi 4.43 a) (Leggi Gamma) Se X ~ f(a, À) allora


À"
mx(z) = --- x a - I e -JJ e'-' dx .
1+00
rea) o
Gamma
L'integrale non converge se z > À. Se invece z < À, dall'espressione delle densità
ricaviamo subito che 00 f (a)
xc,-1 e-(l-a)x,[x -- "
1o+ (À - z)
_ ___

e quindi
mx (z) "" (� J
b) (Leggi normali) Come al solito calcoleremo prima la funzione generatrice di una
v.a. X ~
À

N(O, 1 ) . Si ha
. 1 1+00 •x _,2f2d = --. +
1 e, 12 j r.c e- -} (x -,) dx -
. (Z) ./frr <X>
= -- e· e . -00
2
x
2
m ;<
-
-
,.fiic
=_ l_ e- ½ (x-d dx . e, 12 .
1+00
./frr -00
2

Ma, con il cambio <li variabile y = x - z,


j•+oo
e- 1 lx-,) dx =
I 2 +oo
e-Y /7. dy = ../fii
2

-oo J-00

e quindi
mx (d = c< 12
2

Se invece Y ~ N (/L, a ) , allora sappiamo che Y è della forma Y = a X -1- µ, dove X ~ N (O, I).
Quindi
2

A che servono le f.g . dei momenti? Vedremo che possono essere molto utili per il calcolo di leggi
e per il calcolo dei momenti.
La loro prima proprietà importante riguarda la somma di v.a . indipendenti: se X e Y sono
indipendenti allora
(4.41 ) mx+r (Z) = E[e<t . X+Y)] = E[efz . XJe(t, l] = E[e , l]E[e . >J = mx(z)mr(z) .
Y Cr X <> Y

Quindi mx+Y si calcola molto facilmente a partire da mx e mr. Naturalmente la (4.41) va intesa
per quei valori di z per cui sia mx che my sono definite. Abbiamo già osservato che se X e Y
hanno la stessa legge, allora hanno anche la stessa f.g. (lei momenti. Vale anche il viceversa;

i:�I1#1;11v!1r!i4fiti}ih��\W§tl�n}:{,\!t�i!i\Wgt;i:,{}�\,ì�J:o:t},ikf{��ili}) �;! 1 0
:;
llo
a

più
Il Teorema 4 .44, la cui dimostrazione è troppo difficile per noi, costituisce una delle proprietà
importanti delle trasfommte di Laplacc: grazie ad esso esse costituiscono uno strumento p
per il calcolo delle leggi di v.a., come si vede nell'esempio seguente.
otente
108 Capitolo 4 Mode/li continui

Esempio 4.45 Siano X e Y v.a. indipendenti e normali N(tlt, <Tf) e N(µ2 , a}) rispettivamente. ;
Qual è la legge di X + Y? i-
Usando la (4.41) e l'Esempio 4.43 b) si trova subito

Riconosciamo a destra la trasformata di Lapiace di una N (µ, 1 + tl2 , af +aJ). Poichi la tra.sformata
di Laplace determina la legge, necessariamente X + Y ~ N(µ 1 + µ2 , af + <rf}.

Esempio 4.46 Abl;iamo visto nel paragrafo 4.5 che se X e Y sono· v.a. indipendenti e rispettiva­
mente di legge f(a 1 , .l.) e l'(a2, À) , allora X -1- Y ~ f (a 1 + a2, À). Usando le f.g. dei momenti
questo fatto si dimostra in maniera molto semplice: grazie all'Esempio 4.43 a) e al Teorema 4.44
i vede subito che
)._ "1+a2
mx+r (z) = ( À- - ) , z<À.
-Z
Basta ora riconoscere che il termine di destra è appunto la funzione generatrice dei momenti di
una legge f(ct 1 + a2, À).

Supponiamo d = I. La lrasfommta di Laplace è uno strumento particolarmente semplice per


calcolo dei momenti , se è definita almeno in un intervallo aperto ]a, b[ contenente l'origine:
nfatti , in queste ipotesi, si può dimostrare che mx è infinite volte derivabile in ]a, b[ e inoltre si
uò scambiare speranza matematica e derivata:

4.42)

cJivcudo Jc (4.42) per z = O si hanno le relazioni

4.4 3)

he permettono di ricavare i momenti di X semplicemente derivando mx ali ' origine. In particolare


na v.a. che abbia trasformata di Laplace finita in un intorno dell'origine ha necessariamente finiti
momenti dì tutti gli ordini.
Le formule (4 .43) spiegano perché le trasformale di Laplace si chiamano anche funzioni ge­
er;1trici dei momenti .
5
Convergenza e approssimazione

*5.1 La Legge dei Grandi Numeri: applicazioni


Anche in calcolo delle probabilità la nozione dì convergenza è importante. Abbiamo già visto un
primo esempio di teorema limite: la Legge dei Grandi Numeri. Nei prossin'.i p:iragrafi vcdrem�
un secondo esempio molto importante. Ora invece vedremo delle appllcazwm della Legge dei
Grandi Numeri, che completano quelle viste nel paragrafo 3.7.
Esempio 5.1 (Errori di misurazione) Supponiamo di voler misurare una data quantit/1 µ, (una
distanza, uno spessore, una resistenza. . . ). In questi casi si considera sempre che nell'operaz1one
viene commes&o un errore di misurazione. Supponiamo di ripetere più volte la misurazione della
quantità d'interesse, ottenendo le quantità X 1 , . . . , Xn . I valori ottenuti si possono modellizzare
nella fonna
X; = µ + Y;
e.love le v.a. Y; rappresentano gli errori di misurazione. In assenza di errore sistematico, si può
supporre E(Y;) = O, cioè che la misurazione possa risultare più grande oppure piil piccola d_ella
_
quantità da misurare /L, ma che in media si abbia E(X;) = µ, -1- E(Y;) == µ.. Spc�so le c� nd1z1on'.
sperimentali permettono di supporre che anche le altre ipotesi della Legge de1 Granch Num�n
( indipendenza e varianza finita delle Y;) siano soddisfatte e quindi, se indichiamo al solito con X,.
la media empirica ¼ (X 1 + . . . + Xn ) delle osservazioni , si ha

x,, ➔
I'
,1- )- 00
µ,

cioè, per 11 gr,uide, X.11 tende a prendere valori sempre più vicini alla quantità µ da stimare.
In pratica però si può fare solo un numero finito di misurazi C?ni. Ci troviamo quin� i d i fronte al
_
problema di valutare l 'enore che si commette stimando µ con X,. . Vedremo nei prossuru paragrafi
come affrontare questa questione.
òiitecarlo) Siano f : [O, l] -> JR una funzione integrabile limitata e (X.).
1f:' nèlipendenti uniformi su [O, 1]. Allora la successione (J(X.))n è ancora
r

pendenti, tutte di media uguale a E[f(X1)]; per la Legge dei Grandi Numeri

p
->

E[f( Xi )J == [ f(x) dx .

�uesic os�ervazioni suggeriscono un metodo di calcolo numerico dell'integrale di J: basterà


disporre d1 un generatore aleatorio X1 , X2 . . . di densità uniforme su [O, l] e poi calcolare

l "
-;; L f (Xk) .
k=l
Questa quantità, per n grande, è un'approssimazione di

fo 1 f(x) dx .
�'.1�:��7!f?.��}�g.,E_:;{ i l calcolo d '!ntegrali o di medie è un tipico esempio di quelli che si chiamano
,!!Jf!q}!L'f!!..ollteE_<!!.lgJ· Essi _s�no � n generale più lenti degli algoritmi classici d 'integrazione nu­
:11�nca, �a s_�no P1u mphc1 da m1plementare. Inoltre essi si estendon
mtegra!J_ Ili prn vanab1h _ �� o facilmente al calcolo dì
, mentre gli algoritm i d'integrazione numerica diventano presto complica
al crescere della dimensione. ti

S !a (X,.),, una suc essione di v.a. indipendenti e aventi la stessa densità


j
_ � _ J. Nei prossimi esempi ve­
diamo come s1 puo, a partire dall'osservazione dei valori X 1 , • • . , Xn , ricavare delle informazioni
su /.
Es�mpio 53 Sia \X,.),, una successione di v.a. indipendenti di media
_ µ, e varianza u2, entrambe
firute._ Abbiamo v1�to nell'Esempio 3.44 che la Legge dei Grandi Numeri
suggerisce un metodo
per stimare la media /L. E se volessimo stimare la varianza u2?
Poniamo
-2 _ l !:...
n L.,
u,. - -
i= I
""cx; -x.) .
- 2

cioè facciamo la mc�ia dei qu �drnti degli scarti tra le osservazioni e fa loro media, esallamente
come nella ( 1 .5). Sviluppando il quadrato si trova. come nella ( 1 .7),
I 11 I l
a; = -I ""
l 2
n L X: + x:" - 2x)Il �
"" X r· = .!_ L_,,
t' xi, _ Au
vi .
2
i=l i=l n i=l
5.1 La Legge dei Grandi Numeri: applicazioni 111

Per Ja Legge dei Grandi Numeri X� --►�__.,00 E(X; ) 2 . Sempre la Legge dei Grandi Numeri afferma
che, se le v.a. X'f hanno varianza finita (ovvero se X; ha momento di ordine 4 finito), allora

p
-> E(X;) .
w 11400
.!. � x2I
Il
i=I

In conclusione
-2
D'n
p
-► E(Xf) - E(X;)2 = Var(X;) = u2 .

Dunque, per n grande, a; assume valori vicini a a2 con grande probabilità. Vedremo però nei
prossimi paragrafi che a,� non è il modo migliore di stimare la varianza a partire dalle osservazioni.

Esempio 5.4 (Convergenza dei momenti empirici) Sia (X,.)11 una successione di v.a. indipendenti
e aventi la stessa densità. Abbiamo visto negli F.sempi 3.44 e 5.3 che la Legge dei Grandi Numeri
suggerisce un metodo per stimare la media e la varianza di X 1 • E se volessimo stimare gli altri
momenti? E gli altri momenti centrati?
Fissiamo un intero m > I . È chiaro che (X�•),, è una successione dì v.a. indipendenti aventi
la stessa legge. Se E(X'f"') < +oo, allora esse hanno anche varianza finita e , per la Legge dei
Grandi Numeri,

_!. � X�" p
(5.2) -> E(xn .
11 L l 11--,.00
i=l

Questa relazione fornisce un modo per stimare il momento di ordine m a partire dalle osservazioni
(X,, ) •. Per i momenti centrati, ricordando l'Esempio 5.3, consideriamo la quantità

(5.3) ! �(X; - X,.)'" ,


Il L.,
i=l

dove al solito X,. = * (X 1 + . . . + Xn ) . Come si comporta questa quantitìt per 11 -+ oo?


Ricordando lo sviluppo del binomio:
Il 1 1" ( )
"' ( )
_!. ""(X; - X,,)"' = _!. "" " m Xk (- X,.yn -k = " /Il (-x,,yi -• _!. "" x·,
II L., L., k I
n

/J L., kL., k f! L.,


.
i=l i=I k=O =O i=I

Per la Legge dei Grandi Numeri, se E(Xf"') < +oo, al lora ¾ :z:::::;•=l Xf converge in probabilità
a E(X�) per ogni k = 1, . . . , m, mentre X,, ->,._,C(I E(X 1 ) , sempre in probabilità. Quindi,
ricomponendo il binomio,

-¾ t ( X; - X,.)'" �"'
; �1 " k=O
t
(';) E(X})(-E(X i))"' -k =

= E[f, (';) x}(-E(X i ))'"-t] == E[ (X 1 - E(X 1 ))"') .


k=O
112 Capitolo 5 Convergenza e approssimazione

Dunqùc, se x1 ha momento di ordine 2m finito, le v.a. definite nella (5.3) convergono in pro­
babilità, ·per ,r -> oo, al momento centrato di ordine m. Quindi la Legge dei Grandi Numeri
afferma che, nelle condizioni che abbiamo detto, i momenti centrati delle osservazioni sono una
approssimazione dei momenti centrati della legge delle osservazioni.
Osserviamo comunque che, qui come nel!'Esempio 5 .3 e nel successivo Esempio 5.5, usiamo,
d�ndole per scontate, alcune intuitive proprietà della convergenza in probabilità che andrebbero
però dimostrate. In particolare che, se (Xn )11 e (Y.) 11 sono successioni di v.a. convergenti in pro­
babilità alle costanti x e y rispettivamente, allora (Xn +Y,.),, e (Xn Yn )n convergono, i n probabilità,
a x + y e xy rispettivamente.

Esempio 55 (Convergenza di skewness e kurtosi) Sia (X,. ). una successione di v.a. indipendenti
e aventi la stessa legge. Supponiamo inoltre che E(Xf) < +co. Allora, grazie all'esempio
precedente, se consideriamo l' indice di skewness di X 1 , • . . , X. ,

= I (X; - X.)
(5.4) = ( 1 ¼ L;
3

,i Li=! (X; - X,.)-


Yl, n
n - , ) 3(2

esso converge in probabilità, per 11 ---,. oo, a


E[(X1 - E(X 1 )) 3 ]
5.5)
E[(X 1 - E(X 1 )) 2]3/2
, in maniera simile, per l'indice di kurtosi,
¾ I:;'= 1 (X; - X,.) 4 E[(X 1 - E(X 1 ))4]
3 3.
E[(X1 - E(X 1 )) 2] 2
= 1 p

( ,. I:;'= I (X; - Xn) 2)2


Y2,n - ->
n -H>O

Quindi skewness e kurtosi delle osservazioni sono stime della skewness e deJla kurto5i della loro
distribuzione (definite rispettivamente negli Esercizi 4 . 1 3 e 4.45).

Supponiamo di osservare delle quantifa X t , . . . , X,. , che si possono considerare indipendenti


cd aventi la stessa densità. Sì può dire che questa densità sia gaussiana? Una prima verifica
i può fare calcolando l ' indice di skewncss (5.4). Osserviamo che, se X 1 ~ N(µ., a 2) , allora
X1 - E(X 1 ) ~ N(O, a 2) e si può scrivere X 1 - E(X i ) ~ aZ, con Z ~ N (O, 1). Dunque
E[(X 1 - E(X 1 ) )3 ] = a3 E(Z3 ) = O e la quantità in (5.5) è uguale a O (vedi anche l'Esercizio
4.13). Se 11 è grande, l'indice di skewncss (5.4) del campione deve quindi essere vicino a O.
Una seconda verifica si fa considerando l'indice di kurtosi: con le stesse notazioni di poco fa,
E[(X 1 - E(X 1 ))4] = a4E(Z4 ) = 3a 4 (vedi la (4.37)). Dunque, se Xi ~ N (µ., a 2) ,
E[(X 1 -- E(X1))4] _ 3 = 3a 4 _ 3 = O
E[(X 1 - E(X 1 ))2)2 a4
, se le osservai ioni X t , . . . , X,, provengono da una distribuzione gaussiana. per n grande l'indice
i kurtosi del campione deve essere vicino a O.
Queste considerazioni hanno finora un valore solo esplorativo (non sappiamo precisare cosa
ignifichi "vicino"). Ritroveremo comunque il problema di vedere se le osservazioni seguono una
istribuzione gaussiana negli Esempi 5.7 e 5.8.
5.1 La Legge dei Grandi Numeri: applicazioni 113

Esempio 5.6 (Convergenza degli istogrammi) Consideriamo una successione X 1 , X 2 - . . d i v.a.


i ndipendenti e aventi la stessa densità continua f . Fissiamo un intervallo limitato [a, b] , che
suddividiamo in sottointervalli Ii , . . . , h. Per ogni h = 1 , .. . , k poniamo

Z;,<•> = n1 �
L., l 1. (Xi ) .
i=l

:[;'= 1 I 1• (Xi ) è il numero di volte che X; E Ih , i = 1, . . . , 11, e zt> è dunque la proporzione delle
prime ,r osservazioni X 1 , . . . , X. i cui valori si trovano nel!' intervallo /h , Si è soliti visualizzare
le v.a. ztl, . . . , zt> costruendo al di sopra dell'intervallo /1, un rettangolo di arca proporzionale
a zt>; se gli intervalli /1, sono di uguale ampiezza ciò significa naturalmente che le altezze dei
relt�ngoli sono proporzionali a Zi''). La figura che ne risultasi chiamafù1Jg}�-;;;;;�ì, che abbiamo
già incontralo nel paragrafo 1 .4: si tratta di un metodo molto usato per claréunade.fcrizione visiva
di come sono ripa1titi i valori di X 1 , . . . , X,, .

O 2
Figura 5.1 Istogramma di 200 osservazioni ìndipendcnci di legge r(3, l), a confronto con la relativa
densilà.

------ --- ------- - -�- - -� ----


Figura 5.2 Istogramma di 4096 valori simulati con il metodo di Box-Muller (vedi p. 105) a confronto
con la densità N (O, I) .

Per 11 - > cx, la Legge dei Grandi Numeri afferma che

zt) i
11-+co
E[ t ,. (X; ) ) � P(X; E I,, ) =-= J J(x) dx _
f1t

Se gl'intcrvalli li, sono abbastanza piccoli, in modo che la variazione di f su l;, sia piccola, allora
i rettangoli dell'istogramma tenderanno ad avere altezze proporzionali ai corrispondenti valori di
·e:dèlle informazioni sull'andamento di f.
'fog;-ammi confrontati con le relative densità.

\iÌi) Siano X 1 , . . . , Xn delle v.a. indipendenti , aventi tutte la


crè'ia"; poco importa). Indichiamo con F la loro f.r. Se poniamo
vede subito che
E( l ,1, (X 1 )) = P(X 1 ::': t) = F(t) .

I n
"' 1 A, (Xk) n-)-OO
1l- L.,, � E ( l A, (X 1 )) = F(t) .

· Indichiamo con F,, (t) il termine a sinistra nella (5.6), cioè


k=I

- . � 1
F,,(t) = Ii L I A, (X.) = ;, x numero di indici k tali che X; ::: t .
,

F,, � una fu,�zionc di t eh� si chiama la !JJ/!.!_if..o_:�:_1i ripqrtizion;· �,�pi;;;;;;. Un altro modo, per
k�I

_ _
certi v�r�1 più sempl '.ce, �1 v_c?ere la stessa cosa è ìl segue111e--:-friiiicliiam-o con X { !) , . . . , X(nl i
numen Xl , - . - , Xn nordmal! rn senso crescente: X (I) sarà quindi il valore più piccolo e X (Il - <
X(2) ::: . . . ::: X(n) · Allora è chiaro che

l\ (t) = � .

mentre FnU) = O per t < x{I ) e Fn (t) = 1 per X(n) ::: t . Infaui s e x(k) ::': t < x(k+ I), c i ò vuol
dire che v1 sono esattamente k i ndici i tali che X; :': t e dunque
1 11
- "' lA 1 (Xk) = -
k
Tl L,__; n
k=I

S �Uolin�iamo comunque che, per ogni valore di t, f.,, (t) è una quantità aleatoria, perché dipende

- ;· · ·r·- - -�
dai valon :: 1 , . • . , Xn - Dunque la (5.G) non fa che affermare che, per ogni t fissato, la f.r. empirica
co11verge m probabilit?i alla f.r. F.

_ f;,--�------,
--�·�_ ,.
. -: ·
·

�- ­
- - - ���-- .
-j·--+-------1..-t---t------+---+---
Figura 53 Escmpio di funzione di ri artizione cmpirica per un campione
_ _ d1pnpart,z10 di rango 7 di una legge
X(I) X(2)
X(J) X(4) X(SJ

_
X(6)

N(O, 1), a contronto


X(1)

con la funzione nc teonca (a puntini).


. 1_L_a__e
5_
-- - ---- -------�--_ L ....cgc..cgc...e_dei Grandi Numeri: applicazioni 115

Queste osservazioni hanno delleconseguen,e pratiche inleressanti. Talvolta, in presen,a di dati


sperimentali X 1 , . . . , X. , ha un interesse di stabilire se essi seguano una distribuzione assegnata,
N(O, 1) ad esempio. Se così fosse, per II abbastanza grande, per la Legge dei Grandi Numeri, la
differenza tra la f.r. empirica f,"';, e F deve risultare piccola. Se F = <I> (<I> è al solito la f.r. della
densità N(O, !)), poiché sappiamo che F,, assume il valore f nel punto X(i) , ciò vuol dire che i
numeri � e <l> (XciJ ) devono essere vicini. Applicando la funzione <!) -1 , che è continua, ai due
numeri � e <l>(X(i) ), otteniamo che anche i due valori

devono trovarsi vicini tra loro. Il punto <I> - 1 (f) è i l numero in cui la f.r. <t:> prende il valore h
e dunque non è altro che il quantile <Pi/n · Ciò significa che se si disegnano sul piano i punti di
coordinate t/J;J,, e X (iJ , essi si devono disporre lungo la bisettrice del primo e terzo quadrante.
Questa osservazione fornisce un metodo per valutare "a occhio" (è il caso di dirlo) se le osser­
vazioni seguano o no una legge N(O, 1 ) . Esso naturalmente può essere applicato anche ad altre
distribuzioni continue (esponenziali, x 2 . . . ), semplicemente sostituendo ai quantili <htn quelli
della f.r. appropriata.
Abbiamo qnindi sviluppato un metodo grafico che permette di valutare se le osservazioni
seguono una prefissata disrribuzione. Spesso si è invece interessati a vedere se esse seguono una
distribuzione di una determinata famiglia, ad esempio se esse sono nonnali N (µ., a 2) per qualche
valore ignoto di µ. e a2 • Gli argomenti precedenti possono però essere adattati per trattare questo
problema più complicalo (almeno seci limitiamo, come qui, al caso di leggi normali). Ricordando
che se X ,, N(O, 1) allora Y = aX + µ. ~ N(µ., a 2) ,

PO' :": a ,P; /11 + µ) = P(a X + µ. :": a </J,1,. + µ.) == P(X :": 'Pi/11) = ¼

Dunque a</J,111 + µ. è il quantile di ordine h di una legge N(µ,, a2) . Riprendendo il ragionamento
precedente, se le osservazioni seguono una distribuzione N(µ., a2), allora i numeri

devono essere vicini tra loro; in altre parole i punti d i coordinatct/J;/n e X(i) devono allinea(Si lungo
la retta di equazione y = ax + /1. . Non conosciamo i valori di tt e a , basterà però disegnare questi
11 punti sul piano e vedere se essi si dispongono lungo una retta (ora non più necessariamente la
bisettrice del primo e terzo quadrante).

___ /1
. · · ······

Figura 5.4 Grafico dei quantili per un campione ot1en1110 per simulazione di una legge nom1:ile.
16 Capitolo 5 Convergenza e approssimazione

Figura 55 Grafico dei quantili per un campione ottenuto per simulazione di una legge x 2 (4).
L'andamento si discosta da una retta in maniera abbastanza marcata alle estremità del gmfico.

Figura 5.6 Grafico dei quantili per le misurazioni della velocità della luce di Michclson (Esempio
1.3). L'andamento è molto prossimo ad una reti�.

grafico dei punti (r/>;111, X(iJ )) si chiama il grafico q11a11tili contro qua11tili, poiché si tratta di
onfrontare i quantili della f.r. empirica i\ contro quelli della N(O, !). Di solito i software
tatistici prevedono un comando apposito per effettuare i l grafico dei quantili, che quindi può
ssere realizzato molto facilmente.
I

sempio S.S Supponiamo di vokr verificare se certe osservazioni seguano o no una distribuzione
ormale. La prima operazione, di tipo esplorativo, consiste nel disegno dell'istogramma, come
uggerilo nell'Esempio 5.6. Supponiamo che il risultato sia quello dato dalla Figura 5.7: l'isto­
ranlITJa fa pensare ad una distribuzione piuttosto simmetrica e vagamente a forma di campana.
uesto però non basta a stabilire il carattere normale della distribuzione: ci sono molte distri­
uzioni con questa forma che non sono normali: vedi ad esempio i grafici delle densità dì Student
el paragrafo 5 .4.

Figura 5.7 Istogramma di dati sperimentali . La disposizione è più o meno a forma di campana. Si
-6 -5 -4 --3 -2 -l O

tratterà di dati che seguono una legge normale?

er avere un apprezzamento più preciso (anche se sempre qualitativo) è opportuno effettuare ìl


5.2 Convergenza in legge 117

Figura 5.8 Il grafico si discosta da una retta nelle code a destra e a sinistra.

grafico dei quantili. Il risultato (Figura 5 .8) fa venire qualche dubbio.


Come indicato nell 'Esempio 5.5, per indagare sulla normalità del campione, avremmo potuto
anche calcolare gli indici di skewness e di kurt9si che dovrebbero essere entrambi vicini a O. I
valori calcolati sui dati delle Figure 5 .7 e 5.8 sono

skcwncss = -0. 137


kurtosi = 2.152

da cui si vede che il campione è abbastanza sirrunctrico (come appariva anche dall'istogramma),
ma con una kurtosi abbastanza lontana da O, che indica un comportamento delle code lontano da
quello che ci si dovrebbe aspettare da osservazioni che seguono una distribuzione normale.

5.2 Convergenza in legge


In questo paragrafo introduciamo un nuovo tipo di convergcm:a. Siano X, Xi , X2 , . . . v.a. reali
e indichiamo con F, F1 , F2 , • • . le rispetùve funzioni di ripartizione. Diremo che la successione
(X. ),, !i.òji èige !�i-leggif_) a X (e scriveremo Xn -> X) se e solo se
. !f;
-. --·:---·:-
v •--- , .

(5. 7) lim 1'�, (x) = F(x)


n➔OO

per ogni punto x E iR di continuità per F.


Osservazione 5.9 La convergenza in legge dipende solo dalla distribuzione delle v.a. X, X 1 , X2 . . .
nel senso che se Y. Y1 , Y2 . . . sono altre v.a. tali che X ~ Y , X 1 ~ Y1 , X2 ~ Y2 , . . . allora X,. .:'i. X
implica r. l Y. Infatti la (5.7) richiede solo che la legge delle v.a. Xn converga, in un senso
opportuno, alla legge di X. Questi fatti mostrano già la differen7,'ì Ira la convergenza in legge
e la convergenza in probabilità, che ha senso solo se le v.a. sono definite sullo stesso spazio di
probabilità. Si può anche dimostrare che la convergenza in legge è- più debole della convergen1-a
in probabilità, nel senso che se X,. ! X per " -> oo, allora si ha anche x,. l X.

Osservazione 5.10 In alcuni casi ci sono dei criteri semplici per verificare la convergenza in legge.
Ad esempio se le X, X 1 , X2 . . . sono a valori interi positivi, allora i punti di continuità della f.r. F
di X sono tutti i numeri real i tranne al più gli interi positivi. Dunque se X,, l X, poiché i punti
capitolo 5 Converg,;:e_
n_
za
_ e_a...:p...:p_
ro
__ ma_
ss_i_ 2_
1·o_e__________________
n_
11a

della forma k + ½ sono di continuità per F per ogni k intero 2: O,


P (Xn = k) = F,, (k + L.� ) - Fn (k - ½ ) -+ F(k + !) - F(k - 1) = P(X = k) .
Viceversa se P(X,, = k) ->-n ->oo P(X = k) per ogni k = O, l, 2 . . . allora per ogni x E JR si ha
11➔00

( lxJ=parte intera di x)
lxJ lxJ
Fn (x) "' P(X,, :,: x) = L P(X,. = k) __,. L P(X = k) = P(X S x) = F(x) .
k=O k=O
1:➔CO

In conclusione se le v.a. X, X 1 , X2 • . . sono a valori interi positivi allora (X,.),, converge in_ legge
a X se e solo se P(X,, = k) --> n->oo P(X = k) per ogni intero k 2: O. In particolare, riprendendo il
calcolo fatto a p. 39 , se X,, ~ R(n, ¾), allora (Xn ),. converge in legge verso una v.a. X di Poisson
di parametro À . I
Esempi 5.11
a) Supponiamo che X,, assuma con probabilità 1 il valore Allora X,, converge in legge verso
¾.
una v.a. X che assume con probabilità 1 il valore O.
Infatti la f.r. di X è data da F(x) = O per x < O e F(x) = 1 per x 2: O mentre
O se x < ¼
={
1 se x 2: iì1 .
F,.(x)

li solo punto di discontinuità di F è x = O . Ora se x < O si ha F,, (x) = F(x) per ogni 11 . Se invece
x > O, a partire da un n abbastan7.a grande si ha x 2: ¼ e dunque F,, (x) = l = F(x). Dunque la
convergenza in legge è veri fic;1ta. Osserviamo che in questo caso F� (O) = O per ogni 12 mentre
F(0) = l . Dunque Fn non converge a F(O) nel punto O, che è di discontinuità per F.
b) Supponiamo che Xn prenda i valori O, ¾ . � . . . , ";; 1 , ognuno con probabilità Calcoliamo
¾-
il limite in legge di (X,, )11 •
Le v.a. X11 assumono valori sempre più fitti nell'intervallo [O, ! ] . L'intuizione suggerisce
quindi che il limite in legge sia una v.a. uniformemente distribuita. Applichiamo la definizione e
calcoliamo il limite delle f.r. Osserviamo che, se O s x s 1 , vi sono LnxJ + I punti della fonna
t (I.: = O, I , . . . , ";; 1 ) tali che * :5 x ( L J indica la funzione parte i mera). Quindi, se O s x s I ,

J�, (x) = P(Xn :S x) = _LnxJ_--\:2


Ora, tenendo conto che nx - I < [nxJ s nx , per il teorema del confronto si ha facilmente
LnxJ_:t_: _l_
litn f�, (x) = lim =x .
Poiché F,. = O per x < O e F,, = l per x 2: 1 è chi:iro che, per ogni x E Ilr., F (..r) converge alla
n➔oo 11➔00 Il

funzione
11

se x < O
F(x) = {� se O :'.: x :'.: 1
se x > J.
che è la f.r. di una v.:i. uniforme su [O, l].
5.3 11 Teore ma Limite Centrale 119

5.3 Il Teorema Limite Centrale


Vediamo ora un secondo risultato di convergenza (che non dimostreremo). Ricordiamo che <l>
indica, come al solit0, la f.r. della densità N(O, 1 ) .

Nella terminologia del paragrafo precedente, il Teorema Limite Centrale afferma che, s e l e ipotesi
sono soddisfatte, s;; converge in legge ad una v.a. N(O, 1 ) . Osserviamo che la v.a . s,; non è
altro che la somma X 1 + . . . + X,. meno la sua media 11/L e divisa per la radice quadrata della sua
varianza (che è uguale a na 2).
Il Teorema 5 .12 è un risultato notevole: la legge di s;, che è in genere complicata da esprimere ,
si approssima, per n grande, con una legge N(O, I) e questo q11al1111q11e sia la legge dc!Je v.a. X,.
{purché abbia varianza finita).
In pratica il Teorema Limite Centrale si usa per approssimare la legge di si· con una N(O, [ ) ,
quando II è grande. Tradizionalmente si considera che l a soglia di applicabilità sia n ?: 3 0 (altri
dicono che deve essere almeno 11 2: 50). In realtà non vi sono risultati Icorici che giustifichino
questi valori, che sono basati sull'esperienza empirica.
Anzi, qualunque sia n, si possono trovare delle v.a. X; per le quali la distribuzione dì S,� è
lontana dalla N(O, 1). Ad esempio se X; - B{I , p) si ritiene che , perché l'approssimazione sia
soddisfacente, deve essere np ?: 5 e n(l - p) ?: 5. Quindi per valori di p estremi, cioè molto vicini
a 1 oppure a O, il valore di n necessario diventa grande. Osserviamo che questi valori estremi
di p corrispondono a delle distribuzioni molto asimmetriche. I valori indicati (30 o 50) devono
dunque considerarsi validi per la maggior parte delle distribuzioni che si incontrano in pratica,
ma vanno aumt!ntati in presenza di leggi molto asimmetriche (vedi l ' Ese.-cizio 5 .24 , ad esempio).
Se le v.a. X 1 , X2 . . . sono come nell'enunciato del Teorema 5 . 1 2 (cioè indipendenti , aventi la
stessa legge e media /J. e varianza a 2 > O finita), si ha

(5.8) P(X1 + . . . + Xn :':' x) = P(s,7 S x -i::-) 1'e <t>(-;,) .


U v ll Uvll

Parleremo di (-;;pp;Jii,i)ììàz.ionl 11bn;;a1;'.facendo riferimento alla (5 .8).


'· · -- �--- ---·-·--·--J

Esempio 5.13 Una lampada ha un tempo di vita esponeuziale di media µ. = 10 giorni. N011
appena la lampada smette dì funzionare essa viene sostituita con una nuova. Qual è la probabilità
che 40 lampade siano sufficienti per un anno?
Se si indica con X; la durata della i-esima lampada, possiamo supporre le X; indipendenti e
esponenziali dì parametro À = f, = la probabilità richiesta non è altro che P(X 1 + . . . + X40 >
lt;
365). Usando le tavole della legge normale e la {5 .8)
P(X 1 + . . + X40 > 365) = l - P(X 1 + . . . + X40 :,: 365) 1'S
,
__.;:.--- r- --.. (·\
/'- . - · - ....

,,, ..
�tJ3 -
· ··''�-.,.
Figura 5.9 Andamento della densità di s,; per vari valori di n, quando le v.a. X; sono indipendenti e
uniformi su {-� , ½J. Per n = 2 si trova il classico grafico "a casetta", vedi anche l'&ercizio 4.24. Gli
altri grafici sono per n = 3 (a trattini), 11 = 6 (trattini e puntini) e n = 12 (tratto pieno). Si vede che al
crescere di II il grafico assomiglia sempre di più a quello di una N(O. !). Il grafico di quest'ultima non
viene tracciato perché sarebbe indistinguibile da quello per 11 = 12. Da notare che il Teorema 5.12
g_ar:mtisce_ la conve:genza d_ellc funzioni di ripartizione e non quella delle densità: per quest'ultimo
nsultato c, sono alto teoremi che non affrontiamo ma che valgono, ad esempio, per le densità uniformi
su [ -½,½] di ques10 esempio.
·
"" I - <P ( 365 - 40 10 ) = I - <l>(-0.55) = 0.7 1 .
=,
IO · -v40
oiché la v.a. X1 + . . . + X40 segue una legge f (40, À) , questo esempio mostra come si può usare
approssimazione normale per approssimare la f.r. di una legge f(n, À) per II grande. La stessa
ea si può applicare per approssimare la f.r. di leggi binomiali B(n, p) con n grande.

sempio 5.14 Qual è la probabilità di avere almeno 29 teste in 50 lanci di una moneta equilibrata?
Si tratta di calcolare P(X 1 + . . . + Xso > 28), dove le X; sono indipendenti e B ( I , ½)- Sempre
sando l'approssimazione normale (5.8),
P(X 1 + . . . + Xso > 28) = I - P(X 1 + . . . + X50 :': 28) ""
28 - 50 - 0.5
"" l - <l> ( ---- ) = I - <1>(0.85) = 0.2 .
.Jso . o.5
e avessimo calcolato numericamente la f.r. della densità B(50, ½l, avremmo ottenuto come
sultato 0.16. Osserviamo però che, poiché le X; assumono valori interi ,
P(X 1 + . . . + Xso > 28) = P(X 1 + . . . + Xso > 28.5)
l 'approssimazione normale darebbe ora
P(X1 + . . . + Xso > 28.5) = I - P(X 1 + . . . + X50 :'.:' 28.5) ""
28.5 - 50 · 0.5
e:;: I -· <l> ( --=--- ) = I - <1>(0.99) = 0.1 6 .
.Jso . o.5
generai � cu � v.a. a valori interi si ottiene una migliore appros�jmazione scri�cn<!�l'J.1 l + . . . +
. ::: k + 1) pmttosto che l'(X 1 + . . . + Xn ::5 k). Chiameremo i·--correzione ..di_� _c---·-
- " ··-- ·- ·--·- o11ti1111ità
·· -�---· questo
corgimento.
j
5.4 Problemi di stima 1 21

5.4 Problemi di stima


In questo paragrafo vedremo come l 'approssimazione nonnale si può applicare alla risoluzione
di alcuni tipici problemi di statistica. In particolare accenneremo ai problemi di stima e di test
d'ipotesi senza avere la pretesa di definire con precisione queste nozioni, ma cercando piuttosto
di illustrarle con degli esempi. Il lettore interessato ad approfondire queste problematiche dovrà
aspettare un corso di Statistica . . .
Per conùnciare osserviamo che l 'approssimazione normale si può usare per stimare la proba­
bilità di uno scarto dalla media nella Legge dei Grandi Numeri, una questione che è stata messa
in evidenza negli Esempi 3 .44 e 5.1 .
Se (Xn )n è una successione di v.a. indipendenti, aventi la stessa legge, di media /L e varianza
a2 > O finita, e poniamo, al solito, X,, = ¼(X 1 + . . . + X,.) = {.5;, , allora, per n grande,

,. - µ. = S,, - �J.l
,fii X = s,: '.::: N(O, I) .
a a✓n
Dunque, se indichiamo con Z una v.a. N(O, I) e ricordiamo che per la f.r. <I> di una densità
N(O, I ) vale la relazione <l> (-x) = I - <l>(x) (vedi la (4.23)), la probabilità di avere uno scarto
tra Xn e la media µ. si può stimare scrivendo

P(IX,. -µ,I -< 8) = P(l,Jii X,. ·- µ. I -< a�,fii) "" P(IZI ::: ¾../ii) = P(- ¾ ../ii s Z s ¾,Jii) =
(5.9) a
= P(Z s ¾,Jii) - P(Z s -¾,Jii) = <!> (},fii) - <!> (-¾../ii) = 2<1>(¾,Jii) - 1 .

Esempio 5.15 Riprendiamo l 'Esempio 3.44 a p. 63. Se facciamo 50 lanci di �na moneta (non
necessariamente equilibrata), qual è la probabilità che la proporzione di leste Xso disti da p per
I piì1 di O. J 'I
Se vogliamo usare la (5.9) ci accorgiamo che non conosciamo il valore di a 2 , che è uguale a
p(I - p). Non è difficile però vedere che si ha p(l - p) :': ¼, per ogni O ::: p s I (vedi la Figura
5.10). Quindi usando questa maggiorazione la (5.9) dà

P(! Xso - PI ::: O. I ) = I - P(! Xso - PI < O. I ) "" 2(1 - <1> ( �- ✓50
p( l - p)
)) :::
s 2( l - <t>(O. I x 2 x ✓0)) = 2(1 - <l>(l.41)) = 0. 16 .
5

o I
'1
Figura 5.LO Grafico della funzione p -> p(l - p): assume il suo massimo per p = ½.
L'esempio precedente illustrn u n p.oblema frequente: non si conosce il valore medio, µ. , di una
certa quantità casuale ma si dispone dei valori assunti X 1 , . . . , X,, di Il realizza:òoni di questa
1_22 Capitolo 5 Convergenza e approssimazione

quantità (i risultati dei 50 lanci della moneta dell 'esempio precedente). Sappiamo eh� la media
�1?.!1½-ica Xn = ¾ (X 1 + . . . + x. ) è una stima della media /J.. A partire dal valore di X11, cosa si
pt1ò dire di_µ?
'kctichiamo ancora con !/>p il quantile di ordine /3 della legge N(O, l). Se scegliamo o
7n �I -a/i e ricordiamo che, per definizione, <1>(4>1 -a12) = l - � , la (5.9) diventa

P (iX,. - JL I s 7n 4> 1 -a12) ::se 2 cf, (4>1 -a12) - l = 2(1 - j) - I = I - a .


Osserviamo però che dire che 1X,, - µI :::: -;J;: <Pr-r:x/2 equivale a richiedere che simultaneamente
valgano le due disuguaglianze

che insieme sono equivalenti a richiedere che sia X,, - 1 ipJ -a/2 :::: f.L !é. Xr. + ipJ -u/2 ovvero
:y, 7n
che µ. si trovi nell'intervallo [X,. - <Pl-cr/2 , fc,, + -J;; .P1 -a12l - Possiamo quindi affermare che
7n
la media da stimare JL si trova con probabilità approssimativamente uguale a I - a nell' intervallo
(5. 10)

che, per questo motivo, si chiama un girer,vall,�.1�.(if}'_c/t}_j di livello 1 - a.

Esempio 5.16 Una popolazione è composta da due gruppi A e B e si vuole stimare la pro­
porzione p d'individui del gruppo A nella popolazione. Si scelgono a caso 11 = 100 individui (un
sondaggio . . . ) e si guarda a che gruppo appartengono. Supponiamo che 43 individui siano del
gruppo A. Qual è un intervallo di fiducia di livello 95% per p'.1
Se modellizziamo al solito le osservazioni con delle v.a. X 1 , . . . , X 1 00, con l'intesa che X; = I
se lo i-esimo individuo è del gruppo A e X; = O se è del gruppo B , allora X; è di Bernoulli di
parametro p e E(X;) = p. Inoltre qui X,, = 0.43. Calcoliamo l'intervallo di fiducia di livello
95%. Dunque a = 5% = 0.05, I - 1 = 0.975 e le tavole danno </>_975 = 1 .96. L;1 (5.10) dà
'intervallo
[0.43 - -fu 1.96, 0.43 + fu 1.96) .
l valore di a = Jvar(X;) = p(l - p) è sconosciuto e dipende anzi dalla quantità p da stimare
J
ma abbiamo visto nell'Esempio 5 . 1 5 che a = ,/i(I- p) s ½ e quindi otteniamo l'intervallo
(5. 1 1) (0.43 - 0.05 - 1 .96, 0.43 + 0.05 - 1 .96] = (0.332, 0.528] .

L' Esempio 5 . 1 6 mostra l'inconveniente principale dell'intervallo di fiducia (5. 1 0): per utilizzarlo
occorre conoscere il valore di a , cosa di cui spesso non si dispone in pratica. Non sempre è
possibile disporre <li una maggiorazione di a come nell'esempio precedente.
Una soluzione a questo problema consiste nel cercare di stimare, a partire dalle osservazioni.
anche la varianza cr 2 e poi usare l ' intervallo (5.10) sostituendo a a2 il valore stimato. Sarà lecita
questa procedura? Beh quasi, come vedremo. . .
Abbiamo visto nell'Esempio 5.3 che, per n grande, si può stimare o 2 con la quantità

cr11
- 2 = �- �
,, L ( X '
_ X) 2 = ! � xz' _ 5:.211 ·
n �
i=l i=l
5.4 Problemi di stima 123

In realtà conviene usare un altro stimatore. Infan.i, se calcoliamo la media di ò-;,, sì trova

(5. 12) E (a-;) = E(Xf) - E(X;)

Abbiamo. ricordando la definizione della varianza,

E(x;;) = Var(X.) + E(X11 )2 • .

Inoltre si ha Var(Xn ) = ¼ Var(X 1 ) = f. e E(X,J = /J.. Dunque E(X_�) = Var(Xn) + E(Xn )2 =


¼ Var(X i ) + E(X 1 )2 = � a2 + µ2 e, sostituendo nella (5. 12),

-1
E(a-112 ) = a-° + J.l2 - ;;1 a 2 - µ.2 = n --a 2
- 11
La quantità a; è quindi, in media, sempre un po' pìtt piccola di a 2 • Per questo motivo (e non
solo) conviene piuttosto stimare u2 mediante la quantità
n ..
(5.1 3) s112 = --1 '\'(X; - X11 ) 2 = -n-- a-112 •
n - 1 L.., ll - 1
i==l

È chiaro infani che


E(s,,
.2) =
E ( -z ) = rr2
Il _ I a11
Il

Questo tra l'altro spiega perché i principali software statistici definiscono la varianza di un cam­
pione dividendo pern - 1 come nella (5.13) invece che pern . Comunque è chiaro che per" grande
ì due stimatori s; e a? differiscono di poco e, poiché sappiamo (Esempio 5.3) che a; - >,,➔oo a2
in probabilità, anche s; -> n➔oo a 1 in probabilità.

Torniamo al calcolo degli interval li di fiducia per la media. L'idea come abbiamo visto è semplice:
sostituire nella (5.10) alla quantità sconosciuta a con la sua stima s11 • Si può dimostrare che, se
(Xn) n è una successione di v.a. indipendenti di legge N(µ, o-2), allora la v.a.

I- - - 11.
x,.-­
(5 . 14) -,,11
s,.

seoue una leooe che si chiama i t tli Student ! con n - I gradi di libertà e si indica con il simbolo
�(� - I ) . No�è difficile dare un�dcÌìnÌzio�;·rigorosa di queste leggi e anche calcolarne la densità:
si chiama densità di Student con II gradi di libertà quella di una v.a. T definita da
X
T = - 01
./Y
dove X e Y sono indipendenti , X -· N (O. I) e Y ~ x 2 (11) . L1 densità cli una v.a. di Student si pub
calcolare con i metodi che abbiamo visto nel Capitolo 3 (anz.i questo è l'oggetto dell'Es"rcizio
4.62, per cui la densità si può vedere a p. e-45). Per i nostri scopi, però, non serve di conoscere
la densità ma è piuttosto necessario disporre dei quantili , che indicheremo tc,(11) . Questi sono
riportati su tavole (vedi a p. a-2). Uno sguardo a queste ultime mostra che i valori dei quantili si
-3 -2
Figura 5.11 Confronto tra densità N(O, I) (puntini), t(9) (lr:ittini) e t(I) (tratto pieno). D a notare
-1

che le densità di Student decrescono all'infinito più lentamente.

vicinano per Il grande a quelli corrispondenti della legge N (O. I) e anzi, per valori di 11 supèriori
1 20, si usano i quantili della N(0, I) al posto di quelli delle leggi di Student. Ciò è suggerito
che dalla Figura 5 . I I dove si vede che l'andamento della densità 1 (11) è anch'esso a campana
che al crescere di n si avvicina a quello della N (O, l ) .
È facile mostrare che l a densità della legge d i Student è una funzione pari (si vede anche dalla
gura) . Quindi, ripetendo gli stessi argomenti che hanno portato alla (4.23), si trova che la f.r. G
una legge t (n) soddisfa alla relazione

G(x) = I - G(-x) .

d iamo come si può utilizzare il fatto che la v.a. definita nella (5.1 4) segue una legge di Studcnt
r determinare un intervallo di fiducia per la media. Supponiamo che le osservazioni X 1 , X2, . . .
no indipendenti e seguano tutte una legge N(µ, a 2 ). Allora, ripetendo passo a passo i calcoli
lla (5.9) e indicando stavolta con Z una v.a. di legge 1 (11 - l),

P(IX/1 - /li .'.5 8) = P(l../ii xli - µ I .'.5 i.fii) ""' P(I Z I .'.5 t.fii ) =
1 5)
= P(--f;;../ii .'.5 Z .'.5 P(Z :::= f; -./n) - P(Z .'.5 - -f;; ./ii) =
Sn S,1
#;../ii) =

= G(t./ii) - G (-f;./ii ) = 2 G(f;./ii ) - I .

egliendo 8 = � t 1 _,,12 (11 - l ) si ha G( ;;� �lii) = G(t 1 -a;2(11 - 1 )) = 1 - � e dunque

P(IX11 - µ/ .'.5 7,z t1 -a12 (11 - 0) = 2( 1 - 1 ) - 1 = 1 - a .


petendo il ragionamento che ha portato all' intervallo (5. 10), si ha I X,, - /.li .'.5 -}, 1 1 _,,12(11 - I )
e solo s e
- s,, . - s,,
1 6) µ E [ X,, - r.; t 1-a;2(11 - ! ) , X,, + e '1 -a12(11 ·- 1 ) - 1·
vn vu

altre parole, nell'intervallo d i fiducia (5. IO) s i può sostituire v con s,, , a condizione d i sostituire
uantil i della legge N(O, 1) con quelli della legge d i Studcnt. Il risultato ottenuto è esatto se le
. X 1 , X2, . . . sono normali. Si utilizza nella pratica anche senzaquesta ipotesi sc11 è abbastanza
ande.
5.4 Problemi di stima 1 25

Esempio 5.17 Calcoliamo l'intervallo (5 . 1 6) per i dati dell'Esempio 5.16 e confrontiamolo con
quello ottenuto nella (5. 1 1). Si ha

s2 = _ n_ a2 = _ n_ -� �
( xz - x�) .
Il Il -- l " Il - l Il L.., '
i=l

Poiché tra le osservazioni ce ne sono 43 che prendono il valore I e 57 che prendono ìl valore O,

2 100 �2 ) = 0.247
(0.43 - 0.4-'
99
S11 =

e quindi s,, = ✓0.247 = 0.497. Si tratta di 100 osservazioni: le tavole non forniscono i quantili
delle leggi r (99) . Dalle tavole, però, si vede che i quantili variano poco al variare di 11, quando 11
è grande. Usiamo allora il quantile per 11 = IOQ e con questa approssimazione si trova 1_975(99) =
1 .98. Si trova
[0.43 - 91tJ1 1 .98, 0.43 + � 1 .98] = [0.33 ] ' 0.528]
che è un intervallo molto simile a quello ottenuto nella (5.1 I). Se il vero valore incognito p è
però molto piccolo (vicino a O) o molto grande (vicino a I) l'intervallo (5. 1 6) può risultare molto
più piccolo, come mostra l'esempio seguente.

Esempio 5.18 Una fabbrica vuole controllare la qualità dei pezzi prodotti. Per questo ne vengono
scelti a caso 1 000 e ispezionati; 27 risultano difettosi. Che cosa si può dire della proporzione di
pezzi difettosi?
Se si usa l 'intervallo di fiducia (5. 10), maggiorando il valore sconosciuto di a 2 con ¼ come
nell'Esempio 5 . 1 6, si ottiene l ' intervallo

[0.027 - ..J..� 0.027 + � ] = [-0.004, 0.059] .


2✓1000 ' 2✓1000

Calcoliamo invece l'intervallo (5.16). Nel campione ci sono 27 valori uguali a I e 973 uguali a
O. Dunque

1000 --
s-, - ----- 1 ,ooo 1 000 2 _ ..,
" X, 2. - O •0272) = -- (0.027 - 0.027 ) --- 0.0,.6
,: - 999 ( JOOO L.., I 999
i=l

e quindi s,, = ✓0.026 = 0. 1 62. Come abbiamo detto, i quantili della legge di Student per 11 = 999
si approssimano con quelli della N(0, I ) . Si ottiene quindi l 'intervallo di fiducia

. 0 62 .9 . 0 62
[0.027 - ! % - - � , 0.027 + 1 G · 1 ] = [0.0 17, 0.037]
./Iooo ./IOOO .
che è molto più stretto.

Esempio 5.19 Riprendiamo i dati dell'Esempio 1 .3 a p. 7 (le mìsurazoni della velocità della luce
j di Michelson). Che stima se ne può ottenere della velocìlà della luce?
26 Capi tolo 5 Con11e rg enza e app_r_
o_
ss m_a_
_i_ z__n_e_____
io _______ _ ______

La media dei valori è .i = 852.4 e la deviazione standard s = 79.0. Abbiamo già visto nei
lcoli dell 'Esempio 5 .17 che 1_975 (99) = 1.98. Dunque l'intervallo di fiducia di livello 95% è

.17) [852.4 - 1 .98 '.ffi, 852.4 - 1 .98 ifi] = [836.72, 868.08} .


eul!ime misurazioni della velocità della luce (Evanson eta!., 1 973)dannoil valore 299 792, 4574,
atto fino alla terza cifra dopo la virgola. Questo valore non si trova nell'intervallo di fiducia
.17) ed è abbastanza evidente che le misurazioni di Michelson sovrastimavano sistematicamente.

prossimo esempio propone un altro classico tipo di problemi di statis_ùca.


sempio 5.20 Il partito A è convinto di avere la maggioranza e commissiona un sondaggio. Su
00 individui intervistati 853 si dichiarano a favore di A. Cosa se ne può dedurre?
Il problema naturalmente sta nel fatto che A ha certamente la maggioranza nel campione, dato
e 853/ 1600 = 53.3%. Ma cosa si può dire dell'intero corpo elettorale? Si può dire che A ha la
aggioranza anche. tra tutti gli elettori? Oppure la scelta degli individui che fomiano il campione
emplicemente stata "fortunata"?
Un modo di procedere è il seguente: supponiamo che A abbia una percentuale inferiore al 50%
a tutti gli elettori, quale sarebbe la probabilità di scegliere un campione di 1600 individui nel
ale A ha una percentuale 2: 53.3%? Indichiamo con X la v.a. "numero d'individui favorevoli
A nel campione". Se la reale proponione di A tra tutti gli elettori è p , 0 :s p :s ! , e gli individui
l campione sono stati scelti in maniera indipendente, allora X avrebbe una legge B(1600, p) .
indichiamo con Fp la f.r. di questa distribuzione, avremmo

P(X ::-: 853) = J - P(X :5 852) = I - Fp (852) .


fosse p == ½ (cioè se A avesse solo il 50% degli elettori), allora, usando l'approssimazione
rmale con la correzione di continuità, avremmo

F1 (852) ~ Cl)( 852·5 - np ) = <t>(852 · 5 - ,800 ) = <1> (2.625) = 0.99 56


17
Jnp(l - p) 40 - 2

nque se A avesse sulo il 50% degli elettori , la probabilità di avere almeno 853 elettori favorevoli
l campione sarebbe 1 - 0.9956 = 0.0044 = 0.44'ìo, da considerarsi molto bassa. Il pmtito A
ò stare tranquillo.
Possiamo verificare la bontà dell'approssimazione normale in questo caso calcolando il vero
lore della f.r. di una legge B(l600, ½) usando un software appropriato li risultato è F1 12 (852) =
9956: l'approssimazione normale qui è particolannente buona. .

esempio precedente è tipico: si fa un'ipotesi (p :: � nelt'Esempio 5 .20) e si vuole vedere se i


ti permettono di respingerla.
empio 5 .21 Si sospl,lta che un dado sia truccato, in modo da dare il risultalo uno con prohabilità
ù grande di Il dado viene lanciato 900 volte e si ottiene uno 165 volte. Cosa si può concludere?

Come nell'Esempio 5 .20, se i l dado fosse equilibrato si avrebbe uno con probabiliti1 i; ad ogni
ncio e il numero, X, dì uni ottenuti in 900 lanci dovrebbe dunque essere una v.a. di legge
900, -t;)- La media di questa v.a. è 900 - ¼ = 1 50, dunque effettivamente il numero di uni
osservato è un po' più grande della media. Si tratta di una differenza sig��
probabilità che una v.a. di legge B(900, ¼) prenda valori 2: 165? ,,· ;:ì '� . . __
Se usiamo l'approssimazione normale con la correzione di continuità, allom:irico
una v.a. B ( l , !) ha varianza ! � = fii , , .; ,:·.·/ <)11/f _.. .,...,
' .,.:-\ .; f_.,1•�:!i....�j?_l\
164.5 - ¼ 900 6 - 14.5 ·. : ·
P(X 2: 1 65) = 1 - P(X :5 164) = I - <I> ( )
I - <I> ( 30✓'5 ) = •:• ·· . , ,,

y 900 t Ì =
= 1 - <1> (1.297) = 1 - 0.903 = 0.097 = 9.7% .
Cosa se ne può concludere? Beh, ìl dato è un po' sospetto perché la probabi_l ità �he nei 900 l� ei
compaiano più di 165 uni è un po' piccola, però forse, se vogliamo esser� s1cun, �na pro_bab1h'.à�
del 9.8% non è poi così bassa. Vorrebbe dire che se il dado fosse eqmhbrato e_ npetess1mo?1ù
volte lo stesso esperimento di lanciarlo 900 volte, otterremmo un valore supenore a 1_65 pm o
meno una volta su dicci. L'elevato numero di unì osservato potrebbe quindi essere semplicemente
un fatto casuale che si potrebbe verificare anche in presenza di un dado equilibrato e rischiamo
di dichiarare come truccato un povero dado onesto.
Potremmo allora chiederci: quanti uni dovrebbero apparire tra i 900 perché si possa decidere che
il dado non è equilibrato? Si può procedere così: stabiliamo un livello, ad esempio a = _ù:0 I = I %
e poi cerchiamo u n numero k tale che s e p = ¼ allora P ( X 2: k) :5 O.O!. Dec1d1amo che
dichiareremo il dado trnccato se X 2': k .
Quanto deve essere grande k ? Sempre usando l'approssimazione nonnale, troviamo

- I + ,\ - 1 900 150,
P(X 2: k) = l - P(X :5 k - I ) = J - <!>(
k
.ff;od
900i �
) = I - <I>
(k-�-
--� ) •
30 -6-

Se vogliamo che sia P(X ce:. k) :5 O.O I , al lora dovra essere

k - ½ - 150
<!> (--=-e=-- ) -> 0.99 .
5./5
Poiché (vedi le tavole) si ha <l>(x) ::: 0.99 per x 2: 2.33 (all'incirca) deve dunque essere

k - l - 1 50
.33
s./5 ?:: 2

ovvero k - 5: - 1 50 ::: 5./5 • 2.33 e dunque


l
k 2: 5./5 . 2.33 + ?. + 1 50 = l 76.55 .

Dunque occon-ono almeno 177 uni nei 900 lanci per poter essere sicuri che il dado è truc_cato �o�
questo livello di certezza. Naturalmente la scelta ckll' ! % è arbitraria e, a seconda delle s1tuaz1om
si possono scegliere livelli diversi.

L'esempio precedente illustra (senza troppo preoccuparsi di dare defmizio�i precise) !l modo
con cui in generale si affronta un problema di test in statistica: si dctenmna una regione (la
n�Ìemc: di possibili valori delle osservazioni, che risulta òi proba­
ét§sa'fò' ilumero a se l'ipotesi fosse vera e si stabilisce di respingere
·nÒJ\•alori proprio nella regione di rigetto. Nell'Esempio 5.21 ad esempio
· .
. . + x900 2: 1 77 è una regione di rigetto di livello cz = 0.01 per

mpio"'CS2� Riprendiamo i dati di A. Geissler (Esempi 1.2 a p.5 e 3 .46 a p . 64) e consideriamo
ffijté;i che gli esiti di nascite diverse siano indipendenti e diano luogo ad un maschio con proba­
tà 0.517. Ricordiamo che dalle valutazioni qualitative che avevamo fatto eravamo propensi a
nere che questa ipotesi non fosse vera. Come si può costruire una regione di rigetto di qu_esta
esi di l ivello O.O!?
Possiamo ragionare così: se l'ipotesi fosse vera, il numero di figli maschi in una famiglia, Y,
uirebbe una distribuzione B(IO, 0.5 17) . La probabilità che una v.a. con questa legge assuma
lori O oppure 1 è
P(Y = O) + P(Y = I) = (I - 0.SJ 7) 10 + 10 - 0.S 1 7 . ( I - 0.5 17)9 = 0.008 := p
a somma di /Jo e di p 1 , vedi la tabella dell'Esempio 3.46). Se l'ipotesi fosse vera, il numero
amiglie aventi O oppure l figlio maschio si modellizzerebbe dunque come la somma S =
+ . . . + X26 soo di 26 500 v.a. indipendenti tutte di legge binomiale B(lO, p) (p = 0.008 come
cato sopra). Fissiamo un livello a = O.O l e cerchiamo un numero k tale che

8) P(S ::: k) ::: a


biliamo quindi di rigettare l'ipotesi se nel campione si osserva un numero di famiglie con al
un figlio maschio che è superiore a k. Osserviamo che nel campione si sono osservaci No = 35
1 = 239 famiglie rispettivamente con nessun oppure un solo figlio maschio, che fa un totale
74 famiglie con al piì, un maschio. Dobbiamo dunque determinare il valore di k a partire dal
e vale la (5.l 8) e potremo respingere l'ipotesi se questo numero k risulterà più piccolo di 274.
erviamo che 11p = 26 500 x 0.008 = 2 1 2 , cioè un numero ben più grande di 5: la regolctta per )f{;
·J
plicazione dell'approssimazione normale è soddisfatta. Come già visto altre volte abbiamo
·J
k - �- - 26500 . p J. i]
P(S � k) = 1 - P( S � k - 1) "" 1 - <f> ( )• ·�
J26500 - p(l - p) 1�
ché questa quantith sia ::: 0.01 dovrà essere
k - ½ - 26500 · p
q, ( -;======== ) > - 0.99 .
J26500 · p(I - p)
uantile di online 0 .99 della legge N(O, l) è 2.33 e dunque dobbiamo dunque risolvere
k - k" - 26500 · p
> 2.33
/26500 · p ( I - p) -
dà immediatamcntè

k ::: ½ + 2.33 /26500 · p(l - p) + 26S00 · p = 248.78 .


5.4 Problemi di stima 1 29

Dunque possiamo rigeuare l'ipotesi, dato che le famiglie con al più un figlio maschio sono 274 .
La scelta del livello a = O.O 1 è comunque arbitraria. Cosa sarebbe successo se avessimo scelto
un livello a = 0.001 ? Calcoliamo quanto vale la probabilità P(S 2: 274) nell'ipotesi che S abbia
legge 8(1 0, 0.517):

273 · 5 - 26500 . p
P(S 'è: 274) = 1 - P(S � 273) "" I - 4>( J26500 ) = l - <t> (4.06) .
· p(l p))
-

Si tratta di una probabilità molto piccola che non si trova neanche sulle tavole. Un software
adeguato dà comunque 1 - c!> (4.06) = 0.0000246. Possiamo dunque respingere l'ipotesi che le
nascite fossero indipendenti anche a un livello a = 0.001 o addirittura 0.000 1 .
l
Tracce

Esercizi per il Capitolo 1


L'esecuzione degli esercizi di statistica descrittiva richiede dei calcoli numerici in genere di scarso
interesse (! 'interesse risiede nell ' interpretazione dei risultati). L'uso di un software appropriato
è quindi naturale, in modo da evitare di perdere tempo con il calcolo numerico e di concentrare
l'attenzione sull'analisi dei risultati. È facile trovare in rete dei software adatti, anche gratuiti (vedi
le indicazioni a p.42). I dati degli esercizi si trovano nel sito www . ateneonline . i t/pbaldi
doveso110 in formato lesto , in modo che non è necessario inserirli a mano nel computer, operazione
che si può invece fare facilmente usando i comandi di in pur/output de! software. Nel silo indicato
sopra si trova anche una sessione tipo della loro risoluzione usando uno di questi software:
scilab. Si tratta di un software gratuito, facilmente reperibile in rete (vedi sempre a p . 42) .
1 Consideriamo le misurazioni della percentuale di grassi nel latte di 1 20 vacche (come indicato
sopra i dati numericì si scaricano dal sito www . ateneonline . it/pbaldi) . Calcolare le
usuali grandezze statistiche: media e mediana, varianza, ampiezza dell'intervallo interquartile,
range.
2 Nel sito sono riportate le misurazioni della lunghezza (in cm) di conchiglie prese in un giacimento
in Spagna.
a) Calcolare media, mediana e varianza. Calcolare il range e l 'ampiez;,;a clcl l'intervallo io­
lerquartilc. L'istogramma mostra qualcosa d ' interessante?
b) È stato poi determinato che le ultime 8 misurazioni in realtà riguardavano conchiglie di
un'altra famiglia. Calcolare le stesse statistiche per il campione senza queste ullirne misurazioni .
Confrontare l a variazione della media con quella della mediana e quella d e l range c o n quella
del l ' intervallo interquarlilc. Disegnare l'istogramma elci dati, tolti gli ultimi 8. Cosa si osserv�?
3 Nel sito sono riportate le misure della densità della Terra, effettuale da H. C.1vendish nel 1798 .
Il valore riportato è in termini di mullipli della densitil dell'acqua. Il valore accettato oggigiorno
per la densità della Terra è 5.517 volte quella dell'acqua.
a) Qual è la media delle osservazioni di Cavcndish? E la mediana?
b) Ci si è accorti in seguilo che il set!imo valore riportato, 5.88, era in realtà 4.SS. Quanto
valgono ora media e mediana?
e) Calcolare, per i dati corretti con 4.88 al posto cli 5.88, la skewncss e disegnare l ' istogramma .
e-4 t:eserciziario l
(Questi dati vengono ripresi nell'Esercizio 5.26) .
Nel sito sono riportati i valori della concentrazione di ozono e dell'irraggiamento solare osservati
in 1 1 J giorni consecutivi da una stazione di rilevamento.
a) Quanto vale la media delle concentrazioni di ozono osservate? Calcolare l' indice di skewness
per il carattere ozono e disegnare l 'istogramma. Quanto vale la mediana?
b) Rispondere alle stesse domande per le misurazioni dell'irraggiamento solare.
c) Calcolare la covarianza tra le due variabili e il coefficiente di correlazione. Determinare la
retta di regressione della concentrazione di ozono rispetto al l' intensità d'irraggiamento.
d) È ragionevole supporre che la concentrazione di ozono in un dato giorno sia correlata con
quella del giorno precedente. Come pensate di mettere in evidenza questo fatto?
Nel sito sono riportati, per 43 stati degli Stati Uniti e per il District of Columbia (Washington), il
numero, X, di sigarette vendute all 'anno (in centinaia per abitante) e il numero, Y , di decessi per
cancro del polmone per JOO mila abitanti nel 1 960.
a) Che tipo di valore della covarianza tra le variabili X e Y vi aspettate? Quanto vale il
coefficiente di correlazione trn questi due caratteri? Ritenete che i dati confermino l 'esistenza di
una dipendenza tra i due caratteri?
b) Calcolare la retta di regressione di Y rispetto a X e disegnare il grafico dei dati sul piano.
Quale degli stati presenta valori che si discostano dagli altri?
Nel sito sono riportate le osservazioni rispettivamente del l'età, X, e dello stipendio, Y, di 59
amministratori delegati di piccole aziende, riportati dal Forhes Magazine nel 1993.
a) Quanto vale la media degli stipendi del campione? Calcolare l'indice di skewness e dise­
gnare l 'istogramma. Quanto vale la mediana? Cosa ritenete più opportuno usare come indice di
centralità per gli stipendi, la media o la mediana?
b) Che tipo di valore vi aspettate per la covarianza delle due variabili ,stipendio ed età? Calcolare
la covarianza, il coefficiente di correlazione e la retta di regressione.
Nel sito sono riportate le misurazioni delle portate medie, in metri cubi al secondo, del fiume
Fraser (British Columbia, Canada) nei mesi di marzo che vanno dal 1913 al 199 1 .
a ) Calcolare media e varianza. I dati si dispongono i n maniera simmetrica rispetto alla media?
Cosa si può dire della kurtosi?
b) Sarebbe interessante valutare se, tenden,:ialmente, il flusso medio è andato aumentando 0
diminuendo nel tempo. Come pensate di fare?
Nel sito sono riportate le variazioni in percentuale di una azione quotata in borsa in 48 giorni
lavorativi consecutivi . Di quanto è aumentato, in percentuale, il valore dell'azione alla fine dei
48 giorni? Quanto è stato l ' aumento medio?
Nel sito sono riportate le misurazioni del peso (in once) di un campione di neonati maschi. I
dati sono stati raggruppati per classi: Zk e Nk indicano rispettivamente il centro e l 'effettivo della
classe k-esima.
a) Quanti sono gli individui del campione?
b) Quanto valgono media e varianza? Se ora i dati venissero trasformati in grammi (una
oncia=28.349 granuni) come si trasformerebbero questi valori?
c) Cosa si può dire della mediaua e dei quartili?
d) Sapreste ricavare nna formula per calcolare skewness e kurtosi con i dati in questa forma?
Tracce e-5

.IO Nel sito sono riportate le temperature in gradi Fahrenheit, Y, osservate per 60 giorni consecutivi
in un paese dell'Oklahoma e le previsioni fatte il giorno prima da due stazioni meteorologiche,
X 1 e X2 . Calcolare la covarianza di Y e X 1 e di Y e X2 e i relativi coefficienti di correlazione.
Quale delle due stazioni è da considerarsi più accurata, secondo voi?

Esercizi per il Capitolo 2


2.1 Nella lotteria di Oslo vengono venduti I milione di biglietti. Al momento dell'estrazione da
ognuna di sei urne, contenenti ciascuna dieci palline numerate da O a 9, vengono estratte le cifre
del biglietto vincente, partendo da quella di sinistra.
a) Costruire uno spazio di probabilità (Q , sl, P) adeguato a descrivere questa situazione. In
"Un biglietto della lotteria" di J.Verne il biglietto di Olc Kamp ha il numero 009672; qual è la
probabilità che venga estratto'!
b) Nel romanzo, J .Verne discute quale sia la probabilità che Ole Karnp ha di vincere dopo che
dalle prime quattro urne sono stati estratti i numeri 0096. Indichiamo con A l'evento "le prime
quattro urne hanno dato i numeri 0096". Descrivere la probabiliH1 condizionale P( l A ) . E se A
fosse l'evento "le prime cinque urne hanno dato i uumeri 00967'"1
2.2 Da un 'urna contenente 4 palline bianche e 3 nere si eseguono due estrazioni con rimpiazzo {cioè
la pallina estratta viene subito rimessa nell'urna).
a) Calcolare la probabilità che le due palline estratte siano del medesimo colore.
b) Calcolare la probabilità che almeno una delle due palline estratte sia nera.
23 Due numeri vengono estratti, senza reimbussolamento, da un'urna contenente sei palline numerate
da 1 a 6. Qual è la probabilità che i due numeri estratti siano consecutivi?
2.4 a) Due amici si trovano entrambi in coda a uno sportello, insieme ad altre 11 - 2 persone. Qual è
la probabilità che essi siano separati esattamente da k persone (n ?.: k + 2)?
b) Due palline vengono estratte da un'urna che ne contiene n numerate da l a n. Quai è la
probabilità che i due numeri differisca.no di k (n ?.: k + I )?
2.5 I componenti prodotti da una certa ditta possono presentare due tipi di difetti, con percentuali del
3% e 7% rispettivamente. I due tipi di difeuosità si possono produrre in momenti diversi della
produzione per cui si può assumere che le presenze dell'uno o del l'altro siano indipendenti tra
loro.
a) Qual è la probabilità che un componente presenti entrambi i difetti?
b) Qual è la probabilità che un componente sia difettoso (cioè che presenti almeno uno dei due
difetti)?
e) Qual è la probabilità che il componente presenti il difetto I, sapendo che esso è difettoso?
d) Qual è la probabilità che esso presenti uno solo dei due difetti s;ipendo che esso è difettoso?
2.6 Un 'urna contiene due ca11e: una di esse ha entrambi i lati neri mentre l'altra ha un lato nero e uno
bianco. Una carta viene estratta e se ne guarda uno solo dei lati: è nero. Qual è la probabilità che
anche il secondo lato sia nero?
2.7 Volendo impedire telefonate interurbane ai suoi dipendenti, un capoufficio decide di mettere un
lucchetto sui dischi dei telefoni (quelli di una volta. . . ); decide però di metterlo sul 9, in 111anicra
da impedire solo che venga formato lo O. In questo modo è possibile effettuare telefonate urbane,
anche se naturalmente può succedere che un numero urbano contenga uno O, nel qual caso non è
6 Ceserciziario

ossibile comporlo . Considerando dei numeri di otto cifre (ùi cui la prima è diversa da O), qual è
probabilità che un numero possa effettivamente essere chiamato?
n dado viene lancialo 3 volte.
a) Qual è la p robabilità p di ottenere 6 almeno una volta? 2. 1
b) Quante volte deve essere lanciato il dado perché la probabilità di o!lcnert! 6 almeno una volta
a maggiore o uguale al 90%?
na dipendente di una società di Gainesville, Florida. accusò nel 1 976 i suoi datori di lavoro
stenendo d i avere subito ingiuste discriminazioni sulla base del sesso nel corso della sua carriera.
a commissione , composta da 5 donne e 3 uomini, le diede ragione: infatti le 5 donne votarono
favore mentre i 3 uomini si dich iararono contrari. 2.1
A questo punto la società fece ricorso sostenendo che l'esito del giudizio precedente era dovuto
clusivamente alla composizione della commissione. 2 .1
Qual è la probabilità che, in caso di ripartizione casuale, per una votazione 5 a 3 i voti si
ddividano come è avvenuto (le 5 donne a favore ed i 3 uomini contro)? Cosa avreste deciso se
ste stato il giudice? E se i 5 voti a favore della parte lesa fossero stati dati da quattro donne e
un uomo?
n giocatore di poker riceve all 'inizio del gioco cinque carte da un normale mazzo di 52.
a) Qual è la probabilità che riceva almeno 2 assi?
b) Qual è la probabilità che riceva cinque carte dello stesso seme?
c) Qual è la probabilità che riceva un poker servito?
n giocatore gioca al lotto i numeri 1 , 2, 3. Per aiutare la fortuna nottetempo egli fa in modo di
giungere ali' urna tre palline supplementari con i numeri l, 2, 3 (quindi ora vi sono nel! 'urna 93
lline).
Qual è la probabilità che il trucco venga scoperto {cioè che vengano cstr::nte :ilmeno due palline
n numeri uguali)? (Continua nell'Esercizio 3 .25) 2.1
e urne numerate I , 2, 3 sono inizialmente vuote. Esse vengono poi riempite con n palline che
ngono messe, una dopo l'altra, i n una delle urne, scelta a caso ogni volta.
a) Qual è la probabilità che l'urna I rimanga vuota?
b) Qual è la probabilità che le urne J e 2 rimangano vuote'!
e) Qual è la probabil ità che una delle u rne rimm1ga vuota?
eci urne contengono tutte 4 palline rosse (R) e un numero variabile di palline bianche (B). Più
ecisamente l 'urna i-esima contiene 4 palline R e i palline B. Un'urna viene scelta a caso e da
sa vengono estratte due palline.
2.
a) Qual è la probabilità che le due palline siano una B e una R?
b) Supponiamo che l 'estrazione abbia dato come risultato una pallina B e una R. Qual è la
obabilità p; che l' urna prescelta sia la i -esima? Qual è l'urna più probabile ?
e) Supponiamo invece che vi siano 2 urne contenenti 4 palline R e 10 B (le urne sono quindi 2.2
). Se l'estrazione ha dato come risultato una pallina B ed una R, qual è ora la probabilità che
rna prescelta sia di tipo i (cioè contenga i palline B)? Qual è ora il valori:' <li i piÌl probabile? 2.2
n compilatore assegna ad ognuna delle variabili che intervengono in un programma una cella
memoria scegliendola a caso e in maniera indipendente da 1111:1 variabil,� all'altra. ln caso di
nflitto (cioè se due variabili vengono assegnate alla stessa cella) l'operazione di assegnazione
ve essere ripetula.
Tracce e-7

Se vi sono n cel le di memoria e k variabili, qual è la probabilità che si verifichi un conflitto?


Quanto vale questa probabilità per n = 1000 e k = 25? Si tratta di una probabilità grande? Come
valutate questa procedura?
Un 'urna contiene due palline rosse e quattro nere. Due giocatori A e B giocano nel modo seguente:
le palline vengono estratte ad una ad una e messe da parte. A vince se l 'ultima pallina è rossa,
altrimenti vince B .
a ) Qual è la probabilità c h e A vinca?
b) Qual è la probabilità che A vinca sapendo che la prima pallina estratta è rossa?
c) Qual è la probabilità che A vinca e che la prima pallina estratta sia rossa?
Un'urna contiene 100 palline numerate da I a 100. Ne vengono estratte 5 con rimpiazzo. Qual è
la probabilità che tra le palline estratte ve ne siano almeno due uguali?
Un gene è composto da due alleli, ciascuno dei quali può essere di tipo A oppure a. Nella
popolazione vi sono dunque tre tipi d'individui: di tipo AA, Aa e aa . Alla riproduzione ognuno
dei due genitori trasmette al figlio uno dei due alleli, scelto a caso. Supponiamo che inizialmente
le proporzioni dei tre tipi genetici nella popolazione siano rispettivamente
AA Aa aa
p q ,.
dove p, q, r sono numeri ?: O e tali che p + q + r = I .
a) Quali saranno le proporzioni dei tre tipi alla generazione successiva?
b) E alla seconda generazione? Cosa pensate dell'evoluzione di questa popolazione? Essa
tenderà verso un equilibrio genetico?
Questo si chiama modello di Hardy- Wcinberg e suppone l 'assenza di selezione naturale (o­
gnuno elci tre tipi ha la stessa probabilità di giungere alla riproduzione).
(Riservato ai giocatori di bridge) Il giocatore in Nord e il morto possiedono insieme 8 carte di
atout tra cui A e K (dunque Est e Ovest insieme ne hanno 5, tra cui la Q).
a) Qual è la probabilità che la distribuzione degli atout sia 2 in Ovest e 3 in Est?
b) Qual è la probabilità di far cadere la Q di atout battendo A e K sapendo che la distribuzione
degli atout è 2 in Ovest e 3 in Est?
e) Qual è la probabilità di far cadere la Q di atout semplicemente battendo A e K ?
d) Supponiamo che Nord abbia fatto un giro di atout con l 'A a c u i tutti hanno risposto, senza
che la Q sia caduta. Qual è la probabilità che la Q cada battendo il K al giro seguente? S i tratta
di una probabilità più grande o piì1 piccola di quella calcolata in b}?
Un numero viene scelto a caso trn I e 1 011 •
a) Qual è la probabilità clic sia un multiplo di 5?
b) Qual è la probabilità che sia un multiplo di 5 ma non di 25 7
In un gioco il giocatore e il banco lanciano entrambi un dado. Il giocatore vince solo se il suo
numero è strettamente più grande di quello del banco. Qual è la probabilit1, che il giocatore vinca?
a) In una popola;done una persona è affetta eia una malattia A con probabilità p ,= 0. 1 1 , da una
malattia B con probabilità q = 0.07 e da entrambe con probabilit11 r = 0.03.
a l) Qual è la probabilità che una persona sia affetta da almeno una delle due malattie?
a2) Qual è la probabilità che una persona sia affetta da entrambe le malattie, sapendo che è
affetta da almeno una delle due?
e-8 L'eserciziario

b> Dacì due cwncì ,I e H. indìd1ian10 con C l 'evento "uno solo tra A e B si verifica".
b l i hprimcn: e ronn:dmcnce come unioni, intersezioni , complementari . . . di A e B .
ll1J Mo,tr:m: che P ( C ) = P(1\ J + P( B J - 2P{A n B) . (confrontare con l a (2.5)).
hJJ Jn rikrime111o ,illa situazione di a), qual è la probabilità che una persona sia affetta da
e,a11:11ncntc 111111 delle due malattie?
2 JO persone s · inconcrnno in un viaggio organizzato che dura 16 giorn i .
a} Uno dei partecipanti dice "La probabilifa che ci sia almeno uno del gruppo che festeggia il
compleanno durante il viaggio è molto alta". Cosa 11e pensate?
b) Quanto dovrebbe durare il viaggio perché la probabilità che almeno uno dei IO parteeip�nti
festeggi il compleanno durante il viaggio sia :::. 50%? :::: 90%?
e) Quanti dovrebbero essere i partecipanti perché durante i l 6 giorni del viaggio uno di loro
tcstcggi il compleanno durante il viaggio con probabilità :::: 50%? :::: 90%?
Una grave malattia colpisce il 3% della popolazione. Un test per i l suo depistaggio è efficiente
al 95% tra i malati e all'80% tra i sani. Ciò vuole dire che con probabilità del 5% un malato non
viene individuato, mentre con la probabilità del 20% una persona sana viene trovata positiva alla
malallia.
a} Qual è la probabiliti1 che un paziente risulti positivo al test?
b) Qual è la probabilità che un individuo che risulta positivo al test sia effettivamente malato?
e) Qual è la probabilità che un individuo che risulta negativo al test sia invece malato'!
Una scatola contiene 1 0 monete; 8 di queste sono equilibrate, men tre le altre 2 danno testa (T)
con probabilità ] e croce (C) con probabilit1, j .
a) Qu al è l a probabilità che una moneta scelta a caso tra l e 1 0 e lanciata tre volte di a TTT'!
b) Una moneta scelta a caso viene lanciata tre volte e si ottiene TTT.
b l ) È più probabile che sia equilibrata o no?
b2) Qual è la probabilità che anche un quarto lanc i o dia T?
c) Una moneta scelta a caso viene lanciata 11 volte. Quanto grande deve essere II perché la
probabilità che la moneta non sia equilibrata sapendo che gli 11 lanci hanno dato T sia :::. 50%?
È molto i mportante che tra le due sedi di una stessa compagnia vi sia sempre una linea di
comunicazione attiva. Perquestoesse sono state collegate con II linee di trasmissione indipendenti .
Dunque le due sedi potranno comunicare fintanto che sad1 funzionante almeno una di queste 11
linee cli comunicazione. Supponiamo che ogni linea sia operativa con probabili tà 80%.
a) Esprimere, in funzione di 11, la probabilità che le due se<li siano collegate. Quanto grande
deve essere II perché questa probabilità sia superiore al 99%?
h) Qual è la probabilità che ci sia almeno una linea interrot ta? Qual è la probabilità che ci sia
almeno una linea interrotta, sapendo che la comutiicazionc è attiva?
e) Sapendo che la comunicazione è attiva, qual è la probabilit/1 che l,1 linea numero I sia
operalivn?
Una scarola co11tiene una pallina rossa, una gialla e una blu. Una pallina viene estratta a caso,
se ne osserva il colore e poi viene rimessa nell 'urna aggiungendovi un'altrn pallina dello stesso
colore . Una p::tllina viene estratta.
a) Qual è la probnbilifa che questa seconda estratta sia bJu ?
b) Sapendo che questa seconda estraua è blu, qual è la probabiliti1 che anche la prima estratta
fosse blu?
Tracce e-9

27 Una moneta equilibrata viene lanciala 8 volte.


a) Quale delle sequenze
TTTTTTTT
TTTTCCCC
TCTTCTCC
è più probabile?
. .._ ,
b) Rispondere alla stessa questione, supponendo ora che la moneta dea T con probab1hta P = :\
e C con probab i lità I - p = i·
28 Consideriamo una normale mano d i bridge d i 1 3 carte.
a) Qual è la probabilità che essa non contenga nessuna carta dì fiori?
b) Qual è la probabili là che essa manchi completamente di almeno un seme?
29 Due dadi vengono lanciati uno dopo l'altro.
a) Qual è la probabilità che la somma dei due risul tati faccia 7?
b) Qual è la probabilità che la somma dei due risultati faccia 7 sapendo che il primo ha dato 2?
e) Qual è la probabilità che la somma dei due risultali faccia 7 sapendo che uno dei due dadi
ha dato 2?
30 Quattro amici che giocano abitualmente a tressette hanno convenuto di annullare una p artita
quando uno almeno cli loro riceve una mano in cui non sono presenti né un asso, né un due né
un tre. Qual è la probabilità che la partita venga annullata? (Nel tressette si usa un mazzo da 40
carte che vengono distribuite all ' inizio, I O per ognuno dei quattro giocatori).
31 Si deve scegliere un comit ato di 6 persone tirandole a sorte da un gruppo <li 8 donne e 7 uomini.
a) Qual è J a probabil ità che nel comitato figurino esattamente due donne?
b) Qual è la probabil ità che nel comitato figurino al più due donne?
e) Alla fine è stato scelto un comitato formalo da una donna e cinque uomini. Di fronte alle
proteste ed alle accuse di discriminazione è stato risposto che la scelta era stata fatta a caso e che
era stata solo sfortuna. Cosa ne pensate?
32 Un'urna contiene 3 palline rosse e 3 bianchi! e da essa se ne estraggono due con reimbussolamento.
a) Qual è la probabilità che le due palline abbiano lo stesso colore?
b) Supponiamo che la prima pallina estratta venga rimessa nell'urna insieme a un'altra pallina
dello stesso colore. Qual è la probabilità che le due palline estratte siano dello stesso colore?
c) Stessa domanda, ma supponendo che la prima pallina estratta venga rimessa nell'urna in­
sieme ad altre 3 palline dell'altro colore.
33 Un'urna contiene 4 palline rosse e 6 bianche e da essa se ne estraggono 4 senza rcimbussolamento.
a) Qual è la probabilità che tra le palline estratte ce ne siano due rosse e due bianche?
b) Qual � la probabili fa che le prime due tstratte siano rosse e le seconde due siano bi,rnche'1
e) Qt1al è la probabilità che le prime due estratte siano bianche e le seconde due rosse?
34 4 carte vengono scelte insieme da un normale mazzo di 52. Dire qual è la probabilith che le 4
carte
a) siano di 4 semi diversi;
b) siano due cli quadri e due di cuori;
c) si ano due di uno stesso seme e le altre due di uno stesso seme diverso dal primo;
d) siano solo di quadri e di cuori .
10 L'eserciziario

n'urna contiene 3 palline rosse e 7 nere. Due giocatori , A e B, estraggono a turno una pallina,
e poi non viene più rimessa nell'urna. Vince il giocatore che estrae per primo una pallina rossa .
a) Qual è la probabilità, qk , che dopo k estrazioni il gioco non sia ancora finito (k = 1, . . . . 8)?
b) Qual è la probabilità, Pk, che vinca i l giocatore che effettua la k-esima estrazione? Per quali
lori di k = l , . . . , 8 questa probabilità è massima?
e) Qual è la probabilità che vinca il giocatore che inizia il gioco?
go, Ciro, Alessandro e Massimiliano sono candidati per formare l 'equipaggio della naveua
aziale, composto da due persone. L'equipaggio verrà deciso per estrazione a sorte.
2.4 5
a) Qual è la probabilità che Ugo faccia parte dell'equipaggio?
b) Qual è la probabilità che i prescelti siano Ugo e Ciro?
ato un insieme E formato da 211 punti, si chiama diagramma una partizione di E in coppie di
nti. Quanti sono i diagrammi su E?
ati due insiemi A = (a 1 , . . . . a,i } e B = (b i • . . . • b,, ) (uventi la stessa cardinalità), si dice che 2.46
fa un accoppiamento (ma!ching) quando ad ogni elemento di /I si associa uno (ed un solo)
emento di B in maniera che ad elementi diversi vengano associati elementi diversi. Quanti sono
ossibili accoppiamenti su II elementi?
n errore molto comune è di confondere le nozioni di "eventi disgiunti" ed "eventi indipendenti".
ostrare che due eventi A e B, disgiunti ed entrambi di probabilità strettamente positiva, non
ssono essere indipendenti.
Un 'urna contiene 211 palline, di cui 11 rosse e 11 nere. Da essa se ne estraggono 1i. Mostrare che
probabilit11 che tra le pall ine estratte ce ne siano esattamente k rosse vale

2.47

Mostrare che 2.4

tG f = (�'.' )
k=O

n'urna A contiene 2 palline rosse e 4 nere, mentre l ' urna B contiene 4 rosse e 2 nere . Da
ascuna delle urne viene estratta una pallina. Qual è la probabilifa che abbiano Io stesso colore?
ual è la probabilifa che abbiano colori diversi? Quale <li questi due eventi è più probabile?
n gruppo di dieci turisti ha prenotato un volo con 120 passeggeri . Al momento dell'imbarco
ene comunicato che sono state accettale troppe prenotazioni e che I O p:i��cggeri verrnnno cslralli
orte e spostati su un volo successivo.
a) Qual è la probabilità che tutti e dieci i turisti del gruppo riescano a partire subito?
b) Qua l è la probabilità che i dieci sorteggiati sia110 esatlamellle quelli del gruppo?
n'urna contiene 5 palline rosse, 7 nere e II blu . Dal l'urna vcngor.o estratte insieme Ire palline.
a) Qual è la probabilità p,. che le tre palline siano di tre colori diversi?
b) Per quale valore di II questa probabilità è massima? (Per quest'ultimo punto ci si potrà
mitare ad una esplorazione n umerica per 11 = 4, 5. 6, 7, 8)
Tracce e-1 1

no palline nere rosse e g ialle nel


Due urne, A e 8 , sono indisting uibili esternameme e contengo
munero di J , 2, 3 e 3 , I , 2 rispettivamente. . ... . 0 . •
. e l_a probab1hta d1 0., 111 colo'.e.?
a) Viene scelta u n'urna a caso e se ne estrae una pallina. Qual
se ne strae una pallina, che risulta essen, rossa. Qual e la
bi) Viene scelta un 'urna a caso e e

robabilità che si tratti dell'urna A? . , .a uina,. che


pallina da!I alt1
b2) Per acquisire ulteriori informazioni viene estratta una seconda
isulta essere nera. Qual è la probabili tà che la prima urna sia la A?
estratte una dopo l ' altra se11w
Un'urna contiene 90 palline numerate da I a 90, che vengono
impiazzo . . ., .
tutte un numero p1u piccolo (::,:)
a) Qual è la probabil ità che le prime 10 palline estratte portmo
ili 60? . · . . '1 ?.
tutte un numero d1sp,11
b) Qual è la probabil ità cile le prime IO palline eslrallc portmo
vengono estratte ad una ad una finu a
Un'urna contiene 10 palline rosse e 1 5 bianche . Le palline
lasciarne tre. Consideriamo le palline restanti.
a) Qual è la probabilità di ognuno dei possibili risultati:

3R. 2R e l B. 1 R e 2 B, 3B

Quale d i questi risultati è il più probabile'' .


2B è _la_ s_tcssa che quella d, ottener�
b) Mostrare che la probabi lità che siano rimaste l R e che questo e
a 1111z1ale. Mostrar e
I R e 2B come risultalo dell'estrazione di tre palline dall'urn
gli altri risultati elencati in a). (Sugger imento: si usa la prima delle (2. 1 3))
vero anche per
d iversi vengono estraile 4 palline
Da un'urna cbe contiene JO palline per ognuno di tre colori
sc11�a reimbussol ame11to.
colore?
a) Qual è la probabi lità che ce ne sia almeno una di ogni
b) E se le palline estratte fossero 5?
. Le connessioni, rapp,resentate dai
La Figura e.I prese[lla due esempi di reti di comunicazione
dentemente l ' una dall altra_- l_ nodi
seom;nti nella figura, sono attive con probabi lifo p, indipen
o collega ti se esiste almeno un cammin o che couduc e l'uno all'altro cost1tu1 to da
N� e N2 risultan
connessioni attive. . . .
collegati nel caso d1 rcl! come nella I'igura
a) Calcolare Ja probabi lità che i nodi N1 e N2 siano
e.I a) e b).

u) b)

Figura e.I

b) Calcolare la probabili1à che i nodi N1 e N" siano collegati nel caso d i '.ma rete come ne�la
_
Figura e.2. {ques1a seconda p.!l'IC dell'esercizio non è concettualmente p1u d1ffic1Je del punto a),
e-1 2 !..:eserciziario

ma richiede un'analisi molto più elaborata).

Figura c.3

e) Confrontare numericamente i valori ottenuti per p = 0.6 per i sistemi di connessioni e._l a),
e.I b) e e.2.
9 Vero o falso?
a) Dati due eventi ri e B con P(A) = P(B) > O, si h,1 P(A I B) == P(B I A ) .
b ) D u e eventi A e B tali che P(A) > 1 e P(B) > � non possono essere disgiunti.
c) Due eventi A e B tali che P(A) > l e P(B) > J non possono essere indipendenti.
d) Sia B un evento tale che P(B) > O-e A 1 e A 2 cii,e eventi indipendenti. Allora si ha P(t\ 1 n
A2 I B ) = P(A 1 I BJP(A2 I B ) .
e ) Se A e B sono eventi indipendenti e anche A e C sono eventi indipendenti, allora anche A
e B u C �ono indipendenti.
f) Se A e B sono eventi indipendenti e anche A e C sono eventi indipendenti e per di più
B n C = 0, allora anche A e B u C sono indipendenti .
g) Sia A un evento. Allora A e �J sono indipendenti.
h) Se A e B sono eventi tali che A il B = 0 allora A e B non possono essere indipen<lemi.
i) Se A e B sono eventi <li probabilità strettamente positiva (cioè P(A) > O, P(B) > O) e tali
che A n B = ç1 allora A e /J non possono essere indipendenti.

Esercizi per il Capitolo 3


1 Una compagnia aerea dispone di due tipi di aerei , uno da 20 e un altro eia IO posti. Poiché si sa che
i pm;seg�eri che prenotano roi non ,i prescnrnno con una rrobabilità del 10%, vengono sempre
accettate 22 prenotazioni sui voli da 20 posti e 1 1 su quelli da 10. In quale dei due tipi di aereo
è maggiore il rischio di lasciare a terra almeno un passeggero che ha regolarmente prenotato, per
un volo in cui si è accettato il massimo di preno1azioni?
2 a) Un dado viene lanciato 3 volte. Qual è la probabilità che il 6 sia uscito esattamente 2 volte ?
b} Qual è la probabilifa che in II lanci il 6 sia uscito esattamente 2 volte? Per quale valore di 11
questa probabilità è massima?
3 Un calcolatore è collegato a una rete che permette l'accesso ad un massimo òi 20 persone. Colles!ati
a quest a re1 e vi sono i terminali di 24 operatori , ognuno dei qual i , ad un dato istante. richiede ;on
probabilitii p = 0.6 di essere connesso al calcolatore centrale. Qual è la probabilità che, ad un
dato istante, la re1e sin satura (cioè che tuffi e 20 gli accessi siano utilizzati)?
4 Nel gi()co dcl lotto ad ogni eslrazione (scttimanale, cornc mm volta) cinque nu1J1eri vengono estratti
simultaneamente: da un 'urna che contiene 90 palline numerate dn l a 90. Fissiamo un numero,
ad esempio il 67 . e indichiamo con p la probabilitft che esso esca in una singola estrazione.
a) Quanto vale p? In media ogni quante settimane viene estratto il G7'1
b) Qual è la probabilità che dopo 30 estrazioni il 67 non sia ancora uscito?
Tracce e-1 3

e) Supponiamo che nelle prime 1 00 estrazioni il 67 non sia ancora uscito. Qual è la probabilitl1
che esso esca entro la I O I -esima? Qual è la probabilit11 che esca dopo la 130-esima?
cl) Qual è la prob�bilità che esso esca almeno 6 volte nelle prime 50 estrazioni?
3.5 Un'urna contiene 1 1 2 dadi di cui 56 (cioo la metà) sono equilibrati, mentre gli altri sono stati
manipolati in modo da ottenere I con probabilità ½ e tutti gli altri risultati con probabiliH1 ni .
a) Un dado viene esrrauo a caso e lanciato; indichiamo con X il risultato del lancio. Qual è la
probabilità di ottenere 3? Quanto vale E(X)?
b) Un dado viene estratto a caso e lanciato due volte. Qual è la probabilità di ottenere 2 e 3?
Sapendo che i due lanci hanno dato 2 e 3, qual è la probabilità che si tratti di uno dei dadi truccati?
e) Un dado viene estratto a c:1so e lanciato due volte . Indichiamo con X e Y il risultato dei due
lanci. Sì tratta di v.a. indipendenti? (Attenzione!)
3.6 In un mazzo di II chiavi si cerca quella giusta provandole a caso una doro 1 'altrn (e mettendo
da parte le chiavi gi11 provate). Qual è !;1 probabilità che si debbano fare esauamente k (k :, 11)
tentativi?
3.7 Una fabbrica produce componenti elettronici. Questi escono da due linee di produzione, ,\ e B.
nelle proporLioni del 30% e 70% rispettivamente. La linea A ha una percentuale di pezzi difettosi
del 10%, contro 17% per B .
a } Qual è la probabilità che u n chip scelto a caso sia difettoso?
b) I chip vengono venduti in confezioni di 10 pezzi , tutti prodotti dalla stessa linea. Una di
queste viene ispezionata e risulta contenere l pezzo difettoso. Qual è la probabilità che essa
provenga dalla linea A? Qual è la probabilità che provenga dalla linea B? Quale <lelle due
eventualit11 è più probabile?
3.8 Le carte di un mazzo di 52 vengono girate ad una ad una.
a) Qual è la probabil itl1 che la k--esima carta sia un asso?
b) Qual è la probabilità che il primo asso appaia alla k-esima carta·/ Qual è il valore di k più
probabile'!
3.9 Un collezionista ha già raccolto 60 delle 100 figurine <li un album. Egli acquista una busta
contenente 24 figurine (tutte diverne) , tra le quali naillrnlmentc ve ne possono essere alcune che
egli già possiede. Qual è la probabilifa che tra le figurine appena acquistate ve ne siano più (:?::)
di 20 di quelle che egli gilt possiede? Jn media quante "nuove" figurine troverà nella busta?
3.1 O Siano X 1 , . . . , X,, delle v.a. di Bernoulli B( I , p) indipendenti e poni.mio S,, = X 1 + . . . + X,..
a) Qual è la dis1ribuzione condizionale di X; sapendo che S,. = r?
b) Se m < 11 e S,,, = X 1 + . . . + X,,, qual è la legge condizionale di S,,, sapendo che S,, = r? Sì
traila di una legge nota? Quanto vale la media di questa legge condizionale?
3.11 Due centralini, tra cli loro indipcnclenti, ricevono nell'unità <li tempo un numero di telefonate X e
l' aventi legge cli Poisson di parametri rispettivamente À e JL.
a) Qual è la probabilitil che nell'unità di tempo i due centralini ricevano insieme non più di tre
telefonate, supponendo ì.. = 2 e /J. = 4?
b) Cnlcolare la legge condizion�lc di X dato X + }' = J1 . Si tratta di una densità nota? Quanto
vale la media di questa legge condizionale?
e) Supponendo À = 2 e /L = 4 e sapendo che nell'unif, cli tempo i due cenlrnlìni hanno ricevuto
S telefonate , qual è la probabilit1t che il primo ne abbia ricevute k? Per quali valori di k questa
probabilità è massima?
l'.eserciziario

Ca l colare la retta di regressione d i X rispetto a X + Y. acc


n'urna con1encnte palline rosse in proporzione p, O < p < I, vengono estratte con reirnbus­ a
mento II palline. Queste vengono messe in una seconda urna da cui viene quindi estratta una tra
pallina. b
Qua l è la probabilità che sia rossa? ch
Sapendo che l'estrazione dalla seconda urna ha dato una pallina rossa, qual è la probabilit/1 e
numero di pal line rosse estratte dalla prima urna fosse k. (O :s k s H)? Qual è il numero
o di palline rosse estratte d,1 l la prima urna sapendo che la palli na estratta dal l a seconda è
'/
dadi equilibrati vengono lanciati separatamente più volte. Indichiamo con X il numero cli i=
necessario a ottenere l con il primo dado e con Y i l numero di lanci necessario a ottenere 5 So
re 6 con i l secondo.
Qual è la legge <li X? Qual è la legge di Y? Quanto valgono E( XJ e E( Y)? Q
C;ilcol are fa densit:1 di Z = max (X. n.Quanto vale E(ZJ? J . 17 i
Ca lco l are P(X =:: l' ) . sì
n alfabeto composto <l a I I lel tere viene fo rmata u n a parola d i lunghezza k scegliendo ogni es
a a caso e i n maniera indipendente l 'una dall'a l tra.
Qual è la probabilitll che la i -esima lettera venga usata? Come si comporta questa probabilità
= 11 e 11 -,. oo? co
Qual è il numero medio d i lellcre utilizzate'/ Quanto vale questa quantità per 11 = 21 e
00? E !: = 50? Quanto vale il numero medio se i nvece supponessimo che la probnbilit1t J.!S u
gl iere l a lettera i sia /'i dove O < p; < l , /JJ + . . . + p,, = I (ma l e lettere siano sempre e
penùenti)? Quanto vale questo numero medio per 11 = 2 1 . k = 1 00 e supponendo che le e
� sia1:o divise in _3 grupp� di 7, con il primo gruppo formato da lettere con p; = 2; , mentre
i altri due gruppi p; = 112 e p; = - r{-2 rispettivamente'?

compagnia di assicurnzi on i ha Llll numero N (molto grande) di assicurati contro un dato


o che ha una probabilità p (piccola) di colpire ogni singolo assicurato nel corso di un anno. r
hiamo con X e Y il numero di assicurati che la compagnia sar;1 chiamata a indennizzare
rimo e nel secondo anno rispettivamente. Z = X + l' è duuquc il numero d'indennizzi nei e
due anni . Per la natura del rischio si pu<'> supporre che eventi che si riferiscono ad assicurati p
si siano indipendenti, come pure che siano i ndipendenti le v.a. X e Y . p
Quale legge è ragionevole assumere per l a v.a. X? E per Z? Qua1110 vale l a densità congiunta 3.19 1
Z'1
La compagnia versa per ogni assicurato. in caso d'incidente, un indenn izzo pari a / e
pisce da ogni assicurato un premio annuale pari a fr p i . In media qual è il beneficio della
é\gnia in un anno? J.20 U
p
Supponiamo che i nizialmcnle la compagnia abbia un capitale pari a K = 109 e che sia
2 · 1 04 • p = 5 • 10-5 • I ,,., 1 09 . Dunque essa dispone di un capita l e K + j pN I == 2.25 . 109 t
zio del primo anno e i ncasserà ancora ¾ pN I = 1 .25 . 1 09 in premi all' inizio del secondo
J
Essa si lrov,;,-;, dunque in c.lifficoltà se avvemmno pii1 t>) di due incidenti nel primo anno
e piì1 (>) di 3 nei primi due anni. Qual è l a probabil itil che ciò si verifichi?
moria secondaria di un calcolatore è composta da 30 unità disco in ognuna delle quali sono
iate 1 00 registrazioni (lìle, in inglese). Durante l 'esecuzione di un programma è necessario
·1raccc e- 1 5

dere a 40 d i questi file, tutti diversi.


QL1al è la probabil ità che sia necessario util i zzare l 'unifa ! ? (Cioè qual è I;, prohahi lii,, che
40 file ve ne sia uno colllenuto nell'unità l ?)
Qual è la probabilità che si debba utilizzare una al meno delle unith I e 2? Qual � la prohahil u,,
si debba utilizzare sia la I che la 2?
Indichiamo con Y; la v.a.

se l'unità i-esima è utilizzata


Y; = {� altrimenti
i?
I , . . . , 30. Qual è la legge di l'; '! Le Y; sono indipendenti? Sono a due a due indipendent
o non correlate? Quanto vale il coefficiente di correlazione di Y1 e Y2 ?
' programma .
Indichiamo con X i l numero di unitlt disco necessarie per l esecuzione del
anto vale E[XJ?
Diciamo che
umeri del lotto vengono estratti uno dopo l'altro dall'urna senza rimpiazzo.
te alla i-esima
a una "coincidenza"' (match) se la pallina numero i v iene estratta esattamen..
.
azione. Indichiamo con A; l'evento "'si ha coincidenza alla i-esima estrazione
nti a due a due?
) Quanto vale P(A; )? Gli eventi A 1 , . . . , A90 sono i ndipendenti? Indipende
vale E ( X)? Quante
) Indichiamo con X il numero di coincidenze nelle 90 estrazion i. Quanto
ncidenze si verifichere bbero in media se le pal l ine i nvece di 90 fossero 10'24?
) Quanto vale la varianza di X?
r rosse ( I :s r < 11)
urna A contiene " palline tutte rosse. Un'urna B contiene II pall i ne di cui
una success ione di
rimancllli 11 - ,- nere. S i sceglie a caso una delle urne e da essa si effeuua
razioni co11 rimpiazzo.
1
) Qual è la probabilità che la prima pallina estratta sia rossa'
Qual è la probabilif a che le prime due pall i ne estratte abbiano colori diversi?
)
la pri ma volta una pallina
) Quante estrazioni sono necessarie in media per veder comparire per
sa'!
tà che l 'urna dalla quale
d} Sapendo che le prime k pal line estratte sono rosse, qual è la probabili
sia l'urna /\ ? Supponia mo 11 1 2, r = 4: qtrnnto gramle dovrà essere k.
e sono state estratte =
da cui le palline sono state estrnttc sia l 'urna A con una
rché si possa concludere che l 'urna
rnbabilità almeno del 99%?
pa l line sono distribuite a caso i 11 r scatole.
a) Qual è l a probabilit à che la scatola n.l contenga i palline?
1111ente i e j pall ine?
b) Qual è la probabili l11 che le scatole n . l e n .2 contengano rispettiv,
sorgenlì diverse A e B con
n canale di trasmiss i one dati può ricevere messagg i binari da due
a delle dtte sorgenti produce messagg i in cui i bi! successivi son �
obabilità ½ ciascuna . Ognu
l oppu�e O con probab1h ta
a di loro indipendenti . Per la sorgente A però i bit possono essere
n

lifa fi. Un messaggio eh


mentre per B il valore I si verifica con probabilità ¼ e O con probabi
esso si osserva una proporzio ne di 1 pari a 0 .4 (cioè in esso si
nghczz;, 11 viene ricevuto e in
ovano 11 - 0.4 bit uguali a l ).
a) Supponiamo 11 = I O.
sorgenli è la p iù probabile?
l ) Qual è la probabili tà che si tratti della sorgente A? Quale delle due
2) E se invece fosse 11 = lDO?
e-16 !;eserciziario

b) Rispondere alle stesse domande del punto a) supponendo che a priori i messaggi provengano
con probabilit,1 30% dalla sorgente A e 70% dalla sorgente B .
Si s a che i n una schedina del totocalcio i tre simboli I . X , 2 compaiono con probabilità 0.46, 0.28 _l .2
e 0.26 rispettivamente. Supponiamo inol tre che una colonna ciel totocalcio riguardi I 3 partite.
com'era fino a poco tempo fa. Calcolare la probabilitìt che nella schedina di domenica 3 .3
a) il 2 compaia più (2'.:) di 4 volte
b) il simbolo X non compaia mai.
In una stanza ci sono 4 persone.
a) Qual è la probabilità che almeno due di loro siano nate di lunedì '!
b) Qual è la probabilità che almeno due cli loro siano nati nello stesso giorno della settimana?
Osservare che questa probabilità non è uguale a quella calcolata in a) moltiplicata per ì. Perché?
Una moneta equilibrata viene lanciata piì1 volte. Qual è la probabilità che allo 11-esimo lancio
a) si abbia testa p�r la prima volta?
b) Si sia già avuto testa almeno una volta? J .3
e) Si siano avute esattamente due teste? 33
d) Si siano avute almeno due teste'!
e) Si siano avuti esauamente lo stesso numero di teste e di croci (supponendo II pari)?
a) Da un'urna che contiene palline di tre colori diversi in proporzioni uguali vengono estraue 4
palline con reimbussolamento. Qual è la probabilità che tra di esse ce ne sia almeno una di ooni 3.3
colore?
0

b) Da un 'urna che contiene II palline per ciascuno di tre colori diversi vengono estratte 4 palline
se11:a reimbussolamento. Qual è la probabilità che tra e.l i esse ce ne sia almeno una di ogni colore'/
Quanto vale il limite per 11 -> oo di questa probabi lità?
Riprendiamo la situazione cJell 'faempio 2 . 1 1 (il giocatore che aveva truccato l'estrazione del
otto). Di quanto è aumentata la sua probabilità di vincere (senza farsi scoprire)?
Un'urna contiene 200 palline rosse e 800 di a111- i colori. 33
a) Vengono fatte delle estra:cioni successive, in ciascuna delle quali vengono prese simultane­
amente 5 palline , che vengono ogni volta rimesse nell'urna. Indichiamo con N il numero di
estrazioni necess:irio a ottenere l'estrazione di 5 palline tutte rosse. Quanto vale E(N)?
b) l 1isultato cambierebbe se nell 'urna ci fossero 20 palline rosse e 80 di altri colori?
Un dado ha due facce colorate <li rosso, due e.li bianco e due cli giallo e viene lanciato più volte .
a) Qual è la probabilifache nessuna faccia bianca appaia nei primi I.: lanci? Qual è la probabilità 3.
che nei primi k lanci non appaia mai né una faccia rossa né una bianca?
b) Qual è la probabilità che non Lutti i tre colori siano apparsi almeno una volta nei primi k
anci? Calcolare mnncricamcnle questa probabil i1i1 per k = 4, /.. "" IO e k = 20.
c) Indichiamo con T il numero di lanci necessario perché tutti e tre i colori siano apparsi almeno
una volta. Qual è la legge di T? Quante> vale E(T) ?
Un messaggio è composto da una sequenza ùi bit binari. Si suppone che ognuno di essi possa
essere distorto (cioè mutato cJa O a l oppure da I a O) con probabilità p, O < /' < I e che gli eventi
• i l bit i-esimo è distorto" siano tra loro indipendenti. 3
a) Qual è !a probabilifa che un messaggio di lunghezza 11 giunga senza che nessun bit sia
distorto?
Tracr:e e- 1 7

b ) Qual è l a probabilità che un 1ncssaggio d i lunghL·t.1.�t ;V gi, 1 1 1�;1 ,c 1 1 1a cl lL· rh.:,,1111 hit ,j;1
distorto, dove ora N è una v.a. di legge geometrica nmdilic; 1 ta di pa,:;uuclro ;_ -,
Siano X 1 , . . . , X11 v.a. indipendenti cli legge cli Bcrn(iulli Ut I . 1 , 1 . C:drnl;ue 1a le-)'�'<' di X',' <"
quella di X 1 X2 . . - X,, .
In un test a risposta multipla vengono poste 30 domande. ci:1scuna con 4 po"i hili ri,p,"1e 1111;, "'l:i
delle quali è quella giusta. Per ogni domanda i l candidato riceve 4 punti pc,· la ri, 11u,1a giu,1a " o
per quella sbagliata. Il test si intende snperato se s i risponde esattamc11h., ad alrncuo I r, domamk.
a) Uno studente non sa niente e risponde a caso. Qual è, i11 media . il punteggio d1e o!lcrr:i"!
Qual è la probabilità che riesca a rispondere correttamente a esattamente 1 6 domande·!
b) Uno studente leggermente meglio preparato è in grado, per ogni domanda di csdudcrc una
delle risposte proposte e decidere di rispondere a caso scegliendo una delle tre risposte rimaste.
Quale sarà il suo punteggio medio? Qual è la probabilità che riesca ad rispondere corrcuamcn1e
a esattamente 1 6 domande? (Continua nell'Esercizio 5 .23)
Sia X una v.a. geometrica di parametro p. Calcolare E(e-X) e E(è)_
Un'urna contiene 5 palline per ognuno di tre colori diversi. Da essa vengono estratte 6 palline.
Calcolare la probabilifa di ottenere esallamente due palline per ognuno dei tre colori supponendo
a) che le estrazioni avvengono senza rimpiazzo;
b) che le estrazioni avvengono con rimpiazzo.
3 Una moneta viene lanciata successivamente più volte. Ad ogni lancio la probabilità di avere T è
uguale a p . Indichiamo con W1 il numero di lanci necessario per ollenerc T la prima volta e con
W2 il numero di lnnci ult eriori necessario per ottenere T di nuovo . Indichiamo con X 1 , X2, . . . i
risultali dei lanci (dunque le X; sono indipendenti e P(X; == T) = p).
a) Esprimere in termini delle v.a. X 1 , X2 , . . . l'evento { W1 = k, W2 = 111 } , e calcolare la
probabilità l'(W1 = /{, W2 = 111) _
b) Mostrare che W1 e W2 sono indipendenti.
4 Siano X e Y v.a . indipendenti e geometriche modificate di parametro f} (ugunlc per tutte e due) .
a) Qual è la legge di X + Y?
b) Qual è l a legge condizionale di X dato X + Y = m?
c) una moneta viene lanciata più volte e indichiamo con Z il numero di lanci necessario per
ottenere testa (T) per la seconda volta. Sapendo che Z = 111 , qual è la probabilifa che sia stato
ottenuto T per la prima volta al k-esimo lancio? Qual è il valore di k piL1 probabile?
5 Due giocatori, A e B, giocano lanciando successivamente dei dadi e gu�rcJanclo alla somma
ottenuta. Al primo lancio A vince se viene ì, mentre B vince se viene 2 oppure 12. Se nessuno
di questi risultati compare e si ottiene invece il numero i come somma dei dadi, allora i giocatori
continuano a lanciare. A vincer,1 non appena esce i _ R non appena esce 7.
a) Qual è la probabilità che il giocatore A (risp. B) vinca al primo lancio?
b) Supponendo che il primo lancio abbia dato come risultato i , i f 2, 7, 1 2, qual è la probabilità,
p; . che ti vinca allo 11-esimo lancio?
e) Qual e la probabilitli che A vinca? Conviene di più giocare al posto cli A o a quello di B?
6 (Come inventarsi "una moneta equilibrata" quando se ne ha solo un.i tnu.:cMa) Ugo e Ciro
possiedono una moneta per giocare a testa o croce, ma non sanno se è equilibrata o 110. De­
cidouo allora di giocare nel modo seguente: la moneta viene lanciata due volte. Se si ottiene TC
c-18 L:esercìziario

vince u�o. se si ottiene CT vince il Ciro . Se viene TT oppure CC si getta di nuovo la moneta
due volt�. linché non si ottiene uno dei due primi risultati. Indichiamo con p la probabilità che la
_l.4
111111cta dia T in un singolo lancio.
aJ Qual è la probabilità che i primi doppi II lanci, 11 = J , . . . diano CC oppure TT e che allo
,, + I )-esimo si ottenga CT'?
b) Qual è la probabilità che Ugo vinca? J .4
Un'urna contiene 10 dadi di cui I truccato in modo da dare I con probabilifa { e ognuno dcol i
altri 5 risultati con probabilità tti (gli altri 9 dadi sono equilibrati). Dall 'urna �•iene estratto :n
dado che è poi lanciato tre volte
a) Qual è la probabilità che i risultati siano due volte l e una volta 5?
b l } Qual è la probabilità che il dado sia truccato sapendo che i tre lanci hanno dato due volte
e una volta 5? 3.4
b2) Sapendo che i tre lanci hanno dato due volte I e una volta 5. è piì1 probabile che si traili
di un dado truccato oppure di uno equilibrato?
Un'urna contiene II palline numerate da I a 11 . Da essa vengono estratte m palline con reimbus­
olamento. Indichiamo con }' il piì, grande dei mnneri delle palline estratte.
a) Per l s k s 11 , calcolare P(Y s k) .
b) Determinare la dcnsitii discreta <li Y. Qual è il valore di k, I ::;: k s 11 , per cui P(Y = k) è
più grande?
e) Rispondere alle questioni a) e b) precedenti supponendo che le m palline vengano estrnlte 3.4
e11:a reirnl:mssolamento.
Un"urna contiene b palline bianche e r rosse. Da essa ne vengono estratte k (k s r e k s b) .
ndichiamo con X ìl numero di palline rosse presemi tra le k che sono state tolte. Nelle domande
he seguono si richiede di lasciare indicati i calcoli in funzione dei valori b. r, k, 111 e di fornire i
alori numerici quando queste quantifa vengono precisate.
a) Quanto vale P(X =: m}, 111 = O , I , . . . , k? Quanto vale questa probabilità se b = 7, r =
, k "" 2 per m = 2?
3.4
b i ) Una pallin.i viene successivamente estratta dall'urna. Qual è la probabilità che sia rossa?
Quanlo vale questa probahilifa per I; = 7, r = 3. k = 2'?
b2) Supponendo che quest'ultima pallina estratta sia rossa, qual è la probabilità che tra le k
alline precedentemente tolte dall'urna cc ne fossero esattamente m rosse? Quanto vale questa
robabili\11 se b = 7. r = 3, k = 2 per m = 2?
Due amici, A e B, lanciano ciascuno II monete equilibrate. La regola è che A vince se ottiene
n numero di teste stre11ame111e superiore a quello di B. Indichiamo con p la probabilità che A
inca.
a) Calcolare p per 11 = 2.
h) Supponiamo ora 11 qualtmquc. '3.4
b I) Indichiamo con Po la probabil itii che A e B ottengano lo stesso numero di teste. Mostrare
he
/10 "' __l___
(211)
2:!" Il
'3.4
Suggerimento: ricordare l 'Esercizio 2 .40).
b2) !vfostrarn che
P = 1 ti - Pul
Tracce e-19

e calcolare numericamente p per 11 = 3 e 11 = 4.


Sia X una v.a. che prende i valori - 1 , O, I, tutti con probabilità j.
a) Mostrare che le v.a. X e X2 non sono indipendenti.
b) Mostrare che le v.a. X e X 2 sono non correlate.
Siano X una v.a. di legge uniforme su {-111, - (111 - I ) , . . . , O . . . . , m} e Z una v.a. che prende
i due valori I e - 1 , entrambi con probabilità ,\- . Supponiamo X e Z indipendenti e poniamo
r = x2 + z.
a) Calcolare E(X) e E(X 3 ) .
b) Calcolare la legge condizionale d i Y dato X = k e poi l a media d i questa legge condizionale.
e) Calcolare il coefficiente angolare a della rcua di regressione di Y rispelto a X .
Siano X. Y, Z v.a. indipendenti d i legge d i Poisson di parametro À .
a ) Qual è !:i legge condizionale d i X dato X+ Y = 11? S i tratta d i u n a legge nota? Quanto vale
la media di questa legge condizionale?
b) Mostrare che, in generale, date delle v.a. A, B, C, si ha Cov (A + 8, C) = Cov(A , C) +
Cov(B, C). Quanto vale la covarianza delle v.a. X + Y e X + Z? E il coefficiente di correlazione?
e) Quanto vale la probabilità

P(X + Y = 2, X + Z "' 3}?


Vero o folso?
a) Perché si abbia E(X + Y) = E{X) + E(Y) è necessario che le v.a . X e Y siano indipendenti.
b) Perché si abbia Var(X + Y) = Var(X) + Var(Y) è necessario che le v.a. X e Y siano
indipendenti.
e} Se la v.a . X2 ha speranza matematica finita, allora anche X ha speranza matematica lìnita.
d) Una v.a. X è tale che E(X) = 2 e E (X 2 ) = 3. i� possibile?
e) Se X e Y sono indipendenti, allora Var(X - Y) = Var(X) - Var(Y).
Riprendiamo la situazione dell'Es�rciiio 2.24: una scatola contiene 10 monete; S di queste sono
i
equi librate, mentre le altre 2 danno testa ( T) con probabilit/1 e croce (Cl con prohabilitit { .
a) Supponiamo che una monela venga scelta a caso e lanciata 1 1 = 1 00 volle. Indichiamo con
At l 'evento "viene ottenuto k volte testa". Quanto grande deve essere k perché la probabili fa che
la moneta sia equilibrata sapendo Ak sia s 50%?
b) Indichiamo con ko il valore di k determinato in a) . Qual è la probabilità che una moneta
truccata lanciata I 00 volte dia un numero di teste < ko? (Per questo secondo punto sarà necessario
servirsi di un software opportuno, in attesa di poter usare l'approssimazione normale. che vedremo
nel capitolo 5).
Una moneta dì, testa con prolJabilitil /I e viene lanciata N volte. dove N è uua v.a. di Poisso,i di
parametro À. Indichiamo con X e Y il numero di teste e di croci otienute rispellivamcntc.
a) Calcolare le leggi di X e l'.
b) (Più difficile) Di mostrnre che: X e l' sono indipendenti.
Per correggere gli errori in un testo (o in un progrm111na i11fon11atico . . . ) vari revisori s i susseguono.
Il primo, qua11du si lrov,1 in presenza cli un errore, è in grndo di individu:rrlo con probabilitì1 p.
Ad esso segue poi un secondo revisore, che è anch'esso in grado di individuare gli errori lasciati
dal primo con probabilità p e così via per i revisori successivi.
e-20 !..'.eserciziario

aJ Supponiamo che vi siano inizialmente N errori e indichiamo con Xk il numero di errori


rimasti dopo il lavoro di k revisori. Qual è la legge di Xi- ? Qual è la probabilità che vi siano
ancora degli errori dopo le k revisioni?
b) Rispondere alle stesse domande supponendo però che il numero N di errori inizialmente
presenti sia ora uno v.a. di Poisson di parametro À. Supponiamo p = 0.9 e ). = 300 e che vi siano
k = 3 revisori. Quanti errori sono rimasi.i in media? Q ual è la probabilità che rimangano ancora
degli errori?
ia X una v.a. a valori in (0, I , 2, . . . ) di funzione generatrice

t/J(z) = - �- .
·
✓2 - z
a) Quanto vale P(X = 3)'/ 4.
b) Quanto valgono E(X) e Var(X ) ?
c J Se X e Y sono v.a. indipendenti ed aventi la stessa densità discreta di funzione generatrice
,jJ, qual è la legge di X + Y'! Si tratta di una legge noia, quale?
Una scatola contiene 4 palline numerare 0,1 , 1 ,2. Vengono effettuate II estrazioni con rimpiazzo.
ndichimno con X; il numero della pallina i -esima estratta.
a) Calcolare la funzione generatrice delle probabilifa di X; .
b ) Posto Y "' X 1 + . . . + X,, , determinare In legge di Y . 4.
ano N . X 1 , X'.!. , . . . v.a. indipendenti con N d i Poisson cli parametro À e , pcrogni i , X; geometrica
i parametro p . Poni:1mt> S,v = X 1 + . . . + X :,: : calcolare P ( S,v = 0) e P ( SN = I ) ? 4.
ata la funzione
g (.::: ) = r- log ( l - §)
eterminare e: in modo che g sia la funzione generatrice di una legge di probabilitl1. Calcolarne
oi esp licitamente la densitl1 e la media.

Esercizi per il Capitolo 4


Consideriamo una v.a. X avc111c f.r. ( wdi Figura c.3 )

SC I < 0
se O :s 1 s S
se 5 s I s IO
se I :::: 1 0 .
a) Quali sono i possibili valori di X?
b) Mo�trarè che X ha <lensit,, e c:1lcolarl�.
e) Quanto vale E ( X J ?
Legt;i di Rarleigli ) Sia X una v.a. <li dcnsi1i1

5 . 1 9) se x > O
altrimenti
ove 0 è un parametro reale > O . 4.
Tracce e-21

Figura e.3

a) Calcolare b legge di Z = X'.!. .


b) Posto W = e-X /Q , calcolare la densità di W .
2

Per r > O , À > O consideriamo l a fu nzione

I cx - 0.+ l l se x > r
J(x ) ""' lo se x :S r

a) Determinare e in modo che f sia una densità.


b) Qual è la legge di Y = log f·?
Sia X U!la v.a. uniforme su ] - 'f , ;J.[ (cioè di densità f (x) = f se -f e= x :5 } e f(x ) = O
altrimenti). Calcolare la legge di Y ,;; tan X.
Un componente clcllronico è formato da tre elementi in serie, ciascuno dei quali ha un tempo di
vita esponenziale di parametri À = 0.3 , Il = O. I , y = 0 .2 rispeHiv:nnente.

Figura c.4

a) Indichiamo con T la v.a. "tempo di vita" del componente. Qual è la legge di T? Quanto
vale il tempo medio di vita del componente?
b) Per aumentare l'affidabilità viene proposto di aggiungere un componente identico in paral­
lelo (vedi la Figura e.S ) . Qual è la densità del tem po di vita ciel nuovo complesso? Quanto è ora
il tempo medio?

Figura c.5

e) Un'altra possibilità consiste nel consiciernre u1i complesso come nella Figura e.6, tripl icando
cioè il primo com ponente (che è il più frag ile) e raddoppiando il terw. Quanto vale ora il tem po
medio di vita? Quale delle due soluzioni (q uesta o quella del puuto h)) è p iù conveniente?
a) Calcolare media e varianza di una legge di Rayleigh (vedi Esercizio 4.2).
-22 t.:eserciziario

4.1

Figura c.G

b) Si chiama legge di Cauchy quella di densità

5 . 20) J(x) = __I _ .


1r ( I + x2)
erificare che J è effettivamente una densità. Quanto vale la media di una legge di Cauchy? 4.1
er quali valori di ;: è definita la sua trasformata di Laplace? (Questa densità compare anche
el! 'Esercizio 4 .4).
c) Sia Z una v.a. d i densità f come nell' Esercizio 4.3. Per quali valori di À 2 ha speranza
atematica finita? Per quali valori di À Z ha varianza finita? Calcolare E(Z) e Var(Z) per i valori
À per cui queste quantiH1 sono definite. Come si comportano media e varianza per À ➔ +oo?
ano X e Y due v.a. indipendenti. entrambe di legge normale N (O, I ) . Quanto valgono P( X > Y)
P(X > Y + � )? ( Usare eventualmente le tavole delle leggi normali).
pu nteggio u l lcnuto dagli studenti :11la prova scritta di un esame universitario si può modellizzare
on una v.a. di legge normale di media 21 e varianza 9. Qual è la probabilità che uno studente
tenga un voto superiore (::>::) al 24? Qual è la probabilità che uno studente ottenga un voto
feriore alla sufficienza (:,; 17)?
suppone che l'altezz,1 degli uomini in Italia segua approssimativamente una v.a. normale di
edia 1 75 cm e varianza 8 1 . Quale sarebbe la percentuale di italiani di statura superiore al metro
90'! Alla visita di leva vengono scartate le reclute d i altezza inferiore ai 1 53 cm. Quale sarebbe
percentuah: di reclute scartate alla visita cli leva ?
legislazione ami!ricana è molto severa sul la veridicifo delle dichiarazioni che, per legge, devono
parire sulle confezioni dei prodotti. In particolare essa richiede che, per le bottiglie di cham­
gne, il contenuto dichiarato debba essere inteso come un minimo garantito. Periodicamente
ispettori fanno dei controlli. scegliendo a caso una bottiglia e infliggendo forti multe se essa
sulta contenere meno di quanto dichiarato. 4.
La marca Veuve Coquclicot, che dichiara per le sue bouiglie un contenuto di 730 ml dispone
macchine imbottigliatrici che forniscono un riempimento X aleatorio che segue una legge
ormale di media /l, regolabile, e di varianza o- 2 = 625. Come deve essere fissata µ. perché la
obabilità che una bouiglia venga trovata con un contenuto insufficiente sia inferiore a 0.002?
uanto dovrebbe valere 11 se la compagnia disponesse invece di imbottigliatrici c:on varianza
= 400?
a / la funzione definita da
se x =::: O
se x < O .
Tracce e-23

a) Determinare k in modo che f sia una densità.


b) Siano X e Y v.a. indipendenti e di densità J. Qual è la densità di X + Y? Qual è la densità
di 2X? Si tratta di densità note?
( Leggi di Weibufl )Per a > O, À > O consideriamo la funzione

se t > O
se r s O .

a) Mostrare che J è una densità e calcolarne la f.r.


b) Sia X una v.a. esponenziale di parametro À e si a ,B > O . Quanto vale E(XP)? Qual è la legge
di Xfl? Quanto vale la speranza matematica di una legge di Wcibull di parametri a, À? Quanto
vale la sua varianza?
e) Mostrare che per la funzione Gamma, per ogni t ::a:: O si ha r ( l + 2r) :".. r ( l + 1) 2 .
Si chiama indice di skew11ess (o di asimmetria) di una v.a. X la quantità

E[(X - µ.) 3 ]
Y= a3

dove !l = E(X) e cr� = Var(X) (purché X abbia un momento di ordine 3 finito). L'indice Y i�
un certo senso misura la simmetria della legge di X: valori di y positivi indicano la presenza d1
una "c:oda spessa" verso destra (come nella Figura e.7), mentte valori negativi indicano la stessa
cosa verso sinistra.

Figura 5.7

a) Quanto vale l'indice di skewness per una legge N(/1., a 2)'!


b) E per una legge esponenziale? Per una r(a, J..)?
c) Quanto vale y per una v.a. cli Poisson'!
(Si ricorda lo sviluppo del binomio di terzo grado: (li + b) = a + 3a"b + 3ab + b )
3 3 2 3

4 a) Sia X una v.a. di legge N(J.l, a 2). Calcolare la densità della v.a. Y = c x ( densità log11or111llle
di parametri µ, e a 2).
b) Mostrare che se X ~ N (O, l) e s E R allora

E(e'x) "' c, ,2 .
2

c) S ia Y una v.a . di legge log,1onnale di parametri /.l e cr2 .


c l ) Quanto valgono media e varianza cli Y?
c2) Ricordiamo che si chiama mediana di una v.a. continua Z un 11umero 111 !aie che P(� :'."
111) = 4 . Qual è la mediana di l'? Se si fa variare u 2 e si tiene fisso el, come vanano la media e
la mediana di Y?
e-24 L'eserciziario

Descrivere una procedura per simulare le leggi x 2 (11) . 1'(11 , À), rq, À) (11 intero positivo).
a) Sia X una v.a. esponenziale di parametro À e poniamo Y == [X J . Qual è la legge di Y? Si trnt!a
di una legge nota? Calcolarne la media.
b) Quale potrebbe essere una procedura per simulare una legge geometrica di parametro p?
Un punto è scelto a caso sul piano con densit1i

•4

Indichiamo con Z la distanza del punto dall'origine.


a) Qual è la legge di Z? Ammette una densità?
b) Qual è la probabilità che il punto si trovi fuori della palla di centro l'origine e raggio I ?
Due v.a. X e Y sono indipendenti e uniformi s u [O, I J . Calcolare
a) P(XY > ½)
b) P(XY < ! I X > ½ )
c) P(XY > { l i > 2) .
) Siano X 1 , X2, X , v.a. indipendenti e uni fo1mi s u [O. I ] . Qual è l a probabilità che X " sia minore
ia di X 1 che di X3?
b) Un generatore uniforme su [O, I) produce i seguenti 30 numeri a caso '4

0.56 1 0.229 0.673 0.561 (l.006 0. 144 0.8 1 5 0.378 0.4 1 6 0.796 '4
0.456 0.544 0.802 0.27 1 0.950 0.6 1 8 0. 1 80 0.293 0.550 0. 1 73
0.676 0.988 0.591 0.614 0.078 0.024 0.768 0.595 0.573 0.732
Che cosa ne pensate?
Un componente elellronico ha un tempo di vita che segue una legge esponenziale di media IO
giorni . Un secondo compone.nte è composto da due elementi in parallelo (il che significa che
funziona fintanto che uno almeno dei due clementi è fu nzionante), ciascuno dei quali ha tempo
dì vita esponenziale di media 6 giorni.
a) Qual è la densità del tempo di vita del secondo componente? Quanto vale la sua vita media?
È maggiore o minore della vita media del primo componente?
b) Qual è la probabilità che il primo componente duri più a lungo del secondo?
Un'apparecchiatura ha un tempo di vita Y che segue una legge esponenziale di parametro x che
dipende dalla qualità di uno dei materiali impiegati . Nel processo di produzione non è però
possibile controllare la qualità x del materiale, che quindi si deve considerare aleatoria di legge
r(a, À) .
a) Qual è la legge di Y?
b) Per quali valori di a, À la v.a. Y ha speranza matematica finita? In questi casi quanto vale
E(Y)?
c) Se indichiamo con X la v.a. "qualità del materiale", qual è la densitlt condizionale di X dato
Y = y? Quanlo vale la speran7�, condizionale di X dato Y cc y?
Un componente viene prodotto da una fabbrica che utilizza due diverse linee di lavorazione da
cui escono clementi esteriormente indistinguibili ma di qualità diversa. Si può anzi supporre
che i peni prodotti rlalla prima e dalla seconda linea abbiano un tempo di vita esponenziale di
Tracce e-25

parametri À e 11. rispettivamente (1i > À, per fissare le idee). Inol tre è noto che le propor1:ioni di
pezzi prodotti dalle due linee sono rispettivamente p e q (p > O, q > O, p + q = I ) .
a ) Un pezzo viene scelto a caso e indichiamo con T i l suo tempo d i vita. Qual è la legge d i 7'?
Quanto vale E ( T)?
b) Sapendo che il pezzo è ancora funzionante al tempo s , qual è la probabilità che esso provenga
dalla prima linea? Quanto vale questa probabilità per s grande?
23 L'esecuzione di un calcolo da parte di un computer si compone di due fasi indipendenti e suc­
cessive, ciascuna delle quali richiede un tempo esponenziale di parametri À e µ. rispettivamente.
Indichiamo con T il tempo necessario all'esecuzione del calcolo.
a) Qual è il tempo medio di esecuzione del calcolo?
b) Calcolare la legge di T. (Attenzione a distinguere i due casi . . . : quando si tratta di una legge
nota?)
c) Supponiamo che al tempo s l 'esecuzione non sia terminatit. Qual è la probabilità che si debba
attendere ancora un tempo 1? Supponiamo À = I , 11. == 2, 1 = I : quanto vale questa probabilità
per s = I ? E per s = 2? Per quak di questi due valori essa è più grande?
d) Sapendo che al tempo s l 'esecuzione non è ancorn terminata, qual è la probabilità che la
prima fase non sia ancora terminata? Come si comporta questa quantità per s -> +oo? Quanto
vale per À = l , µ. cc 3 e per s grande?
24 Calcolare la legge della somma di due v.a. X, Y indipendenti e uniformi su [O, l ] .
25 Due numeri X e Y vengono scelti a caso e indipendentemente con distribuzione uniforme su [O, I].
a) Qual è la probabilità che essi differiscano per più di } ?
b) Indichiamo con Z la dist:inza tra X e Y. Qual è la d�nsità di l'! Qual è la distanza media
tra X e Y?
26 Consideriamo la funzione
se / > O
se 1 :::: O •
a) Mostrare che J è una densith di probabilit11.
h) Si modellizza il tempo di vita di una larnpaùa mediante una v.a. T di densità f. Qual è la
probabilità che la lampada sia ancora funzionante a I tempo 3 ?
27 S i a X una v.a. uniforme sull'inlcrvallo [O, 1 1. Calcolare l a densità delle v.a. Y = -J: log X e
Z= y 3�-x og , dove A' e. un numero > O .
28 Sia X una v.a. di densitl,
_ ( ) { /)/fl-1 se O < l '.':; l
=
J 1 o altrimenti ,
dove O > O.
a) Calcolare la f.r. di X.
b) Quanto valgono P(X ::: 3) e P(X :s { )?
e) Qual è l a legge della v.a. Y = - log X'!
d) Quanto valgono media e varianza di X?
!..'.eserciziario

hiama densità di Pareto di parametri a, 0 la funzione 4.3

f(t) ={ t aeu
-1- t)«+I
se r > O
altrimenti
a > 0, 0 > O .
Calcolare la f.r. F d i u n a densità d i Pareto. 4.3
Per quali valori di a, 0 una v.a. di densità f ha speranza matematica finita? Per quali valori
arianza finita? Calcolare speranza matematica e varianza, nei casi in cui sono definite.
a X una v.a. u niforme su (O, rr ]. Calcolare la densità di Y = cos X.
E se invece X avesse densità

/ (!) = � (] - COS I) ?
](

Calcolare E(Y) nei due casi a) e b). 43


Ricordare che la funzione coseno è decrescente nell'intervallo [O, rr ].cosi come è decrescente
a i nversa, arcocoseno, : f- 1 . I ] - > [O, rr]. Ricordare anche che
4.3
d I
- arccos t = -----
dt J1 - I"
iama legge di Laplace di parametro À quella individuata dalla densità

4.

Calcolare media e varianza di una legge di Laplace.


Se X ì: di Laplace di parametro À , qual è la legge della v.a . aX? E di IXI?
4.
o X 1 , • • • , Xn v.a. indipendenti e di legge uniforme su [O, 1 ) .
Poniamo X • = 111in(X 1 , . . . , X,,) . Quanto vale P(X. 5: r)? Qual è l a ùensi 111 d i X..?
Poniamo X'' = max (X 1 , . . . , X,.). Qual è la densità di X*?
Mostrare che I - x� ha la stessa legge di X.*. 4.
Calcolare E(X,) e E(X•).
v.a. X segue una legge N(0, ¾> - Calcolare, usando le tavole, 4.
P(X ::, l ) .
P(X è: � ) .
P(O :, X 5: 1 ) .
P(IXI :,:: 04). 4.
nteggio ottenuto dagli studenti alla prova scritta di un esame universitario si può model!izzarc
una v.a. di legge normale di media 2 1 e varianza 9. Inoltre si può supporre che i risultati dei
oli studenti siano indipendenti tra loro.
Qual è la probabilità che uno studente prenda un voto inferiore a 1 3 ?
I n 1111 compito scritto con 200 studenti, qual è l a probabiliti, che ci sia u n voto inferiore a 13?
In 1111 compito scritto con 1 00 studenti , guai è la probabilità che il votO medio sia compreso
0.5 e 21 .5?
Tracce e-27

Consideriamo II numeri aleatori indipendenti X 1 , . . , X., , tutti di legge N (O, l ) .


a ) Qual è la f.r. della v.a. x• = max (X 1 , • • • , X11 )?
b) Se 11 = 1 00 qual è la probabilità che x• sia pii1 grande dì 2.8?
c) Quanto deve essere grande 11 perché la probabilità che X' sia più grande di 2.8 sia maggiore
<li ½ ?
d) Qual è l a probabilità che almeno uno degli n numeri sia più piccolo d i - I ?
6 Un messaggio è compo,to di b i t binari (cioè d i zeri e di uni). Quando esso viene inviato però ad
esso si aggiunge un errore di trasmissione che si modellizza con una v.a. gaussiana X di media
O e varianza 11;. La stazione ricevente decide di decodificare i l bit ricevuto come I , se il segnale
i
ricevuto è :e: e come zero se invece è < i.
a ) Qual è l a probabilità che un bit uguale a I venga decodificato come O ? Qual è la probabilità
che un bit uguale a O venga decodificato come I '?
b) Come cambierebbero queste probabilifa se i l rumore X fosse invece una v.a. d i Laplace
avente la stessa varianza f6 ? (Le leggi di Laplacc sono introdotte nell'Esercizio 4.3 1 ).
7 Una v.a. segue una legge r(a, À) cd ha media JL = 1 e varianza u" = 4. Quanto valgono a e À?
E se fosse µ. = I e u 2 = ¼ ?
8 U n a v.a. X. ha densità
fx (x) = c e-•'·1"
a) Calcolare la densità di IV = X4 • Si tratta di una densità nota?
b) Quanto vale la costante di normalizzazione e?
e) Quanto valgono media e varianza di X?
9 Sia X una v.a. di legge r(a, l) .
a) Calcolare per a = I , 2, 3 qua11to vale P(X :,:: I ) .
b ) Calcolare per n = �, liquanto vale P(X ::, I ) .
0 S i a X - r(( L ½) (cioè x 2 (u)).
aj Calcolare la densità di Y = .Jx.
b) Quanto valgono E(fl) e Var(fl) ? Quali sono i valori numerici per 11 = J e n "' 4?
1 Siano X, Y v.a. indipendenti di legge r ' (2, À). Calcolare densità e speranza matematica della v.a.
Z = min(X. l') .
2 S i a X una V.a. rea, À).
a) Calcolare E(}) e Var( ½ ) (precisando bene per quali valori dei parametri queste quantità
sono definite).
b) Calcolare la densità di -J: .
3 a I ) Sia X una v.a. d i legge r(a, 1 J . Qual è la legge d i ¾ X ?
a2) S e indichiamo con 9/J i l quantile d i ordine /J , O < fJ < I , d i una legge r (a, I ) , qual è il
quantile di ordine fJ di una legge r (a, ,\}?
b I ) Siano X 1 , . . . , X 1 00 v.a. indipendenti cli legge esponenziale f'( l , l ) . Qual è la legge della
v.a. X = T6o (X, + . . . + X 100) ?
b2) Sapendo che i quantili di ordine 0.025 e 0.975 di una legge f' ( J OO, I ) sono rispc1tivamc11lc
qo.025 = 8 1 .36 e (JQ.975 = 120.53, determinare un intervallo [a, bJ tale che
P(a :,:: X :; b) = 0.95 .
e-28 L'eserciziario

Sia x una v.a. a valori positivi e indichi;imo con rx la sua funzione di ripartizione. Poniamo
l - Fx (x) .
)=
g (x E(X)
Calcolare g e mostrare che si tratta di una densità in ognuno dei casi seguenti
a) X è esponenziale di parametro À ;
b ) X ~ r(2, >-) ;
c) X è di Pareto di parametri a > 1 e 0 > O (vedi Esercizio 4.29), cioè di densità

se t > O
altrimenti .
Data una v.a., che abbia momento di ordine 4 finito e varianza > O, si chiama indice di kurtosì
di X la quantità
E[(X - JL)"]
5.21)
a4
dove µ = E(X) e a 2 = Var(X). La kurtosi dà una valutazione (rozza) di quanto va a zero la
ensità di X per jx j -• oo. Ad esempio, ci si aspetta che la kunosi di una v.a. N (O, I), la cui •
densità tende a zero ali 'infinito come e-x 12 sia più piccola di quella cli una legge di Laplace, che
nvece tende a zero come e-�lxJ.
2

a) Mostrare che le v.a. X, X + e e aX harmo tutte la stessa kurtosi, per ogni a, e, a i' O.
b) Calcolare la kurtosi di una v.a. N (µ,, a 2 ).
e) Calcolare la kurtosi di una v.a. di Laplace di parametro À.
al) Calcolare la f.r. di una legge di Laplace di parametro À (vedi Esercizio 4.31}.
a2) Come fareste per simulare una v.a. di Laplace di parametro À?

b) Come fareste per simulare una v.a. di Weibull di parametri a, À? (le leggi di Weibul! sono
definite nell'Esempio 4.28}.
a) Sia X una v.a. lognormale di parametri JL e o-2 (vedi l'Esercizio 4.14). A quale relazione
devono soddisfare /L e o- 2 perché si abbia E(X) = I ?
b) Siano X I e X2 v.a. indipendenti e lognorma!i d i parametri rispettivamente µ. 1 . o} e /1-2, a} .
Qual è la legge di X I X2 ?
c) S iano X 1 , . . . , X,, v.a. indipendenti e lognorma!i di parametri JL = O e a 2 (uguale per tutte).
Qual è la legge di (X 1 • • • • • X,.) 1 101?
Consideriamo una v.a. X di legge di Laplace di parametro À (vedi Esercizio 431 ).
a) Calcolare la trasformata di Laplace di X.
b) Siano Y e W v.a. indipendenti, entrambe cli legge esponenziale di parnmetro À. Calcolare
a trasformala di Laplace di Y - W e dedurne la legge cli Y - W .
c ) Calcai.tre l a legge d i l ì' - WI. Quanto vale E(IY - WI)?
d) Ritrovare i valori di E(X) e di Var(X), già calcolati nell'Esercizio ti .3 1 ,calcolando le derivate
della trasformata di Laplace.
Consideriamo una densità di Pareto di parametri u, 8 ( vedi l'Esercizio 4.29). Calcolare il tasso '
stantaneo di guasto:
f (t) .
r(t) = •
1 - F(t)
Tracce e-29

Si traila di una funzione crescente? J sarebbe una densità conveniente per modcll izzare il tempo
di vita di una apparecchiatura soggetta a usura?
.50 Siano X 1 , X2 v.a. indipendenti e esponenziali di parametro À .
a ) Calcolare la densità d i Z = ma)((X 1 , X2) .
b) Calcolare media e varianza d i z .
c ) Calcolare l o instantaneous failure risk

r(t) = fz (t)
1 - Fz (t)

della legge di z (vedi la (4.32)). La v.a. Z sarebbe adatta per modellizzare il tempo di rottura di
un 'apparecchiatura soggetta a usura?
d) Calcolare la trasformata di Laplace di Z. Calcolare poi di nuovo media e varianza di Z con
i metodi indicati nel paragrafo 4.9.
.51 Sia X una v.a. di media /L e varianza o-2 finita. Determinare il valore cli a e !?. che rende minima
la quantità
E[(X - a)2 ] .
52 Un punto viene scelto a caso nel cerchio (pieno) di raggio R con distribuzione uniforme.
a) Qual è la probabilità che esso disti da!l'origine più di r (O :': r :<: R)?
b) n punti vengono scelti indipendentemente con distribuzione uniforme sul cerchio di raggio
R.
b i ) Qualè la probabilità che la minima distanza dall'origine sia maggiore di r?
b2) Qual è la probabilità che la minima distanza dall'origine sia maggiore di j: ? Quanto vale
il limite di questa probabilità per 11 -> oo?
.53 a) In una gara di tiro, il bersaglio è circolare di raggio IO cm e la probabilità per un certo tiratore
di centrare una data pori:ione del bersaglio è supposta uniforme. Il punteggio è 100 se si colpisce
a meno di 1 cm dal centro, 50 se si colpisce tra 1cm e 5cm dal centro e di 20 se si colpi�ce tra 5cm
e 10cm.
a I) Indichiamo con Y la v.a. che modellizza il punteggio ottenuto. Qual è la densità (discreta!)
di l'?
a2) Qual è il punteggio medio ottenuto?
b) Supponiamo invece che per un altro tiratore, un po' più bravo, la v.a. X che indica il punto
del bersaglio che viene colpito, invece di essere un iforme abbia una densità della forma

•f(x) = _:__
!xl

b I) Determinare il valore di <: perché la funzione f data dalla relazione precedente sia una
densità di probabilità. Quale delle tre aree indicate è ora la più probabile?
62) Se indichiamo ancora con Y il punteggio ottenuto, qual è ora la densità di Y'! In media,
che punteggio ottiene il secondo giocatore?
.54 Siano X e Y due v.a. indipendenti con X uniforme su [O, 1) e Y esponenziale di parametro À = I .
Calcolare P(X ?: Y).
.55 Siano X e Y v.a. indipendenti ed esponenziali di parametro A , }, > O.
!..'.eserciziario

Calcolare P(IX - Yi > ¼ ).


Qual è la densità della v.a. I X - Y i?
Qual è la densità di X - Y?
X, Y) una coppia ùi v.a. aventi distribuzione congiunta: •4.

se O < x < y < l


f (x, y) = { )
altrimenti
Quanto vale la costante di normalizzazione e?
Qual è la densità di X? E quella d i Y? X e Y sono indipendenti?
Che valore vi aspettereste per la covarianza di X e Y? Quanto vale Cov(X, Y)?
Calcolare P(Y > 2X).
mponente A è formalo da due elementi in serie e quindi funziona fintanto che sono funzionanti
mbi gli elementi che Io compongono. Un secondo componente, B, è invece formato da un
elemento.
Supponiamo che i tre elementi abbiano tempi di vita indipendenti e di legge esponenziale
rametro ).. Qual è la probahilit11 che il componente A duri più a lungo di B?
Supponiamo che i tre elementi abbiano tempi di vita indipendenti e di legge uniforme su
. Qual è la probabilità che il componente A duri più a lungo di 8'! È più grande questa
abilità o quella calcolata in a)?
Supponiamo che i tre clementi abbiano tempi di vita indipendenti cd aventi la stessa densità J.
oniamo che f sia continua e strettamente positiva in un i ntervallo ]O, b[ (con eventualmente
+oo) e nulla al di !ltori di ]O, b[. Calcolare la probabilità che il componente A duri piì1 a
di B .
oppia di v.a. X , l' ha densità congiunta

J(x, y) = (/J + 1 ) 1, x > O, y > O


cO:reOY

(eOx + eO.v - 1 ) 2+ ;;

, y) == O altrimenti, dove 0 > O . Calcolare la dcnsitl1 di X e quella di Y.


X e Y v.a. di densità congiunta

X > 0, y > 0

. y) = O altrimenti.
Calcolare le densir/1 di X e di Y .
Qual è la dcnsit:1 d i X Y?
X e Y v.a. indipendenti e di legge f' (2, J ) e r ( I , � ) .
Qu:111to valgono E(X) e E(l')?
Quanto vale P(Y ?: X)? Sì tratla di una quantità maggiore o minore di � ?

. Y è esponenziale d i parametro À mentre X ha una densità condizionale dato Y = y che è


eibull di para1m:tri e, e y, cioè
------ ----------·· ···--• ---- --- Tracce e-31

a) Qual è la densità di X?
b) Qual è la densità condizionale di Y dato X = x? Quanto vale la media di q uesta densità
condizionale?
2 La v.a. Y ha legge x 2 (n) = f ( ;i , ½) mentre la legge condizionale di T dato Y = y è N{O, %) -
Calcolare la densità di T.

Esercizi per il Capitolo 5


1 Sia (X,.),, una successione di v.a., dove per ogni n X11 ~ x 2 (n ) . Qual è il comportamento della
successione (¾X,.) 11 ·, Sì può dire che converge in probabilità? In legge?
2 Sia (X,,),. una successione di v.a . indipendenti di Poisson di parametro }.. e poniamo X,,
f (X1 + . . . + X11) .
a) Stimare con l a disuguaglianw d i Chebyshev la probabilità

P(!X,. - ÀI ::: 17)

b) Stimare la stessa quantità usando l'approssimazione normale.


e) Confrontare le due stime per À = I , T/ = J 0-2 , n = 1 0000.
3 Sia (X,,)11 una successione di v.a. e supponiamo che X,, ~ f (11 , À) .
a) Qtrnnto valgono P(X 1 > l) e P(X3 > f)?
b) Dare un'approssimazione, per 11 grande, di

4 Marco e Giovanni hanno l'abitudine di giocare a testa o croce a chi paga il caffè. Marco però
ha l'impressione che tocchi a lui un po' troppo spesso e, poiché è sempre Giovanni che fornisce
la moneta, comincia a tenere conto dei risultati . In effetti è toccato a lui 64 volte su 100, ma
Giovanni ha liquidato le sue proteste dicendo che si traila solo di sfortuna. Voi che ne pensate?
,5 Sia (X11 ) 11 una successione di v.a. indipendenti avc111i la stessa legge, tutte di media O e varianza
o·2 . Mostrare che la successione di v.a.

Z (X I + . . . + X,;) 2
-
,. - Il

converge in legge e determinarne il limite.


.6 Sia (X,,),. una successione di v.a. indipendenti, tutte di legge uniforme sull'intervallo [O, 2a].
a) Calcolare media e varianza delle v.a. X; .
b) Calcolare, per 11 --> oo e per x E JA: fissato, il limite delb probabilit;I.
-
P(X 1 + . . . + X,, > 110 + x✓,i" ) .

Quanto vale questo limite per x = a? E per x cc - � a'/


.7 Un calcolatore addiziona un milione di numeri e in ognuna di queste operazioni effettua 1111
errore di arrotondamento; supponiamo che i singoli errori siano tra loro indipendenti e abbiano
distribuzione uniforme su [-0.5- J 0- 10 , 0.5- 10- 10] (cioè la decima cifra decimale è s igni ficativa).
32 L'.eserciziario

a) Qual è fa probabilitil che l 'errore finale sia più piccolo in valore assoluto di 0.5 · 10- 7 ? (cioè
al è.: f.t probabil ìtìi che la settima cifra decimale sia significativa?)
b) Qual è la probabi lità che l'errore sia più piccolo in valore assoluto di 0.5 - 10-8 ?
dado equilibrato viene lanciato 900 volte; indichiamo con X il numero di volte in cui compare
6.
a) Quanto vale E(X)? Qu,mto vale P(X ::: 1 80)?
b) Supponiamo di sapere dell'esistenza di una partita di dadi truccati che producono il 6 con
obabilità r Per decidere se un dado è di questi ultimi usiamo la procedura seguente: lo lanciamo
0 volte e decidiamo che esso è truccato se si ottiene il 6 pit, (?:) di I 80 volte. Qual è la probabilità
e un dado truccato venga effettivamente individuato?
segnale consiste in una parola di II bit, ciascuno dei quali può assumere i valori O oppure J .
l corso della trasmissione ogni bit con probabilità p = 0 . 0 1 può essere distorto (cioè può essere
utato eia O a I oppure da I a O).
a) Qual è il numero medio di bit distorti? Qual è l a probabilità che un segnale di 1000 bit
ntenga bit distorti? Qual è la probabilitli che contenga almeno 1 O bit distorti?
b) Per ridurre la distorsione si usa il seguente protocollo: ogni bit viene trasmesso tre volte ed
vcru valore viene deciso a maggioranza: il bit viene posto uguale ad A (A = O oppure I) se
sono almeno due valori A tra quelli ricevuti . Qual è ora la probabi lità che un singolo bit sia
torto? Qual è l a probahi litil che un segnale di 1 000 bit contenga bit distorti?
lla trasmissione di un'immagine il colore di ogni pixel è descritto da 8 bit, cioè da un vettore
, . . . , a8) dove a 1 , . . . , as possono prendere i valori O oppure J . Durante la trasmissione di
ni singolo bit si può avere una distorsione con probabilità p = 0.0002 = 2 . 1 0-4 ; cioè ogni
trasmesso può venire alterato (da O a J o da J a O) con probabilità p = 2 . 1 0- 4 e per di più
ipendentemente da un bit all 'altro.
) Qual è la probabilità che un singolo pixel venga trasmesso correttamente?
) Un'immagine è composta da 5 1 2 x 256 = 1 3 1 072 pixel . Qual è il numero medio di pixel
torti in un' immagine? Qual è la probabilità che vi siano più (?: ) di 200 pixel distorti?
(X,. ),. una successione di v.a. rispettivamente d i legge geometrica di parametro p,, "' t- La
cessione (!, X,, ),, converge in legge? In caso affermativo, qual è la legge limite?
(X,.) ,, una successione di v.a. indipendenti !Lllle di legge cli l'oisson di parametro À. Quanto
e, al variare di À > O, il limite

lim P(X 1 + . . . + X,, ::; 11) ?


Jl-►00

(X,, ),. una successione di v.a. indipendenti tali che

se x > l
. > X) =
{ I\--À se x ::: I
P(X;

ve À è un numero > O .
) Calcolare media e varianza delle v .a. X; .
) Poniamo Y; = log X; . Qual è la legge di Y, ?
) Mostrare che la successione di v.a . ( (X 1 X2 . • • X,, ) 1 1" ),, converge in probabili tli e determi­
rne il limite.
Tracce e-33

l 4 Sia (X,, ),. una successione di v.a. indipendenti, centrate, equidistribuite e di varianza finita.
a) Consideriamo la v.a. X I X2 . Quanto vale la sua media? Ha varianza finita?
b) Poniamo
V,, = .!_ ( X1 X2 + X3 X4 + . . . + X:,_,, _ , X2,,) .
11
Quali valori vi aspettate di osservare per V,1 quando 11 è grande? Si può dire cl1e V,, converge in
probabilità? Verso quale v.a. limite?
c) E se fosse
V,, i (X 1 X2 + X3 X4 + . . . + X1,. - 1 X2,. ) ?
.fi
=

d) Sllpponiamo per di pit, che sia E(Xf) < +oo. Le successioni

I 4 4 , Xf + . . . + X;;
W,. = + . . . + X,,) V,,
11 (X 1 4
X 1 + . . . + X411
=

convergono i n probabilità? A cosa?


1 5 Sia X 1 , X2 , . . una successione di v.a. indipendenti, tulle di lt:gge uniforme su [O, I ] e poniamo

Z" = min (X t , . . . , X,,) -


a) La successione (Z,,)11 converge in legge per 11 ➔ oo? Converge in probabilità?
b) Mostrare che la successione (112,,),. converge in legge per 11 ➔ oo e determinare la legge
limite. Dare un'approssimazione, per II grande, della probabi lità

P ( rnin(X 1 , . . . , X,.) ::: n


.16 (La convergenza in legge non implica la convergenza delle medie e/o delle varianze) a) Sia (X11 )11
una successione di v.a. tali che

P(X,. = O) = l - cx,. P(X,, = 11) = cx,, ,

dove (cx,,),, è una successione di numeri reali compresi tra O e J . Mostrare che se lim,._,,,, et11 = O
allora (X,, ),, converge in legge e calcolarne il limite.
b) Costruire un esempio di successione (X.,),, convergente in legge ma tale che le medie e le
varianze di X,, non convergano alfa media e alla varianza del limite.
17 Una sorgente produce segnali binari di lunghezza 11 senza memoria (cioè i valori di bit diversi
sono tra di loro indipendenti) e nei quali ogni bit può assumere i valori O oppure I con probabilità
0 . 8 e 0.2 rispettivamente.
a) Qual è la probabilità che per 11 = I 000 lu sorgente produca un segnak in cui la proporzione
[},. di 1 sia più grande di 0.23?
b) Fissinmo ,; = 10- 2 e continuiamo a indicare con p,, la proporzione di I in u n messaggio ùi
lunghezza 11. Quanto deve essere grande 11 perché l 'eventualità di osservare un segnale in cui p,,
differisca da 0.2 per più d i e si verifichi con probabilità minore di 11 = 4 · 10-1 ?
.lS a) Sia (X,,),. una successione di \I.a. tutte di legge normale e supponiamo che

E(X11 ) = b,. ➔ b, Var(X,,) = o}


n➔OO
t.:eserciziario

rare che Xr. l N (b, a 2 ) per 11 ----> oo.


Sia (Z,, )11 una successione di v.a. indipendenti e N(O, (f ) . Consideriamo la successione
ta per ricorrenza da
2

Xo = x E lit,

al < I (cioè X 1 , . . . , X11 , • • • sono le posizioni successive di un mobile che ad ogni istante
sta dalla posizione attuale X,. in a X ,, ma subisce anche una perturbazione Zn ) -
Qual è la legge di X 1 ? E quella di X2? 5.2
Mostrare che, per 11 -+ co, X 11 converge in legge ad una v.a. di_ cui si preciserà la distri­
ne.
Se a 2 = I , a = 0.5, quanto vale la probabilità che X,, disti dall'origine meno di I per 11
e?
a (X,,),, una successione di v.a. tale che X,, ~ 8(11, p), O < p < I . Mostrare che la
ssione <¾ X,,),. converge in probabilità verso una v.a. X. Quale?
Sia (X,,),, una succcs.�ione di v.a. tale che X,, ~ r(,za, nÀ). Mostrare che (X11 )11 converge
babilità verso una v.a. X. Quale? 5.2

(X,,)11 una successione di v.a. tale che X,, ~ N (µ ,, , a}) , dove 11.11 -> µ E R c a} -• <1 2 > O .
are che l a successione converge in legge a d u n a v.a. N(µ,, <1 2) .
Sia (Xn ) ,, una successione di v.a. tale che, per ogni 11 , x. segua una legge d i Poisson di
etro .i..,, e supponiamo che À,, ➔ À > O. Mostr.i.re che la successione converge in legge ad
a. di legge di Poisson di parametro À.
Sia (X,,)11 una successione di v.a. tale che, per ogni 11 , X11 ~ r(a, )..11) e supponiamo che
À > O. Mostrare che la successione converge i n legge ad una v.a. di legge f(a, À).
5.
ompagnia che produce materiale elettronico sostiene che nella sua produzione di un certo
onente vi è una percentuale di pezzi difettosi solo del 7%.
Dare una stima della probabilità che in un lotto di 100 pezzi ve ne siano più ( :>:) di IO difettosi
onendo che le affem1azioni della compagnia siano esatte). 5.2
Una rivista specializzata decide di controllare le affermazioni della compagnia. Su un locto
in effetti IO pezzi risultano difettosi . Cosa se ne può concludere? E se i pezzi difettosi
o stati 1 3?
udenti che si presentano alla prova scritta di Analisi II dimenticano ciascuno e in maniera
5.2

ndente dagli altri di scrivere il proprio nome sul compito con probabilità p = WJ. Sup­
mo che 200 studenti si presentino all'esame.
Qual è la probabilità che nessun compito sia senza nome?
Qual è la probabilità che vi s iano più (>) di 2 compiti senza nome? Quale sarebbe il valore
st:1 probabilitì1 dato dall'approssimazione di Poisson? Quale quello dato dall'approssi­
ne normale? Che valutazione date di queste due approssimazioni? Quale di queste due
5.
simazioni non dovrebbe essere utilizzata in questo caso e perché?
ndiamo la situazione dell'Esercizio 3.30: in un tesi a risposta multipla vengono poste 30
nde, ciascuna con 4 possibili risposte una sola delle quali è quella giusta. Per il superamento
t si richiede di rispondere correttamente ad almeno 16 domande.
Uno studente non sa niente e risponde a caso. Calcolare, usando l'approssimazione normale,
babilità che superi il test e la probabilità che riesca a rispondere a meno (:") di 5 domande.
Tracce e-35
----- --- ---- - -- - ----- -- -- � _ _ _ _ ..______ ____

b) Uno studente leggermente meglio preparato è in grado, per ogni domanda di escludere una
delle risposte proposte e decidere di rispondere a caso scegliendo una delle tre risposte rimaste.
Sempre usando l'approssimazione normale, qual è la probabilità che superi il test?
e) (Un po' più complicato) Uno studente è in grado di rispondere correttamente ad una domanda
con probabilità p. Quanto deve essere grande p perché lo studente superi il testcon una probabilità
del 40%?
d) Secondo voi è giustificato l'uso dell'approssimazione normale in questo esercizio?
a) Calcolare la probabilità che 1 0 lampade non siano sufficienti per un anno, come ncll 'Esempio
4.27, ma usando l'approssimazione normale e confrontare il risultato ottenuto con quello esatto.
b) Calcolare, con l'approssimazione normale la probabilità che 50 lampade siano sufficienti .
per 5 anni (trascurando i bisestili. . . ) e confrontare il risultato ottenuto con quello esatto: 0.5.
c) Indichiamo con X la v.a. che modellizza la durata di 10 lampade (intendendo che quando
una sì guasta viene sostituita immediatamente con un'altra) e con Y quella che modellizza la
durata di 50 lampade (con la stessa regola). Calcolare le skewncss di X e di Y (vedi l'Esercizio
4 . 1 3) e confrontarle con quella di una legge normale. Cosa ne deducete?
Una società demoscopica deve effettuare un sondaggio per decidere tra due partiti, A e B, quale
abbia la maggioranza. A questo scopo sceglie un campione di n individui a cui chiede di quale
orientamento siano. Supporremo che gli intervistati rispondano tutti (nessuno dice "non so",
cioè). Supponiamo che la percentuale dei simpatizzanti del partito A tra i votanti sia del 52%.
a) Supponiamo n = 900. Qual è la probabilità che anche nel campione il partito A sia mag-
gioritario?
b) Quanto grande deve essere n perché la probabilità che nel campione il partito A sia mag-
gioritario sia almeno del 99%?
6 Calcolare l'intervallo di fiducia di livello 95% per il valore della densità della Terra, sulla base
delle misure di Cavendish (vedi Esercizio 1.3). Il valore 5.5 17 oggi comunemente accettato si
trova all'interno dell'intervallo?
7 Siano X 1 , • • . , X900 v.a. di Bernoulli B ( l . p) indipendenti e poniamo X = (X 1 + . . . + Xgoo) •
'Y-k
a) Usando l'approssimazione normale, quanto vale P(X :>: 0.22) se p = 0.20?
b) Usando l'approssimazione normale, quanto vale P(X :" 0.22) se p = 0.24'!
8 Dire quali delle seouenti affermazioni sono vere e quali sono false.
a) Se (X,,)11 è u�a successione di v.a. aventi ciascuna densità (continua) fx. e X,, _, X, la
:.r

v.a. X potrebbe essere una v.a discreta.


b) Se (X,,),, è una successione di v.a. discrete e X,, _ / X, la v.a. X potrebbe avere una densità
f:

continua.
c) Sia (X,,),, una successione di v.a. e convergente in legge ad una v.a. X avente densità
continua J. Allora se tutte le X,, prendono valori :" 1 con probabilit,, 1 , lo sl<.:sso succede per X .
9 Sia (X,,)n una successione di v.a. i ndipendenti uniformi su [O, l ] e poniamo

- l .
".., Slll
ZIl = - L .· ('>dfXk) .
Il
;�1

a) Mostrare che la successione (.Z,,) converge in probabilità e determinarne il limite.


-36 t:eserciziario

b) Calcolare il limite
r(1z,.1 > 10\)
ia (Xn ),, una successione di v.a. indipendenti di legge N (O . I ) .
a) Mostrare che la successione

I ( 3
_ r.:
S,, - X1 + . . . + X ,.3)
-..;Il

onverge in legge e determinare la legge l imite.


b) Quanto vale, per II grande,

ia ( X,,),, una successione di v.a. indipendenti di legge di Laplace di parametro I ( le legg i di


aplace sono definite nell'Esercizio 4.31 a p. e-26).
a) Mostrare che la successione

S,, = fal (X 1 + . . . + X,,)

onverge in legge e determinare la legge li mite.


h) Qt!anto vale, per 11 grande, 5

r(�i (X1 -1- • • • + X.,) ?: 3) ?


a (X,, ) 11 una successione di v.a. i.i.d. (indipendenti e identicamente distribuite) con P( X,. =
}) = P(X,. '"" ½ ) = J e ponimno

Y,, = Il� (X 1 + . . . + X." )2 .


5
ostrare che ( Y11 ) 11 conve rge in legge e determinare la legge limite.
a ( X,,)11 una successione di v.a. i .i.d. di legge

P ( X,, "" i) = P{X,, = 2 ) = � .


a) Qmrnto vale E(log X,.) ?
b) Mostrare che la successione Y,. c c (X 1 • . . X,, ) 11 11 converge in probabilità. A cosa?
e) Mostrare che la successione W,, = (X 1 . . • X,,) I/✓,, converge in legge e determinare la legge S
mite.
ue punti di questo esercizio si possono anche risolvere in ordine inverso.
a) Sia (Z,;),, una s11ccessiouc di v.a. con %,, - 1"' (11 . -.f,1 ) e poniamo

Y,, = Z,, - ./ii .


Tracce e-37
------ · - -- - - -- - --

Studiare la convergenza della successione ( Y,.),, .


b) Sia (X,, ),, una successione di v.a. indipendenti, tutte di legge esponenziale di parametro l .
h l ) Qual è la densità della v.a.

b2) Studiare la convergenza della successione

u" - X I + . . . + X,, - Il
-
.jiì
5 Jn un esperimento occorre misurare una certa quantità µ. . Lo strumento di misura aggiun ge
all'osservazione un errore sperimentale che si può mode!lizzare con una v.a . X di media O e
varianza 1 . Si può inoltre supporre che errori di misurazioni che si riferiscono a rnisura:lioni
diverse siano indipendenti.
Per ottenere una misura si effettuano II misurazioni e poi si stima µ. con la media empirica X,,
delle misurazioni ottenute.
a) Qual è la probabilità di commettere un errore più grande di r&i,
se /t = 400?
b) Quanto deve essere grande II perché X,, stimi µ. a meno di 1/io con la probabilità del 99%?
e) Quanto deve essere grande 11 perché stimi µ. a meno di rio
con la probabilità del 90%?
6 Un programma deve eseguire 30 simulazioni, ciascuna delle quali consiste in due fasi successive e
indipendenti. la cui durata si model lizza, in secondi , con due v.a. X e Y esponenziali di parametri
rispeUivamente � e I .
a) Usando l'approssimazione normale, quanto vale la probabilità che il programma richieda
per l'esecuzione più di 1 00 secondi?
b) Come cambierebbe la ris posta alla domanda precedente se ogni simulazione avesse una
durata esponenziale di parametro ? Se disponete di un software opportuno, confrontate il valore
!
ottenuto con quello esatto, fornito dalla f.r.
7 Per stabilire la proporzione di maschi in una popolazione, viene scelto un campione di 100
individui, 67 dei quali risultano maschi . Indichiamo con p la proporzione (sconosciuta) di maschi
nella popolazione.
a) Usando i dati forniti dal problema, qual è un intervallo d i confidenza al 95% per p ?
bi) l dati permettono di respingere l' ipotesi che la proporLione di maschi sia inferiore al 50%
al livello 1 - a = 0.99?
b2) Qual è la regione di rigetto di questa ipotesi al livello 1 - a = 0.95?
c) Un altro ricercatore vuole ottenere un intervallo tli fiducia di l ivello 95% per p che sia di
semi-ampiezza 0.02. Quanti individui deve scegliere nel campione?
38 a) Una società sostiene che i processori che produce hanno una frequenza di clock di media
fl = 3 .5Khzeon una varianza a1 = 0.25. Si considera un cam pione di 64 processori e indichiamo
con X la media della frequenza di clock dei processori del campione. Supponendo vere le
affermazioni della società
al) Dare una valutazione della probabilità P(i :;: 3.4)?
a2) Dare una valutazione della probabilità P(3.4 :::; X :;: 3.6)?
�eserciziario

Una rivista informatica non crede mollo alle affermazioni della società e quindi si procura
ampione di 64 processori . Viene osservata una media empirica X = 3.5 con una varianza
pionaria s2 = 0.25. Qual è un intervallo di fiducia di livello 95% per la media µ?
X,.)n una successione di v.a. indipendenti esponenziali di parametro À..
Poniamo Z,. = min(X 1 , • • • , X,, ) . La successione (Zn ),, converge in legge? In caso affer­
vo precisarne il limite.
Poniamo Y,, = max(X 1 , • . . , X,.) . La successione (Yn ) ,, converge in legge? In caso affer­
vo precisarne il limite. E la successione ( $ Yn ) n ?

X,, ),. una successione di v.a. i.i.d. uniformi su [O, l]c poniamo

M,. = max( X 1 , - - - , X11 ) .

Mostrare che la successione (M,.),, converge in legge e determinare la legge limite. Converge
e in probabilità?
Mostrare che la successione
Z,, = n ( l - M,,)
erge in legge e determinare la legge limite.
a (X,,)11 una successione di v.a. indipendenti di legge uniforme su [O, l] e poniamo Y,,
X 1 , . . . , X., ) . Mostrare che (11 Y,,)11 converge in legge e determinare la legge limite.
Cosa cambierebbe se i nvece le v.a. X,. avessero densità

f(t) = 21 1 10 , 1](1) '}


X,.),, una successione di v.a. indipendenti e puniamo

M,, = rnax(X1 . . . . , X,.) - log11 .


poniamo che le v.a. X,, siano esponenziali di parametro ). == 1 . Mostrare che la successione
11 converge in legge e determinare la f.r. della legge limite. E se invece le v.a. X,, avessero
f.r. F(x) = e-e··• , x E �?
X,.),, una successione di v.a. di densità

se t S I
f(t) = {� se t > J
1u + l

a è un numero > O.
Determinare la costante e in modo che f sia una densità.
Poniamo
M,, = max(X1 , . . . X,.) .
are che l:i successione
1
M,
;;i 7;; ,
rge in legge e determinare la f.r. della legge limite.
Risultati

1.1 Media: 4. 166, mediana: 4. 145, varianza: c) Mediana: 1 07.5, q i = 99.5 , ,13 = 1 23.5. d}
0.09, ampiezza: 0.38, range: 1 .53. skewness: 0 . 1 9 , kurtosi: 0.09.
1 .2 a) Media: 4.84, mediana: 4.4, varianza: 1.10 Covarianza di Y e X I: l 73. I I, Co­
3.34; b) Media: 3.92, mediana: 3.98, vari­ varianza di Y e X l : 176.46, Pl'.X l = 0.897,
anza: 0.71 . p1,.x2 = 0.916. La stazione 2 sembra più af­
fidabile.
13 a) Media: 5.45 , mediana: 5 .47; b) Media:
5.42, mediana: 5.46; e) skewness: -2.2. 2.1 a) 10-6 • b) P(w l A) = lt
per tutti i
biglietti il cui numero w comincia con le cifre
1.4 a) Media: 42. 1 , mediana: 3 1 , skcwness:
00967 e = O per tutti gli altri.
1 . 248; b) Media: 1 84.8, mcdiana: 207, skew­
ness: -0.49; c) covarianza: 1047.06, cor­ 2.2 a) � - b) � -
relazione: 0.34; retta di regressione: coef­
2-1 l-
ficiente angolare: a = 0 . 1 3 , intercetta: b =
1 8.6. 2.4 a ) 2�,(��IJ! ) . b} ��: =n.
1 .5 a) Un valore positivo, p = 0.69, che è un 25 a) 0.0021 . b)0.0979. c) 0 .306. d) I -
valore abbastanza alto; b) coefficiente ango­ g-fi%ij
= 0.978.
lare: a = 0.02, intercetta: b = 1 9 . 1 3 .
2.6 � -
1.6 a ) Media: 404.17, skewness: 0.916, me­
diana: 350. b) Co,arianza: 248.3 1 , Px.r = 2.7 (t,J) 7 = G.48.
0. 13, coefftciente angolare: 3 . 1 3 , intercetta: 2.8 a) l - (�) 3 = 0.42. b) 11 > log(O. I)
242.7. iod
1 2.62.
1.7 a) Media: 846.3 , varianza: 63365.25,
skewness: 1 .28 (indice di dati asimmetrici 2.9 1\Wl = "% = 1 .78% . Probabilità dì Lma
l .S Aumento: 12.7%, medio: 0.25%. ripa1tizione 4- 1: SlMJ.2 = i = 26.78%.
Csl
1 .9 a) 9465. b) Media: 1 09.9, varia1m1:
1 84.78; passando in once la media viene mol­ 2.10 a) 0.042. b) 4 - 4.95 - 10-4 = 0.00198.
tiplicata per 28.349, la varianza per 28.3492 . e) 1 3 - �y
= 2.4 - 1 0- 4 .
0 t:eserciziario

1 3 . (;),�'ì - 3 . (1)(",'' ) = O. 007 2.29 a) ¾ - b) ¼ - e) T1·


('_; ) 7l) .
2.30 4 !� Hf�l - 6 D�>G� = o .062 .
2
2 a) (i)". b) 3 ( j )" - 3 (j )". Gti c��l
3 a) L;� 1 c4+;�;:l+;J == 0.506. b) Le
fu 2 31 a) �) (�) = O . 1 96 . b) (l, ) (�)+-(f}(�) +- (�) (!)
e 3 e 4 sono entrambe le pit1 probabi li. e) . (� (�)
rna IO è la più probabile. = 0.23 e) probabilità di avere al più J donna:
0.034, un po' troppo piccola.
4 I - -;,,,;,•�J: ! " Per 11 = J OOO, k == 25
.261 = 26. 1 %, un po' elevata.
J 2.32 a) ½ - b) � - e) 1·
2.33 a) ; . b ) k e ) f.r.
5 a) j . b) ! . e) is-
6 1 - ido�Js, = 0.096 = 9.6%. ?.34 a) .ti1.t'.3H?) _(J = O . I . b) ('] ) ( '?)(\;') ( \;')
� (�') , (])
(6) (6)
7 a) (p + ½q) 2 p er AA , 2 (p+ ! q ) (r + ½ q ) = 0.022. e) 6 x 0.022 = 0 . 1 3 . d) -. ,,-o =
Aa, (r + � q )2 per a,1 . b) Le probabilità (, )
0.055.
seconda generazione sono le stessa che
prima. 2.35 a) qk = 3) 7 = 1 . . . . , 7 , qg == O.
_(_(��f, k
8 a) H:¾
= 0.339. b) �. c) 2 (0.2 - 0. 1 4 1 + b) Pk = 1ìf9:"s ( 1 0 - k) (9 - k) , k = I , . . . , 8,
· 0.339) = 0.328. c) 2\ = 0.260. La massima per k = I . e) P 1 + p3 + p5 + P7 =
babilità è di minuita. 0.583.

9 a) i - b) �t 2.36 a) ½ . b) i -

0 f'i = 0.41 6 . 2 37 �!!

a l ) 0 . 1 5 . a2) 0.2. b i ) C = (A n Be ) u 2.38 11! .


n Ac) . b3) 0 . l 2 . 2.41 Probabilità di estrarre palline dello stesso
a) I - ( 1 - ,_i/5 ) 10 = 0.36, che è una t,
colore di colori diversi � (più grande).
babilità non trascurabile, ma non partico­ "O)
( 'O) ()
mente alta. b) :>: 50%: :;: 25 giorni , :;: 90%,:
2.42 a) �
'0) "0)
= 0.404. b) ( (
1
::c 8.l6- -iti'-·
6 giorni. e) :>: 50%: :;: 1 6 partecipanti. 1
I0- s _
0%: :>: 52 partecipanti.
2 .43 a) (�H}lC:) . b'J 11 -
- 5 oppure 11 - 6 .
3 a) 0.2225. b) 0. 1 28. e) 0.00 19. ( '·:·)

a) � k+� f, = 0. 1 6. b l ) È pit1 probabile


2.44 a) P{N) = f, P ( R) = ¼ , P ( G) = f, ­
sia equi librata. b2) 0.56.c) n 2: S. b l ) r b2) � -

5 a) l -0 .2" , 11 :>: 3. b) 1 -0.8" , J - �F ­ 2 4 5 ·1) Q(�f) = O 013 b) (��)_(� - 5 6 -


• ' cfJ> . . C(tl -· .
�lfF · J Q--1_
j - b) i . )
a) 2•46 a) ' 3 1? - '· ( 'J �@ _ _ a 9-to - 0 05
( ) -- 23-24-25 ·
a) Le sequenze sono equiprobabi li. b) ( 1 9
r;
?- R • I - , _(_'f) ii)_ ... 2- 0 15-� _ 2
TTTTTT. °ill) - iIT-f°25 - O · ·
a) �µ.0. = O.O l 3 .
13 �9
1 R ' 71;
- -'
Drum - ,o '4:!U - o· 46
@ - 23-°2425 -
( ,,)
i m1 + 4 <'Nili = 0.051 38 _,_ c:gJClll n-,4 ,_5 -
cm -_ IR4-21 _02
- -
Risultati
.. ·-·--· -- --- - -- ------ -· · · ..... . . -------··
e-41

2.47 a) 3 X m1���_(j'} = 0.492. b) 3 x 3.11 a) c-6 (1 + 6 + f{. + i) = 0 . l 5 . b)


('�)(10)( 1,0) , La legge condizionale è 8(11, A�µ ) e la sua
-�r--· -,- ('
3X�, " H �"}(',
(�
o ) = 0.68.
media vale e) m c½l<j)8 -k , massima
lA -
per k = 2 oppure k = 3. d) x = i!,, z _
2.48 a) Figura e.I a): 2p2 - p4 ; Figura e . I
b) : 2 p2 + p - p4 - 2p3 + ps . b) 2 p2 + 2p 3 - 3.l2 a) p. b) (�= D pk- 1 ( 1 - p) "-1: , k
5 p4 + 2p 5 . e) e.1 a): 0.59, e . I b): 0.84, e.2: I , . . . , n , media = (11 - l ) p + I .
0.66. 3.13 a ) X e Y sono geometriche modificate
2.49 a) Vero. b) Vero. e) Falso (possono di parametri p = t e p == j rispettivamente;
essere indipendenti). d) Falso. e) Falso. f)
Vero. g) Vero. h) Falso. i) Vero.
E(X) = 6 , E(Y) = 3. b) P(Z = k) = ( i ) * - I
+j (3) •-I - � ( �) k - 1 , E(Z) = 'lj. c) ¾ -
t
3.1 (m 0.921 . O. I + @0.912 = 0.339 per 3.14 a ) 1 - ( l - .!Jk , -> I - e- 1 per k = 11
l'aereo da 22, (l :)0.9 1 1 = 0.3 1 4 per quello e 11 -> oo. b) 11(1"- (1 - ¼lk ) . = 20.84 per
da I l . 11 = 2 1 , k = 100, = 19. 1 7 per 11 = 2 1 , k =
3.2 a) @ H = t1
== 0.07. h) (:;) � (Ì)''- 2 50; L;'= 1 (I - ( J - p; f ) , = l 7.68 coi valori
numerici assegnati .
massima per 11 = l J o n = 1 2 .
1

3.15 a) D i Poisson di parametro À p�r X, di


L��20 (2,4)0.6"0.424 -k = 0.01 35.
parametro 2À per Z. b) ¼ pN l. e) 0. 1 65.
3_,
3.4 a) illCT.l -
(1) - 'IO -
2- rn . I,1 med1·0" 1 8
- l. 3.16 a) l-jlHi�½� = 0.745. b) Proba-
settimane. b) ( I - fi; ) . e) entro la 1 0 1 -
30 bilità dì utilizzare una almeno delle unità I e
2= 1 = 0.938, <li utilizzarle
esima: fi , dopo la 1 30 -esima: ( I - ·/g ) 3o _ d )
s8&m�:::J��:
entrambe = 0.552. e) Y; è di Bernoulli dì
j _ Lt=o (5kO)p (l _ p)50-k = 0.06. parametro p = P(Y; = I ) = 0.745, le Y, non
k

3.5 a) P(X = 3) = "{5 , E(X) = ,\- + f:; (2 + sono indipendenti e non ,ono indipendenti a
. . . + 6) = 3 . b) efilo; sapendo che i due lanci due a due, e1- , .r2 =!\m;=m1�: = -0.0 1 6 . d)
hanno dato 2 e 3, la probabilità che si tratti di E(X) = 30p = 22.35.
uno dei dadi truccati vale t,i = 0.26. e) No. 3.17 a) P(/\;) = �t; /\ 1 A 0 non sono
indi pendenti a due a due e quindi neppure in­
,.•. , 9

3.6 ¼ per k = I , . . . , n.
dipendenti. b) E(X) = 1 , sia per 90 numeri
3.7 a ) O . l - 0.3 + 0. 1 7 - 0.7 = 0 . 1 5 . b) proba­ che per 1 024 . e) Var(X) = I .
bilità 0-�9J� = 0.343 che provenga dalla linea
3.18 a) t (I + b) � ..!:.! . e ) �(I + �/" ) - d)
/\ , probabilifa 0-�23�-7 = 0.657 che provenga q
. ...
Il

dalla B . k-
11- -

l +(;;)f
I
' :".. :>.
3.S a ) � - b ) 4 · ��� J! massima per
r,lJ:i�V . 3.19 a) (�) (f)i(l . . })"_ ; _
k= I. ,,,
b) i!j!(,:-i ' ; !. i l ... l ) 11 -ì - i .
=7TT (·,. ) ( ,. ) (
�2d (1;) (2!�. ) ...
0.00594 ., 48 ·
,.
3.9 Lk=20 ' T = 9.6 m
( ,�) - 3.20 a l ) -\,- = O.'i84 per la sorgente A,
media. 1-1- ,rn
l - 0.584 = 0.4 1 6 per la B. a2) -l,m- =
3.10 a) P(X 1 = I I S,, = r) = � (di Bernoulli l+�ìlff
B( l, f ) indipendentemente da"p). b) P(S,,, = 0.968 e 0.032 rispettivamente per 11 � ! 00.
( ) h) Probabilità --V 0- = 0.376 per A , 0.624
k, S,. = r) = ,\�r (ipergeometrica); la 0.3-1-0 71,ru
media della legge condizionale vale 7 . per B se 11 = IO, � = O. 928 p-2r A ,
t:eserciziario

2 per B se 11 = 1 00 . c17 )"- 2 , dove q; è la probabilità di ottenere


i come somma del lancio di due dadi, q; =
a ) 1 - ('J) - (?) 0.26 .
0.74 1 3 0.74 12
-
½-=t" per i = 2, . . . , 7, q; = ,ll.3{;±-! per i =
0.26 2 - 0.74 1 l - ('i) 0.263 - 0.74 1 0 = 0.45 .
- 0.28) 13 = 0.014. 8, . . . . 12. c) q1 + Li#.1. , 2 1
conviene giocare come B.
,t1 = o.465 ;

a) (i)(½/m + WW � + (!Wf =
2 3
3.36 a) (p2 + (I - p) 2)"p(l - p). b) i·
. b) J - � = 0.65.
a) (½) " . b) l - ( � )" . e) eD C1)" . d) 3.37 a) st ·
b i ) � . b2) È più probabile un
dado equilibrato.
(11 + l ) (! ) " . e) (�;')(�) 2"' .
3.38 a) P(Y s k) = (�)"' . b) P(Y = k) =
a) � - b) (3n 1�(�n 2) ..;. " -+oo � - ,,k (k"' - (k - l )"' ) , massima per k = n. e)
- - '
(' )(')(')(
ill..U, ]. .
87. )
.J _ 5.76 X 1 0-4 •
P( Y s k) = �:::l�=�::g. P(Y = k ) =
(9s )
=
n.7,.'.'.'.m + I J (k - I ) . . . (k - m + I ) , massima
a ) E(T) = Jt'/ . 104 = 3254 . 1 5 . b) ancora per k = 11 .
) = 2 ;h6 - 1 04 = 4856. Cambia,cambia . . . 339 a) QC;,,,
)
= J.,. b i ) b+r 3 b2)
' · ' = Til
('!") • I� · ·
a) (il, CV- b) 3 ( � ) ' - 3 <½l, (';;; ') (,:ffl ) 1 .
k = 4 k = IO k = 20 r•t-') , = 36
0 .56 0.05 9 · 10- 4
T = k) = 1 <il- -nv- 1 ,E(T) = 4-.
3.40 a) p = f6· b1)
Il = 3 Il = 4

a ) ( I - p)" . b) p #. = 0.34 � = 0.36


H7�;,iL.i .
X'i' ~ B ( l , p) , X 1 . . . X,, ~ B( l , p" ) . 3.42 a) E(X) = E(X3 ) = O. b) Pr1x (rlk) = {
se r = k 2 + 1 oppure ,- = k2 - I , O altri­
a) Voto medio: 2J = 7.5, ({2) (¾)
16
(¾) '4 rnenti;media: k2 • c) a = O.
0006. b) Voto medio: = 1 0 ,
W6 m '4 = 0.0 1 16. 3.43 a) P(X = k I X + Y = n) = (Z) ,}. , bino­
miale B(11, �). media: � . b) Cov(X + Y, X +
E(c-X) = ,dL,,1 , c non ha speranz�
X
Z ) = Var ( X) = À; ex;�_x+z = � - e) P(X +
ematica finita per p ::: I - ¼ , E(é) = ;.• >.5
Y = 2, X + Z = 3) = e-3).- ( �1'
:r + - :r + 12 ) ·
-;,J per p > I - ¾ -
3.44 a) F.ilso. b) Falso. e) Vero. d) Falso. e)
a) {�) (Ml = 0.2. b) 2Ti�1 (j) 6 =
�c'i.T� Falso .
. 3.45 a) ko :::. 6 1 . b) Con un software adatto,
a ) ( W1 = k, W2 = m ) = [X 1 = C . . . . , la probabilitìt che una v.a. B(I00, j) assuma
= C, Xi- = T, Xk+ I = C, . . . . X1:.1-111-I = valori < 61 (ovvero s 60) vale O. I .
t+m = T J . b) P(W 1 = k, W2 = m) =
3.46 a) X è di Poisson di parametro Àp, Y è
- p)"'+k -2 = p(l - pl - 1 p ( I - p ) l!l·· I _
di Poisson di parametro À ( I - p).
a) P(X + Y = k) = (k - l )1i ( l - p/-2 ,
3.47 a) Xk ·- B(N, (] - p)"+ 1 ) . P(X, >
2, 3 , . . . . b) p,qx+ r (kj111) = ,,,�i ' per
O) = 1 - ( 1 - (I - Pi) N . b) xk è di Pois­
k < 111 . e) = 111�1 per k = I , . . . , m - l . I
S011 di parametro .\.( I - pjl: . Rimangono in
ri possibili sono equiprobabili. media À ( l - p) 3 = 0.3 errori, probabilità che
a) i per A , f per B. b) q; ( I - (f; - rimangano ancora errori = l -e-0· 3 = 0.259.
Risultati e-43

3.48 a) P(X = 3) = ,
2 ./2 :
' b) E(X) = ½ , 4.9 l - <I> (l .66) = 5%, <!) (-2.44) = 0.8%.
Var(X) = l . e) X + Y è geometrica d i para­ = 400
4.10 µ. :'.: 730 + 2S · 2.88 = 802; se a 2
metro ½ · µ. :".: 730 + 20 · 2.88 = 787.6
3.49 a) i/rx, (t) = (½ + 2 ) 2 . b) P(X 1 + . . . + 4.11 a) k = :dn · b) X + Y ~ rcs, ½ ) , 2X ~
X,, = k) = (1t) k X1 + . . . + X,, ~ B (211, ½),
f(4, ½ ) ,
3.50 P(S,v = 0 ) = e-1 C:-p) , P(S,v = l) = 4.12 a) F(t) = 1 -e-i.r• . b) E(X fl) = r(�i· I J ;
Àp ( l - p)e- 1-C: -p) .
media di u n a v.a. di Weibull d i parametri À e
3.51 e = - 10 h; se X ha funzione generatrice l'(I I !J
a . ";Jr.;-
. . r( l+i) - J'(l -t '.)-2 e) La
, varianza VI•
g, allora P(X = 11) = r<2'•i;;i;2 e E(X) = $ · varianza è sempre positiva. . .
4.1 a) X è a valori nell'intervallo [O, 1 0] con 4.13 a) O. b) 2a- l/Z (non dipende da n e)
,b
probabilità I . b) Jx (t) = t per O s t :S 5 , À - 1 /2 _
= -'.t5
t + � p e r 5 s t s IO, = O altrimenti.
4.14 a) fy (s) = ��� exp(-� (log s-µ.) 2) ,
e) E(X) = 5.
f ( I , � ) . b) W è uniforme su s > O . c l ) E(Y) = e''e" /2 , Var(Y) = c2i•e•' .
4.2 a) X2
2
~
(e" - I). e2) Mediana= e/J. (non dipende da
2
[O, l ] .
a 2 , mentre la media è crescente in a 2).
4.3 a ) e = À, .i. _ b ) Y ~ l'( l , .\.}.
4.15 Per X1 , . . . , X,, indipendenti N (0, I),
4 .4 ( )= .
Jy y ;;0�_.1'i xf + . . . + X� ~ x 2 (11 ) . Per x,, . . . , X,, in­
4.5 a) T è esponenziale di parametro À + ;i + dipendenti uniformi su [O, I J . - ¼ [log(X 1 ) +
y = 0.6; E{X) = [iJ, = 1 .67. b) g(t) = 2(À + . . . + log(X11 )] ~ f(11 , À) . Per X 1 , . . . , X11 in­
µ + y)e-<H1,+Y)1 ( I - e-(>.+µ+y )t) per i > O; dipendenti N(O, -;;h l , X; ~ r(1, }.) (Esem-
tempo medio= i. +,:+r - .lv. +:•+r) = 2.49 . e) pio 4.25) e Xf + . . . + X� ~ f ( '.f , À) .
g (t) = 6(À + µ. + y) e-t>.+µ y)r
+
4.16 a) Y è geometrica di parametro p =
-6(2À + /-l + y) e-<2 >.+1•+y)r I - e-1 , media = y$r. b) Se U è uniforme
+2(3À + /-l + )') e-(3). +µ+y)I
su [O, I ) . X = Lior,( [_ 1,1 log UJ è geometrica
-3(}. + /1. + 2y) e-(À +Jl-t·2y)I
+3 (2À + µ. + 2y) e - m+1i+2r> 1 di parametro p.
-(3À + µ. + 2y) e -(J>.+µ+Zy)r; tempo medio"" 4.17 a) fz (z) = zc - 0 1 2 , z > O. b) l'(Z >
1

1
1) = 1 - F2 ( 1 ) = e- 2 .
1
À·I I� I r . 2>.+�•+y + j).+7<+ r ... 1.+:+2; +
+v:-+!+zr .. 3T�y = 3.26. 4.18 a) J ( l - log2) . b) i log 2 . e) }0 -
log 2) .
4.6 a) meòia: fijlf-, varianza: 0 ( 1 - �) . b)
Una v.a. di Cauchy 11011 ha speranza matema­ 4.19 a) ¼. b) Se si suddividono i 30 numeri in
tica finita. c) Z ha speranza matematica finita terzine si vede che in tulle il numero di mezzo
per À > l , E(Z) = /!:r- Ha varianza finita per è più piccolo sia del primo che del terLO. Se
), > 2, Var(X) = J. ��-� t i; per ), ➔ +oo la fossero nu meri aleatori uniformi su [O, JJ e
C - - ) indipendenti , la probabilifa che ciò succeda è
media tende a r, la varianza a O.
3 - IO = 1 .7 . 1 0-s . . .
4.7 P(X > Y) = ½, P(X > Y + ½) = I -
<!> (0.35) = 0 .36. 4.20 a) f(t) = ½c- 116 (1 ... e-1/6) , I > O ; vita

4.8 1 - <l> (l) = 0 . 1 6 , l - <l> ( l .33) I-


i�
media: 9 , più piccola. b) = 0.48.
44 l'eserciziario

eranza matematica finita per a > I , E( Y) = 0.226. e) 1127 1 . d) I - 3 . 1 4 - 10-· 3 .


e) fw (x I y ) = Ltw;;' x" e- C).+yJx , x >
:::

T 4.36 a) 0.023 nei due casi. b) ½ e -2✓2


om.
22 a) f (t ) = pÀe->-1 +q µe-''' , t > O; E(T) 4.37 a = ¾ , À = ! nel primo caso, a = 4,
f + �f , b) p+�,1!�1,1 _1.,, , -> J per s ➔ +co. ). = 4 nel secondo.
3 a) f + t;- b) Se À = /J. T ~ 1'(2, À); se 4.38 a) fw U) = ;- t- 3f4 e- 1 , chc è una l'(¼, I ) .
i il. fT (x ) = � (e · ·f<X - e-1·'") , x > O. e) b ) rc¼,
. e) E(X) = o, Var(X) = rrL rc è ,
;1(1+1J _f..( C-l11+.1J J ·
o . 3 8 per
J.e-"' - µc•ii , = .42 per .1 = I , O. 1
4.39 a) l - e- per a = J , I - 2e- 1 per
-
= 2. d) Mo''À_--;,;,_µ ; per s - > oo converge a O a = 2, I - � e- 1 per a = 3. b) <1> ( 1 .4 14) -
À > /,1, e a l - h se À < µ .
© (- l .414) � 0.843 per a = - - ::e½- e· 1 +
t reo
4 f(t) = per O sI s I , = 2 - I per
<t, ( 1.414) - <l> ( - l .414) = 0.423 pc1�a = �:
I
5 1 s 2.
-(_J ·- · + _J,, . _ )e- I +<l>(l .414)-<!> ( -- 1 .414) -::
5 a) b ) fz (I)
i- = 2(1 - t). O S I 5 l; rd-> ,·w
0 . 1 5 1-pera-:-= � -
Z) = } .
2
4 �40 a) fY (I) = Fiiif ,,_, -,'f2 b) E(Y)
6 b) e - ·.- = O.OD I .
'7
( �•/ e
r('•+I )
7 Y~ r(l, l) . fz (l) = 3t 2e-À' 3 , r > o. = v'2 rrn-
- , f("--t.! ?
Var(Y) = 11 - 2( f({J ) ) "; per

8 a) Fx (x) = x0 per O s x s I , = O per 11 == 3: E(Y) = 2� ,Var(Y) = 3-- perr


s O e = 1 per x � l . b) P(X � 3) = O, 11 = 4: E(Y) = 3 1( Var(Y) = 4 - § � .
XS = 3 -0 . e) Y ~ 1' ( 1 , 0) d) E(X) =
1)
Var(X) = to+ tJ�<o+2> . 4.41 Jz (t) = 2e- 2À'À 2t ( I + ì.t) , E(Z) = ;f>; -
h•
9 a) F(r) = I - (U�J" . b) Speranza mate­ 4.42 a) E[{-] = a�I , cx > I . Var(:(,) =
'·' · 11 J
tica: ,,�r per a > l , varianza: �.:fj{,,_2 (a - 1 )-(a-2) ' a > ?-- b) g (r) -
- ..};'__r
l"(a) · +"Je- ,/i
)
a > 2. 4.43 a l ) r (a, À) . a2) } qp . b i ) r ( J 00, 100).
0 a) f>-(t) = h,
rcv l - 1-
-1 5 t 5 L b) 1>2) a = 0 .8 1 , b = 1 .2.
(t) = } ( l - 1 ) 1 /2(1 + t) - 1 12 _ e) E(Y) = o 4.44 a) g è ancora I' ( ! , À) . b) g (x) = � (I +
caso a), E(Y) = ½ nel caso b). À.r)e-1..,· . c) g è di Pareto di parametri r/- l e
À.
1 a) E(X) = O. Var(X) = b) aX è difI· 4.45 b) 3 (indipendente da fl e a 2). e) 6
place d i para metro i Xi ~ l' ( J , ì. ) .
fui, ( indipendente da À).
2 a ) P(X. 5 t) = l - ( l -- t)" , fx. (t) =,
- /}" '·· l , 0 _s; t :-;'. I . b) fx• (F) = ll/ 11 - I , 4.46 a l ) F(r) = � eÀI , t � O , e J - !;e'-' ,
'.o I :5 ] . cl) E ( X*) "' ;m , E(X.) = ;,.h ­ t � 0 . a2) S e X è u�iforme su (0, ! ] . F :. 1 (X)
è di Laplacc di pnra111etro ). , dove F- 1 (y) =
.
{ log(2y) pery s J e F - 1 (y) = -} log(2( l -­
3 a) 0.9772. b) 0.0668. e) 0.4772. d) y)) per y � !, . b) Se X è uniforme su [O. l ] .
763 . F- 1 (X) è c1rweibul l d i parametri /3 e >. se
4 a) cJ> (-2.66) = 0.0039. b) 0.54. e) 0.9. p- l (y) = (- ¼ l og( l - y)) //J _
I

5 a) F.r (/) = ct>(r)". b) 1 - <f, (2_8) ' 00 = 4.47 a) /l "" -- ½ u 2 . b) X 1 X1 è lognormale


di parametri /J. J + JJ,2 e a{ + a}. e) Ancora 5.1 f;X,, --,. P l e quindi anche in legge.
lognormale <li parametri O e a 2 .
5.2 a) P(JXIl - ,\. I > 11) :-;: Var<,$."l = Jl2,,. . b)
- 1r rJ-
4.48 a) mx(r) = �- , t s À. b) mr - w(I) = P(IX,. -- J..I ::: 11) "" 2<1>(-jf'! ) . c) P (!X,, -
h, Y - W è di LapJace di parametro .J.. . li � 11) s I con Chebyshev, s:: 0.31 73 con
e) IY - WI ~ l'(l , À) , E(IY - WI) = d} t· l'approssimazione normale.
O = m,� (O) = E(X) , = m;(0) = Var(X) .
fr 53 a) P(X1 > f) = e- 1 = 0.37, P(X3 >
4.49 r(t) = u:, , decrescente in t; no. 1) = e- 3 (1 + 3 + il = 0.42. b) P(¾ X,, >
4.50 a) fz(t) = 2Àe-J.' ( J - e-J.') , t > O. b) ¼) -> i per 11 --> oo .
E(Z) = ff,, Var(Z) == ¾-
e) r(r) = l(I - 5.4 Con l'approssimazione normale la pro­
2 ,"'�- I ); sì d) m z{t ) = -}
}:, - '.!i�, - babilità di almeno 64 teste in I 00 lanci è "'
4.51 a = E(X) . 0.0035 . . .

4.52 a) l - fr · b l) (1 -- f)". b2) ( l - 5.5 Z11 - ,;;-_. 00 I' ( ½, 2!, l-


-�. 5.6 a) E(X;) = a , Var(X;) = �3=- . b) - > 1 -
,2

;!ir )" ----;. e


')e

<t> (x 4 ), = l - <l>( l .732) = 0.04 1 per x = a,


4.53 a l ) P(Y = 20) = P(Y = 50) = fs ,
¾, = I - <l>(-0.866) = 0.807 per x = - ½ a .
P(Y = 1 00) = 1 /J() . a2) E(Y) = 28. b l ) e··-=
2iti"·
l 'area pii1 probabile resta quella relativa 5,7 a ) s:: <P ( l .732) - ct> (-l .732) = 0.917. b)
al punteggio 20 . b2) E(Y) = 40. s:: <1>(0. l 73) - <l> (-0. 1 73) = 0 . 1 37 .

4.54 ¾ . 5.8 a ) E(X) = 1 50, P ( X � J 80) "" I -


<!> (2.63) = 0.0044. b) "" ! - <ll (-1 .64-) =
4.55 a) P(JX - Yi > { ) = ½ - b) iX - Yi ~ 0.95.
r( l , À}. c) CX--Y(l) = � e- 1.lti (di L1place di
parametro À). 5,9 a) Numero medio di bit distorti: 10, pro­
babilità che un segnale di 1000 bit contenga
4.56 a) e = l. b) fx (x) = - log x per O < bit distorti; = I - ( l - O.O I ) iooo � I , che con­
x < l , Y è uniforme su [O, J ]; X e Y non tenga almeno lO bit distorti: "' l -<l> (-0. 159)
sono indipendenti. e) Cov(X, l') = 2 che ¼, = 0.563. b) probabilità che un singolo bit
è un valore > O com'era da prevedere. d) sia distorto: = G)O.G1 20.99 + G)o.0 1 3 =
P(Y > 2X) = ½ - 2.98 • I o- 4 , probabilità che un segnale cli J 000
4.57 aH . bq . cH , bit contenga bit distorti; "" 0.258.
4.SS X, ì' ~ r ( I , l) (per ogni valore di O). 5.10 a) = (l - 0.0002)8 = 0.9984. b) numero
medio di pixel distorti: 1 3 1 072 • 0.00 1 6 =
4.59 a) X ~ f (J , À) , fr ( y ) = (y-: I )· , p er 209.7 , probabilità che vi siano pit, di 200 pixel
y > O. b) X Y ~ r(l , ), ) . distorti: s:: J - <l> (-0.706) = 0.773 .
4.60 a) E( X) """ E ( Y } = 2. b) P(Y � X ) = s.1 1 tx,, """" rei , n
4
T


5.12 lim,, .... o., P(X 1 + . . . + X,, :::= 11) = O per
4.61 a) f.\, (x} = c;.,,;_,· •··'- '-• -t > O . b) ). > I , = per >. = I , = l per )" < 1 .
. +xa)� p-'r 1
fl'!x (yjx) = (À + x v ) 2ye-· )•(/.;-.,"I p er y > O. 5.1 3 a) E(X;) = ér, Var(X; ) = (À )i.i:="f;i ·
media: J,.],. u . -2
b) Y; ~ f ( l , ),) . e) (X1X2 . . . X,. ) 1 /u _, P e l /À_

4 .62 fx (x ) = i�'lt.k '� •tl . 5.14 a) E(X I X2) = O, Var(X I X2) = E(Xf) x
l'eserciziario

i) < +oo. b) Vn -, r o. 5:27 a) 1 - cl>(l.5) = 0.067. b) 2(1- <P (0. 14))


-+!e N (O, a2 ) con a2 = E(Xf)E(X�) . = 0.08 1 .

,, -+ p E(X41 ) , Un -+ p � 5.28 a) Vero. b) Vero. e) Vero.


E(x;i ·
529 a) .Z,1 -+r_ , 000. b) 0.88.
a) Z,, -+�.r o. b) nZ,. -+ !i r(l , l ); ""
-2 = 0.86. 5.30 a) Sn ->;_,,00 N(O, 15). b) 0.22.
5.31 a) Sn -+°!:➔ 00 N(O, 2). b) 0.017.
b) Vedi la successione di a) con a,, = k.
a) "" 1 - <1> (2.�7) = 0.009. b ) I l :;;
s.32 Y,, ➔ "- re½, 2) .
1. 5.33 a) E(log X,, ) = O. b) Yn _, P I . e) (W;),,
converge in legge alla densità
bl) X 1 ~ N(ax , a 2),
X2 ~ N(a 2.t , u2
fIV (t) "" _ __I_ e -Clog1) /(2(1og2}')
a2 )) . b2) X ,, -➔ ff_,co N(O, -6z ). b3)
2

(0.866) - <l>(-0.866) = 0.614. (lognormale di parametri O e {log 2)2 ).


Jr,, t log 2

a) ¾ X,. -+ P p. b) (X11 ) 11 -+ P x • 5.34 b l ) W. ~ r(n , .fii) . b2) Un ->;;'� 00


N(0, ! ) . a) Y. -•J➔co N(0, !).
a) O. I 6. b) Se i pezzi difettosi fossero
potrebbe affermare che le dichiarazioni 5.35 a) 0 . 1 6. b) 11 ::::: 66358. c) n � 38959.
compagnia non sono corrette. 5.36 a) 1 - cf>{0.81 6) = 0.21 . b) l - <!>(0.608)
a) (I - liiì)) 200 = 0.134. b) 0.3233213; = 0.27 1 .
prossimazione di Poisson dà 0.3233236, 5.37 a) (0.572, 0.768], maggiorando a 2 con
prossimazione normale 0.361 l 695. L'ap­ ¼, [0.577, 0.763) stimando la varianza dai dati.
simazione normale non si dovrebbe usare bl) Sì, ai livelli usuali. b2) # maschiè: 59. e)
n troppo piccolo. Il � 2401.
a) Probabilità di superare il test: 3.7 10-4, 5.38 al) 1 - <P(l6) = 0.055. a2) 2<t>(L6) -
rendere un voto inferiore a 5: 0.2. b) I = 0.89. b) [3.375, 3.525).
66. e) p = 0.493. d) Sì.

I
5.39 a) Z,, _, !e I. b) Yn -+'.f } .
a) Approssimazione normale: 0.5 1 . ri­
5.40 a ) Mn -+ Y'., P I . b) Z,, _,!f. r ( I , J ) .
to esatto (vedi Esempio 4.27): 0 . 55 . b)
7. c) Skewness di X: 2 • 5- 112 = 0.89, 5.41 a ) n Yn _, :t r ( l , l). b) n Yn _,_ :t O.
wness di Y: 2 . 25- l /2 = 0.4. 5.42 Converge in leggc al!a f.r. F(x) = e-e-• .
a) l - <l> (- 1 . 1 67) = 0 . 878 (con cor­ Se le X; hanno f.r. F(.x) = e-e-' , allora Mn •
one di continuità). b) n è: 3 377. ha f.r. F per ogni 11.
[5.36, S.53L il valore 5.517 si trova e f ­ 5.43 a) e = a. b) Converge in legge alla f.r.
vamente all'interno. G(t) = e- ,-• per I > O.
-- - -·-. - - - --- -- ---- ---- -------- Tavole
--- a-1
-

Quantili della legge N (0, 1 )

.01 .02 .04 .06 .07 .08 .09


I I .t13
o.o .50000 .50399 .50798 .51 197 .51595 .51 994 .52392 .52790 .53 188 .53586
X
.00 .05

O.I .53983 .54380 .54776 .55172 .55567 .55962 .56356 .56750 .57142 .57535
0.2 .57926 .583lì 58706 .59095 .59483 .59871 .60257 .60642 .61026 .61409
0.3 .61791 .62172 .
.62552 .62930 .63307' .63683 .64058 .64431 .64803 .65 1 73
0 .4.65542 .659 1 0 .66276 .66640 .67003 .67364 .67724 .68082 .68439 .68793
0.5 .69146 .69497 .69847 .70194 .70540 .70884 .71226 .71566 .71904 .72240
0.6 .72575 .72907 .73237 .73565 .73891 .74215 .74537 .74857 .75175 .75490
0.7 .75804 .761 15 .76424 .76731 .77035 .77337 .77637 .77935 .78230 .78524
0.8 .78814 .79103 .79389 .79673 .79955 .60234 .80511 .80785 .81057 .81327
0.9 .81594 .81 859 .82121 .8238 1 .82639 .82894 .83147 .83398 .83646 .83891
.84375 .84614 .84850 .85083 .85314 .85543 .85769 .85993 .86214
1.1 .86433 .86650 .86864 .87076 .87286 .87493 .87698 .87900 .88 100 .88298
I .O .84134

1 .2 .88493 .88686 .88877 .S9065 .892 5 1 .89435 .89617 .89796 .89973 .901 47
l 3 .90320 .90490 .90658 .90824 .90988 .91 149 .91309 .91466 .91621 .91774
1.4 .91924 .92073 .92220 .92364 .92507 .92647 .92786 .92922 .93056 .931 89
1.5 .93319 .93448 .93574 .93699 .93822 .93943 .94062 .94179 .94295 .94408
1.6 .94520 .94630 .94738 .94845 .94950 .9505) .95154 .95254 .95352 .95449
1.7 .95543 .95637 .95728 .95819 .959!)7 .95994 .96080 .9616 .96246 .96327
1.8 .96407 .96485 .96562 .96638 .96712 .96784 .96R56 .96926 .96995 .97062
1 .9 .97 128 .97193 .97'257 .97320 .97381 .9744 1 .97500 .97558 .976l5 .97670

2.0 .97725 .9Tl78 .9733 1 .97882 .97933 .97982 .9S030 .98077 .98 124 .98169
2.1 .982 14 .98257 .98300 .98341 .98382 .98422 .98461 .98500 .98537 .98574
2.2 .98610 .98645 .986'/9 .98713 .98745 .98'/78 .98809 0.98640 .98870 .98899
2.3 .98928 .98956 .98983 .99010 .99036 .99061 .99086 .991 1 1 .99 134 .99158
.99180 .99202 .99224 .99245 .99266 .99286 .99305 .99324 .99343 .99361
2.5 .99379 .99396 .99413 .99430 .99446 .99461 .99477 .99492 .99506 .99520
2.4

2.6 .99534 .99547 .99560 .99573 .99585 .99598 .99609 .99621 .99632 .99643
2.7 .99653 .99664 .99674 .99683 .99693 .99702 .997 1 1 .99720 .99728 .99736
.99745 .99752 .99760 .99767 .99774 .99781 .99788 .99795 .9980 1 .99307
2.9 .99813 .99819 .99825 _99g3 1 .9?836 .99841 .99846 .99851 .99656 .99861
2.8

I quantili di uso più frequente:_

'Po .95 = 1 .644854 if'0.975 = 1.959964


a-2 Tavole

Quantili delle leggi 1 (11) di Student

t,, (11)

0.95 0.975 0.99 0.995


I 6.31375 12.7062 3 1 .8206 63.6570
2 2.91999 4.3027 6.9646 · 9.9248
3 2.35336 3.1824 4.5407 5.8409
4 2.13187 2.7764 3.7470 4,604 1
5 2.01 505 2.5706 3 .3649 4.0322
6 1 .943 !8 2.4469 3.1427 3.7075
7 1 .89459 2.3646 2.9980 3.4995
8 l .85955 2.30C-O 2.8965 3.3554
9 1 .833 l i 2.2622 2.8214 3.2499
10 l .81246 2.2281 2.7638 3 . 1693
11 1.79589 2.2010 2.7181 3. 1058
l2 1.78229 2.1788 2.6810 3.0546
13 1 .77093 2.1604 2.6503 3 .0123
14 1 .76131 2.l44S 2.6245 2.9769
15 1 .75305 2.1315 2.6025 29 . 467
16 1 .74589 2.Jl99 2.5835 2.9208
17 1 .73961 2.1098 2.5669 2.8982
18 1 .73407 2.1009 2.5524 2.8784
19 1.729!4 2.0930 25395 2.8610
20 1 .72473 2.0860 2.5280 2.8453
21 1 .72075 2.0796 2.5!76 2.33 14
22 l .71715 2.0739 2.5083 2.8183
23 l .7 l388 2.0687 2.4999 2.8073
24 l.7l089 2.0639 2 .4922 2.7969
25 1 ,70814 2.0595 2.4851 2.7874
26 1 .70562 2.0555 2.4786 2.7787
27 1.70331 :..0518 2.4727 2.7707
28 1 .70[ 13 2 .0484 H671 2.7633
29 1 .6991 4 2.0452 2.4620 2.7564
30 J .69726 20 . 423 2.4573 2.7500
40 1 .68385 2 .02 [ 1 2.-1233 2.7045
60 l .67065 2.0003 2.3902 2.6604
so 1 .664 13 ! .9'JO I 2.3739 2.6387
100 1 .66023 ! .9840 2.3642 2.6259
120 1 .65765 1 .9799 2.3578 2,6174
CO 1 .64485 J .9 5 9 9 2.3263 2.5758
Formule a-3

"'5·
o � o
�­
IA Il
�1/\ .: �I;:;,
- �

...
,

�1 -
o
' o.
:::_i >:..
(1)

�-
I Il ;;;,
�k
�f� IA V
o >.·
li
? o
Il

:::> o IA V
2. A
3 "
g_ A

li
�-�
o

o-
I

Il �
Q ",
I &.

&
-:: ::i.

+
� [i
!"
� ., "
t ""± �·
;:;
� IA V
oo 5·
IA V

� 11 " i� �

o
o

�- 11
�0

�f
i
:s

8
1-----l---'----Jl----l-
� --l- - --+-- - - --
-::
..,
+
Indice analitico

a-algebra, l8 densità continue, 76


X 2 , 96
approssimazione normale, 1 19 t di Student, 123
di Cauchy, e-22
di Erlang, 96
Bayes, formula, 24 di Laplace, e-26, e-28, e-36
Bernoulli, schema di, 26 di Pareto, e-26, e-28
Box-Muller, algoritmo, 105 di Rayleigh, e-20, e-21
boxplot, 9 di Weibull, e-23, e-28, e-30, 98
esponenziali, 78
Chebyshcv, disuguaglianza , 58 Gamma, 93
lognormali, c-23 , e-28
coefficiente di correlazione, 61
normali o gaussiane, 9 l
di due caratteri, 1 3
uniformi, 77
combinazioni, 27 uniformi multidimensionali, 83
convergenza densità discrete, 33
in legge, 1 17 binomiali, 34
convergcm.a in probabilità, 62 di Bernoulli, 34
correlazione, coefficiente, 61 di Poisson, 39
covarianza geometriche, 36
di due caratteri, 1 2 ipergeometricbe, 29
di due v.a., 60, 1 0 1 multinomiali, 45
uniformi, 20
deviazione standard, 6, 59
De Morgan, formula, 2 1
diagrammi a barre, 3
densità disposizioni, 27
condizionali, 47, 88
congiunte, 43, 82 entropia, 67
marginali, 43 , 83
a-6 Indice analitico

formula partizioni, 23, 30


di Wald, 57 pcrmuiazionì, 27
frequenze empiriche, 64 probabilità, 19
frequenze relative, 2 condizionale, 22
funzione di ripartizione empirica , 1 14 uniformi, 20
funzione Gamma, 93 probabilità total i, formula, 24
funzioni di ripartizione, 41 , 75 processo di Poisson, 96
funzioni generatrici, 70
dei momenti, 105
quantili
Hardy-Weinberg , modello, e-7 di un campione, 8
di una v.a., 78
indipendenti quartili, 9
eventi, 25
indipendenza range, 8
di eventi, 25
regione di rigetto, I 28
di V.a., 46, 8 !
instantaneous failurc rate, 97 retta di regressione, 1 I , 66
intervalli di fiducia, l 22
intervallo interquartile, 8 scarto quadratico, 6
istogrammi , 3, I 1 3 Shannon-McMillan, teorema, 68
skewness
kurtosi di un campione, 1 6
di un campinne, I 5 d i una v.a., e-23
di una v.a., e-28 somme aleatorie, 52
Legge dei Grandi Numeri, 63, 109 spazi di probabilit11, 1 9
speranza matematica, 98
mancanza di memoria Sturges, regola, 4
delle leggi esponenziali, 78
media armonica, dì un campione, 14 tasso istamaneo di guasto, 97
media di un campione, 4 Teorema Limite Centrale, 1 19
media geometrica, di un campione, 13
trasfonnate di Laplace, l05
media quadratica, di un campione, 14
mediana
ùi un campione, 8 variabili aleatorie, 3 i , 42
di una v.a., 78 simmetriche, 8 I
metodi Montecarlo, 1 10 varianza
moda , 4 di un campione, 6
momenti di una v.a., 58, J0J
dì un campione, 15
cli una v.a., 57, 100 Wald, fonmlla, 57
Ouesro volume, sprovvisto del talloncino ;:, fronte, è da con-
siderarsi copia saggio-campione gratuito ruori commercio.
Fuori campo applici:lzionc IVA ed esente da bolla di accum­>
pag11amento (art. 22 L. 67/1987, art. 2, lett. I D.P.R. 633/1 972
e art. 4 n. 6 D.P.R. 627/1978).

Potrebbero piacerti anche