Sei sulla pagina 1di 61

Appunti di Matematica Applicata T-A

Corso tenuto dalla Professoressa Francesca Brini


J.Nanni
A.A. 2010/2011
Indice
1 Introduzione alla Probabilit e alla Statistica 4
1.1 Storia della Probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Denizioni base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Richiami di calcolo combinatorio 5
3 Fondamenti del calcolo della probabilit 8
3.1 Caso degli esiti equiprobabili . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2 Problemi di estrazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.3 Probabilit condizionata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.4 Formula delle probabilit totali e Teorema di Bayes . . . . . . . . . . . . . . . 14
3.5 Probabilit ricorsiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.6 Variabili casuali(aleatorie) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.6.1 Variabili casuali discrete . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.6.2 Variabili casuali continue . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.7 Coppia di variabili casuali . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.7.1 Coppie di variabili casuali discrete . . . . . . . . . . . . . . . . . . . . 21
3.7.2 Coppie di variabili casuali continue . . . . . . . . . . . . . . . . . . . 23
3.7.3 Coppia di variabili casuali indipendenti . . . . . . . . . . . . . . . . . 23
3.8 Valor medio o valore atteso o speranza matematica o media . . . . . . . . . . . 24
3.9 Varianza e scarto quadratico medio . . . . . . . . . . . . . . . . . . . . . . . . 26
3.10 Covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.11 Funzione generatrice dei momenti . . . . . . . . . . . . . . . . . . . . . . . . 29
4 Legge dei grandi numeri, disuguaglianza di Markov e disuguaglianza di Chebychev 31
4.1 Disuguaglianza di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2 Disuguaglianza di Chebychev . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.3 Media campionaria o aritmetica . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.4 Legge dei grandi numeri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.4.1 Corollario di Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5 Modelli di variabili casuali discrete 34
5.1 Variabile casuale di Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.2 Variabile casuale binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.3 Variabile casuale geometrica . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.4 Variabile casuale di Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.4.1 Distribuzione di Poisson (o Legge degli eventi rari) . . . . . . . . . . . 37
5.4.2 Processo stocastico di Poisson . . . . . . . . . . . . . . . . . . . . . . 38
5.5 Variabili casuali binomiali negative . . . . . . . . . . . . . . . . . . . . . . . . 39
5.6 Variabile casuale ipergeometrica . . . . . . . . . . . . . . . . . . . . . . . . . 41
INDICE 3
6 Modelli di variabili casuali continue 42
6.1 Variabile casuale uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
6.2 Variabile casuale esponenziale . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.3 Variabile casuale gaussiana o normale . . . . . . . . . . . . . . . . . . . . . . 45
6.4 Variabile casuale
2
a n gradi di libert . . . . . . . . . . . . . . . . . . . . . . 47
6.5 Variabile casuale di Student a n gradi di libert . . . . . . . . . . . . . . . . . 48
6.6 Funzioni di una variabile casuale continua . . . . . . . . . . . . . . . . . . . . 48
6.7 Funzione di pi variabili casuali . . . . . . . . . . . . . . . . . . . . . . . . . 50
7 Metodo Montecarlo 51
7.1 Problema degli spilli di Buon . . . . . . . . . . . . . . . . . . . . . . . . . . 51
7.2 Problema della stima dellarea di una regione . . . . . . . . . . . . . . . . . . 52
8 Inferenza statistica o statistica referenziale 53
8.1 Introduzione e Teorema del limite centrale . . . . . . . . . . . . . . . . . . . . 53
8.2 Inferenza statistica negli esperimenti . . . . . . . . . . . . . . . . . . . . . . . 56
8.2.1 Varianza campionaria . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
8.2.2 Stima parametrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
8.2.3 Intervallo di condenza . . . . . . . . . . . . . . . . . . . . . . . . . . 58
8.2.4 Metodo dei minimi quadrati lineare semplice . . . . . . . . . . . . . . 60
Capitolo 1
Introduzione alla Probabilit e alla
Statistica
1.1 Storia della Probabilit
La statistica nasce nel Rinascimento come descrittiva. Essa serviva principalmente per il con-
teggio delle nascite, dei morti di uno stato (deriva appunto dalla parola stato).
La probabilit nasce invece per ragioni pratiche nei giochi dazzardo. Nel 600 abbiamo tre
grandi studiosi: Pascal, Fermat e Huygens. Verso la ne del 600 abbiamo Bernoulli e Laplace,
verso l800 Gauss e Poisson.
Tra ne 800 e inizio 900 abbiamo Chebychev, Markov, Lyapounov, e come ultimo abbiamo
Kolmogorov, colui che render la probabilit una vera e propria teoria matematica.
1.2 Denizioni base
Denizione 1.2.1 (Popolazione)
Insieme di individui e oggetti studiati rispetto ad una determinata caratteristica misurabile.
Denizione 1.2.2 (Campione)
Dalla popolazione si estrae casualmente un campione su cui viene solitamente fatta lanalisi.
Denizione 1.2.3 (Probabilit)
Prende in considerazione la popolazione e propone le aspettative per il campione.
Denizione 1.2.4 (Inferenza statistica)
Eettua il processo contrario della probabilit. Ovvero parte dal campione e in base a quello
dice qualcosa sulla popolazione (es. exit poll, ecc...). Non si pu fare inferenza statistica se
non si conosce la probabilit.
Denizione 1.2.5 (Statistica descrittiva)
Analizza o la popolazione o il campione e sintetizza attraverso numeri o graci particolari
situazioni(Istogrammi, torte, ecc...).
Capitolo 2
Richiami di calcolo combinatorio
Serve principalmente per contare. il primo modo semplice per contare la probabilit.
Teorema 2.0.1 (Principio fondamentale del calcolo combinatorio (o di enumerazione))
Dati 2 esperimenti per cui il primo ha m esiti possibili e il secondo n esiti possibili, si ha che
le possibili sequenze ordinate sono
m n
Generalizzando a N esperimenti, con n
1
, n
2
, n
3
, ..., n
N
esiti la sequenza pu variare in n
1
n
2

n
3
... n
N
modi possibili.
Vediamo ora una semplice applicazione.
Esempio 2.0.1 (Targhe automobilistiche)
Quante possibili targhe possiamo formare?
Chiamiamo M il numero di targhe possibili, e immaginiamo ogni casella della targa come un
esperimento.
In questo modo avremo che nella prima casella ci sono 26 esiti possibili (ovvero le lettere
dellalfabeto), nella seconda ancora 26 esiti, nella terza 10 esiti (le cifre da 0 a 9), e cos via.
Applicando il Principio di enumerazione otteniamo:
26 26 10 10 10 26 26 = 456.976.000
Denizione 2.0.6 (Disposizioni semplici)
Dati n oggetti distinti si deniscono disposizioni di n elementi di classe k (con k n) gli allinea-
menti che si possono formare prendendo k elementi distinti tra gli n oggetti dati.
Per determinare il numero D
n,k
delle disposizioni semplici si usa la formula seguente.
D
n,k
=
n!
(nk)!
= n(n1)(n2) (nk +1)
Osservazione: gli elementi formati dieriscono tra loro per qualche elemento o per lordine
secondo cui gli oggetti sono stati disposti.
Esempio 2.0.2
Quanti allineamenti si possono formare prendendo 3 vocali diverse per volta?
Poich le vocali sono 5, gli allineamenti richiesti corrispondono al numero delle disposizioni
di 5 elementi di classe 3.
D
5,3
= 5 4 3 = 60
6 Richiami di calcolo combinatorio
Denizione 2.0.7 (Disposizioni con ripetizione)
Dati n oggetti distinti si deniscono disposizioni con ripetizione di n elementi di classe k, gli
allineamenti che si possono formare prendendo k elementi non necessariamente distinti tra gli
n oggetti dati.
Per determinare il numero D
r
n,k
delle disposizioni con ripetizione si usa la formula seguente.
D
r
n,k
= n
k
Osservazione: gli allineamenti formati dieriscono tra loro per qualche elemento, per il numero
di volte in cui uno o pi oggetti compaiono e per lordine secondo cui gli oggetti sono disposti.
Esempio 2.0.3
Determinare quanti numeri telefonici con 8 cifre si possono formare con i numeri
1,2,3,4,5,6,7,8,9.
Gli allineamenti richiesti possono, in questo caso, contenere pi volte la stessa cifra, quindi il
loro numero dato da
D
r
9,8
= 9
8
= 43.046.421
Denizione 2.0.8 (Permutazioni semplici)
Dati n oggetti distinti si deniscono permutazioni semplici di n elementi gli allineamenti che
si possono formare prendendo tutti gli n elementi dati. Per determinare il numero P
n
delle
permutazioni semplici si usa la seguente formula.
P
n
= n!
Osservazione: gli allineamenti formati dieriscono tra loro per lordine.
Esempio 2.0.4
Quanti allineamenti si possono fare prendendo tutte e 5 le vocali?
P
5
= 5! = 120
Denizione 2.0.9 (Permutazioni con ripetizione)
Dati n oggetti, non necessariamente distinti, si deniscono permutazioni con ripetizione di n el-
ementi che si possono formare prendendo tutti gli n elementi dati. Il numero delle permutazioni
con ripetizione dato dalla seguente formula.
P
r
n=k
1
+k
2
+...+k
p
=
n!
k
1
!k
2
!...k
p
!
Dove k
1
, k
2
, ..., k
p
rappresentano le molteplicit dei p oggetti distinti.
Osservazione: gli allineamenti formati dieriscono tra loro per lordine.
Esempio 2.0.5
Quanti numeri si possono ottenere allineando le cifre del numero 22466?
Notiamo che i numeri 2 e 6 si ripetono due volte, e il 4 una volta sola. Quindi abbiamo il
seguente risultato.
P
r
5=2+1+2
=
5!
2!1!2!
= 30
7
Denizione 2.0.10 (Combinazioni semplici)
Dati n oggetti distinti, si deniscono combinazioni semplici di n elementi di classe k, gli in-
siemi che si possono formare prendendo k elementi distinti fra gli n oggetti. Il numero di
combinazioni semplici dato dalla formula seguente.
C
n,k
=
n!
(nk)!k!
=
_
n
k
_
_
=
D
n,k
k!
_
Questo risultato viene chiamato anche coeciente binomiale
Osservazione: le combinazioni semplici dieriscono luna dallaltra per almeno un elemento
contenuto.
Propriet del coeciente binomiale

_
n
0
_
=
_
n
n
_
= 1

_
n
1
_
=
_
n
n1
_
= n

_
n
k
_
=
_
n
nk
_
propriet delle classi complementari

_
n
k
_
=
_
n
k 1
_
propriet di ricorrenza
Esempio 2.0.6
Determinare il numero di ambi che si possono formare con i 90 numeri del lotto.
Dato che non importa lordine in cui si succedono gli ambi, il numero degli ambi sar dato da
C
90,2
=
90 89
2!
= 4005
Denizione 2.0.11 (Combinazioni con ripetizione)
Dati n oggetti distinti, si deniscono combinazioni con ripetizione di n elementi di classe k, gli
insiemi che si possono formare prendendo k elementi, non necessariamente distinti, tra gli n
elementi dati.
Il numero di combinazioni con ripetizione dato dalla seguente formula.
C
r
n,k
=
(n+k 1)!
(n1)!k!
=
_
n+k 1
k
_
Esempio 2.0.7
Un chimico deve preparare composti utilizzando 3 dosi ricavate da 6 ingredienti diversi.
Quanti composti, anche puri (cio costituiti da 3 dosi dello stesso ingrediente) pu preparare?
Il numero complessivo dei composti si ricava applicando la seguente formula.
C
r
6,3
=
(6+31)!
5!3!
= 56
Capitolo 3
Fondamenti del calcolo della
probabilit
Denizione 3.0.12 (Denizione classica di probabilit)
Dato un esperimento ed un certo evento A legato ad esso diciamo che
P(A) =
n

casi favorevoli
n

casi totali
Questa denizione in certi casi risulta molto ecace, ma presenta alcuni problemi in altri casi.
Se il numero di casi totali innito?
Non sempre possibile contare i casi;
La denizione implica che gli esiti siano tutti equiprobabili, e questo non accade sempre.
Denizione 3.0.13 (Denizione frequentista di probabilit)
P(A) =
n

successi
n

esperimenti eettuati
con n

successi=A vericato.
Questa denizione supera il problema 3 della denizione classica, in compenso ne genera altri.
Il numero di esperimenti fatti deve essere abbastanza elevato;
Se il numero di esiti innito non funziona la denizione;
Lesperimento deve essere ripetibile e lo devo poter fare.
Queste denizioni presentano come si visto molti problemi, la denizione di Kolmogorov
attraverso i 3 assiomi ovvier a tutti questi. Prima di introdurre gli assiomi diamo alcune
denizioni di carattere insiemistico.
Denizione 3.0.14 (Spazio campione)
Chiamiamo spazio campione, ovvero linsieme di tutti gli esiti di un esperimento.
Denizione 3.0.15 (Evento dello spazio campione)
A si dice evento dello spazio campione.
9
Denizione 3.0.16 (Unione di eventi)
Siano A, B , allora chiamiamo unione di eventi AB, ovvero tutti gli esiti dellesperimento
che stanno in A o in B.
Denizione 3.0.17 (Intersezione di eventi)
Siano A, B , allora chiamiamo intersezione di eventi AB, ovvero gli esiti dellesperimento
che stanno in A e in B.
Denizione 3.0.18 (Eventi disgiunti)
Siano A, B , allora A e B si dicono disgiunti se la loro intersezione non vuota, ovvero
AB =
Denizione 3.0.19 (Evento complementare)
Sia A , chiamiamo A
c
complementare di A, per cui
A
c
= A
Introduciamo ora gli assiomi di Kolmogorov.
Denizione 3.0.20 (Assiomi di Kolmogorov)
Dato uno spazio campione e A diciamo che
1. P(A) [0, 1];
2. P() = 1;
3. Dati A
1
, A
2
, ..., A
n
eventi disgiunti si ha che
P
_

_
n
_
k=1
A
k
_

_
=
n

k=1
P(A
k
)
Vediamo le propriet di questi assiomi.
Teorema 3.0.2
Dati e A allora
P(A
c
) = 1P(A)
Dimostrazione:
Per la denizione di complementare sappiamo che = A A
c
, e che A A
c
= , quindi
applicando il secondo e il terzo assioma abbiamo che
P() = P(AA
c
) = 1 =P(A) +P(A
c
) = 1 =P(A
c
) = 1P(A)
Teorema 3.0.3
Sia uno spazio campione, allora
P() = 0
Dimostrazione:
Sappiamo che
c
= , allora per il secondo assioma abbiamo che
P(
c
) = 1 =P() = 0
10 Fondamenti del calcolo della probabilit
Teorema 3.0.4
Dato e A, b , se A B allora
P(A) P(B)
Dimostrazione:
Sappiamo che B = A (A
c
B) e che (A
c
B) A = , allora applicando il terzo assioma
otteniamo che
P(B) = P(A(A
c
B)) = P(A) +P(A
c
B) P(A)
Teorema 3.0.5
Dato e A, B , e sia AB allora
P(AB) = P(A) +P(B) P(AB)
Dimostrazione:
Sappiamo che AB= I II III eventi disgiunti a 2 a 2, per cui P(AB) = P(I)+P(II)+P(III)
P(A) = P(I) +P(II) P(B) = P(II) +P(III)
allora
P(A)+P(B) = P(I)+2P(II)+P(III) =P(I)+P(II)+P(III) =P(AB) = P(A)+P(B)P(AB)
3.1 Caso degli esiti equiprobabili
Dato uno spazio campione , contenente un numero nito di esiti equiprobabili, la probabilit
di un singolo esito
P(e
k
) =
1
N
k = 1, ..., N
Se N il numero di esiti di , inoltre se A
P(A) =
A
N
Dove A la cardinalit di A, ovvero il numero di esiti che stanno in A.
Dimostrazione:
Sappiamo che = {e
1
, e
2
, ..., e
N
} e che P(e
1
) = P(e
2
) = ... = P(e
N
) = P.
Applicando il secondo e il terzo principio possiamo dire che:
1 = P() = P(e
1
e
2
... e
N
) = P(e
1
) +P(e
2
) +...P(e
N
) = N P
Questo perch gli eventi sono disgiunti tra loro.
1 = N P =P =
1
N
= P(e
k
), k = 1, ..., N
Dimostriamo ora la seconda parte.
A , A = {e
1
, e
2
, e
3
, ..., e
m
}, m n
Gli eventi che compongono A sono disgiunti, quindi:
P(A) = P(e
1
e
2
... e
m
) = P(e
1
) +P(e
2
) +... +P(e
m
) =
m
N
=
A
N
3.2 Problemi di estrazione 11
Esempio 3.1.1 (Paradosso dei compleanni)
Date N persone (N 365) nate in anni non bisestili, qual la probabilit che nessuno compia
gli anni lo stesso giorno?
Per risolvere questo esercizio poniamo A=Nessuno ha la stessa data di compleanno, e ci
proponiamo di risolverlo in maniera classica, ovvero:
P(A) =
n

casi favorevoli
n

casi totali
N

casi totali = 365


N
= D
r
365,N
N

casi favorevoli = 365 364 363 ... (365N+1) = D


365,N
Quindi per un N generico la probabilit di A si ottiene in questo modo:
P(A) =
365 364 363 ... (365N+1)
365
N
=
D
r
365,N
D
365,N
Qual la probabilit che su N persone almeno 2 abbiano il compleanno lo stesso giorno?
P(A
c
) = P(A) = 1
365 364 363 ... (365N+1)
365
N
Anche se pu sembrare sorprendente, gi con N = 23 la probabilit che almeno 2 persone
abbiano il compleanno lo stesso giorno superiore al 50%. Se N = 50 la probabilit arriva
addirittura a toccare il 97%.
Esempio 3.1.2 (Chiavi indistinguibili)
Si hanno N chiavi indistinguibili, e solo una apre una porta. Possiamo avere 2 casi, nel primo
la chiave sbagliata viene scartata, nel secondo invece si sceglie sempre a caso. Qual la
probabilit che occorrano k tentativi per aprire la porta?
1. I caso
A
k
=Apertura porta al k-esimo tentativo.
P(A
k
) =
n

casi favorevoli
n

casi totali
=
(N1)(N2)(N3)...(Nk +1)
N(N1)(N2)...(Nk +1)
=
D
(N1),k
D
N
, k
=
1
N
Quindi la probabilit non dipende da k!!
2. II caso
B
k
=La chiave viene ritrovata al k-esimo tentativo con reimmissione.
P(B
k
) =
n

casi favorevoli
n

casi totali
=
(N1)
k1
1
N
k
=
1
N
_
N1
N
_
k1
=
1
N
_
1
1
N
_
k1
Nel primo caso k nito, nel secondo pu essere innito, ma comunque dipende da N, pertanto
se N molto molto grande i due casi sono equivalenti.
lim
N+
1
N
_
1
1
N
_
k1
=
1
N
3.2 Problemi di estrazione
Trattiamo questo tipo di problemi con alcuni esempi.
12 Fondamenti del calcolo della probabilit
Esempio 3.2.1 (Senza reimmissione)
In una scatola ci sono 8 palline in totale, 5 sono verdi e 3 sono blu, si estraggono 3 palline
senza reimmissione. Qual la probabilit che le palline estratte siano tutte e 3 verdi?
Abbiamo 2 strategie possibili, in quanto non cambia se estraggo le palline tutte insieme o una
alla volta.
1. I strategia (tutte insieme)
P(

3V

) =
C
5,3
C
8,3
=
5 4 3
3!

3!
8 7 6
=
5
28
2. II strategia (una alla volta)
P(

3V

) =
5
8

4
7

3
6
=
5
28
Qual la probabilit che le palline estratte siano 2 verdi e una blu?
1. I strategia (tutte insieme)
P(2V +1B

) =
C
5,2
C
3,1
C
8,3
=
15
28
2. II strategia (una alla volta)
I casi totali sono le D
8,3
, i casi favorevoli in questo caso sono:
Casi favorevoli = 5 4 3+5 3 4+3 4 5 = 3 (5 4 3) = 180
Dove quel 3 rappresenta le permutazioni di 3 elementi con 1 elemento di molteplicit 2.
Quindi
P(2V +1B

) =
180
336
=
15
28
Esempio 3.2.2 (Con reimmissione)
Teniamo sempre in considerazione lesempio precedente, con la dierenza che ogni volta che
una pallina viene estratta poi viene rimessa dentro al contenitore.
P(3V

) =
5
3
8
3
=
125
512
P(2V +1B

) =
5
2
3
8
3
3 =
75
512
3 =
225
512
3.3 Probabilit condizionata
Denizione 3.3.1 (Probabilit condizionata)
Dati uno spazio campione con A, B , deniamo la probabilit di A dato un evento B nel
seguente modo.
P(A|B) =
P(AB)
P(B)
3.3 Probabilit condizionata 13
Denizione 3.3.2 (Eventi indipendenti)
Dati uno spazio campione , con A, B , A e B si dicono indipendenti se
P(A|B) = P(A) opp. P(AB) = P(A) P(B) opp. P(B|A) = P(B)
Ci chiediamo ora, se AB = , A e B sono anche indipendenti?
Stando alle denizioni precedenti possiamo dire che
0 = P() = P(AB) = P(A) P(B) =Almeno uno dei due eventi ha probabilit nulla
Non ha molto senso quindi chiederselo.
Esempio 3.3.1
Dato un mazzo di carte da Poker (52 carte) deniamo 2 eventi.
A=Estrazione di un asso.
B=Estrazione di una carta di picche.
Ci chiediamo, A e B sono indipendenti?
P(A) =
4
52
, P(B) =
13
52
, P(AB) =
1
52
Applichiamo la denizione di eventi indipendenti.
1
52
= P(AB) = P(A) P(B) =
4
52

13
52
=
1
52
A e B sono quindi indipendenti, ma esiste lintersezione.
Esempio 3.3.2
Pierino e Filippo decidono di fare uno scherzo alle persone di un palazzo di 10 appartamenti.
Dei 10 campanelli Pierino ne suona 7 e Filippo ne suona 4.
1-Qual la probabilit che pierino abbia suonato il campanello del Signor Rossi?
P
r
=Pierino suona il campanello del Signor Rossi.
P(P
r
) =
7
10
2-Determinare la probabilit che il campanello sia stato suonato almeno una volta.
P(P
r
F
r
) = P(P
r
) +P(F
r
) P(P
r
F
r
)
Notiamo che gli eventi sono indipendenti tra loro, in quanto la scelta dei campanelli di Pierino
non inuenza in alcun modo la scelta di Filippo, quindi:
P(P
r
F
r
) = P(P
r
) +P(F
r
) P(P
r
) P(F
r
) =
7
10
+
4
10

28
100
=
82
100
3-Qual la probabilit che il campanello Rossi non venga suonato?
P((P
r
F
r
)
c
) = 1
82
100
=
18
100
14 Fondamenti del calcolo della probabilit
3.4 Formula delle probabilit totali e Teorema di Bayes
Denizione 3.4.1 (Partizione di uno spazio campione)
Sia uno spazio campione e H
1
, H
2
, ..., H
N
. Se H
k
H
l
= con k l allora H
1
, H
2
, ..., H
N
si dicono partizione di , dove si ha che
N
_
k=1
H
k
=
Teorema 3.4.1 (Formula delle probabilit totali)
Dati uno spazio campione , una sua partizione {H
1
, H
2
, ..., H
n
} e un evento A allora:
P(A) =
n

k=1
P(A|H
k
) P(H
k
)
Dimostrazione:
Noi sappiamo che:
A = (AH
1
) (AH
2
) ... (AH
n
)
(AH
k
) (AH
l
) = , con k l
Per il terzo assioma abbiamo che :
P(A) = P(AH
1
) +P(AH
2
) +... +P(AH
n
) =
= P(A|H
1
) P(H
1
) +P(A|H
2
) P(H
2
) +... +P(A|H
n
) P(H
n
) =
=
n

k=1
P(A|H
k
) P(H
k
)
Esempio 3.4.1 (Esami del sangue (parte 1))
Mauro un giorno decide di andare a fare gli esami del sangue per vedere se ha contratto o
no un certo tipo di malattia. Lincidenza della malattia del 0.5%, mentre i falsi positivi e i
falsi negativi sono entrambi all 1%.
Qual la probabilit che il test risulti positivo?
Possiamo dividere il nostro spazio campione in una partizione di 2 ipotesi, ovvero che un
paziente sia malato oppure sia sano, infatti altro non pu accadere. H
1
=Ipotesi malati.
H
2
=Ipotesi sani.
P(H
1
) = 0.995, P(H
2
) = 0.005
Deniamo T =Test positivo, per cui:
P(T|H
1
) = 0.01 = Falsi positivi, P(T|H
2
) = 0.99
Quindi applicando ora la formula delle probabilit totali otteniamo:
P(T) = P(T|H
1
) P(H
1
) +P(T|H
2
) P(H
2
) = 0.01 0.995+0.99 0.005 0.015
A questo punto sarebbe interessante calcolarsi la probabilt che dato il risultato positivo del
test Mauro sia eettivamente malato. Per rispondere a questa domanda per dobbiamo prima
enunciare il Teorema di Bayes.
3.5 Probabilit ricorsiva 15
Teorema 3.4.2 (Teorema di Bayes (o delle probabilit a posteriori))
Dati uno spazio campione , una partizione {H
1
, H
2
, ..., H
N
} e un evento Aallora possiamo
calcolarci la probabilit di un qualsiasi elemento della partizione dato levento A, in questo
modo.
P(H
k
|A) =
P(A|H
k
) P(H
k
)
P(A)
Dove P(A), per la formula delle probabilit totali esprimibile come:
P(A) =
N

l=1
P(A|H
l
) P(H
l
)
Dimostrazione:
P(AH
k
) = P(A|H
k
) P(H
k
) = P(H
k
|A) P(A)
Questo implica che:
P(H
k
|A) P(A)
P(A)
=
P(A|H
k
) P(H
k
)
P(A)
Quindi possiamo concludere che:
P(H
k
|A) =
P(A|H
k
) P(H
k
)
P(A)
Esempio 3.4.2 (Esame del sangue (parte 2))
Calcoliamoci a questo punto P(H
2
|T) col Teorema di Bayes.
P(H
2
|T) =
P(T|H
2
) P(H
2
)
P(T)
=
0.99 0.005
0.015
33%
3.5 Probabilit ricorsiva
Esempio 3.5.1
Dati N matematici ognuno con un cappello proprio, qual la probabilit che un matematico,
scegliendo a caso un cappello, non prenda il suo?
E
N
=Su N prof. e cappelli nessuno prende il proprio.
C
1
=Il primo prende il suo cappello.
P(E
N
) = P(E
N
|C
1
) P(C
1
) +P(E
N
|C
c
1
) P(C
c
1
)
Sappiamo che:
P(C
1
) =
1
N
, P(C
c
1
) = 1
1
N
, P(E
N
|C
1
) = 0, P(E
N
|C
c
1
) = P(AB)
Dove
A =Il secondo matematico non prende il I cappello e gli altri non prendono il loro.
B =Il secondo matematico prende il I cappello e gli altri non prendo il loro.
Per come sono stati deniti A e B sono sicuramente disgiunti, pertanto:
P(AB) = P(A) +P(B), P(A) = P(E
N1
), P(B) =
P(E
N2
)
N1
16 Fondamenti del calcolo della probabilit
Quindi abbiamo che:
P(E
N
) =
_
P(E
N1
) +
P(E
N2
)
N1
_

_
1
1
N1
_
Otteniamo cos la formula ricorsiva:
P(E
N
) P(E
N1
) =
1
N
(P
N2
P
N1
)
Teorema 3.5.1
Se E, F sono indipendenti tra loro allora:
E
c
indipendente da F
c
E indipendente da F
c
Dimostrazione:
Sappiamo che possiamo scrivere E in questo modo:
E = (E F) (E F
c
)
e che
(E F) (E F
c
) =
P(E) = P(E F) +P(E F
c
) =P(E F
c
) = P(E) P(E F)
Se E ed F sono indipendenti possiamo dire che:
P(E F) = P(E) P(F) =P(E) P(E) P(F) = P(E)(1P(F)) = P(E) P(F
c
)
Abbiamo ottenuto quindi che:
P(E F
c
) = P(E) P(F
c
)
Quindi E e F
c
cono indipendenti.
Denizione 3.5.1 (3 eventi indipendenti)
A, B, C sono indipendenti se:
P(AB) = P(A) P(B), P(BC) = P(B) P(C)
P(AC) = P(A) P(C), P(ABC) = P(A) P(B) P(C)
Esempio 3.5.2 (Problema della rovina del giocatore)
A e B lanciano una moneta. A d un euro a B se esce Testa, altrimenti se esce croce B d un
euro ad A. Il gioco termina quando uno dei due rimane senza euro. Determinare qual la
probabilit che A vinca se inizialmente possiede k euro, mentre B possiede Nk euro.
Possiamo cominciare aermando che 0 < k < N,ovvero i due casi estremi in cui uno dei due
rimane senza soldi. Detto questo deniamo C=Esce croce e T=Esce testa.
P(C) = p, P(T) = 1 p = q
A
k
=A vince con k euro iniziali.
P(A
k
) =?
3.6 Variabili casuali(aleatorie) 17
Analizziamo il primo lancio.
P(A
k
) = P(A
k
|T)P(T) +P(A
k
|C)P(C)
Dove P(A
k
|T) = P(A
k1
), in quanto A perde un euro se esce testa, e analogamente P(A
k
|C) =
P(A
k+1
).
Quindi sostituendo otteniamo
P(A
k
) = P(A
k1
)q+P(A
k+1
)p
Ora se chiamiamo P
m
= P(A
m
) e ricordando che p+q = 1 possiamo dire che
(p+q)P
k
= p(P
k+1
) +q(P
k1
) = p(P
k+1
P
k
) = q(P
k
P
k1
)
Dividendo tutto per p otteniamo la seguente formula ricorsiva.
P
k+1
P
k
=
q
p
(P
k
P
k1
)
Ovviamente da sola questa formula non basta. Infatti ci servono probabilit note da cui poter
partire a fare i calcoli. Queste probabilit sono i casi limite, ovvero quando k=0 e k=N.
P
0
= 0, P
N
= 1
Se k=1 abbiamo
P
2
P
1
=
q
p
P
1
Per k=2 sfruttiamo il risultato precedente.
P
3
P
2
=
q
p
(P
2
P
1
) =
_
q
p
_
2
P
1
Per k=3 procediamo analogamente e otterremo che
P
4
P
3
=
_
q
p
_
3
P
1
E cos via nch non otterremo
P
N
P
N1
=
_
q
p
_
N1
P
1
3.6 Variabili casuali(aleatorie)
Denizione 3.6.1 (Variabile casuale)
Esperimento esiti.
A ciascun esito associo un valore diverso reale, anche a caso. In questa maniera ottengo una
variabile X il cui valore prima dellesperimento non noto. X chiamata variabile casuale o
aleatoria.
18 Fondamenti del calcolo della probabilit
Esempio 3.6.1
Nel lancio di un dado io posso denire una variabile casuale X in questo modo.
X = {1, 2, 3, 4, 5, 6}
X in questo caso pi precisamente una variabile casuale discreta.
Esempio 3.6.2
Riprendendo lesempio 3.1.2 si sarebbe potuto denire una variabile Y in questo modo.
Y = Numero di tentativi eettuati per aprire la porta, Y = {1, 2, ..., +}
In questo caso Y una variabile casuale discreta, ma innita.
Esempio 3.6.3
Prendiamo levento Z=Altezza individuo. Z una variabile casuale non discreta, in quanto
Z [0, 3] (metri).
Denizione 3.6.2 (Variabile casuale discreta)
X una variabile casuale discreta se assume valori discreti niti o numerabili.
Denizione 3.6.3
X una variabile continua se vale la seguente condizione.
f : R R
+
: P(X B) =
_
B
f (s)ds con B R
f si dice funzione di densit di probabilit.
Denizione 3.6.4 (Funzione di distribuzione di probabilit)
Sia X una variabile casuale, e sia a R.
Si denisce funzione di distribuzione di probabilit la seguente funzione.
F : R [0, 1], F(a) = P(X a)
Esempio 3.6.4
Prendiamo in considerazione il solito esempio del lancio del dado.
X = {1, 2, 3, 4, 5, 6}, P(X = k) =
1
6
, k = 1, ..., 6
Calcoliamoci la funzione di distribuzione di probabilit.
F(0) = P(X 0) = 0, F(1) = P(X 1) =
1
6
, , F(6) = P(X 6) = 1
Grandissima importanza ha anche il graco di questa funzione, in quanto per le variabili casuali
discrete come questa ci permette di localizzare i punti di discontinuit che, come vedremo pi
avanti, sono sempre presenti per variabili casuali discrete. La funzione discontinua per a =
1, 2, 3, 4, 5, 6.
3.6 Variabili casuali(aleatorie) 19
Figura 3.1: Graco della funzione di distribuzione di probabilit di X nellesempio 3.6.4
PROPRIET DELLA FUNZIONE DI DISTRIBUZIONE DI PROBABILIT
1. F() = P(X ) = 0;
2. F(+) = P(X +) = 1;
3. Se a, b R : a < b =F(a) F(b), F quindi una funzione non decrescente;
4. Per X variabile casuale discreta F(a) discontinua in alcuni punti.
5. Cosa accade per le variabili casuali continue?
Applichiamo la denizione di variabile casuale continua.
F(a) = P(X a) =
_
Xa
f (s)ds =
_
a

f (s)ds = Se X continua anche f lo .


Deriviamo ora la funzione di distribuzione.
dF(a)
da
=
d
da
_
a

f (s)ds = f (a) 0
NOTABENE: Non pu esistere f (a) per X discreta! Essendo F discontinua in alcuni punti.
Analizziamo ora separatamente i due tipi di variabili casuali.
3.6.1 Variabili casuali discrete
Denizione 3.6.5 (Funzione di massa di probabilit)
Sia X una variabile casuale discreta, si denisce funzione di massa di probabilit di X la
seguente funzione.
p(a) = P(X = a)
Esempio 3.6.5
Prendiamo come esempio il lancio di una moneta.
X =
_
1 Testa
0 Croce
P(T) = P(C) =
1
2
p(a) =
_
1
2
se a = 0, 1
0 Altrimenti
20 Fondamenti del calcolo della probabilit
PROPRIET DELLA FUNZIONE DI MASSA DI PROBABILIT
1. 0 p(a) 1;
2.
N

k=1
p(x
k
) = 1
3.
F(a) =

x
k
a
p(x
k
)
3.6.2 Variabili casuali continue
Ci chiediamo subito: esiste la funzione di massa di probabilit?
p(a) = P(X = a) =
_
X=a
f (s)ds =
_
a
a
f (s)ds = 0 a R
Su inniti valori la probabilit di un singolo punto praticamente zero (ma non impossibile).
Esempio 3.6.6
X variabile casuale continua con
f (a) =
_
c(4a2a
2
) 0 < a < 2
0 altrove
Quanto vale c?
Sappiamo che f (a) 0, quindi
c(4a2a
2
) 0 =c 0 per 0 < a < 2
Inne sappiamo che
1 = F() =
_
+

f (s)ds =
=
_
0

0ds +
_
2
0
c(4s 2s
2
)ds +
_
+
2
0ds = c
_
2s
2

2
3
s
3
_
2
0
=
= c
_
8
16
3
_
=
8
3
c =c =
3
8
0
Quanto vale F(a)?
Se a 0:
F(a) =
_
a

f (s)ds =
_
a

0ds = 0
Se 0 < a < 2:
F(a) =
_
a

f (s)ds =
_
0

0ds +
_
a
0
3
8
(4s 2s
2
)ds =
3
8
_
2a
2

2
3
a
3
_
Se a 2:
F(a) =
_
a

f (s)ds =
_
0

0ds +
_
2
0
3
8
(4s 2s
2
)ds +
_
a
2
0ds = 1 per la relazione di prima
3.7 Coppia di variabili casuali 21
Riassumendo:
F(a) =
_

_
0 a 0
3
8
_
2a
2

2
3
a
3
_
0 < a < 2
1 a 2
Verichiamo la continuit in 0 e in 2.
F(0) = 0, F(2) = 1 =F continua
3.7 Coppia di variabili casuali
Denizione 3.7.1 (Coppia di variabili casuali)
Si denisce coppia di variabili casuali (discrete o continue) due variabili casuali associate allo
stesso esperimento.
Analizziamo anche qui separatamente il caso in cui la coppia di variabili sia formata da variabili
casuali discrete e il caso in cui sia formata da una coppia di variabili casuali continue.
3.7.1 Coppie di variabili casuali discrete
Prendiamo due variabili casuali discrete (coppie ordinate) X = {x
1
, x
2
, ..., x
n
} e Y = {y
1
, y
2
, ..., y
m
},
con n non necessariamente uguale a m. Per esse possiamo denire la funzione di massa di
probabilit congiunta, in questo modo:
p(a, b) = P(X = a, Y = b)
Bisogna notare che la scrittura con la virgola equivalente allintersezione, ovvero i due eventi
devono accadere tutti e due insieme.
PROPRIET:
p : R
2
[0, 1]
Ovviamente come nel caso di una singola variabile la somma di tutte le funzioni di massa deve
fare uno.
n

k=1
m

l=1
p(x
k
, y
l
) = 1
Possiamo denire inne le funzioni marginali di massa di probabilit.
Denizione 3.7.2 (Funzioni marginali di massa di probabilit)
Deniamo funzione marginale di massa di probabilit di X la seguente funzione.
p
X
(a) = P(X = a) = P(X = a, Y = y
1
) +P(X = a, Y = y
2
) +... +P(X = a, Y = y
m
) =
=
m

l=1
p(a, y
l
)
Analogamente otteniamo anche la funzione marginale della Y.
n

k=1
p(x
k
, b)
22 Fondamenti del calcolo della probabilit
Esempio 3.7.1
Si scelgono a caso 3 batterie tra le 12 presenti in una scatola, che ne contiene 3 nuove, 4 usate
e 5 difettose, tutte e 12 indistinguibili.
X=Numero batterie nuove scelte.
Y=Numero di batterie usate scelte.
Determinare la funzione congiunta e le funzioni marginali di X e Y.
Cominciamo col calcolare tutte le probabilit in questo modo.
P(0, 0) = P(X = 0, Y = 0) =
C
5,3
C
12,3
=
10
220
P(1, 1) = P(X = 1, Y = 1) =
C
3,1
C
4,1
C
5,1
C
12,3
=
60
220
E cos via. Mettiamo tutti i risultati in una tabella come quella in basso. Notiamo come
lultima colonna e lultima riga siano semplicemente le funzioni marginali della X e della Y,
mentre la parte interna della tabella rappresenta i valori della funzioni di massa di probabilit
congiunta.
X|Y 0 1 2 3 p
X
0
10
220
40
220
30
220
4
220
84
220
1
30
220
60
220
18
220
0
108
220
2
15
220
12
220
0 0
27
220
3
1
220
0 0 0
1
220
p
Y
56
220
112
220
48
220
4
220
Tabella 3.1: Tabella dellesempio 3.7.1
Analogamente alla denizione di funzione di massa di probabilit congiunta, possiamo denire
la funzione di distribuzione di probabilit congiunta.
F(a, b) = P(X a, Y b)
PROPRIET:
F : R
2
[0, 1]

F(, ) = P(X , Y ) = 0

F(+, +) = P(X +, Y +) = 1
Nel caso discreto F ha delle discontinuit.
3.7 Coppia di variabili casuali 23
3.7.2 Coppie di variabili casuali continue
Prendiamo due variabili casuali X e Y. (X, Y) si dicono continue se esiste una funzione di questo
tipo.
f : R
2
R
+
| P((x, y) B) =

B
f (s, t)dsdt
Se B R
2
.
f si dice funzione congiunta di densit di probabilit.
Deniamo ora la funzione di distribuzione congiunta.
F(a, b) = P(X a, Y b) =
_
a

__
b

f (s, t)dt
_
ds
Per il teorema fondamentale del calcolo integrale si ha che
f (a, b) =

2
ab
F(a, b)
Denizione 3.7.3 (Funzioni marginali di distribuzione di probabilit)
Deniamo funzione marginale di distribuzione di probabilit di X la seguente funzione.
F
X
(a) = F(a, +)
Analogamente per Y.
F
Y
(b) = F(+, b)
Denizione 3.7.4 (Funzioni marginali di densit di probabilit)
Deniamo funzione marginale di densit di probabilit di X la seguente funzione.
f
X
(a) =
dF
X
(a)
da
=
dF(a, +)
da
=
d
da
=
_
a

__
+

f (s, t)dt
_
ds =
=
_
+

f (a, t)dt
Lo stesso ragionamento vale per Y.
f
Y
(b) =
_
+

f (s, b)ds
3.7.3 Coppia di variabili casuali indipendenti
Prendiamo una coppia (X, Y) di variabili casuali, esse si dicono indipendenti quando
P(X A, Y B) = P(X A) P(Y B)
con A, B R.
Si dimostra una denizione equivalente, sicuramente pi pratica, ovvero: 2 variabili casuali sono
indipendenti quando
F(a, b) = F
X
(a) F
Y
(b) a, b R
Ovvero equivalentemente abbiamo che vale per le variabili casuali discrete indipendenti la seguente
formula.
p(a, b) = p
X
(a) p
Y
(b) a, b R
Mentre per le variabili casuali continue indipendenti vale questa.
f (a, b) = f
X
(a) f
Y
(b) a, b R
In tutto abbiamo 3 relazioni equivalenti alla prima condizione.
24 Fondamenti del calcolo della probabilit
3.8 Valor medio o valore atteso o speranza matematica
o media
Data una variabile casuale X il suo valor medio E[X], se esiste, si denisce per variabili casuali
discrete:
E[X] =
n

k=1
x
k
p(x
k
) con X = {x
1
, ..., x
n
}
Per variabili casuali continue:
E[X] =
_
+

x f (x)dx
Ovviamente una condizione necessaria per lesistenza del valor medio che la serie (se N =+)
o lintegrale convergano.
Esempio 3.8.1
Calcoliamo il valor medio per un lancio di un dado non truccato.
X = {1, 2, 3, 4, 5, 6}, P(X = k) =
1
6
con k = 1, 2, ..., 6
E[X] =
6

k=1
x
k
p(x
k
) =
1
6
1+
1
6
2+
1
6
3+
1
6
4+
1
6
5+
1
6
6 = 3.5
Il valor medio oscilla comunque tra i valori che pu assumere X.
Esempio 3.8.2 (Valor medio variabile casuale di Bernoulli)
Sia X una variabile casuale di Bernoulli, denita in questo modo:
X =
_
1 se successo
0 se fallimento
P(1) = p, P(0) = 1 p = q
Calcoliamo il valor medio.
E[X] = 0 q+1 p = p
Data una variabile casuale X e denita Y = g(X) il valor medio di Y si denisce, per X discreta
in questo modo:
E[Y] = E[g(X)] =
n

k=1
g(x
k
)p(x
k
)
Per X continua in questaltro:
E[Y] = E[g(X)] =
_
+

g(x) f (x)dx
Tenendo sempre conto della convergenza o meno della serie o dellintegrale.
PROPRIET:
1. Se g(X) = aX +b con a, b R =E[aX +b] = aE[X] +b, quindi il valor medio lineare.
Dimostrazione:
Dimostreremo questa propriet nel caso continuo, la dimostrazione per il caso discreto
analoga.
E[aX+b] =
_
+

(ax +b) f (x)dx =


3.8 Valor medio o valore atteso o speranza matematica o media 25
Supponiamo che lintegrale converga (se non convergesse non esisterebbe il valor medio).
= a
_
+

x f (x)dx +b
_
+

f (x)dx = aE[X] +b
Come conseguenza si ha che se a = 0 =E[b] = b.
2. Se g(X) = X
n
con n 0 allora
E[X
n
] =
n

k=1
x
n
k
p(x
k
) per X discreta
E[X
n
] =
_
+

x
n
f (x)dx per X continua
E[X
n
] viene chiamato momento di ordine n di X.
3. Sia (X, Y) una coppia di variabili casuali e Z = g(X, Y), allora:
E[Z] = E[g(X, Y)] =
n

k=1
m

l=1
g(x
k
, y
l
)p(x
k
, y
l
) per (X, Y) discrete
E[Z] = E[g(X, Y)] =
_
+

_
+

g(x, y) f (x, y)dxdy per (X, Y) continue


Poniamo Z = X+Y, allora E[Z] = E[X+Y] = E[X] +E[Y].
Dimostrazione:
Dimostreremo questa propriet nel caso continuo, la dimostrazione per il caso discreto
analoga.
E[X+Y] =
_
+

__
+

(x +y) f (x, y)dx


_
dy =
=
_
+

__
+

x f (x, y)dy
_
dx +
_
+

__
+

y f (x, y)dx
_
dy =
_
+

x
__
+

f (x, y)dy
_
dx +
_
+

y
__
+

f (x, y)dx
_
dy =
=
_
+

x f
X
(x)dx +
_
+

y f
Y
(y)dy = E[X] +E[Y]
Generalizzando otteniamo la formula seguente.
E
_

_
m

j=1
X
j
_

_
=
m

j=1
E[X
j
]
26 Fondamenti del calcolo della probabilit
Esempio 3.8.3
Una segretaria possiede N buste e N lettere da riordinare, solo che a causa della sua
sbadataggine sia le buste sia le lettere cadono per terra sparse.
Per fare in fretta la segretaria mette a caso le lettere nelle buste, senza controllare che in una
busta ci sia gi una lettera. Determinare il numero medio di lettere che capitano nella busta
corretta.
Y=Numero di lettere che niscono nella busta giusta.
X
k
=
_
1 se la k-esima lettera nisce nella busta giusta
0 altrimenti
Calcoliamo le probabilit.
P(X
k
= 1) =
1
N
, P(X
k
= 0) =
N1
N
, Y =
N

k=1
X
k
Troviamo il valor medio sfruttando il fatto che X
k
una variabile casuale binomiale.
E[X
k
] =
1
N
=E[Y] = E
_

_
N

k=1
X
k
_

_
=
N

k=1
E[X
k
] =
N

k=1
1
N
= 1
3.9 Varianza e scarto quadratico medio
Data una variabile casuale X si denisce varianza di X la seguente espressione.
Var(X) = E[(XE[X])
2
] =
n

k=1
(x
k
E[X])
2
p(x
k
) per X discreta
Var(X) = E[(XE[X])
2
] =
_
+

(x E[X])
2
f (x)dx per X continua
PROPRIET:
1. Var(X) 0
2. Dalla varianza si denisce lo scarto quadratico medio o deviazione standard in questo
modo.

X
=
_
Var(X)
Questo risultato permette di ottenere la misura non al quadrato.
3. Var(X) = E[X
2
] E[X]
2
Dimostrazione:
Var(X) = E[(XE[X])
2
] = E[X
2
2E[X]X+E[X]
2
] = E[X
2
] +E[E[X]
2
] E[2E[X]X] =
= E[X
2
] +E[X]
2
2E[X]
2
= E[X
2
] E[X]
2
4. Var(aX+b) = a
2
Var(X)
Dimostrazione:
Var(aX+b) = E[(aX+bE(aX+b))
2
] = E[(aX+baE[X] b)
2
] =
= E[(aXaE[X]
2
)] = E[a
2
(XE[X])
2
] = a
2
E[(XE[X])
2
] = a
2
Var(X)
3.10 Covarianza 27
Esempio 3.9.1 (Varianza variabile casuale di Bernoulli)
Sappiamo che per X variabile casuale di Bernoulli E[X] = p.
Calcoliamoci il momento di ordine 2, o pi in generale il momento di ordine n.
E[X
n
] = 0
n
p+1
n
p = p
A questo punto possiamo calcolarci la varianza grazie ala propriet 3.
Var(X) = E[X
2
] E[X]
2
= p p
2
= p(1 p) = pq
Per quale p la varianza massima? Applichiamo il teorema di Fermat.
d
dp
(p p
2
) = 12p = 0 = p =
1
2
3.10 Covarianza
Data una coppia di variabili casuali (X, Y) si denisce covarianza di (X, Y) la seguente espres-
sione.
Cov(X, Y) = E[(XE[X])(Y E[Y])]
Pi precisamente denendo
x
e
y
i valori medi rispettivamente di X e Y possiamo scrivere la
seguente espressione.
Cov(X, Y) = E[(X
x
)(Y
y
)] =
n

k=1
n

l=1
(x
k

x
)(y
l

y
)p(x
k
, y
l
) per X e Y discrete
Cov(X, Y) = E[(X
x
)(Y
y
)] =
_
+

_
+

(x
x
)(y
y
) f (x, y)dxdy per X e Y continue
PROPRIET:
1. Cov(X, Y) = Cov(Y, X)
2. Cov(X, X) = Var(X)
3. Cov(aX, Y) = Cov(X, aY) = aCov(X, Y) con a R
4. Cov(X, Y) = E[XY] E[X]E[Y]
Dimostrazione:
Cov(X, Y) =E[(X
x
)(Y
y
)] =E[XY
x
Y
y
X+
x

y
] =E[XY]
X
E[Y]
y
E[X]+
y

x
=
= E[XY] 2
y

x
+
y

y
= E[XY] E[X]E[Y]
Esempio 3.10.1 (Covarianza di due variabili casuali di Bernoulli)
Date due variabili casuali di Bernoulli X e Y calcoliamo la covarianza. Riempiamo la nostra
solita tabella come in gura 3.2. Calcoliamoci il valor medio di X e Y.
E[X] = 0 (p
3
+ p
2
) +1 p
1
= p
1
, E[Y] = p
2
Ora calcoliamo E[XY] in modo da utilizzare la propriet 4.
E[XY] = 0 0 p
3
+1 0 p
1
+0 1 p
2
+1 1 0 = 0
Arriviamo cos al risultato nale.
Cov(X, Y) = 0 p
1
p
2
= p
1
p
2
28 Fondamenti del calcolo della probabilit
Y|X 0 1
0 p
3
p
1
p
3
+ p
1
1 p
2
0 p
2
p
3
+ p
2
p
1
Tabella 3.2: Tabella esempio 3.10.1
5. Var(X+Y) = Var(X) +Var(Y) +2Cov(X, Y)
Dimostrazione:
Var(X+Y) =E
_
(X+Y E[X+Y])
2
_
=E
_
(X+Y (
x
+
y
))
2
_
=E
_
_
(X
x
) +(Y
y
)
_
2
_
=
= E
_
(X
x
)
2
+(Y
y
)
2
+2(X
x
)(Y
y
)
_
= Var(X) +Var(Y) +2Cov(X, Y)
Denizione 3.10.1 (Variabili casuali scorrelate)
Data una coppia di variabili casuali (X, Y) esse si dicono scorrelate se accade questo:
Cov(X, Y) = 0
OSSERVAZIONE:
Se 2 variabili casuali sono indipendenti allora hanno covarianza nulla, ma non sempre il viceversa.
Se 2 variabili casuali sono indipendenti allora sono anche scorrelate, e quindi possiamo
dire che per quanto riguarda la varianza si ha questo risultato:
Var(X, Y) = Var(X) +Var(Y)
Per quanto riguarda il valor medio:
E[XY] = E[X]E[Y]
6.
Cov
_

_
n

j=1
X
j
,
m

i=1
Y
i
_

_
=
n

j=1
m

i=1
Cov(X
j
, Y
i
)
7.
Var
_

_
n

k=1
X
k
_

_
=
n

k=1
Var(X
k
) +
n

k=1, j=1,kj
Cov(X
k
, X
j
)
Denizione 3.10.2 (Coeciente di correlazione)
Data una coppia di variabili (X,Y) si denisce coeciente di correlazione la seguente
espressione.
Corr(X, Y) =
Cov(X, Y)

Var(X)Var(Y)
Si pu dimostrare che
Corr(X, Y) [1, 1]
3.11 Funzione generatrice dei momenti 29
Esempio 3.10.2
Sia Y una variabile casuale denita in questo modo: Y = aX +b con a, b R. Calcolarne la
covarianza e il coeciente di correlazione.
Cov(X, aX+b) = Cov(X, aX) +Cov(X, b) = aCov(X, X) +E[(X
x
)(bE[b])] = aVar(X) +0
Calcoliamo il coeciente di correlazione.
Var(aX+b) = a
2
Var(X) =Corr(X, Y) =
aVar(X)
_
a
2
Var
2
(X)
=
a
|a|
=
_
1 a > 0
1 a < 0
Se a > 0 il coeciente di correlazione massimo, e X e Y sono direttamente correlate, se a < 0
X e Y sono inversamente correlate, ovvero al crescere di una laltra diminuisce.
Il corollario dellesempio 3.10.2 vale sempre, infatti la covarianza e in particolare il coe-
ciente di correlazione danno proprio indicazioni su come X e Y sono legate tra di loro.
3.11 Funzione generatrice dei momenti
Data una variabile casuale X viene denita funzione generatrice dei momenti la seguente
espressione.
(t) = E[e
tx
]
Pi nel dettaglio diciamo che:
(t) = E[e
tx
] =
n

k=1
e
tx
k
p(x
k
) per X discreta
(t) = E[e
tx
] =
_
+

f (x)e
tx
dx per X continua
PROPRIET:
1. (0) = E[1] = 1
2.
d
dt
(t)

t=0
=

(0) = E[xe
tx
]

t=0
= E[X]
3.
d
n
dt
n
(t)

t=0
=
(n)
(0) = E[X
n
e
tx
]

t=0
= E[X
n
]
4. Se due variabili casuali hanno la stessa funzione generatrice dei momenti esse hanno
anche la stessa funzione di distribuzione di probabilit, e ,se discrete la stessa funzione di
massa, se continue la stessa funzione di densit.
5. Date due variabili casuali X e Y aventi funzioni generatrici rispettivamente
X
(t) e
Y
(t)
allora se X e Y sono indipendenti possiamo aermare che

X+Y
(t) =
X
(t)
Y
(t)
30 Fondamenti del calcolo della probabilit
Esempio 3.11.1 (Funzione generatrici della variabile di Bernoulli)
Sia X una variabile casuale di Bernoulli, calcoliamone la funzione generatrice dei momenti.
(t) = E[e
tx
] = e
t0
q+e
t1
p = q+e
t
p

(n)
(0) =
d
n
dt
n
(q+e
t
p)

t=0
= p
Come verica della propriet 1 possiamo far vedere questo risultato:
(0) = q+e
0
p = q+ p = 1
Capitolo 4
Legge dei grandi numeri,
disuguaglianza di Markov e
disuguaglianza di Chebychev
4.1 Disuguaglianza di Markov
Data una variabile casuale X tale che X 0, allora a > 0 si ha il seguente risultato.
P(X a)
E[X]
a
Questo risultato prende il nome di disuguaglianza di Markov.
Dimostrazione:
Dimostreremo la disuguaglianza nel caso continuo, ma vale anche per il caso discreto.
E[X] =
_
+

x f (x)dx =
_
+
0
x f (x)dx =
_
a
0
x f (x)dx +
_
+
a
x f (x)dx

_
+
a
x f (x)dx
Imponiamo la condizione X a.

_
+
a
af (x)dx = a
_
+
a
f (x)dx = aP(x a)
4.2 Disuguaglianza di Chebychev
Data una variabile casuale X con E[X] = e Var(X) =
2
si ha il seguente risultato.
> 0 P(|X| )

2

2
Questo risultato prende il nome di disuguaglianza di Chebychev
Dimostrazione:
P(|X| > ) = P(|X|
2

2
)
Applichiamo Markov.

E
_
(X)
2
_

2
=
Var(X)

2
=

2
32
Legge dei grandi numeri, disuguaglianza di Markov e disuguaglianza di
Chebychev
4.3 Media campionaria o aritmetica
Date X
1
, X
2
, ..., X
n
variabili casuali identicamente distribuite e indipendenti deniamo la media
campionaria nel modo seguente.
X =
X
1
+X
2
+... +X
n
n
Chiamati E[Xk] = e Var(X
k
) =
2
, calcoliamoci valor medio e varianza della media.
E[X] = E
_
X
1
+X
2
+... +X
n
n
_
=
1
n
(E[X
1
] +... +E[X
n
]) =
1
n
n =
Var(X) = Var
_
X
1
+X
2
+... +X
n
n
_
=
1
n
2
Var(X
1
+X
2
+... +X
n
) =
=
1
n
2
(Var(X
1
) +Var(X
2
) +... +Var(X
n
)) =
1
n
2
n
2
=

2
n
Pi grande n pi la varianza piccola.
4.4 Legge dei grandi numeri
Data una successione di variabili casuali X
k
indipendenti e identicamente distribuite, > 0 vale
che:
P
_

k=1
X
k
n

_
0 per n +, se E[X
k
] =
Dimostrazione:
Sappiamo che
E
_

_
n

k=1
X
k
n
_

_
=
Per Chebychev diciamo che
P
_

k=1
X
k
n

_
Var
_

_
n

k=1
X
k
n
_

_
1

2
=

2
n
2
0 per n +
La media quindi converge in probabilit al suo valor medio per valori di n molto grandi.
Questa legge collega la probabilit allinferenza statistica.
4.4.1 Corollario di Bernoulli
Dati n esperimenti identici e indipendenti, sia n

il numero di volte in cui si vericato levento


A, la denizione frequentista di probabilit dice che
P(A)
n
a
n
=frequenza relativa di A
Associamo ad ogni esperimento una variabile casuale di Bernoulli.
X
k
=
_
1 se A si verica nel k-esimo esperimento
0 altrimenti
Chiamiamo p la probabili che si verichi A, pertanto possiamo concludere che, essendo X
k
una
variabile casuale di Bernoulli con probabilit p di successo,
E[X
k
] = p
4.4 Legge dei grandi numeri 33
Ancora sfruttando il fatto che X
k
una Bernoulliana, possiamo dire che n
a
= X
1
+X
2
+... +X
n
,
infatti anche se A non si verica i valori che si aggiungono alla somma sono degli zeri, che
quindi non alterano nulla. detto questo si riconosce subito che
n
a
n
=
X
1
+X
2
+... +X
n
n
Ovvero la media aritmetica. Abbiamo quindi trovato il seguente risultato:
E
_
n
a
n
_
= E[X
k
] = p
Ora applichiamo la legge dei grandi numeri.
P
_

n
a
n
P(A)


_
0 per n +
Il che mi garantisce che la denizione frequentista corretta. Possiamo concludere tutto il dis-
corso enunciando appunto il corollario di Bernoulli:
La frequenza relativa di un evento A in n esperimenti indipendenti e identici converge in proba-
bilit alla P(A).
Capitolo 5
Modelli di variabili casuali discrete
5.1 Variabile casuale di Bernoulli
Sia X una variabile casuale denita in questo modo:
X =
_
1 se successo
0 altrimenti
Notazione sintetica: X Be(p), dove p = P(X = 1)
Abbiamo gi visto in precedenza i seguenti risultati che caratterizzano il modello di variabile.
E[X] = p
Var(X) = pq
(t) = q+e
t
p
5.2 Variabile casuale binomiale
Si ripete indipendentemente e in maniera identica un esperimento n volte. Deniamo levento
X in questo modo:
X = Numero di successi su n prove, X {0, 1, 2, 3, ..., n}
Notazione sintetica: X B(n, p) dove p la probabilit di successo di una singola prova
Cerchiamo di calcolarci la funzione di massa di probabilit. Partiamo coi due casi limite, ovvero
p(0) e p(n), abbastanza intuitivo che avranno queste espressioni:
p(0) = (1 p)
n
p(n) = p
n
Cerchiamo ora di arrivare al caso generale, cercando di capire come fatta p(1).
p(1) = p((S
1
F
2
... F
n
) (F
1
S
2
F
3
F
n
) (F
1
F
2
F
3
... S
n
)) =
= p(1 p)
n1
+(1 p)p(1 p)
n2
+... +(1 p)
n1
p = np(1 p)
n
Dove S
l
e F
l
sono rispettivamente i successi o i fallimenti nel l-esimo esperimento. Generaliz-
zando a k otteniamo:
p(k) =
_
n
k
_
p
k
(1 p)
nk
Verichiamo che questultima relazione sia eettivamente un funzione di massa di probabilit.
5.3 Variabile casuale geometrica 35
p(k) 0, sicuramente perch i 3 fattori sono tutti e tre sempre maggiori o uguali a zero.
Applicando la formula di Newton dimostriamo che la somma delle funzioni di massa
uguale a 1.
n

k=0
p(k) =
n

k=0
_
n
k
_
p
k
(1 p)
nk
= (p+q)
n
= 1
Ora cerchiamo il valor medio.
E[X] =
n

k=0
kp(k) =
n

k=1
k
n!
(nk)!k!
p
k
(1 p)
nk
Dimostrare per questa via quanto vale il valor medio risulta essere abbastanza dicile. Procedi-
amo in questo modo.
X B(n, p), X = Y
1
+Y
2
+Y
3
+... +Y
n
Lidea quella di trattare le Y
k
come variabili di Bernoulli di parametro p indipendenti tra loro.
Y
k
Be(p) =E[X] = E
_

_
n

k=1
Y
k
_

_
=
n

k=1
E[Y
k
] =
n

k=1
p = np
Calcoliamoci ora la varianza.
Var(X) = Var
_

_
n

k=1
Y
k
_

_
=
n

k=1
Var(Y
k
) = npq
5.3 Variabile casuale geometrica
Si ripete un esperimento in maniera identica e indipendentemente nch si ottiene un suc-
cesso. Deniamo levento X in questo modo:
X = Numero tentativi eettuati per avere un successo, X {1, ..., +}
Notazione sintetica: X G(p), dove p la probabilit di successo di un esperimento
La funzione di massa di probabilit la seguente.
p(k) = (1 p)
k1
p
In quanto per i primi (k 1) tentativi si fallisce e al k-esimo tentativo si ha il successo. La
funzione di massa tale, in quanto maggiore di zero poich i fattori sono sempre positivi e
poich la somma di tutte le p(k) 1. Infatti
+

k=1
p(k) =
+

k=1
(1 p)
k1
p =
Ponendo l = k 1
= p
+

l=0
(1 p)
l
=
Ci siamo ricondotti alla serie geometrica di ragione (1 p), quindi
=
p
1(1 p)
=
p
p
= 1
36 Modelli di variabili casuali discrete
Cerchiamo ora il valor medio.
E[X] =
+

k=1
k(1 p)
k1
p = p
+

k=0
k(1 p)
k1
=
Posso aggiungere k = 0 perch tanto non altera la somma.
= p
+

k=0
dq
k
dq
= p
d
dq
+

k=0
dq
k
= p
d
dq
_
1
1q
_
=
p
(1q
2
)
=
p
p
2
=
1
p
Calcoliamoci il momento di ordine 2 per poi calcolarci la varianza.
E[X
2
] =
+

k=1
k
2
(1 p)
k1
p = p
+

k=0
k
2
(1 p)
k1
= p
+

k=0
(k
2
+k k)q
k1
=
= p
_

_
+

k=0
(k
2
k)q
k1
+
+

k=0
kq
k1
_

_
= p
_

_
q
+

k=0
k(k 1)q
k2
+
d
dq
_
1
1q
_
_

_
=
= p
_
q
d
2
dq
_
1
1q
_
+
1
(1q)
2
_
= p
_
2q
(1q)
3
+
1
(1q)
2
_
= p
_
2q+1q
(1q)
3
_
=
= p
_
q+1
(1q)
3
_
=
2p p
p
3
=
2 p
p
2
Calcoliamoci la varianza.
Var(X) = E[X
2
] E[X]
2
=
2 p
p
2

1
p
2
=
q
p
2
5.4 Variabile casuale di Poisson
Deniamo una variabile casuale X in questo modo.
X = {0, 1, 2, ..., +} Notazione sintetica: X Po()
P(X = k) = p(k) =

k
k!
e

per > 0
Verichiamo che sia eettivamente una funzione di massa di probabilit, sfruttando il fatto che
la serie
+

k=0

k
k!
= e

Quindi dimostriamo che la somma delle funzioni di massa uguale a 1.


+

k=0
p(k) =
+

k=0

k
k!
e

= e

k=0

k
k!
= e

= 1
Cerchiamo il valor medio.
E[X] =
+

k=0
k

k
k!
e

= e

k=0
k

k
k!
= e

k=1

k
(k 1)!
=
Poniamo m = k 1.
= e

m=0

m+1
m!
= e

m
m!
= e

=
5.4 Variabile casuale di Poisson 37
Calcoliamoci il momento di ordine 2 per poi calcolarci la varianza.
E[X
2
] =
+

k=0
k
2

k
k!
e

= e

k=0
k
2

k
k!
= e

_
+

k=1
k 1
(k 1)!

k
+
+

k=1
1
(k 1)!

k
_

_
= e

_
+

k=2
1
(k 2)!

k
+e

_
Poniamo j = k 2.
= e

_
+

j=0

j+2
j!
+e

_
= e

2
+

j=0

j
j!
+e

_
=
2
e

+e

=
2
+
A questo punto calcoliamoci la varianza.
Var(X) = E[X
2
] E[X]
2
=
2
+
2
=
Troviamo cos un importante risultato che caratterizza le variabili casuali di Poisson.
Var(X) = E[X] =
Trovate valor medio e varianza vediamo come si comporta la funzione generatrice dei momenti.
(t) = E[e
tx
] =
+

k=0
e
tx

k
k!
e

= e

k=0
(e
t
)
k
k!
= e

e
e
t
= e
(e
t
1)
Come verica possiamo ricavarci il momento di ordine uno tramite questa funzione.
E[X] =
d
dt
(t)

t=0
= e
(e
t
1)e
t

t=0
=
Dopo aver vericato che valor medio e varianza sono uguali andiamo ad analizzare unaltra pro-
priet fondamentale della variabile casuale di Poisson, la riproducibilit.
PROPRIET DI RIPRODUCIBILIT
Prese X
1
Po(
1
) e X
2
Po(
2
) indipendenti, allora:
X
1
+X
2
Po(
1
+
2
)
Dimostrazione:
Date X
1
e X
2
sappiamo che le rispettive funzioni generatrici sono della forma

X
1
(t) = e

1
(e
t
1)

X
2
= e

2
(e
t
1)
Essendo due variabili indipendenti possiamo applicare la propriet della funzione generatrice
dei momenti, per cui avremo

X
1
+X
2
(t) =
X
1

X
2
(t) = e

1
(e
t
1)
e

2
(e
t
2)
= e
(
1
+
2
)(e
t
1)
=X
1
+X
2
Po(
1
+
2
)
5.4.1 Distribuzione di Poisson (o Legge degli eventi rari)
Sia Y una variabile casuale denita in questo modo.
Y B(n, p)
Imponiamo per le seguenti condizioni:
38 Modelli di variabili casuali discrete
n >> 1
np =
Il che implica p =

n
, che stando alla prima condizione implica p 0, da qui il nome
Legge degli eventi rari.
Date queste condizioni, vediamone gli eetti su Y.
p
Y
(k) =
_
n
k
_
p
k
(1 p)
nk
=
n!
(nk)!k!

k
n
k
_
1

n
_
nk
=
=
n(n1)(n2) (nk +1)
n
k

k
k!
_
1

n
_
nk
Facendo tendere n a +abbiamo che
lim
n+
p
Y
(k) = lim
n+
n(n1)(n2) (nk +1)
n
k

k
k!
_
1

n
_
nk
Il primo fattore tende a 1 in quanto il grado del numeratore uguale a quello del denominatore,
il secondo fattore una costante, mentre per il terzo fattore possiamo ragionare cos
lim
n+
_
1

n
_
nk
= lim
n+
_
1

n
_
n
= lim
n+
e
ln(1

n
)
n
= lim
n+
e
nln(1

n
)
=
= lim
n+
e
n(

n
)
= e

Abbiamo quindi ottenuto il seguente risultato.


lim
n+
p
Y
(k) =

k
k!
e

Ovvero la funzione di massa di probabilit di Poisson. Infatti se ci calcoliamo valor medio e


varianza di una binomiale otteniamo, per n che tende allinnito:
E[Y] = lim
n+
np = lim
n+
=
Var(Y) = lim
n+
npq = lim
n+

_
1

n
_
=
5.4.2 Processo stocastico di Poisson
Denizione 5.4.1 (Processo stocastico)
Famiglia di variabili casuali parametrizzate, ovvero dipendenti da un certo parametro.
X()
Un esempio di processo stocastico sono il numero di telefonate in anno (X), dove potrebbe
essere il numero di telefonate in un giorno.
Il processo stocastico di Poisson si propone di contare il numero di eventi a partire da un tempo
t = 0. Essa rappresentata dalla funzione N(t).
In questo processo vi sono 5 propriet richieste:
1. N(0) = 0
2. INDIPENDENZA DEGLI INCREMENTI
Il numero di eventi in intervalli disgiunti indipendente.
5.5 Variabili casuali binomiali negative 39
3. STAZIONARIET DEGLI INCREMENTI
Il numero di eventi in un dato intervallo dipende dalla lunghezza dellintervallo, ma non
dalla sua posizione.
4.
lim
h0
P(N(h) = 1)
h
= =P(N(h) = 1) h
5.
lim
h0
P(N(h) = 2)
h
= 0 =P(N(h) 2) 0
Cosa possiamo dire di N(t)?
Prendiamo un intervallo di tempo qualsiasi [0, t] e dividiamolo in n sottointervalli, ognuno di
lunghezza
t
n
. N(t) una variabile casuale discreta tale per cui N(t) {0, ..., +}.
La probabilit che ci siano k eventi in [0,t] corrisponde a
P(N(t) = k) = P(A
k
B
k
)
dove A
k
= Ci sono sottointervalli con 2 o pi eventi, ci sono sottointervalli con un evento e
sottointervalli senza eventi, per un totale di k eventi. e B
k
=Ci sono k sottointervalli con un
evento e i restanti n/k senza eventi.
A
k
B
k
= =P(A
k
B
k
) = P(A
k
) +P(B
k
) P(B
k
)
Questultima relazione vale se n >> 1, infatti se vale ci per la propriet 5 vale che P(A
k
) 0.
B
k
si comporta come una binomiale, quindi
P(B
k
) =
_
n
k
_
p
k
(1 p)
nk
=
Per la propriet 4 si ha che p =
t
n
, quindi
=
_
n
k
_
_
t
n
_
k
_
1
t
n
_
nk

(t)
k
k!
e
t
per n +
Quindi N(t) Po(t).
Il processo stocastico di Poisson utile anche per studiare gli intertempi, ovvero i tempi che
trascorrono tra un evento e laltro.
Deniamo X
k
=Intertempo trascorso tra levento (k-1)-esimo e levento k-esimo. Esse sono
variabili casuali continue in quanto si sta parlando di tempi.
P(X
1
s) = 1P(X
1
> s) = 1P(N(s) = 0) = 1
(s)
0
0!
e
s
= 1e
s
= F
X
1
(s)
Passiamo ora a X
2
P(X
2
> s|X
1
= t) = P(N(s) = 0) = e
s
Il secondo passaggio deriva dalla terza propriet del processo stocastico di Poisson.
5.5 Variabili casuali binomiali negative
Si ripetono esperimenti identici in maniera indipendente. Denita con p la probabilit di suc-
cesso in un singolo esperimento, deniamo X in questo modo.
X = Numero prove eettuate per ottenere n successi X {n, ..., +}
40 Modelli di variabili casuali discrete
Analizziamo la funzione di massa.
P(X =k) = p(k) =P
_
In (k 1) prove si ottengono (n1) successi Nellultima prova c un successo
_
Essendo le prove indipendenti avremo che p(k) corrisponde al prodotto delle probabilit dei due
eventi. Il primo evento schematizzabile come una variabile casuale binomiale di parametri
(k 1) e p, il secondo avr probabilit p di successo.
p(k) =
_
k 1
n1
_
p
n1
(1 p)
(k1)(n1)
p =
_
k 1
n1
_
p
n
(1 p)
kn
Per trovare il valor medio usiamo la stessa tecnica usata per le variabili binomiali. Infatti X si
pu vedere come somma di tanti (n) esperimenti indipendenti.
X = Y
1
+Y
2
+...Y
n
Dove le Y
l
non sono altro che variabili casuali geometriche. Quindi possiamo calcolarci il valor
medio nel modo seguente.
E[X] = E
_

_
n

l=1
Y
l
_

_
=
n

l=1
E[Y
l
] =
n

l=1
1
p
=
n
p
Esempio 5.5.1 (Problema dei ammiferi di Banach)
Il celebre matematico Stefan Banach soleva acquistare due scatole di cerini per volta.
Ciascuna scatola nuova conteneva n ammiferi. Se le metteva in tasca e prendeva i cerini
scegliendo a caso una delle due scatole e rimettendola in tasca subito dopo. Quando
cercando un cerino trovava che la scatola scelta era vuota, gettava via le due scatole e ne
comprava altre due.
Qual la probabilit che, quando il matematico estrae per la prima volta una scatola vuota,
ci siano esattamente k ammiferi nellaltra scatola?
Chiamiamo per semplicit le due tasche una A e laltra B, e diciamo che P(A) = P(B) = 0.5
Possiamo dire che k = {0, ..., n}, in quanto un pacchetto al massimo contiene n sigarette e al
minimo zero, inoltre il numero di volte in cui il matematico ha messo la mano in tasca sar
n +1 +(n k) = 2n +1 k, dove n +1 indica le volte che ha messo la mano nella tasca in
cui poi il pacchetto nisce, quindi il numero dei ammiferi pi la volta in cui scopre che il
pacchetto vuoto, e dove nk indica le volte in cui ha preso il ammifero dallaltra tasca in
cui ne sono rimaste k.
Deniamo levento T
a
=Il matematico scopre che la tasca A vuota e in B ci sono k
ammiferi.
P(T
a
) = P( Su (2nk +1) volte ha scelto A, n+1 volte )
La quale probabilit non altro che la probabilit di una binomiale negativa.
P(T
a
) =
_
2nk
n
_
p
n+1
(1 p)
(2nk+1)(n+1)
=
_
2nk
n
__
1
2
_
n+1
_
1
2
_
nk
=
=
_
2nk
n
__
1
2
_
2nk+1
Se deniamo un evento T
b
in maniera analoga a T
a
, e che avr la stessa probabilit per ovvi
motivi, possiamo risolvere il problema calcolandoci la probabilit dellunione, e dato che i due
eventi sono disgiunti possiamo dire che
P(T
a
T
b
) = P(T
a
) +P(T
b
) = 2p(T
a
) =
_
2nk
n
__
1
2
_
nk
5.6 Variabile casuale ipergeometrica 41
5.6 Variabile casuale ipergeometrica
Dato un gruppo di N oggetti di cui, m oggetti sono del tipo A e (Nm) del tipo B, si estraggono
senza reimmissione n oggetti.
X = Numero oggetti di tipo A estratti max(0, n(Nm)) X min(n, m)
P(X = k) = p(k) =
_
m
n
__
Nm
nk
_
_
N
n
_
Capitolo 6
Modelli di variabili casuali continue
6.1 Variabile casuale uniforme
Prendiamo una variabile casuale X denita nellintervallo [, ] e in cui tutti i valori dellinter-
vallo sono equiprobabili. Quindi la sua funzione di densit sar la seguente.
f (x) =
_
k x [, ]
0 altrove
Notazione sintetica: X U(, )
Proviamo a dire qualcosa di pi su k.
Sappiamo che maggiore di zero, poich la funzione f deve esserlo per denizione. In pi
possiamo calcolarcelo in questo modo.
_
+

f (x)dx =
_

kdx = k() = 1 =k =
1

Figura 6.1: Graco di f (x)


Trovato k calcoliamoci la funzione di distribuzione di X.
F(x) = P(X x) =
_
x

f (s)ds =
_

_
0 x <
x

x
1 x
Ora ci chiediamo, se prendiamo un ulteriore intervallo denito in [, ], qual la probabilit che
X stia in quell intervallo?
6.2 Variabile casuale esponenziale 43
Per rispondere a questa domanda prendiamo unintervallo [, ] tale che < < < .
P(x [, ]) = P( x ) = P(x ) P(x ) = F() F() =
=

Quindi semplicemente il rapporto tra lintervallo desiderato e lintervallo in cui denita la


variabile.
Calcoliamo il valor medio.
E[X] =
_
+

x f (x)dx =
_

x
1

dx =
1

2
2
_
=

2
Come al solito per calcolare la varianza calcoliamoci prima il momento di ordine due di X.
E[X
2
] =
_
+

x
2
f (x)dx =
_

x
2
1

dx =
1

3
3
_
=

2
++
2
3
La varianza risulter quindi
Var(X) = E[X
2
] E[X]
2
=

2
++
2
3

()
2
4
=

12
6.2 Variabile casuale esponenziale
Sia X una variabile casuale avente come funzione di densit la seguente.
f (x) =
_
0 x 0
e
x
x > 0
con > 0
Indichiamo la variabile casuale esponenziale in questo modo: X E().
Essa descrive tempi di durata ad esempio, oppure degli intertempi. Calcoliamoci la funzione di
distribuzione di probabilit .
F(x) =
_

_
0 x 0
_
+
0
e
s
ds =
_
e
s
_
x
0
= 1e
x
x > 0
Calcoliamoci la funzione generatrice dei momenti.
(t) = E[e
tx
] =
_
+

f (x)e
tx
dx =
_
+
0
e
x
e
tx
=
_
+
0
e
(t)x
dx =
Ponendo t > 0
=
_

1
t
e
(t)x
_
+
0
=

t
Calcoliamo il valor medio.
E[X] =
d(t)
dt

t=0
=

(t)
2

t=0
=
1

Al solito prima di calcolarci la varianza calcoliamoci il momento di ordine 2.


E[X
2
] =
d
2
(t)
dt

t=0
=
2
(t)
3

t=0
=
2

2
A questo punto calcoliamoci la varianza.
Var(X) = E[X
2
] E[X]
2
=
2

2

1

2
=
1

2
44 Modelli di variabili casuali continue
Andiamo ad analizzare pi nel profondo questa distribuzione andando a vedere quali sono le sue
propriet.
PROPRIET DELLA DISTRIBUZIONE ESPONENZIALE:
1. Dispositivi in serie
Sia dato un dispositivo formato da N elementi in serie. Siano X
1
, X
2
, X
3
, ..., X
N
=Durata di
funzionamento di ogni elemento; e siano esse indipendenti tra loro. Deniamo Y =Durata
funzionamento del dispositivo.
Per le propriet di un dispositivo in serie Y = min(X
1
, X
2
, ..., X
N
).
Per come sono state denite X
1
, X
2
, ...X
N
sono variabili casuali esponenziali di parametro
rispettivamente
1
, ...,
N
. Vogliamo dimostrare come anche Y sia una variabile casuale
esponenziale di parametro (
1
+
2
+...
N
).
F
Y
(y) = P(min(X
1
, ...X
N
) y) = 1P(min(X
1
, ..., X
N
) > y) =
1P(X
1
> y X
2
> y ... X
N
> y) = 1P(X
1
> y)P(X
2
> y) P(X
N
> y) =
= 1e

1
y
e

2
y
e

N
y
= 1e
(
1
+
2
+...+
N
)y

Y E(
1
+
2
+... +
N
)
2. Dispositivi in parallelo
Sia dato un dispositivo formato da N elementi in parallelo. Siano X
1
, X
2
, X
3
, ..., X
N
=Durata
di funzionamento di ogni elemento; e siano esse indipendenti tra loro. Deniamo Y =Durata
funzionamento del dispositivo.
Per le propriet di un dispositivo in parallelo Y = max(X
1
, X
2
, ..., X
N
).
Per come sono state denite X
1
, X
2
, ...X
N
sono variabili casuali esponenziali di parametro
rispettivamente
1
, ...,
N
F
Y
(y) = P(Y y) = P(max(X
1
, X
2
, ..., X
N
) y) = P(X
1
y) P(X
2
y) ... P(X
N
y) =
= P(X
1
y)P(X
2
y) P(X
N
y) = F
X
1
(y)F
X
2
(y) F
X
N
(y)
Quindi possiamo dire che
F
Y
(y) =
_

_
0 y 0
_
1e

1
y
_ _
1e

2
y
_

_
1e

N
y
_
y > 0
3. Assenza di memoria
Sia X una variabile casuale esponenziale di parametro e che rappresenta il tempo di
durata.
Siano s, t > 0, andiamo a calcolarci la seguente probabilit.
P(X > s +t|X > t) =
P(X > s +t X > t)
P(X > t)
=
P(X > s +t)
P(X > t)
Analizziamo prima il numeratore.
P(X > s +t) = 1P(X s +t) = 1F
x
(s +t) = 1
_
1e
(s+t)
_
= e
(s+t)
Ora il denominatore.
P(X > t) = 1P(X t) = 1
_
1e
t
_
= e
t
6.3 Variabile casuale gaussiana o normale 45
Quindi possiamo dire che
P(X > s +t)
P(X > t)
=
e
(s+t)
e
t
= e
s
= P(X > s)
Quindi la probabilit non dipende da t!!! Vi appunto assenza di memoria.
4. Sia Y = cX, dove X E() e c R

+
=Y E
_

c
_
Dimostrazione:

X
(t) = E[e
tx
] =

t
se t <

Y
(t) = E[e
ty
] = E[e
tcx
] =
X
(ct) =

tc
=

c
t
se ct <
Lultima relazione implica proprio che Y E
_

c
_
.
Ci chiediamo ora se valga la propriet di riproducibilit per X E().
Prendiamo X
1
E(
1
) e X
2
E(
2
) variabili casuali indipendenti.

X
1
+X
2
(t) =
X
1
(t)
X
2
(t) =

1
(
1
t)

2
(
2
t)
=

2
(
1
t)(
2
t)
=

1
t
2
t +t
2
se t < min(
1
,
2
)
Il quale risultato ci dice che la somma di due esponenziali non ancora una variabile esponen-
ziale.
6.3 Variabile casuale gaussiana o normale
Sia X una variabile casuale continua avente la seguente funzione di densit di probabilit.
f (x) =
1

2
e

(x)
2
2
2
Notazione sintetica: N (, )
Figura 6.2: Graco di una variabile X N(0, 1)
Questo graco noto come Campana di Gauss. Per le propriet della funzione di densit
larea del graco sappiamo essere uguale a 1.
Proviamo ora a calcolarci la funzione di distribuzione della gaussiana.
F(a) =
_
a

f (x)dx =
_
a

2
e

(x)
2
2
2
dx
46 Modelli di variabili casuali continue
Siamo arrivati a dover integrare una funzione di cui non conosciamo la primitiva. Quindi
possiamo dire ben poco sulla funzione di distribuzione, se non che
_
+

2
e

(x)
2
2
2
dx = 1
e che, per simmetria
F() =
_

2
e

(x)
2
2
2
dx =
1
2
Calcoliamoci la funzione generatrice dei momenti.
(t) = E[e
tx
] =
_
+

e
tx
1

2
e

(x)
2
2
2
dx =
Ponendo y =
x

=
1

2
_
+

e
t(y+)
e

y
2
2
dy =
e
t

2
_
+

e
2tyy
2
2
dy =
e
t

2
_
+

(yt)
2
+t
2

2
2
dy =
=
e
t+
t
2

2
2

2
_
+

(yt)
2
2
dy =
e
t+
t
2

2
2

2
_
+

e
s
2
2
ds
Lultimo integrale sappiamo essere uguale a

2, quindi la nostra espressione diventa
(t) = e
t+
t
2

2
2
Trovata la funzione generatrice dei momenti calcoliamoci valor medio e varianza.
E[X] =
d(t)
dt

t=0
= (+t
2
)e
t+
t
2

2
2

t=0
=
E[X
2
] =
d
2
(t)
dt
2

t=0
=
2
e
t+
t
2

2
2
+(+t
2
)
2
e
t+
t
2

2
2

t=0
=
2
+
2
Possiamo calcolarci quindi la varianza.
Var(X) = E[X
2
] E[X]
2
=
2
+
2

2
=
2
PROPRIET DELLA GAUSSIANA:
1. Sia X N(, ), deniamo Y = X +, con , R. Calcoliamo valor medio, varianza e
funzione generatrice di questa trasformazione lineare di X.
E[Y] = E[X+] = +
Var(Y) = Var(X+) =
2
Var(X) =
2

Y
(t) = E[e
ty
] = E[e
t(x+)
] = E[e
tx
e
t
] = e
t
E[e
tX
] = e
t

X
(t)
Andando a sostituire lespressione calcolata prima otteniamo
= e
t
e
t+
t
2

2
2
= e
t(+)+
t
2
2
(
2

2
)
Notiamo che Y ha le caratteristiche di una gaussiana, in cui E[Y] = (+) e Var(X) =
(
2

2
), quindi Y N(+ , )
6.4 Variabile casuale
2
a n gradi di libert 47
2. Sia X N(, ), dalla propriet 1 deniamo la variabile detta normale standard in questo
modo.
X

= Z N(0, 1)
Essa non altro che una trasformazione lineare di X, in cui =
1

e =

. Applicando
la prima propriet ricaviamo anche i valori del valor medio e della varianza.
+ =
1

= 0,
2

2
=
1

2
= 1
La normale standard ha la propriet che da essa ci si pu ricondurre ad un qualsiasi calcolo
delle probabilit di variabili gaussiane. Infatti
F
X
(a) = P(X a) = P
_
X

_
= F
Z
_
a

_
Inoltre
P(a <X <b) = P(X b)P(X a) =P
_
X

_
P
_
X

_
=F
Z
_
b

_
F
Z
_
a

_
3. Propriet di riproducibilit
Prese due variabili casuali X
1
N(
1
,
1
) e X
2
N(
2
,
2
) indipendenti, allora anche
X
1
+X
2
N
_

1
+
2
,
_

2
1
+
2
2
_
Dimostrazione: Sappiamo che

X
1
(t) = e
t
1
+
t
2
2

2
1

X
2
(t) = e
t
2
+
t
2
2

2
2

X
1
+X
2
(t) =
X
1
(t)
X
2
(t) per indipendenza. Quindi

X
1
+X
2
(t) = e
t(
1
+
2
)+
t
2
2
(
2
1
+
2
2
)
Questultimo risultato dimostra la propriet.
6.4 Variabile casuale
2
a n gradi di libert
Sia C una variabile casuale tale per cui
C =
n

k=1
Z
2
k
Notazione sintetica: C
2
n
Dove Z
k
N(0, 1) sono indipendenti tra loro.
Vengono deniti per questo tipo di variabili i valori critici, ovvero quelli per cui si ha che, se
uno di questi valori,
P(C >
2
n,
) =
Calcoliamo il valor medio.
E[C] =
n

k=1
E[Z
2
k
] =
n

k=1
_
Var(X) +E[Z
k
]
2
_
= n
48 Modelli di variabili casuali continue
6.5 Variabile casuale di Student a n gradi di libert
Sia T una variabile casuale tale per cui
T =
Z
_
C
n
Notazione sintetica: T t
n
Dove C
2
n
e Z N(0, 1).
Var(T) =
n
n2
, E[T] = 0
Anche per la variabile di studente viene denito il valore critico.
P(T t
n,
) =
Essa una funzione simmetrica, per cui
P(T t
n,
) =
6.6 Funzioni di una variabile casuale continua
Sia X una variabile casuale nota. Ci proponiamo di analizzare la seguente situazione.
Y = (X)
Per calcolare il valor medio e il momento di ordine generico rimangono valide le solite formule.
Per calcolare la funzione di densit di probabilit invece dobbiamo distinguere 3 casi.
1. monotona crescente
F
Y
(y) = P(Y y) = P((X) y)
Figura 6.3: Graco funzione monotona crescente
Se X [a, b] scegliamo un x

tale che F
Y
(y) = P(a X x

). Sapendo che (x

) = y e
che quindi x

=
1
(y), diciamo che
6.6 Funzioni di una variabile casuale continua 49
P(Y y) =
_
x

a
f
X
(s)ds =
_

1
(y)
a
f
X
(s)ds
Trovata la funzione di ripartizione ci calcoliamo la funzione di densit facendone la
derivata.
f (y) =
dF
Y
(y)
dy
=
d
dy
_

1
(y)
a
f
X
(s)ds = f
X
_

1
(y)
_
d
dy

1
(y)
2. monotona decrescente
F
Y
(y) = P(Y y) = P((X) y)
Il caso analogo al precedente, con lunica dierenza che la X dovr essere maggiore di
x

.
P(Y y) = P(X x

) =
_
+
x

f
X
(s)ds =
_
+

1
(y)
f
X
(s)ds
Quindi
f
Y
(y) =
dF
Y
(y)
dy
=
d
dy
_
+

1
(y)
f
X
(s)ds = f
X
_

1
(y)
_
d
dy

1
(y) = f
X
_

1
(y)
_
_

d
dy

1
(y)
_
Si noti che la funzione di densit mantiene la sua propriet di positivit.
In generale per una funzione monotona possiamo dire che
f
Y
(y) = f
X
_

1
(y)
_

d
dy

1
(y)

3. non monotona
Figura 6.4: Graco funzione non monotona
F
Y
(y) = P((x) y) = P(X D
1
(y) X D
2
(y) ...) = P(X D
1
(y)) +P(X D
2
(y)) +... =
=
_
D
1
(y)
f
X
(x)dx +
_
D
2
(y)
f
X
(x)dx +...
Ovviamente varr sempre la relazione
f
Y
(y) =
dF
Y
dy
50 Modelli di variabili casuali continue
6.7 Funzione di pi variabili casuali
Siano X e Y due variabili casuali note. Ci proponiamo di analizzare la seguente situazione.
Z = (X, Y)
Per semplicit analizzeremo solo il caso in cui Z = X+Y.
Abbiamo gi visto come calcolare valor medio e varianza di una somma. Proviamo a dire
qualcosa di pi sulla funzione di densit e sulla funzione di distribuzione.
F
Z
(a) = P(Z a) = P(X+Y a) = P(X aY) =
_
+

__
aY

f (x, y)dx
_
dy
Oppure possiamo anche dire che
F
Z
(a) =
_
+

__
aX

f (x, y)dy
_
dx
Essendo P(X aY) = P(Y aX).
La funzione di densit la calcoliamo come al solito come la derivata della funzione di dis-
tribuzione.
f
Z
(a) =
dF
Z
(a)
da
=
d
da
__
+

__
aY

f (x, y)dx
_
dy
_
=
_
+

f (ay, y)dy
Oppure per il ragionamento precedente
f
Z
(a) =
_
+

f (x, ax)dx
Se X eY sono indipendenti allora
f
Z
(a) =
_
+

f (ay) f (y)dy =
_
+

f (x) f (ax)dx
Questultimi integrali sono detti integrali di convoluzione.
Capitolo 7
Metodo Montecarlo
Il metodo Montecarlo consiste nello stimare dei valori attraverso la denizione frequentista di
probabilit utilizzando punti o oggetti generati casualmente.
Illustriamo il metodo attraverso due famosi esempi: il problema dellago di Buon e il problema
della stima dellarea di una regione di spazio.
7.1 Problema degli spilli di Buon
Lobiettivo di Buon era quello di calcolare una stima del valore di facendo degli esperimenti.
Egli suppose di avere un pavimento in legno formato da strisce di legno parallele, ognuna a
distanza 2b dallaltra. In seguito egli immagin di lanciare un numero n di spilli lunghi 2a < 2b
sul pavimento.
Chiamato m il punto medio dello spillo, denisco due variabili casuali X e .
X = Distanza da m dalla retta pi vicina X U(0, b)
= Angolo con cui lo spillo interseca la retta U(0, )
P(Spillo lanciato a caso intersechi una retta) = P(asin X) = P(X asin) =
=

Xasin
f (x, )dxd =
_

0
__
asin
0
1
b
dx
_
d =
_

0
1
b
[asin]d =
2a
b
Ora se chiamo n
i
=Numero di spilli lanciati casualmente che intersecano una retta e n
tot
=Numero
spilli lanciati ottengo
Frequenza relativa di intersezioni =
n
i
n
tot

2a
b
con n
tot
>> 1
52 Metodo Montecarlo
Questo risultato discende dal corollario di Bernoulli. Buon trov quindi che

2an
tot
bn
i
Il matematico italiano Mario Lazzarini realizz lesperimento di Buon nel 1901. Lanciando un
ago 3408 volte, ottenne la nota stima 355/113 per , che un valore molto accurato, dierendo
da per non pi di 3 10
7
.
7.2 Problema della stima dellarea di una regione
Ci poniamo il problema di calcolare larea della regione F. Deniamo due variabili casuali X e
Y indipendenti, corrispondenti alla lunghezza del rettangolo.
X U(0, L
1
) Y U(0, L
2
)
Sappiamo che
P((X, Y) F) =

F
f (x, y)dxdy
Inoltre
f (x, y) = f
X
(x) f
Y
(y) =
_

_
1
L
1
L
2
0 x L
1
, 0 y L
2
0 altrimenti
Quindi
P((X, Y) F) =

F
1
A
r
dxdy =
1
A
r

F
dxdy =
A
F
Ar
Supponiamo di generare casualmente punti sulla regione rettangolare. Chiamiamo N
tot
=Numero
totale di punti generati e n
f
=Numero di punti che niscono in F .
n
f
n
tot

A
F
A
r
=A
F

n
F
n
tot
A
r
con n >> 1
Approssimazione ottenuta grazie al Corollario di Bernoulli.
Capitolo 8
Inferenza statistica o statistica
referenziale
8.1 Introduzione e Teorema del limite centrale
Fondamentali per fare inferenza statistica sono i concetti di popolazione e campione, gi visti
nel primo capitolo. Per semplicarci la vita introduciamo unipotesi fondamentale:
X, che rappresenta la caratteristica che andiamo a studiare,
distribuita in maniera uguale per ogni individuo, inoltre variabili
casuali per individui diversi sono indipendenti tra loro.
Esistono 2 tipi di inferenza statistica:
Non parametrica, se F incognita, ovvero se non so quale distribuzione caratterizza X.
Parametrica, se la forma di F nota a meno di qualche parametro.
Il campione non altro che un vettore di variabili casuali indipendenti e identicamente dis-
tribuite.
Campione = (X
1
, X
2
, ..., X
n
)
La statistica una funzione delle variabili casuali che compongono il campione.
Y = (X
1
, X
2
, ..., X
n
)
Prendiamo in esame ora la media campionaria.
X =
n

i=1
X
i
n
Per quanto riguarda valor medio e varianza abbiamo gi visto che
E[X
i
] = , Var(X
i
) =
2
E[X] = , Var(X) =

2
n
Questo ovviamente se le X
i
sono indipendenti.
Ora ci chiediamo, come distribuita la media campionaria?
54 Inferenza statistica o statistica referenziale
Caso 1
Se X
i
hanno distribuzioni riproducibili (Poisson o Gauss) allora anche X avr la stessa
forma di distribuzione.
Caso 2
Se X
i
non hanno distribuzioni riproducibili possibile applicare il teorema del limite
centrale (se n >> 1).
Teorema 8.1.1 (del limite centrale)
Data una successione di variabili casuali X
1
, X
2
, ..., X
n
identicamente distribuite e indipendenti,
dove E[X
k
] = , Var(X
k
) =
2

Y =
n

k=1
X
k
converge in ditribuzione ad una gaussiana per n +
Oppure
_
n
k=1
X
k
n

n
N(0, 1)
Oppure
P
__
n
k=1
X
k
n

n
a
_
F
z
(a) se n +
OSSERVAZIONI:
Y =
n

k=1
X
k
E[Y] = n
Var(Y) = Var
_

_
n

k=1
X
k
_

_
= n
2
Questo vuol dire che Y gi una gaussiana.
Conseguenze:
1.
X =
Y
n
=
_
n
k=1
X
k
n
se Y N
_
n,

n
_
=X N
_
,

n
_
in accordo con prima!
2.
S B(n, p) con n >> 1 (n > 30)
S =
n

k=1
X
k
indipendenti e identicamente distribuite dove X
k
Be(p)
Applicando il Teorema del limite centrale
S N
_
np,

npq
_
Quindi possiamo vedere S sia come variabile casuale continua che discreta.
Sorge un problema. Infatti se S B(n, p)
P(S = k) =
_
n
k
_
p
k
(1 p)
nk
8.1 Introduzione e Teorema del limite centrale 55
Se S N
_
np,

npq
_
P(S = k) = 0
Essendo continua!! Per ovviare a questo contrasto si ricorre ad una approssimazione alla
continuit, ovvero se S B(n, p)
P(S = k) = P(k 0, 5 < S < k +0, 5)
Quindi per S continua
P(k 0, 5 < S < k +0, 5) 0
un modo per stimare P(S = k).
Dimostrazione del teorema del limite centrale:
Per facilitare la dimostrazione introduciamo 2 ipotesi aggiuntive, ovvero che
2
= 1 e che = 0.
Tesi: Y N
_
0,

n
_

n
N(0, 1)
Dimostriamo che
Y

n
si comporta come una gaussiana.
Y

n
=
n

k=1
X
k

n
= Y

n
(t) = E
_
e
tY

n
_
=
Y
_
t

n
_
Y la somma di n variabili indipendenti tra loro e identicamente distribuite, quindi

Y
_
t

n
_
=
X
1
+X
2
+...+X
n
_
t

n
_
=
X
1
_
t

n
_

X
2
_
t

n
_

X
n
_
t

n
_
=
=
_

X
1
_
t

n
__
n
Voglio dimostrare che
lim
n+
Y

n
(t) =
Z
(t)
Io so gi che

Z
(t) = e
t
2
2
Quindi se vero questo deve essere vero anche questo
lim
n+
ln Y

n
(t) =
t
2
2
Sappiamo che
Y

n
(t) =
_

X
1
_
t

n
__
n
=ln Y

n
(t) = nln
X
1
_
t

n
_
Quindi ora il nostro limite diventa
lim
n+
nln
X
1
_
t

n
_
=
t
2
2
Per vericare questo limite ci comodo denire L(s) = ln
X
1
(s) Verichiamo che
L(0) = 0
L

(0) =

X
1
(s)

X
1
(s)

s=0
= 1 E[X
1
] = 0 avendo supposto = 0
56 Inferenza statistica o statistica referenziale
L

(0) =

X
1
(s)
_

X
1
(s)
_
2

X
1
(s) +

X
1
(s)

X
1
(s)

s=0
= E[X
2
1
] E[X
1
]
2
= Var(X
1
) = 1
Ora procediamo con la risoluzione del limite.
lim
n+
nln
X
1
_
t

n
_
= lim
n+
nL
_
t

n
_
= lim
n+
L
_
t

n
_
n
1
=
Ci troviamo davanti ad una forma indeterminata del tipo
0
0
, applichiamo il Teorema di De
LHopital.
= lim
n+
L

_
t

n
_
_

t
2
n

3
2
_
n
2
= lim
n+
L

_
t

n
_
_

t
2
_
n

1
2
=
Troviamo ancora una forma indeterminata, allora riapplichiamo il Teorema.
= lim
n+
_

t
2
_
2
L

_
t

n
_
n

3
2
1
2
n

3
2
= lim
n+
t
2
4
1
2
=
t
2
2
Abbiamo dimostrato cos il teorema.
8.2 Inferenza statistica negli esperimenti
Linferenza statistica pensa a come fare un esperimento, non lo fa e basta, non scende nel
dettaglio.
8.2.1 Varianza campionaria
La varianza campionaria indica quanto i dati si discostano dalla media campionaria.
denita nel modo seguente.
S
2
=
n

k=1
_
X
k
X
_
2
n1
Se n = 1 e X = X
1
S
2
=
0
0
Ovvero una forma indeterminata!!! Questo ragionevolmente indica che per avere un valore
della varianza campionaria servono almeno due dati. Calcoliamo il valor medio della varianza
campionaria.
E
_
S
2
_
= E
_

_
n

k=1
_
X
k
X
_
2
n1
_

_
=
1
n1
E
_

_
n

k=1
_
X
k
X
_
2
_

_
=
1
n1
E
_

_
n

k=1
X
2
k
+
n

k=1
X
2
2X
n

k=1
X
k
_

_
=
=
1
n1
E
_

_
n

k=1
X
2
k
+nX
2
2nX
2
_

_
=
1
n1
_

_
n

k=1
E
_
X
2
k
_
nE
_
X
2
_
_

_
=
Supponiamo ora che E[X
k
] = e Var(X
k
) =
2
=
1
n1
_

_
n

k=1
_

2
+
2
_
n
_

2
n
+
2
_
_

_
=
1
n1
_
n
_

2
+
2
_
n
_

2
n
+
2
__
=
8.2 Inferenza statistica negli esperimenti 57
=
1
n1
_
n
2

2
_
=
n1
n1

2
=
2
Questo il secondo motivo per cui nella denizione di varianza campionaria a denominatore si
ha n1 e non n.
Per quanto riguarda la varianza campionaria si pu dimostrare questo importante risultato che ci
sar utile pi avanti.
Se abbiamo una popolazione gaussiana allora
S
2

2
(n1)
2
n1
I gradi di libert sono (n1) perch in realt X dipende da X
k
. Ora, come possiamo sfruttare la
varianza campionaria?
Noi conosciamo gi questo risultato
X

n
N(0, 1)
per non sempre conosciamo , mentre conosciamo sempre S , quindi ci utile capire la dis-
tribuzione della variabile seguente.
X
S

n
Presa Z N(0, 1) e C
2
n1
, noi sappiamo che
Z
_
c
n1
t
n1
Andando a sostituire
_
X

n
_
_
(n1)S
2

2
n1
=
X

S
=
X
S

n
t
n1
8.2.2 Stima parametrica
Parto da una popolazione con funzione di distribuzione F

conosciuta a meno del parametro .


La nostra incognita , oppure sia che
2
, in una gaussiana. Si cerca di stimare attraverso
una particolare statistica chiamata stimatore
_

_
.
Lo stimatore per essere accettabile deve rispettare 3 propriet:
1. Correttezza
E
_

_
=
Altro motivo per cui nella denizione di varianza campionaria a denominatore vi n1;
altrimenti non potrei mai utilizzarla.
2. Ecienza
Var
_

_
pi piccola possibile
3. Consistenza
lim
n+
E
_
_


_
2
_
= 0
Nel caso dello stimatore X infatti
lim
n+
E
_
_
X
_
2
_
= lim
n+
Var
_
X
_
= lim
n+

2
n
= 0
58 Inferenza statistica o statistica referenziale
8.2.3 Intervallo di condenza
In un esperimento trovare un valore preciso di o di
2
impossibile, pertanto cerchiamolo in
un intervallo, detto di condenza, centrato nel valore dello stimatore, detto stima. Per trovare
un intervallo di partiamo dal fatto che sicuramente possiamo dire che

_
X, X+
_
Come scelgo ?
Ipotizziamo che la popolazione sia gaussiana e che
2
sia nota.
Per Z N(0, 1) denisco Z

come valore critico, quindi tale che


P(Z > Z

) =
Poniamo ora =

2
P
_
Z

2
Z Z

2
_
= 1
Se ora prendiamo una Z di questo tipo
Z =
X

n
allora possiamo dire che
P
_

_
Z

2

X

n
Z

2
_

_
= 1 =P
_
XZ

n
X+Z

n
_
= 1
=P
_
XZ

n
X+Z

n
_
= 1
Abbiamo quindi dimostrato che

_
XZ

n
, X+Z

n
_
Questo intervallo non dipende da X ma da .
Su per non possiamo operare, essendo data. Abbiamo 2 possibilit:
1. Possiamo operare su n, pi n grande pi lintervallo di condenza piccolo.
2. Possiamo operare anche su . Se cresce Z

2
decresce, cos diventa per pi piccola la
probabilit che stia nellintervallo, ovvero (1 ), la condenza appunto, quindi non
pu essere grandissimo.
In generale si parla di condenza e non di probabilit perch una volta fatto lesperimento non si
hanno pi variabili casuali, quindi nemmeno probabilit. La probabilit si pu avere solo prima
dellesperimento.
Consideriamo ora il caso in cui sia che
2
sono incognite.
Il procedimento di prima non pu essere utilizzato in quanto non conosciamo . Allora stimi-
amolo col suo stimatore.
Z =
X

n
=
X
S

n
che non pi una gaussiana ma una variabile di Student.
Ragioniamo su questa distribuzione. Se T t
n1
allora
P
_
t
n1,

2
T t
n1,

2
_
= 1
8.2 Inferenza statistica negli esperimenti 59
Sostituendo otteniamo
P
_

_
t
n1,

2

X
S

n
t
n1,

2
_

_
= 1 =P
_
Xt
n1,

2
S

n
X+t
n1,

2
S

n
_
= 1
Quindi

_
Xt
n1,

2
S

n
, X+t
n1,

2
S

n
_
Osservazione:
Se in un esperimento con conosciuta ottengo un certo valore X
1
e se nel corrispondente es-
perimento con incognito riottengo X
1
e S = , come sono gli intervalli di condenza nei due
casi?
Si dimostra gracamente che
t
n1,

2
> Z

2
Quindi lintervallo di condenza in cui presente la variabile di Student pi grande di quello in
cui compare la normale standard. Tuttavia se n >> 1 la normale standard converge alla variabile
di Student.
Cerchiamo ora unintervallo di condenza anche per
2
, sempre nellipotesi che sia incognita.
Sappiamo che
(n1)S
2

2

2
n1
Ragioniamo quindi su questa distribuzione.
Se C
2
n1
allora
P
_
C >
2
n1,

2
_
=

2
E, poich non simmetrico il graco della
2
P(C ?) =

2
=P(C >?) = 1

2
Quindi
P
_

2
n1,1

2
C
2
n1,

2
_
= 1
Sostituendo otteniamo
P
_

2
n1,1

(n1)S
2

2

2
n1,

2
_
= 1 =P
_

2
n1,1

2
(n1)S
2

1

2
n1,

2
(n1)S
2
_

_
= 1
=P
_

_
(n1)S
2

2
n1,

2

2

(n1)S
2

2
n1,1

2
_

_
= 1
Abbiamo quindi trovato un intervallo per
2
.

_
(n1)S
2

2
n1,

2
,
(n1)S
2

2
n1,1

2
_

_
Per ridurre lintervallo conviene aumentare n.
60 Inferenza statistica o statistica referenziale
8.2.4 Metodo dei minimi quadrati lineare semplice
Il metodo dei minimi quadrati o metodo della regressione una tecnica di ottimizzazione che
permette di trovare una funzione che si avvicini il pi possibile ad uninterpolazione di un in-
sieme di dati.
Supponiamo di avere un sistema ad un ingresso X e unuscita Y, legate dalla seguente relazione
Y = X++e
Questo il tipico caso lineare semplice, in quanto la relazione lineare e come ingresso abbiamo
una sola variabile.
Introduciamo degli stimatori per e , rispettivamente B e A. Ci proponiamo di trovare la retta
che meglio approssima i risultati di Y. Dobbiamo trovare Y = BX+A.
Ipotesi:
1. Le X
k
non sono variabili casuali, ma valori ssati.
2. Le Y
k
sono variabili casuali indipendenti tra loro.
3. Le Y
k
sono variabili casuali gaussiane.
Y
k
N
_
X
k
+,
2
_
Osservazione:
X =
n

k=1
X
k
n
, Y =
n

k=1
Y
k
n
Queste due NON sono medie campionarie!!! Infatti le X
k
non sono variabili casuali e le Y
k
appartengono a popolazioni diverse.
Il nostro obiettivo cercare i valori di B e A che minimizzano la somma di quadrati (abbreviata
con SS: Square Sum).
S S =
n

k=1
(Y
k
(BX
k
+A))
2
Si tratta dunque di risolvere questo sistema.
_

_
S S
A
= 0
S S
B
= 0
=
_

_
2
_
n
k=1
(Y
k
BX
k
A) = 0
2
_
n
k=1
X
k
(Y
k
BX
k
A) = 0
=
_

_
nY BnXnA = 0
_
n
k=1
X
k
Y
K
B
_
n
k=1
X
2
k
AnX = 0
=
_

_
A = Y BX
_
n
k=1
X
k
Y
k
B
_
n
k=1
X
2
k
nXY +nBX
2
Usciamo dal sistema per ricavarci B.
B
_

_
n

k=1
X
2
k
nX
2
_

_
=
n

k=1
X
k
Y
k
nXY = B =
_
n
k=1
Y
k
_
X
k
X
_
X
2
k
nX
2
B una gaussiana essendo una trasformazione lineare di gaussiane. Stessa cosa per A.
Verichiamo la correttezza di A e B.
E[B] = E
_

_
_
n
k=1
Y
k
_
X
k
X
_
_
n
k=1
X
2
k
nX
2
_

_
=
_
n
k=1
_
X
k
X
_
_
n
k=1
X
2
k
nX
2
E[Y
k
] =
_
n
k=1
Y
k
_
X
k
X
_
_
n
k=1
X
2
k
nX
2
(X
k
+) =
8.2 Inferenza statistica negli esperimenti 61
=
_
n
k=1
_
X
2
k
X
k
X
_
_
n
k=1
X
2
k
nX
2
+
_
n
k=1
_
X
k
X
_
_
X
k
nX
2
Calcoliamo a parte le sommatorie.
n

k=1
_
X
k
X
_
= nXnX = 0
n

k=1
_
X
2
k
X
k
X
_
n

k=1
X
2
k
X
n

k=1
X
k
=
n

k=1
X
2
k
nX
2
Quindi
E[B] =
_
n
k=1
X
2
k
nX
2
_
n
k=1
X
2
k
nX
2
=
Quindi B corretto.
Verichiamo la correttezza di A.
E[A] = E
_
Y BX
_
= E
_
Y
_
XE[B] = E
_

_
n

k=1
Y
k
n
_

_
X =
=
1
n
n

k=1
E[Y
k
] X =
1
n
n

k=1
(X
k
+) X = XX+
n
n
=
Quindi A corretto.
Consideriamo ora le varianze dei due stimatori. Per semplicit deniamo
k
=
_
X
k
X
_
_
n
k=1
X
2
k
nX
2
.
Var(B) = Var
_

_
n

k=1

k
Y
k
_

_
=
n

k=1
Var(
k
Y
k
) =
n

k=1

2
Var(Y
k
) =
2
n

k=1

2
k
=
Sostituendo otteniamo
=
2
_
n
k=1
_
X
2
k
+X
2
2X
k
X
_
_
_
n
k=1
X
2
k
nX
2
_
2
=

2
_
_
n
k=1
X
2
k
+nX
2
2X
_
n
k=1
X
k
_
_
_
n
k=1
X
2
k
nX
2
_
2
=
=

2
_
_
n
k=1
X
k
2nX
2
_
_
_
n
k=1
X
2
k
nX
2
_
2
=

2
_
n
k=1
X
2
k
nX
2
=

2
_
n
k=1
_
X
k
X
_
2
Questo risultato indica che se i dati sono molto sparpagliati pi facile determinare B, poich
Var(B) molto piccola. Diamo ora il valore della varianza di A.
Var(A) =

2
_
n
k=1
X
2
k
n
_
n
k=1
_
X
k
X
_
2