Sei sulla pagina 1di 44

ESPERIMENTI COMPOSTI

Come più volte osservato, la probabilità è una grandezza associata ai risultati di un singolo
esperimento e agli insiemi di tali risultati detti eventi.

Tuttavia, negli sviluppi della teoria e nelle applicazioni ci si trova spesso di fronte a situazioni in cui
si è in presenza della combinazione di esperimenti diversi o della ripetizione di uno stesso
esperimento.

È, pertanto, necessario studiare come queste situazioni possano essere ricondotte allo schema
generale.

Sia, ad esempio, E1 l'esperimento consistente nel "lancio di una moneta" caratterizzato dai due
eventi elementari Testa = T e Croce = C , a cui è associato lo spazio S1 = T , C

Sia, poi, E2 l'esperimento consistente nel "lancio di un dado" caratterizzato dai sei eventi elementari
rappresentati dalle facce del dado, a cui è associato lo spazio

S2 = f1, f 2 , f3 , f 4 , f5 , f 6 ,
Se questi due sperimenti vengono eseguiti contemporaneamente (o in successione), dal punto di
vista formale si può assumere che sia stato eseguito un unico esperimento composto E, per il quale
il risultato di una singola esecuzione è costituito da una fra tutte le possibili coppie ordinate ( e1, e2 )
con e1 S1 e e2 S2 .

Nel caso dello specifico esempio che stiamo considerando, l'esperimento composto ha come spazio
campionario il seguente insieme S

T, f1 T, f2 T, f3 T, f4 T, f5 T, f6

C,f1 C,f2 C,f3 C,f4 C,f5 C,f6


(1)

costituito da 12 eventi elementari.


Così ad esempio, il verificarsi dell'evento elementare T nel lancio della moneta e dell'evento
elementare f3 nel lancio del dado, corrisponde al verificarsi dell'evento elementare T , f3 nello
spazio dell'esperimento composto E.

Si noti che nell'ambito dell'esperimento composto E, l'evento T non è più un evento elementare.
Esso, infatti, è costituito dall'unione dei seguenti eventi elementari

T = T , f1 T , f2 T , f3 T , f4 T , f5 T , f6

così come l'evento f3 in E, che è costituito dall'unione dei seguenti eventi elementari

f3 = T , f3 C , f3

I risultati illustrati in questo caso particolare possono essere generalizzati nel seguente modo.
Siano S1 ed S2 due insiemi costituiti, rispettivamente, dalle collezioni di elementi e1 ed e2 con e1 S1
e e2 S2 . Si definisce prodotto cartesiano degli insiemi S1 ed S2 un nuovo insieme S i cui elementi
sono rappresentati da tutte le possibili coppie ordinate ( e1, e2 ) formate con un elemento e1 S1 ed un
elemento e2 S2 . In simboli si scrive
S = S1 S2

Nel caso in cui l'insieme S1 contenga un numero finito n di elementi e che l'insieme S2 ne contenga
un numero finito m (come nel caso dell'esempio precedente in cui n = 2 e m = 6 ) allora l'insieme
S = S1 S2 conterrà un numero di elementi pari a n m .

Il concetto di prodotto cartesiano di insiemi si applica anche al caso in cui i due insiemi S1 ed S2
contengono una infinità non numerabile di elementi. Ad esempio, se S1 è l'insieme di tutti i numeri
reali positivi e così pure l'insieme S2 , allora il loro prodotto cartesiano è l'insieme di tutte le coppie
di numeri reali positivi (punti appartenenti al primo quadrante di un sistema di assi ortogonali).
Osserviamo che, se A è un evento dell'esperimento E1 , cioè A S1 , il corrispondente evento nello
spazio dell'esperimento composto E è dato da
A S2
infatti tale evento si presenta in E tutte e sole le volte che A si presenta in E1 .

Ad esempio, sia E1 l'esperimento del lancio di una moneta, E2 l'esperimento del lancio di un dado
e A l'evento T in E1 , allora

A S2 = T f1, f 2 , f3 , f 4 , f5 , f 6 = (T , f1 ) , (T , f 2 ) , (T , f 3 ) , (T , f 4 ) , (T , f 5 ) , (T , f 6 )

Pertanto, tutte le volte che si presenta l'evento T in E1 si presenta anche l'evento A S2 in E, dal
momento che sicuramente si presenta uno dei suoi eventi elementari. D'altro canto, poiché in S non
vi sono altri eventi elementari con l'elemento T al primo posto al di fuori di quelli contenuti in A S2
, queste sono anche le sole volte che l'evento A S2 si presenta. Se ne deduce che l'evento A S2 ,
cioè l'evento "testa come primo risultato" è l'equivalente in E dell'evento T in E1 .
Ovviamente, si può fare un discorso analogo per un evento B S2 . Pertanto, l'evento ad esso
equivalente in E (nel senso di evento che si verifica in E tutte e sole le volte che B si verifica in E2 )
è dato da
S1 B

È facile verificare che, se l'operazione di prodotto cartesiano viene applicata a due sottoinsiemi A e
B, appartenenti rispettivamente agli spazi S1 e S2 , allora il suo risultato sarà un sottoinsieme dello
spazio S = S1 S2 . Pertanto tutti gli insiemi del tipo
C=A B
con A S1 e B S2 sono eventi dell'esperimento E.

Ad esempio, sia A = T l'evento "Testa" nel lancio della moneta, e B = f 2 , f 4 , f 6 l'evento "faccia
pari" nel lancio del dado. Il prodotto cartesiano di questi due insiemi è l'insieme
C = A B = ( T , f 2 ) , (T , f 4 ) , (T , f 6 )

e si può facilmente verificare che tale insieme appartiene allo spazio S. Esso è, pertanto, un evento
che può verificarsi nell'esecuzione dell'esperimento composto E.
È opportuno notare che, dati due insiemi A S1 e B S2 , non ha alcun senso applicare a questi
due insiemi le comuni operazioni di intersezione o unione di insiemi, in quanto tali operazioni sono
definite relativamente ad insiemi appartenenti ad uno stesso spazio.

Ha senso, invece, applicare tali operazioni ad insiemi del tipo A S2 e S1 B , in quanto tali insiemi
appartengono entrambi all'insieme S = S1 S2 . In particolare, si osservi che

(A S2 ) ( S1 B) = A B

cioè l'intersezione tra gli insiemi ( A S2 ) e ( S1 B ) dà come risultato lo stesso insieme che si ottiene
effettuando il prodotto cartesiano tra A e B.

Verifichiamo, in un caso particolare, questo risultato generale, facendo riferimento al seguente


esempio.

Sia A = T l'evento "Testa" in S1, e sia B = f 2 , f 4 , f 6 l'evento "faccia pari" in S2 . Risulta

(A S2 ) ( S1 B ) = ( T , f 2 ) , (T , f 4 ) , (T , f 6 ) = A B
come mostrato nella seguente figura

A B T, f2 T, f4 T, f6 C,f2 C,f4 C,f6 S1 B

T, f1 T, f3 T, f5 C,f1 C,f3 C,f5

A S2 (2)
PROBABILIZZAZIONE DI UN ESPERIMENTO COMPOSTO

Come è noto, affinché un esperimento E sia completamente definito, occorre che sia nota la
probabilità attinente ad ogni suo evento. Ciò ovviamente vale anche nel caso in cui E sia un
esperimento composto.

Nel caso di un esperimento composto E il cui spazio S sia, ad esempio, il prodotto cartesiano degli
spazi S1 ed S2 di due esperimenti E1 ed E2 , ha senso chiedersi in quale misura le probabilizzazioni
P1 e P2 di tali spazi determinino la probabilizzazione dello spazio S = S1 S2 .

A tale riguardo si osservi che, in generale, la conoscenza di P1 e P2 non è sufficiente, dal punto di
vista matematico, a determinare in modo univoco la probabilizzazione dello spazio S
dell'esperimento composto.

Tuttavia, è possibile dimostrare il seguente risultato.

Sia A un evento appartenente allo spazio S1 caratterizzato da una probabilità P1 ( A ) e sia B un evento
appartenente allo spazio S2 caratterizzato da una probabilità P2 ( B ) .
Se, comunque si scelgano gli eventi A S1 e B S2 , risulta

Pr A S2 = P1 ( A) Pr S1 B = P2 ( B)
e
Pr (A S2 ) ( S1 B ) = Pr A B = P1 ( A) P2 ( B )

se, cioè, gli eventi ( A S2 ) e ( S1 B ) hanno in S = S1 S2 la stessa probabilità che gli eventi A e B
hanno, rispettivamente, in S1 ed S2 e sono stocasticamente indipendenti, allora la probabilità di un
qualunque evento in S è univocamente determinata dalle probabilizzazioni P1 e P2 .

In questo caso, si dice che gli esperimenti E1 ed E2 che compongono E sono indipendenti.

Analoghe considerazioni si applicano al caso di esperimenti composti da più di due esperimenti


componenti.
In generale, lo spazio S di un esperimento composto da n esperimenti E1, E2 ,..., En aventi spazi,
rispettivamente, S1, S2 ,..., S n è definito dal prodotto cartesiano

S1 S2 Sn

Ciascun evento elementare dello spazio S sarà, pertanto, costituito da una n-upla ordinata
(e 1 , e 2 ,..., e n ) con e 1 S1, e 2 S 2 ,..., e n S n .

Gli eventi di S si possono ottenere come prodotto cartesiano di eventi come

A1 A2 An
con Ai Si i = 1,..., n .

Si dirà che gli esperimenti E1, E2 ,..., En sono indipendenti se, comunque si scelga Ai Si , risulta

Pr A1 A2 An = P1 ( A1 ) P2 ( A2 ) Pn ( An )
Un caso particolarmente importante, sia dal punto di vista teorico che applicativo, è quello in cui gli
n esperimenti componenti (con n che può tendere all'infinito) siano tutti uguali tra loro, sia in termini
di spazi Si che di probabilizzazione di tali spazi.

In tal caso l'esperimento composto può anche essere interpretato come il risultato della ripetizione
di uno stesso esperimento.

Nel seguito si assumerà sempre che lo spazio di probabilità di un esperimento composto ottenuto
dalla ripetizione di uno stesso esperimento, soddisfi la regola del prodotto. Ovvero si assumerà
sempre che gli esperimenti componenti siano tra loro indipendenti.

Tuttavia, ad evitare possibili fraintendimenti concettuali, è opportuno svolgere un breve


approfondimento di tale problematica.

Si è già in precedenza osservato che la conoscenza della probabilizzazione degli esperimenti che
formano un esperimento composto in generale non è sufficiente a definire in maniera univoca la
probabilizzazione dell'esperimento composto.
Probabilizzare un esperimento composto mediante la regola del prodotto è senz'altro legittimo dal
punto di vista formale, in quanto tale scelta garantisce l'osservanza degli assiomi della TdP e degli
altri vincoli precedentemente evidenziati. Tuttavia è opportuno sottolineare che non esiste alcuna
necessità di tipo logico-matematico per cui dalla ripetizione di uno stesso esperimento ne discenda
la regola del prodotto.

In altri termini, il modello degli esperimenti ripetuti indipendenti è sicuramente coerente con le regole
della TdP, ma non è l'unico modello coerente possibile.

Per approfondire questo importante aspetto concettuale, è utile svolgere alcune considerazioni
riguardanti il rapporto tra modelli teorici e mondo reale, problematica che non è certo esclusiva della
TdP.

Si consideri, ad esempio, il " gioco del lotto". Tale gioco può essere visto come la ripetizione (a
cadenza fissata) di un identico esperimento (consistente nell'estrazione senza rimessa di 5 numeri
da un'urna che contiene i primi 90 numeri interi).

Il modello teorico degli esperimenti indipendenti può essere un ragionevole candidato nello stabilire
una strategia di comportamento nel "gioco del lotto".
Infatti, l'osservazione ripetuta di una lunga serie di estrazioni (cioè l'esperienza) mostra che il
modello teorico degli esperimenti indipendenti interpreta in maniera adeguata questo esperimento
reale nel contesto di una interpretazione frequentistica del concetto astratto di "probabilità".

In particolare, la proprietà di indipendenza stocastica, che può essere verificata sperimentalmente,


si traduce nella proprietà di assenza di memoria del gioco.

Una volta stabilita, attraverso questa procedura induttiva, l'adeguatezza del modello teorico degli
esperimenti indipendenti, la strategia di gioco potrà utilmente fare tesoro delle conseguenze
implicite in tale modello che suggeriscono non esservi alcun vantaggio nel rincorrere i "numeri
ritardatari".

Com'è noto, tuttavia, esiste un elevato numero di giocatori che è tenacemente convinto che se un
certo numero "non viene estratto", poniamo, da 100 settimane, allora "aumenta la probabilità" che
tale numero venga estratto nella successiva estrazione. Questo "ragionamento" implica (anche se
in maniera non consapevole da parte del giocatore) l'ipotesi che il gioco "abbia una memoria", ossia
tale giocatore nega l'indipendenza stocastica degli esperimenti e, quindi, si regola di conseguenza.
L'aspetto concettualmente importante che con questo esempio si vuole evidenziare è che la "teoria"
che il gioco abbia una memoria non può essere confutata sulla base di motivazioni logico-
matematiche, ma solo sulla base del fatto che essa manca di supporto sperimentale.

Tornando al discorso generale, un gran numero di osservazioni empiriche ha mostrato che quando
non c'è alcun legame di carattere fisico tra i risultati di due o, in generale, n esperimenti (come nel
caso del gioco del lotto), allora il modello teorico degli esperimenti indipendenti fornisce dei risultati
confermati dalle osservazioni sperimentali.

L'aspetto concettuale che va sempre tenuto presente, tuttavia, è che i due "piani" della teoria da un
lato e dei fenomeni reali dall'altro non vanno confusi, ed in particolare che scelte fondate
sull'esperienza non vanno confuse con deduzioni logico-matematiche.

Ad esempio, sia E1 l'esperimento consistente nel "lancio di una moneta" e sia E2 l'esperimento
consistente nel "lancio di un dado". L'ipotesi empiricamente verificabile che "non esiste alcun motivo
per cui il risultato di uno dei due esperimenti possa influenzare il risultato dell'altro" non rappresenta
una condizione di tipo logico-matematico per cui questi due esperimenti siano indipendenti.
Semplicemente, sulla base dell'esperienza pregressa maturata nei casi in cui tali condizioni sono
verificate, possiamo dirci pressoché sicuri che il modello teorico degli esperimenti indipendenti
fornirà previsioni attendibili anche su tale tipo di esperimento composto.
Esempio n. 1

Sia E1 l'esperimento consistente nel "lancio di una moneta", S1 = T , C il suo spazio campionario, e
P1 (T ) = 0.45 e P1 (C ) = 0.55

Sia, poi, E2 l'esperimento consistente nel "lancio di un dado", S2 = f1, f 2 , f3 , f 4 , f5 , f 6 , il suo spazio
campionario, e
P2 ( fi ) = 1/ 6 i = 1,...,6

la probabilizzazione di tale spazio. In particolare sia B l'evento "faccia pari", per il III assioma della
TdP si ha
P2 ( B) = 1/ 6 + 1/ 6 + 1/ 6 = 1/ 2

Se si eseguono entrambi gli esperimenti, qual è la probabilità di osservare l'evento A = "Testa " in E1
e l'evento B = " Faccia Pari " in E2 ?
Il problema consiste nel determinare la probabilità dell'evento

C = ( A S2 ) ( S1 B ) = A B = (T , f 2 ) , (T , f 4 ) , (T , f 6 )

appartenente allo spazio S = S1 S2 dell'esperimento composto.

Dal punto di vista della Teoria della Probabilità, la conoscenza della probabilizzazione degli
esperimenti componenti non determina in maniera univoca la probabilità di questo evento.

Se, tuttavia, supponiamo che, per il modo in cui gli esperimenti vengono eseguiti, non esiste alcuna
possibilità che i risultati dell'uno possano influenzare i risultati dell'altro, allora siamo in presenza
delle condizioni in cui l'esperienza ha mostrato che può essere applicato il modello degli esperimenti
indipendenti.

Pertanto, all'evento intersezione C = ( A S2 ) ( S1 B ) = A B è possibile applicare la regola del


prodotto, per cui si ha
Pr ( A B ) = P1 ( A ) P2 ( B ) = 0.45 0.5 = 0.225
VARIABILI ALEATORIE DEFINITE SU ESPERIMENTI COMPOSTI

Sia E un esperimento composto definito dai due esperimenti E1 ed E2 . Indichiamo con e(1) il generico
evento elementare di E1 e con e(2) il generico evento elementare di E2 . Un evento elementare
dell'esperimento E è definito dalla coppia ordinata (e(1) , e(2) ) con e(1) S1 ed e(2) S2 . Definiamo sullo
spazio S = S1 S2 due variabili aleatorie X e Y nel modo seguente
X (e(1) , e(2) ) = X (e(1) ) Y (e(1) , e(2) ) = Y (e(2) )

cioè il valore che la variabile aleatoria X assume in corrispondenza di un evento elementare (e(1) , e(2) )
dell'esperimento E dipende solo dal risultato e(1) che si è verificato in E1 , mentre il valore della
variabile aleatoria Y dipende solo dal risultato e(2) che si è verificato in E2 .

Dimostriamo che, sotto l'ipotesi di indipendenza degli esperimenti E1 ed E2 , le variabili aleatorie X


e Y sono a loro volta indipendenti.
Per dimostrare l'assunto si deve far vedere che, sotto l'ipotesi di indipendenza degli esperimenti E1
ed E2 , risulta
Pr ( X x) (Y y ) = Pr ( X x) Pr (Y y )
per ogni x, y (− , + ) .

Innanzitutto osserviamo che, dal momento che per ipotesi X (e(1) , e(2) ) = X (e(1) ) , l'evento X x
corrisponde all'insieme Ax S1 costituito da tutti e soli gli eventi elementari e(1) in corrispondenza dei
quali X (e(1) ) x . Sullo spazio S = S1 S2 l'insieme degli eventi elementari per i quali X (e(1) , e(2) ) x
sarà, pertanto, individuato dall'insieme Ax S2 .

Ragionando in maniera analoga per la variabile aleatoria Y, si perviene alla conclusione che, sullo
spazio S = S1 S2 l'insieme degli eventi elementari per i quali Y (e(1) , e(2) ) y sarà, individuato
dall'insieme S1 By , avendo indicato con B y S2 l'insieme costituito da tutti e soli gli eventi
elementari e(2) in corrispondenza dei quali Y (e(2) ) y .
In altri termini, sullo spazio S dell'esperimento composto, l'evento equivalente a X x è
rappresentato dall'insieme Ax S2 , mentre l'evento equivalente a Y y è rappresentato
dall'insieme S1 By .

Sotto l'ipotesi di indipendenza degli esperimenti E1 ed E2 ne consegue che gli eventi Ax S2 e S1 By


devono avere in S la stessa probabilità che Ax e B y hanno nei rispettivi spazi S1 ed S2 e, inoltre,
Pr ( Ax S2 ) ( S1 B y ) = Pr Ax S 2 Pr S1 B y
da cui segue
Pr ( X x) (Y y ) = Pr ( Ax S 2 ) ( S1 B y )
= Pr Ax S2 Pr S1 B y
= Pr ( X x) Pr (Y y)

e l'indipendenza di delle variabili aleatorie X e Y risulta dimostrata.


Esempio:

Sia E l'esperimento composto generato dall'esecuzione dei due esperimenti E1 ed E2 ciascuno


consistente nel "lancio di un dado" e sia, pertanto, S1 = S2 = f1, f 2 , f3 , f 4 , f5 , f 6 . Indichiamo con
( fi , f j ) la coppia ordinata che rappresenta il generico evento elementare dello spazio S = S1 S2
dell'esperimento composto, in cui fi (i = 1,...,6) rappresenta il risultato che si osserva in E1 e f j
( j = 1,...,6) rappresenta il risultato che si osserva in E2 .

Definiamo su S le due seguenti variabili aleatorie X e Y

X ( fi , f j ) = i Y ( fi , f j ) = j (i, j = 1,...,6)

Poiché il valore assunto dalla variabile aleatoria X dipende solo dal risultato che si osserva sul primo
dado ed il valore assunto dalla variabile aleatoria Y dipende solo dal risultato che si osserva sul
secondo dado, l'ipotesi di indipendenza degli esperimenti implica l'indipendenza delle variabili
aleatorie.

Esempio:

Sia E l'esperimento sopra definito e siano X e Y le due seguenti variabili aleatorie

X ( fi , f j ) = i Y ( fi , f j ) = i + j (i, j = 1,...,6)

cioè, nell'esecuzione dell'esperimento composto, il valore assunto dalla variabile aleatoria X


corrisponde al risultato che si osserva sul primo dado, mentre il valore assunto dalla variabile
aleatoria Y corrisponde alla somma dei risultati che si osservano sul primo e sul secondo dado.

Poiché, in questo caso, il valore assunto dalla variabile aleatoria Y dipende dai risultati di entrambi
gli esperimenti componenti l'esperimento composto, ne consegue che anche nell'ipotesi di
indipendenza degli esperimenti le variabili aleatorie X e Y non sono tra loro indipendenti.

Esempio:

Un ambiente viene illuminato da due lampade che rimangono ininterrottamente accese.

Sia X1 la variabile aleatoria "durata di vita" della lampada 1, e sia X 2 la variabile aleatoria "durata
di vita" della lampada 2. Ovviamente tali variabili aleatorie possono assumere valori nell'intervallo
[0, ) .

Sia Pr X1 x1 = 1 − exp(− x1 /10000) la funzione di distribuzione della "durata di vita" della prima
lampada e sia Pr X 2 x2 = 1 − exp(− x2 /15000) la funzione di distribuzione della "durata di vita" della
seconda lampada.

Supponendo che le due lampade inizino a funzionare contemporaneamente, qual è la probabilità


che entrambe si guastino prima di aver compiuto 500 ore di funzionamento?

Questa situazione può essere interpretata come l'esecuzione di un esperimento E composto da due
esperimenti E1 ed E2 , ciascuno consistente nell'osservazione della durata di vita di una lampada,
caratterizzati dagli spazi S1 = [0, ) e S2 = [0, ) sui quali sono definite la variabili aleatorie X1 e X 2 .
Lo spazio dell'esperimento composto S = S1 S2 è costituito dall'insieme delle coppie ordinate ( x1, x2 )
, che possiamo visualizzare come i punti che formano il primo quadrante di un sistema di assi
ortogonali.

In particolare, siamo interessati a determinare la probabilità del verificarsi dell'evento che la coppia
di durate di vita delle lampade appartenga all'insieme che possiamo visualizzare sul grafico
cartesiano come il quadrato a doppio tratteggio di lato 500.

X2

{X1 500} S2
S1 {X2 500}
{ X1 500} {X2 500}

500

0
0 500 X1
(3)
In termini formali, la probabilità associata a tale insieme, definito sullo spazio dell'esperimento
composto S = S1 S2 , può essere formulata come segue

Pr ( X 1 500) S2 S1 ( X 2 500) = Pr ( X 1 500) ( X 2 500)

In generale, tuttavia, la conoscenza della probabilità del verificarsi degli eventi ( X1 500) e
( X 2 500) nei rispettivi spazi di appartenenza non consente di calcolare tale probabilità.

Se, però, sulla base di considerazioni di tipo tecnologico si può ipotizzare che non esista alcun
legame di tipo "strutturale" tra il funzionamento delle due lampade, allora ciò autorizza a considerare
gli esperimenti E1 ed E2 tra loro indipendenti, da cui consegue che

Pr ( X 1 500) ( X 2 500) = Pr ( X 1 500) Pr ( X 2 500)


= 1 − exp(−500 /10000) 1 − exp(−500 /15000) ■
= 0.0488 0.0328 = 0.0016
LA LEGGE DEI GRANDI NUMERI

Sia X1, X 2 ,..., X n ,... una successione di variabili aleatorie, ossia una corrispondenza che ad ogni n
appartenente all'insieme dei numeri interi associa una variabile aleatoria X n , che ha per campo di
esistenza un certo spazio S.

Il concetto di successione di variabili aleatorie si collega al concetto di successione di numeri nel


seguente modo. Sia e il generico evento elementare dello spazio S, allora per ogni e S , ossia in
corrispondenza di ogni risultato dell'esperimento E di cui S è lo spazio,
X1 (e), X 2 (e),..., X n (e),...
costituisce una successione di numeri. Pertanto, una successione di variabili aleatorie si può anche
interpretare come una famiglia di successioni di numeri, in cui ciascun membro è relativo ad un
singolo evento elementare.
Una maniera alternativa di introdurre il concetto di successione di variabili aleatorie consiste nel far
riferimento ad un esperimento composto E, costituito da un numero infinito di esperimenti
componenti
E1, E2 ,..., En ,...

su ciascuno dei quali è definita una variabile aleatoria X i . Lo spazio S dell'esperimento E è,


pertanto, uno spazio ad infinite dimensioni, ed un evento elementare di E è un punto di coordinate
(e(1) , e(2) ,..., e( n ) ,...) con e(i ) Si .

Definiamo su S le variabili aleatorie X i nel modo seguente

X i (e(1) , e(2) ,..., e(i ) ,...) = X i (e(i ) ) X i (e(i ) )

cioè, il valore assunto dalla variabile aleatoria X i su S dipende solo dal risultato dell'i-esimo
esperimento e coincide con il valore assunto da X i in corrispondenza di tale risultato.

Risulta in questo modo definita la successione di variabili aleatorie X1, X 2 ,..., X n ,... sullo spazio S.
Come è noto, data una successione di numeri xn , si dice che tale successione tende al limite x se,
scelto un numero 0 comunque piccolo, è sempre possibile trovare un numero n0 tale che, per
ogni n n0 , risulti | xn − x | . In simboli si scrive xn → x oppure lim xn = x .
n→

Esempio di successione di numeri


n
1
xn = 1 +
n

N Xn
1 2.00000
2 2.25000
3 2.37037
4 2.44141
5 2.48832
10 2.59374
50 2.69159
100 2.70481
500 2.71557
1000 2.71692
n
1
lim xn = lim 1 + = 2.71827 e Numero di Eulero (o di Nepero)
n→ n→ n

Così come nel caso di successioni di numeri, è utile stabilire dei criteri di convergenza anche nel
caso di successioni di variabili aleatorie.

Poiché, come visto, una successione di variabili aleatorie, per ogni evento elementare dello spazio
S, può essere vista come una successione di numeri, si potrebbe pensare di estendere la definizione
data in questo ultimo caso, dicendo che la successione di variabili aleatorie X n converge al valore
x, quando per ogni evento elementare e S accade che

lim X n (e) = x e S
n→

In questo caso si dice che la successione di variabili aleatorie X n converge ovunque.

Questa definizione di convergenza, tuttavia, è troppo restrittiva. Può, infatti, accadere che la
successione X n non converga per ogni e S , ma che l'insieme degli eventi elementari per i quali
essa non converge sia in qualche modo trascurabile.
In particolare, si dice che la successione di variabili aleatorie X n converge quasi ovunque (o
converge con probabilità 1) se l'insieme dei risultati e S per i quali

lim X n (e) = x
n→

ha probabilità 1. In simboli si scrive

Pr lim X n (e) = x = 1
n→

In altri termini, quando si dice che la successione di variabili aleatorie X n converge al numero x con
probabilità 1, si intende dire che può anche accadere che essa non converga in corrispondenza di
qualche risultato sperimentale ma che l'insieme di tali casi è un insieme a probabilità nulla,
intendendo con ciò che tali casi costituiscono una eccezione in qualche modo trascurabile.

Si supponga, ora, che le variabili aleatorie X i con i = 1, 2,..., n,... , definite come in precedenza,
abbiano tutte la medesima funzione di distribuzione e, di conseguenza abbiano tutte il medesimo
valore atteso E( X i ) = .
Per ogni n fissato ma generico, definiamo sullo spazio S la variabile aleatoria X n definita come
segue
X + X2 + + Xn
Xn = 1
n

Ciò implica che il valore assunto dalla variabile aleatoria X n sullo spazio S dipende solo dal risultato
dei primi n esperimenti componenti. In tal modo, al variare di n, risulta definita anche la successione
Xn.

In particolare, ricordando le proprietà del valore atteso di una somma di variabili aleatorie, per ogni
fissato intero n, si ha

X1 + X 2 + + Xn 1
E( Xn ) = E = E X1 + X 2 + + Xn
n n
1 n n
= i =1
E( X i ) = =
n n

Cioè, per ogni n, il valore atteso della variabile aleatoria X n coincide con il valore atteso di ciascuna
variabile aleatoria X i .
In effetti, questa informazione, anche se utile, non è di molto aiuto nel caso in cui, fissato un valore
di n, si fosse interessati a fare una previsione su quale valore la variabile aleatoria X n assumerà
nella singola esecuzione dell'esperimento E.

Infatti, ricordando che il valore atteso è una media pesata dei valori che la variabile aleatoria può
assumere e che esso può essere interpretato come il "baricentro" delle masse di probabilità, si
intuisce facilmente che un identico valore del baricentro si può ottenere sia nel caso di masse di
probabilità simmetriche molto disperse che con masse di probabilità simmetriche molto concentrate.

Ciò premesso, enunciamo il seguente teorema generalmente noto come versione forte della Legge
dei Grandi Numeri.

Teorema: Sia X1, X 2 ,..., X n ,... una successione di variabili aleatorie indipendenti e identicamente
distribuite, e sia E( X i ) = . Sia, poi, X n la successione definita da

X1 + X 2 + + Xn
Xn =
n

Risulta
Pr lim X n = =1
n→

ovvero, la successione X n tende a con probabilità 1.



La "legge dei grandi numeri" ci dice, pertanto, che in corrispondenza di quasi tutti i risultati
sperimentali dell'esperimento E, fissata una quantità 0 comunque piccola, è sempre possibile
individuare un numero n0 tale che, per ogni n n0 , il valore assunto da X n disti da meno di .

La legge dei grandi numeri è il risultato di un teorema e, come tale, essa viene ricavata solo in base
ad un ragionamento di carattere deduttivo, a partire dagli assiomi della teoria della probabilità.
Tuttavia, tale legge svolge un ruolo fondamentale anche nel contesto di una disciplina a carattere
prettamente induttivo quale è la Statistica.

Può risultare utile, pertanto, trarre spunto da tale teorema per anticipare alcune considerazioni sui
legami tra queste due discipline.

Dal punto di vista della Teoria della Probabilità, definire una variabile aleatoria X vuol dire assegnare
la sua funzione di distribuzione e, quindi, la determinazione del suo valore atteso è un problema del
tutto banale.
Tuttavia, in una situazione reale in cui la variabile aleatoria X è associata ad un fenomeno
osservabile di tipo fisico, chimico, demografico, sociale etc., la sua distribuzione FX ( x) è,
generalmente, incognita e, pertanto, risulta incognito anche il suo valore atteso .

Ovviamente, l'osservazione del valore assunto dalla variabile aleatoria X in una singola esecuzione
dell'esperimento è di poco aiuto per farsi un'idea del valore di , in quanto il valore assunto da X in
corrispondenza di quel particolare risultato sperimentale potrebbe essere molto diverso da stesso.

Se, però, la natura si comportasse come il mondo astratto della teoria della probabilità, allora se si
ripetesse un gran numero di volte l'esperimento facendo in modo che tutte le ripetizioni fossero tra
loro indipendenti, se cioè i risultati osservati in ogni singolo esperimento non fossero in alcun modo
influenzati dai risultati osservati negli altri esperimenti (campionamento casuale), allora, sulla scorta
della legge dei grandi numeri, si potrebbe essere quasi certi che il valore assunto dalla media
aritmetica delle osservazioni sia prossimo a .

È in effetti proprio sulla base di un ragionamento di questo tipo che in Statistica viene "stimata" la
quantità incognita.
Ovviamente, questo tipo di ragionamento può basarsi solo su di una procedura a carattere induttivo.
In effetti, è stato sperimentalmente osservato che, nel caso di campionamento casuale, si osserva
una stabilità delle medie aritmetiche, cioè nella realtà tutto procede come se fossero validi i teoremi
della teoria della probabilità.

Alla legge dei grandi numeri può essere anche data una formulazione diversa, che risulta utile a
capire in che termini si può stabilire un nesso tra la "probabilità del verificarsi di un evento" e la
"frequenza di accadimento di un evento" in un esperimento reale.

Sia E un esperimento e sia S il suo spazio. Sia poi A un evento definito su S e sia Pr{ A} = p la sua
probabilità. Detto e il generico evento elementare si S, definiamo su S la seguente variabile aleatoria
X
1 se e A
X =
0 se e A

È facile verificare che E( X ) = 1 p + 0 (1 − p) = p


Supponiamo, ora, di considerare l'esperimento composto ottenuto dalla ripetizione dell'esperimento
E un numero comunque elevato di volte, assumendo l'indipendenza degli esperimenti componenti
e, quindi, anche delle variabili aleatorie X su di essi definite.
Sullo spazio dell'esperimento composto è possibile definire la successione di variabili aleatorie

X i (e(1) , e(2) ,..., e(i ) ,...) = X i (e(i ) ) X i (e(i ) )

Siamo, pertanto, nelle condizioni di applicazione della legge dei grandi numeri, essendo le variabili
aleatorie X i indipendenti ed identicamente distribuite con E ( X i ) = p .

Definiamo, come in precedenza


X1 + X 2 + + X n
Xn =
n
ed osserviamo che il valore assunto da X n , per un fissato n, coincide con il rapporto tra il numero
di volte che si presenta l'evento A nelle n ripetizioni dell'esperimento (infatti, la generica X i vale 1
se A si presenta mentre vale 0 se A non si presenta) ed il numero di volte che l'esperimento viene
ripetuto. Tale rapporto viene generalmente chiamato frequenza relativa di accadimento dell'evento
A.
In base alla legge dei grandi numeri, pertanto, risulta

Pr lim X n = p = 1
n→
Questo risultato può essere letto come segue: in corrispondenza di quasi tutti gli eventi elementari
dell'esperimento composto, al crescere di n, la frequenza relativa di accadimento dell'evento A tende
alla sua probabilità p.

Come si può utilizzare questo risultato di tipo teorico nelle applicazioni? Sulla base di un
ragionamento analogo a quello fatto in precedenza, si può dire che, assumendo che la natura si
comporti come il mondo astratto della teoria della probabilità, allora se si ripete l'esperimento E un
gran numero di volte si può essere quasi certi che la frequenza relativa con cui si presenta l'evento
A è prossima al numero p che chiamiamo probabilità dell'evento A.

È, pertanto, possibile utilizzare la frequenza relativa calcolata come una stima della probabilità
incognita.

Valgono, ovviamente, a tale riguardo tutte le considerazioni già svolte in relazione alla differenza
concettuale tra procedure di tipo deduttivo e procedure di tipo induttivo.
Il criterio di convergenza di una successione di variabili aleatorie X n al numero x con probabilità 1,
non è, tuttavia, l'unico criterio di convergenza possibile e, in effetti, si possono introdurre anche altri
criteri generalmente meno restrittivi di questo.
In particolare, fissato un valore 0 comunque piccolo, si dice che la successione di variabili
aleatorie X n converge in probabilità al valore x, se la probabilità che X n assuma un valore che disti
da x meno di tende ad 1, al tendere di n all'infinito. In simboli
lim Pr | X n − x | =1
n→

Questo concetto si può anche esprimere nel seguente modo. Data la successione di variabili
aleatorie X n , per ogni fissato 0 , è possibile costruire la successione di numeri
Pn ( ) = Pr | X n − x |

Se accade che, per ogni fissato 0,


lim Pn ( ) = 1 0
n→

allora si dice che la successione di variabili aleatorie X n converge in probabilità ad x.

La convergenza in probabilità è una proprietà più debole della proprietà di convergenza con
probabilità 1, nel senso che se una successione di variabili aleatorie X n converge con probabilità 1
allora converge anche in probabilità, mentre non è necessariamente vero il viceversa.
La differenza sostanziale tra i due criteri può essere illustrata nel modo seguente. Sia X n una
successione di variabili aleatorie definita sullo spazio S. La convergenza con probabilità 1 assicura
che, fissato un numero 0 comunque piccolo, è sempre possibile trovare un numero n0 tale che,
per ogni n n0 , il valore assunto da X n in corrispondenza di quasi tutti i risultati sperimentali, dista
da meno di . Quindi, se

| xn1 − x | allora anche | xn2 − x | se n2 n1 n0 .

La convergenza in probabilità, invece, assicura solo che la probabilità che X n disti da x meno di
è elevata. Pertanto, il fatto che per n1 n0

| xn1 − x | non implica che | xn2 − x | se n2 n1 n0 .

Sia, ora, X n una successione di variabili aleatorie definita su uno spazio S. È intuitivamente evidente
che le due quantità

E( Xn ) = n e Var ( X n ) = 2
n
definiscono due successioni di numeri.

È possibile dimostrare che, condizione sufficiente affinché la successione X n converga in probabilità


al valore x, è che risulti

lim E ( X n ) = x lim Var ( X n ) = 0


n→ n→

Questo risultato, anche se costituisce solo una condizione sufficiente, è particolarmente utile , in
quanto consente di stabilire la convergenza in probabilità della successione X n osservando solo le
proprietà asintotiche del valore atteso e della varianza di X n .

I risultati asintotici sin qui illustrati sono basati sull'ipotesi di indipendenza ed uguale distribuzione
delle variabili aleatorie X i . Essi, tuttavia, non richiedono che tali variabili abbiano una varianza finita.

2
Nell'ipotesi che la varianza delle variabili aleatorie X i sia finita e pari a , sulla base
dell'indipendenza delle X i , risulta
( Xi )
n n
X Var 2
Var ( X n ) = Var i =1 i
= i =1
2
=
n n n

In questo caso la convergenza in probabilità di X n a può essere dimostrata molto facilmente


ricorrendo alla disuguaglianza di Chebyshev

Var ( X n ) 2
Pr | X n − x | 1− 2
=1− 2
n

e, poiché per n → il termine al secondo membro tende ad 1, così sarà pure per la probabilità.

TEOREMA DEL LIMITE CENTRALE

Data una successione di variabili aleatorie X n e una variabile aleatoria X , dire che X n tende ad X
può assumere significati diversi.
In particolare, si possono studiare le condizioni sotto le quali X n converge in probabilità ad X , come
nel caso già illustrato in cui X degenera in una costante. Tuttavia, è spesso utile fare riferimento ad
un criterio di convergenza che guarda non al valore assunto dalle variabili aleatorie X n e X , ma alle
loro distribuzioni.

Definizione: Sia X una variabile aleatoria con funzione di distribuzione F ( ) e sia X n una
successione di variabili aleatorie con funzione di distribuzione Fn ( ) . Si dice che la successione X n
converge in distribuzione a X se, per ogni punto di continuità della funzione F ( ) , risulta

lim Fn ( x) = F ( x)
n→

La convergenza in distribuzione è una proprietà più debole della convergenza in probabilità. Più
precisamente, la convergenza in probabilità implica la convergenza in distribuzione, mentre il
viceversa non è sempre vero.
Ciò premesso, vale il seguente teorema:
Sia X1, X 2 ,..., X n ,... una successione di variabili aleatorie indipendenti e identicamente distribuite,
con E( X i ) = e Var( X i ) = 2 . Sia, poi, Z n la successione di variabili aleatorie definita da
Xn −
Zn =
/ n
Risulta
z
lim Pr Z n z = f (u )du
n→ −

in cui f (u ) è la funzione densità di probabilità Normale Standard, cioè


1
f (u ) = exp(−u 2 / 2) − u +
2
L'importanza di questo teorema è almeno duplice. Infatti, da un lato esso dà una giustificazione
teorica al fatto che molti fenomeni naturali siano descrivibili per mezzo di una variabile aleatoria di
tipo Normale. Dall'altro lato esso ci dice che la media campionaria delle osservazioni tratte da una
qualunque popolazione, purché con media e varianza finite, tende, al crescere della numerosità
campionaria n, ad essere distribuita come una Normale con valore atteso e varianza 2 / n .

Per meglio precisare la portata di questo teorema, si osservi che, nel caso di campionamento da
una popolazione di tipo Normale, la media campionaria delle osservazioni è esattamente (cioè per
ogni n) distribuita come una variabile aleatoria Normale con valore atteso pari a quello della
popolazione e varianza n volte più piccola.

Tuttavia, quando si campiona da una popolazione diversa dalla Normale, in generale, la


distribuzione della media campionaria non è nota per ogni n. Si sa soltanto che tale distribuzione ha
valore atteso pari a e varianza 2 / n , e che per la legge dei grandi numeri è possibile rendere
piccola quanto si vuole la distanza di di X n da facendo crescere n. Ciò che in genere non è noto
è in quale modo, cioè con quale legge, avviene questa convergenza.

Il teorema del limite centrale dà una risposta proprio a tale problema, in quanto assicura che in ogni
caso, cioè qualunque sia la distribuzione da cui si campiona, la media campionaria converge in
distribuzione ad una Normale.

Potrebbero piacerti anche