Sei sulla pagina 1di 47

CALCOLO DELLE PROBABILITÀ

Principio fondamentale: se un evento è composto da r sotto-eventi che hanno rispettivamente n1 , … , nr


esiti allora il numero complessivo di esiti è il prodotto dei vari esiti: (n1 )∙(n2) ∙ … ∙(nr )

Disposizioni: n oggetti distinti di cui ne scelgo r : le possibili scelte variano in base alla possibilità di
ripetizione di un oggetto. Avremo quindi:
- Disposizioni senza ripetizione: tolgo ogni volta 1 fino ad r :
( n ) ∙ ( n−1 ) ∙ …∙( n−r +1)
- Disposizioni con ripetizione: numero oggetti elevato al numero di scelte:
( n ) ∙ ( n ) ∙ … ∙ ( n )=nr

Permutazioni: in quanti modi posso ordinare n oggetti. Disposizioni senza ripetizione con n=r
( n ) ∙ ( n−1 ) ∙ …∙ 1=n!

Combinazioni: scelto r oggetti a partire da n oggetti senza ordine e senza possibile ripetizione:
Coefficiente binomiale:

(nr)= r ! ( n−r
n!
)!

(quanti ne voglio )
possibili scelte

n
Binomio di Newton : ( x+ y ) =∑ n x y
k=0 r
n
k n−k
()
Coefficiente multinomiale: permutazioni con n oggetti raggruppabili in r gruppi di elementi uguali fra loro

( )
n n!
=
n 1 , n2 , … nr n1 !n2 ! … nr !

Evento: proposizione verificabile come vera o falsa (se non posso verificarne la verità/falsità non è evento)
Spazio campionario S: insieme di tutti gli esiti di un esperimento. Ogni evento è sottoinsieme di S
Esempio: lancio un dado, “il punteggio è superiore a 3” ¿ E ⊆ S
S ≡ {1,2,3,4,5,6 } E= { 4,5,6 } ⟹ E⊆ S
Esempio 2: lancio due dadi, “la somma dei punteggi è uguale a 3” ¿ E ⊆ S
S ≡ {( 1,1 ) , ( 1,2 ) , ( 1,3 ) , (1,4 ) , ( 1,5 ) , ( 1,6 ) , ( 2,1 ) , ( 2,2 ) , … , ( 6,5 ) , ( 6,6 ) , } E= { ( 1,3 ) , ( 3,1 ) ,(2,2) }

Sottoinsiemi particolari:
1) Coincidono con un singolo evento elementare.
Esempio: lancio dadi, “somma degli eventi è pari a 12”¿ F F ≡ { ( 6,6 ) }|F|=1
2) Coincidono con l’intero spazio campionario ⟹ evento certo
Esempio: “somma degli eventi è al massimo 12”¿ F F ≡ S
3) Non contengono alcun punto campionario⟹ evento impossibile
Esempio: “somma degli eventi pari a 14”¿ F F ≡ ∅

ALGEBRA DEGLI EVENTI:


Sottoinsieme: B⊂ A ⟺ x i ∈ A ∀ x i : xi ∈ B
Insiemi equivalenti: B⊂ A e B ⊂ A ⟹ A ≡ B
Insieme complementare: A , A C =S ∩ A . Se x ∈ A ⟹ x ∉ A C
Intersezione: x ∈ A , x ∈ B ⟹ x ∈ A ∩ B. A ∩ B è falso quando almeno uno dei 2 è falso
Unione: A ∪B . A ∪ B è vero quando almeno uno dei 2 è vero
Eventi incompatibili: A ∩ B=∅
Proprietà degli operatori:
Commutativa, associativa, distributiva
1) ( A)= A
2) A ∩ S= A A ∪ S=S
3) A ∩∅=∅ A ∪∅= A
4) A=( A ∩ B)∪( A ∩B) = intersezione A e B + insieme A senza B
( A ∩ B ) ∪ ( A ∩ B ) =∅

Tavole di verità:
A B A∩B B A∩B A=( A ∩ B)∪( A ∩B)
V V V F F V
V F F V V V
F V F F F F
F F F V F F

Leggi di De Morgan:
A ∪B= A ∩ B A ∩B= A ∪B

Dati k eventi:
¿ i=1 ¿ k A i= A1 ∪ A 2 ∪ …∪ A k ¿ i=1 ¿ k Ai =A 1 ∩ A 2 ∩… ∩ A k
¿ i=1 ¿ k A i ¿=¿ i=1 ¿ k Ai ¿ i=1¿ k A i ¿=¿ i=1 ¿ k A i

Regole di calcolo:
1) P ( A )=1−P (A )
Dim:
A ∩ A=∅ A ∪ A=S
1=P ( S )=P ( A ∪ A )=P ( A ) + P ( A ) ⟹ P ( A ) =1−P( A)
2) P ( ∅ )=0
Dim:
S=∅
P ( ∅ )=P ( S )=1−P ( S ) =1−1=0
3) A ⊂B ⟹ P ( A ) ≤ P( B)
Dim:
B= A ∪ ( B ∩ A )
A ∩ ( B∩ A )=∅
P ( B )=P [ A ∪ ( B ∩ A ) ] =P ( A ) + P ( B ∩ A ) con P ( B ∩ A ) ≥ 0
⟹ P ( B ) ≥ P( A)
4) P ( A ∪ B ) =P ( A )+ P ( B )−P( A ∩ B)
Dim:
A=( A ∪B ) ∪ ( A ∩B )( A ∪ B ) ∩ ( A ∩ B )=∅
A ∪B=( A ∩ B ) ∪ B ( A ∩ B ) ∩ B=∅

{P ( A ) =P ( A ∪ B ) + P ( A ∩ B )
P ( A ∪ B )=P ( A ∩ B ) + P(B)
P ( A )−P ( A ∪ B )=P ( A ∪ B ) + P ( A ∩B )−P ( A ∩ B )−P( B)
⟹ P ( A ∪ B )=P ( A ) + P ( B )−P( A ∩ B)
5) P ( A ∪ B ∪C ) =P ( A )+ P ( B ) + P ( C )−P ( A ∩ B )−P ( A ∩C )−P ( B ∩C )+ P ( A ∩B ∩C )
Dim:
P ( A ∪ B ∪C ) =[ B∪ C=D]
¿ P ( A ∪ D ) =P ( A )+ P ( D ) −P ( A ∩ D )
¿ P ( A ) + P ( B ∪ C ) −P[ A ∩(B∪C )]
¿ P ( A ) + P ( B ) + P ( C ) −P ( B ∩C )−P[( A ∩ B)∪( A ∩ C)]
¿ P ( A ) + P ( B ) + P ( C ) −P ( B ∩C )−[ P ( A ∩ B )+ P ( A ∩C )−P[( A ∩ B)∩( A ∩C)]]
¿ P ( A ) + P ( B ) + P ( C ) −P ( A ∩ B )−P ( A ∩C )−P ( B ∩C ) + P( A ∩B ∩C )

6) k eventi
k k k k k k
P ( ¿ i=1 ¿ k Ai ) =∑ P( Ai )−∑ ∑ P ( Ai ∩ A j ) +∑ ∑ ∑ P ( Ai ∩ A j ∩ Al ) −…+ (−1 ) P ( ¿ i=1 ¿ k A i )
k

i=1 i=1 j=1 i=1 j=1 l=1

7) Disuguaglianza di Boole:
k
P ( ¿ i=1 ¿ k Ai ) ≤ ∑ P ( A i )
i=1
¿ i=1 ¿ k A i= A1 ∪ ( A2 ∩ A 1 ) ∪ ( A 3 ∩ A 1 ∩ A 2 ) ∪ …∪ ( A k ∩ A1 ∩ A 2 ∩ … ∩ A k−1)

8) Disuguaglianza di Bonferroni:
k
P ( ¿ i=1 ¿ k Ai ) ≥1−∑ P( Ai )
i=1

Dim:
k
P ( ¿ i=1 ¿ k Ai ) ≤ ∑ P ( A i )
i=1
k
1−P ( ¿ i=1 ¿ k A i) ≥ 1−∑ P ( Ai )
i=1
k
P ( ¿ i=1 ¿ k Ai ) ≥1−∑ P ( A i )
i=1
k
P ( ¿ i=1 ¿ k Ai ) ≥1−∑ P ( A i )
i=1

Esempio: 2 eventi A e B con A ∩ B≠ ∅ e P ( A )=0,2e P ( B )=0,35


Quali valori può assumere P ( A ∪ B ) ?
( A ∪B ) ⊃ A ⟹ P ( A ∪ B ) ≥ P ( A )=0,2
( A ∪B ) ⊃ B ⟹ P ( A ∪B ) ≥ P ( B ) =0,35
⟹ P ( A ∪ B ) ≥0,35
P ( A ∪ B ) ≤ P ( A ) + P ( B )=0,2+0,35
⟹ P ( A ∪ B ) ≤0,55

⟹ 0,35 ≤ P ( A ∪B ) ≤ 0,55

Assegnazione di una misura di probabilità:


Dato uno spazio campionario finito ⟹ S ≡ {e 1 , e2 , … en }
- Assegnare probabilità ad ogni evento elementare:
0 ≤ P ( { e i } ) ≤1 i=1 , … , n
n
con ∑ P ( { ei } ) =1
i=1
- Considerato un evento A si assegna una probabilità che è la somma delle probabilità assegnate agli
eventi elementari in esso contenuti
P ( A )= ∑ P ( {e i })
i : ei ∈ A
Esempio: lancio un dado truccato con il 6 che può uscire 3 volte in più degli altri numeri
A = "si ottiene punteggio pari a 4"
S ≡ {1,2,3,4,5,6 } A= { 4,5,6 }
1
P ( S )= perché |S|=|{ 1,2,3,4,5,6,6,6 }|=8
8
1 3
P ( { 1 } )=P ( { 2 } )=P ( {3 } )=P ( { 4 } )=P ( {5 }) = P ( { 6 } ) =
8 8
1 1 3 5
P ( A )=P ( { 4 } ) + P ( { 5 } ) + P ( { 6 }) = + + = =0,625
8 8 8 8

Modello probabilistico uniforme: gli eventi elementari sono equiprobabili


1
P ( { e i } ) = i=1 , … , n
n

In generale, ma non vale universalmente:


n ° esiti favorevoli ad A
P ( A )=
n °esiti totali

Esempio: urna con 14 palline, 5 gialle, 3 bianche, 6 nere


a) Si estraggono 7 palline senza re immissione, qual è la probabilità di ottenere la sequenza di colori:
N N B B G G G ? ( A)
n° esiti totali: ( n ) ( n−1 ) … ( n−r +1 )= (14 ) ( 14−1 ) … ( 14−7+1 ) =14 ∙13 ∙ 12∙ 11∙ 10 ∙ 9∙ 8
n° esiti favorevoli ad A : [ ( 6 ) ( 6−1 ) ]Nere [ ( 3 ) ( 3−1 ) ] Bianche [ ( 5 ) ( 5−1 ) ( 5−2 ) ]Gialle

P ( A )=
[ ( 6 ) ( 6−1 ) ][ ( 3 ) ( 3−1 ) ] [ ( 5 ) (5−1 ) (5−2 ) ]
14 ∙13 ∙ 12∙ 11∙ 10 ∙ 9∙ 8
b) Qual è la probabilità di ottenere in qualunque ordine 2 nere, 2 bianche e 3 gialle? (B)
n° esiti totali: ( n ) ( n−1 ) … ( n−r +1 )
n° esiti favorevoli ad B: [ ( 6 ) ( 6−1 ) ] Nere [ ( 3 ) ( 3−1 ) ] Bianche [ ( 5 ) ( 5−1 ) ( 5−2 ) ]Gialle

possibili ordinamenti: (2,2,3 ) 2 ! 2!3 !


7 = 7!

ordinamenti∗n ° esiti favorevoli


la probabilità totale diventa quindi: possibili
n ° esiti totali
7 ! [ ( 6 ) ( 6−1 ) ][ ( 3 ) ( 3−1 ) ] [ ( 5 )( 5−1 ) (5−2 ) ]
P ( B )=
2!2!3! 14 ∙13 ∙ 12∙ 11∙ 10 ∙9 ∙ 8
Probabilità condizionate:
Dati 2 eventi A e B la probabilità condizionata di A dato B è il rapporto:
P( A ∩ B)
P ( A|B )=
P (B )

N.B.: P ( A ∩ B )=P ( A|B ) P ( B ) Regola del prodotto


esempio: urna con 10 palline nere e 5 bianche. Estraggo, se nera la scarto, se bianca la re-immetto
aggiungendo 2 palline bianche.
Qual è la probabilità che la prima estratta sia nera:
N 1=prima estratta nera
10
P ( N 1 )= =0,6667
15
Qual è la probabilità che entrambe le estratte siano nere:
N 2= seconda estratta nera
10−1 2
P ( N 2 ∩ N 1) =P ( N 2| N 1 ) ∙ P ( N 1 )= ∙ =0,4286
15−1 3
Qual è la probabilità che la seconda estratta sia nera:
P ( N 2 )=?
N 2=(N 2 ∩ N 1)∪( N 2 ∩ N 1)
10
∗1
6 6 17
P ( N 2 )=P ( N 2 ∩ N 1 ) + P ( N 2 ∩ N 1 ) = + P ( N 2 ∨N 1 ) P ( N 1 ) = + =0,6246
14 14 3

Teorema delle probabilità totali: 2 eventi A e B


A=( A ∩B ) ∪ ( A ∩ B )
P ( A )=P ( A ∩B )+ P ( A ∩ B )=P ( A|B ) P ( B ) + P ( A|B ) P ( B )

P ( A )=P ( A|B ) P ( B ) + P ( A|B ) P ( B )

Teorema di Bayes:
P( A ∩ B) P ( A∨B ) P( B)
P ( B| A )= =
P ( A) P ( A|B ) P ( B )+ P ( A|B ) P ( B )

Odds radio: rapporto tra la probabilità di un evento e del suo complementare


P ( B| A ) P ( A|B ) P ( B )
= ∙
P ( B| A ) P ( A|B ) P ( B )

odds ratio finale=rapprto di verosimmiglianza∗odds ratio iniziale

Generalizzazione regola del prodotto:


P ( A 1 ∩ A 2 ∩ …∩ A n )=P ( A1 ) ∙ P ( A 2| A 1 ) ∙ P ( A 3| A1 A 2 ) ∙… ∙ P ( A n|A 1 A 2 … A n−1)

Teorema delle probabilità totali:


n n
P ( A )=∑ P ( A ∩ Bi )=∑ P ( A∨Bi ) P ( Bi )
i=1 i=1
Teorema di Bayes generalizzato:
P ( A ∩ B j) P ( A∨B j ) P( B j )
P ( B j| A ) = = n
j =1 ,… , n
P( A )
∑ P ( A∨B i ) P(Bi )
i=1

Indipendenza tra eventi:


2 eventi A e B sono indipendenti se
P ( A ∩ B )=P ( A ) ∙ P(B)
Conseguenze:
P ( A ∩B ) P ( A ) P ( B )
1. P ( A∨B )= = =P(B)
P ( B) P (B )
P ( B∨A )=P ( A )
2. A ⊥ B ⟺ A ⊥ B ⟺ A ⊥ B ⟺ A ⊥ B
Dim: A ⊥ B ⟺ A ⊥ B
( A ∩ B ) ∪ ( A ∩ B ) =A
( A ∩ B ) ∪ ( A ∩ B ) =∅
P ( A )=P ( A ∩B )+ P ( A ∩ B ) ⟹ P ( A ∩ B )=P ( A )−P ( A ∩ B )
P ( A ∩ B )=P ( A )−P ( A ∩B )
P ( A ∩ B )=P ( A )−P ( A ) P (B)
P ( A ∩ B )=P ( A ) [ 1−P ( B ) ]
P ( A ∩ B )=P ( A ) P ( B ) cioè A ⊥ B

Eventi mutuamente indipendenti:


n eventi A1 A 2 … A n sono mutuamente indipendenti se ogni loro sottoinsieme è costituito da eventi
indipendenti

Probabilità condizionata come misura di probabilità:


1. P ( A|E ) ≥ 0
2. P ( S|E )=1
3. Dati A1 A 2 … A n eventi tali che Ai ∩ A j=∅ ∀ i ≠ j
∞ P [ ( ¿ i=1 ¿ ∞ Ai ) ∩ E ] P [ ¿ i=1 ¿ ∞ ( A i ∩ E ) ]
P ( ¿ i=1 ¿ ∞ A i∨E ) =∑ P ( A i|E ) = = =¿
i=1 P(E) P ( E)
Ai ∩ E sono eventi a 2 a 2 incompatibili

∑ P( Ai∩ E ) ∞
P ( Ai∩ E) ∞
=∑ =∑ P ( A i| E )
i=1
¿
P ( E) i=1 P(E) i=1
1)
n
P ( A )=∑ P ( A|Bi ) ∙ P ( Bi )
i=1
n
P ( A∨E )=∑ P ( A|Bi E ) ∙ P ( Bi∨E )
i=1
2)
P ( A|Bi E ) ∙ P ( B i∨E )
P ( B j∨ AE ) = n

∑ P ( A|Bi E ) ∙ P ( Bi∨E )
i=1
3) A e B sono condizionatamente indipendenti se
P ( A ∩ B|E )=P ( A|E ) ∙ P ( B|E )

Osservazioni: se A , B , E sono mutuamente indipendenti allora si ha indipendenza condizionata


P ( A ∩ B|E )=P( A∨E)∙ P ( B|E )
Se c’è indipendenza condizionata non c’è necessariamente mutua indipendenza

Variabili aleatorie:
X : S → R funzione che associa un valore reale ad ogni evento elementare
Distribuzioni delle variabili aleatorie:
Data una variabile aleatoria X la sua funzione di ripartizione è una funzione
F : R → [ 0,1 ]
Tale che per ogni x ∈ R
F ( x )=P ( X ≤ x )
Osservazioni:
P ( a< x ≤b )=F ( b )−F (a)
P ( X=x )=F ( x )− lim +¿
¿
h →0 F ( x−h) ¿

Variabili aleatorie discrete in generale:


data una variabile aleatoria discreta X 1 si dice funzione di probabilità la funzione
p : R→ [0,1]
Tale che per ogni x ∈ R
p ( x ) =P ( X=x )

Supporto di X : insieme dei valori reali per cui p( x )≠ 0

X p ( x ) :X si distribuisce secondo p(x)

Condizioni affinché si abbia una funzione di probabilità:


- p ( x) ≥ 0 ∀ x ∈ R
- ∑ p ( x )=1
x: p ( x ) >0

Proprietà nel caso discreto:


- F non decrescente
- F continua destra
- lim F ( x )=0
h →−∞
lim F ( x ) =1
h →+∞

Valore atteso: data X v.a. discreta


E ( X )= ∑ x ∙ p ( x)
x : p ( x ) >0
Sommo tutte le x per probabilità positive, ho quindi l’insieme di tutti i valori ammissibili
Osservazioni:
1) Se X ha supporto finito X ∈{ x 1 , … , x k }
k
E ( X ) =∑ x i ∙ p ( x i )
i=1
2) Considerando i singoli elementi di S
E ( X ) =∑ x({s })∙ p ( {s })
s ∈S

Esercizio:
x 1=90 , x 2=40 , x 3=20 P( x 1)=0,5 , P(x 2 )=0,1 , P (x3 )=0,4

Valori di X Probabilità E ( X ) =( 20 ) ∙ 0,4 + ( 40 ) ∙ 0,1+ ( 90 ) ∙0,5=57


20 0,4 Si attende un valore di X di circa 57
40 0,1
90 0,5 Valori di X Probabilità
1 -4 0,22 Esempio 2:
-2 0,46 - 0,22
1 0,78 - 0,46
5 1 - 0,78
1
{
0 x ←4
0,22−4 ≤ x ←2
F ( X )= 0,46−2≤ x <1 Uso le classi di ampiezza
0,78 1≤ x< 5
1 x≥5

Generalizzazione:
E [ g ( x ) ]= ∑ g(x )∙ p ( x )
x : p ( x ) >0
Proprietà di E( x ):
1) E ( a+ bx ) =a+bE ( x)
2) E ( x+ y )=E ( x )+ E( y )
3) E ( x 1+ …+ x n )=E ( x 1 ) +…+ E ( xn ) ovvero:

(∑ ) ∑
n n
E xi = E ( xi)
i=1 i=1

Varianza: data X v.a. discreta e μ= E( x)


var ( x )=E [ ( x−μ )2 ]= ∑ ( x−μ )2 ∙ p ( x )
x : p ( x ) >0
Osservazioni:
var ( x ) ≥0
var ( x )=0 ⟺ x=cost varianza nulla quando gli scarti sono nulli
Deviazione standard: √ var ( x )
Indica lo scostamento dalla media atteso
+
Proprietà di var ( x ) :
2
1) var ( x )=E ( x 2 ) −[ E ( x ) ]
2) var ( a+bx )=b 2 var ( x )
3) var ( x + y )=var ( x )+ var ( y ) se x e y sono indipendenti.
In generale x i indipendenti fra loro

( )
n n
var ∑ x i =∑ var ( xi )
i=1 i=1

Distribuzioni notevoli:
Distribuzione binomiale:

x ()
p ( x ) = n p x ( 1− p ) se x=0,1, … , n
n−x

Con x che assume un numero finito di valori, n intero non negativo e 0< p<1

X bin (n ; p)

Esempio: una con 20 palline: 4 nere, 16 bianche. Estraggo 5 palline con re-immissione. X=numero nere
estratte. Calcolare P( X =2)
4 2 16
( )( )
3
4 4 16 16 16
P( X =2) ho 2 nere e 3 bianche P= ∙ ∙ ∙ ∙ = ∙
20 20 20 20 20 20 20
Numero permutazioni possibili: (52 )= 25! 3!! =10
P ( X=2 )=( ) ∙ ( ) ∙ ( 5 )=0,2048 ⟹ 20,48 %
2 3
4 16
20 20 2
P ( X=x )=( ) ∙ ( ) ∙ 5 x=0,1, … , 5
x 5− x
4
20
16
20 (x )
¿ 0 altrove
In generale:
successo
- Esperimento dicotomico:
insuccesso
- Probabilità di avere successo è costante se l’esperimento viene replicato
- n repliche indipendenti dall’esperimento
- X =¿ numero di successi ottenuti nelle n repliche
⟹ X bin ( n ; p )
Ricordando:
Teorema del binomio:
m

∑ (mx ) ax bm− x=( a+ b )m


x=0
n

∑ ( nx ) p x ( 1− p )n −x =1
x=0

Proprietà della binomiale:


1) E ( X ) =np
2) var ( X )=np (1− p)
3) Moda=[ p(n+ 1)] La moda è la parte intera di p(n+ 1)

Esempio: laureato spedisce cv. P ¿ottenere risposta¿=0,3, ripete spedizione 20 volte n=20,
X =¿numero risposte ricevute. X bin ( n=20 ; p=0,3 ).
Quante risposte di attende mediamente?
E ( X ) =np=( 20 ) ∙ 0,3=6
Numero di risposte più probabile?
Moda ( X )=[ p ( n+1 ) ]=[ 0,3 ( 20+1 ) ] =[ 6,3 ]=6
Probabilità di ottenere meno di 2 risposte?
P ( X <2 )=P ( X =0 ) + P ( X =1 )

( )0
20−0
( )
¿ 20 ( 0,3)0 ( 1−0,3 ) + 20 (0,3)1 ( 1−0,3 )
1
20−1

¿ 0,0076
Probabilità di ottenere almeno 1 risposta:
P ( X ≥1 ) =1−P(X < 1)
¿ 1−P ( X =0 )

0( )
¿ 1− 20 ( 0,3 ) ( 1−0,3 )
0 20−0

¿ 0,9992
Distribuzione Bernoulliana:
x 1−x
p ( x ) =p ( 1− p ) x=0,1
¿ 0 altrove
Con 0< p<1 .
X bern ( p )

Osservazioni:
1) Assume solo 2 valori
p ( x=0 )= p 0 ( 1− p )1−0 =1− p
1 1−1
p ( x=1 )= p (1− p ) = p

{ 1: condizione verificata
0 :condizione non verificata
2) E ( X ) =p
E ( X )= p
2

var ( X )= p ( 1− p )
3) Se X binomiale ( n , p )
x=x 1 +…+ x n tali che:
- x 1 … x n sono variabili bernoulliane con lo stesso parametro p
- x 1 … x n sono indipendenti
E ( X ) =np
var ( X )=np ( 1− p )

Distribuzione di Poisson:
λx e− λ
( )
p x= x=0 , 1 , 2
x!
¿ 0 altrove
Con λ> 0
X Poisson ( λ )
È basata sulla serie notevole:
∞ x
∑ xc ! =e c
x=0

lim 1+
x→ ∞
( )
c x c
x
=e

Poisson serve a misurare il numero di manifestazioni di un evento raro in un intervallo di tempo limitato
1) La probabilità che l’evento si manifesta 1 volta in un intervallo h di ampiezza infinitesima è
proporzionale ad essa secondo la relazione
ah+ o(h)
2) La probabilità che l’evento si manifesti più volte è
o (h)
3) L’evento si manifesta indipendentemente in intervalli disgiunti
( )( ) ( )
k n−k
t t 1 ( )k −at
P ( k manifestazioni ) = n a 1−a =…= at e
k n n k!
Denotiamo at=λ
λ k e− λ
P ( k manifestazioni nell ' intervallo ( 0 , t ) ) ≈
k!
Che coincide con la funzione di probabilità di Poisson

Esempio: numero di chiamate ricevute in 10 min segue la distr. di Poisson di parametro λ=2
Qual è la probabilità che in 10 min arrivino esattamente 3 chiamate?
X 10=3=numero chiamate∈10 minuti X 10 Poisson ( λ=2 )
3 −2
2 e
p ( X 10=3 )= =0,1804 18,04 %
3!
Qual è la probabilità che in 10 min arrivino almeno 3 chiamate?
X 10 ≥3
p ( X 10 ≥3 ) =1− p ( X 10<3 )=1− [ p ( X 10=0 ) + p ( X 10 =1 ) + p ( X 10=2 ) ]
20 e−2 21 e−2 22 e−2
¿ 1− − − =0,3233
0! 1! 2!

Qual è la probabilità che in 15 min arrivi massimo 1 chiamata?


X 15 ≤1
p ( X 15 ≤1 ) =p ( X 15 =0 )+ p ( X 15 =1 )=…=0,1992

Qual è la probabilità che il tempo necessario per la prima chiamata sia di 8 min?
X 8 Poisson ( λ=( 0,2 ) ∙ 8=1,6 )
0 −1,6
(1,6) e
p ( X 8 =0 ) =
0!

Proprietà della Poisson:


1) E ( X ) =λ
2) var ( X )=λ

Distribuzione geometrica:
p ( x ) =( 1− p ) x−1 ∙ p x=1,2 , …
¿ 0 altrove
Con 0 ≤ p ≤ 1.
X geom ( p )
Osservazioni:
- Esperimento dicotomico (successo/insuccesso)
- p= p (successo)
- p costante quando esperimento è replicato
- Repliche indipendenti dall’esperimento
- Esperimento viene replicato fino ad ottenere il primo successo
X =numero di repliche necessarie

È basata sulla serie geometrica



a
∑ a x = 1−a |a|<1
x=0
N.B.:

∑ (1− p)x−1 p=1


x=0

Proprietà della geometrica:


1
1) E ( X ) =
p
1− p
2) var ( X )= 2
p
3) p ( X ≥ k )=( 1− p )k−1

Esempio: laureato spedisce cv fino a quando non ottiene colloquio. P ( colloquio )=0,15
Qual è la probabilità che siano necessarie 3 spedizioni prima di ricevere risposta?
X geom ( p=0,15 )
3−1
P ( X=3 )=( 1−0,15 ) ∙ ( 0,15 )=( 0,85 ) ∙ ( 0,85 ) ∙ ( 0,15 ) =0,1084
( prima spedizione )∙(seconda spedizione)∙(terza spedizione )
Probabilità che siano necessarie al massimo 3 spedizioni: P ( X ≤3 )=P ( X=1 ) + P ( X =2 )+ P ( X =3 )

Distribuzione binomiale negativa:

( )
p ( x ) = x−1 p ( 1− p ) x=r , r +1 , …
r −1
r x−r

¿ 0 altrove
Con r ≥ 1 e 0 ≤ p ≤ 1
X binneg(r , p)
Osservazioni:
- Esperimento dicotomico
- p= p (successo) costante se l’esperimento è replicabile
- repliche indipendenti
X =¿ numero di repliche necessarie per totalizzare per la prima volta r successi
X = y 1+ y 2+ …+ y r
X =repliche necessarie per il 1° successo+ …+repliche necessarie per l ' r −esimo successo

Proprietà della negativa:


r
1) E ( X ) =
p
(1− p )
2) var ( X )=r 2
p

Distribuzione ipergeometrica:

p ( x) =
( x )( n−x )
r N −r

( Nn )
Con N ≥ 0 ,0 ≤ r ≤ N e 0 ≤n ≤ N
X ipergeom(N , r ,n)
Osservazioni:
Se n< r e X ipergeom(N ,r , n) allora X =x 1+ x 2 +…+ x n con

x i bernoulliana p=( r
n )
x i non sono indipendenti
Proprietà:
r
1) E ( X ) =n
N
2) var ( X )=n
r
N
1−( )
r N−n
N N −1

r
E ( x 2i ) =E ( xi ) =
N
r−1 r
E ( x i x j) =P [ xi x j=1 ]=P [ ( xi =1 ) ∩ ( x j=1 ) ]=P [ ( x 2=1 ) ∩ ( x 2=1 ) ] ∙ P [ x 1=1 ]= ∙
N−1 N

Dunque
n n n
r r −1 r r r −1 r
E ( x )= ∑ +∑ ∑
2
=n +n ( n−1 ) ∙ ∙
i=1 N i=1 j=1 N −1 N N N −1 n

( )
2
2 r r −1 r r r r N −r
Var ( x ) =E ( x ) −[ E ( x ) ] =n +n ( n−1 ) ∙
2
∙ − n∙ =…=n (1− ) ∙
N N −1 n N N N N−1
Si usa quando si effettuare l’estrazione di un campione senza reimmissione
- x bin ( n , p ) E ( x )=np Var ( x )=np ( 1− p )
- X ipergeom ( N , r , n )

r
Pongo p=
N
r
E ( x )=n =np
N
Var ( x ) =n
r
N
1− (
r N−n
N N−1 )
=np ( 1− p )
N −n
N −1

Non c’è indipendenza tra le prove nell’ipergeometrica


In certe condizioni la varianza dell’ipergeometrica può essere approssimata a quella della binomiale

N −n
: Fattore di correzione per popolazioni finite
N−1
N −n
se n ≪ N ⟹ ≅1
N−1

Distruzione ipergeometrica approssimata alla binomiale:


r
Impergeom ( N ,n , r ) ≈ Binomiale ( N , p ) p=
N
n ≪ N en ≪ r

( rx )( N−r
n−x )
=
r! ( N −r ) !
=( )
n! ( N −n ) ! n ( x termini ) ( N−x termini )
=¿
(n)
N x ! ( r −x ) ! ( n−x ) ! ( N −r−n+ x ) ! N! x n termini

¿( ) ∙ ≈ ( ) p (1−p )
n r r−1 r−x +1 N −r N −r −−n+ x +1 n x n−x
… ∙ …
x N N−1 N−x +1 N −x N−n+ 1 x

Variabile aleatoria continua:


data x v.a., essa è continua se esiste una funzione f : R → ¿ tale che:

P ( x ∈ B ) =∫ f (x ) dx
B
Per ogni sottoinsieme B∈ R

Proprietà:
b
- P ( a< x <b ) =∫ f ( x ) dx
a
a
- P ( x=a ) =∫ f ( x ) dx =0
a
⟹ P ( a< x< b )=P ( a ≤ x< b )=P ( a< x ≤ b )=P ( a ≤ x ≤ b )
b−ε
- P ( a−ε < x <b−ε ) = ∫ f ( x ) dx ≈ ε → 0≈ 2 εf (a)
a−ε
+∞

∫ f ( x ) dx=1 ⟹ somma delle probabilità=1


−∞

Condizioni affinché f (x) sia funzione di densità:


1) f ( x ) ≥0 ∀ x ∈ R
+∞
2) ∫ f ( x ) dx=1
−∞

Funzione di ripartizione:
a
F ( a )=P ( x ≤ a )=P ( x <a )=∫ f ( x ) dx f ( x ) continua
−∞
d
f ( x )= F ( x )
dx

Esempio: data la funzione f determinare c affinché f sia funzione di densità

{
f ( x )= cx 3< x <5
0 altrove
1) f ( x ) ≥0 3< x <5 ⟹ c ≥ 0

[ ] [ ]
+∞ +∞ 5 5 5
x2 25−9
2) ∫ f ( x ) dx=1 ⟹ ∫ f ( x ) dx=∫ f ( x ) dx=∫ cd dx=c =c =8 c
−∞ −∞ 3 3
2 3 2
1 1
8 c=1 c= ⟹ per c= f ( x ) è funzione di densità
8 8

Funzione di ripartizione:
a
F ( a )=P ( x< a )= ∫ f ( x ) dx con P ( a ) =0
−∞

Valore atteso di una v.a. continua:


data X v.a. continua con funzione di densità f (∙) il suo valore atteso è:
+∞
E ( x )=∫ xf ( x ) dx
−∞

N.B.: E
1
()

1
x E(x)
Proprietà:
- E [ a+bx ] =a+bE ( x )
- E ( x+ y )=E ( x )+ E ( y )
(∑ ) ∑
n n
- E xi = E (x i)
i=1 i=1

Varianza e deviazione standard di una v.a. continua:


data v.a. continua X con funzione di densità f (∙) e valore atteso E ( x )=μ
+∞
Var ( x ) =E {( x−μ ) }=∫ ( x−μ ) f ( x ) dx
2 2

−∞
sd ( x )= √Var ( x )
Proprietà:
2
- Var ( x ) =E ( x 2) −[ E ( x ) ]
- Var ( a+bx )=b2 Var ( x ) ⟹ sd ( a+ bx )=|b|sd ( x )
- Var ( x+ y ) =Var ( x ) +Var ( y ) se x , y indipendenti

( )
n n
- E ∑ xi =∑ E (x i)se xi indipendenti
i=1 i=1

Trasformazioni di v.a. continue:


v . a . continua x con f x ( ∙ ) → y=g ( x ) → v . a . continua y con f y (∙ )
1) Supporto di y (conoscendo il supporto di x )
Esempio: f ( x )=x 2
S x ≡ (−2, 3 ) ⟹ S y ≡ ( 0 , 9 )

2) Funzione di ripartizione di x
x
F x ( x )=P ( X ≤ x )=∫ f x ( x ) dx
−∞
3) Funzione di ripartizione di y
4) Funzione di densità di y
d
f y( y )= F ( y)
dy y

Metodo della trasformazione monotona:


y=g ( x ) g (∙) monotona

1) g ( ∙ ) monotona crescente
- F y ( y )=F x ( g−1( y) )
d d d −1
F y ( y )= [ F x ( g ( y ) ) ] =f x ( g ( y )) g ( y )
−1 −1
- f y( y )=
dy dy dy
2) g ( ∙ ) monotona decrescente
- F y ( y )=1−F x ( g−1 ( y ) )
d d −1
- f y ( y ) = [ 1−F x ( g ( y ) ) ] =−f x ( g ( y ))
−1 −1
g ( y)
dy dy

Formula unificata: g(∙) monotona

|dyd g ( y )|
f y ( y ) =f x ( g−1 ( y )) −1
Distribuzione uniforma continua:
una v.a. continua x segue la legge uniforma continua sull’intervallo (a , b) se:
1
f ( x )= a< x< b
b−a
¿0 altrove

Si scrive: x U (a , b)

Proprietà:
a+b
- E ( x )= mediana della distribuzione
2
Dim:

[ ]
+∞ b b
1 1 x2 1 b2−a2 b+ a
E ( x )=∫ xf ( x ) dx=∫ x dx= = =…=
−∞ a
b−a b−a 2 a b−a 2 2
2
( b−a )
- Var ( x ) =
12
Dim:

[ ]
b b
2 1 1 x3 1 b3−a3 a2 +b2 +ab
E ( x )=∫ x
2
dx= = =…=
a
b−a b−a 3 a b−a 3 3

( ) ( b−a )2
2 2 2
2 a + b +ab b+a
Var ( x ) =E ( x ) −[ E ( x ) ] =
2
− =…=
3 2 12

Esempio: X =¿distanza dal centro di assistenza della chiamata di intervento (km)


x U (5 ,50)
a) Qual è la prob che la chiama si trovi ad una distanza compresa tra 10 e 20 km?
20
1 1
P ( 10< x< 20 )=∫ dx=( 20−10 ) =0,2222
10 50−5 45
b) Qual è la distanza massima che si ha nel 70% dei casi?
x 70
1 1
P ( X ≤ x 70 )=0,7 ⟹∫ dx=0,7 ⟹ ( x 70−5 )=0,7 x70=36 ,5 km
5
45 45

Distribuzione normale o Gaussiana:


una v.a. continua x segue la legge normale o Gaussiana di parametri μ e σ 2 se:
−1 2
( x− μ)
1 2

f ( x )= e2 σ
σ √2 π
Con μ ∈ R e σ ≥0
Si scrive: x N (μ ,σ 2)

Il supporto è tutto R ⟹ f >0 .


Asse x diventa asintoto orizzontale della f . Il massimo ha ascissa μ. Il supporto “reale” è [μ−3 σ , μ+3 σ ]
σ agisce sull’appiattimento della curva: maggiore è σ più piatta sarà la curva
Chiusura: trasformazione uguale a quella di partenza

Chiusura rispetto alle trasformazioni lineari:


x N ( μ , σ 2 ) y=a+bx ⟹ y N ( a+bμ , b2 a2 )
Dim:
y −a d 1
y=a+bx funzione monotona ⟹ ricaviamo densità ⟹ x = =g−1 ( y ) g−1 ( y ) =
b dy b
S x ≡ (−∞,+ ∞ ) ⟹ S y ≡ (−∞ ,+∞ )

( )
| | ||
2
−1 y−a −1
[ y−(a+bμ)] 2
d −1 1 −μ
1 1
f y ( y ) =f x ( g ( y ))
2 2 2
−1 b
g ( y) = e 2σ = e2σ b
dy σ √2 π b ¿ b∨σ √ 2 π
μ → a+bμ
σ →b σ ⟹ y N ( a+ bμ , b σ )
2 2 2 2 2

σ →|b|a

Standardizzazione:
x−μ scostamento dalla media 1 μ
y N ( μ , σ ) Z=
2
= = x−
σ scarto σ σ
Nuovi parametri:
−μ μ
μ → a+bμ= + =0
σ σ
σ 2 →b 2 σ 2=
1 2 2
σ ()
σ =1

⟹ z N ( 0,1 ) normale standardizzata


Qualunque distribuzione normale è distribuzione propria (area sottesa al grafico uguale a 1)

1) E ( z )=0
Dim:
2
−x
1
f z ( x )= e 2

√2 π
[ ]
+∞ +∞ 2 2 +∞
−x −x
1 1 1
E ( z )= ∫ x f z ( x ) dx=∫ x e 2
dx= −e 2
−∞ = [ 0−0 ] =0
−∞ −∞ √2 π √2 π √2 π
2) Var ( z )=1⟹ sd ( z )=1
Dim:

{[ ] }
+∞
+∞ − x2 − x2 +∞ − x2 +∞ −x 2
1 1 1
E ( z )= ∫ x
2
e 2 2
dx= −e 2
−∞ +∫ e 2
dx = ∫e 2
dx=1
−∞ √2 π √2 π −∞ √2 π −∞
2
Var ( z )=E ( z )−[ E ( z ) ] =1−[ 0 ] =1
2 2
3) Funzione di ripartizione di z N ( 0,1 )
2
x −t
1
P ( z ≤ x )=∫ e 2
dt =Φ ( x )
−∞ √2 π 2
1,75 −t
1
Esempio:Φ ( 1,75 ) = ∫ e 2
dt
−∞ √2 π

tabella 5.1
x−μ
x N ( μ , σ ) ⟹ Z=
2
z N ( 0,1 ) ⟺ x=μ+ σz
σ
1) E ( x )=E ( μ+σz )=μ+ σE ( z ) =μ+σ ∙ 0=μ
2) Var ( x ) =Var ( μ+ σz )=σ 2 Var ( z ) =σ 2 ∙1=σ 2

3) F x ( x )=P ( X ≤ x )=P ( μ+ σz ≤ x )=P z ≤


x−μ
σ

x−μ
σ ( ) ( )
Esempio: nuovo modello di auto
X =¿tempo necessario per raggiungere 100 km/h
x N ( μ=10 s , σ =0,5 )
2

a) Probabilità di arrivarci in meno di 11 sec:


P ( x ≤ 11 )=P z ≤
( x−10
√ 0,5 )
≅ Φ ( 1,41 ) =0,9207

b) Probabilità di impiegarci meno di 8,5 sec:

(
P ( x ≤ 8,5 )=P z ≤
8,5−10
√ 0,5 )
≅ Φ (−2,12 )=1−Φ ( 2,12 ) =1−0,9830=0,0170

c) Probabilità di impiegarci tra 8,5 sec e 11,5 sec:


P ( 8,5< x <11,5 )=P ( x ≤ 11,5 )−P ( x ≤ 8,5 )=P z ≤
( 11,5−10
√ 0,5 ) (
−P z ≤
8,5−10
√0,5 )
≅ Φ ( 2,12 )−0,0170=0,9660

d) Qual è il tempo massimo che si ha nel 80% dei casi:


trovare c tale che P ( x ≤ c )=0,8 . c è 80esimo percentile di x

(
P ( x ≤ c )=P z ≤
c−10
√ 0,5 )
=0,8

Cerco nella tabella 5.1 il valore che più si avvicina a 0,8 ⟹ 0,7995 ha come valore 0,84
c−10
⟹ =0,84 ⟹ c=10,5940
√ 0,5
Il tempo massimo è di 10,59 sec

e) Qual è il tempo massimo che si ha nel 10% dei casi:


trovare d : P ( x ≤ d )=0,1

(
P ( x ≤ d )=P z ≤
d−10
√0,5
=0,1 )
Il valore sarà negativo in quanto nella tabella il valore minimo è 0,5 ⟹ sfrutto la simmetria: cerco valore
più vicino a 1−0,1=0,9 ⟹ 0,8997 ha come valore 1,28
d−10
⟹ =−1,28 ⟹ d=9,0949
√ 0,5
Il tempo massimo è di 9,09 sec

Esempio 2: per una qualunque v.c. x N ( μ , σ 2 ) calcolare la probabilità dell’intervallo (μ−σ , μ +σ )

P ( μ−σ < x< μ+ σ )=P ( x ≤ μ+ σ )−P ( x ≤ μ−σ )=P z ≤ ( μ+σ −μ


σ ) (
−P z ≤
μ−σ−μ
σ )
¿ P ( z ≤ 1 )−P ( z ≤−1 ) =Φ ( 1 )−Φ (−1 ) =Φ ( 1 )−[ 1−Φ (1 ) ]=2Φ (1 )−1=2 ( 0,8413 )−1
¿ 0,6826 ≈ 68 %
Intervalli tipici della normale:
μ ∓σ →68 %
μ ∓ 2 σ → 95 %
μ ∓ 3 σ →0,9974 ≈100 %

Approssimazione della binomiale con la normale:


x bin ( n , p )
- n ≥ 30
- np ( 1− p ) ≥ 10
np=valore atteso
⟹ x ≈ N ( np , np ( 1− p ) )
np ( 1− p )=varianza

Esempio: 25% degli acquisti è pagato con carta di credito. In una giornata si effettuano 300 acquisti
a) Probabilità che 60 dei 300 acquisti siano pagati con carta:
x=n ° acquisti pagati con carta ( su 300 )
x bin ( n=300 , p=0,25 )
P ( x=60 )= ( )
300
50
( 0,25 )60 ( 1−0,25 )300−60
In questo caso n ≥ 30 quindi posso usare approssimazione
E ( x )=np=300 ∙0,25=75
Var ( x ) =np ( 1− p ) =75 ( 1−0,25 )=52,25>10

Distribuzione Log-normale:
y segue la legge log-normale di parametri μ e σ 2 se:
x=log y ha distribuzione N ( μ , σ 2 )

Densità di y:
x 2
y=e dove x N ( μ , σ )

x d −1
−1 1
y=e ⟹ x=log y=g ( y ) g ( y )=
dy y

| | ||
−1 −1
d −1 1 ( log y−μ )
1
2
1 [ y−( a+bμ ) ] 2
⟹ f y ( y )=f x ( g ( y ) )
2 2 2
−1
g ( y) = e 2σ
= e 2σ b
y>0
dy σ √2 π y yσ √2 π

Distribuzione esponenziale (negativa):


x segue la legge esponenziale (negativa) di parametro θ se:
−θx
f ( x )=θ e x >0
Con θ> 0. Si scrive:
x exp ⁡(θ)

Viene spesso usata per dare distribuzione teorica per i tempi di attesa:
θ=¿ numero medio di manifestazioni dell’evento in un intervallo di tempo unitario
X =¿ lunghezza dell’inventalo di attesa per la prima manifestazione
P ( X > x )=P ( nessuna manifestazione∈( 0 , x ) ) uso Poisson con λ=θx
( θx )0 e−θx −θx
P ( X > x )= =e
0!
P ( X ≤ x )=1−e−θx
d d
f ( x )= P ( X ≤ x ) = ( 1−e−θx ) =θ e−θx
dx dx

Proprietà:
1
E ( x )=
θ
Dim:
+∞ +∞ +∞ +∞
−θx +∞ 1 1 −θx +∞ 1 1
E ( x )=∫ xf ( x ) dx=∫ xθ e dx=−[ x e ] +∫ e dx= ∫ θ e dx= [ −e ]0 = ( 0+1 ) =
−θx −θx −θx
0
−∞ 0 0 θ 0 θ θ θ
1
Var ( x ) = 2
θ
Dim:
+∞ +∞ +∞
2
∫ xθ e−θx dx= θ2 E ( x )= θ2 1θ = θ22
+∞
E ( x )=∫ x θ e dx=−[ x e ]0 + ∫ 2 x e dx=
2 2 −θx 2 −θx −θx

0 0 θ 0
2 2 1 1
Var ( x ) =E ( x ) −[ E ( x ) ] = 2 − 2 = 2
2

θ θ θ

Esempio:
X =¿ durata di vita di un apparecchio che segue la legge esponenziale con ϑ =0,09
1) ϑ =0,09 vuol dire che ci sono mediamente 0,09 guasti ogni ora
2) Durata attesa dell’apparecchio: E( x )
1 1
E ( x )= = =11,1 ore
ϑ 0,09
3) Qual è la probabilità che funzioni ancora dopo 2 ore?
X =¿ tempo di attesa per il guasto (durata di vita)
+∞ +∞
− ( 0,09 ) 2 +∞
P ( X >2 )=∫ θ e dx=∫ 0,09 e dx= [−e ]
−θx − ( 0,09) x −( 0,09 ) 2
2 =0+e =0,8353
2 2
Probabilità del 83,53 %

Distribuzione Gamma:
x segue la legge Gamma di parametri θ , α se:
( ) θ α α−1 −θx
f x= x e x >0
Γ (α )
Con θ> 0 e α >0. Si scrive
x ga(θ , α )
Osservazioni:
+∞
Γ ( α ) ha densità propria: ∫ f ( x)dx=1
−∞

Γ ( α )=∫ x
α−1 − x
e dx
0

[ ]
∞ θx= y ∞
θ α α −1 −θx
()
α α −1
∫ Γ ( α ) x e dx= x= y dx= 1 dy =∫ Γθ( α ) θ1 1
y α−1 e− y dy=¿
θ
0
θ θ 0


1 1

Γ (α) 0
α−1 − y
y e dy=
Γ (α)
Γ ( α )=1

Proprietà di Γ ( α ) :
1) Γ ( α )=( α −1 ) Γ ( α −1 ) per α > 1
Dim:
∞ ∞ ∞
α−1 −x ∞
Γ ( α )=∫ x e dx= [− x ] +∫ ( α −1 ) x e dx=( α −1 )∫ x
α−1 − x α−2 −x α −2 −x
e
0 e dx=¿
0 0 0
(α −1) Γ (α −1)
2) Γ ( 1 )=1
Dim:

−x ∞
Γ ( 1 )=∫ x e dx= [ −e ]
1−1 − x
0 =0+1=1
0
3) Se α >1 intero:
Γ ( α )=( α −1 ) !
Dim:
Γ ( α )=( α −1 ) Γ ( α −1 )=( α −1 ) ( α −2 ) Γ ( α −2 )=…=( α −1 ) ( α −2 ) … 1 Γ ( 1 )=( α −1 ) !

4) Se α =1 la distribuzione gamma coincide con la distribuzione esponenziale


Dim:
θ α α −1 −θx θ 1−1 −θx −θx
f ( x )= x e = x e =θ e
Γ (α ) 1
5) Evento che di manifesta nel tempo secondo il processo di Poisson
θ=¿ numero medio di manifestazioni dell’evento in un intervallo di tempo unitario
X =¿ lunghezza dell’inventalo di attesa per la α −¿ esima manifestazione
⟹ x ga(θ , α )
Dim:
P ( X ≤ x )=P ¿
d
f ( x )= P(X ≤x)
dx
α −1 −θx α −θx
α ( θx ) e −( θx ) θ e ( α +1 ) (θx )α e−θx−( θx )α+1 θ e−θx α −1
α ( θx ) θ e
−θx
¿ + + …=
α! ( α +1 ) ! α!
1 1 α α−1 −θx
¿ θα x α−1 e−θx= θ x e
( α −1 ) ! Γ (α )

1 n
6) Caso particolare: θ= α = Distribuzione chi-quadrato con n gradi di libertà
2 2

Esempio: ufficio postale con 5 sportelli


Ogni sportello impiega 5,5 min a soddisfare il cliente
Mediamente arrivano 4 clienti ogni 10 min (distribuzione di Poisson)
Qual è la probabilità che si formi una coda:
X =¿tempo di attesa per il 6° cliente
x ga(θ=0,4 , α=6)
5,5
(0,4)6 6 −1 −(0,4 )6
P ( X ≤5,5 )=∫ x e dx
0 Γ (6 )

Chi quadrato → ga θ= ,α =( 1
2
n
2 )
0,5
Pongo ( 0,4 ) x=( 0,5 ) y x= y=1,25 y y =0,8 x dx=(1,25) dy
0,4
( 0,8 ) ( 5,5 ) 6 4,4 6
( 0,5 ) ( 0,5 ) 6−1 −(0,4 ) y
P ( X ≤5,5 )= ∫ (1,25 y )6−1 e− (0,5 ) y ( 1,25 ) dy=∫ y e dy=¿
0 Γ (6) 0 Γ ( 6)

[ ga ( α =6 , θ=0,5 ) ] → chi quadrato


¿ 1−0,975=0,025

Proprietà:
α
E ( x )=
θ
Dim:
∞ α ∞ α +1
θ 1 1 θ
E ( x )=∫ x Γ ( α +1 ) ∫
α −1 −θx α −θx
x e dx= x e dx=¿
0 Γ (α ) Γ (α ) θ 0 Γ ( α +1 )

[ ga ( α +1 , θ ) ]
1 1 α Γ (α ) 1 α
¿ Γ ( α +1 )=¿ =
Γ (α) θ Γ (α) θ θ
α
Var ( x ) =
θ2
Dim:
∞ ∞
θ
α
1 1 θ
α +2
1 1 α (α +1) Γ ( α ) 1 α (
E ( x )=∫ x Γ ( α +2 ) ∫
2 2 α −1 −θx α+2−1 −θx
x e dx= 2
x e dx= 2
Γ ( α +2 )= 2
=
0 Γ (α ) Γ (α ) θ 0 Γ ( α+2 ) Γ (α) θ Γ (α) θ
2 α (α +1) α 2 α 2 +α−α 2 α
Var ( x ) =E ( x ) −[ E ( x ) ] =
2
− 2= = 2
θ2 θ θ2 θ

Variabili casuali bidimensionali:


una variabile casuale bidimensionale è una funzione
( x , y ) : S → R2

Funzione di ripartizione bidimensionale:


F ( x , y ) =P ( X ≤ x ,Y ≤ y )=P [ ( X ≤ x ) ∩ ( Y ≤ y ) ] ∀ ( x , y )∈ R
2

Proprietà:
1) Funzione di ripartizione marginale di y:
lim F xy ( x , y)= lim P ( X ≤ x ,Y ≤ y )=P ( X ≤ ∞, Y ≤ y )=F y ( y )
x→ ∞ x →∞
Funzione di ripartizione marginale di x:
lim F xy (x , y )= lim P ( X ≤ x , Y ≤ y )=P ( X ≤ x , Y ≤ ∞ ) =F x (x)
y→∞ y→ ∞
lim F xy ( x , y )=1
2) y→∞
x →∞
3)
lim F xy (x , y)= lim P ( X ≤ x ,Y ≤ y )=P ( X ≤−∞ , Y ≤ y )=0
x→−∞ x →−∞
lim F xy ( x , y )=0
y →−∞
lim F xy ( x , y )=0
y →−∞
x →−∞
4) P ( x 1< x ≤ x 2 , y1 < y ≤ y 2 )=F ( x 2 , y2 ) −F ( x 2 , y 1 ) −F ( x 1 , y 2 ) + F ( x 1 , y 1 ) ≥ 0

Esempio:

{
0,2−0,2 e
−x
1 ≤ y< 2; x >0
F xy ( x , y )= 1−0,2 e− x −0,8 e−2 x y ≥ 2 , x >0
0 altrove
a) Determinare la funzione di ripartizione marginale di y e riconoscere il tipo di variabile aleatoria

{
0,2 1 ≤ y <2 Y= y P(Y = y)
F y ( y )= lim F xy ( x , y )= 1 y ≥ 2 1 0,2
x →∞
0 altrove 2 0,8 = 1 – 0,2
1
b) Determinare la funzione di ripartizione marginale di x e calcolare P (−3< x <5 )

{ y ≥ 2 , x >0
−x −2 x
F x ( x )= 1−0,2 e −0,8 e
0 altrove
P (−3< x <5 )=P ( 0< x <5 ) =P ( x ≤5 ) =F x ( 5 ) =1−0,2 e−5−0,8 e−10=0,9986
c) Calcolare P ( 3< x< 4∨1,5< y ≤ 2,5 )
P [ ( 3< x < 4 ) ∩ ( 1,5< y ≤2,5 ) ] F xy ( 4 ; 2,5 )−F xy ( 4 ; 1,5 ) −F xy (3 ; 2,5 )+ F xy ( 3 ; 1,5 )
P ( 3< x< 4∨1,5< y ≤ 2,5 )= =
P (1,5< y ≤ 2,5 ) P ( y=2 )

La uso quando mi servono informazioni “contemporanee” sulle 2 componenti

Esempio:
f ( x , y )=k ( x + y ) 0 < x<1 , 0< y <2
a) Determinare k in modo che f ( x , y ) sia densità propria
- k≥0

[ ] [ ]
2 1 2 2 1 2 2 2
x 1 1 y
∫∫ k ( x + y ) dx dy=k ∫ + y [ x ]0 dy=k ∫ + y dy=k y +
1
- =k [ 1+ 2 ] =3 k
0 0 0
2 0 0
2 2 2 0
1
3 k =1 k=
3
b) Determinare densità marginale di x

[ ]
2 2 2
1 1 y 1 2
f x ( x ) =∫ ( x+ y ) dy= xy + = [ 2 x+ 2 ] = ( x+1 )
0
3 3 2 0 3 3

{
2
f x ( x ) = 3 ( x +1 ) 0 < x<1
altrove
0
c) Determinare la funzione di ripartizione doppia di (x , y )

{[ ] }
y x y 2 x y 2
1 1 t 1 x
F xy ( x , y )=∫∫ ( t +u ) dt du= ∫ +u [ t ] 0 du= ∫ +ux du
x

0 0 3 3 0 2 0 30 2

[ ] [ ]
2 2 y 2 2
1 x u 1 x y xy 1 2 2
¿ u+ x = + = ( x y+ x y )
3 2 2 0 3 2 2 6
2 x
1
Se y >2 : F xy ( x , y )=∫ ∫ ( t+u ) dt du
0 0 3
y 1
1
Se x >1: F xy ( x , y ) =∫ ∫ ( t +u ) dt du
0 0 3

Vettori aleatori:
( x 1 ,… , x n ) :S → Rn
F ( x 1 , … , x n ) =P ( X 1 ≤ x 1 , … , X n ≤ x n )
Caso discreto: p ( x 1 , … , x n )=P ( X 1=x 1 , … , X n=x n )
Caso continuo:
n
∂ F ( x1, … , xn)
=f ( x 1 , … , x n )
∂ x1 … ∂ x n
Variabili aleatorie indipendenti:
2 v.a. x e y sono indipendenti se:
F xy ( x , y )=F x ( x ) ∙ F y ( y )
In particolare:
- ( x , y ) discreto P xy ( x , y )=Px ( x ) ∙ P y ( y )
- ( x , y ) continuo f xy ( x , y )=f x ( x ) ∙ f y ( y )

Si scrive x ⊥ y

Esempio:
1
f xy ( x , y )= ( x + y ) 0< x< 1
3 0< y <1
x e y sono indipendenti?

[ ] ( )
1 2 1
1 1 y 1 1
f x ( x ) =∫ ( x+ y ) dy= xy + = x+
0
3 3 2 0 3 2

[ ] ( )
1 2 1
1 1 x 1 1
f y ( y ) =∫ ( x+ y ) dx= xy+ = y+
0
3 3 2 0 3 2
Non sono indipendenti
In generale: f xy ( x , y ) ≠ f x ( x )−f y ( y )

Teorema: f xy ( x , y )=h ( x ) f ( y ) ⟺ x ⊥ y

Esempio:
Normale bivariata:
( x , y ) N 2 (μ x , μ y , σ 2x , σ 2y , ρ)

f xy ( x , y )=
1
2 π σ x σ y √ 1−ρ 2
exp
{
−1
2 ( 1− ρ )
2
[( ) (
x−μ x 2 y−μ y 2
σx
+
σy
−2 ρ
x−μ x
σx ) ( )( y −μ y
σy ) ]}
{ [( ) ( ) ]}
2 2
1 −1 x−μx y −μ y
Se ρ=0 ⟹ f xy ( x , y ) = exp + =¿
2 π σxσ y 2 σx σy

{ ( )} { ( )}
2 2
1 −1 x−μ x 1 −1 y−μ y
exp exp =f x ( x ) f y ( y )
√2 π σ x 2 σx √2 π σ y 2 σy
⟹ x⊥ y

Somma di v.a. indipendenti


( x , y ) , x ⊥ y , ( x , y ) continuo
z=x + y
F z ( a ) =P ( Z ≤ a )=P ( x + y ≤ a )=P ( x ≤ a− y )
+ ∞ a− y + ∞ a− y +∞ a−y
¿∫ ∫ f xy ( x , y ) dx dy =∫ ∫ f x ( x ) f y ( y ) dx dy =∫ f y ( y ) ∫ f x ( x ) dx dy
−∞ −∞ −∞ −∞ −∞ −∞
+∞
¿ ∫ f y ( y) F x ( a− y)dy integrale di convoluzione
−∞
+∞ +∞ +∞
d d ∂
f z ( a )= F ( a ) = ∫ f y ( y) F x (a− y)dy= ∫ f y ( y ) F (a− y )dy =∫ f y ( y ) f x ( a− y )dy
da z da −∞ −∞ ∂ a x −∞
Conseguenze:
1. x gamma ( θ , α 1) y gamma ( θ , α 2 ) x ⊥ y
⟹ x+ y gamma ( θ , α 1 +α 2 )
2. x Poisson ( λ1 ) y Poisson ( λ2 ) x ⊥ y
⟹ x+ y Poisson ( λ 1+ λ2 )
3. x bin ( n , p ) y bin ( m , p ) x ⊥ y
⟹ x+ y bin ( n+ m, p )
4. x N ( μ x , σ x ) y N ( μ y , σ y ) x ⊥ y
2 2

⟹ x+ y N ( μ x + μ y , σ x 2+ σ y 2 )

(x 1 ,… , x n) sono variabili indipendenti se:


F ( x 1 , … , x n ) =F x ( x 1 )… F x (x n)
1 n

p ( x 1 , … , x n )= p x ( x 1 )… p x ( x n )
1 n

f ( x 1 , … , x n ) =f x ( x1 ) … f x (x n )
1 n

1. x i gamma ( θ , α i ) i=1 , … , n indipendenti

( )
n n
⟹ ∑ x i gamma θ , ∑ α i
i=1 i=1

2. x Poisson ( λi ) i=1 , … , nindipendenti

(∑ )
n n
⟹ ∑ x i Poisson λi
i=1 i=1

3. x N ( μ i , σ i ) i=1 , … , n indipendenti
2

(∑ )
n n n
⟹ ∑ xi N μi, ∑ σ i
2

i=1 i =1 i=1

Distribuzioni condizionate/subordinate:
1. ( x , y ) discreta
P [ ( X=x ) ∩ ( Y = y ) ] Pxy ( x , y )
P ( X=x ∨Y = y )= =
P (Y = y ) Py( y)
P (x , y)
P X ∨Y ( X| y )= xy
Py ( y )
2. ( x , y ) continua
f xy ( x , y )
f X∨Y ( X| y )=
f y( y)
3. ( x , y ) continua
F xy ( x , y )
F X ∨Y ( X| y )=
Fy ( y)

Esempio:
( x , y ) f xy ( x , y )=
1 x
2 2 ( )
+y e
−x 0< y < x
x >0
a) Determinare la funzione di densità condizionata di Y ∨ X=x
[ ]
+∞ x x x

f x ( x ) =∫ f xy ( x , y ) dy=∫
−∞ 0
1 x
2 2 2 ( )
1 −x x
0
2
1 −x x
+ y e dy = e ∫ + y dy= e
−x
2 2
y+
y2
2 0
=¿

1
¿ e−x
2 (2 2
+ = e x)
x 2 x2 1 −x 2
2

f y∨x ( y| x ) = =
1 x
f xy ( x , y ) 2 2
+ y e−x( )1 y
= + 2
f x (x) 1 −x 2 2x x
e x
2
b) Verificare che f y∨x è densità propria:

[ ]
+∞ x 2 x
1 y 1 y 1 1
∫ f y∨x ( y|x ) dy =∫ 2 x 2 + x2 dy= 2 x y+ 2 x2 = 2 + 2 =1
−∞ 0 0
c) Calcolare E(Y ∨X =x)

) [ ]
+∞ x x

(
2 3
1 y 1 y y x x 7
E ( Y |X =x )=∫ y f y∨x ( y|x ) dy =∫ y + dy= + = + = x
−∞ 0
2 x x2 2 x 2 3 x 2 0 4 3 12

2 2
Esempio: ( x , y ) N 2 (μ x , μ y , σ x , σ y , ρ)
2
Determinare distribuzione condizionata di Y ∨ X=x e il suo valore atteso ⟹ x N (μ x σ x )

{ [( ) ( ) ( )( ) ]}
2 2
1 −1 x−μ x y−μ y x−μ x y −μ y
f xy ( x , y )= exp + −2 ρ
2 π σ x σ y √ 1−ρ 2 ( 1− ρ2 ) σx σy σx σy
2

f x ( x , y )=
1
σ x√2 π
exp
−1
2 { [( ) ( ) ] } x−μx 2
σx
−2
x−μ x
σx

Funzioni o Trasformazioni di vettori aleatori:


( x , y ) → z=g 1 ( x , y ) w=g2 ( x , y ) →( z , w)

Esempio:
1
( x , y ) Pxy ( x , y )= x ( x +2 y ) x=1,2,3
40 y=0,1
z=x + y w=xy
Voglio determinare la distribuzione di z e w . Trovo i valori di (x , y ) secondo i valori di x e y
1 3
P ( x=1 , y =1 )= ( 1 ) ( 1+2 )= =0,075
40 40

(x , y) 1 2 3

0 (1,0) (2,0) (3,0)


0,025 0,1 0,225
1 (1,1) (2,1) (3,1)
0,075 0,2 0,375
z=1,2,3,4
Ora creo una tabella con z=x + y ew=xy che avranno come valori
w=0,1,2,3
(x , y ) 1 2 3 4
z ew non sono indipendenti perché ho degli 0 in tabella
0 0,025 0,1 0,225 0
1 0 0,075 0 0
2 0 0 0,2 0
3 0 0 0 0,375
z=g1 ( x , y ) x=h 1 ( z , w )
( x , y ) continua → ( z , w ) continua f xy ( x , y ) → f zw ( z , w )
w=g1 ( x , y ) y=h1 ( z , w )
h zw ( z , w )=f xy ( h1 ( z , w ) , h2 ( z , w )) ∙∨J ∨¿

( )
∂ h1 ∂ h1
∂z ∂w
J=det
∂ h2 ∂ h2
∂z ∂w

Esempio:
1 2 x
x f x ( x )= x >1 y f y ( y )= 2 y> 2 x e y indipendenti z =xy w=
x
2
y y
Determinare la distribuzione di (z , w)

{ {√
z=xy √ zw=x h1
x⟹ z
w= = y h2
y w

∂ h1 ∂ √w
= ( √ zw )=
∂z ∂ z 2√ z
∂ h1 ∂
= ( √ zw ) = √ z
∂w ∂ w 2√ w
∂ h2 ∂ z
=

∂ z ∂ z w 2 √ zw
=
1

∂ h2 ∂
=
∂w ∂w w 2w √w √ z
=
−√z

( )
√w √z
2√ z 2 √w −1 1 −1
J=det =…= − =
1 −√ z 4w 4w 2w
2 √ zw 2 w √ w
1 2
f xy ( x , y )= 2 2 x >1 , y >2
x y
f zw ( z , w ) =
1 2w
zw z
quindi z e w non sono indipendenti
z
w √
√ zw>1 , > 2 z >2 , w>0

Distribuzione marginale di z
+∞
f z ( z )= ∫ f zw ( z , w ) dw
−∞
1
√ zw>1 w>
z ⟹ 1 <w < z

√ z ⟹
>2 z z 4
w w<
4

[ ]
z/ 4
1 1 1 z 1 1 1
f z ( z )=∫ 2 dw= 2 [log w ]z1// 4z = 2 log −log = 2 [ log z−log 4 +log z ] = 2 [ 2 log z−log 4 ]
1/z z w z z 4 z z z
Valore atteso delle funzioni di vettori aleatori
( x , y ) →( z , w)

Caso continuo:
+∞ +∞
E { g ( x , y ) }= ∫ ∫ g( x , y ) f xy ( x , y ) dx dy
−∞ −∞
Caso discreto:
E { g ( x , y ) }=∑ ∑ g(x , y ) P xy ( x , y )
x y

Esempio:
1
( x , y ) f xy ( x , y )= ( x + y ) 0< x<1
3 0< y <2
Calcoliamo E {∨x−2 y∨}
+ ∞ +∞ 2 1
1 1
E {|x−2 y|}=∫ ∫ |x−2 y| ( x + y ) dx dy =∫ ∫| x−2 y| ( x + y ) dx dy
−∞ −∞ 3 0 0 3
x
NB: x−2 y >0 y <
2

{ }
x

{ }
1 2 2 1
1 1 7 16
3∫0
∫ ( x −2 y ) ( x+ y ) dy +∫ ( x−2 y ) ( x+ y ) dy dx= 3 ∫ 12 x 3−2 x 2+2 x + 3 dx=¿
0 x 0
2

[ ]
4 3 2 1
1 7 x x x 16 31
−2 +2 + x = =1,9375
3 12 4 3 2 3 0 16

Valore atteso di una somma e di un prodotto:


1) E ( x+ y )=E ( x )+ E ( y )
Dim:
+∞ +∞ +∞ +∞ +∞ +∞
E ( x+ y )=∫ ∫ ( x + y ) f xy ( x , y ) dx dy= ∫ ∫ x f xy ( x , y ) dx dy+ ∫ ∫ y f xy ( x , y ) dx dy
−∞ −∞ −∞ −∞ −∞ −∞
+∞ +∞ +∞ +∞ +∞ +∞
¿ ∫ x ∫ f xy ( x , y ) dy dx + ∫ y ∫ f xy ( x , y ) dx dy=∫ x f x ( x ) dx + ∫ y f y ( y ) dy
−∞ −∞ −∞ −∞ −∞ −∞
¿ E ( x )+ E ( y )

Osservazioni: E ( x 1+ …+ x n )=E ( x 1 ) +…+ E ( xn )

( )
n n
⇒E ∑ x i =∑ E(x ¿¿ i) ¿
i=1 i=1

2) E [ g ( x ) ∙ h ( y ) ] =E[ g ( x ) ]∙ E[h ( y ) ]
Dim:
+ ∞ +∞ +∞ +∞
E [ g ( x ) ∙ h ( y ) ] =∫ ∫ g ( x ) h ( y ) f xy ( x , y ) dx dy= ∫ ∫ g ( x ) h ( y ) f x ( x ) f y ( y ) dx dy=¿
−∞ −∞ −∞ −∞
+∞ +∞
¿ ∫ g ( x ) f x ( x ) dx ∙ ∫ h ( y ) f y ( y ) dy=E [ g ( x ) ∙ h ( y ) ]
−∞ −∞

Osservazioni: se x e y indipendenti allora E ( xy )=E ( y ) E ( y ) ma non viceversa


Covarianza:
cov ( xy )=E [ ( x−μ x ) ( y−μ y ) ] con μ x =E ( x ) e μ y =E ( y)

Caso continuo:
+∞ +∞
cov (xy )= ∫ ∫ ( x−μ x ) ( y −μ y ) f xy ( x , y ) dx dy
−∞ −∞
Caso discreto:
cov (xy )=∑ ∑ ( x−μ x ) ( y −μ y ) P xy ( x , y )
x y

Formula operativa: cov ( x , y )=E ( xy ) −μ x μ y


Dim:
cov ( x , y )=E [ ( x−μ x ) ( y −μ y ) ]=E [ xy −x μ y − y μ x + μ x μ y ]=¿
¿ E ( xy )−E ( x μ y )−E ( y μ x ) + E ( μ x μ y )=E ( xy )−μ y E ( x )−μ x E ( y ) + μ x μ y =¿
¿ E ( xy )−μ y μ x −μ x μ y + μx μ y =E ( xy )−μ y μ x

Osservazioni: x ⊥ y ⟹ E ( xy )=μ x μ y ⟹ cov ( x , y )=0 ma non viceversa

Esempio:
1
( x , y ) f xy ( x , y )= ( x + y ) 0< x<1
3 0< y <2
Trovare la covarianza:
+∞ + ∞ 2 1 2 1
1 1
E ( xy )= ∫ ∫ xy f xy ( x , y ) dx dy=∫ ∫ xy ( x + y ) dx dy= ∫ y ∫ x + xy dx dy=¿
2

−∞ −∞ 0 0 3 30 0

[ ] [ ] ( )
2 1 2 2
1
30∫ y
x3 x2 1 1 1
+ y dy= ∫ y + y dy =
3 2 0 30 3 2
1 1 y 2 1 y3
+ =
1 2 4 2
+ =
3 3 2 2 3 0 3 3 3 3 ( )
[ ]
2 2 2
1 1 y 1 2
f x x =∫ x+ y dy= xy +
( ) ( ) = ( 2 x +2 )= ( x +1 )
0
3 3 2 0 3 3

[ ] [ ]
1 1 1 3 2 1
2 2 2 x x 2 1 1 5
E ( x )=∫ x f x ( x ) dx =∫ x ( x+ 1 ) dx= ∫ x 2 + x dx= + = + =
0 0
3 3 0
3 3 2 0 3 3 2 9

[ ] (
1 1

)
2
1 1 x 1 1
f y ( y ) =∫ ( x+ y ) dx= + xy = +2 y
0
3 3 2 0 3 2

[ ] ( )
2 2 2 2

E ( y )=∫ y f y ( y ) dy=∫ y
0 0
1 1
3 2
1 1
30 2 (
+2 y dy= ∫ y +2 y dy =
2 1 1 y2
3 2 2 )+2
y3 1
= 1+
3 0 3
16 19
3
=
9
2 5 19 −1
cov ( x , y )=E ( xy ) −E ( x ) E ( y )= − =
3 9 9 81
cov ( x , y ) <0 ⟹ c ' è discordanza tra x e y , se cresce uno decresce l' altro

Proprietà della covarianza:


1) cov ( x , y )=cov ( y , x )
2) cov ( x , x )=var (x)
3) cov ( ax , by )=ab cov ( x , y )
4) cov ( a+ x , b+ y )=cov ( x , y )
5) cov ( x+ z , y )=cov ( x , y ) + cov ( z , y )

(∑ )
n m n m
6) cov xi , ∑ y i =∑ ∑ cov ( x i , y i )
i=1 i=1 i=1 i=1
Varianza di una somma/differenza:
var ( x + y )=var ( x )+ var ( y )+ 2 cov (x , y )
Dim:
z=x + y E ( x ) =μ x E ( y )=μ y ⟹ E ( z )=μ x + μ y
var ( z )=E {[ z−E ( z ) ] }=E {[ x + y−μ x −μ y ] }=E [ ( x−μ x ) + ( y−μ y ) ]
2 2
{ 2
}
¿ E {( x −μ x ) + ( y −μ y ) +2( x−μ x )( y −μ y ) }=var ( x ) + var ( y )=2 cov (x , y )
2 2

Osservazioni:
1) x ⊥ y ⟹ cov ( x , y ) =0 ⟹Var ( x + y )=var ( x ) + var ( y ) ma non viceversa
2) x 1 , … , x n indipendenti ⟹ var ( ∑ x i ) =∑ var ( x i )
3) x 1 , … , x n generiche ⟹

( )
n n n n
var ∑ x i =∑ var (xi )+∑ ∑ cov ( x i , y i)se i≠ j
i=1 i=1 i=1 j=1

(∑ ) ∑
n n n n
var xi = var ( xi )+2 ∑ ∑ cov (x i , y i ) se i< j
i=1 i=1 i=1 j=1

4) var ( x− y )=var ( x ) +var ( y )−2cov ( x , y )


5) x ⊥ y ⟹ var ( x− y )=var ( x ) + var ( y )

Esempio:
x 1 , … , x n indipendenti identicamente distribuite ( IID ) ⟹ E ( x i )=μ var ( xi ) =σ 2 ∀ i=1 ,… , n
n
1
x= ∑ x Media campionaria
n i =1 i

( ) ( )
n n n n
1 1
E ( x )=E ∑ x i = E
n i=1 n
∑ x i = 1n ∑ E( xi )= 1n ∑ μ= 1n nμ=μ
i=1 i=1 i=1

( ∑ ) ( ) (∑ )
n 2 n n n 2
1 1 1 1 1 σ
xi = 2 ∑ var ( x i)= 2 ∑ σ = 2 n σ =
2 2
var ( x )=var xi = var
n i=1 n i=1 n i=1 n i=1 n n

Osservazioni:
2
var ( x +ty )=var ( x ) +var ( ty )+2 cov ( x , ty )=var ( x ) +t var ( y ) +2 t cov ( x , y )
¿ t 2 var ( y ) +2 t cov ( x , y ) + var ( x ) ≥ 0
Sempre vero se Δ t ≤ 0:
2
Δ t =[ cov ( x , y ) ] −var ( y ) var ( x ) ≤ 0
2
[ cov ( x , y ) ] ≤ var ( y ) var ( x )
−√ var ( y ) var ( x ) ≤ cov ( x , y ) ≤ √ var ( y ) var ( x )
Disuguaglianza di Cauchy-Schwarz: −sd ( y ) sd (x) ≤cov ( x , y ) ≤ sd ( y ) sd ( x)

cov ( x , y )
ρ= coefficiente di correlazione lineare−1 ≤ ρ ≤1
sd ( x ) sd ( y )
cov ( x , y )=0 ⟺ ρ=0

Esempio:
−1 13 23
cov ( x , y )= var ( x ) = var ( y )=
81 162 81
−1
cov ( x , y ) cov ( x , y ) 81
ρ ( x , y )= = = =−0,0818


sd ( x ) sd ( y ) √ var ( x ) var ( y) 13 23
162 81
Esempio:

{
2
x=−1 , y=−2,2
10
ρ ( x , y )= 1 x=2 , y=−2,2
10
4
x=0 , y=2
10

(x , y ) −2 2 4 4 2
E ( x )=(−1 ) + ( 0 ) + ( 2 ) =0
2 2 4 10 10 10
−1
10 10 10 3 7 8
4 4 E ( y )=(−2 ) + ( 2 ) = =0,8
0 0 10 10 10
10 10
1 1 2
2
10 10 10
3 7
1
10 10
E(xy )
(x , y ) −2 2 cov ( x , y )=E ( xy ) −E ( x ) E ( y )=0−( 0 ) ( 0,8 )=0
2 2
−1 2 −2
10 10
4
0 0 0
10
1 1
2 −4 4
10 10
4 3
x e y indipendenti ⟹ infatti , ad esempio , P ( x =0 , y=−2 ) ≠ P ( x=0 ) P ( y=−2 ) , 0 ≠
10 10

Valore atteso condizionato:

Caso discreto:
P XY ( x , y )
E ( X|Y = y )=∑ x =∑ x P X ∨Y ( x ∨ y )
x PY ( y ) x
Caso continuo:
+∞ +∞
f xy ( x , y )
E ( X|Y = y )= ∫ x dx= ∫ x f x ( x ) dx
−∞ f y( y) −∞

Teorema: E ( X ) =EY [ E X ∨Y (X ∨Y )]
Dim:
P xy ( x , y )
EY [ E X ∨Y ( X|Y ) ]=∑ ∑ x P X ∨Y ( x∨ y ) PY ( y )=∑ ∑ x PY ( y )=∑ ∑ x P XY ( x , y ) =¿
y x y x PY ( y ) x y

∑ x ∑ P XY ( x , y )=∑ x P X ( x )=E(x )
x y x
Lo stesso vale per E ( Y )=E X [ EY ∨ X (Y ∨X )]
Funzione generatrice dei momenti:
M (t )=E ( etx ) t ∈ ( 0−ε 0 , 0+ ε 0 )
Caso discreto : M x (t )=∑ e P x ( x )
tx

x
+∞
Caso continuo : M x ( t )= ∫ e tx f x ( x ) dx
−∞
Teorema:

] ]
r
d d
M x (t ) =E ( x ) ⟹ M x (t) =E ( xr )
dt t =0 dt
r
t =0
Dim: caso discreto
M x ( t ) =∑ e P x ( x )
tx

x
d
dt
M x ( t )=
d
dt [ ∑
x ] x
d
e tx Px ( x ) =∑ x etx P x ( x ) ⟹ M x ( t )
dt ]
t =0
=∑ x e 0 x Px ( x )=∑ x P x ( x )=E (x)
x x

]
2 2
d d d
[ ∑ ]
x e P x ( x ) =∑ x e P x ( x ) ⟹ 2 M x ( t ) =∑ x Px ( x )=E( x )
tx 2 tx 2 2
M x (t)=
dt 2
dt x x dt t=0 x

Esempio:
X bin ( n=10 ; p=0,2 ) . M x ( t )=?
10
M x ( t ) =E ( e )=∑ e
tx

x=0
tx 10
x
x
( 0,2 ) ( 0,8 )( )
10−x

() () ( )
t
( a+ b ) =∑ n a x bn− x ⇒ a=e ∙ 0,2 n = 10
n

x=0 x b=0,8 x x
10
⟹ M x ( t )=( e ∙ 0,2+0,8 )
t

Esempio:
X U (−2,4 ) . M x (t )=?
1 1
X U (−2,4 ) ⇒ f ( x ) = =
b−a 6

[ ]
4 4 4t −2 t
tx 1 1 1 1 e −e
M x ( t ) =E ( e )=∫ e dx=
tx tx
e =
−2 6 6 t −2 6 t
4t −2 t 4t −2 t
e −e 4 e +2 e 6
lim =H =lim = =1
t →0 6t t→0 6 6

{
4t −2 t
e −e
M x (t )= t ≠0
6t
1 t=0

Proprietà:
n
1) X bin ( n ; p ) ⟺ M x (t )=( p e t +1−p )
2) X Poisson ( λ ) ⟺ M x ( t ) =exp { λ ( et −1 ) }
Dim:
x x
(e λ ) e ( )
( e t λ ) e−( e λ )
t
x −λ ∞ ∞ t −λ t
−λ ∞ −λ
λ e e− e λ e e
M x t =E e =∑ e
( ) ( ) =∑ tx tx
= ∑ = =exp ⁡{ λ(et −1)}
x! x! − (e λ ) −(e λ ) x! − (e λ )
t t t

x=0 x=0 e e x=0 e


( )
α
θ
3) X ga ( θ , α ) ⟺ M x ( t )=
θ−t
Dim:
+∞ α +∞ α α
θ θ tx α −1 −θx ( θ−t )
M x ( t ) =E ( e )=∫ e x e dx =∫
tx α−1 −θx tx
e x e dx
0 Γ (α ) 0 Γ (α) ( θ−t )α
α +∞ α α
θ ( θ−t ) tx α−1 −θx θ
α ∫
¿ e x e dx=
(θ−t ) 0 Γ ( α ) ( θ−t )α

X M x ( t ) =E(e tx )

Proprietà:
at
X M x ( t ) Y =a+bX ⟹Y M Y ( t )=M X ( bt ) e
Dim:
M y (t )=E ( e )=E ( e ) =E ( e at ∙ ebtx ) =e at E ( e btx )=eat M x ( bt )=M x ( bt ) e at
ty t ( a+ bx )

x−μ
Nota : X N ( μ , σ ) ⟹ z=
2
N ( 0,1 )
σ
X N ( μ , σ 2 ) ⟹ x=μ+ σz dove Z N ( 0,1 )

FGM di Z N ( 0,1 ):
2
−x
1
f z ( x )= e 2

√2 π
−1 2
( x− μ)
Caratterizzazione della funzione di densità normale f ( x )=
1 2
con μ=o e σ =1
e2σ
σ √2 π

{ }
2 2
+∞ −x +∞ −x +∞
1 1 +tx
1 −1 2
M z ( t )=E ( e )= ∫ e tz
e 2 dx= ∫ tx
e 2 dx=∫ exp ( x +2tx ) dx=¿
−∞ √2 π −∞ √ 2 π −∞ √ 2 π 2

{ } { }
+∞ +∞
1 −1 2
∫ exp ( x + 2tx+ t2−t 2 ) dx =∫ 1 exp −1 ( x−t )2+t 2 dx=¿
−∞ √2 π 2 −∞ √ 2 π 2

{ }
2 2
t +∞ t
1 −1
e2
∫ √2π
exp
2
( x−t )2 dx=e 2
−∞

La funzione integranda:

{ } { }
−1
( x−μ ) 2
1 −1 ( 1 1 −1 (
N ( μ , σ ) =N ( t ,1 ) ⟹∫
2 2
2 2
exp x−t ) = e2σ exp x−t ) dx=1
√ 2 π 2 σ √ 2 π √2 π 2
2
t
Quindi: M z ( t )=e 2

{}
2
( ) t
Z M z t =exp Z N ( 0,1 )
2
x=μ+ σz forma deltipo x=a+bz X N ( μ , σ )
2

μt
M x ( t ) =M z ( σt ) e =exp
σ 2t 2
2 { }
exp { e }=exp
μt σ 2 t 2 μt
2
+e { }
{ }
2 2
σ t
⟹ X N ( μ , σ ) M x ( t )=exp
2 μt
+e
2
Proprietà di FGM:
- x M x (t ) y M y(t ) x ⊥ y
z=x + y M z ( t ) =M x ( t ) ∙ M y ( t )
Dim:
M z ( t )=E ( e )=E ( e )=E ( etx ety )=E ( etx ) E ( ety )=M x ( t ) ∙ M y ( t )
tz t (x + y )

Quindi se x ⊥ y ⟹ M z ( t )= M x ( t ) ∙ M y (t )
Oss:
n
x 1 … x n indipendenti x i ∼ M x ( t ) con i=1 , … , n z=∑ x i
i
i=1
n
⟹ M z ( t ) =∏ M x ( t ) i
i=1

Caso A: somma di binomiali indipendenti con lo stesso parametro p


x ∼bin ( n , p ) y ∼bin ( m , p ) x ⊥ y
⟹ z=x+ y ∼ bin ( n+m , p )
Dim:
n
M x ( t ) =( p e +1− p )
t

m
M y (t )=( p e +1− p )
t

n+m
⟹ M z ( t ) =M x (t ) M y ( t )=( p e +1− p )
t
∼bin ( n+ m, p )

Oss:
n
x 1 … x n indipendenti x i ∼ bern ( p ) y =x1 +…+ x n =∑ x i ⟹ y ∼bin (n , p)
i=1

Caso B: somma di Poisson


x ∼ Poisson ( λ1 ) y ∼ Poisson ( λ2 ) x ⊥ y
⟹ z=x+ y ∼ Poisson ( λ1 + λ2 )
Dim:
t
M x ( t ) =exp {λ 1(e −1)}
M y (t )=exp {λ2 (et −1)}
⟹ z=x+ y ∼ M z ( t )=M x ( t ) M y ( t )=exp { λ 1 ( e t −1 ) } exp { λ2 ( e t−1 ) }=exp {(λ 1+ λ2 )(et −1)}
∼ Poisson ( λ 1+ λ2 )

Oss:
n
x 1 … x n indipendenti x i ∼ Poisson ( λ ) ⟹ y =∑ x i ∼ Poisson ( nλ )
i=1

Caso C: somma di Gamma


x ∼ gamma ( θ , α 1) y ∼ gamma ( θ , α 2 ) x ⊥ y
⟹ z=x+ y ∼ gamma ( θ , α 1 + α 2 )
Dim:

( )
α1
θ
M x (t )=
θ−t

( )
α2
θ
M y (t )=
θ−t
( )( ) ( )
α1 α2 α 1 + α1
θ θ θ
⟹ z=x+ y ∼ M z ( t )=M x ( t ) M y ( t )= = ∼ gamma ( θ , α 1 +α 2 )
θ−t θ−t θ−t

Oss:
1)
n
x 1 … x n indipendenti x i ∼ expneg ( θ )=gamma ( θ , 1 ) ⟹ y=∑ xi ∼ gamma ( θ , n )
i=1
2)
2
x ∼ Χ ( n )=gamma ( 12 , n2 ) y ∼ Χ ( m )=gamma ( 12 , m2 )⟹ z=x + y ∼ gamma ( 12 , n+2m )
2

Dim:

( ) ( )
n n −n
1 /2 2 1 2 2
M x (t )= = =( 1−2 t )
1/2−t 1−2 t
−m
2
M y (t )= (1−2t )
−n −m −n+m
2 2 2 2
⟹ z=x+ y ∼ M z ( t )=M x ( t ) M y ( t )= (1−2 t ) ( 1−2 t ) =( 1−2 t ) ∼ Χ ( n+m )

3)
n
x 1 … x n indipendenti x i ∼ N ( 0,1 ) i=1 , … ,n y =∑ x i ∼ Χ 2 ( n )
i=1

FGM del quadrato di una N (0,1):


2
−x
1 2
x i ∼ N ( 0,1 ) f x ( x )= e 2
wi =xi
i
√2 π
{ }√
2
+∞ −x +∞
1 x2 1
M w ( t )=E ( exp {t x })= ∫ exp {t x }
2
i e 2
i
2
dx= ∫ exp t x 2− dx
i
−∞ √2 π −∞ 2 2π

{ } √ { } √
+∞ 2 +∞ −1
1 −x 1 1 −x 2 1 1
¿∫ exp (1−2t ) dx= ∫ exp ( 1−2 t ) dx= =( 1−2t ) 2
−∞ √ 2 π


2 a −∞ √ 2 π 2 1 a
a

{ }
−1

( )
2 ( x− μ)
2
1 −x ( 1 1 1
N ( μ , σ ) =N 0 ,
2
2
Conla funzione integranda exp 1−2t ) = e 2σ

√2 π 1 σ √2 π

2 a
a
2 2
Quindi x ∼ N ( 0,1 ) ⟹ x ∼ Χ ( 1 )
n
x 1 … x n indipendenti x i2 ∼ Χ 2 ( 1 ) indipendenti⟹ y=∑ xi2 ∼ Χ 2 ( n )
i=1
Caso D: somma di normali
x ∼ N ( μx , σx ) y ∼ N ( μ y , σ y ) x ⊥ y
2 2

⟹ z=x+ y ∼ N ( μ x + μ y , σ x 2 +σ y2 )
Dim:

{ 1 2 2
M x ( t ) =exp μ x t + σ x t
2 }
{ 1 2 2
M y (t )=exp μ y t+ σ y t
2 }
1 2 2
2 {1 2 2
⟹ z=x+ y ∼ M z ( t )=M x ( t ) M y ( t )=exp μ x t + σ x t exp μ y t + σ y t
2 } { }
{ 1 2 2
2
2 2
}
¿ exp t(μ x + μ y )+ t (σ x + σ y )t ∼ N ( μx + μ y , σ x + σ y )
2 2

Oss:
n
x 1 … x n indipendenti x i ∼ N ( μ , σ ) i=1 , … , n⟹ y =∑ xi ∼ N ( nμ , n σ )
2 2

i=1
a=0
( )
n 2
1 1 σ 1
⟹ x= ∑ x i= y ∼ N μ , =N ( E ( x ) , var ( x ) ) con y trasformazione lineare 1
n i=1 n μ n b=
n
Dim:
1 2 2
M y (t )=exp nμt + n σ t
2 { }
M ( t )=exp { nμt + n σ t }=exp { μt + t }∼ N ( μ , )
2 2
0t 1 1 11 1σ2 2 σ 2
M x ( t ) =e y
n n n2 2 n n
FGM congiunta/doppia:
( x , y ) → M xy ( t ,u )=E( etx +uy )

Proprietà:
1) M xy ( t , 0 )=E ( e tx+0 y )=E(etx )=M x ( t )
2) M xy ( 0 , u )=M y ( u )
3)

]
r +s

M xy (t , u ) t=0 =E ( x y ) momento misto
r s
r s
∂t ∂ u u=0
4) x ⊥ y ⟺ M xy (t , u )=M x ( t ) M y (u )
Dim:
M xy ( t , u ) =E ( e )=E ( etx euy )=E ( etx ) E ( euy )=M x ( t ) M y ( u )
tx+uy

Esempio: normale bivariata


( x , y ) N 2 (μ x , μ y , σ 2x , σ 2y , ρ)

{ 1 2 2 1 2 2
M xy ( t , u ) =exp μ x t + μ y u+ σ x t + σ y u + ρ σ x σ y tu
2 2 }
1) Distribuzione marginale di x e di y

{ 1
2
1
2
1
} { }
M x ( t ) =M xy ( t , 0 )=exp μ x t + μ y 0+ σ 2x t 2+ σ 2y 02 + ρ σ x σ y t 0 =exp μ x t + σ 2x t 2 ∼ N ( μ x , σ 2x )
2
Analogamente vale per M y (u )

2) Significato di ρ

E ( xy )=
∂2
∂t∂u
M xy ( t ,u ) ] t =0
u=0

M xy ( t ,u )=exp { … } ( μ x +σ 2x t + ρ σ x σ y u )
∂t
∂2 ∂
M xy ( t ,u ) = exp { … } ( μ x + σ x t+ ρ σ x σ y u ) =exp { … } ( μ y + σ y t+ ρ σ x σ y u )( μ x + σ x t+ ρ σ x σ y u ) +exp { … } ( ρ σ x σ y )
2 2 2
∂t ∂u ∂u
∂2
∂t ∂u xy u=0
0
] 0
M ( t , u ) t =0 =e ( μ y )( μ x ) +e ( ρ σ x σ y ) =μ x μ y + ρ σ x σ y =E (xy)
2
E ( x )=μ x var ( x )=σ x
2
E ( y )=μ y var ( y ) =σ y
cov ( xy )=E ( xy )−E ( x ) E ( y )=μ x μ y + ρ σ x σ y −μ x μ y =ρ σ x σ y
cov ( xy ) ρ σxσ y
corr ( x , y )= = =ρ
√ var ( x ) var ( y ) σ x σ y
N.B.

{ 1
2
1
2 } { 1
2 } { 1
ρ=0 ⟹ M xy ( t ,u )=exp μ x t+ μ y u+ σ 2x t 2 + σ 2y u2 =exp μ x t+ σ 2x t 2 exp μ y u+ σ 2y u2
2 }
¿ Mx (t) M y(t )
⟹ ρ=0 ⟺ x ⊥ y
Teorema di Markov:
x v.c. non negativa. Allora
E (x )
P ( X ≥ a) ≤ ∀ a∈R
a
E (x )
P ( X ≥ a ) è una probabilità retro-cumulata di cui il limite superiore è
a
Dim:
E ( x ) = ∑ x p X ( x ) = ∑ x p X ( x )+ ∑ x pX ( x)
x x : x ≥a x : x<a
E ( x )≥ ∑ x pX ( x )≥ ∑ a p X ( x )=a ∑ p X ( x ) =aP( X ≥ a)
x : x ≥a x : x ≥a x : x ≥a
E(x)
⟹ E ( x ) ≥ aP ( X ≥ a ) aP ( X ≥ a ) ≤
a

Esempio: costo per gestione dei cestini dei rifiuti


Il costo atteso annuo per un singolo cestino è di 50$
a) Se abbiamo 20 cestini qual è la prob di spendere più di 4000$?
Y =¿ costo gestione 20 cestini
E ( Y )=( 20 )( 50 ) =1000
E ( Y ) 1000
P ( Y ≥ 4000 ) ≤ = =0,25
4000 4000
La prob di spendere più di 4000$ è superiore del 25%

b) Quanti cestini si possono installare per avere almeno il 95% di prob di non superare i 5000$?
X =¿ costo gestione annua
E ( X ) =n ( 50 ) n=numero cestini50=costo singolo cestino
P ( X ≤5000 ) =?
E (x ) E ( x) E(x)
P ( X ≥ a) ≤ 1−P ( X ≥ a ) ≥ 1− P ( X < a ) ≥1−
a a a
n ( 50 )
P ( X <5000 ) ≥1−
5000
n ( 50 )
1− =0,95 ⟹ n=5
5000
Se installo 5 cestini non spenderò più di 5000 euro
Disuguaglianza di Chebyshev:
2
x con E ( x )=μ var ( x ) =σ
y= ( x −μ ) ⟹ y ≥ 0 E ( y )=E [ ( x−μ ) ]=var ( x)=σ
2 2 2

E(x) 2
P ( y ≥ a )≤ poniamo a=ε con ε >0
a
2 2
σ σ
P ( ( x−μ ) ≥ ε 2 ) ≤ 2 ⟹ P ( ¿ x−μ∨≥ ε ) ≤ 2 disuguaglianza diChebyshev
2

ε ε

Esempio:
x=¿ spesa di un cliente in un negozio
E ( x )=100 sd ( x )=9
Qual è la prob che il cliente spenda più di 200 euro? P ( x ≥ 200 )=?
σ2 92
| | | |
P ( x−μ ≥ ε ) ≤ 2 P ( x−100 ≥ 100 ) ≤ 2
ε 100
P [ ( x ≤ 100−100 ) ∪ ( x ≥ 100+100 ) ] ≤ 0,0081
P [ ( x ≤ 0 ) ∪ ( x ≥200 ) ] =P ( x ≤ 0 ) + P ( x ≥ 200 ) ≤ 0,0081
P ( x ≥ 200 ) ≤ 0,0081

Esempio: intervalli
290
v.c. x con E ( x )=29 var ( x )=
3
a) Qual è la prob che x appartenga all’intervallo (9,49) ?
2 2 2
σ σ σ
P ( ¿ x −μ∨≥ ε ) ≤ 2
1−P ( ¿ x−μ∨≥ ε ) ≥ 1− 2 P (|x−μ|<ε ) ≥ 1− 2
ε ε ε
2
σ 49−9 40
P ( μ−ε < x< μ+ ε ) ≥1− 2 ( μ−ε < x< μ +ε ) =( 9 , 49 ) ε = = =20
ε 2 2
ε =20 μ=29
290
3
P ( 29−20< x <20+29 ) ≥ 1− 2
20
P ( 9< x <4 9 ) ≥ 0,7583
La prob che x appartenga all’intervallo è superiore al 75%

290
Nota: x ∼ gamma ( α =8,7 ; θ=3 ) E ( x ) =29Var ( x )= P ( 9< x <49 )=0,9615
3
concorde con Chebyshev

b) Quale intervallo centrato su 29 ha almeno l’85% di prob di manifestarsi?


2
σ
P (|x−μ|< ε ) ≥1− 2
Incognita è ε
ε
290 1 290 1
P (|x−29|< ε ) ≥1− 85 % di probabilità :1− =0,85 ⟹ ε=25,3859
3 ε2 3 ε2
L'intervallo quindi sarà ( μ−ε < x < μ+ε )=( 29−25,3859< x <29+ 25,3859 )=( 3,6141< x< 54 , 3859 )
Teorema centrale del limite:
2
Siano x 1 , … , x n v . c . IID con E ( x i) =μ e var ( xi ) =σ entrambe finite
Si considerino inoltre le variabili:
Sn−nμ
Sn=x 1 +…+ x n e z n= (S n standardizzata)
√n a
Allora:
lim P ( z n ≤ x )=Φ (n)
n→∞

Se la somma delle x i è sufficientemente grande allora la posso approssimare alla normale


S n−nμ
Sn è somma di componenti IID ⟹ z n= ≈ N ( 0,1 ) ⟹ Sn ≈ N (nμ , n σ 2 )
√nσ
Anche la binomiale è somma di IID
x i bern ( p ) i=1 , … , n con n≥ 30
x=x 1 +…+ x n ⟹ x bin ( n , p ) x ≈ N (n p , n p(1− p))

2 esempi

Teorema: Legge debole dei grandi numeri


2
Siano x 1 , … , x n v . c . IID con E ( x i) =μ e var ( xi ) =σ entrambe finite
Allora:
lim P(|x−μ|≥ ε )=0
n→∞
Dim:
2
σ
x=media campionaria E ( x )=μ e var ( x )=
n
| | σ2 1
ApplicoChebyshev : P ( x−μ ≥ ε ) ≤ 2
n ε
2
σ
Passaggio allimite : lim P (|x−μ| ≥ ε ) ≤ lim2
=0
n→ ∞ n→∞ n ε

lim P (|x−μ|≥ ε ) ≤ 0 ⟹ lim P(|x −μ|≥ ε)=0


n→∞ n→ ∞

Potrebbero piacerti anche