Sei sulla pagina 1di 26
Elementi di Calcolo delle probabilità

Elementi di Calcolo delle probabilità

PERCHÉ SI STUDIA IL CALCOLO DELLE PROBABILITÀ?

Calcolo delle probabilità

Stato di incertezza In cui si formano le decisioni

Stato di incertezza In cui si formano le decisioni Esperimento casuale - prova Un esperimento casuale

Esperimento casuale - prova Un esperimento casuale è un fenomeno del mondo reale per il quale vi è più di un risultato possibile.

L’esito è incerto

Lancio di una moneta

Sondaggio di opinione

Esame universitario

Partita di calcio

Controllo di qualità di un prodotto

Analisi del sangue

etc

PIL

Evento elementare

L’evento elementare è uno dei

risultati

possibili

dell’esperimento casuale

Spazio campione L’insieme di tutti i possibili esiti di un esperimento defini- sce lo spazio campione

Deve necessariamente veri- ficarsi un evento elementare

solo

Si

evento elementare

può

verificare

un

Descrizione dell’esperimento

Evento

Un evento è un insieme di e- venti elementari. Eventi elementari: E 1 , E 2 , ,

E n

A={E 2 , E 3 , E 4 } L’evento A si verifica quando l’esito dell’esperimento è uno degli eventi elementari che lo costituiscono.

promosso bocciato vittoria pareggio sconfitta molto favorevole favorevole indifferente contrario fortemente
promosso
bocciato
vittoria
pareggio
sconfitta
molto favorevole
favorevole
indifferente
contrario
fortemente contrario

Esame universitario

Partita di calcio

Sondaggio di opinione

S

E E 1 5 E 2 E E 6 E 4 7 E 3
E
E
1
5
E
2
E
E
6
E
4
7
E
3

Evento impossibile , l’evento impossibile, è l’evento che non si verifica mai

impossibile, è l’evento che non si verifica mai Esempio lancio di un dado E 1 E

Esempio lancio di un dado

che non si verifica mai Esempio lancio di un dado E 1 E 2 E 3

E 1

E 2

E 3

E 4

E 5

E 6

A={esce

A={esce }= E 3

}= E 3

B={numero di puntini pari}= ={E 2 , E 4 , E 6 }=

E

1

E 2
E
2

E

3

E 4
E
4

E

5

E 6
E
6

C={numero di puntini > 3}= ={E 4 , E 5 , E 6 }=

E

1

E

2

E

3

E 4
E
4
E 5
E
5
E 6
E
6

Evento certo S, l’evento certo, è l’evento che si verifica sempre

Diagrammi di Venn

A
A
S B
S
B

Unione di eventi AB Dati due eventi A e B apparte- nenti ad S, l’unione AB è l’evento costituito da tutti gli eventi elementari che appar- tengono o ad A o a B o ad en- trambi.

L’evento

AB

si

verifica

quando:

Si verifica A ma non si veri- fica B

Si verifica B ma non si veri- fica A

Si verificano sia A che B

S A B
S
A
B

AB

Altre operazioni sugli eventi

Unione

Intersezione

Negazione

Esempio: Unione

• Unione • Intersezione • Negazione Esempio: Unione Lancio di un dado S={E 1 , E

Lancio di un dado

S={E 1 , E 2 , E 3 , E 4 , E 5 , E 6 }

Spazio

campione

A={numero di puntini pari} = {E 2 , E 4 , E 6 }

B={numero di puntini > 3} = {E 4 , E 5 , E 6 }

AB = {E 2 , E 4 , E 5 , E 6 }

Intersezione di eventi Dati due eventi A e B apparte- nenti ad S, l’intersezione AB è l’evento costituito da tutti gli eventi elementari che appar- tengono sia ad A che a B.

L’intersezione AB si verifi- ca quando si verificano sia A che B.

A ∩ B si verifi- ca quando si verificano sia A che B. S A B
S A B Negazione di un evento
S
A
B
Negazione di un evento

AB

Ā

Dato un evento A appartenen- te ad S l’insieme di tutti gli eventi elementari che appar- tengono ad S ma non appar- tengono ad A costituiscono la negazione di A.

La negazione di A si verifica quando A non si verifica

A
A

Ā

S

Esempio: Intersezione

Lancio di un dadoquando A non si verifica A Ā S Esempio: Intersezione S={E 1 , E 2 ,

S={E 1 , E 2 , E 3 , E 4 , E 5 , E 6 }

A={numero di puntini pari} = {E 2 , E 4 , E 6 }

B={numero di puntini > 3} = {E 4 , E 5 , E 6 }

AB = { E 4 , E 6 }

Esempio: Negazione

Partita di calcioE 6 } A ∩ B = { E 4 , E 6 } Esempio: Negazione

S={E 1 , E 2 , E 3 } E 1 : vittoria E 2 : pareggio E 3 : sconfitta

A={vittoria}= E 1 Ā={pareggio, sconfitta} = ={E 2 , E 3 } E 1 =A
A={vittoria}= E 1
Ā={pareggio, sconfitta} =
={E 2 , E 3 }
E 1 =A
E 2
Ā
E 3
E 1 Ā={pareggio, sconfitta} = ={E 2 , E 3 } E 1 =A E 2

S

Relazioni tra eventi

Inclusione

Incompatibilità

Necessarietà

Incompatibilità Due eventi A e B appartenenti ad S si dicono incompatibili quando non hanno eventi ele- mentari in comune

A∩B=∅ S A B
A∩B=∅
S
A
B
non hanno eventi ele- mentari in comune A∩B=∅ S A B N.B. Due eventi incompatibili non

N.B. Due eventi incompatibili non possono verificarsi contempo- raneamente.

Inclusione Dati due eventi A e B apparte- nenti ad S, A è incluso in B se il verificarsi di A implica, ne-

cessariamente, il verificarsi di

B.

AB

A implica, ne- cessariamente, il verificarsi di B. A ⊆ B S A B N.B. A⊆B
S A B N.B. A⊆B e A⊇B A=B
S
A
B
N.B.
A⊆B e A⊇B
A=B

Necessarietà Gli eventi A 1 , A 2 ,

, Appartenenti ad S si dicono necessari se

A 1 A 2

A

n

A n = S

Partizione

Leggi del De Morgan

Gli eventi

A B=A B

A 1 , A 2 ,

,

A

n

Costituiscono una partizione se

A 1 A 2

A i A j =∅ ∀ ij

A n = S

S

A A 1 5 A 2 A 6 A 4 A 7 A 3
A
A 1
5
A
2
A 6
A 4
A 7
A
3

Probabilità

Definizione classica

Definizione frequentista

Definizione soggettivista

Definizione frequentista • Definizione soggettivista Impostazione assiomatica A B S A ∩ B=A ∪ B S

Impostazione assiomatica

A B
A
B

S

A ∩ B=A ∪ B S A B
A ∩ B=A ∪ B
S
A
B
Impostazione assiomatica A B S A ∩ B=A ∪ B S A B Definizione classica di

Definizione classica di Pro- babilità

Dato un esperimento in cui

Vi è un numero finito di ri- sultati possibili

Gli eventi elementari sono equiprobabili

La probabilità è definita come

# casi favorevoli

# casi totali

Pascal (1623-1662) Bernoulli (1713), De Moivre (1718), Laplace

(1812)

Definizione frequentista di Probabilità Dato un esperimento perfet- tamente ripetibile ed un evento possibile E, la probabilità di E è data dal limite della frequen- za relativa con cui si verifica E al divergere del numero di ri- petizioni dell’esperimento.

af PE = lim n →∞ fr a E f
af
PE
=
lim
n
→∞
fr a E f

af

fr E

= lim

n

→∞

a

n E

f

n

Laplace, Venn, Von Mises (prima metà del XIX secolo)

Impostazione assiomatica

Kolmogorov 1930-40

La probabilità è una funzione che soddisfa i postulati

Postulati

1. P(A)0

2. P(S)=1

3. AB=∅ ⇒ P(AB)=P(A)+P(B)

Definizione soggettivista di Probabilità Dato un esperimento ed un evento possibile E, la probabi- lità di E è il grado di fiducia che un soggetto ha nel verifi- carsi dell'evento E.

È la somma che un individuo è pronto a scommettere per ri- cevere una somma unitaria se l’evento E si verifica 0 altri- menti.

Bernoulli (1713) Anni 20: Ramsey, De Finetti, Savage

Teoremi

1. P(Ā)=1-P(A)

2. P()=0

3. P(A)1

4. P(AB)=P(A)+P(B)-P(AB)

S A B
S
A
B

Misura della Probabilità

E 1 , E 2 ,

E

n

, E i E j =(incompatibili)

n

i = 1

E i

= S (necessarietà)

P(E i )=costante (equiprobabilità)

A={E 1 , E 2 ,

a

P A

f =

, E k } # casi favorevoli

# casi totali

a f = k P A
a
f =
k
P A

n

P a A Bf

Dati due eventi A e B, dalla definizione di probabilità con- dizionata (dato P a Bf > 0):

a f b g P A ∩ B P A B = a f P
a
f
b
g
P A
B
P A
B
=
a
f
P B
si ha:
a
f
b
g
a
f
P A
B = PPAB
B

o in alternativa (dato P a A f > 0) essendo:

a f b g P A ∩ B P BA = a f P A
a
f
b
g
P A
B
P BA
=
a
f
P A
si ha:
a
f
b
g
a
P A
B = PPBA

A

f

Probabilità condizionata

Dati due eventi A e B la pro- babilità condizionata di A dato B è:

P b A

f g P a A ∩ B B = f P a B
f
g
P a A
B
B
=
f
P a B

posto P a Bf > 0

NB la probabilità condizionata soddisfa i postulati:

Infatti posto P a C f > 0 risulta:

1.

P A

b

C g 0

2.

P bSC g = 1

3.

P b A

AB=∅ ⇒

BC

= PP AC +
= PP
AC +

g bgbg

BC

e valgono quindi tutti i teore-

mi

Esempio: Probabilità condi- zionata P( ) = 3 8 P( ) = 5 8
Esempio: Probabilità condi-
zionata
P(
) = 3
8
P(
) = 5
8

Estrazione senza rimessa:

P(II= | I = )= 2 7 5 P(II= | I = )= 7
P(II=
| I =
)= 2
7
5
P(II=
| I =
)=
7

Esempio:

Probabilità condizionata 2

Esempio: Probabilità condizionata 2 Estrazione di due palline senza rimessa 3 P( )=P(II= | I =

Estrazione di due palline senza rimessa

3 P( )=P(II= | I = )·P(I= )= 2 7 ⋅ 8 5 P( )=P(II=
3
P(
)=P(II=
| I =
)·P(I=
)= 2
7
⋅ 8
5
P(
)=P(II=
| I =
)·P(I=
)= 4
7
⋅ 8
P(
)=
=P[(I=
∩II=
)∪(I=
∩II= )]=
=P(I=
∩II=
)+P(I=
∩II= )=
3
5
= 5
+ 3
8
7
8
7

Eventi indipendenti Due eventi A e B sono indi- pendenti se (posto P a Bf > 0)

P AB

b

g =

a

P A

f

l’indipendenza è una relazione simmetrica (posti P afB, P afA > 0):

b

P AB

g

=⇔

PP

a

A

f

b

BA

g = P

a

B

Se (e solo se) due eventi sono indipendenti si ha:

P a A B=f P afA P afB

Esempio:

Probabilità condizionata 3 P( ) = 3 8 P( ) = 5 8
Probabilità condizionata 3
P(
) = 3
8
P(
) = 5
8

Estrazione senza rimessa

P(II= | I = )= 2 7 3 P(II= | I = )= 7 P(II=
P(II=
| I =
)= 2
7
3
P(II=
| I =
)=
7
P(II=
=P[(I=
)=
∩II=
∩II=
| I =
)∪(I=
∩II= )]=
=P(I=
)+P(I=
∩II= )=
=P(II=
)·P(I=
)+
+P(II=
| I =
)·P(I=
)+=
21
3
= 2 ⋅+⋅= 3 3 5
=
7 8
7 8
56 8

Esempio: eventi indipendenti

3 3 5 = 7 8 7 8 56 8 Esempio: eventi indipendenti Estrazione con rimessa

Estrazione con rimessa

f P( )=P(I= )·P(II= )=3/8⋅3/8 P( )=P(I= )·P(II= )=5/8⋅5/8 P( )= =P[(I= ∩II= )∪(I= ∩II=
f
P(
)=P(I=
)·P(II= )=3/8⋅3/8
P(
)=P(I=
)·P(II= )=5/8⋅5/8
P(
)=
=P[(I=
∩II=
)∪(I=
∩II= )]=
=P(I=
∩II=
)+P(I=
∩II= )=
3
5
= 5
+ 3
8
8
8
8

Teorema

Dati due eventi A e B si ha:

A e B indipendenti

Teorema Dati due eventi A e B si ha: A e B indipendenti A e B

Ae B indipendenti

A e B indipendenti

A e B indipendenti

Domanda

Eventi incompatibili (con pro- babilità non nulla) possono es-

sere indipendenti? NO

Incompatibilità

nulla) possono es- sere indipendenti? NO Incompatibilità P (A ∩ B)=P( ∅ )=0 a f b

P(AB)=P()=0

a f b g P A ∩ B P A B = a f P
a
f
b
g
P
A
B
P
A
B
=
a
f
P
B

=0

Che può essere uguale a P(A) solo se P(A)=0

Teorema di Bayes Problema Diretto
Teorema di Bayes
Problema
Diretto

???

Problema

inverso H 0
inverso
H 0
??? H 1
???
H 1
P(H 0 ) P(H 1 ) P( P(H 0 | |H 0 ) )=? P(
P(H 0 )
P(H 1 )
P(
P(H 0 |
|H 0 )
)=?
P(
P(H 1 |
|H 1 )
)=?

Teorema di Bayes

H 0 C
H 0
C
H 1
H 1

H 0 H 1 =(incompatibili)

H 0 H 1 =S (necessari)

Probabilità note:

P(H 0 ) e P(H 1 )

P(C|H 0 ) e P(C|H 1 ) probative

a priori

Probabilità da determinare:

P(H 0 |C) e P(H 1 |C) a posteriori

Formula di Bayes

b g P H C = 0 a f b g P H ⋅ P
b
g
P H
C
=
0
a
f
b
g
P
H
P
CH
0
0
=
a
f
b
g
a
f
b
g
P
H
PC
H
+⋅
P
H
P
CH
0
0
1
1
b g P H C = 1 a H f g P ⋅ P b
b
g
P H
C
=
1
a H
f
g
P
P
b CH
1
1
=
a
f
b
g
a
f
b
g
PP
H
CH
+⋅
PP
H
CH
0
01
1
b
g
b
N.B.: P HC
+
P HC
g = 1
0
1

Variabili casuali Una variabile casuale è una funzione definita sullo spazio campione che assume valori in R:

E 1 E 2 x 1 x 2 x 3 R E 4 E 3
E 1
E 2
x 1
x 2
x 3
R
E 4
E 3
X(E): S→R

X(E) non è necessariamente una funzione biunivoca

Variabili casuali bivariate

X

Rapporto di probabilità a posteriori b g a H 0 f b P H 0
Rapporto di probabilità a
posteriori
b
g
a
H
0 f
b
P
H
0 g
P
H
P
C
0 C
=
b
g
a
b
P
H
P
H
1 f
P
C
H
1 g
1 C
Rapporto di verosimiglianza
Rapporto di
verosimiglianza
Esempio: lancio di un dado E 1 E E 2 3 E E 4 E
Esempio: lancio di un dado
E 1
E
E 2
3
E
E 4
E 5
6
R
X(E)=numero di puntini E 1 E 2 E 3 0 1 E 4 E 6
X(E)=numero di puntini
E 1
E 2
E 3
0
1
E 4
E 6
E 5
R
R
a E
0: numero di puntini dispari
f = S
T
1: numero
di
puntini pari

Tipi di variabili casuali Discrete

Una variabile casuale X è di- screta se assume valori in un insieme discreto (finito o infi- nito numerabile). Es. Numero di goal, numero di incidenti, numero di promossi etc

Continue

Una variabile casuale è continua se assume valori in un insieme continuo (con la potenza del con- tinuo).

Es. Durata, peso, altezza, reddito, etc

Es. Lancio del dado

X={1,2,3,4,5,6}

P(X=x)=1/6

x=1,2,3,4,5,6

P(X=x)

1/6

x 1 2 3 4 5 6
x
1 2 3 4 5 6

Variabili casuali discrete

X: x 1 , x 2 , , x k . p(x 1 ), p(x
X: x 1 ,
x 2 ,
, x k .
p(x 1 ), p(x 2 ),
,p(x
k ).
p(x i )=P(X=x i )
i=1,2,
,k
a
1)
px
f ≥ 0
i
i
k
a
f =
2)
∑ p
1
x i
i
= 1
X
P(X=x i )
P(X=x i )
x
p(x 1 )
1
x
p(x 2 )
2
p(x 2 )
p(x 1 )
x
p(x k )
k

x 1 x 2 Variabili casuali continue

x k

funzione

densità di

probabilità

f(x) x x+dx x
f(x)
x x+dx
x

P(xXx+dx)=f(x)dx

Proprietà:

1)

2)

fxa f 0

z

−∞

f a x f

dx

x

= 1

Funzione densità di probabilità

f(x) a b x
f(x)
a
b
x

P(aXb)=Area tratteggiata =

=

z b

a

f

a

x

f

dx

N.B. P(X=x) = 0

Funzione di ripartizione

per v.c. discrete

F(x) 1 F(x j+2 ) F(x j ) 0 x j x j+1 x j+2
F(x)
1
F(x j+2 )
F(x j )
0 x j
x j+1
x j+2
x

Fx

Fx

F

x

1

2

af = a f a

af f = =

px i

x

i

x

a

px

1

f

p x

af af

+

12

p x

F

af = af af ++ af =

x

k

p x

1

+

p x

2

p x

k

Funzione di ripartizione

F(x)= P(Xx) Variabili casuali discrete

Fx

af = a f

px i

x

i

x

Variabili casuali continue

x

a x f = z a f ⋅ F f u du −∞ f(x)
a x
f = z
a
f ⋅
F
f
u
du
−∞
f(x)

x x

Funzione di ripartizione

per v.c. continue 1 F(x) 0 x x a x f = z a f
per v.c. continue
1
F(x)
0
x
x
a x
f = z
a
f ⋅
F
f
u
du
−∞
f
a
f
dF a x
da cui:
f
x
=
dx

1

Proprietà

della Funzione di ripartizione

lim

x →∞

F

a x f = 1

lim

x →−∞

F

a x f = 0

F a x f è non decrescente

F a x f è continua a destra

R

S

T

lim

h

0

+

a

Fx

f

a

Fx

h

f

a

−= px

U

f V

W

v.c. identicamente distribuite Due v.c. X ed Y, che hanno la stessa distribuzione si dicono identica- mente distribuite.

X e Y i.d. F

X

af = af

u

F

Y

u

Come si confrontano v.c. non iden- ticamente distribuite?

u Come si confrontano v.c. non iden- ticamente distribuite? Momenti Valore atteso di v.c. Operatore valore

Momenti

Valore atteso di v.c.

Operatore valore atteso

Il valore atteso di una v.c. X si indi-

ca con E(X) ed è dato da:

Egx

a

E

af =

X

k

i =1

per v.c. discrete

x

i

af

px

i

f

=

R

|

k

gx

S

i = 1

g

−∞

a

x

| z af

T

i

f

f

a

px

af

x

i

f

v.c.discrete

dx v.c.continue

E a X f =

z

−∞

x f afx

dx

per v.c. continue

uguale notazione per v.c. di- screte e continue

operatore lineare

Eaa

X + b f = a EXa

f + b

f(x) x E(X)
f(x)
x
E(X)

Momenti di una v.c. Momento r-esimo della v.c. X:

E

X

r

R

 

k

x

r

|

i

S

i

= 1

|

z

 

r

f

x

T

−∞

 

E

d

X

2

i

 

d

i

µ r

=

µ r

=

µ 1 = E a X f

µ 2

=

a

px

a

x

f

i

f

v.c.discrete

dx v.c.continue

0.5 0.5
0.5 0.5

Mediana

me: F(me)=1/2

me • Moda moda x
me
• Moda
moda
x

x

Momenti di una X-µ

Variabile casuale scarto X-µ

µ f = E afX • E a X − − µ=0 f X-µ (u)
µ f = E afX
• E a X −
− µ=0
f X-µ (u)
f X (u)
0
E(X)= u

momento r-esimo di X-µ

µ f r µ = E a X − r µ 1 = E a
µ f
r
µ
= E
a X −
r
µ
1 = E a X −
µ
f = 0
f
2
µ
= E
a −=
X
µσ
2
a X
f
3
µ
= E
µ
3

2

σ

Varianza

Proprietà della varianza

a f f 2 2 2 • Var a X f = µ − µ
a
f
f
2
2
2 •
Var a X f = µ
− µ
Var X
==
µ
E
a X −
µσ
=
2
2
f
2
Var a a ⋅+=X b
a ⋅Var afX
k
a x
µ f
2
a
f
| R
px
v.c.dis.
i
i
Disuguaglianza di Chebyshev
2
= S
i = 1
2
z a
f
2
a
f
b
g
P
X − µ ≤ ε ≥− σ
1
x
−⋅
µ
f
x
dx v.c.cont.
| T
2
ε
−∞
f(x)
f(x)
E(X)
x
µ-ε µ
µ+ε
x
Scarto quadratico medio:
σ
= Var a X f

v.c. standardizzata

Z =

X µ

σ

F I a f X − µ 1 a f EZ = E H K
F
I
a
f
X −
µ
1
a
f
EZ
=
E
H
K
=⋅
E
X
µ
σ
σ
1
a
f
=⋅
E
X
µ
= 0
σ
L F I O 2 X − µ M P = Var Z = E
L
F
I
O
2
X −
µ
M
P =
Var
Z
= E
H
K
N
σ
Q
2
1
a
f
σ
2
=⋅ E
X −
µ
== 1
2
2
σ
σ

Momenti della v.c. standar- dizzata

=

 

L

F

X

 

=

EZ

r

=

E

M

µ

µ

r

d

i

N

H

σ

I

K

r O

P

Q

µ 1 = E a Z f = 0

µ 2

d

2

i

==E Z

a

Var Z

f

= 1

O

L

M

N Q

P

F

H

I

K

3

X

µ

== E Z a Var Z f = 1 • O L M N Q P

µ

3

= E

σ

=β 1

1 • O L M N Q P F H I K 3 X − µ

γ

2

asimmetria

P F H I K 3 X − µ µ 3 = E σ = β

µ 3

µ 3

µ 3

< 0

= 0

> 0

= µ − 3 → curtosi 4
= µ
− 3 → curtosi
4

v.c. doppie

Una variabile casuale doppia è una

v.c. doppie discrete Distribuzioni marginali

funzione ( ) definita sullo spazio X: x 1 , x 2 , , x
funzione (
)
definita sullo spazio
X: x 1 ,
x 2 ,
,
x k
Y: y 1 , y 2 ,
,
campione che associa ad ogni evento
una coppia di valori reali (X, Y)
Y
yy
⋅⋅⋅
y
y
altezza
1
2
h
X
x
P
P
⋅⋅⋅
P
1
11
12
1h
P 1•
x
P
P
⋅⋅⋅
P
2
21
22
2h
P 2•
x
P
P
⋅⋅⋅
P
k
k1
k 2
kh
P k•
P
P
⋅⋅⋅
P
1
2
•h
x
peso
a
f ∩= c h
P
=
PX
=
x
Y
y
• Distribuzione congiunta
ij
i
j
• Distribuzione marginale
1) P ij ≥ 0
Distribuzione condizionata
→Discrete/continue
Distribuzioni marginali
k
h
2)
∑ ∑
=
1
P ij
i
=
1
j
=
1
Distribuzioni condizionate
Y
yy
⋅⋅⋅
y
1
2
h
X
PX d
=
xY
== i
y
i
j
x
P
P
⋅⋅⋅
P
1
11
12
1h
P 1•
a
f
h
PX
=
x
∩= c Y
y
P
x
P
P
⋅⋅⋅
P
i
j
ij
2
21
22
2h
P 2•
=
=
c
h
PY
=
y
P
j
• j
x
P
P
⋅⋅⋅
P
k
k1
k 2
kh
P k•
P
P
⋅⋅⋅
P
••
1
2
•h
PY c
= y
X
== h
x
a
f ∩= c h
j
i
P
=
PX
= x
Y
y
ij
i
j
c
f
PY
=∩= h a
y
X
x
j
i
P ij
a
f
=
a
f
=
P
=
PX
==
x
PX
=
x
P
i
i
i
i •
h
a
f
h
c
h
=
PX
=
x
∩=
Y
y
= ∑
P
i
j
i j
j
=
1
j
=
1

y h

Indipendenza stocastica

d

c

PX

PY

=

= y

xY

i

j

X

y

j

i

x

a

hc

=

=

PX

PY

==

i

f

==

x

P

ii

=

y

h

=

P

jj

a

P

PX

=

a

=

x

i

∩=

X

i

f

=⋅

x

c

f

c

Y

PY

y

=

j

h

y

j

=

h

P

ij

=

PP

i

j

i=1,2,

,

k

j=1,2,

,h

Indipendenza stocastica v.c. doppie

X ed Y indipendenti f(x,y)= f X (x) f Y (y)
X ed Y
indipendenti
f(x,y)= f X (x) f Y (y)

Variabili casuali doppie continue

Funzione

densità di

probabilità

congiunta.

f(x,y)
f(x,y)

1) f(x,y)0

2)

+∞ +∞

z

z

f a x, y f ⋅⋅=dx dy

−∞ −∞

1

+∞ Funzioni X af = z a f ⋅ f x f x , y
+∞
Funzioni
X af = z a
f ⋅
f
x
f
x
,
y
dy
densità di
−∞
+∞
probabilità
Y af = z a
f ⋅
f
y
f
x
,
y
dx
marginali
−∞
Momenti
v.c. doppie
µ r,s momento misto
di ordine r+s
d
r
s
i
=
EX
Y
µ r s
,

v.c. discrete

µ rs

,

k

h

= ∑ ∑ xyP

i

j

ij

r

s

i

=1

j

=1

v.c. continue

x

+∞ +∞

z

z

µ r s

,

=

−∞ −∞

r

s

y

⋅⋅

f

a

x

,

y

f

dx dy

⋅⋅

Momenti marginali

µ

r

,0

µ

0 ,s

=

d

EX

r

= E

d

X

0

0

i di

EX

r

⋅=

Y

s

i

⋅=Y

di

s

EY

=

=

µ

µ

r

s

Momenti in caso di indipendenza

µ r s

,

=

d

EX

r

k

h

⋅= ∑ ∑

Y

i =

1

j

=

1

s

i

k

h

= ∑ ∑ xyPP

i =

1

j

=

1

i

⋅⋅

j

i

r

s

j

=

k h

=⋅∑

i

xP

i

r

i =

1

j

=

1

s

yP

j

j

= E

=

µ

d

X

r

r

i di

s

⋅=EY

µ

s

=

r

x

i

s

⋅⋅

j

y

P

ij

=

Valore attesoOperatore Lineare

= E a a X + b Y f = a E a

X f + b E afY

Dimostrazione

E a a X + b Y f =

k

h

= ∑ ∑

i =

k

1

j

=

h

1

c

ax

i

+⋅

by

j

k

h

h

P

ij

=

=

∑ ∑ ax

i =

1

j

=

k

1

h

i

⋅+ P ∑ ∑

ij

i

=

1

j

h

=

1

by

k

j

= xPb

i

ij

⋅+

a ⋅ ∑

yP

j

ij

i =

k

1

j

=

1

h

j

11

i

==

=

⋅ ∑

a xP

i

i

⋅+

b

⋅ ∑

y

a

=⋅

i =

E

1

a

X

f

j

=

1

+⋅

b EY

af

j

P

j

=

P

ij

=

=

Covarianza

Coefficiente di correlazione

Cov

a

X

,

Y

f

= a

E

X

 

σ

= XY

σ

=

 

−⋅

XY

µ

XY

µ

X

µ

Y

fa

−⋅

X

µ

Y

µ

Y

f

=

µ XY = EXYa

f

X ed Y ind. σ XY = 0

a

ρ

XY

,

f =

=

E

L

G F

X

µ

X

I

Y

µ

Y

 

M

N

H

σ J K G F H

X

σ

Y

σ

XY

 

σ

X

σ

Y

I J O P

K

Q

=

ρ a X ,Y f è un indice che misura l’intensità del legame lineare

a f = Cov a ⋅ X + b c , ⋅+ Y d ac
a
f =
Cov a
X
+
b c
,
⋅+
Y
d
ac
⋅σ
ρ=0,7
XY
Diseguaglianza di Cauchy-Schwaz:
σ
σ
σ
2
f
σ = Var a X
XY
X
Y
X

σ XY rivela se esiste il segno del legame lineare

X σ X Y rivela se esiste il segno del legame lineare 2 a f ρ=0
2 a f ρ=0 σ = Var Y Y
2
a
f
ρ=0
σ = Var Y
Y
ρ=1 ρ=-0,8
ρ=1
ρ=-0,8

È un indice di prevedibilità

Proprietà ρ(X,Y)

1)

ρ a X ,Y f

1

2)

ρ

a

X ,Y f 1 Y = a X +

b

3) ρ a XY, f = ρ aYX, f

4)

5) X ed Y ind. ρ a X ,Y f = 0

ρ a a X + b,c ⋅+Y

d fa= ρ X ,Y f

Combinazioni lineari

aX+bY

a

E a

a

Var a

X

X+Y

X

b

+⋅

b

+⋅

Y

Y

f =⋅ µ

a

X

b

+⋅ µ

Y

f

22

=

a

2

σ

X

⋅⋅

b

+⋅ a

+

b

22

σ

Y

σ XY

E

a

X

+=f

Y

µ

X

a

Var X

+=

Y

f

+ µ

σ

2

X

Y

+

σ

2

Y

+

X-Y

+

2

σ

XY

E

a

X

−=f

Y

µ

X

a

Var X

f

−=

Y

µ

σ

2

X

Y

+

σ

2

σ XY

2

Y

+

+

Varianza di aX+bY

Var a

+

b

2

a

⋅ +⋅

X

b

Y

2

f

=

2

a

b

af

Var Y

+⋅⋅⋅

a

a

Var a

X ed Y ind

⋅ +⋅

X

b

Y

f

=

+

a

b

2

2

Var X

Cov

a

a

X

f

+

,

Y

f

a

a

Var X

Var Y

f

f

+

Combinazioni lineari

W=a 1 X 1 +a 2 X 2 +

+a

n X n

n

EW

af =

i =1

a

i

a

Var W

f =

Var

F

H

E

a

n

i

= 1

a

i

X

i

n

f =⋅∑

a

iX

µ

i

=1

i

µ X

= E a X
i

i

f

X

i

I

K =

=

n

a

i =

1

2

i

σ

2

X

i

n

+ ∑ ∑

i

=

1

j

i

aa

⋅⋅

ij

σ

X

i X j

σ

2

X

i

a

= Var X

i

f

σ XX

i

j

= Cov

c

X , X

i

j

h

Se le X i sono indipendenti

a

Var W

f =

Var

F

H

n

i

=1

a

i

X

i

I

K

n

= ∑

i

= 1

a

2

iX

2

σ

i