Sei sulla pagina 1di 8

Probabilità e statistica

Martino Papa

September 2022
Indice

1 Teoria e modello matematico 2


1.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Distribuzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Funzione di Ripartizione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Densità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Probabilità condizionata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1 Eventi indipendenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Calcolo dei momenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.5 Disuguaglianze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2 Distribuzioni 6
2.1 Distribuzioni discrete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.2 Distribuzioni continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

3 Calcolo combinatorio 7
3.1 Disposizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1
Capitolo 1

Teoria e modello matematico

1.1 Introduzione
Sigma algebra una famiglia non vuota Σ ⊂ P(Ω) è detta σ-algebra in Ω se
i Ω, ∅ ∈ Σ
ii E ∈ Σ ⇒ E C ∈ Σ (C-chiusa)
iii {Ej }num ⊂ Σ ⇒ j Ej ∈ Σ
S

Partizione {Ai }ni=1 è detta partizione di Ω se Ai ∩ Aj = ∅ ∀i ̸= j e


n
[
Ai = Ω (1.1)
i=1

Misura di probabilità sia X un insieme, A σ-algebra in X. Una misura di probabilità su A è una funzione
P : A → [0, 1] t.c.
• P(∅) = 0
• P(Ω) = 1 (normalizzazione)
• se {Ej } è una famiglia numerabile di insiemi di A a due a due disgiunti, allora
 
[ X
P  Ej  = P(Ej ) (1.2)
j j

Proposizione Data una sigma algebra A, µ misura su A vale:


• ∀A, B ∈ A, B ⊂ A ⇒ µ(B) ≤ µ(A) inoltre (monotonia)

µ(A\B) = µ(A) − µ(B) (1.3)

• ∀A, B ∈ A vale
µ(A ∪ B) = µ(A) + µ(B) − µ(A ∩ B) (1.4)

Variabile aleatoria sia (Ω, A, P) uno spazio di probabilità, una variabile aleatoria è una funzione

X : (Ω, A) → (R, B(R)) (1.5)

tale che:
• X −1 (I) ∈ A, ∀I ∈ B(R)
• X −1 ((−∞, t]) ∈ A, ∀t ∈ R
Memo: B(R) è la famiglia dei Boreliani di R, si tratta della più piccola σ-algebra contenenti tutti gli aperti di
(R, τe )

2
Esempio Sia X : Ω → R variabile aleatoria che descrive il lancio di una moneta, Ω = {T, C}
(
. 0 se x = C
x 7→ X(x) = (1.6)
1 se x = T

1.2 Distribuzione
Sia (Ω, A, P) uno spazio di probabilità, X una variabile aleatoria. Definiamo distribuzione di X

µX : B(R) ∋ I 7→ µX (I) = P(X ∈ I) ∈ [0, 1] (1.7)

Distribuzione discreta sia X variabile aleatoria discreta allora


( n
)
X
µX = (xk , pK ) | k ∈ {0, . . . , n} ⊂ N, xk ∈ R, pk ≥ 0, pk = 1 (1.8)
k=0

1.2.1 Funzione di Ripartizione


Definiamo funzione di ripartizione rispetto ad una variabile aleatoria X la funzione

FX : R ∋ t 7→ µX ((−∞, t]) = P(X ≤ t) ∈ R (1.9)

1.2.2 Densità
sia X una variabile aleatoria, definiamo densità di X

pX : R ∋ x 7→ µX ({x}) = P(X = x) ∈ [0, 1] (1.10)

1.3 Probabilità condizionata


Data una misura di probabilità P si vuole conoscere la probabilità di un evento A sapendo che un altro evento B
si è verificato precedentemente (A, B ∈ Ω).

. P(A ∩ B)
PB (A) = (1.11)
P(B)

Teorema Sia {Bi }num una partizione numerabile di Ω, vale ∀A ∈ Ω:


• formula di disintegrazione X
P(A) = P(A ∩ Bi ) (1.12)
i

• formula delle proprietà totali X


P(A) = P(Bi )PBi (A) (1.13)
i

in particolare:
P(A) = P(B)PB (A) + P(B C )PB C (A) (1.14)

Formula di Bayes Sia (Ω, A, P) spazio di probabilità, A, B ∈ Ω, P(A), P(B) > 0 allora:

PB (A) · P(B)
PA (B) = (1.15)
P(A)

Dimostrazione:
PA (B)P(A) = P(A ∩ B) = PB (A)P(B)

Regola della catena siano {Ai }ni=1 ⊂ Ω allora vale:


n
!
\
P Ai = P(A1 )PA1 (A2 ) · · · PA1 ∩···∩An (An ) (1.16)
i=1

3
1.3.1 Eventi indipendenti
siano {Ai }i∈I ⊂ Ω, I ⊂ N eventi, essi si dicono indipendenti se ∀J ⊂ I vale:
 
\ Y
P Aj  = P(Aj ) (1.17)
j∈J j∈J

Notazione: se A, B indipendenti scriviamo A ⊥⊥ B

1.4 Calcolo dei momenti


Moemento Sia k ∈ N, m ∈ R, X variabile aleatoria. Definisco momento di ordine k e origine m
• se X ∼ {(xi , pi )} variabile aleatoria discreta
n
. X
µm,k = (xi − m)k pi (1.18)
i=1

• se X è continua Z +∞
.
µm,k = (x − m)k pX (x)dx (1.19)
−∞

Media sia X variabile aleatoria, definiamo media o valore atteso di X:


• se X ∼ {(xi , pi )} discreta
n
. X
E[X] = xi pi (1.20)
i=1

• se X continua Z +∞
.
E[X] = xpX (x) dx (1.21)
−∞
dove pX è la densità.

Proposizione siano X, Y variabili aleatorie allora


• E[aX + bY ] = aE[X] + bE[Y ], ∀a, b ∈ R (linearità)
• E[X] = E[E[X]]
• se X discreta allora
n
X
E[X a ] = xai pi , ∀a ∈ R (1.22)
i=1

• se X continua allora Z +∞
E[X a ] = xa pX (x) dx, ∀a ∈ R (1.23)
−∞

• sia µm,k il momento di X, allora


µm,k = E[(X − a)n ] (1.24)

Varianza sia X una variabile aleatoria, definiamo varianza di X


.
Var(X) = E[(X − E[X])2 ] (1.25)
• se X ∼ {(xi , pi )}ni=1 variabile discreta
n
X
Var(X) = (xi − E[X])2 pi (1.26)
i=1

• se X variabile continua Z +∞
Var(X) = (x − E[X])2 pX (x) dx (1.27)
−∞

La varianza ci informa di quanto lontano ci troviamo mediamente dal valore medio.

4
Scarto quadratico medio sia X una variabile aleatoria
. p
σX = Var(X) (1.28)

Covarianza siano X, Y variabile aleatorie, definiamo

Cov(X, Y ) = E[X · Y ] − E[X]E[Y ] (1.29)

Proposizione siano X, Y variabili aleatorie, a ∈ R

• Var(X) = Cov(X, X)
• Var(aX) = a2 Var(X) e Cov(aX, Y ) = a Cov(X, Y )
• Cov(X, Y ) = Cov(Y, X)

• Var(a) = 0
• Var(X + Y ) = Var(X) + 2 Cov(X, Y ) + Var(Y )
• Cov(X, Y ) ⇒ X ⊥
⊥ Y , ovvero X,Y indipendenti

Funzione generatrice dei momenti sia X variabile aleatoria definiamo funzione generatrice dei momenti:
.
MX : R ∋ t 7→ MX (t) = E[etX ] ∈ R (1.30)

• se X ∼ {(xi , pi )}ni=1 variabile aleatoria discreta


X
MX (t) = etxk pK (1.31)
k∈N

• se X variabile continua Z +∞
MX (t) = etx pX (x) dx (1.32)
−∞

e vale:
dn MX (t)
= E[X n etX ] = E[X n ] (1.33)
dtn t=0
t=0

1.5 Disuguaglianze
Disuguaglianza di Chebychev

5
Capitolo 2

Distribuzioni

2.1 Distribuzioni discrete


2.2 Distribuzioni continue

6
Capitolo 3

Calcolo combinatorio

3.1 Disposizioni
Sia A un insieme, |A| = n < ∞. Una disposizione è un raggruppamento ordinato di k ≤ n elementi estratto da
un insieme A. Le disposizioni possono essere:
• Con ripetizione, se ogni elemento di A può essere estratto più di una volta. In questo caso il numero di
disposizioni possibili corrisponde a ′
Dn,k = nk (3.1)

• Senza ripetizione, se ogni elemento di A può essere estratto una sola volta. In questo caso
n!
Dn,k = (3.2)
(n − k)!

Permutazioni Chiamiamo permutazioni le disposizioni senza ripetizioni di k = n elementi.


.
Pn = Dn,n = n! (3.3)

Potrebbero piacerti anche