Sei sulla pagina 1di 1

Vettori aleatori discreti Esponenziale

PROBABILITÁ VARIABILI X = (x1 , x2 , ..., xm ) (v. a. discreta X ∼ Esp(λ )


GENERICA ALEATORIE | {z } F(t) = 1 − e−λt (funzione di ripartizione)
v. a. discrete
E[x] = λ1 = µ
DISCRETE m-dimensionale)
Var(x) = λ22
Ω: spazio campionario (tutti gli eventi Ω → R ω → x = (x1 , x2 , ..., xm )
possibili) Densità: p : Rm → R+ Minimo: se X ∼ Esp(λ ) e Y ∼ Esp( µ ) sono
P( Ω ) = 1 e P(0) = 0 Bernoulli indipendenti, allora
w = min(x, y) → w ∼ Esp(λ + µ )
X ∼ B( p) Per v. a. con assenza di memoria:
Spazi uniformi p = probabilità di
successo di 1 evento. Vettori aleatori P(x > a|x > b) = P(x > a − b)
p se x=1
P(A) = #A
Densità: p(x) =
1 − p se x=0 bidimensionali
#Ω
z = (x, y) Gamma
Binomiale Ω → R ω → x = (x1 , x2 , ..., xm )
Uguaglianze Densità: p : Rm → R+ X ∼ Γ(n, λ )
X ∼ Bi (n, p) −λt (λt )k
1) P(Ac ) = 1 − P(A) F(t) = 1 − ∑n−1
k =0 e k! (per t > 0)
Descrive il numero di successi p su n prove E[x] = λn
2) P(A) ≤ P(B) se A ⊂ B indipendenti. Var(x) = λn2
3) P(A ∪ B) = P(A) + P(B) (se A ∩ B = 0)
/ Densità: p(x = k) = (nk) pk (1 − p)n−k Vettori aleatori
oppure E[x] = np
Var(x) = np(1 − p)
bidimensionali
P(A ∪ B) = P(A) + P(B) − P(A ∩ B) (se
z = (x, y)
Chi-Quadro
A ∩ B 6= 0)
/
Densità congiunta: X ∼ χ 2 (n)
4) A ∩ Ac = 0, / A ∪ Ac = 1 Binomiale negativa pz (x, y) = P(X = x,Y = y) x = z21 + ... + z2n (dove n indica i gradi di
P ( Ac ) = P ( Ω ) = 1 = P ( A ) + P ( Ac )
Densità marginale: px (x) = P(X = x) e libertà)
5) P(Ac ∩ Bc ) = 1 − P(A ∪ B) X ∼ Bi (−n, p)
py (y) = P(Y = y) F(t) = consultare le tavole (1a colonna per gli
Descrive il numero di insuccessi prima del
6) 0/ = Ω (proprietà del complementare)
c n gradi di libertà, 1a riga per t)
primo successo.
E[x] = n
7) B = B ∩ (A ∪ Ac ) = (B ∩ A) ∪ (B ∩ Ac ) Densità: p(x = k) = (n+kk−1) pn (1 − p)k Var(x) = 2n
P(B) = P(B ∩ A) + P(B ∩ Ac ) (prob. E[x] = n( 1−p
p )
Covarianza Quantile: usare le tavole "al contrario"
dell’evento certo)
Var(x) = n( 1−p
p2
) Cov(x, y) = E [(x − E [x])(y − E [y])]
8) E [xy] = E [x]E [y]
P(A ∪ B ∪C ) = P(A) + P(B) + P(C ) − P(A ∩ Coefficiente di correlazione: T di Student
B) − P(A ∩C ) − P(B ∩C ) + P(A ∩ B ∩C ) Geometrica ρxy = √ Cov(√ x,y)
Var (x) Var (y) T ∼ t (n)
(prob. dell’ordinamento certo)
X ∼ G( p) Proprietà: T = √z y (con z ∼ N (0, 1) e y ∼ χ 2 (n))
9) (A ∪ B)c = Ac ∩ Bc (De Morgan) Descrive il numero di prove necessarie per Var (x, y) = Var (x) + Var (y) + 2Cov(x, y) n
F(t) = consultare le tavole (per n > 120 si ha
ottenere il primo successo.
che t (n) ∼ N (0, 1))
Densità: p(x = k) = p(1 − p)k−1
Probabilità condizionata E[x] = 1p
E[T] = 0 (per n > 2)
n
Var(T) = n−2 (per n > 3)
(Bayes) Var(x) = 1−p
p2
Quantile: per n 6 120 leggere le tavole, per

• P(A | B) = P(A∩B) VARIABILI n > 120 usare le tavole della Normale


P(B)
Geometrica traslata ALEATORIE
• P ( A ) = P ( A | B ) P ( B ) + P ( A | Bc ) P ( Bc )
P(F ) = P(F | A)P(A) + P(F | X ∼ G( p)
CONTINUE Distribuzione uniforme
B)P(B) + · · · + P(F | Z )P(Z ) (teorema delle Descrive il numero di insuccessi precedenti al
probabilità totali) primo successo.
in un intervallo [a, b]
Densità: p(x = k) = p(1 − p)k
Normale standard X ∼ U (a, b)
• P(B | A) = P(A|B )P(B)
P(A) E[x] = 1−p 1

p Z ∼ N (0, 1) se a<x<b
se B ⊂ A ⇒ P(A | B) = 1 (vero) Densità: f (x) = b−a
Var(x) = 1−p Funzioni di ripartizione sulle tavole: 0 altrimenti
se A ⊂ B ⇒ P(A | B) = 0 (falso) p2 a+b
E[x] =
• P ( Bc | A ) = 1 − P ( B | A ) 1) P(a 6 z 6 b) = Φ(b) − Φ(a) 2
)2
Var(x) = (b−a
se P(A | B) = P(A) ⇔ P(B | A) = P(B) Ipergeometrica 2) P(−t 6 z 6 t ) = 2Φ(t ) − 1
12

• Indipendenza:
X ∼ G(n, b, r )
→ di 2 insiemi sse P(A ∩ B) = P(A)P(B) Estraggo n oggetti da un insieme di r + b 3) P(z < −a) = Φ(−a) = 1 − Φ(a) Media (valore atteso)
→ di 3 insiemi sse oggetti. X indica quanti oggetti di tipo r ci
4) P(z < a) = Φ(−a) E[x] = ∑∞ i=0 xi p(xi )
P(A ∩ B ∩C ) = P(A)P(B)P(C ) e sono tra gli n estratti.
( r )( b )
Non ho speranza matematica finita se
P(A ∩ B) = P(A)P(B) e Densità: p(x = k) = k b+n−k 5) P(z > a) = 1 − Φ(a) E [x] = 0, quindi si dice "x centrata".
P(A ∩C ) = P(A)P(C ) e ( n r)
P(B ∩C ) = P(B)P(C ) E[x] = np (con p = b+r r ) Prop. della linearità:
+r−n E [cx] = cE [x]
Var(x) = np(1 − p)( bb+ r−1 )
Normale standard E [x + y] = E [x ] + E [y]
Permutazione traslata
Prop. della densità:
E [cx] = cE [x]
Semplice: Pn = n!
Poisson E [xy] = E [x]E [y]
Con ripetizione: Pn,k1 ,k2 ,...,kr = n!
X ∼ P0 (λ ) Z ∼ N ( µ, σ 2 )
k1 !k2 !...kr !
Se ho X ∼ B(n, p) con n grande e p piccolo, Dev’essere ricondotta ad una Normale
standard:
lo approssimo a Poisson con λ = E [x] = np
P(x > a) = P(z > a−µ
Disuguaglianza di
σ ) = 1 − Φ( σ )
a−µ
Disposizione Densità: p(x = k) = λ k −λ
(binomiale)
k! e Somma: Chebychev
Semplice: E[x] = λ w = x1 + x2 → w ∼ N ( µ1 + µ2 , σ12 + σ22 )
Dn,k = n(n − 1)(n − 2)...(n − k + 1) Var(x) = λ Differenza: Data x v. a. (discreta o continua) con
| {z }
w = x1 − x2 → w ∼ N ( µ1 − µ2 , σ12 + σ22 ) µ = E [x] e σ 2 = Var (x), preso un qualunque
k termini
Quantile: usare le tavole "al contrario" σ2
Con ripetizione: Dn,k = nk r > 0 si ha che ∀r > 0 P(|x − µ| > r ) 6
Proprietà della varianza r2

µ = media
Combinazione σ = deviazione standard Quantile α-esimo Densità di v. a. continue
Dn,k σ 2 = varianza
Semplice: Cn,k = (nk) = n!
Pk = k!(n−k)! Var (x) = E [(x − E [x])2 ] Normale standard:
É l’unico valore qα tale che P(x 6 qα ) = α t
Con ripetizione: Cn,k = ( n ) = (k!n+
n+k−1 k−1)! Var (x) = ∑∞ 2
i=1 (xi − µ ) p(xi ) Come si fa a trovare il qα di una v. a. f (t ) = √12π e− 2 = ϕ (t )
(n−1)!
E [xy] = E [x]E [y] ⇒ x e y sono indipendenti Normale? Si legge la tavola delle Normali "al Distrib. Esponenziale:
Proprietà: contrario". 
λ e−λt se t > 0
Proprietà del binomio 1) Var (x) = E [x2 ] − E [x]2 ES: ho α = 0, 52 e voglio trovare il quantile f (t ) =
0 se t < 0
zα ⇒ Φ(zα ) = 0, 52. Dalle tavole, il più
• (nk) = (n−k
n
) 2) Var (aX ) = a2Var (X ) vicino è 0, 51994 che corrisponde a 0, 0 (riga)
Distribuzione Gamma
fx (t ) con X ∼ N (0, 1)
• (n1) = (n−1
n
)=n 3) Var (a + X ) = Var (X ) e 0, 05 (colonna) ⇒ zα = 0, 05
Distribuzione T di Student
ES: siccome nelle tavole non esiste −t 2
• (n0) = (n−0
n
)=1 4) se x e y hanno varianza finita e sono 0 < α < 0, 5, allora α > 0, 5 ⇒ 1 − α > 0, 5 ϕ (t ) = √12π e 2
indipendenti, allora (e quindi z1−α esiste nelle tavole)
• (nk) = (n−1 n−1
k ) + ( k−1 ) T = √z y (con z ∼ N (0, 1) e y ∼ χ 2 (n))
Var (x + y) = Var (x) + Var (y) (con la media ES: z0,05 = z1−0,05 = −z0,95 = −1, 6449 n
• (nk) = (k−1
n n−k+1
) k lo posso fare anche se non sono indipendenti) (α = 0, 95 ⇒ zα = 1, 6449) T ∼ t (n) (per n > 120)

Potrebbero piacerti anche