Sei sulla pagina 1di 10

Formulario di probabilità e statistica

f(x) := funzione di densità di probabilità F(x) := funzione di ripartizione di probabilità P(x) := massa di probabilità – P(X=x)

Normalizzazione della densità di probabilità:

+∞

−∞

f

( x ) dx =1

Valore atteso

discreto:

E

[ X ]= ( x i P ( X = x i ))

 

i

+∞

continuo:

E [

X ]=

x

f ( x ) dx

−∞

E[aX+b] = aE[X]+b

Varianza := Var[X] = E[X 2 ]-E[X] 2 = σ 2

Deviazione standard :=

Var [ X ]=σ

Probabilità condizionata

P ( AB )= P ( P A ( B ) B )

P ( AB )= P ( BA ) P ( A )

Formula di Bayes:

P ( B ) Unione: P ( AB )= P ( A )+ P ( B )− P ( AB )

1

Distribuzione di Bernoulli: X ~ B(p)

Data una variabile aleatoria X con l'insieme degli esiti possibili x {0, 1} e relative

probabilità

P(X=1) = p

P(X=0) = 1-p

X si dice distribuzione bernoulliana di parametro p: X ~ B(p)

E[X] = 1 P(X=1) + 0 P(X=0) = p

Distribuzione binomiale: X ~ B(n, p)

n: numero di ripetizioni indipendenti di esperimenti con una variabile aleatoria di

Bernoulli;

x:

numero di successi

X

~ B(n, p) dove p è la probabilità di successo della v.a. di Bernoulli.

P

( X = i )= ( n ) p i (1p ) n i

i

P ( x = i +1)= p

1p

n i

i +1

E

n

[ X ]= E [ X i ]= np

i =1

P ( X = i )

n

Var ( X )= Var ( X i )= np (1p )

i =1

Distribuzione di Poisson: X ~ P(λ)

X {0, 1, 2, …} X ~ P(λ)

i

P ( X = i )= λ ! e −λ

i

E[X] = λ Var[X] = λ Per calcolare i valori successivi/consecutivi:

P

( X = i )= λ P ( X = i 1)

i

2

Distribuzione continua uniforme: X ~ U([βα])

Distribuzione continua uniforme: X ~ U([ β – α] ) Una variabile aleatoria continua è uniforme

Una variabile aleatoria continua è uniforme se la funzione di densità in [α, β] è:

f

( x )= {

1

βα per α≤ x ≤β

0

altrimenti

P ( a < X < b )=

1

b

β−α

a

dx = b a

β−α

β

E [ X ]= x f ( x ) dx = x

−∞

α

β

β−α dx = β−α

α

1

1

x

dx =

β−α[ x 2

1

2

β

] α

=

β−α β 2 −α 2

1

2

= α+β

2

E

β

[ X 2 ]= +∞ x 2 f ( x ) dx = x 2

−∞

α

β−α dx = β−α[ x 3

1

1

3

]

β

α

=

β

3

3

−α

3(β−α)

= (β−α)(α 2 +αβ+β 2 ) = α 2 +αβ+β 2

3(β−α)

3

Var [ X ]= E [ X 2 ]− E [ X ] 2 = α 2 +αβ+β 2

3

( α+β ) 2 = α 2 +αβ+β 2 α 2 2 +2αβ

2

3

4

=

4α 2 +4αβ+4β 2 3α 2 3β 2 6αβ = α 2 2αβ+β 2 = (β−α) 2

12

12

12

Distribuzione normale o gaussiana: X ~ N(µ, σ 2 )

Normale standard:

Z := X μ

σ

Z ~ N(0,1)

P ( X < b )= P ( X μ

σ

< b −μ

σ

)= P (Z < b μ )( b μ

σ

σ

)

P ( a < X < b )= P ( a μ < Z < b μ )= P (Z < b μ )P (Z < a μ )( b μ )−Φ( a μ

P (− a < Z < a )=2P ( Z < a )−1

σ

σ

σ

σ

σ

σ

Funzione di densità per la normale:

f ( x )=

1

(2πσ 2 ) e

( x −μ) 2

2σ 2

Valore atteso: E[X] = μ

3

)

Momento secondo: E[X 2 ] = σ 2 + µ 2 Varianza: Var[X] = E[X 2 ]-E[X] 2 = σ 2

Se X ~ N(µ, σ 2 ) e Y= αX + β → Y ~ N(αµ+β, α 2 σ 2 )

Definiamo z α tale

che: P ( Z > z α )=α=1−Φ(

z α )→Φ( z α )=1−α

Distribuzione esponenziale: X ~ ε(λ)

X

~ ε(λ)

Il

parametro λ indica l'intensità, equivale al reciproco del valore atteso.

f

( x )= { λ e λ x

0

x 0

per per x <0

Funzione di ripartizione F(x)=P(X ≤ x) = 1 - e - λx P(X>x) = e -λx

E

E

[ X ]=

1

λ

[ X 2 ]=

2

λ

2

Var [ X ]= E [ X 2 ]− E [ X ] 2 =

1

λ

Distribuzione Chi-quadro

Se le Z i ~ N(0,1), si definisce Chi-quadro ad n gradi di libertà una variabile aleatoria X tale che

n

X

:=

Z i

i =1

2

n

∼χ

X

P ( X ≥χ

2

α , n

)=α

Distribuzione T-STUDENT

Date due variabili aleatorie indipendenti, Z ~ N(0,1) e C n ~ χ n

Z

T

C n / n E [ T n ]=0, n 2

Var ( T n )= n n 2 , n 3

n :=

4

2

Per simmetria della T-student abbiamo:

P

( T n t α , n )=α= P ( T n ≤− t α , n )=1P ( T n >− t α , n )

P

( T n ≥− t α , n )=1−α

t α , n = t 1−α , n

Media campionaria vs valore atteso: dato un certo numero n di esperimenti che danno dei valori X i , la media campionaria è il valore medio di tali esperimenti, e può variare

ripetendo gli esperimenti, mentre il valore atteso è dato dalla somma di tutti i possibili valori che possiamo ottenere dall'esperimento (es. il lancio di un dato ha 6 possibili valori) per la loro probabilità, ed è fisso. Dato un insieme n di esperimenti abbiamo

̄

lim X = E [ X ]

n →∞

ovvero al crescere di n la media si avvicina sempre più al valore atteso.

Date n variabili aleatorie, X 1 , X 2 , …, X n , definiamo la media campionaria come:

X = X 1 + X 2 +

̄

+

X n

n

Valore atteso della media campionaria:

E [ X ]= E [ X 1 + X 2 +

̄

n

+

X n

]

= E [ X 1 ]+ E [ X 2 ]+

+

E [ X n ]

n

= n μ

n

Varianza della media campionaria:

Var [ X ]= Var ( X 1 + X 2 +

̄

n

+

X n

)

= Var ( X 1 )+ Var ( X 2 )+

+

Var ( X n )

2

n

= n σ 2

= σ 2

= σ 2

n 2

n

Deviazione standard della media campionaria:

σ

2

n =

σ

n

Teorema del limite centrale

Date n variabili aleatorie i.i.d. (indipendenti e identicamente distribuite) con media μ e varianza σ 2 ,

n

i =1

X i N ( n μ , n σ 2 )

Che possiamo normalizzare, ottenendo

n

i =1

( X i )− n μ

σ n

N (0,1) da cui:

5

P

(

n

i =1

( X i )− n μ

σn

< x ) =Φ( x )

Teorema del limite centrale applicato a v. a. binomiali

Data la v.a. Binom. X {0, 1} con P(x=1) = p e P(x=1) = 1-p sapendo che:

E[X i ]=p VAR[X i ]=p(1-p) per n sufficientemente grande abbiamo

X np

p ) ∼ N (0,1)

np (1

ovvero, la somma di n variabili aleatorie binomiali X i è approssimabile ad una normale di parametri

X N (μ= np , σ 2 = np (1p ))

Distribuzione della media campionaria Data la media campionaria

̄

X

:= 1

n

n i =1

X i

Poiché il valore atteso di X è µ e la deviazione standard è σ/n 1/2 ,

̄

X −μ

σ/n

ovvero:

N (0,1) (6.3.4)

2

X N , σ

̄

n )

Varianza campionaria, S 2 – Deviazione standard campionaria S = √S 2

S 2 :=

1

n 1 E[S 2 ] = σ 2

n

i =1

( X i X ) 2

̄

Varianza campionaria S 2 e chi-quadro, χ 2 S 2

( n 1)

2

2

χ n 1

σ

P ( S 2 > b )= P ( ( n 1) σ 2 >( n 1) b

σ

2

S

2 )

6

Deviazione standard campionaria e T-student

̄

X −μ

S /n

t n 1

Intervalli di confidenza

Intervalli di confidenza a livello 1 – α

per la media μ conoscendo la varianza

per la media μ usando la varianza campionaria

per la varianza σ 2

per ipotesi

μ

Nota

σ

Non nota σ, con S 2

non nota

μ

μ

σ 2

bilaterale

̄

x ± z α/2

σ

n

x ± t α/2, n 1

̄

s

n

( n 1) s 2 , ( n 1) s 2

2

, n 1
2

χα

χ

2

1α , n 1

2

sinistro

̄

−∞ , x + z α

σ

n

−∞ , ̄ x + t α , n 1

0,

( n 1) s 2

χ

2

1−α , n 1

s

n

destro

x z α

̄

σ

n ,

̄ x t α , n 1

( n 1) s 2

2

χ α , n 1

s

n

, +∞

,

Nel caso dell'intervallo di confidenza a livello 1 – α con varianza σ nota, se si vuol trovare n tale che che l'intervallo di confidenza bilaterale sia ampio ± b :

̄

x ± z α/2

n ̄ x ± b z α/2 n = b n = z α/2 σ n = ( z α/2 σ

σ

σ

b

b

) 2

Intervalli di confidenza della differenza delle medie di due distribuzioni Dati due campioni indipendenti X 1 , X 2 , …, X n con varianza σ x Y 1 , Y 2 , …, Y m con varianza σ y l'intervallo di confidenza della differenza delle loro medie a livello 1 – α è dato da:

2

2

μ x −μ y = ̄ x ̄ y ± z α/2 σ x + σ y

2

n

2

m

Con σ x e σ y non note ma uguali, utilizzando lo stimatore della varianza comune S p 2 ,

ricavato dalla media pesata delle singole varianze campionarie S x 2 e S y 2 :

S

p = ( n 1) S 2

2

x +( m 1) S y

n + m 2

(7.4.9)

2, n + m2 S p

n + 1

1

m

μ x −μ y = ̄ x ̄

y ± t α

(7.4.11)

Intervalli di confidenza per la media di una distribuzione di Bernoulli

Dato

p̂ = X

n

μ= p̂± z α/2 p̂(1p̂)

n

(7.5.3)

8

Se si vuol trovare n tale che che l'intervallo di confidenza bilaterale sia ampio ± b / 2 :

2

α/ 2

n = 4z

b

̃p (1 ̃p ) (7.5.4)

Verifica delle ipotesi

Con varianza σ 2 nota

H o

H 1

µ = µ 0

µ ≠ µ 0

µ ≤ µ 0

µ > µ 0

µ ≥ µ 0

µ < µ 0

Si rifiuta H 0 con significatività α se:

̄

X

−μ 0

σ/n

−μ 0

̄

X

σ/ n

̄

>

> z α

2

z α

X

−μ 0

σ/ n

<− z α

liv.

Di

P-dei-dati se:

2P ( Z >

P ( Z >

̄

X

P ( Z <

̄

X

−μ 0

σ/n

−μ 0

)

)

σ/n

̄

X

−μ 0

σ/n

)

Con varianza σ 2 non nota, usando la varianza campionaria S 2

H o

H 1

µ = µ 0

µ ≠ µ 0

µ ≤ µ 0

µ > µ 0

µ ≥ µ 0

µ < µ 0

Si rifiuta H 0 con significatività α se:

̄

X

−μ 0

S /n

−μ 0 / n

−μ 0 / n

̄

X

S

̄

X

S

> t α

2

, n 1

> t α , n 1

< t α , n 1

liv.

Di

P-dei-dati se:

2P ( T n 1 >

P ( T n 1 >

̄

X

P ( T n 1 <

̄

X

−μ 0

S /n

−μ 0

)

)

S

̄

X

/n

−μ 0

S

/n

)

Su una popolazione di Bernoulli (come nel caso di varianza nota)

Data una distribuzione X ~ B(n, p)

E[X] = np = µ

VAR[X] = np(1-p) = σ 2

9

Per n grande può essere approssimata ad una normale, ~ N(np, np(1-p))

Z =

np np (1

̄

X

p ) ∼ N (0,1)

H o

H 1

p = p 0

p ≠ p 0

p ≤ p 0

p > p 0

p ≥ p 0

p < p 0

Si rifiuta H 0 con significatività α se:

̄

X np np (1

p ) > z α

2

̄

X

np

np (1

p

) > z α

̄

X

np

np (1

p

) <− z α

liv.

Di

P-dei-dati se:

2P ( Z >

np (1p ) )

̄

X

np

P ( Z >

P ( Z <

np (1p ) )

̄

X

np

np (1p ) )

̄

X

np

Le ipotesi nulle vengono rifiutate a livelli di significatività α > p-dei-dati.

10