Sei sulla pagina 1di 27

STATISTICA

Dispense

INDICE

1. Probabilità generale

Calcolo combinatorio (Permutazioni, Disposizioni, Combinazioni)

Spazio campionario Insieme delle parti, Evento, Spazio degli eventi Funzione di probabilità, Spazio di probabilità Assiomi di Kolmogorov, Regola additiva generale Probabilità uniforme Probabilità complementare Leggi di De Morgan Definizione di probabilità condizionata (e corollari) Teorema delle probabilità totali Teorema di Bayes (e corollario) Indipendenza di eventi

2. Variabili casuali

Variabili casuali discrete e continue Funzioni di densità e ripartizione Valore atteso Varianza Momenti e funzione generatrice Probabilità congiunta e marginale Indipendeza di variabili casuali Mediana, Moda, Mediana, Quantili Variabili Uniformi (discreta e continua) Variabile di Bernoulli Variabile Binomiale Variabile di Poisson Variabile Esponenziale Relazione Poisson-Esponenziale Variabile Geometrica Variabile Normale e Normale Standard Considerazioni sulla Normale Considerazioni sulla Normale Standard Calcolo delle aree Approssimazioni alla Normale Standard Disuguaglianze (Markov e Chebyshev)

3. Stimatori

Definizioni: Campione casuale, Statistica, Stimatore Media campionaria (valore atteso e varianza)

Varianza campionaria Proprietà degli, Errore quadratico medio Legge debole dei grandi numeri Teorema del limite centrale

Probabilità generale

Calcolo combinatorio

Permutazioni (senza ripetizione) Fare n estrazioni con n oggetti

n n 1n 2 2 1 n!

Disposizioni (senza ripetizione) Fare k estrazioni con n oggetti, con k<n

n !

n

k

!

Disposizioni (con ripetizione) Fare k estrazioni con n oggetti, con k<n

n n  n n

k

Combinazioni (senza ripetizione) Quanti gruppi di “k” oggetti, con n oggetti, con k<n

Coefficiente binomiale:

n

k

 

 

n !

k

!

n

k

!

Spazio campionario

È l’insieme di tutti gli oggetti che rappresentano i risultati possibili di un esperimento.

  {a, b, c, d

}

Insieme delle parti (teoria degli insiemi) L’insieme delle parti dell’insieme A si indicaAed è l’insieme di tutti i sottoinsiemi di A.

ES: A {a, b} A{Ø,{a},{b},{a, b}} . In generale se A ha n elementi, allora Aha 2 n elementi.

Evento

È un sottoinsieme di . L’insieme di tutti gli eventi si chiama Spazio degli eventi, e corrisponde all’insieme delle parti di , cioè , che è l’insieme di tutti i sottoinsiemi di .

Evento qualsiasi

Evento elementare

A

  oppure A 

 

dove è un sottoinsieme di che contiene un solo oggetto di

Funzione di probabilità

È una funzione P :0,1, quindi che associa ad ogni evento un numero reale compreso tra 0 e 1.

Questo numero rela indica infatti la proabilità che avvenga un certo evento.

Spazio di probabilità

È una tripla ,, Pdove è lo spazio campionario, Aè lo spazio degli eventi, e P è la funzione

di probabilità.

Assiomi di Kolmogorov Indicano le proprietà della funzione di probabilità

1)

PA0 A Per qualsiasi evento esiste una probabilità positiva o nulla (negativa non ha senso)

2)

P1

Evento certo

3)

PØ0

Evento impossibile

4)

PA BPAPBsolo se A e B sono incompatibili

N.B.: se A B Ø allora A e B sono eventi incompatibili, cioè non hanno elementi in comune.

Regola additiva generale

È un’estensione dell’assioma di Kolmogorov. Infatti se A e B non sono incompatibili (cioè hanno elementi in

comune) vale che: PA BPAPBPA B

Questa è una formula che vale sempre, poiché se A B Ø allora PA B0 e quindi torniamo

all’assioma di Kolmogorov.

Probabilità uniforme

È una funzione di probabilità particolare, tale che, dato l’evento A   ,

ampiezza di A

ampiezza di

P A  

Probabilità complementare

Poiché vale sempre che: PAPA1 Allora vale anche che: PA1 PA

Leggi di De Morgan

A B AB

A B AB

Definizione di probabilità condizionata

P A

|

B

P A

B

PB

e

P B

|

A

P A

B

PA

Corollari della probabilità condizionata

(1)

Dalla definizione si deduce che:

PABPA | BPBPB | APA

(2)

Dalla definizione e dal primo corollario si deduce che:

P A

|

B

P B

|

A

P A

PB

P B

|

A

P A

|

B

P A

PA

Teorema delle probabilità totali

una famiglia di eventi dello spazio

campionario S mutualmente esclusivi e tali che uno ed uno solo di essi si verifichi:

Sia A un evento e {

B B

1

,

2

,

,

B

n

}

i j (mutualmente esclusivi)

B

B

i

j

1

B

ovvero

2

B

1

B

2

B

n

S

(esaustivi)

B

B Ø

n sono una partizione di S. Allora:

P A

P A

|

B

1

P B

1

P A

|

B

n

P B

n



n

i 1

P A

|

B

i

P B

i

Per dimostrare questo risultato è sufficiente osservare che se A si verifica allora si verificano tutte le intersezioni con gli eventi B i :

verificano tutte le intersezioni con gli eventi B i :  P A   

P A

P A B

1

Ma sapendo che

P AB

2

P A B

n

P A B P A | B P B allora si dimostra il teorema delle probabilità totali.

i

i

i

Teorema di Bayes

È un’estensione della probabilità condizionata e delle probabilità totali. Alle stesse ipotesi delle probabilità totali, vale che:

P B

k

A

P A

|

B

k

P B

k

P A

Corollario di Bayes

P A

|

B

k

P B

k

n

i 1

P A

|

B

i

P B

i

Se lo spazio campionario è diviso in solo due sottoinsiemi B e B :

P B A

P A

|

B

P A

P A

|

B

P A

 

P A

PA BPB

|

PA BPB

|

Indipendenza di eventi

PA BPAPB

A e B sono eventi indipendenti

A   P  B   A e B sono eventi indipendenti Dalla definizione

Dalla definizione di probablità condizionata si deduce che se A e B sono indipendenti:

 

P A

B

P A

P B

P B

PA

e

P B

A

P A

P B

P A

PB

Variabili casuali

Variabile casuale

È

variabile associa ad ogni risultato dell’esperimento un numero reale. Esempio:

Nel lancio di un dado la variabile casuale può assumere i valori {1,2,3,4,5,6} che sono gli stessi valori restituiti, in quanto numeri reali. Nel lancio di una moneta i valori {Testa,Croce} sono i valori che assume la variabile, la quale restituisce due valori reali, ad esempio 0 e 1.

dove è lo spazio campionario e R è l’insieme dei numeri reali. Quindi la

una funzione

X : R

Variabili discrete e continue La variabile casuale che assume valori finiti o un’infinità numerabile di valori è una variabile discreta. La variabile casuale che assume un’infinità non numerabile di valori è una variabile continua. Un insieme è numerabile se è in corrispondenza biunivoca con l’insieme dei numeri naturali N.

Funzione di densità di probabilità

È una funzione che descrive la distribuzione dei valori che la variabile casuale può assumere. Per definizione, per ogni funzione di densità f (x) vale che f (x) 0 .

Caso discreto:

f (x) PX xè la probabilità che la variabile X assuma un valore x.

Inoltre vale

somma di tutte le probabilità di tutti gli eventi dev’essere la totalità 1, o come già visto: P1 .

i

f x

i

1 cioè la somma di tutte le probabiltà dev’essere uguale a 1. È come dire che la

Caso continuo:

La funzione di densità è definita f (x) tale che





f

x dx

1

. Quindi

è come dire P1 .

Si noti che nel caso continuo la probabilità che la variabile X assuma un valore x è nulla, in quanto il dominio non è numerabile (vedi definizione di variabile casuale continua) quindi: PX x0 .

Nel caso continuo ha più senso chiedersi qual è la probabilità che X assuma un certo intervallo di valori.

Funzione di ripartizione

È una funzione che descrive la probabilità che una variabile casuale sia minore o uguale a un certo valore. Quindi in generale si indica F ( x) PX x.

Inoltre vale la regola generale che lim  0

Caso discreto:

x  F x

e

x  F x

lim

 1

.

F(x)

x

i

x

f x

i

La funzione è monotòna non decrescente. Inoltre valgono:

Caso continuo:

lim

h

0 0

Fx

h

Fx

lim

0

h

0

F x

h

F x

1

F

(

x

)

x



f tdt

La funzione è monotòna crescente.

.

Esempi:

1)

Dati due lanci di una moneta {Testa,Croce}, diciamo che X è la variabile “somma” dei due valori codificati come Testa=1 e Croce=0.

- I valori o risultati possibili quindi sono, cioè i valori che può assumere X sono:

0 (Croce-Croce), 1 (Testa-Croce o Croce-Testa), 2 (Testa-Testa)

- Le densità (o masse) sono:

P( X 0)

1

4

,

1

1

1

 

1

P(X 2)

4

 

3

 

4

 

1

1

 

 

4

2

P(X 1)

4

4

2

,

- Le ripartizioni sono:

P(X 0) P(X 0)

1

4

P(X 1) P(X 0) P(X 1)

1 1

4 2

P(X 2) P(X 0) P(X 1) P(X 2)

1

4

1

N.B.: la funzione ripartizione del valore più alto (2 nell’esempio) è sempre 1, perché è la somma di tutte le probabilità.

2)

f x

{

x

0 altrimenti

/8

0

x

4

è una funzione densità, infatti f (x) 0 e





f

x dx

4

0

  x   dx

8

4

0

x

2

16

16

16

 

0

1

Valore atteso

EX

Il valore atteso (o valore medio) è il baricentro della distribuzione. Il valore atteso di una variabile casuale rappresenta la previsione teorica del valore che tale variabile assumerà nell’ipotesi di eseguire un numero elevato di prove.

Definizione di valore atteso:

E X

E X

i





x

x

i

f x

i

f x dx

(caso discreto)

(caso continuo)

Valore atteso di una variabile con l’esponente:

E

X

E

X

r

r

x

i

i





x

r

r

f

f x

i

x dx

(caso discreto)

(caso continuo)

Valore atteso di una funzione qualsiasi della variabiale casuale:

E

E

g X

g X





i

g





g x

x

i

f x

i

f x dx

(caso discreto)

(caso continuo)

Proprietà del valore atteso:

EX Y EX EY

E



c

c

E

c

X

c

E X

EX

c

EX

c

se X Y allora: EX Y EX EY

Dimostrazione del valore atteso della somma/differenza di variabili:

EX

Y

i

x

i

y

i

P

i

i

x

i

P

i

y

i

P

i

i

x

i

P

i

i

y

i

P

i

EX

EY

Varianza

Var X

2

Per poter avere una buona rappresentatività del valore atteso è necessario un indice che misuri di quanto il valore atteso si discosta dai dati, cioè la varianza. Essa quindi rappresenta la variabilità dei valori su tutta la distribuzione.

Definizione di varianza:

Var X

Var X

i





x

x

i

E X

E X



2



2

f x

i

f x dx

Altre due definizioni:

Var X

VarX



2

E

EX E X

X

2

E X

2

(caso discreto)

(caso continuo)

Dimostrazione dell’equivalenza tra queste due definizioni:

X

EX

E X

2

E



2

X

E X

2

E

2

2

E

2

E

2

X

E X

2

E E

2

X

X

EX

2

2

E X

X

E

X

2

2

X

E

X



aE X

E

abX

Proprietà della varianza:

VarX Y VarX VarY CovX ,Y



Var c

Var X

Var c

Vara

0

X

X

c

Var X

Var X

a

2

b

c

2

VarX

se X Y allora: VarX Y VarX VarY

Dimostrazione delle proprietà della costante:

b

2

b

2

b

2

Var aX

E a

2

2

X

2

E aX

E

2

aX

E

abX

a

2

2

E

a

2

a

E

2

X

X

E 2

2

EX

2

E a

X

2

b

2

2

b

2

2

2 abE X

E b

2

E X

2

b

a a

a 2

2

E

2

abE X

2

X

b

2

X

2

abE X

a VarX

2

EX

2

E X

2

b

2

E

2

X

Deviazione standard:

2    Covarianza.
2
  
Covarianza.

CovX EX Y EX EY

se X Y allora: CovX 0

e VarX Y VarX VarY CovX ,Y VarX VarY

Coefficiente di correlazione:

XY

Cov X Y

,

X

Y

se X Y allora: CovX 0

XY

0

2

E X

E X

Momenti e Funzione generatrice dei momenti

E X

r

.

Si definisce momento di ordine r il valore atteso

Si definisce funzione generatice dei momenti la funzione

In particolare la derivata r-esima della funzione generatrice calcolata in (0) è il momento di ordine r.

m

X

E e

t

X

.

Derivata prima della funzione gen. dei momenti, calcolata in zero:

Derivata seconda della funzione gen. dei momenti, calcolata in zero:

Derivata terza della funzione gen. dei momenti, calcolata in zero:

Derivata r-esima della funzione gen. dei momenti, calcolata in zero:

m

m

m

/

X

//

X

///

X

m

r

X

EX

0

0

0

E X

E X

3

2

esima

0

E X

r

Valore atteso e varianza in fuzione dei momenti:

E X

m

/

X

0

Var X

E X

2

E

2

X

m

//

X

0

m

/

X

 2

0

Proprietà importante della funzione generatrice dei momenti:

Data una distribuzione, essa è in corrispondenza biunivoca con una funzione generatrice dei momenti. Questo significa che se conosco la distribuzione allora conosco la relativa funzione generatrice, e viceversa, se conosco la funzione generatrice della distribuzione allora conosco la relativa distribuzione.

Probabilità congiunta e marginale

Date le variabili casuali

variabile casuale  

spazio a “k” dimensioni. Le variabili casuali

X

1

,

X

k

X

k

, allora la variabile

X ,

1

X

k

si definisce variabile k-dimensionale. La

valori dello

X ,

1

è definita variabile casuale k-dimensionale che assume

x ,

1

X ,

1

X

k vengono chiamate variabili congiunte.

x

k

Se

f

X

1

,

X ,

1

X

k

X

x

1

,

k

x

è una variabile casule k-dimensionale, la funzione di densità congiunta di

k

viene definita:

f

X

1

,

X

k

x

1

,

x

k

P X

1

x

1

;

;

X

k

x

k

1

.

X ,

1

X

k

indicata

Se X e Y sono variabili casuali congiunte allora marginali.

f xe f y

X

Y

vengono chiamate funzioni di densità

Indipendenza di variabili casuali

X

Y

 

X

Y

PX Y

,

PX PY

 

f xf x

X

Y

dove PX ,Y è la probabilità congiunta. e vale anche che:

EX Y EX EY

VarX Y VarX VarY

Cov

,

X Y

XY

0

Media di una variabile casuale

È semplicemente il valore atteso, già descritto e calcolato nella pagine precedenti.

Moda di una variabile casuale

È semplicemente il valore più alto, quindi il valore più probabile di una distribuzione.

Mediana di una variabile casuale

FX PX Me0,5

casuale F  X   P  X  Me   0,5 Quantili Si

Quantili

Si definisce "quantile di ordine alfa" o, più brevemente, quantile alfa, un valore della distribuzione che è maggiore di una percentuale alfa della popolazione. Per esempio:

- il quantile 0,5 è la mediana (maggiore del 50% della popolazione)

- il quantile 0,25 è il primo quartile (maggiore del 25% della popolazione, cioè un quarto)

- il quantile 0,99 è il novantanovesimo percentile (maggiore del 99% della popolazione)

Di qui si può vedere che quartili, decili e percentili sono semplicemente casi particolari di quantili.

Variabili uniformi

Uniforme Discreta

Probabilità di un evento su n eventi equiprobabili.

Dominio: X {0,1,2,

n}

Densità:

Ripartizione:

E

X

1

n

2

f

X

F

X

x

x

1

n

x

per x 1,2

1

n

n

Var X

2

1

n

12

m

X

 

t

n

i 1

e

i t

1

n

n 12 m X   t  n  i  1 e i 

Uniforme Continua

Probabilità di un evento su un intervallo di eventi equiprobabili.

Dominio: X {a,

,b}

Densità:

Ripartizione:

E

X

a

b

2

f

X

F

X

x

x

1

b

x

a

a

b

a

Var X

per a x b

per

a x b

0 per

x a

1 per x b

a t

2 b t

b

a

12

m

X



t

e

e

b

at

0 per x  a 1 per x  b a t    2

Variabile di Bernoulli

X ~ Bep

È la probabilità di successo/insuccesso su una prova. È un esperimento casuale che consiste in una singola prova, i cui risultati possibili sono soltanto due: successo o insuccesso. Dominio: X {0,1} in quanto i risultati possibili sono solo due.

Densità:

P X

x

p

x

1

p

1 x

Poiché i valori sono solol due, la densità la possiamo già calcolare per tutti i casi possibili:

PX 01 p q NB:

PX 1p

Ripartizione:

P X

x

per convenzione si usa q per indicare 1 p q

{

0

1

1

p

x

0

x

0

1

x

1

Funzione generatrice dei momenti:

m t

X

p

e

t

q

Dimostrazione:

m

X

t

Ee

tX

1

i 0

e

t x

i

f

x

i

e

t

0

1

p

e

t

1

p

1

p

t

e

p

p

e

t

Valore atteso:

EX p

Dimostrazione:

EX

1

i 0

x

i

Varianza:

VarX pq

Dimostrazione:

VarX EX

Grafici:

f

x

i

0

1

p

2

E X 0

2

2

1

p

p

1 p1

2

pp

2

p p

2

p1 ppq

q

1  p  p   1  p   1 2  p

Variabile Binomiale

X ~ Bin, p

È la probabilità di avere x successi su n prove. È un esperimento casuale che consiste in un insieme di n prove ripetute con le seguenti caratteristiche:

1) Ad ogni singola prova si hanno solo due esiti possibili: ‘successo’ o ‘insuccesso’. 2) La probabilità p di ‘successo’ è costante. 3) Le prove sono indipendenti.

La

variabile Binomiale e quella di Bernoulli sono praticamente uguali, l’unica differenza è che:

n

=1 Variabile Casuale di Bernoulli

n

>1 Variabile Casuale Binomiale

dove n è il numero di prove.

Dominio: X {0,1,2, n} dove ogni singolo numero corrisponde al numero di successi x su n prove.

Il numero di successi x dev’essere per forza minore o uguale a n che è il numero totale di prove. Inoltre il numero di successi è per forza maggiore o uguale a zero, perché logicamente non ci possono essere meno

di zero successi.

,

0 x n

x

Densità:

Ripartizione:

Moda:

P

 

X

x

P

 

X

x

Mo

X

np

n

 

x

p

x

1

x

i 0

n

 

i

p

i

p

n

x

1

p

n i

Per i grafici è utile conoscere la moda, ovvero il valore più probabile.

Funzione generatrice dei momenti , Valore atteso, Varianza:

m

X



t

p e

t

Dimostrazioni:

m

X



t

E e

tX

n

n

q

x

0

t x

e

f x

EX np

n

0

x

t x

e

  n   p

x

 

x

1

VarX npq

p

n

x

n

0

x

n

x

 

e

t

p

x

1

p

L’ultimo passaggio è giustificato dalla regola del Binomio di Newton:

n

k

0

  n

 

k

a

k

n

x

b

n

x

p

a

Avendo trovato la funzione generatrice dei momenti:

EX

m

/

X

 

0

np

VarX

m

//

X

 

0

npq

t

e

q

b

n

n

Queste ultime due dimostrazioni sono molto lunghe e richiedono molti passaggi algebrici.

Grafici:

molto lunghe e richiedono molti passaggi algebrici. Grafici: NB: nel grafico della Ripartizione c’è un “flesso”

NB: nel grafico della Ripartizione c’è un “flesso” nel gradino corrispondente alla moda.

Variabile di Poisson

X ~ Po

Si consideri una prova che può avere solo due possibili esiti: successo e insuccesso. Siamo interessato a contare quante volte si verifica l’evento “successo” in un arco di tempo prestabilito. La variabile di Poisson descrive quindi la probabilità di x successi su n prove bernoulliane, in un intervallo di tempo, con media- successi . Quindi è probabilità di v eventi in un intervallo di tempo di unità d, con media-eventi v d .

Dominio:

Densità:

Ripartizione:

X 0 , 0

f

X

x

P X

x

e