Sei sulla pagina 1di 37

Appunti di Statistica e Analisi dei Dati

Alexandru Ivan, Alberto Crosta


a.a. 2016 - 2017

1
Statistica INDICE

Indice
1 Introduzione alla Statistica 3
1.1 Statistica descrittiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Statistica inferenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Calcolo delle probabilit`a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Tipi di dati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

2 Indici 4
2.1 Media campionaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Variabilit`
a dei dati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3 Mediana campionaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.4 Moda campionaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

3 Indici di dispersione 6
3.1 Varianza campionaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.2 Deviazione standard campionaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.3 Mediane - percentile campionario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.4 Quantili campionari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.5 Quartili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

4 Grafici 8
4.1 Osservazioni a coppie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2 Coefficiente di correlazione campionaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.3 Indipendenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

5 Indici di dispersione 12
5.1 Indice di Gini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.1.1 Eterogeneit`a minima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.2 Indice di Gini normalizzato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.2.1 Eterogeneit`a massima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.2.2 Eterogeneit`a minima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.3 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.4 Entropia (H) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.5 Classificatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.6 Indici di concentrazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

6 Calcolo combinatorio 14
6.1 Disposizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.2 Permutazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.3 Combinazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.4 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

7 Probabilit`
a 14
7.1 Propriet`
a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
7.2 Assiomi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
7.2.1 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

8 Spazio di probabilit`a 16
8.1 Esempio: lancio di una moneta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
8.2 Probabilit`
a condizionata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
8.3 Teorema delle probabilit`
a totali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
8.3.1 Forma generale teorema delle probabilit`a totali . . . . . . . . . . . . . . . . . . . . 16

2
Statistica INDICE

9 Variabile aleatoria 17
9.1 Funzione di ripartizione o funzione di distribuzione cumulativa . . . . . . . . . . . . . . . 17
9.2 Funzione massa di probabilit` a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
9.2.1 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
9.3 Funzione di distribuzione cumulativa empirica (ecdf) . . . . . . . . . . . . . . . . . . . . . 18
9.4 Valore atteso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
9.4.1 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
9.4.2 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
9.5 Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

10 Funzione di ripartizione congiunta 20


10.1 Funzione di massa di probabilit` a congiunta . . . . . . . . . . . . . . . . . . . . . . . . . . 20
10.1.1 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
10.1.2 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
10.1.3 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
10.2 Covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
10.2.1 Propriet` a della covarianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
10.2.2 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
10.3 Coefficiente di correlazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
10.4 Variabili aleatorie continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
10.4.1 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
10.5 Disuguaglianza di Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
10.6 Disuguaglianza di Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
10.6.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

11 Distribuzione Bernoulliana 24

12 Distribuzione binomiale 25
12.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

13 Distribuzione geometrica 25
13.0.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

14 Distribuzione di Poisson 26
14.1 Riproducibilit`
a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
14.1.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
14.1.2 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

15 Distribuzione uniforme(discreta) 27

16 Distribuzione ipergeometrica 27
16.0.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

17 Distribuzione uniforme(continua) 28
17.1 Esercizio autobus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

18 Distribuzione esponenziale 28
18.1 Assenza di memoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
18.2 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
18.3 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
18.3.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

19 Distribuzione Gaussiana o Normale 30


19.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

3
Statistica INDICE

20 Statistica inferenziale 31
20.1 Teorema del limite centrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
20.1.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
20.2 Stimare una binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
20.2.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

21 Stimatori 32
21.1 Stimatore per la varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
21.1.1 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
21.1.2 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

a )
22 Processo di Poisson(di intensit` 35

4
Statistica 1 Introduzione alla Statistica

1 Introduzione alla Statistica


La Statistica `e divisa in tre grandi campi:

Statistica descrittiva
Statistica inferenziale
Calcolo delle probabilit`
a

1.1 Statistica descrittiva


La prima fase di studio statistico, chiamata statistica descrittiva, `e la raccolta di dati e la loro descrizione.
Con la raccolta dei dati, quello che avviene praticamente, `e linserimento di questi stessi in strutture dati
idonee; nella maggior parte dei casi saranno delle tabelle (esempio: dataset, etc). Se viene accumulata
una quantit` a ingente di dati, queste strutture potrebbero risultare inappropriate per la loro descrizione.
In questo caso, non si sfrutta la descrizione estensiva, che pu`o risultare difficile per un veloce studio dei
dati, bens` si cerca di sfruttare gli strumenti grafici (esempio: pie, histogram, etc) e gli indici numerici
(esempio: media, mediana, etc) che si hanno a disposizione. Con lutilizzo di questi strumenti pi` u intuitivi
e meno descrittivi, anche se aiutano nella comprensione dei dati, si perdono molte informazioni.

1.2 Statistica inferenziale


Dai dati ottenuti da questa prima fase, si possono trarre delle conclusioni grazie alla statistica inferenziale
(inferenza = quello che succede applicando un procedimento di induzione, cio`e trarre conclusioni).

1.3 Calcolo delle probabilit`


a
Per concludere il procedimento, accertando il valore delle prime due fasi (descrittiva e inferenziale) viene
sfruttato il calcolo delle probabilit`
a, che serve per modellare e trovare una validazione della probabilit`a
del caso.
Il punto di partenza `e una popolazione, un numero elevato di individui, su cui poter applicare i propri
studi. In realt`
a, studiare tutta la popolazione risulta molto svantaggioso, per questo si preleva un cam-
pione ristretto (rappresentativo della popolazione), da essa.
Come si seleziona un campione?

Bisogna tener conto di due cose:


Taglia/Dimensione: pi` u grande `e la dimensione del campione, pi`
u le conclusioni si dovrebbero appli-
care alla popolazione
Procedimento di selezione/Metodo: bisogna utilizzare una selezione sensata. La migliore soluzione
a, n1 )
`e scegliere a caso (stessa probabilit`
Esempio selezione campione
La tabella 1 mostra un esempio di campionamento stratigrafico dove, lultima colonna, indica quan-
ti elementi bisogna selezionare nelle sottopopolazioni per avere un campione di 100 elementi in una
popolazione di 2000 studenti.

Tabella 1: Campionamento stratigrafico


Num Alunni Anno f rel Campione Stratificato
600 I 600
2000 = 0, 3 100 0, 3 = 30
600 II 0, 3 30
500 III 0, 25 25
300 IV 0, 15 15

5
Statistica 1.4 Tipi di dati

1.4 Tipi di dati


Nominale - Esempi: Nomi di citt`
a (Roma, Parigi, etc)
Ordinale - Esempi: Et`
a (12, 9, etc)
Scalare - Esempi: Carica elettrica 1, 602... 102


Le variabili Scalari e Ordinali sono codificate in modo numerico, mentre le variabili Nominali in caratteri
alfabetici.
Le variabili Ordinali hanno un valore discreto.
Le variabili Scalari hanno un valore continuo.
Tipi di osservazioni: Caratteri, Variabili, Attributi
Sinonimo di osservazione: Caso

Quando si analizzano variabili Ordinali e Scalari bisogna fare attenzione alla SCALA con cui sono
codificati i dati.
Esempi:
1) Altezza1 (m) e Altezza2 (m) Lo 0 `e in comune tra le due variabili
2) Temperatura1 (C) e Temperatura2 (F) Lo 0 non `e in comune

Definizioni
- Variabile continua Sempre infinita, non numerabile
- Variabile discreta Numerabile

2 Indici
La statistica cerca di descrivere le osservazioni attraverso conti aritmetici, per arrivare a un numero,
che rappresenta lindicatore dellaspetto del fenomeno che ha prodotto determinati dati.

Indici
Gli indici posso essere di due tipi: posizione e dispersione.
Gli indici esistono sia in probabilit`
a che in statistica. Per differenziare i due tipi di indici, si aggiunger`
a
campionaria per gli indici statistici.

Definizione di Statistica:
Informatica: Usiamo le osservazioni(input) e, applicando un ragionamento(algoritmo), abbiamo
come risultato gli indici(output)
Matematica: Algoritmo che applico al campione

Campione: x1,2,...,n osservazioni distinte. Con {x1 , x2 , . . . , xn } si indica un insieme, in cui ogni
elemento occorre in maniera univoca(non si intende il valore). Lordine in cui sono poste le osservazioni
`e ininfluente.

2.1 Media campionaria


Definizione Mediana campionaria
La mediana campionaria rappresenta la media aritmetica delle osservazioni del campione.
n
1X
x= xi
n i=1

6
Statistica 2.2 Variabilit`a dei dati

Spiegazione:
Lindice x `e sensato unicamente per le osservazioni di tipo numerico.
Il valore ottenuto (x) potrebbe, nella maggior parte dei casi, non corrispondere a nessun valore osservato.

Propriet`
a

Shift
Aggiungere o sottrarre uno stesso valore a tutto il campione.
campione: {x1 , . . . , xn }
b R i = 1, . . . , n yi = xi + b {yi , ..., yn }
Sostituendo, si ha:
n n n n
y = n1 yi = n1 (xi + b) = n1 xi + n1
P P P P
b
i=1 i=1 i=1 i=1
n n
Sapendo che x = 1
xi , allora y = x + 1
P P
n n b
i=1 i=1  
n n
La di una costante `e n volte quella costante 1
b = nb
P P
n
i=1 i=1 n
Quindi y = x + b
Lo shift sul campione implica lo shift anche della media campionaria: yi = xi + b y = x + b
Scale
a R i = 1, . . . , n yi = a xi
n n n
y = n1 yi = n1 (a xi ) = na xi = a x
P P P
i=1 i=1 i=1

La media campionaria `e un operatore lineare affine, per questo motivo lo shift e lo scale vi si rispecchiano.
xi 7 yi = axi + b y = ax + b

Media pesata
k k
x= x1 +...+x1 +x2 +...+x2 +...+xk +...+xk
= f1 x1 +f2 x2 +...+fk xk
= 1
fi xi = fi
P P
n n n n xi
i=1 i=1
fi
n sono le frequenze relative, che indichiamo con i
k
x=
P
xi i
i=1

2.2 Variabilit`
a dei dati
X
(xi x) = 0

Questo accade perche gli scarti possono essere sia positivi che negativi.
Dimostrazione:
k
X k
X k
X
(xi x) = xi x
i=1 i=1 i=1

k k k
Sapendo che x = nx perche la media non dipende da i e che xi = nx da x = 1
P P P
n xi
i=1 i=1 i=1
Si ottiene:
nx nx = 0

2.3 Mediana campionaria


Per prima cosa si deve ordinare il campione in ordine non decrescente. La mediana campionaria di un
campione, con un numero dispari di osservazioni, sar`a esattamente il suo valore centrale mentre sar`a la

7
Statistica 2.4 Moda campionaria

media campionari tra i due valore centrali in un campione con un numero pari di osservazioni.

Campione: {x1 , ..., xn }


Campione ordinato in modo non decrescente: x(1) , x(2) , ..., x(n) , dove x(i) non `e li-esimo elemento, ma
li-esimo elemento del campione ordinato.

Se n dispari allora k N t.c. n = 2k + 1 e m = xk+1


x +x
xk +xk+1 ( n2 ) ( n2 +1)
Se n pari allora k N t.c. n = 2k e m = 2 = 2

Media: Si utilizza quando ha senso fare dei calcoli con caratteri numerici.
Mediana: si pu` o utilizzare anche con caratteri non numerici, limportante `e che siano ordinabili. Quan-
do ho 2 valori centrali differenti (non numerici) prendo uno dei due.
Cosa si utilizza se non si pu`o utilizzare n`e media n`e mediana?

2.4 Moda campionaria


Definizione: losservazione che ha la frequenza maggiore nel campione.(Mono-modale)
Definita unicamente sul concetto di frequenza assoluta.
Se ci dovessero essere pi`
u osservazioni con frequenza massima del campione si direbbe che la moda `e
N-modale, dove N `e il numero di osservazioni con frequenza massima.

3 Indici di dispersione
A parit`
a di x si pu`
o avere una differente variabilit`a dei dati.
Esempio:
Campione A = {1, 2, 5, 6, 6} con a = 4
Campione B = {40, 0, 5, 20, 35} con b = 4

Se si considerano gli scarti:


n
X
|xi x|
i=1

Visto che `e complicato fare dei ragionamenti analitici con il valore assoluto, `e preferibile usare il quadrato.

3.1 Varianza campionaria


n
1 X
(xi x)2
n 1 i=1

1
n1 `e un fattore di scala che evita che il numero cresca troppo.

n
1 X
s2 = (xi x)2
n 1 i=1

Calcolando la varianza campionaria dei Campioni A e B, si pu`o osservare che, anche possedendo la stessa
media, i dati variano di pi`
u in un caso rispetto che nel secondo.
2 2 2 2
s2A = (3) +(2)4 +1+2 +2 = 5.5
(44)2 +(4)2 +1+162 +312
s2B = 4 = 792.5

8
Statistica 3.2 Deviazione standard campionaria

k k
(xi x)2 = (x2i 2xi x + x2 )
P P
i=1 i=1
k k
x2i 2x xi + nx2
P P
i=1 i=1
k
Sapendo che 1
xi = x
P
n
i=1
k k
x2i 2nx + nx2 = x2i nx2
P P
i=1 i=1
Quindi, aggiungendo 1
n1 si ha:

k k
1 X 1 X 2
(xi x)2 = x nx2
n 1 i=1 n 1 i=1 i

Applicazione di uno shift alla varianza campionaria


(per la mediana campionaria) Se i = 1, ..., n yi = axi + b y = ax + b
i yi = x i + b (b R) y = x + b
i yi y = xi + b (x + b) = xi x
k k
1 X 1 X
s2y = (yi y)2 = (xi x)2 = s2x
n 1 i=1 n 1 i=1
Se si effettua una traslazione dei dati, la varianza NON cambia. Questo fattore `e utile se i dati osservati
sono di grandi dimensioni, perche si possono trasformare in dati piccoli (gestibili).

Applicazione di una scala alla varianza campionaria


Se, invece, si dovesse applicare una scala?
i = 1, ..., n yi = axi (a R) y = ax
yi y = axi ax = a(xi x)
Si andr`a a sostituire yi y = axi ax con a(xi x)
k k
1 X 1 X 2
s2y = (yi y)2 = a (xi x)2 = a2 s2x
n 1 i=1 n 1 i=1

3.2 Deviazione standard campionaria


La varianza campionaria
avr`
a la stessa unit`a di misura dellosservazione soltanto che sar`a espressa

al quadrato (s2 ). s2 preserva le propriet`a della varianza campionaria (perche `e un operatore
monotono)

Considerazioni
Si utilizza x come valore centrale della varianza(s2 ) per poter sfruttarne le propriet`a.

3.3 Mediane - percentile campionario


Una definizione alternativa di mediane sono i percentili.
p [1..100]
x1 , ..., xn x(1) , .., x(n)
> di almeno 100 np
elementi e 6 di almeno n(100p)
100 elementi
I percentili hanno una scala che va da 0 a 100

9
Statistica 3.4 Quantili campionari

Esempi
n = 12 (numero elementi)
p = 90 si cerca il 90 percentile
x(1) , x(2) , x(3) , x(4) , x(5) , x(6) , x(7) , x(8) , x(9) , x(10) , [x(11) ], x(12)
100 = 0.9
p

Per sapere quale sia il 90 percentile bisogna vedere quale elemento abbia le seguenti qualit`a:
np
> 100 = 12 0.9 = 10.8 elementi > di almeno 11 elementi
n(100p)
6 100 = 1.2 elementi 6 di almeno 2 elementi
In questo esempio, x(11) soddisfa entrambe le propriet`a.

n = 20 (numero elementi)
p = 95 si cerca il 95 percentile
p
x(1) , ..., x(20) 100 = 0.95
Per sapere quale sia il 95 percentile bisogna vedere quale elemento abbia le seguenti qualit`a:
np
> 100 = 20 0.95 = 19 elementi [ solo x(19) e x(20) la soddisfano ]
n(100p)
6 100 = 1 elementi [ solo x(19) e x(20) la soddisfa ]
In questo esempio, sia x(19) che x(20) soddisfano entrambe le propriet`a.
x +x
Per trovare il risultato bisogna fare la media aritmetica dei due valori: (19) 2 (20)

Considerazioni
Quando il risultato di 100
np
e n(100p)
100 sono valori con la virgola, il valore che soddisfa le propriet`a `e
solamente uno. Invece, quando il risultato di 100np
e n(100p)
100 sono valori interi, i valori che soddisfano
le propriet`a saranno due. In questo secondo caso, per trovare il risultato, bisogner`a: fare la media
aritmetica dei due valori in questione, se si tratta di valori numerici, oppure si sceglier`a uno dei due
valori, casualmente, per caratteri non numerici.

3.4 Quantili campionari


I quantili sono i Percentili normalizzati. Al posto di lavorare tra [0..100] lavorano tra [0..1]
Esempio: La Mediana `e il quantile 0.5.

3.5 Quartili
Ogni campione osservato possiede 3 quartili:

- Primo quartile: 25 percentile


- Secondo quartile: 50 percentile ( mediana)
- Terzo quartile: 75 percentile
I quartili dividono il campione in 4 parti uguali, ognuna contenente il 25% delle osservazioni del campione

Range variabilit`
a (range interquartile)
` il range che va dal 3 quartile al 1 quartile.
E

4 Grafici
Istogramma simmetrico (forma a campana), dal punto di vista teorico, perche `e praticamente impossibile
avere una perfetta simmetria; in questo caso si parla di simmetria approssimativa.
Istogramma simmetrico

10
Statistica 4 Grafici

Figura 1: Istogramma simmetrico

Figura 2: Istogramma asimmetrico (verso destra - Skew verso destra)

Figura 3: Istogramma asimmetrico (verso sinistra - Skew verso sinistra)

Propriet`
a simmetria
x si posizioner`
a verso il centro, assieme alla Moda e alla Mediana
Dispersione? Lampiezza dellintervallo dipende dalla deviazione standard. Si utilizza la deviazione stan-
dard e non la varianza perche ha la stessa unit`a di misura delle osservazioni in esame.
La Regola empirica dice che:
Il 68% delle osservazioni ricadono nel range [x ; x + ].
Il 95% nel range [x 2; x + 2].
Il 99% nel range [x 3; x + 3].

Grafico Stem-and-Leaf
Letteralmente grafico ramo-foglia si ottiene dividendo ciascun valore dei dati in due parti. Per esempio,
se i dati sono numeri a due cifrem`, allora il ramo di un valore potrebbe essere la cifra delle decine, e la
foglia delle unit`
a.
Per esempio:
I numeri 44, 46, 47, 49, 63, 64, 66, 68, 68, 72, 72, 75, 76, 81, 84, 88, 106 possono essere rappresentati tramite

11
Statistica 4.1 Osservazioni a coppie

il diagramma ramo-foglia seguente


ramo foglia
4 4, 6, 7, 9
5
6 3, 4, 6, 8, 8
7 2, 2, 5, 6
8 1, 4, 8
9
10 6

4.1 Osservazioni a coppie


Per rappresentare due campioni, considerati a coppie {(x1 , y1 ), ...(xn , yn )}, si utilizza lo Scatter plot o
Diagramma di dispersione

Figura 4: Esempio di scatter plot

Di solito si riesce a disegnare una linea che indica landamento medio delle osservazioni in esame,
questa linea viene chiamata regressione lineare
Una propriet`a molto usata del grafico scatter plot `e lEstrapolazione, il poter azzardare conclusioni su
dati che non sono stati ancora osservati, partendo dalle conclusioni fatte sullandamento di quelli che si
sono osservati.

Lo scatter plot serve per capire se i dati correlati hanno una dipendenza tra loro.
Ci sono 3 tipi di dipendenza
- Diretta (a x grandi sono associate y grandi, a x piccole sono associate y piccole)
- Inversa (a x piccole sono associate y piccole, a x grandi sono associate y grandi)
- Mancanza di dipendenza
Per prima cosa si deve quantificare, in maniera formale, piccolo e grande.

Formalizzazione
(Quello che si dimostra per le x vale anche per le y)
grande > x

12
Statistica 4.2 Coefficiente di correlazione campionaria

xi grande xi > x xi x > 0 ( sottolinea equivalenze logiche)


piccolo < x
xi piccolo xi < x xi x < 0

Dipendenza diretta
xi grande e yi grande xi x > 0 yi y > 0
xi piccolo e yi piccolo xi x < 0 yi y < 0

Dipendenza inversa
xi grande e yi piccolo xi x > 0 yi y < 0
La somma del prodotto degli scarti avr`
a segno positivo se la relazione sar`a diretta, negativo altrimenti.

4.2 Coefficiente di correlazione campionaria


n
1
(xi x)(yi y)
P
n1
i=1
r=
sx sy
1
n1 viene usato per non far crescere troppo la somma.
r cattura il concetto di relazione lineare, in quanto:
(xi , yi ) i yi = ax + b a, b R
(yi y) = axi + b (ax + b) = a(xi x)
Sapendo che y = ax + b e s2y = a2 s2x

1 (xi x) a(xi x) (xi x)2


P P
a a
r= = = = 1
n1 sx |a|sx n1 |a|s2x |a|
r = 1 se a > 0
r = 1 se a < 0
Dal risultato ottenuto si pu`
o osservare che: 1 6 r 6 1

Applicazione coefficiente ai due campioni


x0 = a + bx y 0 = c + dy
i xi =Pa + bxi
0
yi0 = c +P dyi
rx y = (xi x)(yi y) = b(xi x)(yi y)
0 0 0 0

s2x0 = b2 sx sx0 = |b|sx


s2y0 = d2 sy sy0 = |d|sy

1 bd (xi x)(yi y)
P
bd
rx y =
0 0 = rxy = rxy
n1 |b||d|sx sy |b||d|

rx0 y0 = rxy se b e d sono concordi di segno, rx0 y0 = rxy altrimenti.

4.3 Indipendenza
Quando rxy 6= 0 ma molto basso `e probabile che non ci sia una relazione tra i due campioni presi in
esame.

13
Statistica 5 Indici di dispersione

q
sx = ni1
( x2 nx2 )
P

(xi x)(yi y) = (xi yi xi y xyi +xy) = xi yi y xi x yi +nxy = +


P P P P P P
xi yi nxy 
nxy nxy

P
xi yi nxy
r= qP
( xi nx2 )( yi2 ny 2 )
2
P

5 Indici di dispersione
Indice di dispersione per caratteri nominali in funzione delle frequenze delle osservazioni del campione
Eterogeneit`
a   4 4

Omogeneit`a
)
Eterogeneit`
a massima
calcolando la tabella delle frequenze dato un campione
Omogeneit`a minima
v1 f 1
.. .. f = 1 i = 1, . . . , k
. . i k
vk fk
)
Eterogeneit`
a minima

Omogeneit`
a massima
n=6k=1

5.1 Indice di Gini


k
I =1 fi2
P
i=1
fi > 0 fi2 >0 fi2 > 0
P

k k
X
fi2 fi fi2
P
fi
i=1 i=1
| {z }
=1
k
X
I =1 fi2 0
i=1
| {z }
<1
0I<1

5.1.1 Eterogeneit`
a minima
k = 1, f1 = 1
Xk
I =1 fi2 = 0
i=1
| {z }
=1

Eterogeneit`
a massima
k1
I =1 = 1 6 k 1
= k1
I dipende dai diversi valori osservati
P
k 2 k62 k
i=1 |{z}
1
fi = k

14
Statistica 5.2 Indice di Gini normalizzato

5.2 Indice di Gini normalizzato


I0 = I k
k1

5.2.1 Eterogeneit`
a massima
I= k1
k I0 = 1

5.2.2 Eterogeneit`
a minima
I = 0 I0 = 0

5.3 Esempio
Numero di studenti Sigla istituto
3 Altro
2 IM
4 ITC
.. ..
. .
totale: 191
k = 11  2  2  2
3 2 4
I =1 . . . ' 0.76
191 191 191
| {z }
11 termini
I0 = 11
111 I ' 0.84

5.4 Entropia (H)


k
H= fi log f1i
P
i=1
f (p) = log p p (0, 1]
f (1) = 0 = log 1
lim f (p) = + asintoto verticale
p
 
f 0 (p) = p p12 = p1
f 00 (p) = + p12
(
fi = 0
H0 fi log f1i = 0
fi = 1
H = 0 i fi = 0 oppure fi = 1 eterogeneit` a minima
log k H 0
H 0 = H log1 k
k
Eterogeneit` a massima H = k log k = k k log k = log k
1 1
P
i=1
H ' 2.48 bit H 0 ' 0.72 bit vicino 1, buon grado di Eterogeneit`a

5.5 Classificatore
5.6 Indici di concentrazione
n
a= 1
P
a1 , . . . an n ai
i=1

15
Statistica 6 Calcolo combinatorio

Concentrazione minima a1 = a2 = . . . = an na = TOT i Qi = Fi


Concentrazione massima a1 = na = TOT a2 = a3 = . . . = an = 0 Qi = 0 per i < n, Qn = 1
Indice di Gini i = 1, . . . , n Fi = n1
Pi
ak
Qi = k=1
TOT
n n n
6n(n+1)
Fi = i
= 1
i= 1
P P P
n n 6n 2
i=1 i=1 i=1
n
P
(Fi Qi )
n
= 2
(Fi Qi )
i=1
P
n
P n+1
Fi i=1
i=1

6 Calcolo combinatorio
n oggetti distinti
sequenza di k oggetti quanti possibili sequenze di k oggetti esistono?

6.1 Disposizioni
Con ripetizione Dn,k
0
= nk

Senza ripetizione Dn,k = n!


(nk)!

6.2 Permutazioni
caso particolare di disposizione senza ripetizione, elenco tutti gli n oggetti
Pn = Dn,n = (nn)!
n!
= n!
n! = n(n 1)!
1! = 1
0! = 1

6.3 Combinazioni
D
Cn,k = Pn,k = (nk)!
n! 1
= k!(nk)!
n!
= n

k
k! k
Se k > n oppure k < 0 allora k = 0
n


6.4 Esempi
Ho 4 libri di matematica, 3 di chimica, 2 di storia e 1 di lingue. In quanti modi li posso mettere affinche
le materie siano adiacenti? 4! 4! 3! 2! 1! = 6912

Anagrammi della parola SEDIA P5 = 5!

Anagrammi della parola TAPPO P5


P2 = 5!
2! =543

Anagrammi della parola PAPPA P5


P2 P3 = 5!
2!3! = 54
2

7 Probabilit`
a
= insieme universo
= evento elementare

16
Statistica 7.1 Propriet`
a

E evento

7.1 Propriet`
a
` AB =BA
COMMUTATIVITA
` (A B) C = A (B C)
ASSOCIATIVITA
` (A B) C = (A C) (B C)
DISTRIBUTIVITA
De Morgan (A B) = A B e AB =AB

A: algebra degli eventi


A = {E }
A

EAEA
n
E1 , . . . , En A Ei A
S
i=1

(, A, P ) spazio di probabilit`
a
P : A [0, 1]
E A P (E)

7.2 Assiomi
A1) 0 P (E) 1

A2) P () = 1
 n
 n
A3) E1 , . . . , En A i 6= j Ei Ej = P Ei = P (Ei )
S P
i=1 i=1

P (A) = 1 P (A)
AA=
AA=
Per A3 P (A A) = P (A) + P (A)
| {z }
P ()=1

I=E \ F
II=E F
III=F \ E
E F = I II III
P (E F ) = P (I II III) = P (I) + P (II) + P (III) + P (II) P (II) = P (E) + P (F ) P (E F )
| {z } | {z } | {z }
P (E) P (F ) P (EF )
P () = 0
P (A) = 1 P (A)
= =
P () = P () = 1 P () = 1 1 = 0

17
Statistica 8 Spazio di probabilit`
a

7.2.1 Esempio
E = fuma sigaretta
F = fuma sigaro
P (E) = 0.28 P (F ) = 0.07 P (E F ) = 0.05
P (E F ) = 1 P (E F ) = 1 (P (E) + P (F ) P (E F )) = 1 0.28 0.07 + 0.05 = 0.7

8 Spazio di probabilit`
a
Esempio spazio di probabilit`
a:
composto da eventi elementari, tutti con la stessa probabilit`a (caso pi`
u semplice)

8.1 Esempio: lancio di una moneta


= {1, ..., N }, contenente N simboli/elementi elementari (Mapping simbolo)
Per ipotesi, ha cardinalit`a finita (Unica ipotesi possibile!!!!)
Se non avesse cardinalit` a finita: P () = .
Questo renderebbe nulla la probabilit` a di ogni elemento elementare: P (elemento) = 1
=0
n
Arrivando ad affermare, per assurdo, che P {i} = 0 e P () = 1
S
i=1
Partendo dal primo
 N assioma
 7.2 sappiamo:
N
P () = 1 = P {i} = P = Np p = 1
S P
N
i=1 i=1

E
E = {e1 , ..., en } = {e1 } ... {en }
n n
|E|
P (E) = ({ei }) = N = N = N
1 n
|E| = casi favorevoli, N = casi possibili
P P
i=1 i=1

8.2 Probabilit`
a condizionata
P (E | F ) : probabilit
a condizionata su evento E dato F (Probabilita di E dato F )
P (EF )
P (E | F ) = P (F )
Questa uguaglianza vale solamente se P (F ) 6= 0 P (F ) > 0, oppure P (E | F ) sarebbe indefinita

Formula molto importante a cui si arriva, grazie alla formula precedente, `e lintersezione di eventi:
P (E F ) = P (E | F ) P (F )

8.3 Teorema delle probabilit`


a totali
E, F A (algebra degli eventi)
P (E F ) = P (E | F )P (F )
P EF =P E |F P F
P (E) = P (E | F ) P (F ) + P E | F P F
 

8.3.1 Forma generale teorema delle probabilit`


a totali
E F1 , E F2 , ..., E Fn !
n [n
(E Fi ) = E Fi = E = E
S
i=1 i=1
| {z }

18
Statistica 9 Variabile aleatoria

i 6= j (E Fi ) (E Fj ) = (E E) (Fi Fj ) = E =
| {z } | {z }
E
 n  n n
P (E) = P (E F ) = P (E F ) = P (E | F ) P (Fi ) = P (E)
S P P
i=1 i=1 i=1

9 Variabile aleatoria
X:R

9.1 Funzione di ripartizione o funzione di distribuzione cumulativa


FX : R [0, 1] x X FX (x) = P (X x)
X FX X `e distribuita con una funzione di ripartizione
{X b} = {X a} {a < X b}
P (X b) = P (X a) + P (a < X b)
P (a < X b) = FX (b) FX (a)

9.2 Funzione massa di probabilit`


a
pX : R [0, 1]
x R pX (x) = P (X = x)
1) x R pX (x) 0

2) pX (x) = 1
P
x

9.2.1 Esempio
Variabile aleatoria (discreta) che assume i valori 1, 2 e 3
P (X = 1) = 12 P (X = 2) = 31 P (X = 3) = 16

FX (x) = P (X x)
x<1 FX (x) = 0
1x<2 FX (x) = P (X = 1) = 12
2x<3 FX (x) = P (X = 1 X = 2) = P (X = 1) + P (X = 2) = 1
2 + 1
3 = 5
4
x3 FX (x) = 1

1. x R FX (x) 0

19
Statistica 9.3 Funzione di distribuzione cumulativa empirica (ecdf)

2. lim FX (x) = 1
x+

3. FX continua da destra

9.3 Funzione di distribuzione cumulativa empirica (ecdf)



Campione {x1 , . . . , xn } F : R [0, 1]
n
F (x) = n1
I(,x] (xi )
P
i=1 ( (
1 se x (, x] 1 se xi x
I(,x] (xi ) = =
0 altrimenti 0 altrimenti
FX (x) = P (X x)
Campione {1, 3, 3, 5, 7}

x<1 F (x) = 0

1x<3 F (x) = 1
5

3x<5 F (x) = 3
5

5x<7 F (x) = 4
5

x7 F (x) = 1

9.4 Valore atteso


Variabile aleatoria X con pX E[X] = xi pX (x) = xi P (X = xi )
P P
i i

9.4.1 Esempio
P (X = 0) = 12 P (X = 1) = 1
2
E[X] = 0 12 + 1 21 = 12

9.4.2 Esempio
X = lancio di un dado
pX (x) = 16 I{1,...,6} (x)
6 6 6
667
E[X] = i pX (i) = 1
= 1
i= 1
= 7
P P P
i 6 6 6 6 2 2
i=1 i=1 i=1
Lezione P 21/11
E[X] = i xi P (X =(xi )
1 se A si verifica
Evento A A IA =
0 altrimenti
E [IA ] = 0 P (IA = 0) + 1 P (IA = 1) = P (IA = 1) = P (A)
X variabile aleatoria e x specificazione di X
f : R R Y = f (X)
P (Y = y) y x P (X = x)
0.2 0 0 0.2
Y = X 2 P (X = y)
0.5 1 1 0.5
0.3 4 4 0.3

3
X
E[Y ] = yi P (Y = yi ) = 0 0.2 + 1 0.5 + 4 0.3 = 1.7
i=1
3 3
X X
= f (xi ) P (X = yi ) f (xi )P (X = xi )
i=1 i=1

20
Statistica 9.5 Varianza

E[f (x)] = i f (xi ) P (X = xi )


P
E[X 2 ] = 0 0.2 + 1 0.5 + 4 0.3 = 1.7
f (x) = aX + Pb
E[f (X)] = i f (xi ) P (X = xi ) = i (a xi + b)P (X = X xi ) = i (axi P (X = xi + bP (X = xi )) =
P P
X
i axi P (X = xi ) + i bP (X = xi ) = a xi P (X = xi ) + b P (X = xi ) = aE[X] + b
P P
i i
| {z } | P {z }
E[X] pX (xi )=1
i
E[f (X)] = E[aX + b] = aE[X] + b Lineare
a = 0 E[b] = b
b = 0 E[aX] = aE[X]

9.5 Varianza
W (
P (W = 0) = 1 E[W] = 0
P (Y = 1) = 12
Y E[Y] = 0
P (Y = 1) = 12
(
P (Z = 100) = 1
Z 2 E[Z] = 0
P (Z = 100) = 12
h i
2
var(X) = E (X E[X])

TEOREMA:

var(X) = E X 2 E[X]2
 

= E X 2 2X
 

X = E[X]

var(X) = E (X E[X])2 ) = E (X X )2 ) = E X 2 2X X + 2X
     

= E X 2 + E [2X X] + E 2X = E X 2 22X E [X] + 2X = E X 2 22X + 2X


       

= E X 2 2X
 

P (X = i) = 61 I{1,...,6} (i)
E[X] = 72
h 2 i 2 2 6 2
var(X) = E X 72 = 1 72 16 + 2 72 16 + . . . = i 27
P
i=1
var(X) = E X 2 49 = 91 49
= 35
 
4 6 4 12
6 6  Pn 2 
1 66713 n(n+1)(2n+1)
E X = i 6 =6
2 1
i = 6 66 = 91 abbiamo usato i=1 i =
 2 P  1 P 2
6 6
i=1 i=1
IA2
= IA
2 2
var(IA ) = E IA E [IA ] = E [IA ] E [IA ] = E [IA ] (1 E [IA ]) = P (A)(1 P (A))
 2

E (X X ) 0
2
 
| {z }
=E[X 2 ]E[X]2
Y = aX + b Y = aX + hb i
2
var(Y ) = var(aX+b) = E (Y Y ) = E (aX+ 6 b aX 6 b)2 = E (aX aX )2 = E (a(X X )2 ) =
     

a2 E (X X )2 = a2 var(X)
 

a = 0 var(b) = 0
var(Y ) = var(aX + b) = E Y 2 2Y = E (aX + b)2 (aX + b)2 = E a2 X 2 + 2abX + b2 (a2 2X +
     

2abX + b2 ) = a2 E X 2 + 2abE [X]


 + b2 a2 2 2ab
 X b2 = a2 E X 2 2X = a2 var(X)
     
 X

21
Statistica 10 Funzione di ripartizione congiunta

10 Funzione di ripartizione congiunta


due variabili aleatorie X, Y =X Y
FX,Y (x, y) = P (X x e Y y)
lim FX,Y (x, y) = lim P (X x, Y y) = P (X x) = FX (x) funzione di ripartizione marginale
y+ y+
lim FX,Y (x, y) = FY (y)
x+

10.1 Funzione di massa di probabilit`


a congiunta
pX,Y (x, y) = P (X = x, Y = y)


[
P {X = xi , Y = yj } = P ({X = xi }) = pX (xi )
j
X
= P ({X = xi , Y = yj })
j
X
= pX,Y (xi , yj )
j

pX,Y (xi , yj ) = pX (xi )


P
j
pX,Y (xi , yj ) = pY (yj )
P
i
Se A, B R P (X A Y B) = P (X A) P (Y B) X e Y sono indipendenti
X, Y indipendenti FX,Y (x, y) = FX (x) FY (y)
X, Y indipendenti pX,Y (x, y) = pX (x) pY (y)
Dimostrazione
A, B R P (X A, Y B) = P (X A) P (Y B)
A = {x}, B = {y}
P (X = x, Y = y) = P (X = x) P (Y = y)
pX,Y (x, y) = pX (x) pY (y)
Fissiamo arbitrariamente A, B R

!
[ XX
P (X A, Y B) = P {(x, y) | x A e y B} = P (x, y)
x,y xA yB
XX XX XX
= P (X = x, Y = y) = pX,Y (x, y) = pX (x) pY (y)
xA yB xA yB xA yB

X X X [
= pX (x) pY (y) = pX (x) P {Y = y}
xA yB xA yB
| {z }
P (Y B)

= P (X A) P (Y B)

X1 , . . . , Xn
FX1 ,...,Xn (x1 , . . . , xn ) = P (X1 x1 , . . . , Xn xn )
pX1 ,...,Xn (x1 , . . . , xn ) = P (X1 = x1 , . . . , Xn = xn )

22
Statistica 10.1 Funzione di massa di probabilit`a congiunta

A1 , . . . , A n R
n
! n n
\ Y Y
P x i Ai = P (xi Ai ) pX1 ,...,Xn (x1 , . . . , xn ) = pXi (xi )
i=1 i=1 i=1
l
n
Y
FX1 ,...,Xn (x1 , . . . , xn ) = FXi (xi )
i=1

E[g(X, Y )] = g(x, y)pX,Y (x, y)


P
Px,y
E[X + Y ] = (x + y) pX,Y (x, y) = (x pX,Y (x, y) + y pX,Y (x, y)) = x pX,Y (x, y) +
PP PP PP
y
x,y P x Py x y x y
pX,Y (x, y) = x pX,Y (x, y) + y pX,Y (x, y) = x pX (x) + y pY (y) = E[X] + E[Y ]
P P P P
x y y x x y
E[X + Y + Z] = E[(X + Y ) + Z] = E[X + Y ] + E[Z] = E[X] + E[Y ] + E[Z]

10.1.1 Esempio
X = somma dei punteggi di due dadi
12
E[X] = i P (X = i)
P
i=2
X = X1 + X2
Xi = punteggio del dado i-esimo
E[X] = E[X1 + X2 ] = E[X1 ] + E[X2 ] = 7
2 + 7
2 =7

10.1.2 Esempio
X = # lettere nella(busta giusta (n persone)
1 se la i-esima lettera `e nella busta giusta
i = 1, . . . , n Xi =
0 altrimenti
E[Xi ] = P (lettera i-esima nella busta giusta) = n1
n
X=
P
Xi
i=1
n n
E[X] = E[Xi ] = 1
=1
P P
n
i=1 i=1

10.1.3 Esempio
n = 20 tipi di buono sconto
m = 10 confezioni
n
X = numeri di buoni diversi =
P
Xi
( i=1
1 se ho almeno un buono #i
Xi =
0 altrimenti

E[Xi ] = P (Xi = 1) = P (su m confezioni almeno un buono #i)


= 1 P (su m confezioni, nessun buono i-esimo)
= 1 P (j = 1, . . . , m nella confezioni j non trovo buono #i)
Ym
=1 P (nella confezione j non trovo buono #i)
j=1
m m
n1 n1
Y 
=1 =1
j=1
n n

23
Statistica 10.2 Covarianza

n n 20
n1 m 19 10
E[X] = E[Xi ] = 1 = 1 8.025
P P  P 
n 20
i=1 i=1 i=1

E[(X )2 ] = 2
E[(X c)2 ] = E ((X ) + ( c))2 = E (X )2 + 2(X )( c) + ( c)2 =
  

E (X )2 + ( 2( ((( ] + ( c)2
  ((
(
(c)E[X
| {z }
0
Parte
 cancellata perche E[X
 ]2 = E[X] = 0
E (x c)2 E (X )2 = X


10.2 Covarianza
var(X + X) 6= var(X) + var(X)
cov(X, Y ) = E[(X x )(Y Y )]
cov(X, Y ) = E[XY XY Y X + X Y ] = E[XY ] y E[X] X E[Y ] + X Y = E[XY ] Y X
| {z } | {z }
X Y
X
 Y +
 X Y = E[XY ] E[X]E[Y ]

cov(X, Y ) = E[XY ] E[X]E[Y ] = E[XY ] E[X]E[Y ] = cov(X, Y )
cov(X + Y, Z) = E[(X + Y )Z] E[X + Y ]E[Z] = E[ZX + Y Z] (E[X] + E[Y ])E[Z] = E[XZ] + E[Y Z]
E[X]E[Z] E[Y ]E[Z] = cov(X, Z) + cov(Y,
 Z)
cov(X, X) = E[(X x )(X X )] = E (X X )2 = var(X)

2
var(X
 2 + Y ) = E (X + Y2) (E[X + Y ]) = E X 2 + 2XY + Y 2 E[X]2 + 2E[X]E[Y ] + E[Y ]2 =
 2
   

E X + 2E[XY ] + E Y E[X]2 2E[X]E[Y ] E[Y ]2 = var(X) + var(Y ) + 2 cov(X, Y )


var(X
 n+ X)= var(X) + var(X) + 2 cov(X, X) = 4 var(X)
n n P n
var Xi = var(Xi ) + cov(Xi , Xj ) = cov(Xi , Xj )
P P P P
i=1 i=1 i=1 j6=i i,j=1
Teorema: Se X e Y indipendenti
P P E[XY ] = E[X]E[Y P ]P
Dimostrazione: E[XY ] = i j xi yj pX,Y (xi , yj ) = i j xi yj pX (xi )pY (yj ) = i xi pX (xi ) j yj pY (yj ) =
P P
E[X]E[Y ]
Se X e Y indipendenti cov(X, Y ) = E[XY ] E[X]E[Y ] = E[X]E[Y ] E[X]E[Y ] = 0
var(X + Y ) = var(X) + var(Y ) + 2 cov(X, Y )
Se X e Y indipendenti var(X + Y ) = var(X) + var(Y )

10.2.1 Propriet`
a della covarianza
1. cov(X + Y, Z) = cov(X, Z) + cov(Y, Z)
2. cov(a X, Z) = a cov(X, Z)

3. cov(X, Z) = cov(Z, X)
4. cov(X, X) = var(X)

10.2.2 Esempio
Lancio
 10un dado
 10 volte X1 , . . . , X10
10 10
var Xi = var(Xi ) = 12 = 10
35 35
= 175
P P P
12 6
i=1 i=1 i=1
Lancio(una moneta 10 volte
1 se lancio i esce testa
Ei =
0 altrimenti
var(Ei ) = E Ei2 E[Ei ]2 = E[Ei ] E[Ei ]2 = E[Ei ](1 E[Ei ])
 

E[Ei ] = P (testa) = 12
 10  10
var Ei = var(Ei ) = 10 14 = 52
P P
i=1 i=1

24
Statistica 10.3 Coefficiente di correlazione

A X = IA , Y = IB
A, B (
1 se si verificano A e B
XY =
0 altrimenti
E[XY ] = P (X = 1, Y = 1)
cov(X, Y ) > 0
cov(X, Y ) = E[XY ] E[X]E[Y ] = P (X = 1, Y = 1) P (X = 1)P (Y = 1)
P (X = 1, Y = 1) > P (X = 1)P (Y = 1)
P (X = 1 | Y = 1) > P (X = 1)

10.3 Coefficiente di correlazione


cov(X, Y )
X,Y =
X Y
2X,2Y = cov(2X,2Y
2X 2Y
)
= 4cov(X,Y )
2X 2Y = X,Y
1 1

10.4 Variabili aleatorie continue


X
fX (x) dx = P (X B)
R
BR
B
fX (x) funzione di densit`
a (di probabilit`
a)
Rb
P (a X b) = fX (x) dx
a
Rb
P (a < X < b) = fX (x) dx
a
Ra
FX (a) = P (X a) = fX (x) dx

lim FX (x) = 0
x
dFX (a)
dx = fX (x)
a+ 2

= fX (x) dx f (a)
 R
P a 2 X a 2
a 2
+
P (x R) = fX (x) dx = 1
R

10.4.1 Esempio
(
c 4x 2x2 se 0 < x < 2

X con densit`
a fX (x) =
0 altrimenti
P (X > 1) =?
+ R2 h 3 2
i
1= fX (x) dx = c 0 (4x 2x2 ) dx = c 2x2 2 x3 = 2c 4 83 = 2c 128
=c 8
=1c= 3
R  
3 3 8
0
+ R2 R2 h i2
x3
P (X > 1) = fX (x) dx = 38 (4x 2x2 ) dx = 3
2x x2 dx = 3
= 3
4 8
1+ 1
=
R 
4 4 x2 3 4 3 3
1
 312 1 1
4 3 3 = 4 3 = 2
3 7 1
+
E[X] = xfX (x) dx
R

+
E[g(x)] = g(x)fX (x) dx
R

+
var(X) = (x X )2 fX (x) dx
R

25
Statistica 10.5 Disuguaglianza di Markov

E[g(X, Y )] = g(xi , yj )pX,Y (xi , yj )


PP
i j
fX,Y (x, y)
+
R +
E[g(X, Y )] = g(X, Y )fX,Y (x, y) dx dy
R

10.5 Disuguaglianza di Markov


X a valori 0
E[X]
P (X a)
a
+
+
Z a +
Z
R +
E[X] = xfX (x) dx = xfX (x) dx+ xfX (x) dx xfX (x) dx afX (x) dx = a fX (x) dx =
R R R
0
|0 {z } a a
a a
>0 | {z }
xa
a P (X a)
E[X] a P (X a)
P (X a) E[X]
a

10.6 Disuguaglianza di Chebyshev


2
P (|X | r)
r2
Dimostrazione: |X | r (X )2 r2
2
E[Y ] X
P (|X X | r) = P (X X )2 r2 applico Markov con Y = (X X )2 =
  
r2 r2
2
Se pongo r = k P (|X X | k)  = k12
2
k2

10.6.1 Esercizio
X = # pezzi prodotti in una settimana
E[X] = 50
P (X 75) E[X]
75 = 75 = 3
50 2

= 25
2

P (40 < X < 60) = P (10 < X 50 < 10) = P (|X 50| < 10) = 1 P (|X 50| 10) 1 25
102 = 3
4

11 Distribuzione Bernoulliana
Due eventi:
SUCCESSO con probabilit`
a p [0, 1] X=1
FALLIMENTO con probabilit`
a 1p X=0
P (X = 1) = p P (X = 0) = 1 p
Distribuzione bernoulliana di parametro p scritta come X B(p)
pX (x) = px (1 p)1x I{0,1} (x)
E[X] = 0 P(X = 0) + 1 P (X = 1) = p
var(X) = E (X )2 = (0p)2 P (X = 0)+(1p)2 P (X = 1) = p2 (1p)+(1p)2 p = p(1p)(p+1   =
p)
p(1 p)

var(X) = E (X )2 = (0 p)2 P (X = 0) + (1 p)2 P (X = 1) = p2 (1 p) + (1 p)2 p


 

= p(1 p)(p
 + 1 p)
 = p(1 p)
= E X 2 E[X]2 = E[X] E[X]2 = E[X](1 E[X])
 

FX (x) = (1 p)I[0,1) (x) + I[1,+) (x)

26
Statistica 12 Distribuzione binomiale

12 Distribuzione binomiale
n ripetizioni di un esperimento bernoulliano di parametro p
X = # successi B(n, p)
pX (x) = nx px (1 p)nx I{0,...,n} (x)

n n
pX (x) = x p (1 p)
n x
= (p + 1 p)n = 1
P P  nx
x=0 x=0

12.1 Esercizio
p = 0.01 n = 10
X = # penne difettose in una scatola B(10, 0.01)
P (scatola sostituita) = P (pi` u di una penna difettosa) = P (X > 1) = 1 P (X 1) = 1 P (X =
0 X = 1) = 1 P (X = 0) P (X = 1) = 1 pX (0) pX (1) = 1 n0 p0 (1 p)n n1 p1 (1 p)n1 =
1 0.9910 10 0.01 0.999 0.0043 0.43% di resi
Successo: restituisco, fallimento: tengo
p0 = 0.0043 n0 = 3
Y = # scatole restituite B(n0 , p0 )
0 0
P (Y = 1) = n1 p01 (1 p0 )n 1 = 31 p0 (1 p0 )2 0.0127


P (Y 1) = 1 P (Y = 0)
X B(n, p)
n
X= i = 1, . . . , n Xi B(p)
P
Xi
i=1  
n n n
E[X] = E Xi = E[Xi ] = p = np
P P P
i=1 i=1
 i=1
n n n
var(X) = var Xi = var(Xi ) = p(1 p) = np(1 p)
P P P
i=1 i=1 i=1
X B(n1 , p) Y B(n2 , p)
n1 n2
X= Y =
P P
Xi Yi
i=1 i=1
n1 n2
X +Y = Xi + Yi B(n1 + n2 , p)
P P
i=1 i=1

13 Distribuzione geometrica
X = # insuccessi prima del primo successo G(p) p [0, 1)
pX (x) = (1 p)x p IN{0} (x)

ii = ii1 = d = d 1 = (1)2
d i d 1 1
P P P
i=0 i=0 i=0

i =
i
P
(1)2
i=0

E[X] = i P (X = i) = i(1 p)i p = p i(1 p)i = p 1p
=p
 p2 =
1p 1p
P P P
(11+p)2 p
i=0 i=0 i=0

E X2 = i (1 p)i p = p(1 p) i2 (1 p)i1 = p(1 p) dp (i(1 p) )
d
= p(1 p) dp
d
(i(1
  P 2 P P i
P
i=0 i=0 i=0   i=0
p2 +(1p)2p p+2(1p)
p) ) = p(1 p) dp p2 = p(1 p)
i d 1p
p4 = (1 p) p2 = (1 p) p+22p
p2 = (1p)(2p)
p2
(1p)(2p) (1p)2 (1p)((2p)(1p))
var(X) = p2 p2 = p2 = 1p
p2

P (X > n) = P (X n+1) = i
(1p) p = p(1p)
n+1
(1p)i(n+1) = faccio la sostituzione j =
P P

i=n+1 i=n+1

i (n + 1) = p(1 p)n+1 (1 p)j = p(1 p)n+1 p1
P
j=0
 
P (X > n) = (1 p)n+1
(1p)i+j
P (X i + j | X i) = P (Xi+j,Xi)
P (Xi) = P (Xi+j)
P (Xi) = (1p)i = (1 p)j = P (X j)

27
Statistica 14 Distribuzione di Poisson

13.0.1 Esercizio
P (influenza in un mese) = p = 0.1
Se 3 influenze in un anno ( vado dal medico
successo se mi ammalo in un anno
Esperimento bernoulliano
fallimento atrlimenti
X = # di influenze B(n = 12, p = 0.1) 
P (3 influenze in un anno) = P (X = 3) = n3 p3 (1 p)n3 = 12 3 0.1 0.9 0.085
 3 9

P (medico
 a fine anno) = P (X 3) = 1 P (X < 3) = 1 P (X = 0) P (X = 1) P (X = 2) =
1 120 0.1 0
0.912
1 0.1 0.9
12 1 11
2 0.1 0.9
12 2 10
0.11 =: p0
Y = tra quanti anni vado dal medico G(p ) 0

P (vado dal medico tra 5 anni) = P (Y = 4) = (1 p0 )4 p0 0.069


P (Y 3 | Y 2) = P (Y 1) = 1 p0 0.89

14 Distribuzione di Poisson
X P ()
i
P (X = i) = pX (i) = e i! IN{0} (i)

i
X i
pX (i) = e i! = e =1
P P
i=0 i=0 i=0
i!
| {z }
=e
i

i i1
E[X] = i pX (i) = i e i! = e = e = faccio la sostituzione j = i 1 =
P P P P
(i1)! (i1)!
i=0 i=0 i=1 i=1

j
e =
P
j!
j=0
i

i1 i
E X2 = i2 e i! = e = e 1
) = e 1 d i
= e d
d
=
  P P P i1
P P
i (i1)! (i1)! (i (i1)! d (i1)!
i=0 i=1 i=1 i=1 i=1

i1
e d
d
= e d
d
e = e e + e = 
e
e (1 + ) = + 2
P 
(i1)!
i=1

i
i
i
i
X i1 X i1
e i (i1)!

e (i1)!

= e (i1)!

(i1)+ e (i1)!

= e (i 1)+e
P P P P

i=1 i=1 i=1 i=1 i=1
(i 1)! i=1
(i 1)!
| {z } | {z }
=2 =
var(X) = E X E[X]2 = + 2 2 =
 2


np = per n grande p = n
n(n1)...(ni+1) i (1 n )
n
n n1 ni+1
P (X = i) = ni pi (1 p)ni = i =

X B(n, p)
i! ni (1 n ) |n n {z n }
1
(1 n )
n
i n i
e i!
(1 n )
i! i

14.1 Riproducibilit`
a
X1 P(1 ), X2 P(2 ) X1 + X2 P(1 + 2 )

14.1.1 Esercizio
X = # di richieste in un giorno E[X] = 5 X P(5) 
50 51 52
P (X < 3) = P (X = 0) + P (X = 1) + P (X = 2) = e5 + + = e5 1 + 5 + 25
0.1247

0! 1! 2! 2
4
P (X = 4) = e5 54!
0.1755 =: p
Probabilit`
a che in una settimana ricevo 4 richieste in esattamente 3 giorni
Y B(5, p)

28
Statistica 15 Distribuzione uniforme(discreta)

P (Y = 3) = 5
p3 (1 p)2 = 5
0.17553 (1 0.1755)2 = DA CALCOLARE
 
3 3

14.1.2 Esercizio
X = # difettosi n = 10, p = 0.1
Con la binomiale:
P (X 1) = n0 p0 (1 p)n + n1 p1 (1 p)n1 = 10 0 0.1 0.9 + 10
0.11 0.99 0.7361
   0 10

1
Con la poissoniana:
X Y P(np = 1)
0 1
P (Y 1) = e 0! + e 1! = e1 (1 + 1) = 2e 0.7358

15 Distribuzione uniforme(discreta)
X U(n)
n N \ {0}
pX (x) = n1 I{1,...,n} (x)
bxc
bxc bxc
FX (x) = P (X x) = pX (i) = 1
= = n I1,...,n (x) + In+1,... (x)
P P
n n
ix i=1
n n
E[X] = 1
= 1
= 1
n(n+1) = n+1
P P
i n n 2 2
i=1 i=1 n
n n
E X2 = 1
= 1
i2 = n(n+1)(2n+1)
1 
= (n+1)(2n+1)
 
i2
P P
n n 6 6
i=1 i=1 n
2
(n+1)(2n+1) n2 1
var(X) = (n+1) = (n + 1) 6 4 = (n + 1)
2n+1 n+1 4n+23n3
= (n + 1) n1
=
  
6 4 12 12 12

16 Distribuzione ipergeometrica
M # oggetti funzionanti
N # oggetti difettosi
n # estrazioni senza reimmissione
X = # oggetti funzionanti su n estratti H(M, N )
M N
 
i ni
P (X = i) = M +N
 I{0,...,n} (i)
n

Valore minimo delle specificazioni = max{0, n N }


Valore massimo delle specificazioni
( = min{n, M }
1 se la i-esima estrazione funzionante
i = 1, . . . , n Xi =
0 altrimenti
E[Xi ] = P (Xi = 1) = M +N =: p
M

var(Xi ) = MM +N M +N = (M +N )2
N M N

n
X=
P
Xi
i=1
n
E[X] = +N = np
E[Xi ] = n MM
P
i=1
 n  X n X
var(X) = var Xi = var(Xi ) + cov(Xi , Xj )
P
i=1 i=1 i6=j
| {z } | {z }
n termini n(n1) termini

29
Statistica 17 Distribuzione uniforme(continua)

cov(Xi , Xj ) = E[Xi Xj ] E[Xi ] E[Xj ]


= P (Xi = 1, Xj = 1) E[Xi ] E[Xj ]
= P (Xi = 1 | Xj = 1) P (Xi = 1) E[Xi ] E[Xj ]
M M 1 M2
=
M + N M + N 1 (M + N )2
M 1 (M + N )(M 1) M (M + N 1)
 
M M M
= =
M +N M +N 1 M +N M +N (M + N 1)(M + N )
M 2
M  M+ MN N 
 M 
 2
MN +

 M M N
= =
 

M +N (M + N 1)(M + N ) (M + N )2 (M + N 1)
   
var(X) = n (MM+N
N
)2 n(n1) MN
2
(M +N ) (M +N 1) = nM N
(M +N ) 2 1 n1
M +N 1 = n M
N
M +N M +N 1 M +N 1 =
n1
 
M +N +
np(1 p) 1 M n1
+N 1 np(1 p)

16.0.1 Esercizio
M = 15
N =5
n=6
(15)(5)+(15
5 )(1)+( 6 )(0)
5 15 5
P (Y 4) = 4 6 0.8687
(6)
20

17 Distribuzione uniforme(continua)
X U(a, b)
+
fX (x) dx = 1
R

Rb Rb
fX (x) dx = k dx = [kx]ba = k(b a) k = 1
ba
a a
fX (x) = ba
1
I[a,b] (x)
b h ib
x2 2 2
E[X] = x ba 1
dx = 1
= ba 1
b a = b+a
R
ba 2 2 2
a a
  Rb h i b  2 +ab+b2 )
x3 3 3 (ba)(a 2 2
E X 2 = a x2 ba
1
dx = ba1
= ba
1
b a = ba
1
= a +ab+b

3 3   3 3
a 
2 2 2 2 2 2
3a2 6ab3b2 2 2
var(X) = a +ab+b
3 (a+b)
4 = 4a +4ab+4b 12 = a 2ab+b
12 = (ba)
12
Rx 1
FX (x) = P (X x) = P (a X x) = ba dz = ba
1
[z]xa = xa
ba
a
FX (x) = ba I[a,b) (x)
xa
+ I[b,+) (x)

17.1 Esercizio autobus


P (10 < X < 15) + P (25 < X < 30) = FX (15) FX (10) + FX (30) FX (25) = 15
30 10
30 + 30
30 25
30 =
30 + 30 = 3
5 5 1

18 Distribuzione esponenziale
X E() R+
fX (x) = ex
I[0,+) (x)
R x R y
e dx = e dy = [ey ]0 = 0 + 1 = 1 ho fatto la sostituzione y = x, dy = dx
0 0

30
Statistica 18.1 Assenza di memoria

R
E[X] = xex dx = integro per parti dove f (x) = x, f 0 (x) = 1 e g(x) = ex , g 0 (x) = ex
 
0
R x R
= xe
 0 + e
x
dx = 1 ex = 1
 
0 0
 2  R 2 x R R R
E X = x e dx = x e  0 + 2xex dx = xex dx = xex dx =
 2 x 2 2 2
 2
0 0 0 0
var(X) = 2
2 1
2 = 1
2
Rx x
P (X x) = ez dz = ez 0 = ex + 1 = 1 ex

0
FX (x) = 1 ex IR+ (x)


18.1 Assenza di memoria


P (X > x) = 1 P (X x) = 1 FX (x) = ex
P (X > t + s | X > s) = P (X > t)
P (X>t+s,X>s)
P (X>s) = P (X > t)
P (X > t + s) = P (X > t)P (X > s)
e(t+s) = et es
X1 E(1 ), . . . , Xn E(n )
n
=
P
i
i=1
Y = min Xi
i
Y x i Xi x     n  
n n n
P (Y > x) = P (i Xi > x) = P (Xi > x) = ei x = exp = exp i x =
Q Q P P
i x
i=1 i=1 i=1 i=1
ex
FY (x) = P (Y x) = 1 P (Y > x) = 1 ex

18.2 Esercizio
Componenti in serie:
Xi = tempo prima del guasto del componente i-esimo E(i )  
n
X = tempo di primo guasto del intero sistema = min Xi E
P
i
1in i=1
+ INDIPENDENZA

18.3 Esercizio
X = tempo di riparazione di una macchina (in ore) E(1)
P (X > 2) = 1 FX (2) = 1 (1 e12 ) = e2 0.1353
P (X > 3 | X > 2) = P (X > 1) = e1 0.3678

18.3.1 Esercizio
X = # migliaia di miglia prima di un guasto E 1

20
P (X 10 + 20 | X > 20):
1
- P (X 20) = 1 e 20 20 = e1 0.3678

Usando invece una distribuzione uniforme (perche anchessa gode della propriet`a di assenza di
memoria)
X = U([0, 40])
P (X30|X10) P (X30) P (30X40) FX (40)FX (30) 130/40 1/4
- P (X10) = P (X10) = P (10X40) = FX (40)FX (10) = 110/40 = 3/4 = 1
3

31
Statistica 19 Distribuzione Gaussiana o Normale

19 Distribuzione Gaussiana o Normale



N , 2 R R+
1 (X)2
fX (x) = e 22
2
(x)2 (x)2
 
0
fX (x) = 1 e 2 x
2 2
1
 22 = 23 e 22 ( x) x>0 x<
2   
(x)2 (x)2 (x)2
 
22 22 22 (x)2
00
(x) = 2
1
e x
(x e = 1 e 1 >0

fX 3
2 2 2 ) 2 3 2
(x)2 x 2
1>0 > 12 x > 1

2
|x | > :
- x> x>+
- x< x<
+ + +
1 e 2 ( )
(x) 1 x 2 2
1 e
z
dx = dx
= faccio la sostituzione z = x
e dz = dx
= 1 e 2 dz =
R R R
2 2
2 2 2

+
Z
z2
1
2
e 2

| {z }
I
+ + y2
+
R + x2 +y 2
x2
I I = e e dy = e dx dy = atto di fede = 2
R R R
2 2 2

E[X] =
var(X) = 2
X N(, 2 )
aX + b N(a + b, a2 2 ) )
Xi N(i , 2 ) i = 1, . . . , n n
 n n

i2
P P P
Xi N i ,
+INDIPENDENZA i=1 i=1 i=1
X N(0, 2 )
Z = X
N(0, 1) Distribuzione normale Standard
Rx 1 2
FX (x) = P (X x) =
2
e (y)
2 2 dy = faccio la sostituzione z = y
e dz = dy
=

x
2
z
1 e 2 := x
R 
2
     
P (a X b) = P a X b
=P a b
= b
a

Z
(x) = P (Z x) = P (Z x) = 1 P (Z < x) = 1 P (Z x) = 1 (x)

19.1 Esercizio
X2017 = # inch di pioggia a LA nel 2017
X2018 = # inch di pioggia a LA nel 2018
indipendenti
X2017 , X2018 N(, 2 ) = 12.08, = 3.1
S = X2017 + X2018 N(2, 2 2 )  
P (X2017 + X2018 > 25) = P (S > 25) = P S2

2
> 252

2
P (Z > 0.1916) 0.4240
D = (X2017 X2018 ) N(0, 2 2 )
X2017 N(, 2 )
X2018 N(, 2 )
X2018 N(mu, 2 )

32
Statistica 20 Statistica inferenziale

 
P (X2017 > X2018 + 3) = P (X2017 X2018 > 3) = P (D > 3) = P D0

2
> 30

2
P (Z > 0.6843) =
1 (0.6843) 0.2469

20 Statistica inferenziale
Il punto di partenza `e la POPOLAZIONE.
Linferenza si fa su un CAMPIONE:
- x1 , . . . , x n
- X1 , . . . , Xn i.i.d. come X F

i.i.d. - indipendenti e identicamente distribuiti


IPOTESI X N(, 2 )
= t(x1 , . . . , xn ) = |{z}
x stima per

| {z }
STIMATORE stima di
STATISTICA
T = t(x1 , . . . , xn ) = x
F dipende da un parametro
Voglio stimare (), considero una statistica t(x1 , . . . , xn )
() = t(x1 , . . . , xn )
Voglio stimare E[X] =
Statistica: media campionaria
n
t(x1 , . . . , xn ) = n1 Xi =: X
P
 n i=1  n n n
E[X] = E n1 Xi = n1 E[Xi ] = n1 E[X] = n1 =
P P P P
i=1
 n  i=1  n i=1 i=1
n n
2
var(X) = var n1 Xi = n12 var Xi = n12 var(X) = 1
2 =
P P P P
n2 n
i=1 i=1 i=1 i=1

20.1 Teorema del limite centrale


X1 , . . . , Xn i.i.d. come X
n
E[X] = Xi = n
P
E
i=1  
n
var(X) = 2
var Xi = n 2
P
i=1
n
N n, n
P 2

Xi
i=1
Pn
Xi n
i=1
N(0, 1)

n
Pn
Xi n
P i=1n x (x)

20.1.1 Esercizio
n = 25000 clienti
Xi = soldi dovuti al cliente i
n
X = totale risarcimento = N n, n 2
P 
Xi
i=1
E[Xi ] = 320 =
var(Xi ) = 540 = 2    
6
8.3106 8106 0.3106
P X > 8.3 106 = P X810 = P (Z > 3.51) = 1 (3.51)

8.54104 > 8.54104 P Z> 8.54104

33
Statistica 20.2 Stimare una binomiale

2.2 104

20.2 Stimare una binomiale


n
X= Xi Xi B(p) + indipendenza
P
X B(n, p)
i=1
N(nE[Xi ], nvar(Xi ))
X
| {z } | {z }
np np(1p)

20.2.1 Esercizio
n = 450 matricole
P (una matricola segue le lezioni) = 0.3
n
X=
P
Xi B(p) Xi X B(n, p)
i=1
N( np , np(1 p))
X
|{z} | {z }
135 9.722

450  
X n i
P (X > 150) = p (1 p)ni = ...
i=151
i
X 135 150.5 135
 
= P (X > 150.5) = P > P (Z > 1.59) 0.06
9.72 9.72

21 Stimatori
n
X= 1
P
n Xi
i=1
n
N(n, n 2 )
P
Xi
i=1
X N(, 2 )
aX N(a, a2 2 )
n    
n 2 2
N n =
P
Xi n , n 2 N , n
i=1
X

/ n
N(0, 1)
   
P (X x) = P / X

n
x

/ n
x

/ n

21.1 Stimatore per la varianza


n n
s2 = 1
(xi x)2 S2 = 1
(Xi X)2
P P
x1 , . . . , x n n1 n1
i=1 i=1
E S 2 = 2
 

n n n n
X
1. (xi x)2 = x2i 2xi x x2 = xi + nx2
 P
x2i 2x
P P
i=1 i=1 i=1 i=1
| {z }
2nx2

2. E X 2 = var(X) + E[X]2
 

3. E[X] =
2
4. var(X) = n

34
Statistica 21.1 Stimatore per la varianza

n 2
(n 1)S 2 =
P
Xi X
i=1  n 
E (n 1)S = E (Xi X)2
 2
 P
i=1
" n
# n
X 2 X h 2i
(n 1)E S 2
=E Xi2 = Xi2 nE X
   
nX
i=1 i=1
n
X h 2i h 2i
= E X 2 nE X = nE X 2 nE X
   
i=1
   h 2 i   2 
= n E X2 E X = n var(X) + E X 2 var(X) E X
 

2
 
=n +
2 2
= n 2 2
2
n
= (n 1) 2

(n 1)E S 2 = 
(n 1) 2
 
  

X1 , . . . , Xn F ()
t(x1 , . . . , xn ) = () t(X1 , . . . , Xn ) =: T
E[T ] = ()
b () (T ) = E[T ] ()
NON DEVIATO
T NON DISTORTO rispetto a ()
UNBIASED

21.1.1 Esempio
X1 , . . . , Xn U ([0, ])
FX (x) = x t(x1 , . . . , xn ) = max xi
1in
R
T := t(x1 , . . . , xn ) E[T ] = xfT (x) dx
0
n
max Xi x
T
Xi x
1in i=1    n  n n n
FT (x) = P (T x) = P max xi x = P Xi x = P (Xi x) = FX (x) = =
x
T Q Q Q
1in i=1 i=1 i=1 i=1
x
 n

FT (x) = x

x n
n1 1 xn1
fT (x) = dF dx (x) = dx
d
= n x = n n

T

R n1 R h n+1 i n+1
E[T ] = xn xn dx = nn xn dx = nn xn+1 = nn  n+1 = n+1 pu`
 n
o essere distorto, ma n+1
n
1,

0 0 0 
quindi, per n molto grande non `e distorto
b (T ) = E[T ] = n+1 n
= nn1
n+1 = n+1

X1 , . . . , Xn N(, ) 2

(, 2 ) =
n
X = n1 Xi = 1
P P
n xi
i=1
T1 = X E[T1 ] =
T2 = X1 E[T2 ] = E[X1 ] =
n n n
T3 = i Xi E[T3 ] = i E[Xi ] = i =
P P P
i=1 i=1 i=1
X1 , . . . , Xn
T := t(X1 , . . . , Xn )
M SE scarto quadratico medio
M SE (T ) = E (T )2


35
Statistica 21.1 Stimatore per la varianza

Se E[T ] = allora M SE (T ) =h E (T )2 = E (T E[Ti ])2 = var(T ) altrimenti


   
2
M SE (T ) = E (T )2 = E ((T E[T ]) + (E[T ] )) =
 

= E (T E[T ])2 + 2(T E[T ])(E[T ] )) + (E[T ] )2 =


 

= E (T E[T ])2 + 2(E[T ] )(E[T ] E[T ]) + (E[T ] )2


 
| {z } | {z } | {z }
var(T ) 0 (b (T ))2
M SE (T ) = var(T ) + b (T )
2
2
M SE (T1 ) = var(X) = n
M SE (T2 ) = var(T2 ) = var(X 1n) = 
2
n n n
M SE (T3 ) = var(T3 ) = var i Xi = var(i Xi ) = 2i var(Xi ) = 2 2i
P P P P
i=1 i=1 i=1 i=1
n=2
T3 = X1 + (1 )X2
M SE (T3 ) = 2 2 + (1 )2


d + (1 ) = 2 2(1 )
d 2 2


2 2 (1
) = 0 1+
=0 2=1 =1

  2
lim M SEt heta(T ) = 0 T consistente in media quadratica
n+
E[T ] = lim var(T ) = 0
n+
X consistente in media quadratica (rispetto a )
2 n+
M SE (X) = var(X) = n 0

21.1.2 Esercizio
d = distanza Terra-stella
X = esito della misura N(d, 4) in anni luce
X1 , . . . , Xn  N(d, 4) dx 
X N d, 4
n X d N 0, n4
P X d 0.5 0.95


   
n n
P X d 0.5 = P 0.5 X d 0.5 = P 2/ 0.5
= P =

Xd 0.5
 
Z
4 4
         n 2/ n 2/ n
n n n n n
4 4 = 4 1 4 = 2 4 1
 
n
P X d 0.5 = 2 4 1 0.95

 
4n 1 0.95
 
4n 0.975

n
1 (0.975) 1.96
4
n
4 1.96
n 4 1.96
n 61.4 quante osservazioni affinche almeno con probabilit`a 0.95 lerrore non superi 0.5 anni luce

X1 , . . . , Xn N(, 2 )
x
Voglio che P |X | r 1

  r
P X r = P r X r = P /rn /
X
= P r n Z =
  r


n / n n
    
r n r n = r n 1 r n = 2 r n 1 1

r n 1 2

r
n 1 2
1


n r 1 1 2

2
n r 1 1 2

Non sapendo la distribuzione:

36
Statistica 22 Processo di Poisson(di intensit`a )

X1 , . . . , Xn X E[X] = var(X) = 2 + INDIPENDENZA


Usando il teorema del limite centrale si ottiene, con buona approssimazione lo stesso risultato di sopra.

22 Processo di Poisson(di intensit`


a )
N (t) = #eventi che occorre in (0, t]
t N (t) `e variabile aleatoria N (t) `e un processo stocastico
Un processo di Poisson `e un processo stocastico che soddisfa le seguenti propriet`a:
1. N (0) = 0
2. Indipendenza tra #eventi in intervalli temporali disgiunti

3. #eventi distribuiti solo in funzione di grandezza dellintervallo


P (N (h)=1)
4. lim h = [ P (N (h) = 1) = h]
h0

P (N (h)2)
5. lim h =0
h0

N (t) = k = (tutti gli altri casi)


1 occorrenza in k intervalli

0 occorrenze in N k intervalli
| {z | {z } }
:=A :=B
nk
P (N (t) = k) = P (A) +   = nk nt k 1 t
P (B)
  
n
n+
N (t) B n, nt P(t)


37

Potrebbero piacerti anche