Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1
Statistica INDICE
Indice
1 Introduzione alla Statistica 3
1.1 Statistica descrittiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Statistica inferenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Calcolo delle probabilit`a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Tipi di dati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Indici 4
2.1 Media campionaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2 Variabilit`
a dei dati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3 Mediana campionaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.4 Moda campionaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3 Indici di dispersione 6
3.1 Varianza campionaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.2 Deviazione standard campionaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.3 Mediane - percentile campionario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
3.4 Quantili campionari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.5 Quartili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
4 Grafici 8
4.1 Osservazioni a coppie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2 Coefficiente di correlazione campionaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
4.3 Indipendenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5 Indici di dispersione 12
5.1 Indice di Gini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.1.1 Eterogeneit`a minima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.2 Indice di Gini normalizzato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.2.1 Eterogeneit`a massima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.2.2 Eterogeneit`a minima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.3 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.4 Entropia (H) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.5 Classificatore . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.6 Indici di concentrazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
6 Calcolo combinatorio 14
6.1 Disposizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.2 Permutazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.3 Combinazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.4 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
7 Probabilit`
a 14
7.1 Propriet`
a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
7.2 Assiomi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
7.2.1 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
8 Spazio di probabilit`a 16
8.1 Esempio: lancio di una moneta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
8.2 Probabilit`
a condizionata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
8.3 Teorema delle probabilit`
a totali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
8.3.1 Forma generale teorema delle probabilit`a totali . . . . . . . . . . . . . . . . . . . . 16
2
Statistica INDICE
9 Variabile aleatoria 17
9.1 Funzione di ripartizione o funzione di distribuzione cumulativa . . . . . . . . . . . . . . . 17
9.2 Funzione massa di probabilit` a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
9.2.1 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
9.3 Funzione di distribuzione cumulativa empirica (ecdf) . . . . . . . . . . . . . . . . . . . . . 18
9.4 Valore atteso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
9.4.1 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
9.4.2 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
9.5 Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
11 Distribuzione Bernoulliana 24
12 Distribuzione binomiale 25
12.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
13 Distribuzione geometrica 25
13.0.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
14 Distribuzione di Poisson 26
14.1 Riproducibilit`
a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
14.1.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
14.1.2 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
15 Distribuzione uniforme(discreta) 27
16 Distribuzione ipergeometrica 27
16.0.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
17 Distribuzione uniforme(continua) 28
17.1 Esercizio autobus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
18 Distribuzione esponenziale 28
18.1 Assenza di memoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
18.2 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
18.3 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
18.3.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3
Statistica INDICE
20 Statistica inferenziale 31
20.1 Teorema del limite centrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
20.1.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
20.2 Stimare una binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
20.2.1 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
21 Stimatori 32
21.1 Stimatore per la varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
21.1.1 Esempio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
21.1.2 Esercizio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
a )
22 Processo di Poisson(di intensit` 35
4
Statistica 1 Introduzione alla Statistica
Statistica descrittiva
Statistica inferenziale
Calcolo delle probabilit`
a
5
Statistica 1.4 Tipi di dati
Le variabili Scalari e Ordinali sono codificate in modo numerico, mentre le variabili Nominali in caratteri
alfabetici.
Le variabili Ordinali hanno un valore discreto.
Le variabili Scalari hanno un valore continuo.
Tipi di osservazioni: Caratteri, Variabili, Attributi
Sinonimo di osservazione: Caso
Quando si analizzano variabili Ordinali e Scalari bisogna fare attenzione alla SCALA con cui sono
codificati i dati.
Esempi:
1) Altezza1 (m) e Altezza2 (m) Lo 0 `e in comune tra le due variabili
2) Temperatura1 (C) e Temperatura2 (F) Lo 0 non `e in comune
Definizioni
- Variabile continua Sempre infinita, non numerabile
- Variabile discreta Numerabile
2 Indici
La statistica cerca di descrivere le osservazioni attraverso conti aritmetici, per arrivare a un numero,
che rappresenta lindicatore dellaspetto del fenomeno che ha prodotto determinati dati.
Indici
Gli indici posso essere di due tipi: posizione e dispersione.
Gli indici esistono sia in probabilit`
a che in statistica. Per differenziare i due tipi di indici, si aggiunger`
a
campionaria per gli indici statistici.
Definizione di Statistica:
Informatica: Usiamo le osservazioni(input) e, applicando un ragionamento(algoritmo), abbiamo
come risultato gli indici(output)
Matematica: Algoritmo che applico al campione
Campione: x1,2,...,n osservazioni distinte. Con {x1 , x2 , . . . , xn } si indica un insieme, in cui ogni
elemento occorre in maniera univoca(non si intende il valore). Lordine in cui sono poste le osservazioni
`e ininfluente.
6
Statistica 2.2 Variabilit`a dei dati
Spiegazione:
Lindice x `e sensato unicamente per le osservazioni di tipo numerico.
Il valore ottenuto (x) potrebbe, nella maggior parte dei casi, non corrispondere a nessun valore osservato.
Propriet`
a
Shift
Aggiungere o sottrarre uno stesso valore a tutto il campione.
campione: {x1 , . . . , xn }
b R i = 1, . . . , n yi = xi + b {yi , ..., yn }
Sostituendo, si ha:
n n n n
y = n1 yi = n1 (xi + b) = n1 xi + n1
P P P P
b
i=1 i=1 i=1 i=1
n n
Sapendo che x = 1
xi , allora y = x + 1
P P
n n b
i=1 i=1
n n
La di una costante `e n volte quella costante 1
b = nb
P P
n
i=1 i=1 n
Quindi y = x + b
Lo shift sul campione implica lo shift anche della media campionaria: yi = xi + b y = x + b
Scale
a R i = 1, . . . , n yi = a xi
n n n
y = n1 yi = n1 (a xi ) = na xi = a x
P P P
i=1 i=1 i=1
La media campionaria `e un operatore lineare affine, per questo motivo lo shift e lo scale vi si rispecchiano.
xi 7 yi = axi + b y = ax + b
Media pesata
k k
x= x1 +...+x1 +x2 +...+x2 +...+xk +...+xk
= f1 x1 +f2 x2 +...+fk xk
= 1
fi xi = fi
P P
n n n n xi
i=1 i=1
fi
n sono le frequenze relative, che indichiamo con i
k
x=
P
xi i
i=1
2.2 Variabilit`
a dei dati
X
(xi x) = 0
Questo accade perche gli scarti possono essere sia positivi che negativi.
Dimostrazione:
k
X k
X k
X
(xi x) = xi x
i=1 i=1 i=1
k k k
Sapendo che x = nx perche la media non dipende da i e che xi = nx da x = 1
P P P
n xi
i=1 i=1 i=1
Si ottiene:
nx nx = 0
7
Statistica 2.4 Moda campionaria
media campionari tra i due valore centrali in un campione con un numero pari di osservazioni.
Media: Si utilizza quando ha senso fare dei calcoli con caratteri numerici.
Mediana: si pu` o utilizzare anche con caratteri non numerici, limportante `e che siano ordinabili. Quan-
do ho 2 valori centrali differenti (non numerici) prendo uno dei due.
Cosa si utilizza se non si pu`o utilizzare n`e media n`e mediana?
3 Indici di dispersione
A parit`
a di x si pu`
o avere una differente variabilit`a dei dati.
Esempio:
Campione A = {1, 2, 5, 6, 6} con a = 4
Campione B = {40, 0, 5, 20, 35} con b = 4
Visto che `e complicato fare dei ragionamenti analitici con il valore assoluto, `e preferibile usare il quadrato.
1
n1 `e un fattore di scala che evita che il numero cresca troppo.
n
1 X
s2 = (xi x)2
n 1 i=1
Calcolando la varianza campionaria dei Campioni A e B, si pu`o osservare che, anche possedendo la stessa
media, i dati variano di pi`
u in un caso rispetto che nel secondo.
2 2 2 2
s2A = (3) +(2)4 +1+2 +2 = 5.5
(44)2 +(4)2 +1+162 +312
s2B = 4 = 792.5
8
Statistica 3.2 Deviazione standard campionaria
k k
(xi x)2 = (x2i 2xi x + x2 )
P P
i=1 i=1
k k
x2i 2x xi + nx2
P P
i=1 i=1
k
Sapendo che 1
xi = x
P
n
i=1
k k
x2i 2nx + nx2 = x2i nx2
P P
i=1 i=1
Quindi, aggiungendo 1
n1 si ha:
k k
1 X 1 X 2
(xi x)2 = x nx2
n 1 i=1 n 1 i=1 i
Considerazioni
Si utilizza x come valore centrale della varianza(s2 ) per poter sfruttarne le propriet`a.
9
Statistica 3.4 Quantili campionari
Esempi
n = 12 (numero elementi)
p = 90 si cerca il 90 percentile
x(1) , x(2) , x(3) , x(4) , x(5) , x(6) , x(7) , x(8) , x(9) , x(10) , [x(11) ], x(12)
100 = 0.9
p
Per sapere quale sia il 90 percentile bisogna vedere quale elemento abbia le seguenti qualit`a:
np
> 100 = 12 0.9 = 10.8 elementi > di almeno 11 elementi
n(100p)
6 100 = 1.2 elementi 6 di almeno 2 elementi
In questo esempio, x(11) soddisfa entrambe le propriet`a.
n = 20 (numero elementi)
p = 95 si cerca il 95 percentile
p
x(1) , ..., x(20) 100 = 0.95
Per sapere quale sia il 95 percentile bisogna vedere quale elemento abbia le seguenti qualit`a:
np
> 100 = 20 0.95 = 19 elementi [ solo x(19) e x(20) la soddisfano ]
n(100p)
6 100 = 1 elementi [ solo x(19) e x(20) la soddisfa ]
In questo esempio, sia x(19) che x(20) soddisfano entrambe le propriet`a.
x +x
Per trovare il risultato bisogna fare la media aritmetica dei due valori: (19) 2 (20)
Considerazioni
Quando il risultato di 100
np
e n(100p)
100 sono valori con la virgola, il valore che soddisfa le propriet`a `e
solamente uno. Invece, quando il risultato di 100np
e n(100p)
100 sono valori interi, i valori che soddisfano
le propriet`a saranno due. In questo secondo caso, per trovare il risultato, bisogner`a: fare la media
aritmetica dei due valori in questione, se si tratta di valori numerici, oppure si sceglier`a uno dei due
valori, casualmente, per caratteri non numerici.
3.5 Quartili
Ogni campione osservato possiede 3 quartili:
Range variabilit`
a (range interquartile)
` il range che va dal 3 quartile al 1 quartile.
E
4 Grafici
Istogramma simmetrico (forma a campana), dal punto di vista teorico, perche `e praticamente impossibile
avere una perfetta simmetria; in questo caso si parla di simmetria approssimativa.
Istogramma simmetrico
10
Statistica 4 Grafici
Propriet`
a simmetria
x si posizioner`
a verso il centro, assieme alla Moda e alla Mediana
Dispersione? Lampiezza dellintervallo dipende dalla deviazione standard. Si utilizza la deviazione stan-
dard e non la varianza perche ha la stessa unit`a di misura delle osservazioni in esame.
La Regola empirica dice che:
Il 68% delle osservazioni ricadono nel range [x ; x + ].
Il 95% nel range [x 2; x + 2].
Il 99% nel range [x 3; x + 3].
Grafico Stem-and-Leaf
Letteralmente grafico ramo-foglia si ottiene dividendo ciascun valore dei dati in due parti. Per esempio,
se i dati sono numeri a due cifrem`, allora il ramo di un valore potrebbe essere la cifra delle decine, e la
foglia delle unit`
a.
Per esempio:
I numeri 44, 46, 47, 49, 63, 64, 66, 68, 68, 72, 72, 75, 76, 81, 84, 88, 106 possono essere rappresentati tramite
11
Statistica 4.1 Osservazioni a coppie
Di solito si riesce a disegnare una linea che indica landamento medio delle osservazioni in esame,
questa linea viene chiamata regressione lineare
Una propriet`a molto usata del grafico scatter plot `e lEstrapolazione, il poter azzardare conclusioni su
dati che non sono stati ancora osservati, partendo dalle conclusioni fatte sullandamento di quelli che si
sono osservati.
Lo scatter plot serve per capire se i dati correlati hanno una dipendenza tra loro.
Ci sono 3 tipi di dipendenza
- Diretta (a x grandi sono associate y grandi, a x piccole sono associate y piccole)
- Inversa (a x piccole sono associate y piccole, a x grandi sono associate y grandi)
- Mancanza di dipendenza
Per prima cosa si deve quantificare, in maniera formale, piccolo e grande.
Formalizzazione
(Quello che si dimostra per le x vale anche per le y)
grande > x
12
Statistica 4.2 Coefficiente di correlazione campionaria
Dipendenza diretta
xi grande e yi grande xi x > 0 yi y > 0
xi piccolo e yi piccolo xi x < 0 yi y < 0
Dipendenza inversa
xi grande e yi piccolo xi x > 0 yi y < 0
La somma del prodotto degli scarti avr`
a segno positivo se la relazione sar`a diretta, negativo altrimenti.
1 bd (xi x)(yi y)
P
bd
rx y =
0 0 = rxy = rxy
n1 |b||d|sx sy |b||d|
4.3 Indipendenza
Quando rxy 6= 0 ma molto basso `e probabile che non ci sia una relazione tra i due campioni presi in
esame.
13
Statistica 5 Indici di dispersione
q
sx = ni1
( x2 nx2 )
P
5 Indici di dispersione
Indice di dispersione per caratteri nominali in funzione delle frequenze delle osservazioni del campione
Eterogeneit`
a 4 4
Omogeneit`a
)
Eterogeneit`
a massima
calcolando la tabella delle frequenze dato un campione
Omogeneit`a minima
v1 f 1
.. .. f = 1 i = 1, . . . , k
. . i k
vk fk
)
Eterogeneit`
a minima
Omogeneit`
a massima
n=6k=1
k k
X
fi2 fi fi2
P
fi
i=1 i=1
| {z }
=1
k
X
I =1 fi2 0
i=1
| {z }
<1
0I<1
5.1.1 Eterogeneit`
a minima
k = 1, f1 = 1
Xk
I =1 fi2 = 0
i=1
| {z }
=1
Eterogeneit`
a massima
k1
I =1 = 1 6 k 1
= k1
I dipende dai diversi valori osservati
P
k 2 k62 k
i=1 |{z}
1
fi = k
14
Statistica 5.2 Indice di Gini normalizzato
5.2.1 Eterogeneit`
a massima
I= k1
k I0 = 1
5.2.2 Eterogeneit`
a minima
I = 0 I0 = 0
5.3 Esempio
Numero di studenti Sigla istituto
3 Altro
2 IM
4 ITC
.. ..
. .
totale: 191
k = 11 2 2 2
3 2 4
I =1 . . . ' 0.76
191 191 191
| {z }
11 termini
I0 = 11
111 I ' 0.84
5.5 Classificatore
5.6 Indici di concentrazione
n
a= 1
P
a1 , . . . an n ai
i=1
15
Statistica 6 Calcolo combinatorio
6 Calcolo combinatorio
n oggetti distinti
sequenza di k oggetti quanti possibili sequenze di k oggetti esistono?
6.1 Disposizioni
Con ripetizione Dn,k
0
= nk
6.2 Permutazioni
caso particolare di disposizione senza ripetizione, elenco tutti gli n oggetti
Pn = Dn,n = (nn)!
n!
= n!
n! = n(n 1)!
1! = 1
0! = 1
6.3 Combinazioni
D
Cn,k = Pn,k = (nk)!
n! 1
= k!(nk)!
n!
= n
k
k! k
Se k > n oppure k < 0 allora k = 0
n
6.4 Esempi
Ho 4 libri di matematica, 3 di chimica, 2 di storia e 1 di lingue. In quanti modi li posso mettere affinche
le materie siano adiacenti? 4! 4! 3! 2! 1! = 6912
7 Probabilit`
a
= insieme universo
= evento elementare
16
Statistica 7.1 Propriet`
a
E evento
7.1 Propriet`
a
` AB =BA
COMMUTATIVITA
` (A B) C = A (B C)
ASSOCIATIVITA
` (A B) C = (A C) (B C)
DISTRIBUTIVITA
De Morgan (A B) = A B e AB =AB
EAEA
n
E1 , . . . , En A Ei A
S
i=1
(, A, P ) spazio di probabilit`
a
P : A [0, 1]
E A P (E)
7.2 Assiomi
A1) 0 P (E) 1
A2) P () = 1
n
n
A3) E1 , . . . , En A i 6= j Ei Ej = P Ei = P (Ei )
S P
i=1 i=1
P (A) = 1 P (A)
AA=
AA=
Per A3 P (A A) = P (A) + P (A)
| {z }
P ()=1
I=E \ F
II=E F
III=F \ E
E F = I II III
P (E F ) = P (I II III) = P (I) + P (II) + P (III) + P (II) P (II) = P (E) + P (F ) P (E F )
| {z } | {z } | {z }
P (E) P (F ) P (EF )
P () = 0
P (A) = 1 P (A)
= =
P () = P () = 1 P () = 1 1 = 0
17
Statistica 8 Spazio di probabilit`
a
7.2.1 Esempio
E = fuma sigaretta
F = fuma sigaro
P (E) = 0.28 P (F ) = 0.07 P (E F ) = 0.05
P (E F ) = 1 P (E F ) = 1 (P (E) + P (F ) P (E F )) = 1 0.28 0.07 + 0.05 = 0.7
8 Spazio di probabilit`
a
Esempio spazio di probabilit`
a:
composto da eventi elementari, tutti con la stessa probabilit`a (caso pi`
u semplice)
E
E = {e1 , ..., en } = {e1 } ... {en }
n n
|E|
P (E) = ({ei }) = N = N = N
1 n
|E| = casi favorevoli, N = casi possibili
P P
i=1 i=1
8.2 Probabilit`
a condizionata
P (E | F ) : probabilit
a condizionata su evento E dato F (Probabilita di E dato F )
P (EF )
P (E | F ) = P (F )
Questa uguaglianza vale solamente se P (F ) 6= 0 P (F ) > 0, oppure P (E | F ) sarebbe indefinita
Formula molto importante a cui si arriva, grazie alla formula precedente, `e lintersezione di eventi:
P (E F ) = P (E | F ) P (F )
18
Statistica 9 Variabile aleatoria
i 6= j (E Fi ) (E Fj ) = (E E) (Fi Fj ) = E =
| {z } | {z }
E
n n n
P (E) = P (E F ) = P (E F ) = P (E | F ) P (Fi ) = P (E)
S P P
i=1 i=1 i=1
9 Variabile aleatoria
X:R
2) pX (x) = 1
P
x
9.2.1 Esempio
Variabile aleatoria (discreta) che assume i valori 1, 2 e 3
P (X = 1) = 12 P (X = 2) = 31 P (X = 3) = 16
FX (x) = P (X x)
x<1 FX (x) = 0
1x<2 FX (x) = P (X = 1) = 12
2x<3 FX (x) = P (X = 1 X = 2) = P (X = 1) + P (X = 2) = 1
2 + 1
3 = 5
4
x3 FX (x) = 1
1. x R FX (x) 0
19
Statistica 9.3 Funzione di distribuzione cumulativa empirica (ecdf)
2. lim FX (x) = 1
x+
3. FX continua da destra
9.4.1 Esempio
P (X = 0) = 12 P (X = 1) = 1
2
E[X] = 0 12 + 1 21 = 12
9.4.2 Esempio
X = lancio di un dado
pX (x) = 16 I{1,...,6} (x)
6 6 6
667
E[X] = i pX (i) = 1
= 1
i= 1
= 7
P P P
i 6 6 6 6 2 2
i=1 i=1 i=1
Lezione P 21/11
E[X] = i xi P (X =(xi )
1 se A si verifica
Evento A A IA =
0 altrimenti
E [IA ] = 0 P (IA = 0) + 1 P (IA = 1) = P (IA = 1) = P (A)
X variabile aleatoria e x specificazione di X
f : R R Y = f (X)
P (Y = y) y x P (X = x)
0.2 0 0 0.2
Y = X 2 P (X = y)
0.5 1 1 0.5
0.3 4 4 0.3
3
X
E[Y ] = yi P (Y = yi ) = 0 0.2 + 1 0.5 + 4 0.3 = 1.7
i=1
3 3
X X
= f (xi ) P (X = yi ) f (xi )P (X = xi )
i=1 i=1
20
Statistica 9.5 Varianza
9.5 Varianza
W (
P (W = 0) = 1 E[W] = 0
P (Y = 1) = 12
Y E[Y] = 0
P (Y = 1) = 12
(
P (Z = 100) = 1
Z 2 E[Z] = 0
P (Z = 100) = 12
h i
2
var(X) = E (X E[X])
TEOREMA:
var(X) = E X 2 E[X]2
= E X 2 2X
X = E[X]
var(X) = E (X E[X])2 ) = E (X X )2 ) = E X 2 2X X + 2X
= E X 2 2X
P (X = i) = 61 I{1,...,6} (i)
E[X] = 72
h 2 i 2 2 6 2
var(X) = E X 72 = 1 72 16 + 2 72 16 + . . . = i 27
P
i=1
var(X) = E X 2 49 = 91 49
= 35
4 6 4 12
6 6 Pn 2
1 66713 n(n+1)(2n+1)
E X = i 6 =6
2 1
i = 6 66 = 91 abbiamo usato i=1 i =
2 P 1 P 2
6 6
i=1 i=1
IA2
= IA
2 2
var(IA ) = E IA E [IA ] = E [IA ] E [IA ] = E [IA ] (1 E [IA ]) = P (A)(1 P (A))
2
E (X X ) 0
2
| {z }
=E[X 2 ]E[X]2
Y = aX + b Y = aX + hb i
2
var(Y ) = var(aX+b) = E (Y Y ) = E (aX+ 6 b aX 6 b)2 = E (aX aX )2 = E (a(X X )2 ) =
a2 E (X X )2 = a2 var(X)
a = 0 var(b) = 0
var(Y ) = var(aX + b) = E Y 2 2Y = E (aX + b)2 (aX + b)2 = E a2 X 2 + 2abX + b2 (a2 2X +
21
Statistica 10 Funzione di ripartizione congiunta
[
P {X = xi , Y = yj } = P ({X = xi }) = pX (xi )
j
X
= P ({X = xi , Y = yj })
j
X
= pX,Y (xi , yj )
j
!
[ XX
P (X A, Y B) = P {(x, y) | x A e y B} = P (x, y)
x,y xA yB
XX XX XX
= P (X = x, Y = y) = pX,Y (x, y) = pX (x) pY (y)
xA yB xA yB xA yB
X X X [
= pX (x) pY (y) = pX (x) P {Y = y}
xA yB xA yB
| {z }
P (Y B)
= P (X A) P (Y B)
X1 , . . . , Xn
FX1 ,...,Xn (x1 , . . . , xn ) = P (X1 x1 , . . . , Xn xn )
pX1 ,...,Xn (x1 , . . . , xn ) = P (X1 = x1 , . . . , Xn = xn )
22
Statistica 10.1 Funzione di massa di probabilit`a congiunta
A1 , . . . , A n R
n
! n n
\ Y Y
P x i Ai = P (xi Ai ) pX1 ,...,Xn (x1 , . . . , xn ) = pXi (xi )
i=1 i=1 i=1
l
n
Y
FX1 ,...,Xn (x1 , . . . , xn ) = FXi (xi )
i=1
10.1.1 Esempio
X = somma dei punteggi di due dadi
12
E[X] = i P (X = i)
P
i=2
X = X1 + X2
Xi = punteggio del dado i-esimo
E[X] = E[X1 + X2 ] = E[X1 ] + E[X2 ] = 7
2 + 7
2 =7
10.1.2 Esempio
X = # lettere nella(busta giusta (n persone)
1 se la i-esima lettera `e nella busta giusta
i = 1, . . . , n Xi =
0 altrimenti
E[Xi ] = P (lettera i-esima nella busta giusta) = n1
n
X=
P
Xi
i=1
n n
E[X] = E[Xi ] = 1
=1
P P
n
i=1 i=1
10.1.3 Esempio
n = 20 tipi di buono sconto
m = 10 confezioni
n
X = numeri di buoni diversi =
P
Xi
( i=1
1 se ho almeno un buono #i
Xi =
0 altrimenti
23
Statistica 10.2 Covarianza
n n 20
n1 m 19 10
E[X] = E[Xi ] = 1 = 1 8.025
P P P
n 20
i=1 i=1 i=1
E[(X )2 ] = 2
E[(X c)2 ] = E ((X ) + ( c))2 = E (X )2 + 2(X )( c) + ( c)2 =
E (X )2 + ( 2( ((( ] + ( c)2
((
(
(c)E[X
| {z }
0
Parte
cancellata perche E[X
]2 = E[X] = 0
E (x c)2 E (X )2 = X
10.2 Covarianza
var(X + X) 6= var(X) + var(X)
cov(X, Y ) = E[(X x )(Y Y )]
cov(X, Y ) = E[XY XY Y X + X Y ] = E[XY ] y E[X] X E[Y ] + X Y = E[XY ] Y X
| {z } | {z }
X Y
X
Y +
X Y = E[XY ] E[X]E[Y ]
cov(X, Y ) = E[XY ] E[X]E[Y ] = E[XY ] E[X]E[Y ] = cov(X, Y )
cov(X + Y, Z) = E[(X + Y )Z] E[X + Y ]E[Z] = E[ZX + Y Z] (E[X] + E[Y ])E[Z] = E[XZ] + E[Y Z]
E[X]E[Z] E[Y ]E[Z] = cov(X, Z) + cov(Y,
Z)
cov(X, X) = E[(X x )(X X )] = E (X X )2 = var(X)
2
var(X
2 + Y ) = E (X + Y2) (E[X + Y ]) = E X 2 + 2XY + Y 2 E[X]2 + 2E[X]E[Y ] + E[Y ]2 =
2
10.2.1 Propriet`
a della covarianza
1. cov(X + Y, Z) = cov(X, Z) + cov(Y, Z)
2. cov(a X, Z) = a cov(X, Z)
3. cov(X, Z) = cov(Z, X)
4. cov(X, X) = var(X)
10.2.2 Esempio
Lancio
10un dado
10 volte X1 , . . . , X10
10 10
var Xi = var(Xi ) = 12 = 10
35 35
= 175
P P P
12 6
i=1 i=1 i=1
Lancio(una moneta 10 volte
1 se lancio i esce testa
Ei =
0 altrimenti
var(Ei ) = E Ei2 E[Ei ]2 = E[Ei ] E[Ei ]2 = E[Ei ](1 E[Ei ])
E[Ei ] = P (testa) = 12
10 10
var Ei = var(Ei ) = 10 14 = 52
P P
i=1 i=1
24
Statistica 10.3 Coefficiente di correlazione
A X = IA , Y = IB
A, B (
1 se si verificano A e B
XY =
0 altrimenti
E[XY ] = P (X = 1, Y = 1)
cov(X, Y ) > 0
cov(X, Y ) = E[XY ] E[X]E[Y ] = P (X = 1, Y = 1) P (X = 1)P (Y = 1)
P (X = 1, Y = 1) > P (X = 1)P (Y = 1)
P (X = 1 | Y = 1) > P (X = 1)
10.4.1 Esempio
(
c 4x 2x2 se 0 < x < 2
X con densit`
a fX (x) =
0 altrimenti
P (X > 1) =?
+ R2 h 3 2
i
1= fX (x) dx = c 0 (4x 2x2 ) dx = c 2x2 2 x3 = 2c 4 83 = 2c 128
=c 8
=1c= 3
R
3 3 8
0
+ R2 R2 h i2
x3
P (X > 1) = fX (x) dx = 38 (4x 2x2 ) dx = 3
2x x2 dx = 3
= 3
4 8
1+ 1
=
R
4 4 x2 3 4 3 3
1
312 1 1
4 3 3 = 4 3 = 2
3 7 1
+
E[X] = xfX (x) dx
R
+
E[g(x)] = g(x)fX (x) dx
R
+
var(X) = (x X )2 fX (x) dx
R
25
Statistica 10.5 Disuguaglianza di Markov
10.6.1 Esercizio
X = # pezzi prodotti in una settimana
E[X] = 50
P (X 75) E[X]
75 = 75 = 3
50 2
= 25
2
P (40 < X < 60) = P (10 < X 50 < 10) = P (|X 50| < 10) = 1 P (|X 50| 10) 1 25
102 = 3
4
11 Distribuzione Bernoulliana
Due eventi:
SUCCESSO con probabilit`
a p [0, 1] X=1
FALLIMENTO con probabilit`
a 1p X=0
P (X = 1) = p P (X = 0) = 1 p
Distribuzione bernoulliana di parametro p scritta come X B(p)
pX (x) = px (1 p)1x I{0,1} (x)
E[X] = 0 P(X = 0) + 1 P (X = 1) = p
var(X) = E (X )2 = (0p)2 P (X = 0)+(1p)2 P (X = 1) = p2 (1p)+(1p)2 p = p(1p)(p+1 =
p)
p(1 p)
= p(1 p)(p
+ 1 p)
= p(1 p)
= E X 2 E[X]2 = E[X] E[X]2 = E[X](1 E[X])
26
Statistica 12 Distribuzione binomiale
12 Distribuzione binomiale
n ripetizioni di un esperimento bernoulliano di parametro p
X = # successi B(n, p)
pX (x) = nx px (1 p)nx I{0,...,n} (x)
n n
pX (x) = x p (1 p)
n x
= (p + 1 p)n = 1
P P nx
x=0 x=0
12.1 Esercizio
p = 0.01 n = 10
X = # penne difettose in una scatola B(10, 0.01)
P (scatola sostituita) = P (pi` u di una penna difettosa) = P (X > 1) = 1 P (X 1) = 1 P (X =
0 X = 1) = 1 P (X = 0) P (X = 1) = 1 pX (0) pX (1) = 1 n0 p0 (1 p)n n1 p1 (1 p)n1 =
1 0.9910 10 0.01 0.999 0.0043 0.43% di resi
Successo: restituisco, fallimento: tengo
p0 = 0.0043 n0 = 3
Y = # scatole restituite B(n0 , p0 )
0 0
P (Y = 1) = n1 p01 (1 p0 )n 1 = 31 p0 (1 p0 )2 0.0127
P (Y 1) = 1 P (Y = 0)
X B(n, p)
n
X= i = 1, . . . , n Xi B(p)
P
Xi
i=1
n n n
E[X] = E Xi = E[Xi ] = p = np
P P P
i=1 i=1
i=1
n n n
var(X) = var Xi = var(Xi ) = p(1 p) = np(1 p)
P P P
i=1 i=1 i=1
X B(n1 , p) Y B(n2 , p)
n1 n2
X= Y =
P P
Xi Yi
i=1 i=1
n1 n2
X +Y = Xi + Yi B(n1 + n2 , p)
P P
i=1 i=1
13 Distribuzione geometrica
X = # insuccessi prima del primo successo G(p) p [0, 1)
pX (x) = (1 p)x p IN{0} (x)
ii = ii1 = d = d 1 = (1)2
d i d 1 1
P P P
i=0 i=0 i=0
i =
i
P
(1)2
i=0
E[X] = i P (X = i) = i(1 p)i p = p i(1 p)i = p 1p
=p
p2 =
1p 1p
P P P
(11+p)2 p
i=0 i=0 i=0
E X2 = i (1 p)i p = p(1 p) i2 (1 p)i1 = p(1 p) dp (i(1 p) )
d
= p(1 p) dp
d
(i(1
P 2 P P i
P
i=0 i=0 i=0 i=0
p2 +(1p)2p p+2(1p)
p) ) = p(1 p) dp p2 = p(1 p)
i d 1p
p4 = (1 p) p2 = (1 p) p+22p
p2 = (1p)(2p)
p2
(1p)(2p) (1p)2 (1p)((2p)(1p))
var(X) = p2 p2 = p2 = 1p
p2
P (X > n) = P (X n+1) = i
(1p) p = p(1p)
n+1
(1p)i(n+1) = faccio la sostituzione j =
P P
i=n+1 i=n+1
i (n + 1) = p(1 p)n+1 (1 p)j = p(1 p)n+1 p1
P
j=0
P (X > n) = (1 p)n+1
(1p)i+j
P (X i + j | X i) = P (Xi+j,Xi)
P (Xi) = P (Xi+j)
P (Xi) = (1p)i = (1 p)j = P (X j)
27
Statistica 14 Distribuzione di Poisson
13.0.1 Esercizio
P (influenza in un mese) = p = 0.1
Se 3 influenze in un anno ( vado dal medico
successo se mi ammalo in un anno
Esperimento bernoulliano
fallimento atrlimenti
X = # di influenze B(n = 12, p = 0.1)
P (3 influenze in un anno) = P (X = 3) = n3 p3 (1 p)n3 = 12 3 0.1 0.9 0.085
3 9
P (medico
a fine anno) = P (X 3) = 1 P (X < 3) = 1 P (X = 0) P (X = 1) P (X = 2) =
1 120 0.1 0
0.912
1 0.1 0.9
12 1 11
2 0.1 0.9
12 2 10
0.11 =: p0
Y = tra quanti anni vado dal medico G(p ) 0
14 Distribuzione di Poisson
X P ()
i
P (X = i) = pX (i) = e i! IN{0} (i)
i
X i
pX (i) = e i! = e =1
P P
i=0 i=0 i=0
i!
| {z }
=e
i
i i1
E[X] = i pX (i) = i e i! = e = e = faccio la sostituzione j = i 1 =
P P P P
(i1)! (i1)!
i=0 i=0 i=1 i=1
j
e =
P
j!
j=0
i
i1 i
E X2 = i2 e i! = e = e 1
) = e 1 d i
= e d
d
=
P P P i1
P P
i (i1)! (i1)! (i (i1)! d (i1)!
i=0 i=1 i=1 i=1 i=1
i1
e d
d
= e d
d
e = e e + e =
e
e (1 + ) = + 2
P
(i1)!
i=1
i
i
i
i
X i1 X i1
e i (i1)!
e (i1)!
= e (i1)!
(i1)+ e (i1)!
= e (i 1)+e
P P P P
i=1 i=1 i=1 i=1 i=1
(i 1)! i=1
(i 1)!
| {z } | {z }
=2 =
var(X) = E X E[X]2 = + 2 2 =
2
np = per n grande p = n
n(n1)...(ni+1) i (1 n )
n
n n1 ni+1
P (X = i) = ni pi (1 p)ni = i =
X B(n, p)
i! ni (1 n ) |n n {z n }
1
(1 n )
n
i n i
e i!
(1 n )
i! i
14.1 Riproducibilit`
a
X1 P(1 ), X2 P(2 ) X1 + X2 P(1 + 2 )
14.1.1 Esercizio
X = # di richieste in un giorno E[X] = 5 X P(5)
50 51 52
P (X < 3) = P (X = 0) + P (X = 1) + P (X = 2) = e5 + + = e5 1 + 5 + 25
0.1247
0! 1! 2! 2
4
P (X = 4) = e5 54!
0.1755 =: p
Probabilit`
a che in una settimana ricevo 4 richieste in esattamente 3 giorni
Y B(5, p)
28
Statistica 15 Distribuzione uniforme(discreta)
P (Y = 3) = 5
p3 (1 p)2 = 5
0.17553 (1 0.1755)2 = DA CALCOLARE
3 3
14.1.2 Esercizio
X = # difettosi n = 10, p = 0.1
Con la binomiale:
P (X 1) = n0 p0 (1 p)n + n1 p1 (1 p)n1 = 10 0 0.1 0.9 + 10
0.11 0.99 0.7361
0 10
1
Con la poissoniana:
X Y P(np = 1)
0 1
P (Y 1) = e 0! + e 1! = e1 (1 + 1) = 2e 0.7358
15 Distribuzione uniforme(discreta)
X U(n)
n N \ {0}
pX (x) = n1 I{1,...,n} (x)
bxc
bxc bxc
FX (x) = P (X x) = pX (i) = 1
= = n I1,...,n (x) + In+1,... (x)
P P
n n
ix i=1
n n
E[X] = 1
= 1
= 1
n(n+1) = n+1
P P
i n n 2 2
i=1 i=1 n
n n
E X2 = 1
= 1
i2 = n(n+1)(2n+1)
1
= (n+1)(2n+1)
i2
P P
n n 6 6
i=1 i=1 n
2
(n+1)(2n+1) n2 1
var(X) = (n+1) = (n + 1) 6 4 = (n + 1)
2n+1 n+1 4n+23n3
= (n + 1) n1
=
6 4 12 12 12
16 Distribuzione ipergeometrica
M # oggetti funzionanti
N # oggetti difettosi
n # estrazioni senza reimmissione
X = # oggetti funzionanti su n estratti H(M, N )
M N
i ni
P (X = i) = M +N
I{0,...,n} (i)
n
var(Xi ) = MM +N M +N = (M +N )2
N M N
n
X=
P
Xi
i=1
n
E[X] = +N = np
E[Xi ] = n MM
P
i=1
n X n X
var(X) = var Xi = var(Xi ) + cov(Xi , Xj )
P
i=1 i=1 i6=j
| {z } | {z }
n termini n(n1) termini
29
Statistica 17 Distribuzione uniforme(continua)
16.0.1 Esercizio
M = 15
N =5
n=6
(15)(5)+(15
5 )(1)+( 6 )(0)
5 15 5
P (Y 4) = 4 6 0.8687
(6)
20
17 Distribuzione uniforme(continua)
X U(a, b)
+
fX (x) dx = 1
R
Rb Rb
fX (x) dx = k dx = [kx]ba = k(b a) k = 1
ba
a a
fX (x) = ba
1
I[a,b] (x)
b h ib
x2 2 2
E[X] = x ba 1
dx = 1
= ba 1
b a = b+a
R
ba 2 2 2
a a
Rb h i b 2 +ab+b2 )
x3 3 3 (ba)(a 2 2
E X 2 = a x2 ba
1
dx = ba1
= ba
1
b a = ba
1
= a +ab+b
3 3 3 3
a
2 2 2 2 2 2
3a2 6ab3b2 2 2
var(X) = a +ab+b
3 (a+b)
4 = 4a +4ab+4b 12 = a 2ab+b
12 = (ba)
12
Rx 1
FX (x) = P (X x) = P (a X x) = ba dz = ba
1
[z]xa = xa
ba
a
FX (x) = ba I[a,b) (x)
xa
+ I[b,+) (x)
18 Distribuzione esponenziale
X E() R+
fX (x) = ex
I[0,+) (x)
R x R y
e dx = e dy = [ey ]0 = 0 + 1 = 1 ho fatto la sostituzione y = x, dy = dx
0 0
30
Statistica 18.1 Assenza di memoria
R
E[X] = xex dx = integro per parti dove f (x) = x, f 0 (x) = 1 e g(x) = ex , g 0 (x) = ex
0
R x R
= xe
0 + e
x
dx = 1 ex = 1
0 0
2 R 2 x R R R
E X = x e dx = x e 0 + 2xex dx = xex dx = xex dx =
2 x 2 2 2
2
0 0 0 0
var(X) = 2
2 1
2 = 1
2
Rx x
P (X x) = ez dz = ez 0 = ex + 1 = 1 ex
0
FX (x) = 1 ex IR+ (x)
18.2 Esercizio
Componenti in serie:
Xi = tempo prima del guasto del componente i-esimo E(i )
n
X = tempo di primo guasto del intero sistema = min Xi E
P
i
1in i=1
+ INDIPENDENZA
18.3 Esercizio
X = tempo di riparazione di una macchina (in ore) E(1)
P (X > 2) = 1 FX (2) = 1 (1 e12 ) = e2 0.1353
P (X > 3 | X > 2) = P (X > 1) = e1 0.3678
18.3.1 Esercizio
X = # migliaia di miglia prima di un guasto E 1
20
P (X 10 + 20 | X > 20):
1
- P (X 20) = 1 e 20 20 = e1 0.3678
Usando invece una distribuzione uniforme (perche anchessa gode della propriet`a di assenza di
memoria)
X = U([0, 40])
P (X30|X10) P (X30) P (30X40) FX (40)FX (30) 130/40 1/4
- P (X10) = P (X10) = P (10X40) = FX (40)FX (10) = 110/40 = 3/4 = 1
3
31
Statistica 19 Distribuzione Gaussiana o Normale
E[X] =
var(X) = 2
X N(, 2 )
aX + b N(a + b, a2 2 ) )
Xi N(i , 2 ) i = 1, . . . , n n
n n
i2
P P P
Xi N i ,
+INDIPENDENZA i=1 i=1 i=1
X N(0, 2 )
Z = X
N(0, 1) Distribuzione normale Standard
Rx 1 2
FX (x) = P (X x) =
2
e (y)
2 2 dy = faccio la sostituzione z = y
e dz = dy
=
x
2
z
1 e 2 := x
R
2
P (a X b) = P a X b
=P a b
= b
a
Z
(x) = P (Z x) = P (Z x) = 1 P (Z < x) = 1 P (Z x) = 1 (x)
19.1 Esercizio
X2017 = # inch di pioggia a LA nel 2017
X2018 = # inch di pioggia a LA nel 2018
indipendenti
X2017 , X2018 N(, 2 ) = 12.08, = 3.1
S = X2017 + X2018 N(2, 2 2 )
P (X2017 + X2018 > 25) = P (S > 25) = P S2
2
> 252
2
P (Z > 0.1916) 0.4240
D = (X2017 X2018 ) N(0, 2 2 )
X2017 N(, 2 )
X2018 N(, 2 )
X2018 N(mu, 2 )
32
Statistica 20 Statistica inferenziale
P (X2017 > X2018 + 3) = P (X2017 X2018 > 3) = P (D > 3) = P D0
2
> 30
2
P (Z > 0.6843) =
1 (0.6843) 0.2469
20 Statistica inferenziale
Il punto di partenza `e la POPOLAZIONE.
Linferenza si fa su un CAMPIONE:
- x1 , . . . , x n
- X1 , . . . , Xn i.i.d. come X F
20.1.1 Esercizio
n = 25000 clienti
Xi = soldi dovuti al cliente i
n
X = totale risarcimento = N n, n 2
P
Xi
i=1
E[Xi ] = 320 =
var(Xi ) = 540 = 2
6
8.3106 8106 0.3106
P X > 8.3 106 = P X810 = P (Z > 3.51) = 1 (3.51)
8.54104 > 8.54104 P Z> 8.54104
33
Statistica 20.2 Stimare una binomiale
2.2 104
20.2.1 Esercizio
n = 450 matricole
P (una matricola segue le lezioni) = 0.3
n
X=
P
Xi B(p) Xi X B(n, p)
i=1
N( np , np(1 p))
X
|{z} | {z }
135 9.722
450
X n i
P (X > 150) = p (1 p)ni = ...
i=151
i
X 135 150.5 135
= P (X > 150.5) = P > P (Z > 1.59) 0.06
9.72 9.72
21 Stimatori
n
X= 1
P
n Xi
i=1
n
N(n, n 2 )
P
Xi
i=1
X N(, 2 )
aX N(a, a2 2 )
n
n 2 2
N n =
P
Xi n , n 2 N , n
i=1
X
/ n
N(0, 1)
P (X x) = P / X
n
x
/ n
x
/ n
n n n n
X
1. (xi x)2 = x2i 2xi x x2 = xi + nx2
P
x2i 2x
P P
i=1 i=1 i=1 i=1
| {z }
2nx2
2. E X 2 = var(X) + E[X]2
3. E[X] =
2
4. var(X) = n
34
Statistica 21.1 Stimatore per la varianza
n 2
(n 1)S 2 =
P
Xi X
i=1 n
E (n 1)S = E (Xi X)2
2
P
i=1
" n
# n
X 2 X h 2i
(n 1)E S 2
=E Xi2 = Xi2 nE X
nX
i=1 i=1
n
X h 2i h 2i
= E X 2 nE X = nE X 2 nE X
i=1
h 2 i 2
= n E X2 E X = n var(X) + E X 2 var(X) E X
2
=n +
2 2
= n 2 2
2
n
= (n 1) 2
(n 1)E S 2 =
(n 1) 2
X1 , . . . , Xn F ()
t(x1 , . . . , xn ) = () t(X1 , . . . , Xn ) =: T
E[T ] = ()
b () (T ) = E[T ] ()
NON DEVIATO
T NON DISTORTO rispetto a ()
UNBIASED
21.1.1 Esempio
X1 , . . . , Xn U ([0, ])
FX (x) = x t(x1 , . . . , xn ) = max xi
1in
R
T := t(x1 , . . . , xn ) E[T ] = xfT (x) dx
0
n
max Xi x
T
Xi x
1in i=1 n n n n
FT (x) = P (T x) = P max xi x = P Xi x = P (Xi x) = FX (x) = =
x
T Q Q Q
1in i=1 i=1 i=1 i=1
x
n
FT (x) = x
x n
n1 1 xn1
fT (x) = dF dx (x) = dx
d
= n x = n n
T
R n1 R h n+1 i n+1
E[T ] = xn xn dx = nn xn dx = nn xn+1 = nn n+1 = n+1 pu`
n
o essere distorto, ma n+1
n
1,
0 0 0
quindi, per n molto grande non `e distorto
b (T ) = E[T ] = n+1 n
= nn1
n+1 = n+1
X1 , . . . , Xn N(, ) 2
(, 2 ) =
n
X = n1 Xi = 1
P P
n xi
i=1
T1 = X E[T1 ] =
T2 = X1 E[T2 ] = E[X1 ] =
n n n
T3 = i Xi E[T3 ] = i E[Xi ] = i =
P P P
i=1 i=1 i=1
X1 , . . . , Xn
T := t(X1 , . . . , Xn )
M SE scarto quadratico medio
M SE (T ) = E (T )2
35
Statistica 21.1 Stimatore per la varianza
d + (1 ) = 2 2(1 )
d 2 2
2 2 (1
) = 0 1+
=0 2=1 =1
2
lim M SEt heta(T ) = 0 T consistente in media quadratica
n+
E[T ] = lim var(T ) = 0
n+
X consistente in media quadratica (rispetto a )
2 n+
M SE (X) = var(X) = n 0
21.1.2 Esercizio
d = distanza Terra-stella
X = esito della misura N(d, 4) in anni luce
X1 , . . . , Xn N(d, 4) dx
X N d, 4
n X d N 0, n4
P X d 0.5 0.95
n n
P X d 0.5 = P 0.5 X d 0.5 = P 2/ 0.5
= P =
Xd 0.5
Z
4 4
n 2/ n 2/ n
n n n n n
4 4 = 4 1 4 = 2 4 1
n
P X d 0.5 = 2 4 1 0.95
4n 1 0.95
4n 0.975
n
1 (0.975) 1.96
4
n
4 1.96
n 4 1.96
n 61.4 quante osservazioni affinche almeno con probabilit`a 0.95 lerrore non superi 0.5 anni luce
X1 , . . . , Xn N(, 2 )
x
Voglio che P |X | r 1
r
P X r = P r X r = P /rn /
X
= P r n Z =
r
n / n n
r n r n = r n 1 r n = 2 r n 1 1
r n 1 2
r
n 1 2
1
n r 1 1 2
2
n r 1 1 2
36
Statistica 22 Processo di Poisson(di intensit`a )
P (N (h)2)
5. lim h =0
h0
37