Sei sulla pagina 1di 69

INFORMAZIONI

Prossime lezioni
Giorno Ora Dove
Giovedi 11/02 14:30 Laboratorio (via Loredan)
Martedi 16/02 14:30 P50
Lunedi 22/02 09:30 P50
Martedi 23/02 14:30 P50
Giovedi 25/02 14:30 Aula informatica (6-7 gruppi)
Martedi 02/03 14:30 P50
Giovedi 04/03 14:30 Aula informatica (6-7 gruppi)
Martedi 09/03 14:30 P50

– p. 1/23
INFORMAZIONI
Prossime lezioni
Giorno Ora Dove
Giovedi 11/02 14:30 Laboratorio (via Loredan)
Martedi 16/02 14:30 P50
Lunedi 22/02 09:30 P50
Martedi 23/02 14:30 P50
Giovedi 25/02 14:30 Aula informatica (6-7 gruppi)
Martedi 02/03 14:30 P50
Giovedi 04/03 14:30 Aula informatica (6-7 gruppi)
Martedi 09/03 14:30 P50
Decidere la spartizione tra i 2 due turni per l’aula inform.

– p. 1/23
POPOLAZIONE E CAMPIONI
POPOLAZIONE insieme di tutti quegli elementi che
hanno almeno una caratteristica comune (persone,
oggetti,misure, osservazioni). Consideriamo il caso di
caratteristiche associate a grandezze misurabili.

– p. 2/23
POPOLAZIONE E CAMPIONI
POPOLAZIONE insieme di tutti quegli elementi che
hanno almeno una caratteristica comune (persone,
oggetti,misure, osservazioni). Consideriamo il caso di
caratteristiche associate a grandezze misurabili.
CAMPIONE sottoinsieme finito di elementi estratti a
caso dalla popolazione.

– p. 2/23
POPOLAZIONE E CAMPIONI
POPOLAZIONE insieme di tutti quegli elementi che
hanno almeno una caratteristica comune (persone,
oggetti,misure, osservazioni). Consideriamo il caso di
caratteristiche associate a grandezze misurabili.
CAMPIONE sottoinsieme finito di elementi estratti a
caso dalla popolazione.
VARIABILE CASUALE X : funzione che associa in
modo univoco ad ogni elemento del campione un
numero reale.

– p. 2/23
POPOLAZIONE E CAMPIONI

– p. 3/23
VARIABILI CASUALI
variabile casuale o aleatoria: grandezza che può assumere nel corso
di una prova un valore sconosciuto a priori. Legata al verificarsi di un
evento casuale.

– p. 4/23
VARIABILI CASUALI
variabile casuale o aleatoria: grandezza che può assumere nel corso
di una prova un valore sconosciuto a priori. Legata al verificarsi di un
evento casuale.
Funzione X che associa ad ogni elemento dello spazio dei risultati
(popolazione) S = {E1 , E2 , · · · · · ·} uno e un solo numero reale:
X(Ei ) = xi

– p. 4/23
VARIABILI CASUALI
variabile casuale o aleatoria: grandezza che può assumere nel corso
di una prova un valore sconosciuto a priori. Legata al verificarsi di un
evento casuale.
Funzione X che associa ad ogni elemento dello spazio dei risultati
(popolazione) S = {E1 , E2 , · · · · · ·} uno e un solo numero reale:
X(Ei ) = xi

variabile casuale discreta: assume valori entro un insieme finito o


numerabile (corrispondenza univoca con i numeri naturali)

– p. 4/23
VARIABILI CASUALI
variabile casuale o aleatoria: grandezza che può assumere nel corso
di una prova un valore sconosciuto a priori. Legata al verificarsi di un
evento casuale.
Funzione X che associa ad ogni elemento dello spazio dei risultati
(popolazione) S = {E1 , E2 , · · · · · ·} uno e un solo numero reale:
X(Ei ) = xi

variabile casuale discreta: assume valori entro un insieme finito o


numerabile (corrispondenza univoca con i numeri naturali)
variabile casuale continua: assume valori entro un insieme non
numerabile (corrispondenza univoca con i numeri reali). – p. 4/23
VARIABILI CASUALI ↔ MISURE
Un insieme finito di operazioni di misura può essere
pensato come un campione, cioè un particolare
sottoinsieme formato da elementi estratti a caso
dall’insieme di tutte le infinite possibili operazioni di
misura (popolazione) che potrebbero essere effettuate
sulla stessa grandezza fisica, eseguite col medesimo
strumento e sfruttando le medesime procedure.

– p. 5/23
VARIABILI CASUALI ↔ MISURE
Un insieme finito di operazioni di misura può essere
pensato come un campione, cioè un particolare
sottoinsieme formato da elementi estratti a caso
dall’insieme di tutte le infinite possibili operazioni di
misura (popolazione) che potrebbero essere effettuate
sulla stessa grandezza fisica, eseguite col medesimo
strumento e sfruttando le medesime procedure.
Il risultato numerico di una misura affetta da errori
casuali è una variabile casuale.

– p. 5/23
VARIABILI CASUALI DISCRETE
Hp: Ogni evento Ei abbia una probabilità pi di verificarsi

– p. 6/23
VARIABILI CASUALI DISCRETE
Hp: Ogni evento Ei abbia una probabilità pi di verificarsi
Gli elementi di S = {E1 , E2 , · · · · · ·} sono incompatibili e
P
definiscano l’intero spazio dei risultati → i=1 pi = 1
(probabilità totale).

– p. 6/23
VARIABILI CASUALI DISCRETE
Hp: Ogni evento Ei abbia una probabilità pi di verificarsi
Gli elementi di S = {E1 , E2 , · · · · · ·} sono incompatibili e
P
definiscano l’intero spazio dei risultati → i=1 pi = 1
(probabilità totale).
Analogia con il caso di una serie di N misure ripetute.
Infatti, i risultati possono essere raggruppati in M classi
di frequenza relativa fi = ni /N tali che
PM PM
i=1 fi = 1 e i=1 ni = N .

– p. 6/23
VARIABILI CASUALI DISCRETE
Hp: Ogni evento Ei abbia una probabilità pi di verificarsi
Gli elementi di S = {E1 , E2 , · · · · · ·} sono incompatibili e
P
definiscano l’intero spazio dei risultati → i=1 pi = 1
(probabilità totale).
Analogia con il caso di una serie di N misure ripetute.
Infatti, i risultati possono essere raggruppati in M classi
di frequenza relativa fi = ni /N tali che
PM PM
i=1 fi = 1 e i=1 ni = N .
Dal teorema di Bernoulli sappiamo che se N → ∞
allora f → p, per cui ritroviamo la relazione precedente.

– p. 6/23
VARIABILI CASUALI DISCRETE
Hp: Ogni evento Ei abbia una probabilità pi di verificarsi
Gli elementi di S = {E1 , E2 , · · · · · ·} sono incompatibili e
P
definiscano l’intero spazio dei risultati → i=1 pi = 1
(probabilità totale).
Analogia con il caso di una serie di N misure ripetute.
Infatti, i risultati possono essere raggruppati in M classi
di frequenza relativa fi = ni /N tali che
PM PM
i=1 fi = 1 e i=1 ni = N .
Dal teorema di Bernoulli sappiamo che se N → ∞
allora f → p, per cui ritroviamo la relazione precedente.
Un campione di misure ripetute in identiche condizioni
della stessa grandezza corrisponde ad eventi
incompatibili. Se N è molto grande, vale la condizione
di normalizzazione delle frequenze relative.
– p. 6/23
DISTRIBUZIONI DI PROBABILITÀ
Distribuzione di probabilità P (X) di una variabile
casuale X:
relazione che stabilisce una corrispondenza univoca tra i
valori di tale variabile e la loro probabilità.

– p. 7/23
DISTRIBUZIONI DI PROBABILITÀ
Distribuzione di probabilità P (X) di una variabile
casuale X:
relazione che stabilisce una corrispondenza univoca tra i
valori di tale variabile e la loro probabilità.

– p. 7/23
DISTRIBUZIONI DI PROBABILITÀ
Prova o esperimento: lancio di un dado

– p. 8/23
DISTRIBUZIONI DI PROBABILITÀ
Prova o esperimento: lancio di un dado
Variabile casuale: numero uscito
X = {1, 2, 3, 4, 5, 6}

– p. 8/23
DISTRIBUZIONI DI PROBABILITÀ
Prova o esperimento: lancio di un dado
Variabile casuale: numero uscito
X = {1, 2, 3, 4, 5, 6}
Distribuzione di probabilità:
P (X) = {1/6, 1/6, 1/6, 1/6, 1/6, 1/6}

– p. 8/23
DISTRIBUZIONI DI PROBABILITÀ
Prova o esperimento: lancio di 2 dadi

– p. 9/23
DISTRIBUZIONI DI PROBABILITÀ
Prova o esperimento: lancio di 2 dadi
Variabile casuale: somma dei punteggi X = 2, 3, 4, · · · 12
undici elementi → Xi = i + 1; i = 1, 2, 3, ...11

– p. 9/23
DISTRIBUZIONI DI PROBABILITÀ
Prova o esperimento: lancio di 2 dadi
Variabile casuale: somma dei punteggi X = 2, 3, 4, · · · 12
undici elementi → Xi = i + 1; i = 1, 2, 3, ...11
Il numero di possibili coppie è 62 . Dobbiamo considerare
le combinazioni che corrispondono alla stessa somma
dei punteggi, e.g. 4 = 1 + 3 = 2 + 2 = 3 + 1, 3 eventi
incompatibili (probabilità totale).

– p. 9/23
DISTRIBUZIONI DI PROBABILITÀ
Prova o esperimento: lancio di 2 dadi
Variabile casuale: somma dei punteggi X = 2, 3, 4, · · · 12
undici elementi → Xi = i + 1; i = 1, 2, 3, ...11
Il numero di possibili coppie è 62 . Dobbiamo considerare
le combinazioni che corrispondono alla stessa somma
dei punteggi, e.g. 4 = 1 + 3 = 2 + 2 = 3 + 1, 3 eventi
incompatibili (probabilità totale).
Si noti che nel lancio di due dadi, l’uscita di due numeri
corrisponde a 2 eventi compatibili indipendenti
(probabilità composta).

– p. 9/23
DISTRIBUZIONI DI PROBABILITÀ
Prova o esperimento: lancio di 2 dadi
Variabile casuale: somma dei punteggi X = 2, 3, 4, · · · 12
undici elementi → Xi = i + 1; i = 1, 2, 3, ...11
Il numero di possibili coppie è 62 . Dobbiamo considerare
le combinazioni che corrispondono alla stessa somma
dei punteggi, e.g. 4 = 1 + 3 = 2 + 2 = 3 + 1, 3 eventi
incompatibili (probabilità totale).
Si noti che nel lancio di due dadi, l’uscita di due numeri
corrisponde a 2 eventi compatibili indipendenti
(probabilità composta).
Quindi P (4) = P (1, 3) + P (2, 2) + P (3, 1) =
1/6 · 1/6 + 1/6 · 1/6 + 1/6 · 1/6 = 3/36
– p. 9/23
DISTRIBUZIONI DI PROBABILITÀ
La distribuzione di probabilità risultante è:

– p. 10/23
DISTRIBUZIONI DI PROBABILITÀ

– p. 11/23
DISTRIBUZIONI DI PROBABILITÀ

– p. 12/23
FUNZIONE DI DISTRIBUZIONE CUMULATIVA

La funzione di distribuzione cumulativa associa ad ogni valore x della


variabile casuale X la somma delle probabilità che la stessa assuma
valori ≤ x.
X
F (x) = P (X, x) = p(xi )
xi ≤x

– p. 13/23
FUNZIONE DI DISTRIBUZIONE CUMULATIVA

La funzione di distribuzione cumulativa associa ad ogni valore x della


variabile casuale X la somma delle probabilità che la stessa assuma
valori ≤ x.
X
F (x) = P (X, x) = p(xi )
xi ≤x

Nel caso del lancio di un dado si avra’

– p. 13/23
FUNZIONE DI DISTRIBUZIONE CUMULATIVA

La funzione di distribuzione cumulativa associa ad ogni valore x della


variabile casuale X la somma delle probabilità che la stessa assuma
valori ≤ x.
X
F (x) = P (X, x) = p(xi )
xi ≤x

Nel caso del lancio di un dado si avra’

Nel caso di variabili discrete è rappresentata da una funzione a


gradini, non decrescente, che raggiunge il massimo a 1.

– p. 13/23
VALORE DI ASPETTAZIONE
Il valore di aspettazione o speranza matematica di una variabile
casuale discreta X è
P
E(x) = i pi xi

– p. 14/23
VALORE DI ASPETTAZIONE
Il valore di aspettazione o speranza matematica di una variabile
casuale discreta X è
P
E(x) = i pi xi

Terminologia inglese: expected value

– p. 14/23
VALORE DI ASPETTAZIONE
Il valore di aspettazione o speranza matematica di una variabile
casuale discreta X è
P
E(x) = i pi xi

Terminologia inglese: expected value


Il valore medio della variabile X su un campione finito di dimensione
N , suddiviso in M gruppi è
PM
x̄ = i=1 fi xi
Sappiamo che fi → pi per N → +∞ (Th. di Bernoulli).

– p. 14/23
VALORE DI ASPETTAZIONE
Il valore di aspettazione o speranza matematica di una variabile
casuale discreta X è
P
E(x) = i pi xi

Terminologia inglese: expected value


Il valore medio della variabile X su un campione finito di dimensione
N , suddiviso in M gruppi è
PM
x̄ = i=1 fi xi
Sappiamo che fi → pi per N → +∞ (Th. di Bernoulli).
x̄ → E(x) per N → ∞: importante, abbiamo collegato la media
aritmetica osservata alla distribuzione teorica!!!

– p. 14/23
VALORE DI ASPETTAZIONE
Il valore di aspettazione o speranza matematica di una variabile
casuale discreta X è
P
E(x) = i pi xi

Terminologia inglese: expected value


Il valore medio della variabile X su un campione finito di dimensione
N , suddiviso in M gruppi è
PM
x̄ = i=1 fi xi
Sappiamo che fi → pi per N → +∞ (Th. di Bernoulli).
x̄ → E(x) per N → ∞: importante, abbiamo collegato la media
aritmetica osservata alla distribuzione teorica!!!
E(x) può non esistere, la serie non converge; E(x) può non
appartenere al dominio di X.

– p. 14/23
VALORE DI ASPETTAZIONE (caso discreto)
Lancio del dado (uscita di una faccia)
E(x) = 1/6 · 1 + 1/6 · 2...1/6 · 6 = 21
6
= 3.5

– p. 15/23
VALORE DI ASPETTAZIONE (caso discreto)
Lancio del dado (uscita di una faccia)
E(x) = 1/6 · 1 + 1/6 · 2...1/6 · 6 = 21
6
= 3.5
Lancio di 2 dadi (somma dei punteggi)
E(x) = 1·2+2·3+3·4+4·5+5·6+6·7+5·8+4·9+3·10+2·11+1·12
36
=7

– p. 15/23
VARIANZA DI UNA DISTRIBUZIONE DISCRETA

Errore di una variabile casuale: x − E(x)

– p. 16/23
VARIANZA DI UNA DISTRIBUZIONE DISCRETA

Errore di una variabile casuale: x − E(x)


Varianza: definita come il valore di aspettazione della
variabile casuale [x − E(x)]2
2
 2 P 2
V ar(x) = σx = E [x − E(x)] = i p i [x i − E(x)]

– p. 16/23
VARIANZA DI UNA DISTRIBUZIONE DISCRETA

Errore di una variabile casuale: x − E(x)


Varianza: definita come il valore di aspettazione della
variabile casuale [x − E(x)]2
2
 2 P 2
V ar(x) = σx = E [x − E(x)] = i p i [x i − E(x)]
Si dimostra che:
σx2 = E(x2 ) − [E(x)]2

– p. 16/23
VARIANZA DI UNA DISTRIBUZIONE DISCRETA

Errore di una variabile casuale: x − E(x)


Varianza: definita come il valore di aspettazione della
variabile casuale [x − E(x)]2
2
 2 P 2
V ar(x) = σx = E [x − E(x)] = i p i [x i − E(x)]
Si dimostra che:
σx2 = E(x2 ) − [E(x)]2
Deviazione standard o errore quadratico medio σx :
radice quadrata della varianza.

– p. 16/23
COMBINAZIONI LINEARI: VALORE DI ASPETTAZIONE

Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti

– p. 17/23
COMBINAZIONI LINEARI: VALORE DI ASPETTAZIONE

Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti


Siano E(x), E(y), E(z), · · · i valori di aspettazione

– p. 17/23
COMBINAZIONI LINEARI: VALORE DI ASPETTAZIONE

Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti


Siano E(x), E(y), E(z), · · · i valori di aspettazione
Si dimostra che:

– p. 17/23
COMBINAZIONI LINEARI: VALORE DI ASPETTAZIONE

Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti


Siano E(x), E(y), E(z), · · · i valori di aspettazione
Si dimostra che:
E(f ) = a E(x) + b E(y) + c E(z) · · ·

– p. 17/23
COMBINAZIONI LINEARI: VALORE DI ASPETTAZIONE

Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti


Siano E(x), E(y), E(z), · · · i valori di aspettazione
Si dimostra che:
E(f ) = a E(x) + b E(y) + c E(z) · · ·
La media aritmetica può essere vista come combinazione
lineare delle N misure, con coefficienti tutti uguali a 1/N .

– p. 17/23
COMBINAZIONI LINEARI: VALORE DI ASPETTAZIONE

Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti


Siano E(x), E(y), E(z), · · · i valori di aspettazione
Si dimostra che:
E(f ) = a E(x) + b E(y) + c E(z) · · ·
La media aritmetica può essere vista come combinazione
lineare delle N misure, con coefficienti tutti uguali a 1/N .
Applicando il teorema si ottiene E(x̄) = E(x)

– p. 17/23
COMBINAZIONI LINEARI: VALORE DI ASPETTAZIONE

Sia f = ax + by + cz · · ·, con a, b, c coefficienti costanti


Siano E(x), E(y), E(z), · · · i valori di aspettazione
Si dimostra che:
E(f ) = a E(x) + b E(y) + c E(z) · · ·
La media aritmetica può essere vista come combinazione
lineare delle N misure, con coefficienti tutti uguali a 1/N .
Applicando il teorema si ottiene E(x̄) = E(x)
Il valore di aspettazione della popolazione delle medie
aritmetiche dei campioni di dimensione finita N coincide
con il valore di aspettazione della popolazione stessa.

– p. 17/23
COMBINAZIONI LINEARI: VARIANZA

Hp: le variabili x,y, z siano statisticamente indipendenti, cioè


corrispondenti ad eventi compatibili indipendenti.

– p. 18/23
COMBINAZIONI LINEARI: VARIANZA

Hp: le variabili x,y, z siano statisticamente indipendenti, cioè


corrispondenti ad eventi compatibili indipendenti.
Si dimostra che:
σf 2 = a2 σx 2 + b2 σy 2 + c2 σz 2 + · · ·

– p. 18/23
COMBINAZIONI LINEARI: VARIANZA

Hp: le variabili x,y, z siano statisticamente indipendenti, cioè


corrispondenti ad eventi compatibili indipendenti.
Si dimostra che:
σf 2 = a2 σx 2 + b2 σy 2 + c2 σz 2 + · · ·
Una combinazione lineare, a coefficienti costanti, di due variabili
casuali statisticamente indipendenti ha varianza uguale alla
combinazione lineare delle rispettive varianze, con coefficienti pari ai
quadrati dei coefficienti rispettivi.

– p. 18/23
COMBINAZIONI LINEARI: VARIANZA

Hp: le variabili x,y, z siano statisticamente indipendenti, cioè


corrispondenti ad eventi compatibili indipendenti.
Si dimostra che:
σf 2 = a2 σx 2 + b2 σy 2 + c2 σz 2 + · · ·
Una combinazione lineare, a coefficienti costanti, di due variabili
casuali statisticamente indipendenti ha varianza uguale alla
combinazione lineare delle rispettive varianze, con coefficienti pari ai
quadrati dei coefficienti rispettivi.
Ritrovere questo risultato nell’ambito della propagazione degli errori
nelle misure effettuate con metodi indiretti.

– p. 18/23
COMBINAZIONI LINEARI: VARIANZA

Hp: le variabili x,y, z siano statisticamente indipendenti, cioè


corrispondenti ad eventi compatibili indipendenti.
Si dimostra che:
σf 2 = a2 σx 2 + b2 σy 2 + c2 σz 2 + · · ·
Una combinazione lineare, a coefficienti costanti, di due variabili
casuali statisticamente indipendenti ha varianza uguale alla
combinazione lineare delle rispettive varianze, con coefficienti pari ai
quadrati dei coefficienti rispettivi.
Ritrovere questo risultato nell’ambito della propagazione degli errori
nelle misure effettuate con metodi indiretti.
Due variabili casuali che differiscano per una quantità costante
hanno la stessa varianza.
t = x + cost. → σt2 = σx2 (→...gli errori sistematici non alterano la
precisione dei dati...)

– p. 18/23
L’ERRORE QUADRATICO MEDIO DELLA MEDIA

1
PN
Variabile casuale: media aritmetica x̄ =
N i=1 xi :
combinazione lineare delle N misure con coefficienti
uguali a 1/N

– p. 19/23
L’ERRORE QUADRATICO MEDIO DELLA MEDIA

1
PN
Variabile casuale: media aritmetica x̄ = i=1 xi :
N
combinazione lineare delle N misure con coefficienti
uguali a 1/N
N
1 X 1
Varianza σx̄ 2 = 2 2
σxi = 2 · N σx 2
N i=1 N

σx 2
σx̄ 2 =
N

– p. 19/23
L’ERRORE QUADRATICO MEDIO DELLA MEDIA

1
PN
Variabile casuale: media aritmetica x̄ = i=1 xi :
N
combinazione lineare delle N misure con coefficienti
uguali a 1/N
N
1 X 1
Varianza σx̄ 2 = 2 2
σxi = 2 · N σx 2
N i=1 N

σx 2
σx̄ 2 =
N
IMPLICAZIONI: L’errore quadratico medio della media di
un campione

– p. 19/23
L’ERRORE QUADRATICO MEDIO DELLA MEDIA

1
PN
Variabile casuale: media aritmetica x̄ = i=1 xi :
N
combinazione lineare delle N misure con coefficienti
uguali a 1/N
N
1 X 1
Varianza σx̄ 2 = 2 2
σxi = 2 · N σx 2
N i=1 N

σx 2
σx̄ 2 =
N
IMPLICAZIONI: L’errore quadratico medio della media di
un campione
è minore dell’analogo errore delle singole misure.

– p. 19/23
L’ERRORE QUADRATICO MEDIO DELLA MEDIA

1
PN
Variabile casuale: media aritmetica x̄ = i=1 xi :
N
combinazione lineare delle N misure con coefficienti
uguali a 1/N
N
1 X 1
Varianza σx̄ 2 = 2 2
σxi = 2 · N σx 2
N i=1 N

σx 2
σx̄ 2 =
N
IMPLICAZIONI: L’errore quadratico medio della media di
un campione
è minore dell’analogo errore delle singole misure.
tende a zero al crescere del numero di misure effettuato.
– p. 19/23
DISTRIBUZIONE UNIFORME DISCRETA
La funzione di distribuzione di probabilità assume lo stesso valore
per tutti i valori della variabile casuale: p(x) = p per ogni x = 1, · · · n

– p. 20/23
DISTRIBUZIONE UNIFORME DISCRETA
La funzione di distribuzione di probabilità assume lo stesso valore
per tutti i valori della variabile casuale: p(x) = p per ogni x = 1, · · · n
Dalla condizione di normalizzazione: → pi = 1/n

– p. 20/23
DISTRIBUZIONE UNIFORME DISCRETA
La funzione di distribuzione di probabilità assume lo stesso valore
per tutti i valori della variabile casuale: p(x) = p per ogni x = 1, · · · n
Dalla condizione di normalizzazione: → pi = 1/n
Valore si aspettazione
n
1X 1 n(n + 1) n+1
E(x) = 1·1/n+2·1/n · · · n·1/n = 1/n = i= =
n i=1 n 2 2
n
X n(n + 1)
(Si è usata la relazione i= dalla teoria delle progressioni aritmetiche )
i=1
2

– p. 20/23
DISTRIBUZIONE UNIFORME DISCRETA
La funzione di distribuzione di probabilità assume lo stesso valore
per tutti i valori della variabile casuale: p(x) = p per ogni x = 1, · · · n
Dalla condizione di normalizzazione: → pi = 1/n
Valore si aspettazione
n
1X 1 n(n + 1) n+1
E(x) = 1·1/n+2·1/n · · · n·1/n = 1/n = i= =
n i=1 n 2 2
n
X n(n + 1)
(Si è usata la relazione i= dalla teoria delle progressioni aritmetiche )
i=1
2

Varianza:
Pn 2  Pn 2
2 i=1 i i=1 i (n + 1)(2n + 1) (n + 1)2
σ = − = − =
n n 6 4
n2 − 1
 
n + 1 2n + 1 n + 1 n + 1 4n + 2 − 3n − 3
− = · =
2 3 2 2 6 12
(Si è usata la relazione ni=1 i2 = n(n+1)(2n+1) )
P
6

– p. 20/23
DISTRIBUZIONE UNIFORME DISCRETA
La funzione di distribuzione di probabilità assume lo stesso valore
per tutti i valori della variabile casuale: p(x) = p per ogni x = 1, · · · n
Dalla condizione di normalizzazione: → pi = 1/n
Valore si aspettazione
n
1X 1 n(n + 1) n+1
E(x) = 1·1/n+2·1/n · · · n·1/n = 1/n = i= =
n i=1 n 2 2
n
X n(n + 1)
(Si è usata la relazione i= dalla teoria delle progressioni aritmetiche )
i=1
2

Varianza:
Pn 2  Pn 2
2 i=1 i i=1 i (n + 1)(2n + 1) (n + 1)2
σ = − = − =
n n 6 4
n2 − 1
 
n + 1 2n + 1 n + 1 n + 1 4n + 2 − 3n − 3
− = · =
2 3 2 2 6 12
(Si è usata la relazione ni=1 i2 = n(n+1)(2n+1) )
P
6

Il valore di aspettazione e la varianza del punteggio associato al


lancio di un dado sono : E(x) = 6+1 2 36−1
2 = 3.5 e σ = 12 ∼ 2.92
– p. 20/23
ESERCIZI

Data una serie di n misure {mi }, come cambiano media


aritmetica e scarto quadratico medio se ogni misura
è moltiplicata per 2: yi = 2 · xi ?
è incrementata di 2: yi = 2 + xi ?

– p. 21/23
ESERCIZI

Considera la seguente distribuzione di frequenza. Qual


è la frequenza mancante nella posizione occupata
dall’asterisco?
Classi Freq. ass. Freq. cumulata in %
fino a 584 1 4.00%
584 − |1774.4 * 64.00%
1774.4 − |2964.8 4 80.00%
2964.8 − |4155.2 3 92.00%
4155.2 − |5345.6 1 92.00%
più di 5345.6 1 100.00%
A)25 B)15 C)16 D)3

– p. 22/23
ESERCIZI

Data la seguente distribuzione di probabilità:


x 0 1 2 3 4 5 6
P (x) 0.17 0.19 0.23 0.16 0.14 0.14 0.07

Quale delle seguenti affermazioni è vera?

A)P (X > 3) = 0.51 B)P (X ≤ 3) = 0.65

C)P (2 ≤ X ≤ 5) = 0.33 D)P (X < 6) = 1

– p. 23/23