Sei sulla pagina 1di 73

INFORMAZIONI

Prossime lezioni
Giorno Ora Dove
Lunedi 22/02 09:30 P50
Martedi 23/02 14:30 P50
Giovedi 25/02 14:30 Aula informatica (6-7 gruppi)
Martedi 02/03 14:30 P50
Giovedi 04/03 14:30 Aula informatica (6-7 gruppi)
Martedi 09/03 14:30 P50

– p. 1/20
INFORMAZIONI
Prossime lezioni
Giorno Ora Dove
Lunedi 22/02 09:30 P50
Martedi 23/02 14:30 P50
Giovedi 25/02 14:30 Aula informatica (6-7 gruppi)
Martedi 02/03 14:30 P50
Giovedi 04/03 14:30 Aula informatica (6-7 gruppi)
Martedi 09/03 14:30 P50
Decidere la spartizione tra i 2 due turni per l’aula inform.

– p. 1/20
DISTRIBUZIONE BINOMIALE
Si applica a variabili casuali discrete di tipo dicotomico
(variabili bernoulliane), ovvero che possono assumere
solo 2 valori.

– p. 2/20
DISTRIBUZIONE BINOMIALE
Si applica a variabili casuali discrete di tipo dicotomico
(variabili bernoulliane), ovvero che possono assumere
solo 2 valori.
L’evento si verifica → successo, e.g. y = 1

– p. 2/20
DISTRIBUZIONE BINOMIALE
Si applica a variabili casuali discrete di tipo dicotomico
(variabili bernoulliane), ovvero che possono assumere
solo 2 valori.
L’evento si verifica → successo, e.g. y = 1
L’evento non si verifica → insuccesso, e.g. y = 0

– p. 2/20
DISTRIBUZIONE BINOMIALE
Si applica a variabili casuali discrete di tipo dicotomico
(variabili bernoulliane), ovvero che possono assumere
solo 2 valori.
L’evento si verifica → successo, e.g. y = 1
L’evento non si verifica → insuccesso, e.g. y = 0
La distribuzione binomiale descrive la probabilità di
ottenere un numero finito k di successi in n prove
ripetute, sapendo che la probabilità di successo per il
singolo evento è costante e vale p (probabilità di un
evento bernoulliano).

– p. 2/20
DISTRIBUZIONE BINOMIALE
Sia E l’evento bernoulliano elementare con probabilità p

– p. 3/20
DISTRIBUZIONE BINOMIALE
Sia E l’evento bernoulliano elementare con probabilità p

Sia Ē evento complementare con probabilità q = 1 − p.

– p. 3/20
DISTRIBUZIONE BINOMIALE
Sia E l’evento bernoulliano elementare con probabilità p

Sia Ē evento complementare con probabilità q = 1 − p.


Probabilità P (x; n) che in n prove ripetute E si verifichi
esattamente x volte ? Probabilità di avere x successi in
n prove ?

– p. 3/20
DISTRIBUZIONE BINOMIALE
Sia E l’evento bernoulliano elementare con probabilità p

Sia Ē evento complementare con probabilità q = 1 − p.


Probabilità P (x; n) che in n prove ripetute E si verifichi
esattamente x volte ? Probabilità di avere x successi in
n prove ?
Supponiamo che tre persone (Francesca, Luigi e
Marco) escano ciascuno dalla loro casa per andare a
prendere il medesimo autobus e che ciascuno di essi
abbia probabilità pari a p di riuscire ad arrivare in tempo
alla fermata (e ovviamente probabilità 1 − p di perdere
l’autobus). Ci si chiede quale sia la probabilità che due
delle tre persone riescano nell’intento.

– p. 3/20
DISTRIBUZIONE BINOMIALE
L’evento due persone prendono l’autobus si può
verificare in tre modi diversi ossia
1. Francesca e Luigi lo prendono, ma Marco no
2. Francesca e Marco lo prendono, ma Luigi no
3. Luigi e Marco lo prendono, ma Francesca no

– p. 4/20
DISTRIBUZIONE BINOMIALE
L’evento due persone prendono l’autobus si può
verificare in tre modi diversi ossia
1. Francesca e Luigi lo prendono, ma Marco no
2. Francesca e Marco lo prendono, ma Luigi no
3. Luigi e Marco lo prendono, ma Francesca no

L’evento in due prendono l’autobus sarà rappresentabile


come B2 = F LM + F LM + F LM

– p. 4/20
DISTRIBUZIONE BINOMIALE
L’evento due persone prendono l’autobus si può
verificare in tre modi diversi ossia
1. Francesca e Luigi lo prendono, ma Marco no
2. Francesca e Marco lo prendono, ma Luigi no
3. Luigi e Marco lo prendono, ma Francesca no

L’evento in due prendono l’autobus sarà rappresentabile


come B2 = F LM + F LM + F LM
La probabilità corrispondente è :
P (B2 ) = pp(1 − p) + p(1 − p)p + (1 − p)pp
I tre eventi F ,L e M sono indipendenti, mentre ogni
combinazione(terna) corrisponde ad un evento
incompatibile rispetto alle altre.

– p. 4/20
DISTRIBUZIONE BINOMIALE
L’evento due persone prendono l’autobus si può
verificare in tre modi diversi ossia
1. Francesca e Luigi lo prendono, ma Marco no
2. Francesca e Marco lo prendono, ma Luigi no
3. Luigi e Marco lo prendono, ma Francesca no

L’evento in due prendono l’autobus sarà rappresentabile


come B2 = F LM + F LM + F LM
La probabilità corrispondente è :
P (B2 ) = pp(1 − p) + p(1 − p)p + (1 − p)pp
I tre eventi F ,L e M sono indipendenti, mentre ogni
combinazione(terna) corrisponde ad un evento
incompatibile rispetto alle altre.
Ponendo 1 − p = q otteniamo in definitiva: P (B2 ) = 3p2 q
– p. 4/20
DISTRIBUZIONE BINOMIALE
In generale: si calcoli la probabilità che in n prove di un
esperimento di Bernoulli, si abbiano esattamente x
successi.

– p. 5/20
DISTRIBUZIONE BINOMIALE
In generale: si calcoli la probabilità che in n prove di un
esperimento di Bernoulli, si abbiano esattamente x
successi.
Indichiamo con S il successo e con F il fallimento. Una
sequenza di n prove darà come esito una sequenza di
n fra S e F . Ad esempio, si abbiano i primi x successi:

x volte n − x volte
z }| { z }| {
SSS · · · S F F F · · · F

– p. 5/20
DISTRIBUZIONE BINOMIALE
In generale: si calcoli la probabilità che in n prove di un
esperimento di Bernoulli, si abbiano esattamente x
successi.
Indichiamo con S il successo e con F il fallimento. Una
sequenza di n prove darà come esito una sequenza di
n fra S e F . Ad esempio, si abbiano i primi x successi:

x volte n − x volte
z }| { z }| {
SSS · · · S F F F · · · F

La probabilità di ottenere proprio quella sequenza è:


x volte n − x volte
z }| {z }| {
p · p · p · · · p q · q · q · · · q = px q n−x

– p. 5/20
DISTRIBUZIONE BINOMIALE
Qualunque altra sequenza contenente esattamente x successi avrà
sempre come probabilità px q n−x (cambia l’ordine dei fattori ma non il
prodotto).

– p. 6/20
DISTRIBUZIONE BINOMIALE
Qualunque altra sequenza contenente esattamente x successi avrà
sempre come probabilità px q n−x (cambia l’ordine dei fattori ma non il
prodotto).
In base all’analisi combinatoria, il numero di combinazioni di classe x
di n oggetti, ovvero tutte modalità di scegliere x oggetti da un insieme
di n oggetti, indipendentemente dall’ordine è
n!
Cn, x =
x! (n − x)!

– p. 6/20
DISTRIBUZIONE BINOMIALE
Qualunque altra sequenza contenente esattamente x successi avrà
sempre come probabilità px q n−x (cambia l’ordine dei fattori ma non il
prodotto).
In base all’analisi combinatoria, il numero di combinazioni di classe x
di n oggetti, ovvero tutte modalità di scegliere x oggetti da un insieme
di n oggetti, indipendentemente dall’ordine è
n!
Cn, x =
x! (n − x)!

Dato che tutte le combinazioni sono reciprocamente eventi


incompatibili (regola della propabilità totale), la distribuzione
binomiale è quindi data da:
n!
x n−x
P (x; n) = Cn, x · p q = px q n−x
x! (n − x)!

– p. 6/20
DISTRIBUZIONE BINOMIALE: esempi
In un esame scritto si debba rispondere a 10 domande, scegliendo
tra 2 possibili risposte (una vera, l’altra falsa). Si assegna un
punteggio 3 per ogni risposta V , e 0 per ogni risposta F .
Qual è la probabilità che uno studente totalmente impreparato (che
scelga a caso) ottenga 18/30 ?

– p. 7/20
DISTRIBUZIONE BINOMIALE: esempi
In un esame scritto si debba rispondere a 10 domande, scegliendo
tra 2 possibili risposte (una vera, l’altra falsa). Si assegna un
punteggio 3 per ogni risposta V , e 0 per ogni risposta F .
Qual è la probabilità che uno studente totalmente impreparato (che
scelga a caso) ottenga 18/30 ?
Equivale a calcolare la probabilità di ottenere x = 6 successi in
n = 10 prove, con probabilità p = 0.5.

– p. 7/20
DISTRIBUZIONE BINOMIALE: esempi
In un esame scritto si debba rispondere a 10 domande, scegliendo
tra 2 possibili risposte (una vera, l’altra falsa). Si assegna un
punteggio 3 per ogni risposta V , e 0 per ogni risposta F .
Qual è la probabilità che uno studente totalmente impreparato (che
scelga a caso) ottenga 18/30 ?
Equivale a calcolare la probabilità di ottenere x = 6 successi in
n = 10 prove, con probabilità p = 0.5.
10! 10 · 9 · 8 · 7 · 6!
P (6; 10) = 0.56 · 0.510−6 = = 210 · 0.510 ∼
6!(10 − 6)! 6!4 · 3 · 2 · 1
0.20

– p. 7/20
DISTRIBUZIONE BINOMIALE: esempi
In un esame scritto si debba rispondere a 10 domande, scegliendo
tra 2 possibili risposte (una vera, l’altra falsa). Si assegna un
punteggio 3 per ogni risposta V , e 0 per ogni risposta F .
Qual è la probabilità che uno studente totalmente impreparato (che
scelga a caso) ottenga 18/30 ?
Equivale a calcolare la probabilità di ottenere x = 6 successi in
n = 10 prove, con probabilità p = 0.5.
10! 10 · 9 · 8 · 7 · 6!
P (6; 10) = 0.56 · 0.510−6 = = 210 · 0.510 ∼
6!(10 − 6)! 6!4 · 3 · 2 · 1
0.20
Qual è la probabilità che o stesso studente superi l’esame, ovvero
ottenga un voto ≥ 18/30 ? Deve prendere o 18 o 21 o 24 o 27 o 30.
Eventi incompatibili → somma delle probabilità.

– p. 7/20
DISTRIBUZIONE BINOMIALE: esempi
In un esame scritto si debba rispondere a 10 domande, scegliendo
tra 2 possibili risposte (una vera, l’altra falsa). Si assegna un
punteggio 3 per ogni risposta V , e 0 per ogni risposta F .
Qual è la probabilità che uno studente totalmente impreparato (che
scelga a caso) ottenga 18/30 ?
Equivale a calcolare la probabilità di ottenere x = 6 successi in
n = 10 prove, con probabilità p = 0.5.
10! 10 · 9 · 8 · 7 · 6!
P (6; 10) = 0.56 · 0.510−6 = = 210 · 0.510 ∼
6!(10 − 6)! 6!4 · 3 · 2 · 1
0.20
Qual è la probabilità che o stesso studente superi l’esame, ovvero
ottenga un voto ≥ 18/30 ? Deve prendere o 18 o 21 o 24 o 27 o 30.
Eventi incompatibili → somma delle probabilità.
P (6 ≤ x ≤ 10; 10) = P (6; 10) + P (7; 10) + P (8; 10) + P (9; 10) +
P (10; 10) = (C10, 6 + C10, 7 + C10, 8 + C10, 9 + C10, 10 ) · (0.5)10 =
(210 + 120 + 45 + 10 + 1) · (0.5)10 = 386 · (0.5)10 ∼ 0.38 – p. 7/20
BINOMIALE: CARATTERISTICHE
Distribuzione discreta, con dominio l’insieme dei numeri
naturali. Univocamente definita dai parametri n e p.

– p. 8/20
BINOMIALE: CARATTERISTICHE
Distribuzione discreta, con dominio l’insieme dei numeri
naturali. Univocamente definita dai parametri n e p.
Vale
Pn la condizione Pdi normalizzazione
n n! x q n−x = (p + q)n ≡ 1
x=0 P (x; n) = x=0 x! (n−x)! p
(formula di Newton per lo sviluppo della potenza
n-esima di un binomio).

– p. 8/20
BINOMIALE: CARATTERISTICHE
Distribuzione discreta, con dominio l’insieme dei numeri
naturali. Univocamente definita dai parametri n e p.
Vale
Pn la condizione Pdi normalizzazione
n n! x q n−x = (p + q)n ≡ 1
x=0 P (x; n) = x=0 x! (n−x)! p
(formula di Newton per lo sviluppo della potenza
n-esima di un binomio).
Valore di aspettazione:
Pn n!
E(x) = x=0 x px q n−x = n · p
x! (n − x)!

– p. 8/20
BINOMIALE: CARATTERISTICHE
Distribuzione discreta, con dominio l’insieme dei numeri
naturali. Univocamente definita dai parametri n e p.
Vale
Pn la condizione Pdi normalizzazione
n n! x q n−x = (p + q)n ≡ 1
x=0 P (x; n) = x=0 x! (n−x)! p
(formula di Newton per lo sviluppo della potenza
n-esima di un binomio).
Valore di aspettazione:
Pn n!
E(x) = x=0 x px q n−x = n · p
x! (n − x)!
Varianza σ 2 (x) = n · p · q

– p. 8/20
BINOMIALE: ANDAMENTO
La distribuzione binomiale è in generale asimmetrica,
tranne che per p = q = 1/2

– p. 9/20
BINOMIALE: ANDAMENTO
La distribuzione binomiale è in generale asimmetrica,
tranne che per p = q = 1/2
Se p = q = 1/2 e n pari → unimodale

– p. 9/20
BINOMIALE: ANDAMENTO
La distribuzione binomiale è in generale asimmetrica,
tranne che per p = q = 1/2
Se p = q = 1/2 e n pari → unimodale
Se p = q = 1/2 e n dispari → bimodale

– p. 9/20
BINOMIALE: ANDAMENTO

Visualizza qui
Visualizza qui – p. 10/20
BINOMIALE: decadimenti radioattivi
Λt propabilità di decadimento di un singolo nucleo
instabile

– p. 11/20
BINOMIALE: decadimenti radioattivi
Λt propabilità di decadimento di un singolo nucleo
instabile
Λt = λ t, proporzionale al tempo, λ = costante di
decadimento.

– p. 11/20
BINOMIALE: decadimenti radioattivi
Λt propabilità di decadimento di un singolo nucleo
instabile
Λt = λ t, proporzionale al tempo, λ = costante di
decadimento.
La probabilità di osservare un numero prefissato di
decadimenti in N nuclei nel tempo t segue la
distribuzione binomiale.

– p. 11/20
BINOMIALE: decadimenti radioattivi
Λt propabilità di decadimento di un singolo nucleo
instabile
Λt = λ t, proporzionale al tempo, λ = costante di
decadimento.
La probabilità di osservare un numero prefissato di
decadimenti in N nuclei nel tempo t segue la
distribuzione binomiale.
Il numero medio atteso di decadimenti nel tempo t è
N λ t. Quindi N λ rappresenta il tasso medio di
decadimenti.

– p. 11/20
BINOMIALE: decadimenti radioattivi
dN = −N λ dt variazione (negativa) del numero di nuclei
instabili nel tempo dt

– p. 12/20
BINOMIALE: decadimenti radioattivi
dN = −N λ dt variazione (negativa) del numero di nuclei
instabili nel tempo dt
Se N0 numero iniziale al tempo t = 0 → integrando si
ottiene:

– p. 12/20
BINOMIALE: decadimenti radioattivi
Esempio: utilizzo del nucleo instabile 14 C come orologio
nucleare per datazione reperti fossili.

– p. 13/20
BINOMIALE: decadimenti radioattivi
Esempio: utilizzo del nucleo instabile 14 C come orologio
nucleare per datazione reperti fossili.

τ1/2 = 5730 anni. Datazione dalla


misura della la quantità residua di
14 C.

– p. 13/20
BINOMIALE: decadimenti radioattivi
Esempio: utilizzo del nucleo instabile 14 C come orologio
nucleare per datazione reperti fossili.

τ1/2 = 5730 anni. Datazione dalla


misura della la quantità residua di
14 C.

– p. 13/20
BINOMIALE: decadimenti radioattivi
Esempio: utilizzo del nucleo instabile 14 C come orologio
nucleare per datazione reperti fossili.

τ1/2 = 5730 anni. Datazione dalla


misura della la quantità residua di
14 C.

– p. 13/20
VARIABILI CASUALI CONTINUE
Una variabile casuale continua può assumere tutti gli infiniti valori
appartenenti ad un intervallo di numeri reali.

– p. 14/20
VARIABILI CASUALI CONTINUE
Una variabile casuale continua può assumere tutti gli infiniti valori
appartenenti ad un intervallo di numeri reali.
Il risultato di una misura è trattata come una variabile casuale
continua per applicare il calcolo differenziale e integrale.

– p. 14/20
VARIABILI CASUALI CONTINUE
Una variabile casuale continua può assumere tutti gli infiniti valori
appartenenti ad un intervallo di numeri reali.
Il risultato di una misura è trattata come una variabile casuale
continua per applicare il calcolo differenziale e integrale.
Come generalizzare il concetto di probabilità ? Tutte le definizioni
date (assiomatica ed empirica) si riferiscono a variabili discrete.
nfav
Assumendo p = , nel caso continuo ntot → ∞, per cui p → 0.
ntot

– p. 14/20
VARIABILI CASUALI CONTINUE
Una variabile casuale continua può assumere tutti gli infiniti valori
appartenenti ad un intervallo di numeri reali.
Il risultato di una misura è trattata come una variabile casuale
continua per applicare il calcolo differenziale e integrale.
Come generalizzare il concetto di probabilità ? Tutte le definizioni
date (assiomatica ed empirica) si riferiscono a variabili discrete.
nfav
Assumendo p = , nel caso continuo ntot → ∞, per cui p → 0.
ntot
Nel caso continuo il valore della probabilità di un singolo evento è
infinitesimo.

– p. 14/20
VARIABILI CASUALI CONTINUE
Una variabile casuale continua può assumere tutti gli infiniti valori
appartenenti ad un intervallo di numeri reali.
Il risultato di una misura è trattata come una variabile casuale
continua per applicare il calcolo differenziale e integrale.
Come generalizzare il concetto di probabilità ? Tutte le definizioni
date (assiomatica ed empirica) si riferiscono a variabili discrete.
nfav
Assumendo p = , nel caso continuo ntot → ∞, per cui p → 0.
ntot
Nel caso continuo il valore della probabilità di un singolo evento è
infinitesimo.
In pratica, si associa il concetto di probabilità ad intervalli finiti
dell’asse reale di definizione della variabile. Quindi si passerà da
p(x) → p(x1 ≤ x ≤ x2 ).

– p. 14/20
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Supponiamo di avere a disposizione infinite misure, distribuite con
continuità sull’asse x.

– p. 15/20
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Supponiamo di avere a disposizione infinite misure, distribuite con
continuità sull’asse x.
In ogni intervallo k, la frequenza relativa delle misure fk , per N → ∞
tende alla probabilità p che una misura cada in quell’intervallo (Legge
dei grandi numeri o Teorema di Bernoulli).

– p. 15/20
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Supponiamo di avere a disposizione infinite misure, distribuite con
continuità sull’asse x.
In ogni intervallo k, la frequenza relativa delle misure fk , per N → ∞
tende alla probabilità p che una misura cada in quell’intervallo (Legge
dei grandi numeri o Teorema di Bernoulli).
Al crescere di N posso prendere intervalli sempre più piccoli: per
N → ∞ assumeranno un’ampiezza infinitesima dx.

– p. 15/20
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Supponiamo di avere a disposizione infinite misure, distribuite con
continuità sull’asse x.
In ogni intervallo k, la frequenza relativa delle misure fk , per N → ∞
tende alla probabilità p che una misura cada in quell’intervallo (Legge
dei grandi numeri o Teorema di Bernoulli).
Al crescere di N posso prendere intervalli sempre più piccoli: per
N → ∞ assumeranno un’ampiezza infinitesima dx.
La funzione discreta densità di frequenza dk tende a:
N →∞ fk pk dp
dk = → → ≡ f (x)
∆xk → 0 ∆xk ∆xk dxk

– p. 15/20
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Supponiamo di avere a disposizione infinite misure, distribuite con
continuità sull’asse x.
In ogni intervallo k, la frequenza relativa delle misure fk , per N → ∞
tende alla probabilità p che una misura cada in quell’intervallo (Legge
dei grandi numeri o Teorema di Bernoulli).
Al crescere di N posso prendere intervalli sempre più piccoli: per
N → ∞ assumeranno un’ampiezza infinitesima dx.
La funzione discreta densità di frequenza dk tende a:
N →∞ fk pk dp
dk = → → ≡ f (x)
∆xk → 0 ∆xk ∆xk dxk

La funzione discreta densità di frequenza dk tende alla funzione


continua densità di probabilità f (x).

– p. 15/20
Istogramma → funzione di densità di probabilità.

– p. 16/20
Istogramma → funzione di densità di probabilità.

– p. 16/20
Istogramma → funzione di densità di probabilità.

– p. 16/20
Istogramma → funzione di densità di probabilità.

– p. 16/20
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Ne segue che fk = dk ∆xk → f (x)dx

– p. 17/20
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Ne segue che fk = dk ∆xk → f (x)dx
L’istogramma → curva continua avente come ordinata
dp
y = f (x) =
dx

– p. 17/20
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Ne segue che fk = dk ∆xk → f (x)dx
L’istogramma → curva continua avente come ordinata
dp
y = f (x) =
dx
La frazione di misure che cadono nell’intervallo tra x e
x + dx tende alla probabilità dp di ottenere valori di x
nell’intervallo (x, x + dx).

– p. 17/20
FUNZIONE DI DENSITÀ DI PROBABILITÀ
Ne segue che fk = dk ∆xk → f (x)dx
L’istogramma → curva continua avente come ordinata
dp
y = f (x) =
dx
La frazione di misure che cadono nell’intervallo tra x e
x + dx tende alla probabilità dp di ottenere valori di x
nell’intervallo (x, x + dx).

– p. 17/20
FUNZIONE DI DENSITÀ DI PROBABILITÀ

– p. 18/20
FUNZIONE DI DENSITÀ DI PROBABILITÀ

La condizione di normalizzazione per una funzione densità di probabilità


è:
Z +∞ La probabilità di osservare un
f (x)dx = 1 qualunque valore di una variabile
−∞
continua è pari alla certezza.

– p. 18/20
FUNZIONE DI DENSITÀ DI PROBABILITÀ

La condizione di normalizzazione per una funzione densità di probabilità


è:
Z +∞ La probabilità di osservare un
f (x)dx = 1 qualunque valore di una variabile
−∞
continua è pari alla certezza.
La funzione densità di probabilità è positiva f (x) > 0.

– p. 18/20
FUNZIONE DI DENSITÀ DI PROBABILITÀ

La condizione di normalizzazione per una funzione densità di probabilità


è:
Z +∞ La probabilità di osservare un
f (x)dx = 1 qualunque valore di una variabile
−∞
continua è pari alla certezza.
La funzione densità di probabilità è positiva f (x) > 0.
la funzione densità di probabilità all’infinito deve tendere a zero
f (x) → 0 per x → ±∞.

– p. 18/20
FUNZIONE DI DISTRIBUZIONE CUMULATIVA
Z x Probabilità di osservare un valore
F (x) = f (t) dt non superiore ad x. Valgono le re-
−∞
lazioni F (−∞) ≡ 0 e F (+∞) ≡ 1.

– p. 19/20
FUNZIONE DI DISTRIBUZIONE CUMULATIVA
Z x Probabilità di osservare un valore
F (x) = f (t) dt non superiore ad x. Valgono le re-
−∞
lazioni F (−∞) ≡ 0 e F (+∞) ≡ 1.
P (x ∈ [x1 , x2 ]) = F (x2 ) − F (x1 )

– p. 19/20
FUNZIONE DI DISTRIBUZIONE CUMULATIVA
Z x Probabilità di osservare un valore
F (x) = f (t) dt non superiore ad x. Valgono le re-
−∞
lazioni F (−∞) ≡ 0 e F (+∞) ≡ 1.
P (x ∈ [x1 , x2 ]) = F (x2 ) − F (x1 )

Quindi la condizione di normaliz-


zazione
Z risulta soddisfatta:
+∞
f (x)dx = F (+∞)−F (−∞) ≡ 1
−∞

– p. 19/20
FUNZIONE DI DISTRIBUZIONE CUMULATIVA
Z x Probabilità di osservare un valore
F (x) = f (t) dt non superiore ad x. Valgono le re-
−∞
lazioni F (−∞) ≡ 0 e F (+∞) ≡ 1.
P (x ∈ [x1 , x2 ]) = F (x2 ) − F (x1 )

Quindi la condizione di normaliz-


zazione
Z risulta soddisfatta:
+∞
f (x)dx = F (+∞)−F (−∞) ≡ 1
−∞

– p. 19/20
VALORE DI ASPETTAZIONE E VARIANZA

Il valore di aspettazione della variabile x nel caso


continuo
R +∞
E(x) = −∞ x · f (x) dx

– p. 20/20
VALORE DI ASPETTAZIONE E VARIANZA

Il valore di aspettazione della variabile x nel caso


continuo
R +∞
E(x) = −∞ x · f (x) dx

Il valore di aspettazione della variabile g(x) nel caso


continuo
R +∞
E[g(x)] = −∞ g(x) · f (x) dx

– p. 20/20
VALORE DI ASPETTAZIONE E VARIANZA

Il valore di aspettazione della variabile x nel caso


continuo
R +∞
E(x) = −∞ x · f (x) dx

Il valore di aspettazione della variabile g(x) nel caso


continuo
R +∞
E[g(x)] = −∞ g(x) · f (x) dx

La varianza è il valore di aspettazione della variabile


quadrato dell’errore y = [x − E(x)]2 nel caso continuo
R +∞
var(x) = σ2 = −∞ [x − E(x)]2 · f (x) dx

– p. 20/20
VALORE DI ASPETTAZIONE E VARIANZA

Il valore di aspettazione della variabile x nel caso


continuo
R +∞
E(x) = −∞ x · f (x) dx

Il valore di aspettazione della variabile g(x) nel caso


continuo
R +∞
E[g(x)] = −∞ g(x) · f (x) dx

La varianza è il valore di aspettazione della variabile


quadrato dell’errore y = [x − E(x)]2 nel caso continuo
R +∞
var(x) = σ2 = −∞ [x − E(x)]2 · f (x) dx

La deviazione standard o errore quadratico medio è σ .


– p. 20/20