• media e varianza
• una variabile casuale è una variabile che assume un certo valore numerico
determinato dal risultato di un fenomeno casuale
• una variabile casuale continua assume tutti i valori un certo intervallo reale; la
sua distribuzione di probabilità è una curva e la probabilità di un evento è
l’area sottesa da questa curva
variabili casuali discrete e continue
key points
fX(x)
fY(y) = con x = g −1(y)
| g′(x) |

ff
Variabile casuale funzione di un’altra
fX(x)
fY(y) = d
= 1 cioè Y è uniformemente(*) distribuita su [0,1]
• F (x)
dx X
La distribuzione uniforme (*)
1
f(x) = x ∈ [a, b]
b−a
La variabile statistica
(formalmente coincide con una variabile casuale discreta)
• DEF: si dice VARIABILE STATISTICA (a 1 dimensione) una tabella a due righe di valori
numerici; gli elementi della prima riga sono detti valori argomentali, gli elementi della
seconda (che devono essere numeri interi, positivi o nulli) sono le frequenze
n ∑i Ni
∑
Si ha fi = = 1 e fi ≥ 0, quindi si de nisce formalmente una
• N
i=1
distribuzione di probabilità concentrata sui valori {x1, x2, ⋯, xn} ponendo
P(X = xi) = fi le frequenze relative si identi cano con le probabilità
Indici descrittivi di una variabile casuale
• quanto è “simmetrica”? ….
•
Indici descrittivi di una variabile casuale
dove è localizzata la distribuzione? valore atteso - media
+∞
∫−∞
variabile casuale continua E{X} = μX = x f(x)dx
•
n
∑
variabile casuale discreta μX = xi pi
•
i=1
N
N ∑i=1 xiNi
∑
variabile statistica mX = xi fi =
• N
i=1
Indici descrittivi di una variabile casuale
dove è localizzata la distribuzione? valore atteso - media
N i
N
N ∑i=1 xiNi
∑
mX = xi fi =
• N
i=1
•
Notazione
n
3 4 5 6 33
∑
μX = xi pi = + + + =
• 4 2 8 8 8
i=1
• X ∼ Bernoulli( p ) X 0 1 μX = (1 − p) ⋅ 0 + p ⋅ 1 = p
f(x) 1-p p
Indici descrittivi di una variabile casuale
media: dove è localizzata la distribuzione?
1 N
∑
Nel caso di una variabile statistica, mX = xiNi dice che la media della
• N i=1
variabile statistica è la somma di tutti i valori disponibili divisa per la
numerosità della popolazione (Ni è il numero di volte che il valore argomentale
xi è risultato estratto)
Indici descrittivi di una variabile casuale
TEOREMA della MEDIA
+∞
∫−∞
EX{X} = μX = x fX(x)dx
•
+∞ +∞
∫−∞ ∫−∞
EY{Y} = μY = y fY(y)dy = EX{g(X)} = g(x) fX(g(x))dx
•
Indici descrittivi di una variabile casuale
TEOREMA della MEDIA
2 1 1 2 X -2 -1 0 1 2
• μX = − 5 − 5 + 0 + 5 + 5 = 0
f(x) 1/5 1/5 1/5 1/5 1/5
4 1 1 4 X^2 4 1 0 1 4
μ =
• X2 5 5 + + 0 + + =2
5 5
Indici descrittivi di una variabile casuale
media: dove è localizzata la distribuzione?
• OSSERVAZIONE
fl
Indici descrittivi di una variabile casuale
varianza: quanto è dispersa la distribuzione?
+∞
∫−∞
σ 2(X) = (x − μX)2 fX(x)dx per variabili casuali continue
• ∑
i
2
Ni 2
∑
s (X) = (xi − mX) per variabili statistiche
• N
i
fi
Indici descrittivi di una variabile casuale
varianza: quanto è dispersa la distribuzione?
•
Indici descrittivi di una variabile casuale
esercizio
Y -3 3
μY = 0.5 ⋅ 3 + 0.5 ⋅ (−3) = 0
(Y-m)^2 9 9
W 10 20 30 40 50
μW = 30
• μ(X + Y) = μX + μY
• μ(aX + b) = aμX + b
2 2 2
• σ (X + Y) = σX + σY se X e Y sono indipendenti
2 2 2
• σ (aX + b) = a σX
2 2 2
• σ (X) = μ(X ) − μX
Indici descrittivi di una variabile casuale
varianza
• Siano X1, X2, ⋯, Xn variabili indipendenti e tutte con lo stesso scarto quadratico medio
σXi = 2. Quanto vale lo scarto quadratico medio della loro media X ?
n
Xi indipendenti ⟹ σ 2( Xi) = nσ 2(Xi) = 4n
• ∑
i
2 2
X1 + X2 + ⋯ + Xn 1 2 4
∑
σ (X) = σ ( ) = 2σ ( Xi) =
• n n n
i
2
σ(X) = la media di n misure indipendenti varia “meno” della singola misura
• n
Indici descrittivi di una variabile casuale
Teorema di Tchebyche
• Dato un qualunque numero λ > 1, per una qualunque variabile casuale X, che ammette
1
media e varianza nite, vale la diseguaglianza P( | X − μX | ≤ λσX) ≥ 1 −
λ 2
• Il teorema a erma che più è piccolo lo scarto quadratico medio σX, più è piccolo l’intervallo
1
[μX − λσX, μX + λσX] in cui è sicuri di avere una probabilità che al minimo vale 1 − 2 .
λ
• Minore è la varianza minore è la probabilità che X sia lontana dalla sua media.
• La probabilità nell’intervallo
[μ − λσ, μ + λσ] è almeno pari a
1
1 − 2 , ma può ovviamente
λ
essere maggiore.
• (https://stats.libretexts.org/)
f
Teorema di Tchebycheff
esempio
• Si hanno 50 osservazioni
di cui si conosce la media
(28) e lo scarto quadratico
medio (3).
• Quante osservazioni
cadono nell’intervallo
[22,34]?
• Quante osservazioni
esternamente?
• (https://stats.libretexts.org/)
Teorema di Tchebycheff
esempio
1 3
• P > 1 − 22 = 4 = 75 %
• (https://stats.libretexts.org/)
Legge di propagazione della varianza
• OSS: data una variabile casuale X qualsiasi è possibile sempre costruire una
variabile U che abbia media nulla e varianza uguale a 1. Basta porre
X − μX 1 1
U= ; infatti E{U} = E{(X − μX)} = 0 σ (U) = 2 ⋅ σX2 = 1
2
σX σX σX
Indici descrittivi di una variabile casuale
Mediana
1
• P(X ≤ me) = 2 = P(X ≥ me)
me +∞
1
∫−∞ ∫m
Per una variabile casuale continua f(x)dx = f(x)dx =
• 2
e
fi
Indici descrittivi di una variabile casuale
Mediana
• In gura sono illustrate le densità di probabilità di tre variabili casuali (rosso,
nero, blu) in due situazioni (A) e (B).
• α è compreso tra 0 e 1
+∞
∫−∞ ∑
μX = xf(x)dx μX = xi p(xi)
•
i
+∞
∫−∞
σ 2(X) = (x − μ)2 f(x)dx σ 2(X) = (xi − μ)2 p(xi)
• ∑
i
fi
varianza, sqm, standard deviation, RMS
∑
varianza:
i
scarto quadratico medio (s.q.m.): (σ 2(X)) = σX
1
xi2 = μ(X 2)
N∑
root mean square (RMS) = “media quadratica” = ≡
i
per variabili a media nulla RMS = st.dev.
Alcune importanti variabili casuali
• X ∼ Binomiale (n, p)
Alcune importanti variabili casuali
la distribuzione binomiale
• http://www.malinc.se/math/statistics/binomialen.php
Binomiale - esempio
• Durante un esame a risposta multipla con 5 domande e 3 possibili risposte per ogni
domanda, qual è la probabilità che uno studente indovini almeno 4 risposte semplicemente
rispondendo a caso? Qual è il numero medio di risposte indovinate?
• Sia X la variabile casuale che indica il numero di risposte indovinate nelle 5 domande
1
dell’esame. X ha una distribuzione binomiale di parametri n = 5 e p =
3
• P(X ≥ 4) = P(X = 4) + P(X = 5) = 0.0453
1
• Numero medio risposte indovinate = np = 5 ⋅ 3 = 1.667
Alcune importanti variabili casuali
la distribuzione normale (o gaussiana)
1 (x − μ)2
− 2
La sua densità di probabilità è data da fX(x) = e 2σ
• 2πσ
dove μ e σ sono rispettivamente la media e lo scarto quadratico medio.
ff
Alcune importanti variabili casuali
la distribuzione normale (o gaussiana)
1 (x − μ)2
− 2
fX(x) = e 2σ media e varianza de niscono completamente la
• 2πσ
distribuzione ed hanno un particolare signi cato: μ è il polo di simmetria della
funzione densità di probabilità, σ 2 è un indice di dispersione attorno al valor
medio
1 − (x − 2μ)
2
fX(x) = e 2σ
2πσ
Alcune importanti variabili casuali
la distribuzione normale (o gaussiana)
• nell’intervallo (μ − σ, μ + σ) ∼ 68%
X − μX
• Si considera quindi la variabile standardizzata Z = σX della quale sono
disponibili i risultati in tabelle.
• Z∼ (0,1)
𝒩
Alcune importanti variabili casuali
la distribuzione χ 2
• μ(χν2) = ν, σ 2(χν2) = 2ν
ν
χν2 =
• ∑ i
i=1
𝒵
Alcune importanti variabili casuali
la distribuzione t di Student
t2 ν + 1
πνΓ( 2 ) (1 + ν ) 2
2 ν
• si dimostra che μ(t) = 0; σ (t) =
ν−2
• si può dimostrare che la t di Student è pari al rapporto tra due variabili casuali indipendenti:
una normale standardizzata ed la radice di una χ 2 su i suoi gradi di libertà t =
χν2
ν
𝒵
Alcune importanti variabili casuali
la distribuzione t di Student
x=-10:.01:10
y1=tpdf(x, 1)
y2=tpdf(x, 5)
y3=tpdf(x, 10)
y4=tpdf(x, 50)
plot(x,y1, x, y2, x, y3, x, y4
title('densità di probabilità’
legend('k=1','k=5','k=10','k=50'
;
Γ( 2 )Γ( 2 ) (λF + ν) 2
2
ν 2 2ν (λ + ν − 2)
• si dimostra che μ(Fλ,ν) = ν − 2 ; σ (Fλ,ν) =
λ(ν − 2) (ν − 4)
2
• https://homepage.divms.uiowa.edu/~mbognar/applets/f.html
Alcune importanti variabili casuali
la distribuzione uniforme (continua)
1
f(x) = ∈ [a, b]
b−a
a+b
μX =
2
2
(b − a)
σX2 =
12
La probabilità su un intervallo qualunque contenuto in [a, b] è
proporzionale alla lunghezza dell’intervallo.
Alcune importanti variabili casuali
la distribuzione uniforme (continua)
1 1
f(x) = 1 x ∈ [0,1] μX = σX2 =
2 12
Se X è uniforme su [0,1], allora Y =: a + (b − a)X è
uniforme su [a, b]
• parte del materiale è stato tratto da MIT OpenCourseWare https://ocw.mit.edu 18.05 Introduction
to Probability and Statistics Spring 2014