Sei sulla pagina 1di 27

Definizioni 2021

Definizione 1 Esperimento probabilistico


Ogni atto, o processo, naturale o artificiale, il cui risultato, non sia deterministico e che sia
ripetibile.
Definizione 2 Spazio campionario
Esso è un insieme (in senso matematico) contenente i possibili esiti di un esperimento
probabilistico.
Definizione 3 Eventi
Gli eventi sono i sottoinsiemi di Ω.
Definizione 4 eventi elementari
Sono i punti di Ω
Definizione 5 Eventi incompatibili
Due eventi si dicono incompatibili se sono insiemi disgiunti
Definizione 6 Complementare di un insieme
L'insieme A C detto A complementare corrisponde a "tutto ciò che si trova in Ω, ma non in
A.
Perciò A C = Ω ∖ A
Definizione 7 evento implica un altro
Se B è un evento incluso in A: B ⊂ A
Allora diremo che B implica A, cioé il verificarsi di B implica il verificarsi di A.
Definizione 8 Classica di Probabilità
Questa definizione si applica a situazioni in cui lo spazio campionario è di dimensione
finita.
Consideriamo A ⊂ Ω un evento.
La probabilità dell'uscita di A come esito di un esperimento probabilistico, cioé la
probabilità
del verificarsi di A (cioé la probabilità di A) è definita come
#A
P(A) =

a patto che gli eventi elementari siano equiprobabili.
Definizione 9 geometrica di probabilità
Area(g)
P("P ∈ g") =
Area(G)
Definizione 10 Permutazioni
Abbiamo una sequenza di n ≥ 1 elementi distinti
(1, 2, 3,......., n)
Rappresentato con parentesi tonde per far intendere come sia una sequenza ordinata.
L'operazione consiste nell'alterare l'ordine della sequenza di questi n oggetti distinti e
contare quante siano le possibili sequenze.
Indico ora con Π n = #permutazioni di n elementi distinti.
Allora Π n = n ⋅ (n - 1) ⋅ (n - 2) ⋅…⋅ 3 ⋅ 2 ⋅ 1 = n!
Definizione 11 Disposizioni
Cosideriamo un insieme di n ≥ 1 elementi distinti.
Estraiamo dagli n elementi distinti, delle sequenze ordinate di una certa lunghezza k ≤ n.
Si può anche dire costruisco una sequenza ordinata di lunghezza k.
(◻, ◻, ◻, …, ◻)
⏠⏣⏣⏣⏣ ⏡⏣⏣⏣⏣
k elementi ⏢
D n,k = #sequenze ordinate di k elmenti scelti dagli n disponibili
n!
D n,k =
(n - k)!
Definizione 12 Disposizioni con ripetizione
Abbiamo un insieme con n ≥ 1 elementi distinti.
Voglio comporre sequenze ordinate, di lunghezza k, ma ammettendo la ripetizione degli
elementi nella sequenze composte.
D'n,k = #sequenze ordinate scegliendo k elementi dagli n con ripetizione
D'n,k = n k
Definizione 13 Combinazioni
Insieme di n ⩾ 1 elementi distinti.
L'obbiettivo è ora sotruire degli insiemi di dimensione k ⩽ n (senza ripetizione).
La sostanziale differenza è che non importa l'ordinamento.
C n,k = #combinazioni di n elementi distinti a gruppi di k (di classe k) senza ripetizione =
n! n
= =
k!(n - k)! k
Definizione 14 combinazioni con ripetizione
Abbiamo n elementi distinti dai quali vengono estratti k ∈ N * elementi con ripetizione.
Definiamo
'
C n,k = #combinazione con ripetizione di n ⩾ 1 elementi distinti di classe k
n+k-1 ( n + k - 1) !
= =
k k!(n - 1)!
Definizione 15 A. N. Kolmogorov 1933, definizione assiomatica della probabilità
Teoria che si basa sulla teoria degli insiemi.
Prima andiamo a vedere un insieme di definizioni prima di poter dare questa definizione.
Definizione 16 Algebra
Sia F una famiglia di sottoinsiemi del nostro insieme di Ω. (Cioé un isieme di
sottonsiemi).
Diremo che F è un'algebra se:
1. Ω ∈ F
2. ∀ A ∈ F ⟹ A C ∈ F proprietà di chiusura rispetto alla
⏦ di Ω
sottinsieme
complementazione
3. ∀A, B ∈ F ⟹ A ∪ B ∈ F proprietà di chiusura rispetto all'unione finita
Unione finita perché se avessi 3 insiemi unisco i primi due che appartengono all'algebra e
poi il risultato lo unisco al terzo cosicché il risultato appartenga all'algebra
Definizione 17 sigma algebra: � - Algebra
Sia F una famiglia di sottoinsiemi del nostro insieme di Ω.
Chiameremo F �-algebra se:
1. Ω ∈ F
2. ∀ A ∈ F ⟹ A C ∈ F proprietà di chiusura rispetto alla
⏦ di Ω
sottinsieme
complementazione
3. consideriamo una successione o sequenza o collezione di elementi di F (quindi di
sottonsiemi di �.

La successione si indicherà con (A n ) n=1 / A i ∈ F ∀i = 1, … , ∞

⟹ ⋃ Ai ∈ F proprietà di chiusura rispetto all'unione numerabile.
i=1

Definizione 18 � - algebra generata da una collezione arbitraria di sottoinsiemi di Ω


Sia C una collezione arbitraria di sottoinsiemi di Ω.
Si considerino tutte le possibili � - algebre su Ω che contengono C.
Questo insieme di � - algebre che sto cercando esiste sempre perché l'insieme di
potenza
P(Ω) contiene sicuramente C.
la loro intersezione è ancora una � - algebra (per proprietà precedente) ed è la più
piccola
� - algebra che contiene C (perché sto facendo l'intersezione).
Questa � - algebra, denotata �(C) viene chiamata � - algebra generata da C.
Definizione 19 Evento
Chiameremo eventi gli elementi di una � - algebra.
Definizione 20 spazio misurabile
La coppia (Ω, F) dove F è una � - algebra costruita su Ω è detta spazio misurabile.
Definizione 21 Spazio campionario di Bernoulli

Ω = � = (� 1 , � 2 , � 3 , … ) , � i ∈ { 0, 1 }, i ∈ N *
A parole: lo spazio campionario di Bernoulli è l'insieme delle sequenze o successioni
infinite
binarie.
Definizione 22 Borelliani di R
Essi sono infatti gli elementi della � - algebra dei Borelliani di R, cioè gli insiemi aperti di
R.
Definizione 23 � - algebra dei Borelliani
Sia G = "famiglia degli insiemi aperti R"

(a, b) , ∈ R, a < b.
Definisco �(G) come la � - algebra dei Borelliani di R e la indico come �(R) oppure B R
Definizione 24 A. N. Kolmogorov 1933, definizione assiomatica della misura di
probabilità
Dato uno spazio misurabile (Ω, F).
Sia una funzione di insieme
P:F→R
P agisce sui sottonsiemi di Ω ergo sugli elementi di F.
Se essa è tale che:
1. ∀A ∈ F , P(A) ⩾ 0
2. P(Ω) = 1

3. (A n ) n=1 ⊂ F successione di eventi / A i ∩ A j = � ∀i ≠ j
assiomi della probabilità
∞ ∞
⟹ P ⋃ i=1 A i = ∑ i=1 P(A i )
⏠⏣⏣⏣⏣⏣ ⏡⏣⏣⏣⏣⏣
�-additività ⏢
è detta funzione di probabilità
Definizione 25 continuità
Consideriamo uno spazio misurabile (Ω, F) e consideriamo una funzione:
Π:F→R

Diremo che Π è continua se ∀ (A n ) n=1 ⊂ F dotata di limite si ha:
questo viene
applicato ad
un elemento
di F
⏜⏟⏟
⏝⏟⏟

lim Π(A n ) = Π lim A n
n → +∞ ⏠⏣⏣ ⏡⏣⏣ ⏢ n → +∞
assume
valore
bn ∈R
Definizione 26 successione di insiemi crescente

Consideriamo una successione di insiemi (C n ) n=1
Diremo che (C n ) n è crescente se:
∀i C i ⊂ C i+1
Definizione 27 limite per una successione di insiemi crescente
+∞
lim C n = ⋃ Ci ∈F
n → +∞ n=1
⏠⏣⏣
⏡⏣⏣

questa grandezza ha senso perché i C i
appartengono a F che è chiusa rispetto
alla unione numerabile
Quindi il limite per una successione crescente di insiemi e l'unione di essi.
Definizione 28 successione di insiemi decrescente

Consideriamo una successione di insiemi (D n ) n=1 ⊂ F.
Diremo che (D n ) n è decrescente se:
∀i D i ⊃ D i+1
Definizione 29 limite per una successione di insiemi decrescente
+∞
lim D n = ⋂ Dn ∈F
n → +∞ n=1
⏠⏣⏣⏣ ⏡⏣⏣⏣ ⏢
questa grandezza ha senso perché i D i
appartengono a F che è chiusa rispetto
alla intersezione numerabile
(per le leggi di De Morgan)

Definizione 30 limite inferiore di una successione di insiemi



Data la succesione di eventi (A n ) n=1 ⊂ F definiamo:

lim inf A n = { � ∈ Ω / ∃ n ⏨} = ⋃ ⋂ A k
⏨/ � ∈ A k , ∀k ⩾ n
n → +∞
n=1 k⩾n

Definizione 31 limite superiore di una successione di insiemi



Data la succesione di eventi (A n ) n=1 ⊂ F definiamo:
+∞
lim sup A n = { � ∈ Ω / ∀n ∃k ⩾ n / � ∈ A k } = ⋂ ⋃ A k
n → +∞
n=1 k⩾n

Definizione 32 limite di una successione di insiemi



La successione (A n ) n=1 ammette limite quando:
lim inf A n = lim sup A n = A
n n
E scriveremo:
lim A n = A
n → +∞
Definizione 33 eventi indipendenti
Sia (�, F, P) uno spazio di probabilità.
Consideriamo due eventi: A, B ∈ F
Allora A,B si dicono indipendenti se
P(A ∩ B) = P(A) ⋅ P(B)
⏠⏣⏣⏣ ⏡⏣⏣⏣ ⏢
probabilità che si verifichino entrambi

Definizione 34 evento certo


Sia (�, F, P) uno spazio di probabilità.
Ω viene denominato evento certo.
Definizione 35 evento impossibile
Sia (�, F, P) uno spazio di probabilità.
� viene denominato evento impossibile.
Definizione 36 evento quasi-certo
Sia (�, F, P) uno spazio di probabilità.
Consideriamo A ∈ F / P(A) = 1
A viene denominato evento quasi-certo
Definizione 37 evento quasi-impossibile
Sia (�, F, P) uno spazio di probabilità.
Consideriamo B ∈ F / P(B) = 0
A viene denominato evento quasi-impossibile.
Definizione 38 indipendenza due a due (pairwise independence)

Sia una successione di eventi (A n ) n=1 . Su uno spazio di probabilità (�, F, P).
Diciamo che gli eventi della successione sono indipendenti "due a due" se:
A i ∩ A j = P(A i ) ⋅ P(A j ) i≠j
Definizione 39 mutua indipendenza (indipendenza collettiva)

Data una collezione o successione di eventi (A n ) n=1 nello spazio di probabilità (�, F, P).
Gli eventi della collezione si dicono "mutualmente indipendenti" o "collettivamente
indipendenti" se:
∀k, ∀(i 1 , … , i k ) la P(A i1 ∩ A i2 ∩ A ik ) = P(A i1 )P(A i2 ) ⋅…⋅ P(A iK )
Definizione 40 probabilità condizionata
Sia (�, F, P) uno spazio di probabilità e siano A, B ∈ F / P(B) > 0
Definiamo la "probabilità condizionata di A dato B" come:
P(A ∩ B)
P(A|B) = = PB (A)
P(B)
Definizione 41 funzione misurabile
Siano (A, A) e (E, E) due spazi misurabili.
La funzione:
f:A→E
è detta misurabile se:
∀C ∈ E la controimmagine f -1 (C) ∈ A
Definizione 42 variabile aleatoria
Sia (�, F, P) uno spazio di probabilità. Una funzione:
X : Ω → E, dove (E, E) è uno spazio misurabile
viene denomianta variabile aleatoria (V.A.) a valori in E se X è una funzione misurabile.
Definizione 43 distribuzione di una Variabile Aleatoria
La misura di probabilità P X viene chiamata "distribuzione di X" ("Legge di X").
Definizione 44 Variabili aleatorie identicamente distribuite
V.A. differenti possono indurre la stessa distribuzione sullo spazio di arrivo, in questo caso
queste due variabilli aleatorie sono "identicamente distribuite".
Definizione 45 funzione di distribuzione (funzione di ripartizione)
Sia X una V.A. a valori in R. La funzione:
R → [0, 1]
FX :
x → P(X ⩽ x)
viene detta "funzione di distribuzione di X".
Definizione 46 variabile aleatoria degenere
La variabile X : Ω → R / X(�) = c ∈ R ∀� ∈ Ω
Viene denominata "variabile aleatoria su c".
Definizione 47 variabile aleatoria discreta
Sia X una variabile aleatoria a valori in R.
X si dice "discreta" se ∃ S ⊂ R finito o numerabile tale che:
1. l'evento { X ∈ S } è quasi certo. (q.c.)
2. ∀x ∈ S, P(X = x) > 0
Definizione 48 supporto
L'insieme S viene denominato supporto di X o anche spettro di X.
Definizione 49 V.A. di Bernoulli
Lo spazio campionario sarà sempre:
Ω = { successo, fallimento }
Si baserà sullo spazio di probabilità di partenza:
(�, F, P)
la variabile aleatoria di Bernoulli è così definita:
Ω → R
X successo → 1
fallimento → 0
Esso individuerà lo spazio di probabilità di arrivo:
(R, B (R), PX )
Fissiamo le probabilità:
P({ successo }) = p
P({ fallimento }) = 1 - p = q
PX ({ 1 }) = p
PX ({ 0 }) = 1 - p
Scriviamo adesso il supporto:

S= 0 , 1

x1 ⏦x2

Essa si scrive:
X ∼ Be(p)
Definizione 50 V.A. Binomiale
La binomiale è "parente" della Bernoulli.
• E' una variabile aleatoria discreta.
• Consideriamo prove indipendenti ripetute di tipo Bernoulliano
Lo spazio campionario sarà:
Ω = { � = (� 1 , � 2 , … , � n ), � i ∈ { successo = s, fallimento = f }
#Ω finita
� - algebra F = P(Ω)
La variabile aleatoria binomiale X è definita così:
Ω → R
"n° di successi n
X:
� ⇝ X(�) = ottenuti nelle = ∑ 1 { s } (� i )
n prove" i=1

Il supporto S di X è:
S = { 0, 1, 2, … , n }
La densità discreta è:
n
P(X = k) = p k ⋅ (1 - p) n-k ⋅ , k ∈ S = { 0, 1, … , n }
k
La indichiamo come:
X ∼ BIN(n, p)
Definizione 51 funzione indicatrice
La funzione:
A → N
1B : x ∈ B → 1
x∉B → 0
Viene detta funzione indicatrice.
La funzione indica se x appartiene a B o meno.
La variabile aleatoria binomiale funziona così: lancio la moneta n volte e conto il numero
di
successi.

In termin di spazi essa agisce fra gli spazi:


X
(�, F, P) ⏪⏫ (R, B(R), � X )
Definizione 52 Variabile aleatoria geometrica
• schema di prove ripetute indipendenti Bernoulliane
• le prove sono ripetute fino all'ottenimento del primo successo
Considero lo spazio campionario Ω, lo spazio Bernoulliano delle sequenze binarie di
lunghezza infinita.
Sia:
X → R
"n° di prove necessario
X:
� → X(�) = ad ottenre il primo
successo"
Sia p la probabilità di successo nella prima prova.
Diremo che X è una V.A. geometrica.
X ∼ GE(p)
Il supporto è:
S = { 1, 2, 3, … } = N *
La densità discreta è:
P(X = k) = p(1 - p) k-1 , k = 1, 2, 3, …
Definizione 53 Variabile Aleatoria Binomiale Negativa
• Schema di prove ripetute indipendenti di tipo Bernoulliano
• Spazio campionario Bernoulliano con le sequenze infinite
Sia:
X → R
"n° di prove necessario
X:
� → X(�) = ad ottenere l'r-esimo
successo"
Fisso un numero r e mi chiedo quale sia il numero di prove necessarie ad ottenre l'r-
esimo
successo,
r = 1, 2, 3, …
Sia poi p la probabilità di successo nella singola prova:
Chiameremo X Binomiale Negativa e scriveremo:
X ∼ NBIN(r, p)
Il supporto sarà:
S = { r, r + 1, r + 2, … }
La densità discreta di X è la seguente:
k-1
P(X = k) = p r ⋅ (1 - p) k-r ⋅ , k∈S
r-1
Definizione 54 funzione di distribuzione congiunta
La funzione di distribuzione congiunta delle V.A. X e Y è definita come:
F (X,Y) (x, y) = P(X ⩽ x, Y ⩽ y), ∀x, y ∈ R
Essa si può anche dire Funzione di distribuzione del vettore (X,Y).
Definizione 55 componenti indipendenti di un vettore aleatorio
Le componenti del vettore aleatorio (X,Y) si dicono indipendenti se:
P(X ⩽ x, Y ⩽ y) = P(X ⩽ x)P(Y ⩽ y), ∀x, y ∈ R
Definizione 56 funzione di distribuzione marginali
Data una funzione di distribuzione congiunta di un vettore aleatorio (X,Y), la funzione di
distribuzione:
F X (x) = P(X ⩽ x)
è detta funzione di distribuzione marginale.
Definizione 57 marginalizzazione
L'operazione che permette di ricavare la funzione di distribuzione marginale di una
componente di un vettore aleatorio, a partire dalla funzione di distribuzione congiunta del
vettore stesso, è detta marginalizzazione.
Definizione 58 funzione di densità discreta congiunta
La densità discreta del vettore (X,Y) è definita come:

P(X = x i ) = ∑ P(X = x i , Y = y j )
j

Definizione 59 Variabile aleatoria Ipergeometrica


La variabile aleatoria che conta il numero di persone k che presentano una caratteristica

tra le n estratte da una popolazione di N persone nella quale S persone presentano la
caratteristica �.
Essa avrà supporto:
S = { 0, 1, 2, … , n }
Essa avrà densità discreta:
S N-S
k n-k
P(X = k) =
N
n
Essa si indicherà come:
X ∼ IPERGE(n, N, S)
Definizione 60 variabile aleatoria di Poisson
La Poisson è un'approssimazione di una binomiale relativa ad un essperimento che
richiede
svariate prove con probabilità di successo bassa, per questo essa è anche detta legge
degli
eventi rari.
Essa avrà supporto:
S = { 0, 1, 2, … , n }
Essa avrà densità discreta:
�k
P(X = k) = e -�
k!
Essa si indicherà come:
X ∼ PO(�)
Definizione 61 convoluzione delle componenti aleatorie
La formula:

P(U + V = z) = ∑ p 1 (z - v)p 2 (u)


v
è detta convoluzione delle densità discrete delle variabili aleatorie marginali indipendenti
che
compongono il vettore dato.
Definizione 62 Valore Atteso
Sia X una V.A. discreta e quasi certamente positiva (P(X ⩾ 0) = 1)
Il valore atteso EX della V.A. X, la quale ha supporto S = { x 1 , x 2 , x 2 , … } è:
+∞
EX = ∑ x i P(X = x i )
i=1 ⏠⏣⏣⏣ ⏡⏣⏣⏣
pesate ⏢
Definizione 63 Variabile aleatoria integrabile
Se:
V.A. q.c.
positiva
⏜⏟⏟
⏝⏟⏟

E|X| < + ∞
Allora X si dice integrabile.
Definizione 64 momento
Sia X una V.A. a valori reali. Diremo che X ammette momento di ordine
k , k = 1, 2, 3, … se X k è integrabile. Lo indicheremo con:
EX k , k = 1, 2, 3, …
Definizione 65 varianza
Chiameremo Varianza il momento centrato di ordine 2:
VarX = E(X - EX) 2
Definizione 66 covarianza

Cov(X, Y) = E[(X - EX)(Y - EY)]


Definizione 67 funzione generatrice dei momenti
Sia X una V.A. unidimensionale a valori reali.
La funzione generatrice dei momenti m X (t) : R → R
è tale che:
m X (t) = Ee tX per tutti i valori di t per cui il valore atteso è finito
Questa è una funzione deterministica, non c'è niente di aleatorio in quanto legata al
calcolo
del valore atteso.
Essa dipende però anche dalla variabile t, il che definisce una funzione.
Definizione 68 funzione convessa
Abbiamo una funzione φ definita su un intervallo, è convessa se:

� px 1 + (1 - p)x 2 ⩽ p�(x 1 ) + (1 - p)�(x 2 ) p ∈ [0, 1]


(1)
⏠⏣⏣⏣ ⏡⏣⏣⏣
combinazione ⏢
convessa

Per comodità possiamo chiamare p 1 = p , p 2 = (1 - p)


Riscriviamo (1)
�(p 1 x 1 + p 2 x 2 ) ⩽ p 1 �(x 1 ) + p 2 �(x 2 ) p 1 , p 2 ∈ [0, 1] ∧ p 1 + p 2 = 1
Definizione 69 media empirica
Sia (X n ) n una successione di VV.AA. I.I.D.
La grandezza:
n
1

Xn = ∑ Xi
n i=1
è detta media empirica.
Definizione 70 variabile aleatoria assolutamente continua
Una V.A. X unidimensionale, a valori in R si dice "assolutamente continua" se ∃ una
funzione f
f:R→R
integrabile e tale che:
x
P(X ⩽ x) = F X (x) = ∫ f(x)dx
-∞

Definizione 71 supporto di una variabile aleatoria assolutamente continua


Consideriamo S ⊆ R tale che:
P(X ∈ S) = 1 , f(x) > 0 ∀x ∈ S
Cioè quel sottoinsieme di R dove la densità di probabilità della V.A. è strettamente
positiva.
Chiameremo S il supporto della Variabile Aleatoria X.
Definizione 72 variabile aleatoria esponenziale
Sia X una V.A. assolutamente continua tale che:

�e -�x x > 0
f X ( x) = �>0
0 altrove
X ∼ EXP(�)
Facciamo vedere come è fatto il grafico:
f X ( x)

⏠⏣⏣⏣⏣⏣⏣⏣⏣⏣⏣⏣⏣⏣⏣ ⏡⏣⏣⏣⏣⏣⏣⏣⏣⏣⏣⏣⏣⏣
in questa zona i punti hanno probabilità strettamente positiva anche se molto piccola nella coda

Come è fatto il supporto:


S = R+
La funzione di distribuzione è:
x
F X (x) = ∫ f X (t)dt
-∞
Ovviamente questo dipende dal valore di x.
Se x < 0 questo è l'integrale di 0
x x
F X (x) = ∫ f X (t)dt = ∫ 0 dt = 0 (2)
-∞ -∞

Se x > 0
x x
F X (x) = ∫ f X (t)dt = ∫ f X (t)dt + ∫ f X (t)dt =
0

-∞ -∞ 0
⏠⏣⏣⏣
=0 per⏡⏣⏣⏣
quanto⏢
visto in (35)
x x
= ∫ f X (t)dt = ∫ �e -�t
dt = 1 - e -�x
0 0
Quindi:

1 - e -�x x > 0
F X ( x) =
0 altrove
Definizione 73
La V.A. X = (X 1 ,........., X n ) , n ∈ N * è assolutamente continuo se la sua funzione di
distribuzione (congiunta) ammette densità:
F X (x) = P(X1 ⩽ x 1 , X2 ⩽ x 2 , … , Xn ⩽ x n ) x = (x 1 , … x n )
x1 xn
= ∫ … ∫ f X (t 1 , … , t n ) dt 1 ⋅ dt 2 ⋅…⋅ dt n
-∞ -∞

Definizione 74 V.A. asslutamente continua integrabile


Da X V.A. unidimesionale assolutamente continua e quasi certamente positiva con
densità
fX .
La V.A. X si dice integrabile se e solo se:
+∞
∫-∞ |x|f X (x)dx < + ∞

Definizione 75 valore atteso di una V.A. assolutamente continua


Se X è un V.A. assolutamente continua quasi certamente positiva integrabile
In tal caso:
+∞
EX = ∫ xf X (x)dx
-∞

Definizione 76 valore atteso V.A. assolutamente continua a valori reali


Sia X una V.A. assolutamente continua a valori reali allora:
finita se parte positiva e nagativa sono integrabili
±∞ nel caso in cui uno dei due valori attesi sia ∞
EX = EX + - EX - =
nel caso la parte positiva o la parte

negativa non siano integrabili
Definizione 77 V.A. Normale (Gaussiana)
Una V.A. è distribuita come una normale standard N 0, 1 se ha funzione di densità:
⏠⏣⏣⏡⏣⏣

parametri
x2
-
e 2
f X ( x) = , x∈R
2�
La parte quadrettata è detta coefficiente di normalizzazione.

1
2�

Definizione 78 funzione generatrice dei momenti di una V.A. normale


Sia

X ∼ N �, � 2 , � ∈ R , � 2 ∈ R +
Allora:
�2t2
�t+
m X (t) = e 2

Di conseguenza se
X ∼ N(0, 1)
Allora:
t2
m X (t) = e2
Definizione 79 Funzione gamma: �
Sia
+∞
Γ : R + → R + / Γ(�) = ∫ x �-1 e -x dx con � > 0
0
Definizione 80 V.A. gamma
Sia � > 0 , � > 0
Diremo che
X ∼ Ga(�, �)
Se

��
f X ( x) = x �-1 e -�x , x > 0
�(�)
0 , x<0
Definizione 81 chi-quadrato (� 2 ) con n gradi di libertà
Consideriamo il seguente caso particolare:

n 1
X∼� , , n ∈ N*
2 2
In questo caso diremo che X si distribuisce come un "chi-quadrato" (� 2 ) con n gradi di
libertà e scriveremo:
X ∼ � n2
Definizione 82 V.A. complessa

Z = Z 1 + iZ 2
E' una V.A. definita su di uno spazio di probabilità (�, F, P) a valori in C è una V.A.
complessa se e solo se: Z 1 e Z 2 sono VV.AA. a valori reali.
Definizione 83 funzione caratteristica
Sia X una V.A. a valori reali in R d , d ⩾ 1
Chiameremo funzione caratteristica
prodotto
scalare
⏜⏟⏟⏟
⏝⏟⏟⏟

� : R d → C / �(�) = Ee i < �, X >
Definizione 84 convergenza in probabilità
Sia una (X n ) n successione di VV.AA. a valori in R
Diremo che (X n ) n converge in probabilità alla V.A. limite X se:
n → +∞
∀ � > 0 , P |Xn - X| > � ⏪⏪⏪⏫ 0
⏠⏣⏣⏣ ⏡⏣⏣⏣
evento E�,n ⏢

Quindi ho una successione di probabilità (di numeri tra 0 e 1) di cui voglio studiare la
convergenza.
Equivalentemente:
n → +∞
∀ � > 0 , P(|Xn - X| < �) ⏪⏪⏪⏫ 1
E scriveremo:
P
Xn ⏪⏫ X
La V.A. limite può essere anche degenere, cioè essere un valore, come nella legge dei
grandi numeri nella quale la media empirica converge al valore atteso.
Definizione 85 convergenza quasi certa
Sia una (X n ) n successione di VV.AA. a valori in R.
Diremo che (X n ) n converge quasi certamente alla V.A. limite X se:
n → +∞
P � ∈ Ω / Xn (�) ⏪⏪⏪⏫ X(�) =1

Cioè l'insieme degli elementi per cui c'è la convergenza è una insieme quasi certo (di
probabilità 1).
Scriveremo:
q.c.
Xn ⏪⏪
⏫X
La V.A. limite può essere anche degenere, cioè essere un valore, come nella legge dei
grandi numeri nella quale la media empirica converge al valore atteso.
Definizione 86 convergenza in distribuzione
Sia una (X n ) n successione di VV.AA. a valori in R.
Diremo che (X n ) n converge in distribuzione (o in legge) alla V.A. limite X se:
lim F Xn (x) = F X (x) ∀ punto x di continuità di F X
n → +∞
E scriveremo:
d
Xn ⏪⏫ X
La V.A. limite può essere anche degenere, cioè essere un valore, come nella legge dei
grandi numeri nella quale la media empirica converge al valore atteso.
Definizione 87 deviazione standard

Var = deviazione standard


Definizione 88 normalizzazione
Sia una V.A. X, sottrarre per il suo valore atteso e dividere per la sua variazione standard
si
dice normalizzazione.
X - EX
VarX
Definizione 89 media campionaria
E' essenzialmente la media empirica
⏨n
X ⏨n
X
media empirica media campionaria

Definizione 90 campione casuale


Sia n ∈ N * fissato. Consideriamo un vettore aleatorio
X = (X1 ,........., Xn ) , n ∈ N *
Con componenti I.I.D.
discreta
Con densità o f( ∙ ; �).
continua
Chiameremo il vettore X campione casuale di taglia n estratto da una popolazione X (che
non è una componente del vettore, ma è una V.A. esterna) con densità f( ∙ ; �)

Il campione casuale è un vettore aleatorio relativamente semplice perchè formato da


componenti I.I.D.

Il nostro � è il vettore dei parametri (nella V.A. ipergeometrica abbiamo 3 parametri per
esempio).
f( ∙ ; �) è la densità della V.A.
Definizione 91 V.A. genitrice
La X è detta V.A. genitrice.

Il campione casuale avrà le sue realizzazioni (cioè il risultati dell'esperimento)


x = (x 1 , x 2 , … , x n )

In probabilità abbiamo sempre pensato a questa cosa, ma adesso la formalizziamo.

Realizzare una V.A. significa estrarre dei valori dal suo supporto.
Definizione 92 modello statistico
Sia X una popolazione di un campione casuale caratterizzata da una densità f( ∙ ; �).
Sia X il supporto di X = (X 1 ,........., X n ), naturalmente X ⊂ R n .
Allora la famiglia di densità di probabilità, parametrizzata dal vettore dei parametri �,
F = { f( ∙ ; �) , � ∈ � } , con � detto "spazio dei parametri", è detta "modello statistico".
Definizione 93 spazio dei campioni
Il supporto di X = (X 1 ,........., X n )
S X=(X1 ,.........,Xn ) = X = {(x 1 , … , x n ) / x i ∈ S X , ∀i ∈ { 1, … , n }}
Esso viene denominato spazio dei campioni.
Definizione 94 statistica
Sia X = (X 1 ,........., X n ) un campione casuale e consideriamo una funzione
g(X = (X1 ,........., Xn ))
borel-misurabile. Se l'espressione funzionale di g(X) non dipende da � allora viene
denominata statistica.
Definizione 95 momento campionario k-esimo
Sia X = (X 1 ,........., X n ) un campione casuale estratto da una popolazione X con densità
in
f( ∙ ; �).
Il "momento campionario k-esimo" è definito come:
n
1
Mk = ∑ Xik , k ∈ N*
n i=1
Denotazione 96 momento k-esimo della popolazione
Denotiamo con
� k = EX k
Il momento k-esimo della popolazione
Definizione 97 varianza campionaria
Sia X = (X 1 ,........., X n ) un campione casuale di taglia n estratto da una popolazione X
con
densità f( ∙ ; �).
Definiamo "varianza campionaria" la quantità (che è una statistica)
n
1
2
S = ∑ (X i - ⏨
X n)2
n - 1 i=1
Definizione 98 varianza campionaria non corretta
La grandezza
n-1
S2
n
è detta varianza campionaria non corretta (o non distorta).
Definizione 99 Stimatore di �
Quando è usata per stimare il vettore dei parametri � della distribuzione della
popolazione,
la media empirica ⏨
X n è detta stimatore di �
Definizione 100 stima
Lo stimatore realizzato viene denominato stima.
Definizione 101 Metodo dei momenti
Sia X = (X 1 ,........., X n ) campione casuale estratto da una popolazione con densità
definita
da f( ∙ ; �)
�1
�2
Con � =
.
.
.
�k
Adesso considero i momenti della popolazione:
� r = EX r , r ∈ N *
In senso generale sono momenti che si riferiscono al campione casuale.
Siccome sono calcolati a partire dalla densità della popolazione allora sono in generale
funzione di
�1 , �2 , … �k
� r = � r (� 1 , … , � k )
E consideriamo anche i momenti campionari:
n
1
Mr = ∑ Xir , r ∈ N*
n i=1
Ora io potrei collegare queste due quantirà, perciò costruiamo delle equazioni che
coinvolgano i momenti � r della popolazione e i momenti campionari M r

� r (� 1 , … , � k ) = M r , r = 1, … , k

La soluzione del sistema sarà un vettore di k VV.AA.;


(T 1 , … , T k )
Questo sarà un vettore di stimatori (dei momenti) per (� 1 , … , � k )
Denotazione 102

Lo stimatore per il parametro � viene spesso denotato come �

2 2
Lo stimatore per il parametro � viene spesso denotato come �
Definizione 103 funzione di verosimiglianza
La funzione di verosimiglianza di un campione casuale di taglia n è la funzione di densità
congiunta:
L(�) = f (X1 ,…,Xn ) (x 1 , … x n ; �)
Considerata come funzione dei paramteri �.
in particolare:
n
L(�) = ∏ f X (x i ; �)
i=1

Definizione 104 stimatore di massima verosimiglianza


Sia � unidimensionale.
Sia
L(�) = L(� ; x 1 , … , x n )
La funzione di verosimiglianza relativa al campione casuale X = (X 1 ,........., X n )
Sia:

� = �(x 1 , … x n )
Il valore di � ∈ � che massimizza L(�)
Allora:

� ML = �(X1 , … Xn )
è denominato stimatore di massima verosimiglianza per �.
Definizione 105 funzione di log-verosimiglianza
Sia una funzione di verosimiglianza:
n
L(�) = ∏ f X (x i ; �)
i=1
Immaginiamo di applicare un logaritmo:
n n
log L(�) = log ∏ f X (x i ; �) = ∑ log f X (x i ; �)
i=1 i=1

Definizione 106 correttezza (non distorsione)


Uno stimatore T = g(X 1 , … , X n ) funzione del campione casuale e del parametro � è
detto corretto se:
ET = �
Definizione 107 distorsione
La quantità b(T) = ET - � è denominata distorsione di T.
Definizione 108 errore quadratico medio (mean square error)
Sia T uno stimatore per il parametro �. Definiamo errore quadratico medio la quantità:
MSE(T) = E(T - �) 2
Definizione 109 chi-quadrato con n gradi di libertà
Una V.A. Y si dice distribuita come chi-quadrato con p > 0 gradi di liberà Y ∼ � p2 se ha
funzione di densità:
p 1
1 -1 - y
p y e 2
2 , y>0
f Y ( y) = 22�
p
2
0 , altrove
Quindi eprimendo con la indicatrice:
p 1
1 -1 - y
f Y ( y) = p y e 2 1
2
(0,+∞) (y)
p
22� 2

Definizione 110 T di student


T V.A. unidimensionale a valori reali assolutamente continua è una T di Student con
p>0
gradi di libertà (T ∼ t p ) se la funzione di densità di probabilità è:
p+1
� 2 1 1
f T (t) = ⋅ ⋅ p+1
, t∈R
p
� 2
p� 2
t2
1+ p

Definizione 111 Variabile aleatoria di Cauchy


T ∼ t 1 viene chiamata V.A. di Chauchy
Definizione 112 F di Fisher
Sia W una V.A. assolutamente continua unidimensionale.
Ha distribuzione F di Fisher con gradi di libertà (p,q) (W ∼ F p,q ) se la sua densità è:
p+q p p
� 2
-1
2 p w2
f W (w) = p+q
w ∈ R + , p, q > 0
p q q
� 2
� 2 2
p
1+ q
w
Definizione 113 efficienza relativa
Siano dati due stimatori T 1 e T 2 corretti per il parametro �. Il rapporto:
VarT 2
VarT 1
viene detto efficienza relativa di T 2 rispetto a T 1 .
Inoltre definiamo "più efficiente" lo stimatore di varianza minore.
Definizione 114 stimatore efficiente (stimatore corretto uniformemente a varianza
minima)
Uno stimatore T corretto per il parametro � viene detto "efficiente" oppure
"uniformemente a
varianza minima" se ha varianza minore o uguale ad ogni altro stimatore corretto di �.
Cioé in altre parole:
∀T' stimatore corretto di � , VarT ⩽ VarT' , ∀� ∈ �
Quindi nella classe degli stimatori corretti per il nostro parametro è quello che ha varianza
minima.
Definizione 115 statistica sufficiente
Sia X = (X 1 ,........., X n ) un campione casuale estratto da una popolazione con densità
f( ∙ ; �).
Una statistica S = (X 1 , … , X n ) è detta sufficiente se la distribuzione condizionata di
X = (X1 ,........., Xn ) dato l'evento { S = s 0 } non dipende da � per ogni valore di
s 0 ∈ Supp(S).

Quindi io, conoscendo S posso eliminare dalla distribuzione del campione casuale il
parametro.
Quindi non posso derivare da essa altri stimatori.
Definizione 116 stimatore asintoticamente corretto
Uno stimatore T n = g n (X 1 , … , X n ) per il parametro � è detto "asintoticamente corretto"
se
lim ET n = �
n → +∞

Definizione 117 stimatore consistente


Uno stimatore T n = g n (X 1 , … , X n ) è detto consistente per il parametro � se:
lim P(| T n - � | < �) = 1 ∀� > 0
n → +∞
Definizione 118 intervallo di confidenza IC
Sia X = (X 1 ,........., X n ) un campione casuale di taglia n estratto da una popolazione X
con
densità
f( ∙ ; �).
Siano:
T 1 = T 1 (X 1 , … , X n )
T 2 = T 2 (X 1 , … , X n )
due statistiche ordinate tali che P(T 1 < T 2 ) = 1 e tali che:
P(T 1 < � < T 2 ) = 1 - �
dove (1 - �) non dipende da � e � ∈ (0, 1).
L'intervallo aleatorio [T 1 , T 2 ] viene detto intervallo di confidenza al livello 1 - � (detto
anche
100 ⋅ (1 - �) per cento) e 1 - � viene denominato "livello di confidenza".
Definizione 119 quantità pivotale
Se Q = Q(X 1 , … , X n ) è funzione del campione casuale e del parametro � e la
distribuzione di Q non dipende da �, allora Q è detta "quantità pivotale".
Definizione 120 metodo della quantità pivotale
Su di essa facciamo una trasformazione usando questa proprietà pivotale:

∀� ∃q 1 , q 2 i percentili funzioni di � tali che P(q 1 < Q < q 2 ) = 1 - �


Allora se ∀ realizzazione campionaria (x 1 , … , x n ) si ha che
q 1 < Q(x 1 , … , x n ) < q 2

T 1 (x 1 , … , x n ) < � < T 2 (x 1 , … , x n )
Con T 1 , T 2 funzioni non dipendenti da � allora diremo che [T 1 , T 2 ] è un intervallo di
confidenza al livello (1 - �) per �.
Definizione 121 efficienza
La quantità:
1
e=
VarT n ⋅ I
è detta efficienza.
Denotazione 122 ipotesi nulla e ipotesi alternativa
La mia congettura viene indicata con H 0 e viene detta "ipotesi nulla".
Invece una congettura alternativa, detta "ipotesi alternativa" viene detta H 1 .
Definizione 123 ipotesi semplici
Le ipotesi sono semplici quando:
�0 = �0
�1 = �1
Quindi:
H0 : � = �0
H1 : � = �1
Definizione 124 ipotesi composte
Quando le ipotesi non sono semplici si dicono composte.
1. Ipotesi unilaterali (semplice + composta)
H0 : � = �0
H1 : � < �0
2. Ipotesi bilaterali (semplice + composta)
H0 : � = �0
H1 : � ≠ �0
3. Ipotesi composte unilaterali
H0 : � > �0
H1 : � < �0
La cosa importante da capire è cosa sia una procedura di test esattamente.
Definizione 125 procedura di test
Una procedura di test consiste nell'associare a ciascun campione realizzato x ∈ X la
decisinoe di:
• Scegliere H 0 (e quindi che � ∈ � 0 )
• Scegliere H 1 (e quindi che � ∈ � 1 )
Definizione 126 regione di rifiuto
Sottoinsieme dello spazio campionario X che porta al rifiuto della ipotesi nulla.
La regione di rifiuto (o regione critica) è spesso indicata con la lettera C
Definizione 127 regione di accettazione
Sottoinsieme dello spazio campionario X che porta all'accettazione della ipotesi nulla.
La regione di rifiuto è spesso indicata con la lettera C C .
Definizione 128 errore di prima specie

H0 H1 Scelta

Vera Falsa Scelgo H 1


Definizione 129 errore di seconda specie

H0 H1 Scelta

Falsa Vera Scelgo H 0

Definizione 130

"errore di
�(�) = P(X ∈ C; � ∈ � 0 ) = P
prima specie"
"errore di
�(�) = P X ∈ C C ∩ � ∈ �1 =P
seconda specie"

Definizione 131 potenza del test

Π(�) = P(X ⊂ C ; � ∈ � 0 ∪ � 1 ) =
� � ∈ �0
=
1 - � � ∈ �1
Definizione 132 ampiezza del test

L'ampiezza del test � è definita nel modo seguente:

� = sup Π(�)
�∈�
Nel caso di ipotesi semplici:

�=�
Definizione 133 test più potente

Un test Y di ampiezza � per H 0 : � ∈ � 0 contro H 1 : � ∈ � 1 , viene detto "più potente" se


∀ altro test Y' di ampiezza �' ⩽ � si ha:
�'(�) ⩾ �(�) ∀� ∈ � 1

Potrebbero piacerti anche