È una branca molto ampia della matematica, ed è anche quella che ha avuto un successo maggiore,
essendo impiegata in tutti i campi del sapere umano.
Le probabilità hanno a che fare con eventi che devono ancora accadere, a differenza delle frequenze.
L’oggetto elementare della probabilità è l’esperimento aleatorio, che è una procedura che può dare origine
a uno degli esiti possibili, ma prima dell’esperimento, non è possibile prevedere quali di questi eventi si
verificherà.
Es: lancio di una moneta, di un dado, esito di una partita di calcio, esito di un esame, performance di un
investimento finanziario (non so quanto produrrà).
Si chiamano eventi elementari, gli esiti che un esperimento aleatorio può produrre.
L’insieme di tutti gli eventi elementari, si chiama spazio campionario o spazio degli eventi elementari.
Eventi: è un sottoinsieme degli eventi elementari, che appartengono allo spazio campionario.
Es: (continua)
A = “Si è verificato almeno una desta, nel lancio delle due monete”
Si dice che un evento A, si è verificato, se l’esperimento aleatorio ha prodotto uno degli esiti elementari,
contenuti in A.
-Evento impossibile: il fatto che si verifichi un evento che in realtà non contiene nessun evento elementare,
e quindi non si potrà mai verificare.
-Eventi complementari
Dato un evento A, si dice evento complementare di A, e si indica con l’evento che si verifica
quando A non è verificato contiene quindi tutti gli eventi elementari non contenuti in A
-Evento intersezione: dati due eventi A e B, dello spazio campionario, l’evento intersezione corrisponde
all’evento che risulta vero, quando entrambi gli eventi A e B, sono entrambi veri.
Gli eventi, si dicono mutuamente esclusivi, se la loro intersezione a coppie, sono tutte vuote, ovvero se Ei
-Evento unione: siano A e B due eventi dello spazio campionario, l’evento unione che si indica con
Si dice che gli eventi E1, E2, Ek, si dicono collettivamente esaustivi, se la loro unione corrisponde all’intero
spazio campionario.
-Se gli eventi sono mutuamente esclusivi e collettivamente esaustivi, si dice che formano una partizione di
omega grande.
Es:
1)Interpretazione classica: la probabilità di un evento A, è definita come rapporto tra numero di esiti
favorevoli all’evento A e numero di casi di esiti possibili (ugualmente probabili)
2)Interpretazione frequentista: la probabilità di un evento A, è definita come limite della frequenza relativa
con cui l’evento si verifica, ripetendo l’esperimento un numero infinito di volte.
2)
3) Assioma dell’additivita completa: Siano A1, A2, … una successione infinita di eventi, che sono tra
loro mutuamente esclusivi, allora, deve valere che la probabilità tra l’unione di questi eventi, corrisponda
alla somma delle probabilità degli eventi.
1)Sia A un evento con probabilità P(A), allora la probabilità dell’evento complementare ad A, sarà: 1 – P(A)
2)Regole complementare della somma: siano A e B due eventi qualsiasi, con probabilità rispettivamente
P(A) e P(B), allora la probabilità della loro unione è uguale alla probabilità dell’evento + la probabilità
dell’evento B – la probabilità dell’intersezione tra A e B.
A = “Risultato pari”
B = “Risultato maggiore di A
-Probabilità condizionata (probabilità che si verifichi un evento, condizionatamente al fatto che se ne sia
verificato un secondo)
Siano A e B due eventi ed è necessario che A, abbia una probabilità positiva di verificarsi (> 0): si definisce
probabilità condizionata di B dato A, la seguente espressione: P(B|A)
Es: esperimento aleatorio: estrazione di due carte (senza reimmissione) da un mazzo di carte napoletane
(40 carte).
Vogliamo calcolare la probabilità che la seconda carta estratta sia una carta di spade, sapendo che anche la
prima carta estratta era di spade.
Ci interessa quindi calcolare la probabilità condizionata P(B|A) (vogliamo calcolare la probabilità di estrarre
una seconda carta di spade, dopo aver estratto la prima di spade).
P(A) =
-Regola delle probabilità composte: è una regola che ci permette di calcolare la probabilità dell’intersezione
di due eventi, assumendo di conoscere la probabilità condizionata di un evento, dato un altro.
-Teorema delle probabilità totali: siano A1, A2, …, An, eventi tali che:
- (mutamenti esclusivi)
- (Collettivamente esaustivi)
- , i = 1, …, n
Allora per un qualsiasi evento B, vale che la probabilità che si verifichi B, e uguale alla:
Es: la forza lavoro in un certo paese ripartita in 5 zone: A1, A2, A3, A4, A5
I tassi di disoccupazione delle diverse regioni sono: 5%, 2%, 3%, 1%, 8%
Estraiamo a caso un lavoratore da questa nazione. Qual è la probabilità che sia un disoccupato?
Siano:
Bi = Il lavoratore è disoccupato
Teorema probabilità totali
1)L’intersezione di ogni coppia di questi eventi, e uguale all’insieme vuoto, sono mutuamente esclusivi
2) L’unione di tutti questi eventi sia uguale a tutto l’insieme (collettivamente esaustivi)
E preso un evento B qualsiasi, vale che la probabilità che si verifichi l’evento B, era uguale alla sommatoria
delle probabilità condizionate di B dato A, moltiplicato per la probabilità di A
Allora il teorema dice che la probabilità che si verifica A, dato B, lo possiamo calcolare cosi
Es:
Storicamente, le proporzioni di pezzi difettosi prodotti da ogni stabilimento, sono pari a 1%, 5%, 2%.
Si estrae a caso un pezzo dall’intera produzione dell’azienda e si osserva che esso è difettoso. Quali sono le
probabilità che quel pezzo arrivi da un certo stabilimento?
Siano A1, A2, A3, e B i seguenti eventi:
P(A1) = 0.50,
P(A2) = 0.10
P(A3) = 0.40
P(B) =
Esercizio: usando i dati relativi all’esempio per il teorema delle probabilità totali, si calcoli no le probabilità
che, sapendo che il lavoratore è disoccupato, appartenga a una certa regione.
Si considerino due eventi A e B, Supponiamo che il fatto che si sia verificato uno dei due, non ci fornisce
informazioni utili per calcolare la probabilità che si verifichi l’altro, ovvero
PIÙ FORMALMENTE, due eventi A e B s dicono statisticamente indipendenti, se è solo se vale la seguente
condizione:
A titolo di verifica, se A e B sono indipendenti, si ottiene infatti (per la regola delle probabilità composte):
Non si con fondano i concetti di indipendenza di due eventi con quelli di incompatibilità. A e B sono
incompatibili se la loro intersezione è vuota.
A e B si dicono incompatibili se
A e B si dicono indipendenti se è solo se
Notiamo che:
Sono incompatibili
2)
Pertanto, è sono incompatibili, ma non sono indipendenti , poiché la probabilità che succedano
insieme, non è vero che è uguale, è diversa dal prodotto delle due probabilita
Variabili aleatorie:
Una variabile aleatoria è una funzione che associa ad ogni evento elementare che appartiene allo spazio
campionario, un numero reale, ovvero X :
Spazio campionario:
Gli eventi elementari si possono considerare equiprobabili con probabilità P({(i, j)}) =
Si consideri quindi la variabile aleatoria, X = “somma dei punteggi”, ovvero X((i, j)) = i + j, con (i, j)
Le variabili aleatorio si indicheranno sempre con lettere maiuscole (X, Y, Z, W, …), mentre i singoli valori che
questa può assumere si indicheranno con le lettere minuscole (x, y, z, w, ..)
La distribuzione di probabilità, di una variabile aleatoria x, e la probabilità che si osservino valori specifici di
x, calcolata utilizzando la probabilità definita su un insieme omega di partenza.
In particolare, sia B contenuto in R, la probabilità con cui x appartiene a b è quindi definita come
Px(B) = P
Discrete: quando l’insieme dei valori che può assumere è finito o infinito numerabile.
Continue: quando l’insieme dei valori che può assumere è infinito non numerabile (tipicamente, un
sottoinsieme dei numeri reali).
Esempio (continua)
X = I + j => si tratta di una v.a. Discreta poichè Rx = {2, 3, …, 11, 12} è un insieme finito
La corrispondente probabilità e
Funzione di ripartizione di una v.a. discreta x, corrisponde a una probabilità di osservare valori della
variabile che sono minori o al più uguali, ad un valore fissato, ovvero
La funzione di ripartizione serve per calcolare le probabilità con cui la v.a. assume valori in un certo
intervallo, ovvero:
Proprietà della funzione di ripartizione di una v.a. x
Esempio:
Spazio campionario: {(T, T, T, T), (T, T, T, C), …..(C, C, C, C)}, con = 2 per 2 per 2 per 2 = 16
E ragionevole ipotizzare che gli eventi elementari siano equiprobabili con P({ }} = 16
Il supporto di x, Rx, è uguale al l’insieme {0, 1, 2, 3, 4}, quindi x e discreta, perché contiene un numero finito
di elementi.
Funzione di probabilità =
Variabile aleatoria
Esperimento aleatorio
Variabili aleatorie:
P(xi) ≥ 0
-Funzione di ripartizione
Valore atteso:
Es: continua
-Fz di probabilità
Il valore atteso è un operatore lineare, ovvero sia x una variabile aleatoria discreta con valore atteso
E(x). Si considerino 2 costanti a e b che definiscono la seguente trasformazione lineare
-Momento k-esimo :
Chiaramente, il momento primo , corrisponde al valore atteso di X.
-Varianza
Es: (continua)
-Deviazione standard
È una variabile x che associa i valori 0 e 1, rispettivamente a 0, se omega = “insuccesso” e invece il valore 1
è associato all’elemento omega = “successo”
Supponiamo di estrarre casualmente una singola fattura dalla contabilità dell’azienda. Storicamente si sa
che la probabilità che una fattura risulti non corretta, è pari al 10%
Pertanto, x è modellabile come una variabile aleatoria di Bernoulli con probabilità di successo pari a p =
10% = 0,10
ES: un secondo revisore decide di estrarre 4 diverse fatture dalla contabilità dell’azienda.
Supponiamo di essere interessati a calcolare la probabilità che su 4 fatture estratte, 3 risultino essere non
corrette, sapendo sempre che la probabilità per ogni singola fattura si essere estratta non corretta, è pari al
10%.
Scenario X1 X2 X3 X4 Probabilità
1 1 1 1 0 p*p*p*(1-p)
2 1 1 0 1 P*p*(1-p)*p
3 1 0 1 1 P*(1-p)*p*p
4 0 1 1 1 (1-p)*p*p*p
X = 0, x = 1, x = 2, x = 4
X = “numero di successo in n prove bernoulliane indipendenti tra loro”
Dove
Ad esempio:
n=4
Se x è genericamente un binomiale
Se
Allora E(x) =
Es:
n = 4, p = 1
Supponiamo che ci interessi calcolare la probabilità che sulle 4 fatture estratte, almeno 1 risulti essere non
corretta.
Funzione di densità: una funzione f(x) si dice di densità, se soddisfa questi requisiti:
f(X)
F(x) =
F(x) =
-Variabili aleatorie
Discrete: insieme dei valori che può assumere e finito -> funzione di probabilità p(x)
Continue: insieme dei valori che può assumere e infinito -> funzione di densità f(x)
Es:
Momenti
k-esimo
centrale k-esimo
Varianza
Una variabile aleatoria continua x si dice uniforme, se la sua funzione di densità è data da
F(x) =
-Variabile aleatoria normale (o gaussiana)
Una variabile aleatoria continua x si dice normale se la sua funzione di densità è data da
-Operazione di standardizzazione
Per calcolare la probabilità con cui una variabile aleatoria normale assume valori in un
intervallo (a, b), è necessario utilizzare la tavola della funzione di ripartizione di una variabile aleatoria
standard.
Es: IA x = “ammontare che sarà speso da un cliente nel prossimo acquisto” si assuma che x sia una variabile
aleatoria normale con valore atteso
Il valore dell’ammontare speso che non sarà superato con probabilità dell’80%
1)
2)
= (simmetria) =
3)
= (stand.) =
4)
- Normal probability plot: è uno strumento grafico per verificare graficamente se un campione di
osservazioni, si può ritenere essere stato generato da una distribuzione normale.
Caso 1: Se i punti nel grafico si dispongono lungo una retta (andamento lineare),la conclusione è che si
conferma la normalità, cioè i dati sono distribuiti in modo normale.
Caso 2: I dati non sono normali, più in particolare c’è una distribuzione asimmetrica a destra.
Siano x1, x2, x3, xn una successione di v.a. indipendenti, tutte con media e varianza .
Allora, indipendentemente dalla distribuzione di probabilità delle variabili aleatorie x1, xn, la somma delle n
variabili aleatorie xi, è distribuita in modo normale con media e varianza al crescere di n.
In altri termini:
Es: Supponiamo che in un certo istante, ci sono 250 potenziali clienti collegati al sito di e-commerce di una
certa azienda. Storicamente si sa che la probabilità con cui un visitatore del sito concluda la visita con un
acquisto, è del 30%. Si calcoli la probabilità con cui almeno 80 di essi, concludano la visita con un acquisto.
-Nel caso di vettori discreti bidimensionali, è prassi indicare la corrispondente funzione di probabilità,
attraverso una tabella a doppia entrata.
X/y 0 1 2
0 1/8 / /
1 1/8 ¼ /
2 / 1/4 1/8
3 / / 1/8
Esempio: continua
-Valore atteso condizionato
Di y dato X = x
Esempio: continua
-Covarianza: sia (x, y) un vettore aleatorio bidimensionale discreto con funzione di probabilità congiunta
p(x, y)La covarianza tra le due componenti Xe y, è definita come
Es: (continua)
X/y 0 1 2
0 1/8
1 1/8
2 /
3 /
Esempio: (continua)
Se x e y sono indipendenti, ne consegue
-z = x + y
Attenzione: la varianza di una somma di 2 v.a. è uguale la somma delle varianze solo se le due variabili
aleatorie sono non correlate (o indipendenti)
-z = x - y
(x, y) si dice vettore aleatorio continuo bidimensionale, se le sue componenti x e y, sono entrambe variabili
aleatorio continue.
Si dice funzione di densità del vettore aleatorio x di y, la funzione f(x, y) tale che
-Funzioni di densità marginali di X e di y
-Valgono le stesse identiche proprietà di valore atteso e varianza di una combinazione lineare di variabili
aleatorie
Capitolo 3: statistica inferenziale
Popolazione Vs campione
Parametro Vs statistica
La distribuzione campionaria è la distribuzione di probabilità di tutti i possibili valori che la statistica può
assumere al variare del campione estratto dalla popolazione.
Campioni
{1, 2} 1.5
{1, 2.5} 1.75
{1, 3.5} 2.25
{2, 2.5} 2.25
{2, 3.5} 2.75
{2.5, 3.5} 3
Probabilità
1.5 1/6
1.75 1/6
2.25 2/6
2.75 1/6
3 1/6
Distribuzione campionaria della media campionaria
-Popolazione -> X
-Si estrae un campione casuale semplice, di dimensione n, che indichiamo come X1, X2, …, Xn
-La distribuzione campionaria di nella situazione sopra descritta possiede le seguenti proprietà:
1) (non-distorsione)
2)
Ne consegue che
Deviazione standard di
Errore standard di
3) Supponendo di conoscere la dimensione N della popolazione e supponendo che il campione sia “grande”
rispetto alla popolazione -> non è più ragionevole ipotizzare che le osservazioni sono tra loro indipendenti.
-Popolazione ->
1) (non-distorsione)
2)
3) Se n ≥ 0.05
-Popolazione ->
-Si estrae un campione casuale semplice X1, X2, …, Xn, tale che
1) (non-distorsione)
Varianza campionaria
Statistica inferenziale
Stima Puntuale
Per intervalli
Stima puntuale
-Uno stimatore puntuale del parametro di una popolazione, è una funzione delle osservazioni
campionarie e, in quanto tale, è una variabile aleatoria
Una sua stima puntuale corrisponde al particolare valore che lo stimatore assume in corrispondenza del
campione osservato x1, x2, …, xn:
E(T) =
Gli stimatori con distorsione che va a zero al crescere di n, si dicono asintoticamente non-distorti
Si dice inoltre efficienza relativa di T1 rispetto a T2, il rapporto delle loro varianze.
T1 è più efficiente di T2
Una stima per intervalli, corrisponde alla coppia di numeri (a, b) ottenute in corrispondenza del particolare
campione che è stato osservato (x1, x2, …, xn), ovvero
Una stima per intervalli viene comunemente detta intervallo di confidenza di livello per il
parametro
-Supponiamo di estrarre un numero elevato di campioni casuali di dimensione n e per ognuno di essi di
calcolare la corrispondente stima per intervalli di
-Allora, il livello di confidenza si può interpretare come la quota di tali stime per intervalli che
contiene il vero valore (non noto) di
Valori comuni di
-0.95 (95%)
-0.99 (99%)
-0.90 (90%)
-Altri valori
Caso A: intervallo di confidenza di livello per la media (non nota) di una popolazione
normale con varianza nota
-Popolazione ->
-Sappiamo che
Pertanto, in corrispondenza dello specifico campione (x1, x2, …, xn) si ottiene l’intervallo di confidenza di
livello per , media non nota di una popolazione normale con varianza nota, ovvero
1) N -> (-)
2) -> (+)
3) -> (+)
w=
Es: vogliamo decidere se investire i nostri soldi in un determinato settore industriale in particolare,
decideremo di investire se i profitti medi del settore risulteranno essere superiori a 2M euro. Si assume che
i profitti nel settore sono distribuiti in modo normale con varianza nota pari a =
Per stimare si decide di calcolare un intervallo di confidenza di livello 95% sulla base del seguente
campione casuale di aziende.
CASO A
n = 10
CASO B: intervallo di confidenza di livello per la media (non nota) di una popolazione
normale con varianza non nota
-Popolazione ->
-Sappiamo che
Distribuzione t di Student
-Quando il numero di gradi di libertà (G.L.), tende a infinito la curva di densità della t di student diventa
indistinguibile da quella di una normale standard.
Pertanto, l’intervallo di confidenza di livello per di una popolazione normale con varianza
non nota è dato da
Ovvero
Fattori che influiscono sul margine di errore
1)
2)
3)
Esempio: (continua)
CASO B
CASO C: Intervallo di confidenza (approx.) di livello per la media non nota di una popolazione
qualsiasi con varianza non nota (campione grande -> n ≥ 25).
CASO D: Intervallo di confidenza di livello (approssimativamente) per la probabilità di successo
p di una popolazione bernoulliana (campione grande -> )
-Popolazione ->
Esempio: siamo interessati a stimare la quota di individui in una popolazione che utilizza il bancomat per la
maggior parte dei suoi pagamenti. A questo proposito si estrae un campione casuale semplice di n = 300
individui dalla popolazione, dei quali 180 hanno risposto di utilizzare principalmente il bancomat. Si calcoli
l’intervallo di confidenza al 90% per la quota sopra descritta.
n = 300
I.C. di livello (approx.) 90% per la quota di individui che utilizzano principalmente il bancomat come
strumento di pagamento.
NON NEL SECONDO PARZIALE
Supponiamo di voler estrarre un campione di dimensione n* tale per cui la precisione della stima che si
otterrà sia pari a ME*
Esempio: (continua)
Qual è la dimensione del campione che ci consente di raggiungere tale valore del margine di errore?
ME =
ME* =
Qual è la dimensione del campione n* che consente di ottenere una precisione nella stima di p pari a