Sei sulla pagina 1di 45

Assiomi della probabilità

1. La probabilità di E è un numero reale non negativo

2. La probabilità dell’intero spazio campionario, ossia dell’evento certo, è uguale


a1

3. Per ogni coppia di eventi incompatibili 𝐸1, 𝐸2⊆ Ω, la probabilità dell’evento


unione 𝐸1∪ 𝐸2 è uguale alla somma delle loro probabilità

4. La probabilità del complementare di un evento E vale 1 meno la probabilità


dell’evento stesso

5. La probabilità dell’evento impossibile è zero

6. Se un evento E è incluso in un evento F, allora la probabilità di E è minore o


uguale alla probabilità di F

Spazio di probabilità

è una terna (Ω, A, P)

dove

● Ω è l’insieme di tutti gli esiti, che prende il nome di spazio totale o spazio
campionario;
● A, una σ-algebra di parti di Ω, è l’insieme di tutti gli eventi;
● P è una probabilità su A

Applicazione del modello al caso 1

Nel caso 1, si hanno:

Ω = {1, 2, 3, 4, 5, 6}
A = P(Ω)

la probabilità di un evento è data dal rapporto tra il numero di casi favorevoli e il numero di
casi possibili:
(dove # indica la cardinalità, cioè il numero di elementi, di un insieme).

esempio:

● L’evento A1 = “esce il numero 2” = {2} ∈ A ha probabilità

● Per A2 = “esce un numero dispari” = {1, 3, 5} ∈ A si ha

● La probabilità di A3 = “non esce il 4” = {1, 2, 3, 5, 6} ∈ A è

Applicazione del modello al caso 2

La probabilità di un evento (a, b) è di fatto uguale a quella di [a, b], dato che i singoli punti a
e b hanno probabilità nulla, quindi considerarli o meno non influisce sul risultato. Nel caso in
cui a = 0, può essere ragionevole adottare il modello

(dove λ è un parametro positivo da misurare sperimentalmente, che dipende dalle


caratteristiche del componente elettronico considerato). Allora, osservando che [a, b] = [0, b]
\ [0, a), nel caso generale vale

Calcolo Combinatorio
Permutazioni
rappresentano le sequenza ordinate degli n oggetti (quindi tutte le loro possibili disposizioni
con ordini diversi)

Formula:

esempio 1

in quanti modi si possono disporre 10 persone in 10 sedie allineate?

esempio 2

quanti anagrammi ha la parola “PICCHE” ?

essendo una parola da 6 lettere potremmo dire 6!, ma questa parola ha la ripetizione di C e
dato che le due C possono avere solo 2! disposizioni diverse allora il calcolo è:

quanti anagrammi ha la parola “SASSO” ?

Disposizioni
ogni sottoinsieme ordinato di k elementi diversi tra loro selezionati da un insieme di
partenza avente n elementi dove n>k

oss: due disposizioni sono diverse se:


● cambia almeno uno degli elementi
● compaiono in ordine differente

Formula:
esempio 1

Quanti numeri di 3 cifre distinte si possono fare utilizzando solo cifre dispari?

i numeri dispari sono {1,3,5,7,9} quindi in totale 5

esempio 2

determinare la soluzione di 3𝐷 = 𝐷𝑥,5


𝑥,4

attenzione: se n=k non si tratta più di Disposizioni ma di Permutazioni


Combinazioni
ogni sottoinsieme di k elementi distinti estratti da un insieme di partenza di n
elementi

Formula:

(coefficiente binomiale)

esempio 1

in una classe da 20 studenti quante squadre da pallavolo di 6 componenti possiamo fare?

esempio 2

in una classe ci sono 7 ragazze e 10 ragazzi. Bisogna scegliere 3 ragazze e 6 ragazzi per
formare una rappresentativa della classe. in quanti modi si può fare?
Probabilità Condizionata

è come la probabilità ordinaria, ma in un contesto nuovo(dove una condizione si è verificata)

● P(A)-> prob. dell’evento A


● P(B)-> prob. dell’evento B
● P(A|B)-> prob. dell’evento A sapendo che l'evento B si è verificato

oss: P(B|B)=1
esempio 1

supponiamo di ripetere un esperimento un numero indefinito di volte..


quale è la frequenza con cui si verifica “sia A che B” (A⋂B)

ragionando in maniera inversa se:

allora possiamo ottenere P(A⋂B) facendo:

inoltre
Teorema della probabilità Totale

nota bene: se ci danno le probabilità condizionate di un evento B rispetto a tutti gli insiemi di
una partizione di ꭥ, possiamo calcolare la probabilità totale di B sommando queste
probabilità
Teorema di Bayes

si dice che il teorema di Bayes è uno strumento matematico che permette di aggiornare una
determinata probabilità (soggettiva) a priori A in base a nuove informazioni (oggettive) B La
probabilità “aggiornata” è quella “a posteriori” P(A|B)

Modello”Causa-Effetto”

● ci viene data P(B|A), cioè la verosimiglianza di B data la “causa” A


● dobbiamo “inferire” P(A|B), facendo “reverse engineering” sul processo di
“generazione” di B

Probabilità indipendente

Dati due eventi A,B, questi si dicono “indipendenti” se:


nota che:

si può verificare che, se abbiamo 3 eventi (A,B,C) “a due a due”


indipendenti, allora vale anche

e questo vale per n eventi indipendenti tra loro

caso speciale “indipendenza condizionata”

avere info su A non cambia la prob. di B se abbiamo info su C

Legge (o distribuzione) di probabilità CONGIUNTA


Variabili Aleatorie

è una funzione reale X definita sullo spazio campione S e ha valori reali

X: S→R

essa associa ad ogni possibile risultato di un esperimento, cioè ad ogni elemento dello
spazio campione S, un numero reale

hanno un nome, un tipo e possono assumere diversi valori la quale noi conosciamo, ma
spesso non sappiamo quale valore essa effettivamente assumerà in un dato istante

i due tipi più famosi sono :


● variabili discrete (può assume un numero finito di valori o un’infinità numerabile)
● variabili continue(può assumere un’infinità non numerabili di valori)

Distribuzione di probabilità

La funzione

che ad ogni valore assunto dalla variabile aleatoria discreta X associa la corrispondente
probabilità è detta distribuzione di probabilità della variabile aleatoria X.
Distribuzione binomiale

Distribuzione Bernoulliana
Esempio
Varianza

è il valore medio della differenza(elevata al quadrato) tra i valori di X e il valore


medio di X

proprietà del valore atteso:

Ci dice che il val. atteso di una funzione generica g di una var. aleatoria è pari al
valore atteso delle immagini tramite g della var. aleatoria!
Deviazione Standard
Un’altra misura di dispersione è la deviazione standard(la radice quadrata della
varianza), la cui definizione è molto semplice:
Variabile Aleatoria di Poisson

● è una delle variabili aleatorie più usate(una variabile aleatoria discreta: indica
il numero di occorrenze)

● descrive il numero esatto di occorrenze in un evento, dove le occorrenze sono


indipendenti una dall'altra ed hanno stessa probabilità di occorrenza

● dove c’è una restrizione dello scenario considerato (un intervallo di tempo,
un’area geografica, un volume nello spazio)
nota bene:
Non importa quale sia la dimensione dello scenario (1 giorno, 1 secondo, 1
anno, 10 nanosecondi, ecc.) L’unica cosa che importa è che tale contesto
venga stabilito, e all’interno di questo contesto, ci venga data un frequenza
media di occorrenza degli eventi (che dennoteremo con λ).

● dove sappiamo la frequenza media di occorrenze dell’evento λ.

● ma non ci sono restrizioni teoriche al numero massimo di occorrenze.


Media e Varianza della v.a. di Poisson
Variabile Aleatoria Geometrica

descrive il numero di prove bernoulliane in corrispondenza del primo successo


e la notazione usata è :
Variabile aleatoria di Pascal

e descrive il numero di prove Bernoulliane fallite in corrispondenza del successo numero n,


oppure al n-esimo successo , dove la probabilità di successo di ogni prova è p.
E, quando diciamo che una variabile aleatoria Y è distribuita con la distribuzione di Pascal,
lo indichiamo così:
Variabile Ipergeometrica
Variabili Aleatorie Continue

Supponiamo di chiederci la probabilità che un determinato autobus che stiamo aspettando


possa arrivare nei prossimi 5 minuti. , per esempio, supponiamo di chiederci la probabilità
che l’autobus arrivi tra le 14:15 e le 14:20

Le precedenti strategie di modeling del nostro sistema probabilistico sono comunque


accurate fino ad un certo punto, perché non possono accomodarsi agevolmente ad intervalli
del tipo [14:12 - 14:13], oppure [14:12:00 - 14:14:36]. Per poter rispondere a probabilità di
arrivo in intervalli di quel tipo è preciso continuare a restringere gli intervalli temporali in
modo simile a come si fa nel Calcolo Integrale, cioè considerando intervalli infinitesimali di
tempo

nota bene:
Infatti, paradossalmente, a rigore, la funzione di “massa” di probabilità per una v.a. continua
non esiste, perché la probabilità che una certa v.a. continua X venga ad avere esattamente
un certo valore x continuo è zero!
quando parliamo di probabilità di v.a. continue ci riferiremo sempre alla probabilità di eventi
in cui tali variabili prendono valori compresi in un intervallo Infatti, paradossalmente, a rigore,
la funzione di “massa” di probabilità per una v.a. continua non esiste, perché la probabilità
che una certa v.a. continua X venga ad avere esattamente un certo valore x continuo è zero!
Poi, questi intervalli potranno essere più piccoli o meno, ma le probabilità assumono questo
carattere di continuità, e quindi corrispondono sempre all’area sotto la curva della funzione
di massa, quindi all’integrale tra due valori:

La funzione di densità di probabilità o PDF (probability density function) ci indica quindi il


grado di variazione delle probabilità in corrispondenza delle vicinanze di un valore. Se
vogliamo invece sapere la probabilità che una variabile aleatoria occupi il valore all’interno di
un determinato intervallo, dobbiamo calcolare l’area sotto la PDF in quell’intervallo, e cioè,
l’integrale.

Questa è la funzione di densità della v.a.


uniforme che prende valori tra un limite
inferiore a ed uno superiore b sempre
con la stessa probabilità.

Come possiamo vedere la derivata è 0


in ogni punto, e la probabilità che
corrisponde all'area sotto la curva sarà
sempre la stessa per intervalli di pari
lunghezza.
Funzioni di ripartizione/ di densità cumulativa

Il concetto di funzione di ripartizione (per le variabili discrete) o di funzione di densità


cumulativa (per le variabili continue), indicata solitamente con la F maiuscola, è
precisamente quello di una funzione che codifica la probabilità (sia per le v.a. discrete che
quelle continue) che una certa variabile aleatoria assuma valori minori o uguali ad un certo
valore:
Variabile Aleatoria Esponeziale

ci consente di trovare il valore dell’intervallo che precede la prossima occorrenza di un


evento nelle medesime condizioni( è continua).
esempio
Distribuzione normale o Gaussiana

è una distribuzione continua, il che significa che può assumere qualsiasi valore reale. Ha
una forma a campana simmetrica, con la cima al centro e la coda che si estende verso
l'infinito su entrambi i lati. è spesso utilizzata per rappresentare variabili casuali che tendono
a concentrarsi attorno a un singolo valore medio(esempio. L 'altezza degli esseri umani, del
peso dei cani o della temperatura media di una città.)

dipende da due parametri:


● valore atteso (o media) simboleggiato con μ
2
● la varianza (deviazione standard) σ

rappresentata:

Un caso speciale della v.a. Normale è quello della v.a Normale Standard, cioè la v.a.
Normale con media pari a 0 e deviazione standard pari a 1. viene solitamente indicata con la
Z maiuscola:
Approssimazione della binomiale

Quando n è grande, la binomiale X~Bin(n,p) può essere approssimata con :

● la variabile normale di parametri np e np(1-p), se p è vicino a 0.5


● la variabile di Poisson quando p~0 o se p~1(basta che sia vicino a 0 o 1 non per
forza tale)
Teorema del limite centrale
Disuguaglianza di Čebyšëv
Disuguaglianza di Markov

Probabilità congiunta

Consideriamo due variabili aleatorie discrete X e Y. Siamo interessati all’evento congiunto


{X=x}⋂{Y=y} e alla probabilità di tale evento, chiamata probabilità congiunta

P({X=x}⋂{Y=y})=P(X=x,Y=y)

In questo caso, P(X=x) e P(Y=y) prendono il nome di probabilità marginali.


Nel caso discreto, la probabilità congiunta si può scrivere in forma tabellare.
Limitazione tabelle

le tabelle possono avere limitazioni sul numero ad esempio se abbiamo 10 v.a discrete e
10
ciascuna di esse può assumere 5 valori avremo 5 eventi

soluzione:

esistono per questo le distribuzioni di probabilità multidimensionali


Inferenza Bayesiana
Campionamento

Potrebbero piacerti anche