3/03
La materia tratta la probabilità, teoria dell’informazione, dell'inerenza e della statistica.
Impariamo a contare utilizzando il calcolo combinatorio, quando si parla di probabilità si parla di
esperimenti come calcoli che danno risultati dei valori.
PRINCIPIO BASE
Il principio base dice che se abbiano 2 esperimenti:
- primo ha m risultati
- il secondo ha n risultati
allora i due esperimenti forniscono m∗nrisultati, come per esempio pescare due carte.
Esercizio: vorrei contare il numero di targhe possibili fatta di 4 lettere e 3 numeri.
Per avere vicini della stessa materia devo considerare i "blocchetti" di libri che sono 4
moltiplicando per il fattoriale di ogni tipo.
DISPOSIZIONI
si intende un ordinamento di i tra n oggetti, con i < n.
Avrò quindi n∗( n−1 )∗( n−2 )∗…∗( n−i+ 1 ), supponiamo che n = 7 e i = 3
☐☐☐
☐☐☐☐☐☐☐
Posso scrivere la mia formula anche come:
n!
I casi in cui i primi sono uguali e i secondi sono diversi sono n-i; quindi, mi viene fuori la
( n−i ) !
formula evidenziata sopra.
Esercizio:
(ni )
Esercizio:
Comitati di 3 persone a partire da 2000
(2000
3 )=
2000!
3 ! ×1997 !
=
2000 ×1999 ×1998
6
4/03
Oggi introduciamo la probabilità.
SPAZIO CAMPIONARIO: La prima cosa che ci serve è lo "spazio campionario" che è l'insieme dei
risultati possibili di un esperimento, lo denotiamo con "S".
EVENTO E ⊂ S : è un sottoinsieme di risultato di uno spazio campionaria, per esempio se ho 36
numeri possibili considero due numeri.
Nozioni sugli insiemi E, F ⊂ S
- Unione E ∪ F
- Intersezione E∩F
E f
- Disgiunzione E ∨ F=0
- Complemento EC S
ASSIOMI
Lo spazio campionario definisce da cosa è composta la "torta" che consideriamo come insieme
(grafico a torta). mentre la probabilità stabilisce la grandezza della" torta".
P la probabilità è una mappa sullo spazio degli eventi di un insieme campionario.
1) P ( S )=1
2) O ≤ P ( E ) ≤1
3) Ei ⊂S ,i=1 , … , n . E i E j=O per ognii ≠ j .
n
P ( ¿ i Ei ) =∑ P ( Ei )
i=1
Proprietà
Da queste proprietà ne derivano altre:
a) P ( 0 )=0 possiamo dimostrarlo dicendo che
P ( s )=P ( S ∪ 0 )=P ( s ) + P ( 0 )=1+ P ( 0 )=P ( s )
P ( E )=1−P ( E )
c
C) E ⊂ F ⊂ S dimostrare che la probabilità del più piccolo è più piccola, cioè che P ( E ) ≤ P ( F )
P ( F )=P ( ( F−E ) ∪ E ) =P ( F−E )+ P ( E )
DOMANDA ESISTENZIALE:
C
P ( F− E )=E ?
P ( E∪ F )=P ( E ) + P ( F ) −P ( EF ) F
E s
DIM:
P ( E∪ F )=P ( E ) + P ( E F )
C
P ( F )=P ( EF ) ∪ P ( EC F ) =¿ P ( EF ) + P ( EC F )
EVENTI EQUPROBABILI
• S lo spazio campionario contiene solo N cose, con N che è la cardinalità
→ ¿ S=N → S={1,2, 3 , … , N }
i
• P ( i) = con i = 1,..., N. Ciò significa che ogni elemento ha la stessa probabilità.
N
Supponiamo di voler prendere un qualunque sottoinsieme E di S ( E ⊂S ) e di
volerne calcolare la probabilità P ( E ).
¿E
P ( E )=
N
Se E è uguale a S1, S7, S9, cioè E={ 1,7,9 } allora P(E) si calcola come la frazione dei risultati in E,
sul numero di risultati in S, cioè:
¿E 6 1
P ( E )= ⟹ P ( E )= =
¿S 36 6
Esercizio combinazioni: ho un'urna con 6 palline bianche e 5 palline nere. Probabilità di estrarre 1
pallina bianca e 2 palline nere.
N= (113)= 3 !11×8 ! = 11· 106 · 9 =165. P ( E )= 114
¿ E=( ) × ( ) =
6 5 6! 5!
× =60
1 2 1 !×5 ! 2!× 3!
¿
( 6 ×5 × 4 )+ (5 × 6 × 4 ) + ( 5 × 4 ×6 )=360
BNN NBN NNB
10/03
PROBABILITÀ CONDIZIONATA
È un concetto molto utile. È la probabilità di un evento, una volta che si venga a conoscenza della
realizzazione di un altro evento.
Per esempio: c'è un dado, voglio sapere la probabilità di 1 se so che il risultato è tra 1 e 3. E se è
tra 4 e 6?
1
Risultato 1: P (i) = .
6
0
Risultato 2: P (i) = .
6
La probabilità dell'evento "e" una volta realizzato l'evento "f".
Quindi:
P( E∨F)=(P(EF))/(P(F)). Esercizio:
−P(•∨F) : è una probabilità E
presa F come spazio campionario
−P ( F|F )=1
F
O ≤ P( E∨F) ≤1
S
- Ei i =... disgiunti
P ( ¿ i Ei|F )=∑ P ( E i|F )
i
( U i Ei ) F=U i E i F quindi P ( U i ( Ei F ) ) = ∑ ❑ P ( E i F )
i=1
Arrivo quindi a dire che questa è la somma delle probabilità condizionate, è una diretta
applicazione della proprietà. Esercizio esame!
Posso anche estenderla, se ho 3 eventi ( A , B , C ) vale che P(A) dato B, P(B) dato C per P(E)
P ( ABC ) =P ( A|BC ) P ( B|C ) P (C )
infatti:
P ( ABC ) P ( BC )
P ( ABC ) = × × P (C )
P ( BC ) P (C)
Caso a:
Eventi di base sono: {T, T} {T, C} {C, T} {C, C}
E = {T, T}, F = {{T, T}, {T, C}}
1
P ( EF ) 4 1
P (| E| F ) = = =
P(F) 1 2
2
Soluzione 1: usiamo le combinazioni per contare , sia R1 l'evento la prima pallina è rossa e R2 la
seconda è rosso
P ( R R )=
( 2 ) 14
8
=
(2)
1 2
12 33
8 Sono i casi favorevoli, 12 i casi possibili e lo moltiplico per i casi favorevoli dopo la prima
estrazione sui casi possibili dopo la prima estrazione
3) Divido un mazzo di 52 carte in quattro pile. Qual è la probabilità che in ogni pila ci sia un
asso.
FORMULA DI BAYES
Esiste una relazione tra: P ( E|F ) e P ( F| E )
P ( F| E ) × P ( E )
P ( E|F )=
P (F )
11/03
TEOREMA DI BAYES
È un modo furbo di calcolarsi P (A|B) usando P (B|A)
( EF )= PP( EF
P
(F )
)
P ( )=
F P ( E∨F ) P ( F )
E P (E )
ESERCIZIO su formula 2
A, B sono due monete; per A la probabilità di testa è 1/2, per B la probabilità di fare testa è 1/10.
D: Qual è la probabilità di fare testa lanciando una moneta a caso?
P ( testa )=P ( testa
A ) P ( A)+ P(
testa
B ) P ( B )=
3
10
1
P ( A)=
2
1
P ( B )=
2
P ( )
testa 1
A
=
2
P ( )
testa
B
=
1
10
P (B) =1/2 perché è la probabilità di lanciare questa moneta, ho il 50 e 50 di lanciare una piuttosto
che l’altra
Esercizio 2
Ho tre urne: A, B, C.
A = (3R, 1B), B = (3B, 1R), C = (4R)
D. Se pesco una pallina rossa, qual è la probabilità che venga da A? da B? da C?
( Ar )=?
P
P ( r )=P ( ) P ( A ) + P ( ) P ( B ) + P ( ) P ( C ) =
r r r 2
A B C 3
1
P ( A )=
3
1
P ( B )=
3
1
P (C)=
3
p ( )
r
A 4
=
3
P ( )
r
B 4
=
1
P ( )
r
C
=1
( 41 )
P ( Ar ) P ( A ) =
P ( Ar )= P (r )
2
3
=
3
8
P
r
( )
P( B)
P ( )
B
r
=
B
P (r )
=
1
8
P
r
( )
P (C )
P ( )
C
r
=
C
P (r )
=
1
2
ES
Siamo in un gioco, ci sono tre porte(A,B,C) e dietro ad una c’è una Ferrari, nelle altre due una
capra. A, B, C sono gli eventi, cioè dietro la porta x c'è una Ferrari, dove x è A, B o C.
( ) P c =
R
A
1
2
( ) R
P c =0
C
( ) R
P c =1
B
17/03
Eventi indipendenti
Se due eventi sono indipendenti la probabilità di 𝑃(𝐸𝐹) è data dalla moltiplicazione delle loro
singole probabilità: 𝑃(𝐸𝐹) = 𝑃(𝐸) ∗ 𝑃(𝐹)
Variabile aleatoria
Avendo un insieme 𝑋 di cardinalità 𝑁, cioè: 𝑋 = {𝑥1, ... , 𝑥𝑛} possiamo dire che 𝑋 mappa uno
spazio campionario 𝑆 in un qualche insieme di valori in R.
𝑆→𝑋⊆R
Es: lancio di 2 dadi, la loro somma è lo spazio campionario dei numeri (variabili).
Una variabile aleatoria è una funzione che associa ad ogni valore dello spazio campione di
un evento casuale un numero. L’ insieme dei possibili valori assunti da una variabile aleatoria si
dice range della variabile aleatoria.
Spoiler: queste variabili possono essere divise in due tipologie. Discrete, quando possono
assumere un numero finito di valori; Continue, quando possono assumere valori di un (o più)
intervallo di R.
1 3 3 1
P ( X=0 )= ; P ( X =1 )= ; P ( X =2 )= ; P ( X=3 )= ;
8 8 8 8
𝑋 (variabile aleatoria) numero estratto maggiore (es. estraendo 4,12,8 il max è 12).
P ( X=i ) =
(i−12 ) con 𝑖 = 𝑛𝑢𝑚𝑒𝑟𝑜 𝑒𝑠𝑡𝑟𝑎𝑡𝑡𝑜, 2 = 𝑎𝑙𝑡𝑟𝑒 𝑑𝑢𝑒 𝑝𝑎𝑙𝑙𝑖𝑛𝑒 𝑑𝑎 𝑝𝑟𝑒𝑛𝑑𝑒𝑟𝑒 e dove i casi
casi possibili
possibili 𝑐𝑎𝑠𝑖 𝑝𝑜𝑠𝑠𝑖𝑏𝑖𝑙𝑖
sono dati da (203 )ovvero tutti i modi possibili per estrarre la pallina, senza ripetizioni (non vengono
reinserite quelle prese).
Ad esempio, prendendo come 𝑖 = 7 avrò altri 6 modi possibili per prendere palline minori di 7
(considerando quindi 7 numero max).
Possiamo esprimere la PMF come una funzione che mette in relazione eventi discreti con le
probabilità associate a tali eventi che si verificano.
Con 𝑖 = 1, ... , 𝑁;
N
0≤𝑃(𝑖)≤1ovvero, ∑ P ( i )=1
i=0
Potremmo quindi dire che è un altro modo per esprimere una variabile aleatoria. Quindi stiamo
dicendo che, una variabile aleatoria è un insieme di valori dove per ognuno dei quali ho
probabilità.
Oppure, possiamo utilizzare un'altra definizione equivalente di tale variabile attraverso la
funzione di probabilità cumulata.
Assumendo di aver cumulato i valori in 𝐹(𝑎) e quindi di avere una sommatoria di vari 𝑃(𝑖):
F ( a )=∑ P ( i )
xi ≤a
Prendiamo un valore soglia per 𝑎 e sommiamo tutti i valori minori rispetto ad esso.
La formula da utilizzare per quello che chiameremo valore atteso (𝜇), di una variabile aleatoria
(𝑋), non è altro che una media pesata dei valori; quindi, invece di contare ripetutamente lo stesso
valore, 𝑃(𝑖), lo moltiplicheremo per il numero di volte che compare (𝑥𝑖 ) in 𝑋.
È una funzione che mappa i valori di una variabile aleatoria sui vari valori possibili.
Esempio: Sia 𝑌 = 𝑋2. Calcola 𝐸[𝑋2] per una variabile casuale 𝑋 con i valori dell’esercizio delle
monete.
Sappiamo che i valori possibili per 𝑋 sono ancora quattro, solo che verranno elevati al quadrato:
Calcolando quindi:
Il valore attenuto sarà quindi il valore atteso (media di 𝑔(𝑋)): 𝑬[𝒈(𝑿)] = 3 (corretto, in quanto, più o
meno intuitivamente avevamo detto che si sarebbe trovato circa a 4).
La varianza
È una funzione che fornisce una misura della variabilità dei valori assunti dalla variabile stessa;
nello specifico, la misura di quanto essi si discostino quadraticamente rispettivamente al valore
atteso.
Più “semplicemente”, possiamo definirla come: la posizione relativa ad ogni valore rispetto alla
media ottenuta. Viene indicata con 𝑽𝒂𝒓(𝑿).
Dove: 𝑥𝑖 sono i vari valori possibili; 𝐸[𝑋] è la media; 𝑃(𝑖) non è altro che la PMF.
Una quantità molto usata è la radice quadrata della varianza, nota come deviazione standard
(in realtà, viene anche chiamato scarto quadratico medio):
𝑆𝐷(𝑋) =√ Var ( X )
Proprietà
1) Linearità: avendo 𝑔(𝑋) = 𝑎𝑋 + 𝑏 e volendo calcolare l’espettazione (?) 𝐸[𝑔(𝑋)], ovvero: 𝐸[𝑎𝑋
+ 𝑏] dovremmo usare la sommatoria:
N
E [ aX +b ] =∑ ( a x i +b ) P ( i )
i=1
Dato che possiamo spezzare la sommatoria in due parti, poiché sia 𝑎𝑥𝑖 che 𝑏 vengono moltiplicati
per 𝑃(𝑖), otteniamo:
N N
E [ aX +b ] =a ∑ ( x i P ( i ) ) +b ∑ ( P ( i ) )
i=1 i=1
Sapendo che la prima sommatoria non è altro che la formula per calcolare il valore atteso, avremo:
→ 𝒂 ∗ 𝑬[𝑿] + 𝒃
Da questa dimostrazione possiamo affermare che l’espettazione si comporta bene rispetto alla
moltiplicazione e all’addizione di un numero.
N
Var ( x ) =∑ ( x i−E [ X ] ) P ( i )
2
i=1
∑ E [ X −μ ]
2
i=1
Sappiamo che 𝜇 è l’espettazione di 𝐸[𝑋] quindi possiamo riscrivere −2𝐸[𝜇𝑋] come −2 (𝜇 ∗ 𝜇) cioè
−2𝜇2; In questo modo riusciamo a semplificare 𝜇2 e −2𝜇2 ottenendo la formula finale di questa
dimostrazione:
𝑬[𝑿𝟐] − (𝑬[𝑿])𝟐
Applicando quanto detto nel II° punto alla 𝑔(𝑥) data nel I° punto, la formula 𝑉𝑎𝑟(𝑎𝑋 + 𝑏) = 𝑎𝑉𝑎𝑟(𝑋)
+ 𝑏 non sarà valida, in quanto non stiamo tenendo conto dei quadrati!
Ma possiamo risolvere il problema se poniamo:
segno negativo che cambia i successivi). Infine, possiamo raccogliere 𝑎, ciò che ci rimarrà sarà:
𝑉𝑎𝑟(𝑎𝑋 + 𝑏) = 𝒂𝟐𝑽𝒂𝒓(𝑿)
Nota bene: l’espettazione della varianza NON è influenzata dalle somme ma lo è dalle
moltiplicazioni.
18/03
Se la probabilità di entrambe le facce è ½ la moneta è onesta, mentre se uno tra Testa o Croce ha
più probabilità dell’altra allora è disonesta.
Bernulli
Prendendo questo esempio sopra, vediamo come la variabile aleatoria 𝑋 può prendere due valori
diversi legati al successo o al fallimento dell’evento preso in considerazione.
Possiamo considerare:
𝑃(𝑋 = 0) = 1 – 𝑝
𝑃(𝑋 = 1) = 𝑝
La media è
𝐸[𝑋] = 𝑝
(𝑎 + 𝑏)2 = 𝑎2 + 2𝑎𝑏 + 𝑏2
Adesso, se applicassimo questo elevandolo alla n, potremmo avere una formula del tipo:
N
n
()
( a+ b ) =∑ n ai ×b n−i
i=0 i
Facendo ciò stiamo quindi sfruttando la definizione di binomiale, infatti, esso conta in quanti modi
diversi si possono realizzare 𝑖 successi in una sequenza di 𝑛 realizzazioni indipendenti.
Nel binomiale quindi la variabile 𝑖 prenderà proprio i valori 𝑥𝑜 , 𝑥1 , ... , 𝑥𝑛 = 0,1, ... , 𝑛.
()
p ( i )= n p (1−p )
i
i i
Facendo caso a quanto detto prima, possiamo dire che stiamo applicando Bernulli alla formula
data per il binomio di Newton con elevazione alla n. Infatti, 𝑝𝑖 = 𝑎𝑖 e (1 − 𝑝)𝑛−𝑖 = 𝑏𝑛−𝑖.
Questo è un esempio di variabile aleatoria discreta. Una volta fatta questa associazione tra le due
formule, possiamo dire che i prerequisiti: 0 ≤ 𝑝 ≤ 1 e ∑𝑛 𝑝(𝑖) valgono per la formula data.
Esempio: Ho una moneta, possiamo interpretare la formula come se avessi ottenuto Testa 𝑝𝑖
volte.
Volendo tener conto della sequenza ottenuta con i lanci, ad esempio (𝑇, 𝐶, 𝐶) con: 𝑇𝑒𝑠𝑡𝑎 = 𝑝;
𝐶𝑟𝑜𝑐𝑒 = 1 − 𝑝
𝑝 ∗ (1 − 𝑝) ∗ (1 − 𝑝) = 𝑝 ∗ (1 − 𝑝)2
Non ci interessa considerare la combinazione ottenuta, in quanto, avessimo avuto: (𝑇, 𝐶, 𝑇, 𝑇)
avrei avuto:
𝑝3(1 − 𝑝)
Quello che vogliamo calcolare è: il numero di volte in cui abbiamo ottenuto testa con 𝑛 lanci
indipendenti tra loro.
Serie geometrica
Considerando: 0<𝑎<1
∑ (1−b ) j= 1b
j=0
Variabile geometrica
2°Esempio: Lancio una moneta 𝑖 volte, ottenendo 1 volta Testa e infinite volte Croce. La
probabilità che la Testa arrivi dopo i primi lanci, qual è? In sostanzia ci stiamo chiedendo quanto
dobbiamo aspettare prima di arrivare ad avere Testa?
Dobbiamo calcolare quindi la probabilità di ottenere testa alla i-esima volta. Questo possiamo farlo
utilizzando la formula:
∞ ∞
∑ p ( i ) → ∑ ( 1− p ) i−1
i=1 i=0
Abbiamo portato fuori 𝑝. Quindi sommerò per 𝑖 volte. (Stiamo assumendo sempre che 𝑇𝑒𝑠𝑡𝑎 = 𝑝;
𝐶𝑟𝑜𝑐𝑒 = 1 − 𝑝 ).
Possiamo utilizzare un trucco per rendere le cose più facili. Rinominiamo gli indici. Rinominando
𝑗 = 𝑖 − 1 possiamo ottenere:
∞
p ∑ ( 1− p )
j
j=0
p* 1/p
∞
p∗1
p ∑ ( 1− p ) =
j
=1
j=0 p
Calcolo dell’espettazione
∞
E [ X ] =∑ i ( 1− p )
i−1
p
i=1
Vediamo la dimostrazione che ci porterà ad affermare che 𝐸[𝑋] =1/p partendo proprio dalla
formula sopra:
∞
E [ X ] =∑ (i+1−1 )( 1− p )
i−1
i=1
∞ ∞
p ∑ ( i−1 ) (1− p ) + ∑ ( 1− p )
i−1 i−1
i=1 i=1
∞
p ∑ j ( 1− p ) +1
j
j=0
Rinominiamo gli indici, ponendo 𝑖 − 1 = 𝑗
∞
p ∑ j ( 1− p ) +1
j
j =1
Dato che così si partirebbe da 0 e il contributo dato da esso sarebbe nullo per la sommatoria,
possiamo eliminarlo e far partire il tutto da 1.
∞
( 1− p ) p ∑ j ( 1− p )
j −1
+1
j =1
Non abbiamo però finito, in quanto, adesso possiamo portare 1 − 𝑝 fuori dalla sommatoria, avendo
così un 𝑗 − 1 come esponente.
(1−𝑝)𝐸[𝑋]+1 →
Siamo arrivati ad avere la formula che ci riconduce a 𝐸[𝑋] e possiamo sostituirla! Per poi applicare
il prodotto tra (1 − 𝑝) ed 𝐸[𝑋]. Tenendo presente che inizialmente avevamo 𝐸[𝑋] = e che quindi il
tutto porta ad un’equazione dove portiamo i vari fattori contenenti 𝐸[𝑋] a sinistra e l’1 a destra,
cambiando opportunamente i segni.
Dato che 𝐸[𝑋] − 𝐸[𝑋] sono opposti possiamo semplificare e arrivare alla fine della dicendo che:
𝑝(𝐸[𝑋]) = 1 →
Pensando il tutto come un’equazione possiamo quindi dire che 𝐸[𝑋] è la nostra incognita e quindi
arrivare alla conclusione che
E[X]= 1/p
Serie esponenziale
a y −y
e= e
i!
Più è grande l’esponente più sarà alto il numero per la quale divido.
Poisson
Tenendo presente la serie esponenziale citata, vediamo che se abbiamo 𝑖 = 0,1,2, ... allora
possiamo calcolare:
y −y
p ( i )= e
i!
Il tutto dipende dal parametro 𝛾 (che il prof. ha indicato come 𝜇, ma non c’entra nulla con il 𝜇 usato
precedentemente, evitando confusione userò 𝛾).
Quindi:
∞
yi − y
∑ i!
e
i=0
Partiremo da 𝑖 = 1 per lo stesso motivo detto precedentemente, essendo una moltiplicazione avere
𝑖 = 0 annullerebbe il risultato e non contribuirebbe alla sommatoria.
Dopo aver fatto ciò, portando fuori 𝛾 e cambiando gli indici con 𝑗 = 𝑖 − 1:
E tutto questo sarà uguale a 1, dato che arriviamo ad avere la formula di partenza che avevamo
visto essere uguale a 1 (*):
24/03
b
p(B)=∫ p (x) dx
−b
Supponendo quindi di avere 𝐵 = [−𝜀; 𝜀] dove 𝜀 è circa 0, e se 𝜀 diminuisce allora anche la porzione
considerata di area diminuisce fino a 0.
Avremo:
ε
p( B)=∫ p( x )dx
−ε
Per verificare ciò dobbiamo controllare che integrando il risultato sia 1. Dobbiamo quindi svolgere:
Per risolvere il problema possiamo chiamare il risultato appena trovato 𝑐. Questo ci servirà perché
in questo modo posso moltiplicare l’integrale per 1/C:
Come per la pdf, anche questa non è altro che l’analoga formula che abbiamo incontrato per le
variabili casuali discrete; solo che ora parliamo di variabili casuali continue. Anche qui, invece di
una sommatoria, avremo un integrale. Con 𝐹: R → [0,1] ∀𝑎∈R
∞
f (a)= ∫ p(x )dx
−∞
Come nel caso discreto la CDF è una funzione crescente non negativa compresa tra 0 e 1. Inoltre,
a
è bene tenere a mente che possiamo unire 𝑝(𝐵) = ∫B 𝑝(𝑥) 𝑑𝑥 e 𝐹(𝑎) = ∫ 𝑝(𝑥) 𝑑𝑥 possiamo quindi
dire che 𝑷([−∞; 𝒂]) = 𝑷(𝑿 ≤ 𝒂). Ottenendo la funzione cumulata di 𝑋 calcolata in a.
Teorema fondamentale del calcolo integrale
Usando queste due formule, possiamo quindi trovare la densità (𝑝(𝑥)) data la cumulata (𝐹(𝑎)), ci
basterà derivarla; e viceversa, avendo la densità integrando troveremo la cumulata!
Quindi possiamo dire che data una funzione 𝑔: R → R, posta 𝑌 = 𝑔(𝑋) dove 𝑋 è la variabile
aleatoria. Avendo 𝑃𝑥 oppure 𝐹𝑥 possiamo ricavare 𝑃y (densità) e 𝐹y (cumulata).
F y ( y )=P ( Y ≤ y ) → P ( X n ≤ y ) → P ( X ≤ y n )= y n
1 1
1 1 1
Ottenendo così la funzione cumulata di 𝑋 valutata in y n . Perché 𝑃 (𝑋 ≤ y n ) non è altro che 𝐹 ( y n ).
𝑎
Nota bene: 𝐹(𝑎) = 0∫ 1 𝑑𝑥 → 𝑥|𝑎 = 𝑎. Con 0 come limite inferiore dell’integrale perché dato dall’intervallo della condizione iniziale in cui la
funzione vale 1, mentre a come superiore perché sappiamo che oltre essa non ci interessa calcolare la cumulata.
Poi, per calcolare 𝑷𝒀(𝒚) dobbiamo prendere il valore trovato calcolando 𝑭𝒀(𝒚) e derivarlo.
Quindi, ricaviamo la densità di Y in un qualche valore y:
1 1
1 −1
P ( y )= y n → P y ( y )= × y n
n
Le formule per calcolare valore atteso e varianza non sono diverse da quelle usate per le variabili
discrete, solo che qui useremo degli integrali:
Possiamo applicare il calcolo del valore atteso a una funzione 𝑔(𝑥) anche in questo caso:
𝑃 (𝑦) =1/y densità (calcolata
attraverso la derivata di ln 𝑦)
Calcoliamo, quindi, il valore atteso della variabile aleatoria con distribuzione nell’intervallo trovato:
25/03
Discrete VS continue
DISCRETE CONTINUE
Valori: infiniti, basta che siano discreti. ∑𝑖 𝑝(𝑥𝑖) = 1 Valori: Infiniti valori esistenti in R
con 𝑥1,𝑥2,...
PMF: dati 𝑝(𝑥1), 𝑝(𝑥2) ... e un insieme e 𝐵, avrò: e PMF:𝑝(𝐵)=∫ 𝑝(𝑥)𝑑𝑥 con 𝐵=[−𝑏;𝑏] 𝐵
𝑝(𝐵) = ∑𝑥∈𝐵 𝑝(𝑥𝑖)
CDF:𝐹(𝑎)=∑𝑥𝑖 ≤ 𝑎𝑃(𝑖) 𝑎
CDF:𝐹(𝑎)=∫ 𝑝(𝑥)𝑑𝑥
Valore atteso: 𝐸[𝑋] = ∑𝑖 𝑥𝑖𝑝(𝑥𝑖) (vale anche per 𝑔(𝑥)) Valore atteso: E[X] = ∫x 𝑝(𝑥)𝑑𝑥
(e con 𝑔(𝑥) avrò 𝐸[𝑔(𝑥)] = ∫ 𝑔(𝑥) 𝑝(x)𝑑𝑥 )
Avremo ai lati di 𝜇 valori uguali ma opposti, che se sommati ritorneranno 0. Per questo se
calcoliamo la media ci darà 0.
Notiamo come in questo caso, che abbiamo definito già come particolare, la media = 𝜇, mentre la
varianza = 𝛿.
Provando con 𝜇 e 𝛿 diversi possiamo, in qualche modo, ricondurre il tutto allo stesso risultato.
Nota bene: 𝒀 = 𝒂𝑿 + 𝒃 è una trasformazione che permette di passare da una Gaussiana all’altra.
−1
d g ( y)
PY ( y ) =PX ( g−1 ( y ) ) ×
dy
31/03/2022
DISTRIBUZIONE ESPONENZIALE
P ( X )= λ e−λx x ≥ 0
Questa esponenziale è negativa ma definita su valori positivi, la
funzione all’infinito tende quindi a zero.
Vediamo dunque se è una densità:
−e−λx
Premettendo che : ∫ e−λx dx= ; possiamo quindi fare le nostre verifiche.
λ
( ) +∞
+∞ +∞ − λx
∫ λ e dx=¿ λ ∫ e− λx dx= λ −eλ ¿
−λx
¿ 0−(−1 )=1
0 0
0
Ricordandoci che
b b
∫ f ( x ) g ( x ) dx=f ( x ) g ( x )−∫ f ( x ) g ( x ) dx
' '
a a
calcoliamo il valore atteso:
0 +∞
+∞ +∞
−e
−λx
1 +∞
E [ X ] =∫ λ xe dx=−xe + ∫ e dx =
−λx − λx − λx
= INCLUDEPICTURE /var/folders/6l/5f5ncl550kn_c76kh33q9
0 0
0 λ λ
0
f(x) g’(x)
-𝛌x
g(x) = 𝛌e
+∞ +∞
+∞
2 2
E [ X ] =∫ λ x e + ∫ xe dx= 2 INCLUDEPICTURE /var/folders/6l/5f5ncl550kn_c76kh33q94
2 2 − λx 2 − λx − λx
dx=−x e
0 λ 0 λ 0
0
1
λ
f(x)
f ’(x) = 2x
2 1 1
Var ( X )=E [ X ]−( E [ X ] ) =
2 2
2
− 2= 2
λ λ λ
a
( )=1−e
a −λx
−e
P ( X ≤ a )=∫ λ e
−λx − λa
dx=λ
0 λ 0
− λa
⟹ P ( X >a ) =1−P ( X ≤ a )=e