Sei sulla pagina 1di 21

2.

Teoria delle Variabili Aleatorie

variabili aleatorie multivariate; operatore di speranza matematica; media varianza e covarianza.

3. Modelli di Variabili Aleatorie discrete e continue

Caratterizzazione dei modelli pi comuni di variabili aleatorie discrete e continue: Bernoulli,


Binomiale, Poisson, Ipergeometrico, Uniforme, Esponenziale, Gamma, Normale e log-Normale.

4. Convergenza delle Variabili Aleatorie

Convergenza in distribuzione e in probabilit; Teorema del Limite Centrale; disuguaglianze di


Markov e Chebyshev; leggi dei grandi numeri.

5. Teoria dei campioni e rappresentazione dei dati

Popolazione, campione ed inferenza statistica; statistiche campionarie (media, varianza, mediana,


moda, percentili); organizzazione e rappresentazione grafica dei dati.

6. Teoria della stima (puntuale e per intervallo)

Stimatori; metodo dei momenti; metodo della massima verosimiglianza; variabili aleatorie
inferenziali (Chi-quadro, Student, Fisher); intervalli di confidenza.

7. Test di ipotesi

Test parametrici, rischio di prima e seconda specie; significativit e potenza del test; p-valore; test
non parametrici.

8. Teoria della misura e analisi di regressione.

Teoria della misura e analisi degli errori; metodo dei minimi quadrati; coefficiente di correlazione;
regressione lineare e non lineare; linearizzazione.
METODI DI OSSERVAZIONE E MISURA

APPUNTI
Introduzione
Definizioni varie

Spazio degli esiti ed eventi

Si consideri un esperimento il cui esito non sia prevedibile con certezza.


Quello che normalmente si pu fare comunque, individuare la rosa degli esiti plausibili.
Linsieme di tutti gli esiti possibili si dice spazio degli esiti, e normalmente si indica con S o .
I sottoinsiemi dello spazio degli esiti si dicono eventi, quindi un evento E un insieme i cui elementi sono
esiti possibili.
Se lesito dellesperimento contenuto in E, diremo che E si verificato.
Lunione di due eventi E F di due eventi E ed F dello spazio degli esiti S, definita come linsieme
formato dagli esiti che stanno in E o in F.
Quindi levento E F si verifica se almeno uno tra E ed F si verifica.
Lintersezione E F di due eventi E ed F linsieme formato dagli esiti che sono presenti sia in E, sia in F.
Come evento, rappresenta il verificarsi di entrambi gli eventi E ed F.
Definiremo linsieme evento vuoto, rappresentato con il simbolo , un evento che non contiene esiti
possibili per lesperimento.
Se E F= , ovvero se E ed F non possono verificarsi entrambi li diremo eventi mutuamente esclusivi o
eventi disgiunti.
Per ogni evento E , definiamo levento Ec, che diciamo complementare di E, come linsieme formato dagli
esiti di S che non stanno in E.
Quindi Ec si verifica se non si verifica E.
E anche possibile definire lunione o lintersezione di pi di due eventi.
In particolare, lunione degli eventi E1,E2,,En, che indichiamo con E1 E2 ... En, o con
levento formato da tutti gli esiti che appartengono ad almeno uno degli E i.
Lintersezione degli stessi eventi viene indicata con E1 E2 ... En o con , ed levento formato
dagli esiti che appartengono a tutti gli Ei, per i=1,2,...,n.
In altre parole, lunione degli Ei si verifica se almeno uno degli eventi Ei si verifica, mentre lintersezione
degli Ei si verifica solo se tutti gli eventi Ei si verificano.
Capitolo 1
Calcolo delle Probabilit

1. Definizioni di probabilit

Il concetto di probabilit, quando si effettua un esperimento, passabile di diverse interpretazioni.


Nellinterpretazione frequentista, la probabilit considerata una propriet dellesito stesso.
In particolare, si pensa che possa essere determinata operativamente ripetendo in continuazione
l'esperimento, come rapporto tra il numero di casi in cui si registrato lesito sul totale.
Nellinterpretazione soggettivistica,non si crede chela probabilit di un esito sia un propriet
oggettiva,ma piuttosto la precisazione del livello di fiducia che lo studioso ripone nel verificarsi
dellesito.

2. Formalizzazione assiomatica

Se si ripete molte volte un esperimento mettendosi sempre nelle stesse condizioni, si verifica
empiricamente che la frazione di casi totale in cui si realizza un qualunque evento E tende, al
crescere dei tentativi, ad un valore costante che dipende solo da E.
Lanciando ad esempio una moneta,il rapporto tra il numero di risultati testa ed il numero di tentativi
tender ad un valore costante: 0,5.
Il valore limite della frequenza empirica di un evento quello che molti hanno in mente quando
cercano di descrivere la probabilit di quellevento.
Qualunque sia la definizione di probabilit che si vuole abbracciare, vi un comune accordo sulle
regole che tali probabilit devono rispettare: da qui in poi il modo di procedere diviene allora
esclusivamente astratto.
Si associa ad ogni evento E sullo spazio degli esiti S, un numero che si denota con P(E) e che si dice
probabilit dellevento E.
Ci non pu essere fatto in maniera completamente libera: le probabilit dei vari eventi devono
rispettare alcuni assiomi dal significato intuitivo.

Primo assioma

Il primo assioma afferma che ogni probabilit un numero compreso fra 0 e 1.

Secondo assioma

Il secondo assioma stabilisce che levento S si verifica con probabilit 1, ovvero vi assoluta
certezza che si realizzi un esito continuo in S, o ancora, S contiene necessariamente tutti gli esiti
possibili nel nostro esperimento.

Terzo assioma

Per ogni successione di eventi infinitamente esclusivi E1, E2,(tali che EiEj = quando ij )

Il terzo assioma afferma che, preso un insieme finito o numerabile di eventi mutuamente esclusivi,
la probabilit che se ne verifichi almeno uno uguale alla somma delle loro probabilit.
Si pu a questo punto notare che se si interpreta P(E) come la frequenza relativa dellevento
E quando lesperimento ripetuto un gran numero di volte, il terzo assioma soddisfa gli altri
due. Infatti certo che la frequenza relativa di un evento sia sempre compresa tra 0 e 1; altrettanto
sicuro che levento S si verifica ad ogni esperimento, e quindi ha una frequenza relativa sempre
uguale ad 1; si pu anche notare che se E ed F sono eventi che non hanno esiti in comune, il numero
di casi in cui si verifica EUF pari alla somma di quelli che si verificano E ed F, quindi la
frequenza relativa dellunione pari alla somma delle frequenze relative.
Gli assiomi permettono di dedurre un gran numero di propriet delle probabilit degli eventi.
Ad esempio, possiamo notare che E ed Ec sono eventi disgiunti, e quindi usando gli assiomi 2 e 3:

Prop: Per ogni evento ES, vale la relazione:

La probabilit che un evento non si verifichi pari a 1 meno la probabilit che si verifichi.

La prossima proposizione fornisce la probabilit dellunione di due eventi in termini delle loro
probabilit singole e di quella dellintersezione (estensione del terzo assioma, funziona anche con
eventi non mutuamente esclusivi).

Prop: Se E ed F sono due eventi qualsiasi, allora:

3. I diagrammi di Venn e lalgebra degli eventi


Un tipo di rappresentazione grafica degli eventi, molto utile per illustrare le relazioni logiche che li
legano, sono i diagrammi di Venn.
Lo spazio degli esiti S rappresentato da un grande rettangolo che contiene il resto della
figura,oppure dal foglio stesso.
Gli eventi da prendere in considerazione, invece, sono rappresentati da cerchi o altre curve chiuse
rappresentate allinterno del rettangolo.
A questo punto, tutti gli eventi complessi di nostro interesse possono essere evidenziati colorando
opportune regioni del diagramma.
Gli operatori unione, intersezione e complementare, obbediscono a
regole non dissimili a quelle dellalgebra delladdizione e della
moltiplicazione dei numeri reali.
Ne elenchiamo solo alcune:
Propriet commutative

Propriet associative

Propriet distributive

Il metodo rigoroso per dimostrare queste identit consiste nel verificare che in ogni esito
appartenente allevento al primo membro anche contenuto nellevento a secondo membro e
viceversa.
Esistono due diverse relazioni particolarmente utili che mettono in gioco tutte e tre le operazioni
base che si possono fare sugli eventi.
Sono le leggi di De Morgan:
4. Dipendenza logica tra eventi
Eventi compatibili ed eventi incompatibili
Due eventi E1 ed E2 si dicono incompatibili quando il verificarsi dell'uno esclude il verificarsi
dell'altro, cio quando i due eventi non possono verificarsi contemporaneamente.
Due eventi E1 ed E2 si dicono compatibili quando il verificarsi dell'uno non esclude il verificarsi
dell'altro e i due eventi possono verificarsi contemporaneamente.

Calcolo della probabilit di due eventi compatibili o incompatibili


La probabilit dell'unione di due eventi incompatibili uguale alla somma delle probabilit di
ciascun evento cio:

La probabilit dell'unione di due eventi compatibili uguale alla somma delle probabilit di
ciascun evento diminuita della probabilit dell'evento comune , ovvero:

Eventi dipendenti e indipendenti tra loro


Supponiamo di trovarci di fronte a due eventi compatibili (cio che possono verificarsi
contemporaneamente) e di dover calcolare la probabilit che si verifichi sia l'uno che l'altro.
Ci chiederemo allora:
"il verificarsi di un evento influisce sulla probabilit di verificarsi dell'altro?"
In base alla risposta che daremo a questa domanda si parler di eventi (compatibili) dipendenti ed
eventi (compatibili) indipendenti.
Molti libri di testo omettono la parola "compatibili" quando parlano di eventi dipendenti o
indipendenti, dando quindi per scontato che tali eventi siano innanzitutto compatibili. A pensarci
bene non difficile dedurne il motivo.
Molto semplicemente ha senso chiedersi se il verificarsi di un evento ha conseguenze sul calcolo
della probabilit del verificarsi dell'altro solo se i due eventi possono interagire tra loro o meglio solo
se possono verificarsi contemporaneamente.
Se infatti ognuno avviene per "conto proprio" (eventi incompatibili) allora in nessun modo potranno
interferire tra loro e quindi non avrebbe alcun senso chiedersi se sono dipendenti o indipendenti.

Definizioni di eventi dipendenti e di eventi indipendenti


Due eventi E1 ed E2 (compatibili) si dicono indipendenti se il verificarsi dell'uno non influisce sul
calcolo della probabilit del verificarsi dell'altro.
Due eventi E1 ed E2 (compatibili) ed si dicono dipendenti se il verificarsi dell'uno influisce sul
calcolo della probabilit del verificarsi dell'altro.

Calcolo della probabilit di due eventi dipendenti o indipendenti


La probabilit dell'intersezione di due eventi indipendenti E 1 ed E2 data dal prodotto delle
probabilit di ciascun evento, ovvero:

Se invece siamo di fronte a due eventi dipendenti, sappiamo che il verificarsi dell'uno (ad esempio di
E1) influisce sul calcolo del verificarsi dell'altro (ad esempio E 2 ).
Si parler in tal caso di probabilit condizionata, si indica con e si legge "probabilit
che si verifichi E2 sapendo che si verificato E1.
La probabilit dell'intersezione di due eventi dipendenti E 1 ed E2 data dal prodotto della probabilit
di un evento per la probabilit condizionata dell'altro, cio:

Ovviamente i ruoli di E1 e E2 di possono essere invertiti.


Osservazione (probabilit condizionata con eventi indipendenti)
Se due eventi sono indipendenti, la probabilit condizionata di un evento rispetto ad un altro
coincide con la probabilit dell'evento stesso:

In altre parole la probabilit che si verifichi E 2 sapendo che si verificato E1 uguale alla probabilit
che si verifichi E2.

Teorema della Probabilit Condizionata


Alla luce di ci possiamo enunciare quello che si conosce col nome di teorema della Probabilit
Condizionata e che si utilizza per calcolare la probabilit di due eventi uniti dalla congiunzione "e":

che racchiude entrambi i casi visti in precedenza.

Teorema della probabilit Assoluta


Sia uno spazio campionario e siano A1, A2,,An una serie di eventi tali da formare una partizione
di , ovvero:
- sono a due a due disgiunti, cio comunque si prendano due di essi la loro intersezione vuota.
In simboli:

- La loro unione coincide con , ovvero:


Sia B un qualsiasi evento dipendente dagli eventi A1, A2,,An .
Allora:

dove, in generale, indica la probabilit condizionata che si verifichi B sapendo che si


verificato Ai .

Fattorizzazione di un evento e formula di Bayes


Siano E ed F due eventi qualsiasi. possibile esprimere E come:

Infatti ogni punto che appartiene all'evento E, o sta sia in E sia in F, oppure sta in E ma
non in F (si veda la Figura 3.6).
Inoltre, visto che e sono eventi disgiunti, si ha per l'Assioma 3,

L'Equazione afferma che la probabilit dell'evento E si pu ricavare come media pesata


delle probabilit condizionali di E sapendo:

(l) che F si verificato

(2) che F non si verificato.

I pesi corretti sono le probabilit degli eventi rispetto a cui si condiziona.

Questa formula estremamente utile, in quanto in molte situazioni non possibile


calcolare una probabilit complessa direttamente , mentre essa facilmente ricavabile
dallequazione, condizionando al verificarsi o meno di un secondo evento.

L'evento accessorio va scelto in modo che, una volta che si sappia se esso si verificato o
meno , risulti evidente la probabilit dell'evento complesso di partenza, tenendo conto di
questa informazione.
L'equazione pu essere generalizzata nel modo seguente. Siano assegnati una quantit finita (o
numerabile) di eventi mutuamente esclusivi F1,F2, ..., Fn tali che:

Questa propriet si cita dicendo che gli eventi Fi ricoprono S e significa che si verifica
sempre almeno uno di essi (esattamente uno, se, come nel nostro caso, sono anche
disgiunti).
Consideriamo un ulteriore evento E, che riscriviamo come:

notando che anche gli eventi , per i=1,2,,n sono mutuamente esclusivi.
Si ottiene dall'Assioma 3 che:

Questa formula, detta formula di fattorizzazione o di disintegra zione, mostra che


possibile calcolare la probabilit di un evento E condizionando rispetto a quale si
verifichi tra un gruppo di eventi accessori mutuamente esclusivi e che ricoprono S.
Di nuovo P(E) pu essere vista come la media pesata delle probabilit condizionate
, usando come pesi le corrispondenti P(Fi).
Si immagini ora di disporre dell'ulteriore informazione che si sia effettivamente verificato
l'evento E.
Che probabilit avranno gli eventi Fj tenendone conto?

L'equazione prende il nome di formula di Bayes, in onore del filosofo inglese


Thomas Bayes.
Se pensiamo agli eventi Fj come a possibili "ipotesi" alternative che abbiano
influenza su un qualche esperimento, si pu immaginare che la formula di Bayes ci
mostri come necessario modificare le opinioni su tali ipotesi da prima a dopo
l'esperimento stesso, con le loro probabilit che passano da P(Fj) a P(F j|E).

5. Elementi di calcolo combinatorio

Principio fondamentale del calcolo combinatorio


Si realizzino due esperimenti e si supponga che il primo abbia m esiti possibili, e
che per ognuno di essi il secondo abbia n esiti possibili. Allora, se sequenze distinte
di esiti dei due esperimenti producono esiti finali distinti, i due esperimenti hanno in
totale mn esiti possibili.
Principio fondamentale (generalizzato) del calcolo combinatorio
Si realizzino r esperimenti e si supponga che il primo abbia n1 esiti possibili, che
per ognuno di essi il secondo abbia n2 esiti possibili, che per ognuno di essi il terzo
abbia n3 esiti possibili, etc.
Allora, se sequenze distinte di esiti degli r esperimenti producono esiti finali
distinti, gli r esperimenti hanno in totale n1n2 nr esiti possibili.

Disposizione di elementi
Supponiamo di avere a disposizione n elementi distinguibili e kn posti ordinati.
Si intende con disposizioni di n elementi su k posti il numero di modi in cui
possibile disporre senza ripetizione gli n elementi nei k posti.
Nel caso in cui k=n, le disposizioni Dn,n sono dette permutazioni di n elementi, e
differiscono solo per lordine.

Combinazione
Si intende con combinazioni di n elementi presi k alla volta il numero di gruppi di
k<n elementi che posssibile costruire in modo tale che i gruppi differiscano tra
loro per almeno un elemento (e non per il loro ordine).

Ripartizioni
Si intende con ripartizioni di n elementi in m classi il numero di modi in cui
possibile suddividere gli m elementi in m classi rispettivamente di k1,k2,km
elementi.

Livello qualitativo
Si definisce livello qualitativo L la probabilit che un pezzo, estratto a caso da un
lotto, sia difettoso.
Una equa regola di accettazione/rifiuto deve necessariamente essere concordata tra
venditore e acquirente tenendo conto sia del livello di qualit accettabile L, che del
livello di qualit rifiutabile H.
Ad essi corrispondono rispettivamente il rischio del fornitore (di produrre un lotto
con livello qualitativo troppo elevato per accettare un certo rischio di rifiuto) e il
rischio dellacquirente (di acquistare un lotto con livello qualitativo non adeguato).
I valori di L e H vengono fissati per consuitudine proprio ai livelli 0.05 e 0.10.
Capitolo 2
Teoria delle Variabili Aleatorie

1. Definizioni di base
Quando si realizza un esperimento casuale, non sempre si interessati a tutte le
informazioni ricavabili dal suo esito.
Spesso una singola quantit numerica che racchiude tutto ci che in realt vogliamo sapere.
Sono quantit di interesse, che sono determinate dal risultato di un esperimento casuale, e
prendono il nome di variabili aleatorie.
Siccome il valore di una variabile aleatoria determinato dallesito dellesperimento,
possiamo assegnare delle probabilit ai suoi valori possibili.

Nellesempio, la variabile aleatoria dispone di un numero finito di valori possibili.


Variabili aleatorie con un numero finito o numerabile di valori possibili sono dette
v.a. discrete.
Esistono dunque anche variabili aleatorie dette appunto v.a. continue, che possono
assumere un insieme continuo di valori possibili,come pu essere un intervallo di numeri
reali.
Funzione di ripartizione
La funzione di ripartizione F di una v.a. X definita, per un numero reale x, tramite:

Quindi F(X) esprime la probabilit che la variabile aleatoria X assuma un valore minore o
uguale a x.
Useremo la notazione per indicare che F la funzione di ripartizione di X.
Tutte le questioni di probabilit che si possono sollevare su una v.a. ammettono risposta in
termini della sua funzione di ripartizione.
Ad esempio:

Variabili aleatorie discrete e continue


Come detto, si dice discreta una v.a. che pu assumere una quantit finita o numerabile di
valori,caratterizzata da una funzione di ripartizione a gradini.
Se X una v.a. discreta, la sua funzione di massa di probabilit o funzione di massa si
definisce come:

La funzione p(a) non nulla su un insieme al pi numerabile di valori.


Infatti se x1,x2, sono i valori possibili di X, allora:

Siccome X deve assumere uno dei valori x1,x2, , necessariamente la funzione di massa di
probabilit deve soddisfare la seguente equazione:
Una v.a. aleatoria che possa assumere una infinit non numerabile di valori, non potr
essere discreta.
Si dir invece continua se esiste almeno una funzione non negativa f, definita su tutto R,
avente la propriet che per ogni insieme B di numeri reali:

La funzione f della precedente equazione la funzione di densit di probabilit o pi


semplicemente, la densit della variabile aleatoria X.
Lequazione dice che la probabilit che una variabile aleatoria continua X appartenga ad un
insieme B si pu trovare integrando la sua densit su tale misura.
Poich X deve assumere un qualche valore di , la sua densit deve soddisfare:

Tutte le probabilit che riguardano una v.a. continua possono essere espresse in termini di
integrali della sua densit.
Ad esempio, se poniamo B=[a,b] ricaviamo da 1 che:

e se in questultima equazione poniamo b=a, troviamo che:

la probabilit che una v.a. continua assuma un qualunque valore particolare a nulla.
Una relazione che lega la funzione di ripartizione F alla densit f la seguente:

Derivando entrambi i membri si ottiene allora la relazione fondamentale:

La densit la derivata della funzione di ripartizione.


Oss: Quando conosciamo la funzione di massa di probabilit di una variabile aleatoria discreta,
oppure la funzione di densit di probabilit di una continua, oppure ancora quando
conosciamo la funzione di ripartizione di una variabile aleatoria qualsiasi, abbiamo
abbastanza informazioni per poter calcolare la probabilit di ogni evento che dipenda solo
da tale variabile aleatoria.
Si dice in questo caso che conosciamo la distribuzione o legge della variabile aleatoria
considerata.
Perci, affermare ad esempio che X e Y hanno la stessa distribuzione, vuole dire che le
rispettive funzioni di ripartizione sono identiche, , e quindi anche
che per ogni insieme di valori .

VARIABILI CASUALI MISTE


La variabile casuale mista in parte discreta e in
parte continua. Un esempio lampante che si trova
in natura dato dai livelli energetici degli atomi.
Secondo le leggi della meccanica quantistica
l'energia di un elettrone in un atomo non una
quantit determinata (n determinabile) a priori ma
piuttosto una variabile casuale. Risulta dalla
teoria (e viene confermato dagli esperimenti) che
questa variabile casuale ha una distribuzione in
parte discreta e in parte continua.
Funzione di ripartizione troncata
Dalla funzione di ripartizione possibile dedurre la funzione di ripartizione troncata, ossia
decurtata da una parte dellinsieme di valori che pu assumere la v.a. X.

2. Variabili aleatorie multivariate

Coppie di vettori e di variabili aleatorie


Ci sono situazioni in cui la scelta di ridurre un esperimento casuale allo studio di una sola
variabile aleatoria, destinata a fallire a priori, perch loggetto di interesse sono proprio le
relazioni presenti tra due o pi grandezze numeriche.
Per specificare la relazione tra due variabili X e Y, il punto di partenza estendere il
concetto di funzione di ripartizione.
Siano X e Y due variabili aleatorie che riguardano lo stesso esperimento casuale.
Si dice funzione di ripartizione congiunta di X e Y, indicata con F, la funzione di due
variabili seguente:

dove la virgola nellargomento di P() denota lintersezione tra eventi.


La conoscenza di questa funzione permette, almeno in teoria, di calcolare le probabilit di
tutti gli esperimenti che dipendono, singolarmente o congiuntamente, da X e Y.
Ad esempio, a funzione di ripartizione di X, F X, pu essere ottenuta dalla funzione di
ripartizione congiunta F cos:

e analogamente la funzione di ripartizione di Y:

Distribuzione congiunta per variabili aleatorie discrete


Come nel caso scalare, se sappiamo che un vettore aleatorio di tipo discreto, possiamo
definire e utilizzare la funzione di massa di probabilit.
Se X e Y sono variabili aleatorie discrete che assumono i valori x1,x2, e y1,y2,
rispettivamente, la funzione:

la loro funzione di massa di probabilit congiunta.


Le funzioni individuali di X e Y si possono ricavare da quella congiunta notando che,
siccome Y deve assumere uno dei valori yj levento {X=xi} pu essere visto come lunione
al variare di j degli eventi {X=x i, Y=yj} che sono mutuamente esclusivi.
In formule:

da cui, grazie allassioma 3:

Analogamente per pY:


Anche se abbiamo mostrato che le funzioni di massa individuali (marginali) si possono
sempre ricavare da quella congiunta, il contrario falso.
Quindi occorre conoscere P(X=x i) e P(Y=yj) non permette di ricavare P(X=xi, Y=yj).

Distribuzione congiunta per variabili aleatorie continue


Due variabili aleatorie X e Y sono congiuntamente continue se esiste una funzione non
negativa f(x,y), definita per tutti gli x e y, avente la propriet che per ogni sottoinsieme C
del piano cartesiano:

La funzione di due variabili f, che compare nellequazione la densit congiunta delle


variabili aleatorie X e Y.
Se A e B sono sottoinsiemi qualsiasi di , e se si denota con il loro
prodotto cartesiano su , ovvero:

si vede dallequazione iniziale che la densit congiunta f soddisfa:

e quindi, ponendo , , si pu ricavare la funzione di


ripartizione congiunta di X e Y come:

da cui derivando, nelle due direzioni:

in tutti i punti in cui le derivate parziali sono definite.


Anche qui, come ne l caso scalare, possibile ottenere dallequazione iniziale una formula
approssimata che motiva la scelta del nome di densit di probabilit:

Lapprossimazione finale valida (per il teorema del valor medio) se gli incrementi da e db
sono piccoli e f continua nel punto (a,b).
Se ne deduce che f(a,b) pari al rapporto tra la probabilit di un rettangolo attorno al punto
(a,b) e larea dadb del rettangolino stesso, insomma una densit di probabilit nel senso
comune che questo termine assume, e una indicazione di quanto probabile che (X,Y) cada
vicino ad (a,b).
Se X e Y sono congiuntamente unite, allora prese individualmente, sono variabili aleatorie
continue nel senso usuale;inoltre le loro densit marginali si ricavano come segue.
Per ogni insieme A di numeri reali:
Da questa equazione, visto che A un insieme arbitrario, si ricava (con teoremi generali)
che deve valere per forza luguaglianza degli integrandi:

Analogamente, si pu ricavare la funzione di densit marginale di Y che :

Variabili aleatorie indipendenti


In analogia con quanto detto per gli eventi, due v.a. sono indipendenti se tutti gli eventi
relativi alla prima sono indipendenti a tutti quelli relativi alla seconda.
Due variabili aleatorie che riguardano lo stesso esperimento casuale si dicono indipendenti
se, per ogni coppia di insiemi di numeri reali A e B, soddisfatta lequazione:

ovvero, se per ogni scelta di A e B, gli eventi { }e{ } risultano


indipendenti.
In caso contrario X e Y si dicono dipendenti.
Usando gli assiomi delle probabilit possibile dimostrare che questa definizione
equivalente alla richiesta che, per ogni coppia di reali a e b:

ovvero che la funzione di ripartizione congiunta sia il prodotto delle marginali:

dove si intende , e F la funzione di ripartizione congiunta di X e Y.


Se le variabili aleatorie considerate sono discrete, lindipendenza anche equivalente a
chiedere che la funzione di massa congiunta sia il prodotto delle marginali:

Nel caso di variabili aleatorie congiuntamente continue invece, X e Y sono indipendenti se


e solo se la densit congiunta il prodotto delle marginali:

Il senso della definizione e delle molte forme equivalenti che abbiamo dato che due
variabili aleatorie sono indipendenti se conoscere il valore di una non cambia la
distribuzione dellaltra.
Trasformazioni di variabili aleatorie
Media o Valore Atteso
Uno dei concetti pi importanti in tutta la teoria della probabilit quello di valore atteso.
Sia X una variabile aleatoria discreta che pu assumere i valori x1,x2, ; il valore atteso si
X, che si indica con E[X] il numero:

In altri termini, si tratta della media pesata dei valori X, usando come pesi le probabilit che
tali valori vengono assunti da X.
Per questo E[X] anche detta media di X, oppure aspettazione.
Il valore atteso di X definito solo se la serie precedente converge in valore assoluto,
ovvero,in caso contrario si dice che X non ha valore atteso:

E anche possibile definire il valore atteso di una variabile aleatoria continua.


Se X ha densit di probabilit f e dx abbastanza piccolo:

Ne segue che una media pesata dei valori di X con il peso di ciascun x dato dalla
probabilit che X sia vicino a x, semplicemente lintegrale su tutto di .
Sia X una variabile aleatoria continua con funzione di densit f; il valore atteso, o
aspettazione o anche media di X, che si indica E[X] , se esiste, la quantit:

Oss: Il concetto di valore atteso analogo in fisica al concetto di centro di gravit o baricentro di
una distribuzione di massa.
Oss: E[X] ha le stesse unit di misura della variabile aleatoria X.

Propriet del valore atteso


Consideriamo una variabile aleatoria X di cui conosciamo la distribuzione.
Se anzich volere calcolare il valore atteso di X, ci interessasse determinare quello di una
sua qualche funzione g(X), come potremmo fare?
Una prima strada notare che g(X) stessa una variabile aleatoria; e quindi ha una
distribuzione che in qualche modo si pu ricavare; dopo averla ottenuta, il valore atteso
E[g(X)] si calcola con la definizione usuale applicata alla nuova variabile aleatoria.
Prop:Valore atteso in funzione di una variabile aleatoria
1. Se X una variabile aleatoria discreta con funzione di massa di probabilit p, allora, per
ogni funzione reale g:

2. Se X una variabile aleatoria continua con funzione di densit probabilit f, per ogni
funzione reale g:

Anche in questo caso si richiede, affinch E[g(X)] abbia senso, che la serie e lintegrale
convergano in valore assoluto.
Coroll:Per ogni coppia di costanti reali a e b:

Se n=1,2,, la quantit E[Xn], quando esiste, detta momento n-esimo della variabile
aleatoria X:
Covarianza
Siano assegnate due v.a. X e Y di media e rispettivamente.
La loro covarianza, che si indica con (se esiste), la quantit:

Si pu anche ottenere una formula alternativa pi semplice, analoga a quella per la


varianza.
Si trova espandendo il prodotto al secondo membro:

Dalla prima definizione di covarianza si deducono alcune semplici propriet, quali la


simmetria:

e il fatto che la covarianza generalizza il concetto di varianza:

Un altro enunciato interessante afferma che, per ogni costante a:

Come la media, la covarianza additiva.


Se X,Y e Z sono variabili aleatorie qualsiasi:

In generale, se X1,,Xn e Y sono variabili aleatorie qualsiasi:

Se X1,...Xn e Y1,,Yn sono variabili aleatorie qualsiasi:

Se X e Y sono v.a. indipendenti, allora:

Questo inoltre implica che :

e quindi che, se X1,...Xn sono indipendenti:

Se due v.a. non sono indipendenti,la loro covarianza un importante indicatore della
relazione che sussiste tra loro.
Come esempio, si consideri la situazione in cui X e Y sono le funzioni indicatrici di due
eventi A e B, ovvero:

Si noti intanto che XY una funzione indicatrice:

Si ottiene quindi che:


Perci la covarianza di X e Y positiva se condizionando a , pi probabile che
X=1 (vale anche lenunciato simmetrico).
In generale si pu mostrare che un valore positivo di indica che X e Y
tendenzialmente assumono valori grandi o piccoli contemporaneamente.
La forza della relazione tra X e Y misurata pi propriamente dal coefficiente di
correlazione lineare, un numero puro, che tiene conto anche delle dev. standard di X e Y.
Esso si indica con ed definito come:

Questa quantit sempre compresa tra 1 e +1.

Potrebbero piacerti anche