Sei sulla pagina 1di 7

Capitolo 1

Variabili Discrete
Supponiamo di avere una variabile x che possa assumere i valori x = x1 , x2 , x3 , ..., xm , e facciamo
un estrazione:
N
1
2
3
4
..
.

x
x1
x1
xm
x5
..
.

x7

dove N rappresenta il numero dellestrazione e x il valore che la variabile ha assunto in quella determinata estrazione. Se andiamo a raccogliere in una tabella il risultato dellestrazione,
vediamo che, ad esempio, la variabile xi si presentata ri volte:
r
r1
r2
r3
r4
..
.

x
x1
x2
x3
x4
..
.

rm

xm

Ovviamente immediato che la sommatoria di tutti gli ri sar


X
N=
ri
i

Possiamo anche associare una frequenza f


fi =

ri
N

che rappresenta il rapporto tra il numero di volte che viene estratta la variabile xi rispetto al
numero totale N delle estrazioni. A questo punto possiamo definire una quantit importante,
il valor medio della variabile x, che rappresenta la media dei valori assunti da da x dopo N
estrazioni, e viene indicata con < x >
< x >=

r1 x1 + r2 x2 + r3 x3 + + rm xm X
fi xi
=
N
i

CAPITOLO 1. VARIABILI DISCRETE

Per N molto grandi possiamo definire una nuova quantit, Pi :


ri
N N
lim

Pi la probabilit associata al valore xi , e rappresenta la frazione di volte che viene estratto il


valore xi per un numero di estrazioni tendente a infinito. Questa la interpretazione frequentista
della probabilit.
Appare evidente come < x > sar uguale a:
X
< x >=
Pi xi
i

Sia abbia una variabile y tale che essa sia y = g(x), allora:
X
< g(x) >=
Pi g(xi )
i

Si possono definire altre quantit come i momenti di ordine k:


X
< xk >=
Pi xki
i

e la Varianza
V ar(x) =< (xi < x >)2 >=

X
i


Pi xi 2Pi xi < x > +Pi < x >2 =< x2 > < x >2

Capitolo 2

Variabili Continue
Nel caso di variabili continue, non si pu associare a un punto una probabilit finita.
Bisogna infatti associare la probabilit a a un segmentino dellintervallo i . La probabilit che
la variabile x i sar Pi Di conseguenza Pi = f (xi ) e possiamo svilupparla in serie di
Mclaurin
Pi = f (xi ) = f 0 (0)xi
Pi
=
xi
xi
= dP (x0 x x0 + dx) = p(x0 )dx
dove

(2.1)
(2.2)
(2.3)


dP
p(x0 ) =
dx x=x0

p(x) la funzione densit di probabilit e consiste nella probabilit che la variabile continua x
sia contenuta in dx. Adesso ci possiamo chiedere quale sia la probabilit che la variabile x sia
contenuta in un intervallo compreso tra due valori x1 e x2 . Essa sar
X
P (x1 x x2 ) =
Pk
k

dove Pk la probabilit che la variabile x sia compresa nellintervallo k compreso fra x1 e x2 .


Dalle considerazioni precedenti, per intervalli xk molto piccoli
Z x2
X
X
k0
Pk =
p(xk )xk
p(x)dx
k

x1

Segue la definizione del valore medio per una variabile aleatoria continua:
Z +
X
X
xp(x)dx
x =
xk Pk =
xk p(xk )xk =
k

Mentre per una funzione della variabile aleatoria, analogamente al caso discreto
Z +
f (x) =
p(x)f (x)dx

CAPITOLO 2. VARIABILI CONTINUE

2.1

Probabilit Condizionata

Supponiamo di avere due variabili discrete X e Y .


X
x1
x2
x3
..
.

Y
y1
y2
y3
..
.

xm

yn

Estraendo un valore xi con i = 1, . . . , m e un valore yj con j = 1, . . . , n, otterremo una coppia


(xi , yj ) a cui possiamo associare una probabilit Pij . Supponiamo esista una relazione statistica
che lega i valori estratti da x rispetto ai valori estratti da y.
P (xi |yj ) indica la probabilit che venga estratto il valore xi essendo gi stato estratto il valore
yj . P (yj |xi ) indica la probabilit che venga estratto il valore xj essendo gi stato estratto il
valore yi . Supponisamo di avere x = {x1 , x2 } e y = {y1 , y2 }, e di estrarre prima un valore da x
e poi da y N volte, in modo tale da creare N coppie.
x1
x1
x2
x2

y1
y2
y1
y2

r11
r12
r21
r22

La probabilit y2 sia estratta sar ovviamente:


P (y2 ) =

r12 + r22
r12 r22
=
+
= P (x1 , y2 ) + P (x2 , y2 )
N
N
N

Mentre la probabilit che esca x2 avendo estratto y1 sar dato da:


P (x2 |y1 ) =

r21
r21
=
N1
r11 + r21

Quindi mettendo insieme le due espressioni e dividendo per N


divido per N

r21 = P (x2 |y1 )(r21 + r11 )


r21
(r21 + r11 )
P (x2 |y1 )
N
N
= P (x2 |y1 )P (y1 ) = P (x2 , y1 )
Otteniamo quindi il Teorema di Bayes
P (X, Y ) = P (X|Y )P (Y ) = P (Y |X)P (X)
Questo teorema pu essere esteso per variabili continue. Infatti
Z D
P [(x, y) D] =
p(x, y)dxdy
e

dP
dP (y) = dy p(x, y)dx
= p(y) =
dy
Fissato y la probabilit condizionata di avere x sar:
P (x|y)dx =

Z
p(x, y)dx

dP (x, y)
P (x, y)dxdy
=
dP (y)
p(y)dy

(2.4)
(2.5)
(2.6)

CAPITOLO 2. VARIABILI CONTINUE

Quindi
P (x, y)dx =

P (x, y)dx
p(x, y) = p(y)p(x|y)
P (y)

Se abbiamo un legame deterministico tra x e y, y = g(x), allora ovvio che


(
0,
quando y = g(x)
p(y|x) =
6= 0, quando y = g(x)
ed quindi rappresentabile da una Delta di Dirac
p(y|x) = [y g(x)]
Quindi per il teorema di Bayes
p(x, y) = [y g(x)]p(x)
Z
p(y) = p(x, y)dx = [y g(x)]p(x)dx
Z

Se poniamo f (x) = y g(x)


(
0
[f (x)] =
6= 0x = x0

x 6= x0

Se poniamo
y = f (x) x = f 1 (y) e dx =
allora:

(y)
f 0 [f 1 (y)]

dy =

dy
f 0 [f 1 (y)]

1
f 0 (x

0)

per la propriet di estrazione della delta. Quindi essendo:


Z
1
(x x0 )
=
0
f (x0 )
|f 0 (x0 )|
[f (x)] =

(x x0 )
|f 0 (x0 |

Se vogliamo quindi trovare la densita di probabilit di una variabile y = f (x)


p(y|x) = (y f (x)) =

(x x0 (y))
|f 0 (x0 (y))|

con f (x0 ) = 0
p(x, y) =

1
(x x0 (y))p(x)
|f 0 (x0 (y))|

La stessa relazione si sarebbe potuta trovare in modo differente. Supponendo y = f (x) con f (x)
strettamente crescente, sappiamo che
dP (x0 x x0 + dx) = p(x0 )dx
Avendo imposto f (x) strettamente crescente
f (x0 ) y f (x0 + dx)

CAPITOLO 2. VARIABILI CONTINUE

x1

x2

I1

x3

I2

I3 I4

x4

I5

I6

che sviluppando in serie di taylor


f (x0 ) y f (x0 ) + f 0 (x)dx
Siccome c un legame deterministico, nellintervallo:
dP (f (x0 ) y f (x0 ) + f 0 (x)dx) = dP (x0 x x0 + dx
dP (f (x0 ) y f (x0 ) + f 0 (x)dx) = p(y0 )dy = p(y0 )f 0 (x0 )dx
perch dy = f 0 (x0 )dx Allora
p(y0 )f 0 (x0 )dx = p(x0 )dx p(y0 )f 0 (x0 ) = p(x0 )
Quindi:
p(x0 (y))
f 0 (x0 (y))
Quando y = f (x) non invertibile, si pu comunque utilizzare un approccio diverso. Sia infatti
xk con k = 1, . . . , n tale che f (xk = 0). Allora:
(
[f (x)] = 0 quando f (x) 6= 0
6= 0 quando f (x) = 0
p(y0 ) =

Siccome la funzione se suddivisa in tratti tra i punti di massimo e minimo relativo invertibile:
Z +
XZ
[f (x)]dx =
[f (x)]dx

Ik

XZ
Ik

[x xk ]
dx
|f 0 (xk )|

Quindi se ho y = h(x)
Z
p(y) =

Z
p(x, y)dx =

p(y|x)p(x)dx

Z
(y h(x))p(x)dx
Z X
[x xk (y)]
=
dx
|f 0 (xk (y))|

Se porto la sommatoria fuori dal segno dellintegrale


X p(xk (y))
X Z [x xk (y)]
dx
=
|f 0 (xk (y))|
|f 0 (xk (y))|
k

Capitolo 3

Processi Stocastici

Bari

Trani

Milano

10

12

14

16

18

Potrebbero piacerti anche