Sei sulla pagina 1di 10

Capitolo 1

Variabili Discrete
Supponiamo di avere una variabile x che possa assumere i valori x = x1 , x2 , x3 , ..., xm , e facciamo
un estrazione:
N
1
2
3
4
..
.

x
x1
x1
xm
x5
..
.

x7

dove N rappresenta il numero dellestrazione e x il valore che la variabile ha assunto in quella determinata estrazione. Se andiamo a raccogliere in una tabella il risultato dellestrazione,
vediamo che, ad esempio, la variabile xi si presentata ri volte:
r
r1
r2
r3
r4
..
.

x
x1
x2
x3
x4
..
.

rm

xm

Ovviamente immediato che la sommatoria di tutti gli ri sar


X
N=
ri
i

Possiamo anche associare una frequenza f


fi =

ri
N

che rappresenta il rapporto tra il numero di volte che viene estratta la variabile xi rispetto al
numero totale N delle estrazioni. A questo punto possiamo definire una quantit importante,
il valor medio della variabile x, che rappresenta la media dei valori assunti da da x dopo N
estrazioni, e viene indicata con < x >
< x >=

r1 x1 + r2 x2 + r3 x3 + + rm xm X
fi xi
=
N
i

CAPITOLO 1. VARIABILI DISCRETE

Per N molto grandi possiamo definire una nuova quantit, Pi :


ri
N N
lim

Pi la probabilit associata al valore xi , e rappresenta la frazione di volte che viene estratto il


valore xi per un numero di estrazioni tendente a infinito. Questa la interpretazione frequentista
della probabilit.
Appare evidente come < x > sar uguale a:
X
< x >=
Pi xi
i

Sia abbia una variabile y tale che essa sia y = g(x), allora:
X
< g(x) >=
Pi g(xi )
i

Si possono definire altre quantit come i momenti di ordine k:


X
< xk >=
Pi xki
i

e la Varianza
V ar(x) =< (xi < x >)2 >=

X
i


Pi xi 2Pi xi < x > +Pi < x >2 =< x2 > < x >2

Capitolo 2

Variabili Continue
Nel caso di variabili continue, non si pu associare a un punto una probabilit finita.
Bisogna infatti associare la probabilit a a un segmentino dellintervallo i . La probabilit che
la variabile x i sar Pi Di conseguenza Pi = f (xi ) e possiamo svilupparla in serie di
Mclaurin
Pi = f (xi ) = f 0 (0)xi
Pi
=
xi
xi
= dP (x0 x x0 + dx) = p(x0 )dx
dove

(2.1)
(2.2)
(2.3)


dP
p(x0 ) =
dx x=x0

p(x) la funzione densit di probabilit e consiste nella probabilit che la variabile continua x
sia contenuta in dx. Adesso ci possiamo chiedere quale sia la probabilit che la variabile x sia
contenuta in un intervallo compreso tra due valori x1 e x2 . Essa sar
X
P (x1 x x2 ) =
Pk
k

dove Pk la probabilit che la variabile x sia compresa nellintervallo k compreso fra x1 e x2 .


Dalle considerazioni precedenti, per intervalli xk molto piccoli
Z x2
X
X
k0
Pk =
p(xk )xk
p(x)dx
k

x1

Segue la definizione del valore medio per una variabile aleatoria continua:
Z +
X
X
xp(x)dx
x =
xk Pk =
xk p(xk )xk =
k

Mentre per una funzione della variabile aleatoria, analogamente al caso discreto
Z +
f (x) =
p(x)f (x)dx

CAPITOLO 2. VARIABILI CONTINUE

2.1

Probabilit Condizionata

Supponiamo di avere due variabili discrete X e Y .


X
x1
x2
x3
..
.

Y
y1
y2
y3
..
.

xm

yn

Estraendo un valore xi con i = 1, . . . , m e un valore yj con j = 1, . . . , n, otterremo una coppia


(xi , yj ) a cui possiamo associare una probabilit Pij . Supponiamo esista una relazione statistica
che lega i valori estratti da x rispetto ai valori estratti da y.
P (xi |yj ) indica la probabilit che venga estratto il valore xi essendo gi stato estratto il valore
yj . P (yj |xi ) indica la probabilit che venga estratto il valore xj essendo gi stato estratto il
valore yi . Supponisamo di avere x = {x1 , x2 } e y = {y1 , y2 }, e di estrarre prima un valore da x
e poi da y N volte, in modo tale da creare N coppie.
x1
x1
x2
x2

y1
y2
y1
y2

r11
r12
r21
r22

La probabilit y2 sia estratta sar ovviamente:


P (y2 ) =

r12 + r22
r12 r22
=
+
= P (x1 , y2 ) + P (x2 , y2 )
N
N
N

Mentre la probabilit che esca x2 avendo estratto y1 sar dato da:


P (x2 |y1 ) =

r21
r21
=
N1
r11 + r21

Quindi mettendo insieme le due espressioni e dividendo per N


divido per N

r21 = P (x2 |y1 )(r21 + r11 )


r21
(r21 + r11 )
P (x2 |y1 )
N
N
= P (x2 |y1 )P (y1 ) = P (x2 , y1 )
Otteniamo quindi il Teorema di Bayes
P (X, Y ) = P (X|Y )P (Y ) = P (Y |X)P (X)
Questo teorema pu essere esteso per variabili continue. Infatti
Z D
P [(x, y) D] =
p(x, y)dxdy
e

dP
dP (y) = dy p(x, y)dx
= p(y) =
dy
Fissato y la probabilit condizionata di avere x sar:
P (x|y)dx =

Z
p(x, y)dx

dP (x, y)
P (x, y)dxdy
=
dP (y)
p(y)dy

(2.4)
(2.5)
(2.6)

CAPITOLO 2. VARIABILI CONTINUE

Quindi
P (x, y)dx =

P (x, y)dx
p(x, y) = p(y)p(x|y)
P (y)

Se abbiamo un legame deterministico tra x e y, y = g(x), allora ovvio che


(
0,
quando y = g(x)
p(y|x) =
6= 0, quando y = g(x)
ed quindi rappresentabile da una Delta di Dirac
p(y|x) = [y g(x)]
Quindi per il teorema di Bayes
p(x, y) = [y g(x)]p(x)
Z
p(y) = p(x, y)dx = [y g(x)]p(x)dx
Z

Se poniamo f (x) = y g(x)


(
0
[f (x)] =
6= 0x = x0

x 6= x0

Se poniamo
y = f (x) x = f 1 (y) e dx =
allora:

(y)
f 0 [f 1 (y)]

dy =

dy
f 0 [f 1 (y)]

1
f 0 (x

0)

per la propriet di estrazione della delta. Quindi essendo:


Z
1
(x x0 )
=
0
f (x0 )
|f 0 (x0 )|
[f (x)] =

(x x0 )
|f 0 (x0 |

Se vogliamo quindi trovare la densita di probabilit di una variabile y = f (x)


p(y|x) = (y f (x)) =

(x x0 (y))
|f 0 (x0 (y))|

con f (x0 ) = 0
p(x, y) =

1
(x x0 (y))p(x)
|f 0 (x0 (y))|

La stessa relazione si sarebbe potuta trovare in modo differente. Supponendo y = f (x) con f (x)
strettamente crescente, sappiamo che
dP (x0 x x0 + dx) = p(x0 )dx
Avendo imposto f (x) strettamente crescente
f (x0 ) y f (x0 + dx)

CAPITOLO 2. VARIABILI CONTINUE

x1

x2

I1

x3

I2

I3 I4

x4

I5

I6

che sviluppando in serie di taylor


f (x0 ) y f (x0 ) + f 0 (x)dx
Siccome c un legame deterministico, nellintervallo:
dP (f (x0 ) y f (x0 ) + f 0 (x)dx) = dP (x0 x x0 + dx
dP (f (x0 ) y f (x0 ) + f 0 (x)dx) = p(y0 )dy = p(y0 )f 0 (x0 )dx
perch dy = f 0 (x0 )dx Allora
p(y0 )f 0 (x0 )dx = p(x0 )dx p(y0 )f 0 (x0 ) = p(x0 )
Quindi:
p(x0 (y))
f 0 (x0 (y))
Quando y = f (x) non invertibile, si pu comunque utilizzare un approccio diverso. Sia infatti
xk con k = 1, . . . , n tale che f (xk = 0). Allora:
(
[f (x)] = 0 quando f (x) 6= 0
6= 0 quando f (x) = 0
p(y0 ) =

Siccome la funzione se suddivisa in tratti tra i punti di massimo e minimo relativo invertibile:
Z +
XZ
[f (x)]dx =
[f (x)]dx

Ik

XZ
Ik

[x xk ]
dx
|f 0 (xk )|

Quindi se ho y = h(x)
Z
p(y) =

Z
p(x, y)dx =

p(y|x)p(x)dx

Z
(y h(x))p(x)dx
Z X
[x xk (y)]
=
dx
|f 0 (xk (y))|

Se porto la sommatoria fuori dal segno dellintegrale


X p(xk (y))
X Z [x xk (y)]
dx
=
|f 0 (xk (y))|
|f 0 (xk (y))|
k

Capitolo 3

Processi Stocastici
Un processo stocastico X(t) una famiglia di variabili casuali indicizzate da un parametro t,
solitamente rappresentante il tempo, ma che pu rappresentare anche la posizione, unidimensionale e non, della variabile X nello spazio. In questo caso parliamo di processo stocastico spaziale.
Un esempio pu essere laltitudine rappresentata da h(x) di un volo tra Bari e Milano. Esso
un processo stocastico con varie realizzazioni hi (x), infatti per ogni viaggio la posizione a una
determinata x non sar fissata, ma sar diversa per ogni realizzazione, con una certa variabilit.
Passiamo ora a caratterizzare il processo stocastico.Ad esempio immediato che il valore medio

Bari

Trani

Milano

della quota < h(x) > non costante rispetto a x, ma funzione di x. Se ci riferiamo invece alle
densit di probabilit anche esse varieranno in funzione della x. Ad esempio, per x = 0, ovvero
laereo a Bari, la funzione densit di probabilit sar una delta di Dirac:
p(h(0)) = 1
Mentre ad esempio se per la coordinata x1 che rappresenta la posizione di Trani sar, ad esempio,
una gaussiana. Per questo il processo si dice non stazionario Chiameremo un processo stazionario
in senso stretto quando, la p(h) sar indipendente da x. Stazionario in senso largo quando < h >
sar indipendente da x. Si pu usare unaltra quantit lautocorrelazione. Per un processo
stazionario in cui h(x1 ) = h1 e h(x2 ) = h2 chiameremo autocorrelazione:
Z
< h1 h2 >= p(h1 , h2 )h1 h2 dh1 dh2
Sappiamo dal Teorema di Bayes che
p(h1 , h2 ) = p(h1 |h2 )p(h2 )
7

CAPITOLO 3. PROCESSI STOCASTICI

Se poniamo x = x1 x2 allora, il coefficiente di autocorrelazione sar una funzione di x, R(x):


Z
R(x) =< h1 h2 >=< h(x1 )h(x1 + x) >= p(h1 , h2 )h1 h2 dh1 dh2
Come si nota, per stimare le propriet statistiche di un processo stocastico c bisogno di ripetere
lo stesso esperimento pi volte. Questo in molte applicazioni pratiche non sempre possibile, e
a volte si ha a disposizione una sola realizzazione, per cui le propriet statistiche devono essere
ottenute da quel singolo procedimento. Ci possibile per un processo stazionario. Infatto come
abbiamo detto per un processo stazionario h(x1 ) e h(x2 ) hanno la stessa distribuzione. Per una
realizzazione h(x) possiamo fare una stima della media del processo in un intervallo [0, L] con:
Z
1 L
h(x)dx
L 0
Intuitivamente, ci pu sembrare una media ragionevole, infatti una media tra variabili identicamente distribuite. Il problema che non sono indipendenti fra di loro, per questo la legge dei
grandi numeri non applicabile. Ma ragionevole pensare che per L lintegrale converger
al valore atteso. Questa propriet detta ergodicit e sostanzialmente prescrive che le medie di
h(xi ) con x [, +] convergano alla media complessiva. Ci aspettiamo che per una distanza
x = x2 x1 abbastanza grande, h(x1 ) e h(x2 ) siano non correlate fra loro, per questo la funzone
di autocorrelazione di un processo ergodico sar una legge esponenziale decrescente del tipo:
R(x) = ex
Per un processo ergodico, la funzione di autocorrelazione potra essere calcolata come
Z
1
R(x) = lim
h(x1 )h(x1 + x)dx1
L L

3.1

Relazione fra Autocorrelazione e Power spectrum

La trasformata di Fourier di una funzione h(x) sar:


Z +
1
dxh(x)eiqx
h(q) =
2
Se calcolo < h(q)h(q 0 ) >:
Z +
Z +
1
0
iqx
dxh(x)e
dx0 h(x0 )eiq x =
< h(q)h(q ) > =<
2

Z +
1
0
=<
dxdx0 h(x)h(x0 )eiqx eiq x
2
(2)
0

Siccome la media un applicazione lineare la posso portare sotto il segno dellintegrale, lespressione precedente diventa:
Z +
1
0
dxdx0 < h(x)h(x0 ) > eiqx eiq x
2
(2)
Riconosciamo in < h(x)h(x0 ) > lautocorrelazione R(x x0 ). Se ora effettuiamo un cambio di
variabili
(
x=s+t
x0 = t

CAPITOLO 3. PROCESSI STOCASTICI


Sappiamo che



(x, x0 )
dsdt
dxdx =
(s, t)
0

Dove



1 1
(x, x0 )

=1
= |J| =
0 1
(s, t)

determinante della matrice Jacobiana. Se sostituiamo


Z +
1
0
dsdtR(s)eiqs eiqt eiq t >=
< h(q)h(q 0 ) > =< 2
2
Z +
1
0
=< 2
dsdtR(s)eiqs ei(q+q )t >=
2
Z +
Z +
1
0
iqs 1
=<
dsR(s)e
dtei(q+q )t >
2
2
Riconosciamo nel secondo termine la linversa della trasformata di Fourier
Z +
1
0
dtei(q+q )t = (q + q 0 )
<
2
quindi:
< h(q)h(q 0 ) >= (q + q 0 )C(q)
dove
1
C(q) =<
2

dsR(s)eiqs

la trasformata di R(s). Da questa espressione notiamo come le due variabili sono incorrelate
tranne che per q = q 0 . Quindi
< h(q)h(q 0 ) >=< h(q)h(q) >=< |h2 (q)| >= (0)C(q)
dove
(0) =

L
1
=
2
q0

dove q0 la frequenza fondamentale. Quindi conoscendo q0 e h2 (q) possiamo caratterizzare la


C(q)

3.2

Calcolo del numero di intersezioni di un profilo a una data


quota

Se prendo una quota z e voglio conoscere il numero di intersezioni per unit di lunghezza so che:
XZ
X
N=
(x xk )dk =
(x xk )dx
k

Se divido per la lunghezza L ottengo:


N (z)
1
=
L
L

Z X

(x xk (z))dx

CAPITOLO 3. PROCESSI STOCASTICI

10

Abbiamo gi dimostrato che:


[(z h(x))] =

X x xk (z)
|h0 (xk (z))|
k

quindi sostituendo:
N (z)
1
=
L
L

kh0 (xk (z))|(z h(x))

Se supponiamo che il processo sia ergodico, lintegrale sar uguale alla media statistica:
Z
|h0 |[z h]p(h, h0 )dhdh0
se integro prima su h:
Z
Z
Z
N (z)
0
0
0
0
0
0
|h |[z h]p(h, h )dhdh = |h |p(z, h )dh = |z 0 Zp(z, z 0 )dz 0 =
L
p(z, z 0 ) una distribuzione multivariata, ad esempio normale. Una distribuzione bivariata
normale, come pu essere ad esempio p(z, z 0 avr la seguente forma
p(z, z 0 ) =
con

1
T 1
expx x
2


< z 2 > < zz 0 >
=
< z 0 z > < z 02 >


Potrebbero piacerti anche