Sei sulla pagina 1di 19

Segunda Tarea IPD-431

Jose Luis Allende Bustamante


19 de Junio de 2014
Problema 1 (20 pts)
Dena el concepto de caminata aleatoria (random walk), indique aplicaciones y provea un ejemplo apoyado en
simulaciones.
Desarrollo
Una caminata aleatoria se dene como una trayectoria que puede seguir un movil en R
n
. Para dicha trayectoria
cada paso que se da es discreto y se modela como una variable aleatoria, en el caso de una dimensi on es de tipo
Bernoulli y la posibilidad de tomar un sentido es p mientras que la de tomar otro camino es 1 p. En el caso de
mas dimensiones se puede considerar el proceso como la probabilidad de seguir un camino como p y la de tomar
cualquiera de los otros caminos como 1 p.
Existe una analoga de este proceso con las maquinas de estado, donde la posicion inicial es el estado inicial y se
cambia de estado con alguna probabilidad.
En el caso de una y dos dimensiones es posible determinar la probabilidad de que al nal de alguna cantidad n
de pasos el proceso se encuentre en algna posicion x. Mientras que en 3 o mas dimensiones no es posible determinar
dicha probabilidad. Esto encuentra su analoga en las maquinas de estado en los estados recurrentes y transitorios
respectivamente.
En terminos generales los procesos en los cuales es posible determinar la probabilidad es posible determinar una
expresion utilizando tecnicas de conteo, el problema es que no es viable al ser ya de 2 dimensiones pues la cantidad
de casos distintos es de 4
N
lo que se hace rapidamente complejo.
Debido a lo anterior resulta conveniente trabajar con posiciones que dependen exclusivamente de la posicion an-
terior y de la probabilidad de tomar una nueva direcci on para el siguiente paso (proceso de Markov). As, la posicion
en el paso n + 1 es tal que:
X
n+1
= x
n
+
n
h X
N
(t) = x
0
+
N

i=0

i
h (1)
Donde h es la longitud del paso y toma valores con distinta probabilidad y que permiten modicar la posicion
como sa necesario y seg un las dimensiones. Para el caso de 1 dimensi on se puede considerar:
=
_
1 ; Retroceder en una dimensi on con probabilidad P(
n
= 1) = 1 p
1 ; Avanzar en una dimensi on con probabilidad P(
n
= 1) = p
Las estadsticas de segundo orden del proceso son:
E[X] = x
0
+
N

i=0
E[
i
] h = x
0
+N(2p 1)h
V[X] = N h
2
De lo anterior se aprecia que el proceso en 1 dimensi on es posible modelarlo desde el punto de vista combinatorio
como una distribuci on de Binomial, tal que la probabilidad de terminar en una posicion X = x, luego de dar N pasos
es (condicionado a posicion inicial 0):
1
P(X = x) =
_
N
x
_
p
x
(1 p)
Nx
En el caso en que p =
1
2
se dice que el paseo aleatorio es simetrico y por tanto la esperanza es la posicion inicial.
Lo anterior es posible verlo en diferentes aplicaciones como lo son:
n el procesamiento de im agenes, los caminos aleatorios son utilizados para determinar las etiquetas (es decir,
objeto o fondo) para asociarlas con cada pxel.
Juegos de azar donde existe posibilidad de ganar y perder en cada juego, ejemplo la ruleta donde se puede los
resultados de los juegos y el total de monto de dinero del que se dispone sigue un camino aleatorio.
Movimiento browniano: Resume el movimiento de particulas en dos dimensiones, se puede considerar como
un proceso en el lmite de los paseos aleatorios discretos, donde se modela como una distribuci on Gaussiana
continua. Para ello, la media es x
0
y la varianza cumple con h =

t, t =
t
N
. As, con muchos pasos se
puede modelar como un proceso Normal N(x
o
, t)
En fsica es posible considerar los modelos de difusi on como caminos aleatorios.
En el caso de nanzas los valores de la bolsa y sus utilidades se puede considerar que siguen una caminata
aleatoria.
0.0.1. Ejemplo Unidimensional
:
Considerese que se desea modelar el movimiento de una particula en 1 dimensi on, en este caso se considera que la
probabilidad de que tome el camino a la derecha es p = 0,5 y a la izquierda es 0,5 el avance en cada paso es 0.01[m]
y realiza un paso cada 0.1[ms].
Figura 1: Caminata aleatoria unidimensional
Determinar el graco con diferentes caminos aleatorios para 10000 pasos.
El siguiente graco muestra 7 trayectorias posibles para el la situaci on anterior:
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
2
1.5
1
0.5
0
0.5
1
1.5
2
t[s]
x
[
m
]
Figura 2: Posibles trayectorias
2
Deteterminar posibilidad de a los 100 pasos llegar a la posici on 2[cm], para una posici on inicial
en 0
Dada la denicion de las variables, lo que se pide es determinar la posibilidad de que se encuentre en la posicion
x = 20 al dar N = 1000 pasos.
P(X = 20) =
_
100
20
_
0,5
20
0,5
80
= 4,2282 10
10
Si p = 0,3 mostrar el cumplimiento de las estadsticas de segundo orden (esperanza en particular)
para este caso y el anterior para 1000 pasos
De la denicion se tiene que la esperanza en cada caso sera:

x1
= x
0
+N(2p 1)h = x
0
= 4[m]

x2
= x
0
+N(2p 1) = 0
Por lo que es de esperar que independiente del camino que se elija estos debiesen tender a los valores anteriores,
en la siguiente gura se muestra tal situaci on con 7 caminos para cada caso.
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
4.5
4
3.5
3
2.5
2
1.5
1
0.5
0
0.5
t[s]
x
[
m
]
Figura 3: tendencia a la esperanza
Un hecho interesante de analizar es que para distintos caminos aleatorios generados si se toma la cantidad de
veces que se repite una posicion en particular esta debe distribuir en forma normal siempre, en este caso se toma la
ultima posicion de los vectores para 12000 caminos diferentes:
44 43 42 41 40 39 38 37 36
0
100
200
300
400
Figura 4: Muestra de que cada posicion tiene una distribuci on normal.
3
u u
K G
y
d
a) b)
H
n
d
Figura 5: (a) Sistema lineal excitado por ruido blanco (b) lazo de control cuya actuacion es enviada a traves de un
canal de ruido aditivo.
Problema 2 (35 pts)
Considere un proceso estacionario en sentido amplio d de media
d
=
_
0 0

T
y con espectro
S
d
(z) =
_
1
2
1
2
z
(1z) (1 z1)
0
0
2
2
2
2
z
(2z) (2 z1)
_
. (2)
a) Considere el esquema de la Figura 5(a), donde n corresponde a un proceso de ruido de media
n
y de matriz de
varianza constante P
n
, y H es un sistema lineal de dos entradas y dos salidas, cuya descripcion en variables de
estado est a dada por
x(k + 1) = Ax(k) +Bn(k), x(0) = x
0
, k N
0
, (3a)

d(k) = Cx(k) +Dn(k), (3b)


sujeto a que B = I y C = I, donde I es la matriz identidad de dimensi on dos.
I) Dise ne un ltro H y un ruido n de tal forma que las estadsticas estacionarias de primer y segundo orden
de

d sean iguales a las de d (imponga condiciones en
i
,
i
y
i
(i = 1, 2) si es necesario).
II) Es posible construir un proceso

d tal que sus estadsticas de primer y segundo orden sean iguales a la del
proceso d para todo instante?
b) Considere el esquema realimentado de la Figura 5(b), donde G representa una planta, K su controlador (ambos
SLIT de tiempo discreto, de dos entradas y dos salidas, y con matriz de transferencia diagonal), y =
_
y
1
y
2

T
corresponde a la salida del sistema, u =
_
u
1
u
2

T
denota la se nal de control, d =
_
d
1
d
2

T
es el proceso descrito
anteriormente, y u =
_
u
1
u
2

T
corresponde a la entrada de la planta. Consideraremos que la se nal de control es
enviada a traves de un canal de ruido aditivo, donde d corresponde al ruido del canal, y es tal que u = u + d.
(Note que dicho canal esta formado por dos canales escalares tal que u
i
= u
i
+d
i
, i = 1, 2). Suponga que el canal
satisface
w
i


2
ui

2
di
< W
i
, (4)
donde w
i
corresponde a la relacion de se nal a ruido estacionaria en la componente i-esima del canal ruidoso.
Determine condiciones necesarias y sucientes sobre K y W
i
para que el problema de estabilizar el lazo (en sentido
cuadratico medio), sujeto a las restricciones del canal, sea un problema factible. Dichas condiciones deben quedar
expresadas en funci on de un problema de minimizaci on (no necesariamente convexo).
Desarrollo
a) I) Dado que se conoce el espectro de salida del sistema y se aprecia q es racional, y considerando que el proceso
es estacionario en sentido amplio, se tiene que es posible expresar el espectro de la siguiente manera:
S
d
=
d
(z)
d
(z)

(5)
4
Donde
d
(z)

=
d
(z
1
)
T
. De lo anterior y considerando que se trata de una matriz diagonal, se tiene la
siguiente ecuaci on matricial:
S
d
(z) =
_
1
2
1
2
z
(1z) (1 z1)
0
0
2
2
2
2
z
(2z) (2 z1)
_
=
_
a b
c d
_

_
a b
c d
_
T
(6)
S
d
(z) =
_
a
2
+b
2
ac +bd
ac +bd c
2
+d
2
_
Se tiene que cumple con esto b = c = 0, a =
11
(z1)
, d =
22
(z2)
. As, se obtiene que:

d
(z) =
_
11
(z1)
0
0
22
(z2)
_
(7)
Por otra parte, veremos cuales son las estadsticas de

d(k):

d
(k) = A
x
(k) +D
n
(8)
Ademas, la varianza es tal que:
P

d
(k) = E{(

d(k)

d
(k))(

d(k)

d
(k))
T
} (9)
= E{

d(k)

d(k)
T
}

d
(k)

d
(k)
T
(10)
Continuando el desarrollo de la expresion se tiene que:
P

d
(k) = C(P
x
(k) +
x
(k)
x
(k)
T
)C
T
+CE{x(k)n(k)
T
}D
T
+DE{n(k)x(k)
T
}C
T
+DE{P
d
(k) +
n
(k)
n
(k)
T
}
(11)
De lo anterior se puede apreciar que el sistema se torna complejo si no se hacen simplicaciones adecuadas,
para ello es conveniente utilizar los grtados de libertad otorgados. Lo primero que se considera es que el
proceso es tal que el proceso de ruido debe ser Ruido Blanco de tal forma que la secuencia tome valores inde-
pendientes unos de otros y ademas se tiene la independencia con el estado x, esto hace que varios momentos
se anulen. Por otro lado, este ruido blanco, como aparece en el enunciado, posee matrices de esperanza y
varianza constantes.
Para los efectos anteriores y ademas buscando garantizar la condicion estacionaria impuesta, se considera que
el proceso debe ser tal que se pueda tener caractersticas estacionarias. Para ello se pone como condicion que
el sistema elegido sea estable en el sentido cuadratico medio, condicion que se cumple haciendo que (A) < 1.
En las condiciones anteriores, las caractersticas estacionarias cumplen con lo siguiente:

d
= (C(I A)
1
B +D)
n
(12)
P

d
= CP
x
C
T
+ DP
n
D
T
(13)
R

d
= C A
1
(AP
x
C
T
+BP
n
D
T
) (14)
S

d
= H

d
(z)P
n
H

d
(z) (15)
De lo anterior se aprecia que se puede elegir que la matriz de estado inicial del ruido blanco sea 0, vale decir

n
= [0 0]
T
, con esto se asegura la igualdad de la media estacinaria. Por otro lado, de la ultima ecuaci on,
5
se puede observar que se obtienen condiciones para el ltro pues aparece una relacion directa entre este y la
matriz
d
(z) encontrada en el comienzo, de hecho, si:
P
n
= I
2
=
_
1 0
0 1
_
(16)
H

d
(z) =
_
11
(z1)
0
0
22
(z2)
_
(17)
En que dicha matriz de transferencia cumple con la condicion:
H

d
(z) = C(zI A)
1
B +D (18)
Por lo tanto, resta encontrar las matrices A, B, C y D que cumplan lo anterior y principalmente que coincidan
con la restriccion para la estabilidad impuesta al comienzo. En efecto una eleccion que cumple con lo anterior,
condicionado a que |
i
| < 1, i = 1, 2 es:
A =
_

1
0
0
2
_
(19)
B =
_

1
0
0
2
_
(20)
C =
_

1
0
0
2
_
(21)
D =
_
0 0
0 0
_
(22)
(23)
II) Es necesario destacar que en el caso anterior aparece la varianza de x sin denirla explcitamente, esta
cumple con:
P
x
= AP
x
A
T
+BP
u
B
T
(24)
Para que el proceso sea instant aneamente igual al proceso d, sera necesario a nadir como condicion que
la media del ruido sea igual a la media de la condicion inicial, es decir
x
(0) = [0 0]
T
y ademas, que la
varianza de la condicion inicial sea igual a la varianza de d. Por lo tanto si es posible construir dicho proceso
P
x
(0) = P

d
.
Lo anterior hace uso de algunos resultados obtenidos en clases, a un as es importante destacar que esto se
justica tambien porque una vez obtenidas las expresiones recursivar para cualquier estadstica del sistema
estas quedaran dependiendo de matrices constantes y de estados anteriores de la misma estadstica u otras,
as, es posible contruir la expresion instantanea a partir de las expresiones recursivas y para ellas nalmente
lo que se logra es expresiones dependientes de los estados iniciales de las estadsticas y de las matrices, con
el punto anterior ya fueron bien condicionadas las matrices, ahora basta con hacer lo viston en el p arrafo
anterior y se garantiza la igualdad instant anea.
b) En este problema es importante destacar que el problema a resolver no consiste en minimizar el ruido, pues la
planta es dada y no corresponde a un ltro con dichos nes. Lo que se busca hacer es encontral el controlador
optimo que permita minimizar la relacion se nal a ruido.
Tanto el controlador como la planta son formas diagonales, por lo que se les puese expresar como:
6
K(z) =
_
k
11
(z) 0
0 k
22
(z)
_
(25)
G(z) =
_
g
11
(z) 0
0 g
22
(z)
_
(26)
(27)
Las relaciones de transferencia entre las se nales que intervienen en la relacion se nal a ruido son (se utiliza la
caracterstica diagonal de las transferencias):
y
i
d
i
=
g
ii
1 k
ii
g
ii
= S
i
(z) (28)
u
i
d
i
=
k
ii
g
ii
1 k
ii
g
ii
= T
i
(z) (29)
Se desea cumplir con:

2
u1

2
d1
< W
1
(30)

2
u2

2
d2
< W
2
(31)
Lo anterior se puede utilizar considerando que la densidad espectral cumple con 2 caractersticas, se busca con
ellas que se cumpla la estabilidad en el sentido cuadratico medio:
S
y
(z) = H
y
(z)P
u
H
y
(z)

(32)
P
X
(z) =
1
2
_

S
X
(e
j
)d (33)
As, y nuevamente considerando que se trata de matrices diagonales, se tiene en forma independiente que:

d
(z) =
_
11
(z1)
0
0
22
(z2)
_
(34)
=
_

11
0
0
22
_
(35)

2
ui
=
1
2
_

T
i
(e
j
)S
dii
(e
j
)T
i
(e
j
)

d (36)
Considerando la relacion conocida del espectro de d, se puede considerar el problema como:

2
ui
=
1
2
_

T
i
(e
j
)
ii
(e
j
)

2
d (37)
Por otro lado, las varianzas asociadas al ruido sin:

2
di
=
1
2
_

S
dii
(e
j
)d =
1
2
_

ii
(e
j
)

2
d (38)
7
As, y dado que no se pide que los problemas de minimizaci on sean convexos, es necesario encontrar el controlados
diagonal, que sea tal que:
k
11OPTIMO
(z) : k
1x1
S :
||T
1
(z)
11
(z)||
2
2
||
11
(z)||
2
2
< W
1
(39)
k
22OPTIMO
(z) : k
1x1
S :
||T
2
(z)
22
(z)||
2
2
||
22
(z)||
2
2
< W
2
(40)
(41)
Donde, S es el conjunto de los controladores escalares propios LIT que hacen que el lazo sea internamente es-
table. Como se menciono antes, se puede buscar resolver este problema por medio de la parametrizaci on de Youla,
resolviendo un problema convexo que puede ser mas facil de resolver.
La notaci on || ||
2
2
se reere a la norma 2 al cuadrado.
Para calcular las normas anteriores es posible hacer uso de analisis funcional. Basicamente la integral se puede
llevar a una integral compleja e intentar minimizar el valor de los residuos asociados a los polos fuera del crculo
unitario.
Problema 3 (45 pts)
En este problema se estudia una clase sencilla de sistemas lineales con saltos Markovianos. Estos sistemas sir-
ven como modelo de situaciones que involucran conmutaciones no determinsticas como, por ejemplo, sistemas de
procesamiento de se nales o control sujetos a la perdida de datos.
a) Considere la situaci on de la Figura 6(a), donde el sistema S es tal que
x(k + 1) = Ax(k) + Bu(k), x(0) = x
0
, k N
0
, (42a)
y(k) = Cx(k) +Du(k), (42b)
con y una se nal escalar, y
y

(k) = (k)y(k), (43)


donde es una secuencia i.i.d. tal que (k) {0, 1} y Prob((k) = 1) = p. Suponga que x
0
es una variable
aleatoria de segundo orden, y que u es ruido blanco de segundo orden con media cero y varianza constante, no
correlacionado con x
0
. Suponga, ademas, que es independiente de (x
0
, u).
y

y u
S
y u
S
yq
q
A
a)
b)
Figura 6: (a) Sistema en que la medicion de la salida es intermitente y (b) situaci on auxiliar en que la perdida de
datos se ha reemplazado por una ganancia y una fuente de ruido.
i) Obtenga expresiones recursivas que permitan calcular la media, varianza y funci on de covarianza de y

en
todo instante. Bajo que condiciones el proceso y

es asint oticamente estacionario en sentido amplio? Calcule


la media y varianza estacionaria de y

en dicho caso.
ii) Considere la situaci on auxiliar de la Figura 6(b), donde S tiene la descripcion dada anteriormente,
y
q
(k) = q(k) + Ay(k), (44)
donde A es una constante, y q es ruido blanco de media cero, no correlacionado con (x
0
, u). Para que eleccion
de A y P
q
(k) se tiene que las medias, varianzas y funciones de covarianza de y

e y
q
coinciden para todo
instante?
8
b) Considere el sistema realimentado de la Figura 7(a), donde N

es tal que
x

(k + 1) = Ax

(k) +B
d
d(k) +B
w
w

(k), x

(0) = x
0
, k N
0
, (45a)
e

(k) = C
e
x

(k) +D
de
d(k) +D
we
w

(k), (45b)
v

(k) = C
v
x

(k) +D
dv
d(k), (45c)
con v

escalar,
w

(k) = (k)v

(k), (46)
y es como en la parte anterior. Suponga que x
0
es una variable aleatoria de segundo orden, y que d es ruido
blanco de segundo orden con media cero y varianza constante, no correlacionado con x
0
. Suponga, ademas, que
es independiente de (x
0
, d).
i) Determine una ecuaci on recursiva para la media, varianza y funcion de covarianza de x

y de e

.
ii) Establezca condiciones necesarias y sucientes para la convergencia de la media y varianza de x

.
iii) Considere la situaci on auxiliar de la Figura 7(b), donde N
q
es tal que
x
q
(k + 1) = Ax
q
(k) +B
d
d(k) +B
w
w
q
(k), x
q
(0) = x
0
, k N
0
, (47a)
e
q
(k) = C
e
x
q
(k) +D
de
d(k) + D
we
w
q
(k), (47b)
v
q
(k) = C
v
x
q
(k) +D
dv
d(k), (47c)
con v
q
escalar,
w
q
(k) = q(k) +Av
q
(k), (48)
A es una constante, y q es ruido blanco de media cero. Suponga que (x
0
, d) son como en la parte anterior y
que q no est a correlacionado con (x
0
, d). Para que eleccion de A y P
q
(k) se tiene que las medias, varianzas
y funciones de covarianzas de x

y x
q
coinciden para todo instante?
vq wq
d
Nq
A
q
v

eq
a) b)
Figura 7: (a) Sistema realimentado a traves de un canal imperfecto que pierde datos con probabilidad 1 p y (b)
situaci on auxiliar en que la perdida de datos se ha reemplazado por una ganancia y una fuente de ruido.
Desarrollo
a) I) Se pide determinar las estadsitcas recursivas del sistema.
Esperanza: Para determinar la media se considera que:
E{y

(k)} = E{y(k)(k)}
Si M, Y, N son matrices aleatorias, Y es independiente de (M, N) y que (M, N) toma valores en el
conjunto nito {(M
0
, N
0
), ,(M
n
, N
n
)}, donde n N
0
. Y si Pr{(M, N) = (M
i
, N
i
)} = pi, p
i
(0, 1)
, p
0
+... +p
n
= 1, entonces
9
E{MY N} = p
i
M
i
E{Y }N
i
Este resultado se utilizara en el desarrollo de este problema.
Para este caso M = (k) y N = I
1
, con lo cual:
E{y(k)(k)} = E{(k)}E{y(k)}
E{(k)} = p 1 + (1 p) 0

y
(k) = C
x
(k) +D
u
(k)
La media del ruido blanco es 0, mientras que la de x(k) se puede determiar en forma recursiva:

x
(0) = A(0)

x
(1) = A(A(0))
.
.
.

x
(k) = A
k
(0)
Con lo cual:
E{y

(k)} = p C A
k

x
(0) (49)
Varianza: En este caso se tiene:
P
y

= E{(y

)(y

)
T
}
= E{(k)y(k)y(k)(k)}
2
y

(k)
= pE{y(k)y(k)}
2
y

El primer factor tiene probabilidad p pues son los valores de (k) en un mismo instante, considerando
la varianza de y:
P
y
(k) = E{(y(k)
y
(k))(y(k)
y
(k))
T
} = E{y(k)y(k)}
2
y
E{y(k)y(k)} = P
y
(k) +
2
y
Por lo tanto, se tiene que:
P
y

= p(P
y
(k) +
2
y
) p
2

2
y
= pP
y
(k) +p(1 p)
2
y
Donde, como se demostr o en clases, la varianza del sistema cumple con la siguiente recursi on:
P
y
(k) = Cp
x
(k)C
T
+DP
u
(k)D
T
(50)
P
x
(k + 1) = AP
x
(k)A
T
+BP
u
(k)B
T
(51)
Con P
u
(k) = P
u
(0) = cte. y P
x
(0) = P
x0
10
Funcion de covariaza: en este caso la denicion correspone a:
R
y

(k +, k) = E{(y

(k +)
y

(k +))(y

(k)
y

(k))
T
}
En primera instancia se determina la expresion para R
y

(k + 1, k).
R
y

(k + 1, k) = E{(y

(k + 1)
y

(k + 1))(y

(k)
y

(k))
T
} (52)
= E{y

(k + 1)y

(k)}
y

(k + 1)
y

(k) (53)
E{y

(k + 1)y

(k)} = E{(k + 1)y(k + 1)y(k)(k)} (54)


= p
2
E{y(k + 1)y(k)} (55)
R
y
(k + 1, k) = E{(y(k + 1)
y
(k + 1))(y(k)
y
(k))
T
} (56)
= E{y(k + 1)y(k)}
y
(k + 1)
y
(k) (57)
E{y(k + 1)y(k)} = R
y
(k + 1, k) +
y
(k + 1)
y
(k) (58)
Por otro lado:

(k + 1)
y

(k) = p
2
(
y
(k + 1)
y
(k)) (59)
Considerando los resultados de las ecuaciones (55), (58) y (59) en la ecuaci on (53) se llega a:
R
y

(k + 1, k) = p
2
(R
y
(k + 1, k) +
y
(k + 1)
y
(k))
y

(k + 1)
y

(k) (60)
= p
2
R
y
(k + 1, k) (61)
En terminos generales se tiene que:
R
y

(k + 1, k) = p
2
R
y
(k + 1, k)
R
y

(k + 2, k) = p
2
R
y
(k + 2, k)
.
.
.
R
y

(k +, k) = p
2
R
y
(k +, k)
Para la funci on de covarianza de la salida se cumple que:
R
y
(k +, k) = CA
1
(AP
x
(k)C
T
+DP
u
D
T
), > 0 (62)
Para que el proceso anterior sea assntoticamente estacionario en sentido amplio (a wss) es necesario que
en el lmite al tender la magnitud de k a innito las estadsticas calculadas antes pueden depender solo de
, no de k.
Lo anterior se reduce b asicamente a condiciones sobre la varianza de la salida y del estado pues la varianza
del ruido es constante y no depende de k.
11
lm
k

(k) = (63)
lm
k
R
y

(k +, k) = f() (64)
El sistema debe cumplir por tanto que A
k
tienda a 0 en la medida que k , lo que se cumple con (A) < 1
(condici on de MSS).
En dichas condiciones se cumplira que:

(k) = 0P
y

= pP
y
(65)
Donde P
y
de calcula en estacionario como:
P
y
= CP
x
C
T
+DP
u
D
T
(66)
Y la varianza de x estacionaria es posible calcularla con:
P
x
= vec
1
{(I A A)
1
vec{BP
d
B
T
}} (67)
Con el operador vec visto en clases.
II) El sistema a considerar en este caso corresponde a:
x(k + 1) = Ax(k) +Bu(k), x(0) = x
0
, k N
0
,
y(k) = Cx(k) +Du(k)
y
q
(k) = q(k) +Ay(k)
Nuevamente es necesario considerar las estadsticas de segundo orden para la salidad del sistema completo.
Esperanza:
E{y
q
(k)} = E{q(k)} +AE{y(k)}
= A
y
(k)
= A C
x
(k)
= A C A
k

x
(0)
Varianza:
P
yq
(k) = E{(y
q
(k)
yq
(k))(y
q
(k)
yq
(k))
T
} (68)
= E{y
q
(k)y
q
(k)}
yq
(k)
yq
(k) (69)
= E{q(k)q(k)} +E{q(k)y(k)A} +E{Ay(k)q(k)} +E{Ay(k)y(k)A}
yq
(k)
yq
(k) (70)
= P
q
(k) +A(P
y
(k) +
2
y
)A
yq
(k)
yq
(k) (71)
= P
q
(k) +AP
y
(k)A (72)
Donde para hacer los 2 terminos que contienen E{q(k)y(k)} se hace uso del hecho que q es independiente
de (x
0
, u).
12
Funcion de covarianza:
Se considera el c alculo, en primera instancia, para = 1:
R
yq
(k +, k) = E{(y
q
(k +)
yq
(k +))(y
q
(k)
yq
(k))
T
}
R
yq
(k + 1, k) = E{(y
q
(k + 1)
yq
(k + 1))(y
q
(k)
yq
(k))
T
}
= E{y
q
(k + 1)y
q
(k)}
yq
(k + 1)
yq
(k)
= E{(q(k + 1) +Ay(k + 1))(q(k) +Ay(k))}
yq
(k + 1)
yq
(k)
= E{q(k + 1)q(k)} +AE{q(k + 1)y(k)} +AE{q(k)y(k + 1)}
+A
2
E{y(k + 1)y(k)}
yq
(k + 1)
yq
(k)
Donde los primeros 3 sumandos de la ultima ecuaci on son 0, el primero debido a que se trata de ruido
blanco y el segundo y tercero debido no hay correlaci on entre q e y (porque no la hay con (u,x
0
).
R
yq
(k + 1, k) = A
2
(R
y
(k + 1, k)
La siguiente tabla resume los resutados para ambos casos:
Cuadro 1: Estadsticas de las salidas de los sistemas
Salida E{} P

(k +, k)
y

(k) pCA
k

x
(0) pP
y
(k) +p(1 p)
2
y

p
2
R
y
(k +, k)
y
q
(k) ACA
k

x
(0) P
q
(k) +AP
y
(k)A A
2
(R
y
(k + 1, k)
Para que las estadsticas de ambas salidas sean iguales, basta considerar que:
A = p (73)
P
q
(k) = p(1 p)
2
y

. (74)
b) I) En este caso se tiene que determinar las estadsticas de x

y e

.
x

Esperanza:
Se puede replantear el sistema de la siguiente manera:
x

(k + 1) = (A +B
w
(k)C
v
)x

(k) + (B
d
+B
w
(k)D
dv
)d(k) (75a)
e

(k) = (C
e
+D
we
(k)C
v
)x

(k) + (D
de
+D
we
(k)D
dv
)d(k) (75b)
Donde solo aparecen las relaciones entre la entrada la salida y el ruido, esto es analogo a un sistema
como el LTI analizado en clases, sin embargo, las matrices de la represenmtacion de estado seran
variables, por lo cual es necesario poner atenci on en este punto al analizar las estadsticas pedidas.
As, este sistema se puede considerar como el sistema generico con las matrices

A,

B,

C,

D. Consi-
derando lo planteado en el p arrafo anterior, en los resultados en lugar de aparecer (k) habr a alguna
funci on de p pues se trabaja con la esperanza de estos sistemas.
Para determinar la esperanza basta con considerar la ecuaci on:

(k + 1) = A
x

(k) +B
d

d
(k) +B

(k)

(k) = E{(k)v

(k)} = p
v

(k)

(k) = C
v

(k) +D
dv

d
(k)
13
Considerando que la media del ruido blanco es 0 y uniendo las ecuaciones anteriores se tiene que:

(k + 1) = (A +B

pC
v
)
x

(k) (76)
Y la solucion de la ecuaci on es:

(k) = (A +B

pC
v
)
k

(0) (77)
Varianza: Para determinar la varianza se considera la recursi on:
P
x

(k + 1) = E{x

(k + 1)x

(k + 1)
T
}
x

(k + 1)
x

(k + 1)
T
= E{((A + B
w
(k)C
v
)x

(k) + (B
d
+B
w
(k)D
dv
)d(k))
((A +B
w
(k)C
v
)x

(k) + (B
d
+B
w
(k)D
dv
)d(k))
T
} M(k)
Donde por simplicidad se utiliza M(k) =
x

(k +1)
x

(k +1)
T
. En lo sucesivo se tiene en conside-
racion lo siguiente:
Debido a que x

(k) y d(k) son independientes los terminos asociados a E{x

(k)d(k)} se hacen 0.
Debido a que d(k) es ruido blaco la secuencia de este es independiente entre un instante y otro,
es decir E{d(i)d(k)} = 0 i = k.
Considerando lo anterior y trabajando las expresiones se tiene que:
P
x

(k + 1) = E{(A +B
w
(k)C
v
)x

(k)x

(k)
T
(A +B
w
(k)C
v
)
T
}
+E{(B
d
+B
w
(k)D
dv
)d(k)d(k)
T
(B
d
+B
w
(k)D
dv
)
T
} M(k)
Luego, considerando que la esperanza de la secuencia (k)(k) es p pues los otros 3 casos tienen
asociado alg un 0 y ademas se trata del valor en un mismo instante.
Sea:
M
x
(k) = E{x(k)x(k)
T
+
x
(k)
x
(k)
T
}
P
x

(k + 1) = AM
x

A
T
+pAM
x

C
T
v
B
T
w
+pB
w
C
v
M
x

A
T
+pB
w
C
v
M
x

C
T
v
B
T
w
+B
d
M
d
B
T
d
+pB
w
D
dv
M
d
B
T
d
+pB
d
M
d
D
T
dv
B
T
w
+pB
w
D
dv
M
d
D
T
dv
B
T
w
M(k)
M(k) =
x

(k + 1)
x

(k + 1)
T
= A
x

(k)
x

(k)
T
A
T
+pA
x

(k)
x

(k)
T
C
T
v
B
T
w
+pB
w
C
v

(k)
x

(k)
T
A
T
+p
2
B
w
C
v

(k)
x

(k)
T
C
T
v
B
T
w
Reduciendo:
P
x

(k + 1) = AP
x

(k)A
T
+pAP
x

(k)C
T
v
B
T
w
+pB
w
C
v
P
x

(k)A
T
+pB
w
C
v
P
x

(k)C
T
v
B
T
w
+B
d
P
d
(k)B
T
d
+pB
w
D
dv
P
d
(k)B
T
d
+pB
d
P
d
(k)D
T
dv
B
T
w
+pB
w
D
dv
P
d
(k)D
T
dv
B
T
w
+p(1 p)(B
w
C
v

(k)
x

(k)
T
C
T
v
B
T
w
)
Donde se ha considerado la condicion de los momentos.
E{x

(k)x

(k)
T
} = P
x

(k) +
x

(k)
x

(k)
T
E{d(k)d(k)
T
} = P
d
(k)
14
Funcion de covarianza:
Para calcular la funci on de convarianza se considera en primera instancia la recursi on para = 1.
R
x

(k + 1, k) = E{(x

(k + 1)
x

(k + 1))(x

(k)
x

(k))
T
}
= E{x

(k + 1)x

(k)
T
}
x

(k + 1)
x

(k)
T
= AE{x

(k)x

(k)
T
} +pB
w
C
v
E{x

(k)x

(k)
T
}
x

(k + 1)
x

(k)
T
Donde se ha hecho uso de la independencia entre el estado y d. Luego utilizando los resultado
anteriores se tiene que:
R
x

(k + 1, k) = A(P
x

(k) +
x

(k)
x

(k)
T
)
+pB
w
C
v
(P
x

(k) +
x

(k)
x

(k)
T
)
x

(k)(A +pB
w
C
v
)
Con lo cual se obtiene que:
R
x

(k + 1, k) = (A +pB
w
C
v
)P
x

(k)
Siguiendo la recursi on, se obtiene que (es posible demostrarlo por induccion pero ya se ha hecho en
clases):
R
x

(k +, k) = (A +pB
w
C
v
)

P
x

(k) (78)
e

Esperanza:
Dado que la media del ruido es 0, de inmediato se tiene que:

(k) = (C
e
+D
we
pC
v
)
x

(k) (79)
Varianza:
P
e

(k) = E{(e

(k)
e

(k))(e

(k)
e

(k))
T
}
= E{e

(k)e

(k)
T
}
e

(k)
e

(k)
T
= E{((C
e
+D
we
(k)C
v
)x

(k) + (D
de
+D
we
(k)D
dv
)d(k))((C
e
+D
we
(k)C
v
)x

(k)
+ (D
de
+D
we
(k)D
dv
)d(k))
T
}
e

(k)
e

(k)
T
P
e

(k) = E{(C
e
+D
we
(k)C
v
)x

(k)x

(k)
T
(C
e
+D
we
(k)C
v
)
T
}
+E{(D
de
+D
we
(k)D
dv
)d(k)d(k)
T
(D
de
+D
we
(k)D
dv
)
T
}

(k)
e

(k)
T

(k)
e

(k)
T
= (C
e
+D
we
pC
v
)
x

(k)
x

(k)
T
C
e
+D
we
pC
v
)
T
= C
e

(k)
x

(k)
T
C
T
e
+pC
e

(k)
x

(k)
T
C
v
TD
T
we
+pD
we
C
v

(k)
x

(k)
T
+p
2
D
we
C
v

(k)
x

(k)
T
C
T
v
D
T
we
Uniendo los resultados anteriores y luego de un poco de algebra, se tiene que:
15
P
e

(k) = C
e
P
x

(k)C
T
e
+pC
e
P
x

(k)D
T
we
C
T
v
+pC
v
D
we
P
x

(k)C
T
e
+pC
v
D
we
P
x

(k)D
T
we
C
T
v
(80)
+D
d
P
d
(k)D
T
w
+pD
we
D
dv
P
d
(k)D
T
de
+pD
de
P
d
(k)D
T
dv
D
T
we
+pD
we
D
dv
P
d
(k)D
T
dv
D
T
we
(81)
+p(1 p)(D
we
C
v

(k)
x

(k)
T
C
T
v
D
T
we
) (82)
Funcion de covarianza:
Nuevamente se realiza el c alculo para R
e

(k + 1, k) con la intencion de generalizar el resultado.


R
e

(k + 1, k) = E{(e

(k + 1)
e

(k + 1))(e

(k)
e

(k))
T
}
= E{(e

(k + 1)e

(k)
T
}
e

(k + 1)
e

(k)
T
= E{((C
e
+D
we
(k + 1)C
v
)x

(k + 1) + (D
de
+D
we
(k + 1)D
dv
)d(k + 1))
((C
e
+D
we
(k)C
v
)x

(k) + (D
de
+D
we
(k)D
dv
)d(k))
T
} F(k)
Donde por simplicidad se ha denido:
F(k) = (C
e
+D
we
pC
v
)
x

(k + 1)
x

(k)
T
(C
e
+D
we
pC
v
)
T
= (C
e
+pD
we
C
v
)(A +pB
w
C
v
)
x

(k)
x

(k)
T
(C
e
+pD
we
C
v
)
T
Para continuar con el desarrollo se hace uso de las deniciones de los momentos nulos que se hizo
al comienzo debido a la independencia y a la naturaleza del ruido.
R
e

(k + 1, k) = E{(C
e
+D
we
(k + 1)C
v
)x

(k + 1)x

(k)
T
(C
e
+D
we
(k)C
v
)
T
}
+E{(C
e
+D
we
(k + 1)C
v
)x

(k + 1)d(k)
T
(D
de
+D
we
(k)D
dv
)
T
} F(k)
Considerando que la esperanza de (k)(i) es p si k = 1 y es p
2
si k = i, con lo cual:
R
e

(k + 1, k) = (C
e
+pC
v
D
we
)E{x

(k + 1)x

(k)
T
}(C
e
+pC
v
D
we
)
+ (C
e
+pD
we
C
v
)E{x

(k + 1)d(k)
T
}(D
de
+pD
we
D
dv
)
T
F(k)
Ahora utilizando la forma recursiva para x

(k + 1) y la independencia entre x

y el ruido.
R
e

(k + 1, k) = (C
e
+pC
v
D
we
)E{(A +B
w
(k)C
v
)x

(k)x

(k)
T
}(C
e
+pC
v
D
we
)
+ (C
e
+pD
we
C
v
)E{(B
d
+B
w
(k)D
dv
)d(k)d(k)
T
}(D
de
+pD
we
D
dv
)
T
F(k)
Utilizando la denicion de los momentos en funci on de la varianza y esperanza:
R
e

(k + 1, k) = (C
e
+pC
v
D
we
)(A +pB
w
C
v
)(P
x

(k) +
x

(k)
x

(k)
T
)(C
e
+pC
v
D
we
)
T
+ (C
e
+pD
we
C
v
)(B
d
+pB
w
D
dv
)P
d
(k)(D
de
+pD
we
D
dv
)
T
F(k)
Se anula F(k) con la parte correspondiente del primer sumando. Finalmente:
R
e

(k + 1, k) = (C
e
+pC
v
D
we
)(A +pB
w
C
v
)P
x

(k)(C
e
+pC
v
D
we
)
T
(83)
+ (C
e
+pD
we
C
v
)(B
d
+pB
w
D
dv
)P
d
(k)(D
de
+pD
we
D
dv
)
T
(84)
II) Primero es necesario tener en consideracion los resultados relativos a la media y varianza de x

(k):
16
Cuadro 2: Estadsticas del estado del sistema
Estado
x

(k) P
x

(k + 1)
x

(k) (A +B

pC
v
)
x

(k) AP
x

(k)A
T
+pAP
x

(k)C
T
v
B
T
w
+pB
w
C
v
P
x

(k)A
T
+pB
w
C
v
P
x

(k)C
T
v
B
T
w
+B
d
P
d
(k)B
T
d
+pB
w
D
dv
P
d
(k)B
T
d
+pB
d
P
d
(k)D
T
dv
B
T
w
+pB
w
D
dv
P
d
(k)D
T
dv
B
T
w
+p(1 p)(B
w
C
v

(k)
x

(k)
T
C
T
v
B
T
w
)
Entonces para la convergencia de la media, se tiene que cumplir que la matriz:
A
o
= A +B

pC
v
(85)
Converja, para ello es necesario y suciente que el radio espectral de dicha matriz sea menor que uno,
as, independiente del valor de k, o si en magnitud se hace muy grande, el valor de la media del estado
estar a acotada.
(A
o
) < 1 (86)
Por otro lado, para el caso de la varianza, depende de la varianza del estado inicial, de la varianza de d
(notese que en los resultados se escribe con ndice k pero no existe tal dependencia) y de las medias que
se asegura con lo anterior que convergen. Por lo tanto, es suciente que el valor inicial de la varianza del
estado converja, cosa que sucede por la denicion y las caractersticas de proceso, que al ser de segundo
orden cumple inmediatamente con lo anterior.
As, la unica condicion es la asociada a la convergencia de la media.
III) Para lograr conocer las condiciones se puede apreciar que es necesario obtener las expresiones para x
q
(k).
Uniendo las ecuaciones planteadas se tiene que:
x
q
(k + 1) = (A +AB
w
C
v
)x
q
(k) + (B
d
+AB
w
D
dv
)d(k) +B
w
q(k) (87)
As, se puede obtener la esperanza, varianza y funci on de covarianza.
Esperanza:
Debido a que tanto d como q son ruido blanco resulta inmediato que:

xq
(k + 1) = (A +AB
w
C
v
)
xq
(k)
Donde se cumple con:

xq
(k) = (A + AB
w
C
v
)
k

xq
(0) (88)
Varianza:
Para la varianza y como se ha repetido varias veces, se tiene que:
P
xq
(k + 1) = E{x
q
(k + 1)x
q
(k + 1)
T
}
xq
(k + 1)
xq
(k + 1)
T
P
xq
(k + 1) = E{((A +AB
w
C
v
)x
q
(k) + (B
d
+AB
w
D
dv
)d(k) +B
w
q(k))((A +AB
w
C
v
)x
q
(k)
+ (B
d
+AB
w
D
dv
)d(k) +B
w
q(k))
T
} H(k)
17
Donde H(k) es:
H(k) =
xq
(k + 1)
xq
(k + 1)
= (A +AB
w
C
v
)
xq
(k)
xq
(k)
T
(A +AB
w
C
v
)
T
N otese que si A = p se cumple que las medias son iguales.
Retomando lo anterior, dado que no hay ndices que dependan del instante posterior y considerando la
independencia entre tanto en d como en q, se tiene que:
P
xq
(k + 1) = E{((A +AB
w
C
v
)x
q
(k) + (B
d
+ AB
w
D
dv
)d(k) +B
w
q(k))((A +AB
w
C
v
)x
q
(k)
+ (B
d
+AB
w
D
dv
)d(k) +B
w
q(k))
T
} H(k)
= (A +AB
w
C
v
)E{x
q
(k)x
q
(k)
T
}(A +AB
w
C
v
)
T
+ (B
d
+AB
w
D
dv
)P
d
(k)(B
d
+AB
w
D
dv
)
T
+B
w
P
q
(k)B
T
w
(A +AB
w
C
v
)
xq
(k)
xq
(k)
T
(A +AB
w
C
v
)
T
Por lo tanto, la varianza cumple con:
P
xq
(k + 1) = (A +AB
w
C
v
)P
xq
(k)(A +AB
w
C
v
)
T
+ (B
d
+AB
w
D
dv
)P
d
(k)(B
d
+AB
w
D
dv
)
T
+B
w
P
q
(k)B
T
w
(89)
Como se deben imponer 2 condiciones, estas pueden aparecer solo con la esperanza y varianza, el
siguiente cuadro resume el resultado:
Cuadro 3: Estadsticas de los estados de los sistemas
Estado E{}(k) P

(k + 1)
x

(k) (A +B

pC
v
)
x

(k) AP
x

(k)A
T
+pAP
x

(k)C
T
v
B
T
w
+pB
w
C
v
P
x

(k)A
T
+pB
w
C
v
P
x

(k)C
T
v
B
T
w
+B
d
P
d
(k)B
T
d
+pB
w
D
dv
P
d
(k)B
T
d
+pB
d
P
d
(k)D
T
dv
B
T
w
+pB
w
D
dv
P
d
(k)D
T
dv
B
T
w
+p(1 p)(B
w
C
v

(k)
x

(k)
T
C
T
v
B
T
w
)
x
q
(k) (A +AB
w
C
v
)
xq
(k) (A +AB
w
C
v
)P
xq
(k)(A +AB
w
C
v
)
T
+(B
d
+AB
w
D
dv
)P
d
(k)(B
d
+AB
w
D
dv
)
T
+ B
w
P
q
(k)B
T
w
As, con las deniciones hechas anteriormente y considerando que A = p para igualar las medias, es
necesario que se complementen los resultados de:
pB
w
D
dv
P
d
(k)D
T
dv
B
T
w
+p(1 p)(B
w
C
v

(k)
x

(k)
T
C
T
v
B
T
w
)
=
p
2
B
w
D
dv
P
d
(k)D
T
dv
B
T
w
+B
w
P
q
(k)B
T
w
B
w
P
q
(k)B
T
w
= p(1 p)[B
w
D
dv
P
d
(k)D
T
dv
B
T
w
+B
w
C
v

(k)
x

(k)
T
C
T
v
B
T
w
]
P
q
(k) = p(1 p)[D
dv
P
d
(k)D
T
dv
+C
v

(k)
x

(k)
T
C
T
v
] (90)
18
1. Anexos
1.1. Simulacion caminos aleatorios - C odigo
c l e a r a l l
n=1000;
f o r j =1:30000
%genera l o s va l o r e s a l e a t o r i o s
Y( : , j )=rand (n , 1 ) ;
f o r i =1:n
%asegur a l o s va l o r e s d i s c r e t o s
i f (Y( i , j ) <=0.7)
Y( i , j ) =1;
e l s e
Y( i , j ) =1;
end
end
xo=0;
t f =1;
dt=t f /n ;
t=dt : dt : t f ;
h=s qr t ( dt ) ;
X( 1 , j )=xo ;
f o r i =1:n1
X( i +1, j )=X( i , j )+Y( i , j ) h ;
end
end
pl ot ( t ,X( : , 1 ) , t , X( : , 2 ) , t ,X( : , 3 ) , t , X( : , 4 ) , t , X( : , 5 ) , t ,X( : , 6 ) , t ,X( : , 7 ) ) ;
hol d on
%Generando hi stograma
f i g ur e ( 2)
hi s t (X( n , : ) , 100)
19

Potrebbero piacerti anche