Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
LINEALES
Ricardo A. Rojas
Mario E. Salgado
Juan I. Yuz1
EDITORIAL. SU
ESTE ES UN BORRADOR SUJETO A NEGOCIACION
de Electr
onica
Universidad T
ecnica Federico Santa Mara
Valparaso, CHILE
CONTENIDO
PREFACIO
xiii
1 ASPECTOS FUNDAMENTALES
1.1 Sistemas
1.2 Modelos
1.3 Sistemas lineales
1.4 Invarianza en el tiempo
1.5 Linealizacion
1.6 Problemas para el lector
1
1
4
5
8
8
17
2 SENALES
DE TIEMPO CONTINUO Y TIEMPO DISCRETO
2.1 Introduccion
2.2 Se
nales de tiempo continuo
2.3 Se
nales de tiempo discreto
2.4 Problemas para el lector
20
20
20
25
30
3 ANALISIS
EN EL DOMINIO DEL TIEMPO CONTINUO
3.1 Introduccion
3.2 Ecuacion diferencial del sistema (EDS)
3.3 La respuesta del sistema
3.4 Respuesta a se
nales de prueba
3.5 Calculo de la respuesta via convolucion
3.6 Problemas para el lector
32
32
32
35
46
49
53
4 ANALISIS
EN EL DOMINIO DEL TIEMPO DISCRETO
4.1 Introduccion
4.2 Ecuacion de recursion del sistema (ERS)
56
56
56
ix
x
4.3
4.4
4.5
4.6
59
71
75
79
5 ANALISIS
DE SISTEMAS LINEALES BAJO EXCITACIONES
PERIODICAS
82
5.1 Se
nales Periodicas
82
5.2 Respuesta a entradas sinusoidales. El caso de tiempo continuo
83
5.3 Series de Fourier para se
nales de tiempo continuo
87
5.4 Respuesta a entradas sinusoidales. El caso de tiempo discreto
98
5.5 Serie de Fourier de tiempo discreto
101
5.6 Aplicacion de las Series de Fourier al analisis de sistemas lineales
106
5.7 Problemas para el lector
108
6 SISTEMAS LINEALES SUJETOS A EXCITACIONES ARBITRARIAS.
ANALISIS
VA FOURIER
113
6.1 La limitacion de las series de Fourier
113
6.2 La Transformacion de Fourier. El caso del tiempo continuo
113
6.3 La Transformacion de Fourier. El caso del tiempo discreto
135
6.4 Problemas para el lector
148
7 SISTEMAS LINEALES SUJETOS A EXCITACIONES ARBITRARIAS.
ANALISIS
VA LAPLACE
151
7.1 Definicion de la Transformada
151
7.2 Aplicacion a sistemas lineales: la funcion de transferencia
152
7.3 Respuesta a impulso y respuesta a escalon.
156
7.4 Respuesta a condiciones iniciales y se
nales arbitrarias.
160
7.5 Estabilidad de las Funciones de Transferencia
167
7.6 Polos, ceros y la respuesta temporal
171
8 ANALISIS
DE SISTEMAS EN TIEMPO DISCRETO MEDIANTE
ZETA
TRANSFORMACION
185
8.1 Definicion de la Transformada
185
8.2 Aplicacion a sistemas lineales: la funcion de transferencia
186
8.3 Respuesta a impulso y respuesta a escalon.
193
8.4 Respuesta a condiciones iniciales y excitaciones arbitrarias.
195
8.5 Estabilidad de las Funciones de Transferencia
197
8.6 Polos, ceros y la respuesta temporal
198
xi
9 REPRESENTACION
DE SISTEMAS EN VARIABLES DE ESTADO.
204
9.1 Conceptos fundamentales sobre modelos de sistemas.
204
9.2 Conceptos fundamentales en variables de estado
205
9.3 Modelos de estado para sistemas continuos
209
9.4 Modelos de estado para sistemas discretos y muestreados
224
9.5 Modelos de estado para sistema interconectados
238
9.6 Propiedades de los sistemas
241
9.7 Observadores
259
10 MODELOS
10.1 Ideas generales
10.2 Modelado de sistemas
10.3 Modelado de sistemas
10.4 Modelado de sistemas
10.5 Modelado de sistemas
de
de
de
de
tiempo
tiempo
tiempo
tiempo
266
266
267
273
275
280
A SERIES DE TAYLOR
A.1 Serie de Taylor en una variable
A.2 Serie de Taylor en dos variables
A.3 El caso general
A.4 Algunas reglas practicas para la expansion en serie
281
281
282
283
283
B BASES MATEMATICAS
PARA LAS SERIES DE FOURIER
B.1 Espacios vectoriales y bases ortogonales
B.2 Convergencia de las Series de Fourier
285
285
289
DE FOURIER
C LA TRANSFORMACION
C.1 Transformacion de Fourier en tiempo continuo
C.2 Transformada de Fourier en tiempo discreto
301
301
318
D LA TRANSFORMADA DE LAPLACE
D.1 Transformada de Laplace
341
341
ZETA
E LA TRANSFORMACION
E.1 Definicion de la Transformacion
E.2 Propiedades de la Transformada Zeta
364
364
366
376
xii
F.1 Conceptos Basicos
376
BIBLIOGRAPHY
382
INDICE DE NOMBRES
383
INDICE DE MATERIAS
384
PREFACIO
La teora de los sistemas lineales tuvo un rapido crecimiento y sostenida consolidacion desde mediados del siglo veinte. Este desarrollo fue sustentado por el trabajo
pionero de Bode, Routh, Nyquist, Kalman y muchos otros investigadores.
Ellos
construyeron, a su vez, sobre la teora matematica existente de los siglos pasados
en areas tan diversas como, por ejemplo, el calculo diferencial e integral de Newton,
las ecuaciones diferenciales y la teora de funciones de variables complejas.
El advenimiento y expansion de la tecnologa digital ampliaron el campo de
los sistemas lineales hacia los sistemas que operan en tiempo discreto. Nuevas
herramientas matematicas debieron entonces incorporarse al estudio de los sistemas
lineales.
La teora de los sistemas lineales tiene un interes en si misma como objeto
de estudio matematico. Sin embargo, en este libro, orientado al estudiante de
ingeniera, el enfoque es distinto: se trata de estudiar esta teora como un sosten para
el analisis, la sntesis y el dise
no de sistemas de procesamiento de se
nales, de sistemas
de control automatico, sistemas economicos, etc. El proposito es que el lector,
sin abandonar ni menospreciar el rigor requerido por esta teora, la conciba como
una herramienta para entender y resolver problemas del mundo fenomenologico, la
ingeniera y la tecnologa. Nos parece que esto es necesario para evitar la confusion,
frecuente en los estudiantes de ingeniera, que lleva a subvertir los roles del problema
y la herramienta, al centrar su atencion en la plataforma matematica mas que en la
interpretacion que puede y debe darse a los resultados de la teora de los sistemas
lineales.
Pensamos tambien que este enfasis en los conceptos mas que en la utilera
matematica debe reflejarse en el esfuerzo que se pide a los estudiantes que estudien el tema. Para facilitar este proposito, nos parece fundamental el hacer uso
extensivo de los paquetes de software para simulacion, como por ejemplo, MATLABSIMULINK y SIMNON. Tambien encontramos de especial utilidad el uso de software de matematica simbolica, como MAPLE y MATHEMATICA. El libro supone
que los estudiantes tienen acceso a este tipo de herramientas. Tambien suponemos
que nuestros lectores tiene una formacion matematica que incluye el estudio de la
Transformada de Laplace y de las ecuaciones diferenciales, lineales y ordinarias.
xiii
xiv
Prefacio
Ricardo A. Rojas
Mario E. Salgado
Juan I. Yuz
Captulo 1
ASPECTOS
FUNDAMENTALES
1.1
Sistemas
Aspectos fundamentales
Captulo 1
del proceso elegidas para observar el comportamiento del sistemas se conocen como
respuestas.
Las respuestas de un sistema pueden depender tambien de la informacion y/o
energa existentes (almacenadas) en el sistema en el instante en que el comportamiento del sistema empieza a ser observado. Los sistemas con esta caracterstica
inercial se denominan genericamente sistemas din
amicos. Ejemplos de mecanismos inerciales en sistemas son:
la velocidad inicial de un motor
el valor inicial de una variable en un computador
la temperatura inicial de una masa
la tension inicial en un condensador.
Supongamos que deseamos conocer las respuestas en un sistema dado, a partir
de un instante inicial to . Entonces sera suficiente conocer ciertas variables (estado)
del sistema en t = t0 , y las excitaciones t to .
Para ilustrar estas ideas analizaremos el siguiente ejemplo.
Ejemplo 1.1. Consideremos la red electrica de la Figura 1.1.
R
+
vf (t)
vc (t)
i(t)
Figura 1.1. Sistema electrico
Esta red es un sistema electrico formado por la interconexi
on de un resistor y
un condensador (los elementos). Hay una entrada al sistema determinada por la
tensi
on aplicada a traves de la fuente independiente de tensi
on. Como salida se
puede elegir cualquier se
nal electrica, como por ejemplo, la potencia disipada en el
resistor, la corriente en el circuito, la tensi
on en el condensador, etc.
En la Figura 1.1 se han indicado dos se
nales, i(t) y vc (t), que han sido elegidas
como respuestas del sistema. Para determinar el valor de estas se
nales t 0,
necesitamos conocer vf (t) t to y vc (0).
222
Para representar un sistema en forma compacta usaremos el diagrama de la
Figura 1.2. En esa figura se ha usado la siguiente notacion:
Section 1.1.
Sistemas
u(t)
y(t)
S
x(to )
Figura 1.2. Representacion compacta de un sistema
t to
(1.1.1)
vf (t) = RC
dvc (t)
+ vc (t)
dt
(1.1.2)
cuya soluci
on es
vc (t) = vc (to )e
tto
RC
+
to
e RC
vf ()d
RC
(1.1.3)
t to
(1.1.4)
222
Las definiciones precedentes se aplican tambien a los sistemas de tiempo discreto,
es decir, cuando el tiempo toma valores en un conjunto enumerable (t0 , t1 , t2 , . . .).
En este tipo de sistemas, la variable independiente temporal se suele denominar
t, y para enfatizar la naturaleza distinta de las se
nales de tiempo discreto, usaremos parentesis cuadrados, es decir, f [t] describira una se
nal funcion de la variable
temporal discreta.
Para ilustrar este tipo de sistemas consideremos el siguiente ejemplo.
1 Usaremos
el t
ermino operador
Aspectos fundamentales
Captulo 1
Ejemplo 1.3. Una cuenta de ahorro tiene un saldo inicial s[t0 ] = so , y recibe un
interes igual a % mensual. Si en el mes t-esimo (t = t0 , t0 + 1, . . .) se hace un
dep
osito igual a d[t], entonces el saldo s[t] puede ser descrito por
+ d[t]
t t0
(1.1.5)
s[t] = s[t 1] 1 +
100
y sujeto a s[t0 ] = so . En este sistema, la entrada es d[t], la salida es s[t], y el estado
inicial es s[t0 ]. La ecuaci
on (1.1.5) tiene como soluci
on
t
X
s[t] = so tt0 +
t` d[`]
t > t0
(1.1.6)
`=t0 +1
La ecuaci
on (1.1.6) puede ser asociada con una estructura an
aloga a la de
(1.1.1), es decir
y[t] = Thhx[t0 ], u[t]ii
t t0
(1.1.7)
y[t] = Thhu[t]ii
(1.1.8)
En estricto rigor, todos los sistemas reales son sistemas dinamicos. Sin embargo,
puede ocurrir que para un observador, la escala de tiempo es tal que los fenomenos
ocurren en forma instantanea. En esos casos, para efectos practicos, el sistema se
representa a traves de un modelo algebraico.
1.2
Modelos
Cuando se enfrenta el problema de analizar un sistema, naturalmente no trabajamos con el sistema real, sino que con una representacion de ese sistema. Esa
representacion o modelo, captura aspectos esenciales del sistema. Por definicion,
un modelo es una representacion aproximada de la realidad, y su grado de fidelidad
depende de muchos factores, siendo uno de ellos el proposito del modelo.
La construccion de modelos a partir de sistemas reales es un proceso complejo
que involucra la fenomenologa del sistema, mediciones, procesos de ajuste, etc. La
construccion de modelos es, por si sola, una disciplina rica en conceptos y tecnicas.
En este texto, supondremos que el modelo ya ha sido construido. En consecuencia, la teora que aqu se desarrolla se aplica al modelo del sistema bajo estudio. El
que las conclusiones que as se deriven sean validas para el sistema mismo dependera de la fidelidad con que el modelo representa a ese sistema. En muchos casos
hablaremos del modelo y del sistema como sinonimos, en otros sera necesario hacer
la diferencia.
Section 1.3.
1.3
Sistemas lineales
Sistemas lineales
Los sistemas lineales son un subconjunto del universo de los sistemas. Su importancia radica en la conjuncion de dos elementos:
muchos sistemas pueden representarse por modelos lineales de razonable fidelidad; y
existen herramientas poderosas para analizar y sintetizar este tipo de sistemas.
La naturaleza de esta conjuncion se ira apreciando a medida que progresemos en
el tema. No obstante ello, una vision temprana de estas razones se pueden apreciar
de inmediato en las definiciones que siguen.
Definici
on 1.2. Consideremos un sistema S, como se describe en la Figura 1.2 y
la ecuaci
on (1.1.1). Supongamos adem
as que el sistema cumple con
y1x (t) = Thhx1 (to ), 0 i
y1u (t) = Thh0, u1 (t)ii
y2x (t) = Thhx2 (to ), 0 i
y2u (t) = Thh0, u2 (t)ii
t to
t to
t to
t to
(1.3.1)
(1.3.2)
(1.3.3)
(1.3.4)
donde x1 (to ) y x2 (to ), son dos vectores de estado inicial arbitrarios,y u1 (t) y u2 (t)
son dos vectores de entrada arbitrarios.
Entonces el sistema es lineal si y s
olo si
y(t) = Thh1 x1 (to ) + 2 x2 (to ), 1 u1 (t) + 2 u2 (t)ii
t to
= 1 Thhx1 (to ), 0 i + 2 Thhx2 (to ), 0 i + 1 Thh0, u1 (t)ii + 2 Thh0, u2 (t)ii
= 1 y1x (t) + 2 y2x (t) + 1 y1u (t) + 2 y2u (t)
(1.3.5)
(1.3.6)
(1.3.7)
(1.3.8)
Aspectos fundamentales
Captulo 1
(1.3.9)
(1.3.10)
(1.3.11)
(1.3.12)
La ecuacion (1.3.11) describe la homogeneidad respecto del estado inicial, mientras que la ecuacion (1.3.12) describe la homogeneidad respecto de la entrada.
Para los sistemas algebraicos las propiedades de homogeneidad y superposicion
se aplican solo a la entrada del sistema, es decir
y(t) = Thh1 u1 (t) + 2 u2 (t)ii = 1 Thhu1 (t)ii + 2 Thhhu2 (t)ii
(1.3.13)
(1.3.15)
sujeto a y(to ) = xo
(1.3.16)
(1.3.17)
to
Section 1.3.
Sistemas lineales
(u()) d
(1.3.18)
to
yu (t) = Thhxo , 0 i = xo
y(t) = yx (t) + yu (t)
(1.3.19)
(1.3.20)
(1.3.21)
De la ecuaci
on (1.3.21) se comprueba que el sistema tiene la propiedad de superposici
on de las componentes del estado. Naturalmente que tiene adem
as la propiedad
de homogenidad del estado.
Finalmente analizamos el caso donde x1 (to ) = x2 (to ) = y( to ) = 0, y u(t) =
1 u1 (t) + 2 u2 (t), la repuesta y(t) = yu (t) est
a entonces dada por
Z t
n
y(t) =
(1 u1 () + 2 u2 ()) d t to
(1.3.22)
to
De esta ecuaci
on se puede ver que la propiedad de superposici
on de las componentes de la entrada se cumple si y s
olo si n = 1. Igual condici
on, necesaria y
suficiente, se aplica para la homogeneidad de la entrada.
Resumiendo, el sistema del ejemplo tiene las siguientes caractersticas:
tiene la propiedad de superposici
on del estado y de la entrada;
tiene la propiedad de superposici
on y homogeneidad del estado;
tiene la propiedad de superposici
on y homogeneidad de la entrada si y s
olo
si n = 1.
En consecuencia, el sistema del ejemplo es lineal si y s
olo si n = 1.
El lector debe tener claro que la propiedad de linealidad (o no linealidad) de un
sistema dado no es necesariamente una propiedad intrnseca de ese sistema, sino
que puede depender de la eleccion de la variable de salida, y/o de la variable de
entrada. Para visualizar esto, supongamos que en la ecuacion (1.3.16) definimos
4
como entrada la se
nal u
(t) = (u(t)) . Entonces es facil demostrar que el sistema
con entrada u
(t) y salida y(t) es lineal.
Se puede construir un segundo ejemplo a partir de la red electrica de la Figura 1.1
en la pagina 2. Supongamos que escogemos como salida la potencia p(t) disipada
en el resistor. Entonces, el modelo de entrada-salida resulta dado por
r
Z
p
1 t
p( )
d
(1.3.23)
vf (t) = p(t)R +
C
R
Aspectos fundamentales
Captulo 1
1.4
Invarianza en el tiempo
Otra propiedad de interes es la de invarianza en el tiempo. Un sistema es invariante en el tiempo cuando las propiedades del sistema no cambian en el tiempo,
es decir, cuando se cumple la situacion de la Figura 1.3, para cualquier valor del
desplazamiento .
u(t)
S
x(0) = xo
y(t)
u(t )
invarianza
en tiempo
y(t )
x( ) = xo
1.5
Linealizaci
on
A pesar de que casi todos los sistemas reales incluyen caractersticas no lineales,
muchos de ellos pueden ser descritos con razonable precision por modelos lineales,
al menos dentro de ciertos rangos en que el sistema funciona. El incentivo para
tratar de aproximar un sistema no lineal por un sistema lineal es que la ciencia
y el arte de los sistemas lineales son mucho mas completos, simples y poderosos
que los usados para los casos no lineales. Una manera practica de obtener estos
Section 1.5.
Linealizaci
on
3
d u(t)
2
+ u(t)
dt
(1.5.1)
y(t) = y(t) yQ . Para obtener ese modelo usaremos la teora de series de Taylor
(ver Apendice A).
La ecuacion (1.5.1) puede re-escribirse, miembro a miembro, como
ga (x1 (t), x2 (t), x3 (t)) = gb (x4 (t), x5 (t))
(1.5.2)
As
ga (x1 (t), x2 (t), x3 (t)) = x3 (t) + (0, 2 + x1 (t))x2 (t) + (x1 (t))
gb (x4 (t), x5 (t)) = (2x5 (t) + x4 (t))
(1.5.3)
(1.5.4)
ga (x1Q , x2Q , x3Q )+(3 (x1Q ) +x2Q )(x1 (t) x1Q )+(0, 2+x1Q )(x2 (t) x2Q )+(x3 (t) x3Q ) =
2
gb (x4Q , x5Q ) + 3 (2x5Q + x4Q ) (x4 (t) x4Q ) + 6 (2x5Q + x4Q ) (x5 (t) x5Q )
(1.5.5)
10
Aspectos fundamentales
Captulo 1
(1.5.6)
d y(t)
x2Q
= y(t)
=
dt
d 2 y(t)
=
y (t) =
x3Q
dt 2
= u(t)
(1.5.7)
(1.5.8)
(1.5.9)
d u(t)
x5Q
dt
(1.5.10)
Para lograr el objetivo deseado, es decir, una ecuacion diferencial en u(t) y xi (t),
es necesario que el conjunto de valores (x1Q , x2Q , . . . , x5Q ) que define el punto de
operacion satisfaga
ga (x1Q , x2Q , x3Q ) = ga (x4Q , x5Q )
(1.5.11)
Con esta condicion, ga (x1Q , x2Q , x3Q ) y gb (x4Q , x5Q ) se compensan en (1.5.5).
En esta etapa de nuestro analisis es oportuno hacer las siguientes observaciones:
(i) Cada derivada debe ser asociada a una variable xi .
(ii) El punto de operacion es arbitrario; pero para llegar a un modelo linealizado,
debe satisfacer la ecuacion no lineal original. Para este caso, un ejemplo de
punto de operacion es x1Q = 2, x2Q = 1, x3Q = 9, 2, x4Q = 3 y x5Q = 1.
(iii) Es conveniente elegir un punto de operacion para el que las derivadas de y(t)
y de u(t), respecto del tiempo, sean iguales a cero. Este punto de operacion
se conoce como punto de operacion en equilibrio o, mas brevemente, punto
de equilibrio. La idea es que si un sistema esta en un punto de equilibrio, el
sistema se mantiene operando en ese punto ya que las derivadas de y(t) y de
u(t) son cero. La eleccion del punto de equilibrio se hace considerando el punto
en que el sistema a analizar estara operando. Para este caso, existen infinitos
puntos de equilibrio y todos ellos satisfacen x1Q = x4Q , x2Q = 0,x3Q = 0 y
x5Q = 0.
El modelo lineal para el caso estudiado tiene entonces la forma
d 2 y(t)
d y(t)
d u(t)
+ a1
+ a0 y(t) = b1
+ b0 u(t)
2
dt
dt
dt
(1.5.12)
(iv) Cuando el modelo no lineal esta descrito por dos o mas ecuaciones, las coordenadas del punto de operacion deben satisfacer al conjunto de ecuaciones
simultaneas.
(v) Un punto de operacion en equilibrio se calcula a partir del modelo algebraico
que resulta de hacer cero todas las derivadas en el modelo dinamico no lineal.
4
Section 1.5.
11
Linealizaci
on
(1.5.13)
y[t] = y[t] yQ . Para obtener ese modelo usaremos la teora de series de Taylor
(ver Apendice A).
La ecuacion (1.5.1) puede re-escribirse, miembro a miembro, como
gc (x1 [t], x2 [t], x3 [t], x4 [t]) = ga (x5 [t])
(1.5.14)
donde x1 [t] = y[t], x2 [t] = y[t 1], x3 [t] = y[t 2], x4 [t] = u[t] y x5 [t] = u[t 1].
As
2
gc (x1 [t], x2 [t], x3 [t], x4 [t]) = x1 [t] + 0, 5x2 [t]x3 [t] + 0, 1x4 [t] (x3 [t])
3
(1.5.15)
(1.5.16)
0, 2x4Q x3Q (x3 [t] x3Q )+0, 1 (x3Q ) (x4 [t] x4Q ) = gd (x5Q )+3 (x5Q ) (x5 [t] x5Q )
(1.5.17)
Usando las definiciones anteriores tenemos que2
x1 [t] x1Q
x2 [t] x2Q
x3 [t] x3Q
x4 [t] x4Q
x5 [t] x5Q
= y[t]
= y[t 1] + x1Q x2Q
= y[t 2] + x1Q x3Q
= u[t]
= u[t 1] + x4Q x5Q
(1.5.18)
(1.5.19)
(1.5.20)
(1.5.21)
(1.5.22)
Para lograr el objetivo deseado, es decir, una ecuacion recursiva en u[t] y y[t],
es necesario que el punto de operacion (x1Q , x2Q , . . . , x5Q ) satisfaga
gc (x1Q , x2Q , x3Q , x4Q ) = gd (x5Q )
(1.5.23)
Con esta condicion, gc (x1Q , x2Q , x3Q , x4Q ) y gd (x5Q ) se compensan en (1.5.17).
En esta etapa de nuestro analisis es oportuno hacer las siguientes observaciones:
2 La
notaci
on es y[t `] = y[t `] x1Q , y u[t j] = u[t j] x4Q
12
Aspectos fundamentales
Captulo 1
(i) Cada se
nal retardada debe ser asociada a una variable xi .
(ii) El punto de operacion es arbitrario; pero para llegar a un modelo linealizado,
debe satisfacer la ecuacion no lineal original. Para este caso, un ejemplo de
punto de operacion es x1Q = 2, x2Q = 1, x3Q = 2, x4Q = 5 y x5Q = 1.
(iii) Es conveniente elegir un punto de operacion para el que las primeras diferencias
y[i] y[i 1] y u[i] u[i 1], son cero 3 i . Este punto de operacion se
conoce como punto de operacion en equilibrio o, mas brevemente, punto de
equilibrio. La idea es que si un sistema esta en un punto de equilibrio, el
sistema se mantiene operando en ese punto ya que las diferencias de y[t] y
de u[t] son cero. La eleccion del punto de equilibrio se hace considerando el
punto en que el sistema a analizar estara operando. Para este caso, existen
infinitos puntos de equilibrio y todos ellos satisfacen x1Q = x2Q = x3Q = yQ ,
x4Q = x5Q = uQ , e
2
2
yQ + 0, 5yQ
+ 0, 1uQ yQ
= u3Q
(1.5.24)
(1.5.25)
(iv) Cuando el modelo no lineal esta descrito por dos o mas ecuaciones, las coordenadas del punto de operacion deben satisfacer al conjunto de ecuaciones
simultaneas.
(v) Un punto de operacion en equilibrio se calcula a partir del modelo algebraico
que resulta de hacer cero todas las diferencias en el modelo dinamico no lineal, es decir, cada una de las se
nales involucradas es reemplazada por una
constante a calcular, con independencia del retardo que ella exhiba.
4
Section 1.5.
13
Linealizaci
on
f hu(), y()i = 0
(1.5.26)
(1.5.27)
(1.5.28)
(1.5.29)
f hu(t), y(t)i =
dy(t) p
(u(t))
+ y(t)
=0
dt
3
(1.5.30)
14
Aspectos fundamentales
Captulo 1
Soluci
on
dy(t)
dt
yQ
(uQ )
=0
3
= yQ =
16
9
(1.5.31)
(1.5.32)
(1.5.33)
5
Tiempo [s]
10
Figura 1.4. Salida del sistema no lineal (linea solida) y salida del sistema linealizado (lnea segmentada) para una onda cuadrada de amplitud
creciente en la entrada (lnea punteada)
222
Section 1.5.
15
Linealizaci
on
(1.5.35)
(1.5.36)
(1.5.37)
222
16
Aspectos fundamentales
Captulo 1
La idea fundamental es que las propiedades del modelo lineal para valores
peque
nos de sus variables incrementales, permiten inferir el comportamiento del
sistema original en las cercanas del punto de operacion.
Para comparar la calidad de la aproximacion que provee un determinado modelo
lineal, es necesario poder simular ambos modelos. Para ello, herramientas como
SIMULINK o SIMNON son extraordinariamente poderosas. A modo de ejemplo se
incluye en la Figura 1.5 un esquema SIMULINK para simular el modelo no lineal
dado por
d 2y
dy
2
+ (1 + 0, 1y(t))
+ (y(t)) = u(t) + 0.1 seno(u(t))
dt 2
dt
(1.5.38)
(1.5.39)
y^2
u[1]+0.1*sin(u[1])
u(t)
Integrador 1
Integrador2
0.1
Producto
Section 1.6.
1.6
17
(1.6.1)
Determine las condiciones que deben satisfacer las contantes m y b de modo que
el sistema sea lineal
Problema 1.2. El
area de un rect
angulo es A = xy, donde x e y representan las
longitudes de sus lados.
1.2.1 Obtenga una expresi
on linealizada para A en torno al punto de operaci
on
xQ = 2, yQ = 5.
1.2.2 Obtenga y describa geometricamente el error cometido al usar el modelo lineal
para calcular el
area de un rect
angulo con lados x = 3 e y = 6.
Problema 1.3. Sea un sistema lineal algebraico de dimensi
on 2 2, es decir,
con dos entradas y dos salidas. Se realizan algunos experimentos y se llega a:
y(t) = [2 1]T = Thh[1 1]T i
T
y(t) = [3 4] = Thh[1 2] i
(1.6.2)
(1.6.3)
dy(t)
2
+ 2 + 0.1 (y(t)) y(t) = 2u(t)
dt
(1.6.4)
18
Aspectos fundamentales
Captulo 1
(1.6.6)
Discuta la linealizaci
on de esta funci
on en distintos punto de operaci
on.
Problema 1.7. En los sistemas tributarios modernos existe un tasa progresiva, es
as como a mayor ingreso, m
as alto es el porcentaje de impuesto a pagar. Analice
el sistema desde el punto de vista de la linealidad
Problema 1.8. Un sistema no lineal tiene un modelo dado por
d y(t)
+ f (y)y(t) = 2u(t)
dt
Donde la funci
on f (y) aparece en la Figura 1.6.
(1.6.7)
1.5
1
f(y)
0.5
0
0.5
1
1.5
4
0
y
(1.6.8)
yQ = 2
(1.6.9)
u[t 1]
1 + 0.2(u[t 2])2
uQ = 1
(1.6.10)
Section 1.6.
19
(1.6.11)
(1.6.12)
(1.6.13)
Captulo 2
SENALES
DE TIEMPO
CONTINUO Y TIEMPO
DISCRETO
2.1
Introducci
on
2.2
Se
nales de tiempo continuo
2.2.1
Escal
on unitario (funci
on de Heaviside)
2.2.2
(2.2.1)
Section 2.2.
21
Se
nales de tiempo continuo
Se define como
Z
(t to ) = 0
t 6= to
con
(t to )dt = 1
(2.2.2)
f1 (t)
f2 (t)
1
2
to to to +
to to to +
(2.2.3)
Ademas,
lim f1 (t) = lim f2 (t) = 0
t 6= to
(2.2.4)
Otra funcion de importancia que tiene la misma propiedad que f1 (t) y f2 (t) es
o
1 seno tt
f3 (t) =
(2.2.5)
t to
Esta funcion, conocida como la funci
on muestreo, juega un papel muy importante en la relacion entre se
nales de tiempo continuo y de tiempo discreto. Se puede
demostrar que
lim f3 (t) = (t to )
(2.2.6)
Una propiedad clave del delta de Dirac esta descrita en el siguiente lema.
Lema 2.1. Considere una funci
on cualquiera f (t), entonces
Z
f (t) =
f ( )(t )d
(2.2.7)
22
Se
nales de tiempo continuo y tiempo discreto
Captulo 2
222
El lema 2.1 establece que toda se
nal puede ser expresada como una operacion
lineal sobre el impulso (t ) para < < . Veremos mas adelante que esta
propiedad sera la base para calcular la respuesta de un sistema lineal a partir de la
respuesta de ese sistema a un impulso unitario.
2.2.3
Rampa unitaria
t to
t < to
(2.2.8)
r(t to ) =
( to ) d =
( to ) d d
(2.2.9)
(2.2.10)
Observe que hemos interpretado el impulso como la derivada del escalon, lo cual
implica dar un significado a la derivada de una funcion en un punto de discontinuidad. Esto tiene sentido solo si esa discontinuidad es finita. En todo caso estas
operaciones deben manejarse con precaucion.
2.2.4
Exponencial
(2.2.11)
una se
nal real, y solo tiene sentido fsico cuando se combina con e t , en cuyo caso
se llega a una sinusoide de amplitud modulada exponencialmente, situacion que se
analiza por separado mas adelante1 .
Para el caso R distinguimos dos casos, como se ilustra en la figura 2.2.
Cuando > 0 tenemos una exponencial creciente. Esta se
nal esta asociada a
los sistemas inestables, como es explicara mas adelante.
Cuando < 0, estamos en presencia de una exponencial decreciente. Esta forma
exponencial es de enorme importancia en la teora de sistemas, ya que aparece con
1 Note
Section 2.2.
23
Se
nales de tiempo continuo
0.8
>0
6
5
0.6
0.4
<0
3
0.2
2
1
2
Tiempo [s]
2
Tiempo [s]
1
||
(2.2.12)
0.8
=1
0.6
=2
0.4
0.2
0
=3
0
0.5
1.5
2
Tiempo [s]
2.5
3.5
24
Se
nales de tiempo continuo y tiempo discreto
Captulo 2
1
0.8
0.6
0.4
0.2
0
0.5
1.5
2
2.5
3
Tiempo normalizado t/
3.5
4.5
2.2.5
Se
nales sinusoidales
La se
nal fundamental en todo tipo de oscilaciones periodicas es la funcion sinusoidal,
la que puede describirse en forma generica por
f (t) = A seno(t + )
(2.2.13)
ej(t+) ej(t+)
(2.2.15)
2j
De esta ecuacion se puede apreciar la interpretacion que usualmente se da a la
exponencial imaginaria ejt , ya que2
A seno(t + ) = A
seno(t) = ={ejt }
2.2.6
(2.2.16)
Otra de las se
nales que aparece frecuentemente describiendo el comportamiento
natural de los sistemas es la sinusoide con amplitud variando exponencialmente, es
decir
2 La
notaci
on ={ } siginifica parte imaginaria de ...
Section 2.3.
25
Se
nales de tiempo discreto
(2.2.17)
Naturalmente, cuando = 0, la se
nal se reduce a una sinusoide pura. Los
casos < 0 (sinusoide amortiguada exponencialmente) y > 0 (sinusoide creciente
exponencialmente) se muestran en la figura 2.5.
1
500
0.5
0.5
1
2
tiempo normalizado t/T
500
1
2
tiempo normalizado t/T
Figura 2.5. Se
nales sinusoidales con amplitud disminuyendo exponencialmente
(izq.) y creciendo exponencialmente (der.)
2.3
e(+j)t+j e(j)tj
2j
(2.2.18)
Se
nales de tiempo discreto
En el caso de las se
nales de tiempo discreto, existen contrapartes directas de las
se
nales para tiempo continuo, con algunas sutiles, pero significativas diferencias.
La primera diferencia obvia es que la variable independiente esta definida sobre el
conjunto de los n
umeros enteros, Z. Otras apareceran en cada oportunidad.
2.3.1
Escal
on unitario de tiempo discreto
2.3.2
(2.3.1)
26
Se
nales de tiempo continuo y tiempo discreto
(
4
[t to ] =
0
1
t 6= to
t = to
Captulo 2
(2.3.2)
Una propiedad clave del delta de Kronecker, analoga a la del delta de Dirac
(lema 2.1) esta descrita en el siguiente lema.
Lema 2.2. Considere una funci
on cualquiera f [t], entonces
f [t] =
f [i][t i]
(2.3.3)
i=
222
El lema 2.2 establece que toda se
nal puede ser expresada como una operacion lineal sobre un tren de deltas de Kronecker. Veremos mas adelante que esta propiedad
sera la base para calcular la respuesta de un sistema lineal de tiempo discreto a partir
de su respuesta a un impulso unitario.
2.3.3
t to
t < to
(2.3.4)
[t i];
[t to ] =
i=to +1
[t i]
(2.3.6)
i=to
Las tres se
nales miembros de esta familia se ilustran 3 en la figura 2.6
Es importante destacar que en estos graficos de funciones de tiempo discreto,
la variable descrita toma, para el t correspondiente, el valor que se indica con el
crculo peque
no. La lnea vertical bajo cada crculo solo se usa para claridad y para
destacar la correspondencia con el valor de t respectivo.
3 Para
este tipo de gr
aficos use el comando stem de MATLAB.
Section 2.3.
27
Se
nales de tiempo discreto
10
[k2]
[k2]
r[k2]
8
6
1
4
2
10
10
10
Figura 2.6. Se
nales basicas de tiempo discreto
2.3.4
(2.3.7)
5
0<< 1
1<
0.8
3
0.6
2
0.4
1
0.2
0
28
Se
nales de tiempo continuo y tiempo discreto
Captulo 2
< 1
0.5
2
0
0.5
1
2.3.5
Se
nales sinusoidales de tiempo discreto
(2.3.8)
A diferencia de las sinusoides de tiempo continuo, una sinusoide de tiempo discreto puede ser aperi
odica en t.
Lema 2.3. Una sinuoside de tiempo discreto es peri
odica si s
olo si existen n
umeros
naturales p y N , tales que
p
= 2
(2.3.9)
N
Demostraci
on
Una sinusoide discreta seno(t) es peri
odica si y s
olo si existe un n
umero natural
N tal que, para todo t N,
4 Note
la unidad de la frecuencia.
Section 2.3.
29
Se
nales de tiempo discreto
(2.3.10)
Para que esta igualdad se cumpla para todo t N, es necesario y suficiente que
cos(N ) = 1 ( seno(N ) = 0). Esto se cumple si y s
olo si existe p N tal que
se cumple (2.3.9).
222
De acuerdo a este lema, las sinusoidales de tiempo discreto, seno(t/7), cos(2t),
seno(te) son se
nales aperi
odicas.
Un representacion equivalente para las se
nales sinusoidales se puede obtener a
partir de la formula de Euler
A seno(t + ) = A
2.3.6
ej(t+) ej(t+)
2j
(2.3.11)
(2.3.12)
t = t ej t = t cos(t ) + jt seno(t )
(2.3.13)
Entonces
Consideremos entonces la se
nal
f [t] = At seno(t + )
(2.3.14)
Naturalmente, cuando = 1, la se
nal se reduce a una sinusoide pura. Los casos
0 < < 1 (sinusoide amortiguada exponencialmente) y > 1 (sinusoide creciente
exponencialmente) se muestran en la figura 2.9.
30
Se
nales de tiempo continuo y tiempo discreto
>1
0< <1
0.8
0.6
0.4
0.2
0.2
0.4
Captulo 2
10
15
20
10
15
20
Figura 2.9. Se
nales sinusoidales de tiempo discreto con amplitud variando exponencialmente
2.4
f2 (t) = (3t + 2)
(2.4.1)
seno(2t)
f3 (t) =
;
t
f4 (t) = r(4t 2)
(2.4.2)
(2.4.3)
i=0
Construya un gr
afico de la se
nal f (t) para g(t) = 0, 5 seno(0, 1t).
Problema 2.4. Considere la funci
on
f (t) =
1 seno((t 2))
t2
(2.4.4)
Dibuje f (t) (use MATLAB) para diferentes valores de . Comente sus resultados
Section 2.4.
31
2t 4
f3 (t) = r
;
3
f2 (t) = seno 3t
(t )
3
2
(2.4.5)
(2.4.6)
f2 (t)
f1 (t)
t
1
Figura 2.10. Se
nales compuestas
Para cada se
nal:
2.6.1 Encuentre la expresi
on analtica para cada una de las se
nales.
2.6.2 Determine una expresi
on analtica para la integral en el intervalo [0, t].
Problema 2.7. Grafique las siguientes se
nales de tiempo discreto
f1 [t] = [t 2] 3[t 5]
t
(2.4.7)
(2.4.8)
(2.4.9)
Captulo 3
ANALISIS
EN EL DOMINIO
DEL TIEMPO CONTINUO
3.1
Introducci
on
3.2
Ecuaci
on diferencial del sistema (EDS)
1 En el caso de modelos linealizados, debe entenderse que nos referimos a la entrada incremental
u(t) y salida incremental y(t)
32
Section 3.2.
33
Ecuaci
on diferencial del sistema (EDS)
dn y(t)
dn1 y(t)
dn1
dn2
+an1
+. . .+a0 y(t) = bn1 n1 u(t)+bn2 n2 u(t)+. . .+b0 u(t)
n
n1
dt
dt
dt
dt
(3.2.1)
La solucion a esta ecuacion debe cumplir ademas con las restricciones que imponen las condiciones o estado inicial.
Para ilustrar la forma en que se llega a la EDS desarrollaremos un ejemplo.
Ejemplo 3.1. Considere la red electrica de la Figura 3.1, donde todos los componentes son lineales.
R1
i(t)
iL (t)
+
vf (t)
v(t)
R2
(3.2.2)
(3.2.3)
(3.2.4)
(3.2.5)
R1 + R2
;
R1 R2 C
a0 =
1
;
LC
b2 = 0;
b1 =
1
;
R1 C
b0 = 0
(3.2.7)
34
An
alisis en el dominio del tiempo continuo
Captulo 3
Es importante adem
as hacer notar que la soluci
on v(t) debe ser tal que satisfaga
las condiciones iniciales impuestas por la tensi
on inicial en el condensador, y la
corriente inicial en el inductor.
222
En algunos casos, conviene usar una notacion compacta, tipo operador, para denotar la operacion derivada. Por esa razon, introducimos el operador de Heaviside,
hi definido por
d f (t)
dt
dn f (t)
n hf (t)i = n f (t) = n1 hf (t)i =
dtn
hf (t)i = f (t) ,
(3.2.8)
(3.2.9)
(3.2.10)
= 3, es decir, y(0)
sigue
siendo positiva, pero disminuye consistentemente. En el lmite, cuando y(t) = 2, la
derivada de y es cero, lo cual indica que en ese instante y(t) ya no cambia.
Introduzcamos ahora una variante en (3.2.12) :
dy
y(t) = u(t)
dt
(3.2.13)
Section 3.3.
35
= 1, lo cual implica
que en t = 0 la salida y esta aumentando. Sin embargo, a diferencia del caso
anterior, a medida que y aumenta, acercandose a 2, su derivada crece, es decir, y(t)
aumenta. Cuando y(t) = 2, se tiene que y(t)
= 4, y subiendo. En consecuencia,
y(t) sigue creciendo monotonicamente, pero siempre la velocidad de cambio, y(t),
3.3
3.3.1
Componente homog
enea y componente particular
(3.3.1)
Note que esta ecuacion tiene infinitas soluciones, las que pueden describirse genericamente como una familia. Los miembros de esta familia se diferencian por los
valores numericos especficos que se pueden escoger para un conjunto de n constantes
indeterminadas.
Por su parte, la componente o solucion particular es una funcion especfica del
tiempo, independiente de las condiciones iniciales, y que satisface la ecuacion (3.2.1).
La solucion completa y(t) = yh (t) + yp (t) queda totalmente determinada al usar
las condiciones iniciales, aplicadas a la respuesta completa, y(t), para calcular
las constantes indeterminadas presentes en yh (t).
36
An
alisis en el dominio del tiempo continuo
Captulo 3
(3.3.2)
yh (t)
La componente homogenea debe cumplir con
dyh (t)
+ 2yh (t) = 0
dt
(3.3.3)
Esta ecuaci
on es satisfecha por yh (t) = Ce2t , para cualquier valor de la constante C.
yp (t)
La componente particular yp (t) es una funci
on, independiente de las condiciones
iniciales, que debe satisfacer (3.3.2) con u(t) = 1. Una soluci
on simple es yp (t) = 2,
t 0.
De esta forma, la soluci
on completa es
y(t) = yh (t) + yp (t) = Ce2t + 2
(3.3.4)
(3.3.5)
p X
nk
X
Cki ti1 ek t
(3.3.6)
k=1 i=1
donde los Cki son constantes arbitrarias (constantes indeterminadas) que generan
los grados de libertad necesarios para que la respuesta completa satisfaga las
condiciones iniciales.
Section 3.3.
37
Los valores de que satisfacen (3.3.5) son conocidos como autovalores, valores
propios , valores caractersticos o frecuencias naturales del sistema. Como la
ecuacion caracterstica de la EDS tiene coeficientes reales, cuando las soluciones
son complejas, siempre ocurren en pares conjugados.
A su vez, la funciones temporales de la forma
ti1 ek t
(3.3.7)
(3.3.8)
Sea = + jo , entonces
yh1 (t) = Cet = Cet ejo t = Cet (cos(o t) + j sin(o t))
(3.3.9)
De la expresion anterior se observa que yh1 (t) decae a medida que el tiempo
transcurre si y solo si et decae, y esto ocurre si y solo si < 0. Dicho de otra
forma, si y solo si esta en el semi plano izquierdo abierto del plano complejo. Esto
se refleja en la Figura 3.2.
38
An
alisis en el dominio del tiempo continuo
Captulo 3
Eje
Imaginario
Eje
Real
Figura 3.2. Relacion entre la ubicacion de las frecuencias naturales (de multiplicidad uno) y los modos naturales
Section 3.3.
39
definici
on de estabilidad se conoce como estabilidad asint
otica
(3.3.10)
3t
+ C22 e
7t
(3.3.11)
(3.3.12)
Vemos que yh1 (t) esta dominada por el modo natural e2t porque esta se
nal
decae mas lentamente que el otro modo natural e5t . Por su parte, yh2 (t) esta
dominada por el modo natural e3t , el que decae mas lentamente que el modo e7t .
As diremos que el Sistema 1 tiene una frecuencia natural dominante igual a
2, con un modo natural dominante e2t . A su vez, el Sistema 2 tiene una
40
An
alisis en el dominio del tiempo continuo
Captulo 3
(3.3.13)
De esta ecuacion se observa que este modo decae mas rapidamente cuanto mas
grande es ||. As, los sistemas son mas rapidos cuanto mas alejados del eje imaginario estan sus frecuencias naturales dominantes.
La componente particular de la respuesta, yp (t), es una funcion estrechamente
ligada a la entrada, u(t). Un caso simple, en que podemos apreciar esta relacion,
es cuando u(t) puede describirse como una combinacion lineal de funciones de la
forma ei t , es decir,
u(t) =
`
X
Bi ei t
(3.3.14)
i=1
donde los i0 s son distintos y ninguno de ellos coincide con alguna frecuencia natural.
Cada una de las funciones ei t recibe el nombre de modo forzante.
Se puede verificar, usando la linealidad del sistema, que la solucion particular,
yp (t), esta dada por
yp (t) =
`
X
ypi (t);
(3.3.15)
i=1
y donde
Pn1
bk (i )k
Ki = Pk=0
n
l
l=0 al (i )
(3.3.16)
La respuesta yp (t) contiene modos forzados. Bajo las suposiciones de mas arriba,
relativos a que los i0 s son distintos de las frecuencias naturales, todos los modos
forzados coinciden con modos forzantes.
Observe que podemos identificar a Ki con una ganancia asociada al modo
forzante i-esimo. Cuando el modo forzante es una constante, es decir, et = 1, se
habla de la ganancia a continua.
Para facilitar la comprension del concepto de ganancia a modos, consideremos
un ejemplo.
Ejemplo 3.4. La EDS de un sistema lineal es
dy
+ 3y(t) = 2u(t);
dt
entonces
a1 = 1; a0 = 3; b0 = 2
(3.3.17)
Section 3.3.
41
3
X
(3.3.18)
i=1
K1 =
(3.3.19)
(3.3.20)
(3.3.21)
222
El tratamiento general de la solucion particular sera pospuesto para captulos
futuros; pero en el intertanto podemos establecer un hecho trascendente
Los sistemas lineales exhiben ganancias distintas para modos forzantes distintos,
y esta capacidad de discriminacion es la base para el analisis y dise
no de sistemas
de procesamiento de se
nales y para otras aplicaciones.
3.3.2
(3.3.22)
yu (t)
(3.3.23)
42
An
alisis en el dominio del tiempo continuo
Captulo 3
dn yu (t)
dn1 yu (t)
dn1
dn2
+a
+.
.
.+a
y
(t)
=
b
u(t)+b
u(t)+. . .+b0 u(t)
n1
0
u
n1
n2
dtn
dtn1
dtn1
dtn2
(3.3.24)
sujeta a condiciones iniciales cero. Para poder cumplir la restriccion que imponen estas condiciones, yu (t) debe contener, ademas de los modos forzados, una
combinacion lineal de modos naturales cuyas constantes son calculadas de modo
que se cumpla aquella restriccion.
Una descripcion pictorica comparativa, incluyendo las componentes homogenea
y particular se puede observar en la tabla 3.1.
yh (t)
modos naturales
modos forzados
yp (t)
yx (t)
yu (t)
(3.3.25)
(3.3.26)
yx (t)
La respuesta a estado inicial debe cumplir con
dyx (t)
+ 2yx (t) = 0
(3.3.27)
dt
y con yx (0) = 0, 5 Esta ecuaci
on es satisfecha por yx (t) = Ce2t , con C = 0.5
yu (t)
La respuesta a entrada, yu (t), es una soluci
on para (3.3.26) con u(t) = 1, y sujeta
a yu (0) = 0.
Section 3.3.
43
(3.3.28)
2t
(3.3.29)
+2
(3.3.30)
2t
+2
(3.3.31)
yp (t)
2, 5e2t
2
yx (t)
yu (t)
0, 5e2t
2e2t
2
222
Las dos descomposiciones de la respuesta del sistema que se han desarrollado
permiten observar esa respuesta desde dos perspectivas diferentes
En la descomposicion componente homogenea- componente particular se observa la estructura de la respuesta. En efecto, en esa particion queda en
evidencia la presencia de dos tipos de modos: modos naturales (incluidos en
la componente homogenea) y modos forzados (incluidos en la componente
particular).
En la descomposicion respuesta a estado inicial-respuesta a entrada se separan
los efectos de las dos causantes de que el sistema tenga una respuesta: las
condiciones iniciales y las excitaciones o entradas aplicadas.
Note que aunque las condiciones iniciales sean iguales a cero, a
un as, los modos naturales se encuentran presente en la respuesta (en este caso solo aparece la
componente debida a la entrada, yu (t)).
Para cerrar esta seccion consideraremos un ejemplo donde estos conceptos adquieren un significado mas concreto.
44
An
alisis en el dominio del tiempo continuo
Captulo 3
R2 = 1[];
iL (t)
L = 1[H];
R1
i (t)
(3.3.32)
+
vf (t)
C = 0, 5[F ]
i (t)
R2
vc (t)
(3.3.33)
donde
1
R + L + 1
4 1
C
Z=
1
1
C
1 1
C
;
1 1
+ R2
C
i (t)
4
;
I=
i (t)
v (t)
4 f
(3.3.34)
E=
1
2+
2
2 + 4 + 6
2
2 + 2 + 2
(3.3.35)
(3.3.36)
(3.3.37)
Section 3.3.
45
Supongamos que las condiciones iniciales son vc (0) = 5 [V ], iL (0) = 3 [A] y que
vf (t) = 10 [V ]. Primero notamos que, al aplicar LCK en la superficie A, se tiene
que
1
vc (0)
v c (0) =
iL (0)
= 4 [V ]
(3.3.38)
C
R2
La soluci
on total se puede calcular usando el siguiente c
odigo MAPLE
>v_f(t):=10:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)-2*v_f(t)=0;
>dsolve({eds,v_c(0)=5,D(v_c)(0)=-4},v_c(t));
arrojando como resultado
10 5 2t
1 2t
+ e
cos( 2t)
2e
seno( 2t)
(3.3.39)
3
3
3
Entonces las distintas componentes de la respuesta vc (t) tiene los siguientes valores
e interpretaciones.
vc (t) =
(a) La componente particular, vcp (t) es aquella componente de vf (t) que contiene
s
olo los modos forzados por la excitaci
on constante, es decir, es la componente
continua de vc (t), en este caso vcp (t) = 10/3[V ]. Note que esta componente
se puede calcular usando un divisor de tensiones, y que la ganancia a modo
constante de la red es igual a 1/3.
(b) La componente homogenea, vch (t), es la parte de la respuesta que contiene todos
los modos naturales, en este caso
vch (t) =
5 2t
1 2t
e
cos( 2t)
2e
seno( 2t)
3
3
(3.3.40)
(c) La componente a estado inicial, vch (t), corresponde al valor que tendra vc (t)
debido s
olo a la corriente inicial en el inductor y a la tensi
on inicial en el condensador, es decir con la fuente de tensi
on cortocircuitada. Esta componente
se puede calcular con el siguiente c
odigo MAPLE
>v_f(t):=0:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)-2*v_f(t)=0;
>dsolve({eds,v_c(0)=5,D(v_c)(0)=-4},v_c(t));
Lo cual entrega como resultado
(3.3.41)
46
An
alisis en el dominio del tiempo continuo
Captulo 3
>v_f(t):=10:
>eds:=diff(v_c(t),t,t)+4*diff(v_c(t),t)+6*v_c(t)-diff(v_f(t),t)-2*v_f(t)=0;
>dsolve({eds,v_c(0)=0,D(v_c)(0)=0},v_c(t));
de donde se obtiene
vcu (t) =
10 10 2t
10 2t
e
cos( 2t)
2e
seno( 2t)
3
3
3
(3.3.42)
222
Un comentario final sobre la respuesta del sistema es que es usual hablar de
respuesta transitoria y respuesta estacionaria. La respuesta estacionaria corresponde a la respuesta del sistema cuando ha transcurrido mucho tiempo desde el
instante inicial. Por su parte la respuesta transiente es aquella parte de la respuesta
que se extingue con el tiempo.
En el ejemplo 3.6 en la pagina 44, la respuesta estacionaria esta dada por el
modo forzado constante, mientras que la respuesta transitoria esta formada por los
modos naturales (sinusoidales amortiguadas).
La separacion en componentes estacionaria y transitoria es transversal a la idea
de modos naturales y modos forzados, y no ocurrira siempre que la respuesta estacionaria incluya solo modos forzados, e incluso es posible que la respuesta estacionaria este formada exclusivamente por modos naturales. Por ejemplo, si un sistema
tiene modos naturales sinusoidales y la entrada es una exponencial decreciente, entonces la respuesta estacionaria contendra los modos naturales sinusoidales y la
respuesta transitoria incluira el modo forzado por la exponencial.
3.4
Respuesta a se
nales de prueba
3.4.1
Respuesta a escal
on unitario
(3.4.1)
Note que go (t) contiene una parte natural u homogenea (combinacion lineal de
modos naturales de la forma (3.3.6)) y una componente particular o forzada.
Section 3.4.
47
Respuesta a se
nales de prueba
go (t) =
k
XX
1
+
Cki ti1 ek t
a0
i=1
t 0
(3.4.2)
k=1
go (t) =
k
1 p XX
t +
Cki ti1 ek t
p!ap
i=1
t 0
(3.4.3)
k=1
Paso 2 Calcule las constantes Cki usando la restriccion de las condiciones iniciales
iguales a cero, es decir, usando el hecho que
` hgo (t)it=0 = 0
` = 0, 1, . . . , n 1
(3.4.4)
Paso 3 Calcule las primeras n 1 derivadas de go (t). Note que, como las condiciones iniciales son cero, esas derivadas son continuas en t = 0
Paso 4 Usando las propiedades de linealidad obtenga g(t) de acuerdo a
g(t) =
n1
X
bi i hf (t)i(t)
(3.4.5)
i=0
(3.4.6)
(3.4.7)
48
An
alisis en el dominio del tiempo continuo
Captulo 3
(3.4.8)
go (0) = 0 =
hgo (t)i|t=0
(3.4.9)
(3.4.10)
1
de donde C1 = 12
y C2 = 13 . Nuevamente, este resultado se puede obtener
con MAPLE a traves del siguiente c
odigo
>eds:=Diff(Diff(go(t),t),t)+ 5*Diff(go(t),t)+4*go(t)-1;
>dsolve({eds, go(0)=0,D(go)(0)=0},go(t));
Paso 4 La respuesta a escal
on unitario est
a entonces dada por
g(t) = 2go (t) hgo (t)i =
3.4.2
1 1 4t
+ e
et
2 2
(3.4.11)
(t)
S
x(0) = 0
g(t)
(t )
invarianza en
tiempo
g(t )
x() = 0
Section 3.5.
49
C
alculo de la respuesta via convoluci
on
dg(t)
Thh0, (t)ii Thh0, (t )ii
g(t) g(t )
= lim
= lim
0
0
dt
(t) (t )
= lim Thh0,
i = Thh0, D (t)ii = h(t)
0
(3.4.12)
(3.4.13)
dg(t)
= 2e4t + et
dt
t 0
(3.4.14)
222
Es importante anotar que las condiciones iniciales de un sistema son valores
nales pueden ser discontinuas en t = to . Esto es
conocidos para t = t
o , pero las se
lo que ocurre en el Ejemplo 3.8, en donde
lim h(t) = 0 6= lim h(t) = 1
t0
t0+
(3.4.15)
En una perspectiva mas general, podemos observar que dada la relacion entre
la respuesta a impulso y la respuesta a escalon, y considerando que esta u
ltima
contiene una combinacion lineal de los modos naturales del sistema (mas una constante), entonces h(t) contiene s
olo modos naturales. Conceptualmente, es
esta la caracterstica que confiere especial importancia a las respuestas a escalon
e impulso. En rigor, la respuesta a excitaciones mas complejas tambien contiene
una combinacion de modos naturales (a traves de la componente homogenea de
la respuesta), sin embargo, la presencia de estos modos se ve oscurecida por la
componente particular o forzada de la respuesta.
Veremos, en la siguiente seccion una utilidad inmediata de estas consideraciones.
3.5
C
alculo de la respuesta via convoluci
on
Supongamos que se conoce la respuesta a impulso, h(t), de un sistema lineal e invariante en el tiempo, con condiciones iniciales iguales a cero. Entonces, el siguiente
lema nos proporciona un resultado crucial en la teora de los sistemas lineales.
50
An
alisis en el dominio del tiempo continuo
Captulo 3
f ( )h(t ) d
y(t) =
t 0
(3.5.1)
Demostraci
on
Sea i N y sea un incremento temporal, entonces, usando la propiedad de
invarianza en el tiempo, tenemos que
h(t i) = Thh0, (t i)ii
(3.5.2)
(3.5.3)
222
Por (3.5.5), y(t) se puede interpretar como una suma ponderada (por f ( )) de
respuestas a impulso h(t )
Note que dado que f (t) y h(t) son causales, entonces, la ecuacion (3.5.1) tambien
se puede escribir como
Z
y(t) =
f ( )h(t ) d =
f (t )h( ) d
t 0
(3.5.6)
Las integrales que aparecen en la ecuacion (3.5.6) son una expresion de la convoluci
on de dos funciones temporales. La definicion generica es
Z
4 Note
f1 ( )f2 (t ) d =
3 Una
f1 (t) f2 (t) =
f1 (t )f2 ( ) d
(3.5.7)
se
nal f (t) es causal si f (t) = 0 t < 0
que , en este caso, la respuesta y(t) tiene s
olo la componente debida a la entrada.
Section 3.5.
51
C
alculo de la respuesta via convoluci
on
(3.5.8)
La integraci
on se puede segmentar en tres intervalos:
Z 0
u( )h(t )d = 0
Z
t
1
u(t) h(t) =
u( )h(t )d = (1 e2t )
Z0 1
t<0
(3.5.10)
0t<1
1t
u()
u()
h(t)
u()
h(t)
h(t)
52
An
alisis en el dominio del tiempo continuo
Captulo 3
222
Como se puede apreciar, el calculo mismo de la convolucion es complejo. En
realidad la importancia de ella se debe a que, por un lado, condensa la esencia de
la linealidad de los sistemas lineales (e invariantes en el tiempo), y por otro, es un
nexo de conexion con el analisis en el dominio de las Transformadas de Laplace y
Fourier.
Tambien se puede demostrar que la respuesta de un sistema lineal e invariante
en el tiempo se puede calcular a partir de la respuesta a escalon, como se muestra
en el el siguiente lema.
Lema 3.2. Sea una sistema lineal e invariante en el tiempo. Suponga que la respuesta de ese sistema a un escal
on unitario de entrada, con condiciones iniciales
iguales a cero, es g(t). Entonces la respuesta del sistema, bajo condiciones iniciales
iguales a cero, a una excitaci
on u(t) est
a dada por
y(t) = g(t)
du(t)
dt
(3.5.11)
Demostraci
on
La demostraci
on sigue la lnea de aquella del lema anterior. Primero tenemos
que la se
nal de entrada u(t) puede ser expresada aproximadamente como la suma
de escalones de altura diferencial, es decir5
u
(t) =
X
u((i + 1)) u(i)
(t i)
i=
(3.5.12)
donde u
(t) tiende a u(t) cuando tiende a cero. Por otro lado
g(t i) = Thh0, (t i)ii
(3.5.13)
X
u((i + 1)) u(i)
g(t i)
i=
(3.5.14)
que el lmite superior de la suma es aunque los sumandos para i > t/Delta son cero,
debido a la presencia del escal
on (t i).
Section 3.6.
3.6
53
Problema 3.1. Resuelva las siguientes ecuaciones diferenciales con las condiciones iniciales que se indican
dy
+ 2y(t) = 0
dt
d 2y
dy
+7
+ 10y(t) = 0
2
dt
dt
d 2y
+ 4y(t) = 0
dt 2
y(0) = 1
(3.6.1)
y(0) = 1;
y(0) = 0;
y(0)
=2
y(0)
=1
(3.6.2)
(3.6.3)
t 0
(3.6.4)
1 = 2
1 = 3
1 = 1
2 = 2
2 = 0
2 = 1 + j2
3 = 2
3 = 0
3 = 1 j2
(3.6.5)
54
An
alisis en el dominio del tiempo continuo
Captulo 3
0.7
0.6
g(t)
0.5
0.4
0.3
0.2
0.1
0
10
15
Tiempo [s]
1.5
Eje imaginario
Eje imaginario
Sistema 1
2
0.5
0
0.5
1
1.5
2
2
1
0
1
2
3
1.5
0.5
0.5
4
3
Eje real
Eje real
Section 3.6.
55
R1
C
1
vf (t)
vc (t)
4
R2
vo (t)
+
Avc (t)
4
(3.6.6)
= 2.
Captulo 4
ANALISIS
EN EL DOMINIO
DEL TIEMPO DISCRETO
4.1
Introducci
on
4.2
Ecuaci
on de recursi
on del sistema (ERS)
56
Section 4.2.
Ecuaci
on de recursi
on del sistema (ERS)
57
1
(u[t] + u[t 1] + u[t 2])
3
(4.2.2)
222
(4.2.3)
(4.2.4)
(4.2.5)
Lo cual lleva a
donde y[t] = y((` + 1)), y[t 1] = y(`), u[t 1] = u(`).
222
2 El
58
An
alisis en el dominio del tiempo discreto
Captulo 4
(4.2.7)
(4.2.8)
q ` hf [t]i = q ` f [t] = f [t `]
(4.2.9)
(4.2.11)
Section 4.3.
59
la salida menos la mitad de la salida en un instante anterior debe ser igual al valor
que tena la entrada un instante anterior, u[t1 1]. Para estudiar la evolucion de
la salida del sistema conviene re-escribir (4.2.11) en la forma siguiente
y[t] y[t 1] = 0, 5y[t 1] + u[t 1]
(4.2.12)
(4.2.13)
(4.2.14)
4.3
4.3.1
Componente homog
enea y componente particular
60
An
alisis en el dominio del tiempo discreto
Captulo 4
ural u homog
enea, y la otra, que refleja la naturaleza especfica de la excitacion,
componente particular o forzada.
La componente homogenea, yh [t], satisface la ecuacion homogenea asociada a
(4.2.1), es decir
yh [t] + an1 q 1 yh [t] + . . . + a0 q n yh [t] = 0
(4.3.1)
(4.3.2)
(4.3.3)
Esta ecuaci
on es satisfecha por yh [t] = C(0, 5)t , para cualquier valor de la constante C. Esto se verifica reemplazando yh [t] en (4.3.3)
(4.3.4)
yp [t]
La componente particular yp [t] es una funci
on, independiente de las condiciones
iniciales, que debe satisfacer (3.3.2) con u[t] = 1. Como la entrada es una constante,
una soluci
on tentativa es suponer que la soluci
on particular tambien es constante,
digamos yp [t] = Co . Si esta suposici
on es correcta, entonces existe Co constante
que satisface (4.3.2) y puede ser calculada reemplazando yp [t] = Co y u[t] = 1 en
(4.3.2)
Co 0, 5Co = 1 = Co = 2
(4.3.5)
Entonces la soluci
on completa es y[t] = yh [t] + yp [t] = 2 + C(0, 5)t . La constante
C se calcula de modo que y[1] = 1
y[1] = 1 = 2 + C(0, 5)1 = C =
3
2
(4.3.6)
(4.3.7)
Section 4.3.
61
222
Volvamos ahora al problema general de calcular la componente homogenea de
la respuesta del sistema. Para ello repetimos la ecuacion homogenea (4.3.1)
yh [t] + an1 q 1 yh [t] + . . . + a0 q n yh [t] = 0
(4.3.8)
pq () = n + an1 n1 + . . . + a1 + a0 = 0
(4.3.9)
donde
pq () =
a` `
con an = 1
(4.3.10)
`=0
n
+ . . . + a1 o + a0 = 0
Ctn
o + an1 n1
o
o
(4.3.11)
n
X
d pq ()
a` ``1 = 0; con an = 1
=
d =1
`=0
(4.3.13)
62
An
alisis en el dominio del tiempo discreto
Captulo 4
Luego, reemplazamos yh [t] por f2 [t] en el lado izquierdo de (4.3.8), para demostrar que es igual a cero.
n
X
`=0
a` yh [t n + `] =
n
X
a` (t n + `)tn+`
1
(4.3.14)
`=0
= (t n)tn
1
n
X
a` `1 + tn+1
1
`=0
= (t
n)tn
1
n
X
a` ``1
1
(4.3.15)
d pq ()
d =1
|
{z
}
(4.3.16)
`=0
pq (1 ) +tn+1
1
| {z }
0
p X
nt
X
C`i ti1 t`
(4.3.17)
`=1 i=1
donde los C`i son constantes arbitrarias (constantes indeterminadas) que generan
los grados de libertad necesarios para que la respuesta completa satisfaga las
condiciones iniciales.
Section 4.3.
63
Los valores de que satisfacen (4.3.9) son conocidos como autovalores, valores
propios o frecuencias naturales del sistema. Como la ecuacion caracterstica de la
ERS tiene coeficientes reales, cuando las soluciones son complejas, siempre ocurren
en pares conjugados.
A su vez, la funciones temporales de la forma
ti1 t`
(4.3.18)
(4.3.19)
Sea = ej , entonces
yh1 [t] = Ct = C t ejt = C t (cos(t) + j sin(t))
(4.3.20)
De la expresion anterior se observa que yh1 [t] decae a medida que el tiempo
transcurre si y solo si t decae, y esto ocurre si y solo si || = < 1. Dicho de
otra forma, si y solo si esta al interior del crculo o disco unitario (excluyendo su
borde). Esto se refleja los modos que aparecen en la Figura 4.1 y, por contradiccion,
en la Figura 4.2.
64
An
alisis en el dominio del tiempo discreto
Captulo 4
Figura 4.1. Relacion entre la ubicacion de las frecuencias naturales (de multiplicidad uno) y los modos naturales (caso decreciente).
Section 4.3.
65
Figura 4.2. Relacion entre la ubicacion de las frecuencias naturales (de multiplicidad uno) y los modos naturales (caso no decreciente).
66
An
alisis en el dominio del tiempo discreto
Captulo 4
definici
on de estabilidad se conoce como estabilidad asint
otica
(4.3.21)
(4.3.23)
(4.3.24)
Section 4.3.
67
Vemos que yh1 [t] esta dominada por el modo natural 0, 9t porque esta se
nal
decae mas lentamente que el otro modo natural 0, 5t . Por su parte, yh2 [t] esta
dominada por el modo natural 0, 7t , el que decae mas lentamente que el modo 0, 2t .
As diremos que el Sistema 1 tiene una frecuencia natural dominante igual a
0, 9, con un modo natural dominante 0, 9t . A su vez, el Sistema 2 tiene una
frecuencia natural dominante igual a 0, 7, con un modo natural dominante 0, 7t .
Al comparar ambos sistemas podemos concluir, en primera aproximacion, que el
Sistema 1 es mas lento que el Sistema 2, porque su modo dominante decae mas
lentamente.
En general, si = ej , con 0 < 1, el modo natural tiene la forma
t = t (cos(t) + j seno(t))
(4.3.25)
De esta ecuacion se observa que este modo decae mas rapidamente cuanto mas
peque
no es . As, los sistemas estables son mas rapidos cuanto mas cercanos al
origen del plano complejo estan sus frecuencias naturales dominantes.
La componente particular de la respuesta, yp [t], es una funcion estrechamente
ligada a la entrada, u[t]. Un caso simple, en que podemos apreciar esta relacion, es
cuando u[t] puede describirse como una combinacion lineal de funciones de la forma
it , es decir,
u[t] =
`
X
Bi it
(4.3.26)
i=1
donde los i0 s son distintos enter s y ninguno de ellos coincide con alguna frecuencia
natural. Cada una de las funciones it recibe el nombre de modo forzante.
Se puede verificar, usando la linealidad del sistema, que la solucion particular,
yp [t], esta dada por
yp [t] =
`
X
ypi [t];
con
ypi [t] = Ki Bi it
i=1
(4.3.27)
y donde
Pm
bm` (i )`
Ki = P`=0
;
n
l
l=0 anl (i )
con an = 1
(4.3.28)
La respuesta yp [t] contiene modos forzados. Bajo las suposiciones de mas arriba,
relativos a que los i0 s son distintos de las frecuencias naturales, todos los modos
forzados coinciden con modos forzantes.
Observe que podemos identificar a Ki con una ganancia asociada al modo
forzante i-esimo. Cuando el modo forzante es una constante, es decir, t = 1t , se
habla de la ganancia a continua o ganancia a frecuencia cero.
68
An
alisis en el dominio del tiempo discreto
Captulo 4
n = m = 1; a1 = 1; a0 = 0, 5; b0 = 2
(4.3.29)
Supongamos que la entrada es u[t] = 5 + 4 cos(t/4 + /7), entonces podemos
expresarla como
u[t] =
3
X
entonces
(4.3.30)
i=1
K3 =
b0 21
= 0, 7630 + j2, 605 = 2, 7144ej1,286
1 + a0 21
(4.3.31)
(4.3.32)
(4.3.33)
222
El tratamiento general de la solucion particular sera pospuesto para captulos
futuros; pero en el intertanto podemos establecer un hecho trascendente
Los sistemas lineales exhiben ganancias distintas para modos forzantes distintos,
y esta capacidad de discriminacion es la base para el analisis y dise
no de sistemas
de procesamiento de se
nales y para otras aplicaciones.
4.3.2
(4.3.34)
yu [t]
(4.3.35)
Section 4.3.
69
yp [t]
yx [t]
yu [t]
(4.3.37)
(4.3.38)
(4.3.39)
70
An
alisis en el dominio del tiempo discreto
Captulo 4
(4.3.41)
(4.3.42)
yu [t] = (0, 5) + 2
(4.3.43)
t
(4.3.44)
yp [t]
1, 5(0, 5)t
yx [t]
yu [t]
0, 5(0, 5)t
(0, 5)t
222
Las dos descomposiciones de la respuesta del sistema que se han desarrollado
permiten observar esa respuesta desde dos perspectivas diferentes
5 Esta
soluci
on particular se puede calcular usando la ganancia al modo 1t .
Section 4.4.
Respuesta a se
nales de prueba
71
En la descomposicion componente homogenea- componente particular se observa la estructura de la respuesta. En efecto, en esa particion queda en
evidencia la presencia de dos tipos de modos: modos naturales (incluidos en
la componente homogenea) y modos forzados (incluidos en la componente
particular).
En la descomposicion respuesta a estado inicial-respuesta a entrada se separan los efectos de las dos causas de que el sistema tenga una respuesta: las
condiciones iniciales y las excitaciones o entradas aplicadas.
Note que aunque las condiciones iniciales sean cero, los modos naturales igual
se encuentran presentes en la respuesta del sistema a traves de la respuesta debida
a la entrada, yu [t].
Un comentario final sobre la respuesta del sistema es que es usual hablar de
respuesta transitoria y respuesta estacionaria. La respuesta estacionaria corresponde a la respuesta del sistema cuando ha transcurrido mucho tiempo desde el
instante inicial. Por su parte la respuesta transiente es aquella parte de la respuesta
que se extingue con el tiempo.
En el ejemplo 3.6 en la pagina 44, la respuesta estacionaria esta dada por el
modo forzado constante, mientras que la respuesta transitoria esta formada por los
modos naturales (sinusoidales amortiguadas).
La separacion en componentes estacionaria y transitoria es transversal a la idea
de modos naturales y modos forzados. La respuesta estacionaria puede existir incluso si la entrada es cero. En ese caso esta formada exclusivamente por modos
naturales. Por ejemplo, si un sistema tiene modos naturales sinusoidales y la entrada es una exponencial decreciente, entonces la respuesta estacionaria contendra
los modos naturales sinusoidales y la respuesta transitoria incluira el modo forzado
por la exponencial.
Por otro lado, si el sistema tiene ganancia cero a un modo forzante, el correspondiente modo forzado no aparecera en la respuesta estacionaria.
4.4
Respuesta a se
nales de prueba
4.4.1
Respuesta a escal
on unitario
72
An
alisis en el dominio del tiempo discreto
Captulo 4
(4.4.1)
Note que go [t] contiene una parte natural u homogenea (combinacion lineal de
modos naturales de la forma (4.3.17)) y una componente particular o forzada.
Cuando el sistema no tiene frequencias naturales en = 1, go [t] tiene la forma
go [t] = Ko +
p X
n`
X
C`i ti1 t`
t n
(4.4.2)
`=1 i=1
p1
p X
n`
X
C`i ti1 t`
t n
(4.4.4)
`=1 i=1
Hemos anotado que esta expresion para go [t] es valida t n ya que satisface
las condiciones iniciales.
Paso 2 Calcule la se
nales retardadas q ` go [t], para ` = 1, 2, . . ., n.
Paso 3 Calcule las constantes C`i usando la restriccion de las condiciones iniciales
iguales a cero, es decir, usando el hecho que
q ` go [t]|t=0 = 0
` = 0, 1, . . . , n 1
(4.4.5)
(4.4.7)
Section 4.4.
73
Respuesta a se
nales de prueba
(4.4.8)
10
3
go [t 1] =
go [1] = 0 =
(4.4.11)
(4.4.12)
10
8
5(0, 5)t + (0, 4)t
3
3
t 2
(4.4.13)
(4.4.14)
20
16
10
8
10(0, 5)t + (0, 4)t +
5(0, 5)t1 + (0, 4)t1 [t 1] t 2
3
3
3
3
(4.4.15)
16
10
20
20
10(0, 5)t + (0, 4)t +
10(0, 5)t + (0, 4)t [t 1] t 2
=
3
3
3
3
(4.4.16)
=
74
An
alisis en el dominio del tiempo discreto
Captulo 4
t 0
(4.4.17)
222
4.4.2
t n
(4.4.19)
Como las condiciones iniciales son cero, g[t 1][t 1] = g[t 1][t], ya que
g[t 1][t]|t=0 = 0. As la respuesta a un impulso unitario con condiciones iniciales
iguales a cero esta dada por
h[t] = g[t] g[t 1]
t 0
(4.4.20)
Aunque en algunos textos se propone calcular h[t] usando una estrategia similar
a la seguida para el calculo de la respuesta a escalon unitario, en general desde el
punto de vista meramente instrumental es mucho mas simple calcular la respuesta
a impulso usando la transformacion Zeta, como se vera en captulos proximos.
Ejemplo 4.9. Consideremos el mismo sistema descrito por (4.4.7), entonces podemos calcular h[t] construyendo la primera diferencia de la respuesta a escal
on unitario en (4.4.14). As se obtiene
h[t] = 10 20(0, 5)t + 12(0, 4)t 10 + 20(0, 5)t1 12(0, 4)t1
t
= 20(0, 5) 18(0, 4)
t 0
(4.4.21)
(4.4.22)
222
En una perspectiva general, podemos observar que dada la relacion entre la
respuesta a impulso y la respuesta a escalon, y considerando que esta u
ltima contiene
una combinacion lineal de los modos naturales del sistema (mas una constante),
entonces h[t] contiene s
olo modos naturales. Conceptualmente, es esta la caracterstica que confiere especial importancia a las respuestas a escalon e impulso. En
7 Note
Section 4.5.
75
C
alculo de la respuesta via convoluci
on
4.5
C
alculo de la respuesta via convoluci
on
Demostraci
on
Recordemos que toda se
nal u[t] puede expresarse por
u[t] =
u[`][t `]
(4.5.2)
`=0
(4.5.3)
(4.5.4)
u[`]h[t `] = Thh0,
`=0
u[`][t `]ii
(4.5.5)
`=0
t
X
u[`]h[t `]
t 0
(4.5.6)
`=0
8 Note
9 Una
76
An
alisis en el dominio del tiempo discreto
Captulo 4
222
Por (4.5.6), y[t] se puede interpretar como una suma ponderada (por u[`]) de
respuestas a impulso h[t `]
Note que dado que u[t] y h[t] son causales, entonces, la ecuacion (4.5.1) tambien
se puede escribir como
y[t] =
u[`]h[t `] =
`=
u[t `]h[`]
t 0
(4.5.7)
`=
Las sumas que aparecen en la ecuacion (4.5.7) son una expresion de la convoluci
on de dos funciones temporales. La definicion generica es
f1 [t] f2 [t] =
f1 [`]f2 [t `] =
`=
f1 [t `]f2 [`]
(4.5.8)
`=
(4.5.9)
(4.5.10)
Demostraci
on
u[t] [t to ] =
X
`=
u[`][t to `] =
`=
Note que el u
ltimo paso de la demostraci
on se basa en que una funci
on de tiempo
discreto es un tren de impulsos de Kronecter cuya amplitud es el valor instant
aneo
de la se
nal.
222
El uso de convolucion para la determinacion de la respuesta de un sistema lineal tiene importancia conceptual y numerica, sin embargo, no es, en general, un
procedimiento analticamente simple. Es interesante observar que el calculo de la
convolucion entre dos se
nales discretas se puede ilustrar considerando dos tiras de
papel. En una se anotan los valores de la primera se
nal y, en la otra, los de la
segunda. La convolucion se realiza invirtiendo una de las tiras y retrocediendola
sobre la otra. Para cada retroceso, la convolucion corresponde a multiplicar los
valores coincidentes y sumar los productos resultantes.
Para apreciar esto u
ltimo, veremos un ejemplo.
Section 4.5.
77
C
alculo de la respuesta via convoluci
on
Ejemplo 4.10. Un sistema lineal tiene una respuesta a impulso unitario, con condiciones iguales a cero, dada por h[t] = (0, 5)t [t]. Determine, usando convoluci
on la
respuesta a la se
nal u[t] = [t] [t 3].
Soluci
on
La respuesta est
a dada por
t
X
u[`]h[t `] =
t
X
La suma o acumulaci
on se puede segmentar en tres
1
X
u[`]h[t `]d` = 0
`=
t
X
u[t] h[t] =
u[`]h[t `]d` = 2 (0, 5)t
`=0
intervalos:
t<0
0t<3
(4.5.13)
t3
`=0
Una resoluci
on compacta se puede desarrollar usando el hecho que la entrada se
puede expresar como la suma de tres impulsos unitarios, es decir
u[t] = [t] [t 3] = [t] + [t 1] + [t 2]
(4.5.14)
t1
t2
[t 1] + (0, 5)
[t 2]
(4.5.15)
(4.5.16)
222
Como se puede apreciar, el calculo mismo de la convolucion es complejo. En
realidad la importancia de ella se debe a que, por un lado, condensa la esencia de
la linealidad de los sistemas lineales (e invariantes en el tiempo), y por otro, es un
nexo de conexion con el analisis en el dominio de las transformaciones Zeta y de
Fourier.
La convolucion en tiempo discreto es ampliamente usada para construir las respuestas de sistemas lineales, invariantes en el tiempo y causales, cuando se conoce
la respuesta a un impulso unitario. Esto se debe a la simplicidad de las expresiones
del Lema 4.4
La respuesta de un sistema lineal e invariante en el tiempo se puede calcular a
partir de la respuesta a escalon, como se muestra en el el siguiente lema.
78
An
alisis en el dominio del tiempo discreto
Captulo 4
Lema 4.6. Sea un sistema lineal e invariante en el tiempo. Suponga que la respuesta de ese sistema a un escal
on unitario de entrada, con condiciones iniciales
iguales a cero, es g[t]. Entonces la respuesta del sistema, bajo condiciones iniciales
iguales a cero, a una excitaci
on u[t] est
a dada por
y[t] = u[t] (g[t] g[t 1]) = g[t] (u[t] u[t 1])
(4.5.17)
Demostraci
on
Dado que [t] = [t][t1], entonces, por linealidad e invarianza, la respuesta
h[t], a un impulso unitario puede expresarse como
h[t] = g[t] g[t 1]
(4.5.18)
(4.5.19)
(4.5.20)
`=
(4.5.21)
`=
(4.5.22)
`=
222
Section 4.6.
4.6
79
y[1] = 1; y[2] = 1
y[1] = 2; y[1] = 1
y[0] = 0; y[5] = 0
y[1] = 0; y[2] = 1
y[1] = 1; y[i] = 0 i > 1
(4.6.1)
(4.6.2)
(4.6.3)
(4.6.4)
(4.6.5)
(4.6.6)
(4.6.7)
(4.6.8)
(4.6.9)
(4.6.10)
4.3.1 Proponga una ERS de modo que f [t] corresponda (t 0) a la respuesta del
sistema a impulso con condiciones iniciales iguales a cero.
4.3.2 Proponga una ecuaci
on de recursi
on homog
enea, de modo que f [t] corresponda a la respuesta a estado inicial. Especifique ese estado inicial.
Problema 4.4. La respuesta de un sistema lineal e invariante en el tiempo a un
escal
on unitario y condiciones inciales iguales a cero est
a dada por
g[t] = (1 (0, 5)t + t(0, 5)t )[t]
(4.6.11)
1 = 0, 2
1 = 0, 3
1 = 1
2 = 0, 2
2 = 0, 3
2 = 0, 1 + j0, 2
3 = 0, 2
3 = 2
3 = 0, 1 j0, 2
80
An
alisis en el dominio del tiempo discreto
Captulo 4
(4.6.12)
g[k]
1.5
0.5
0
1
4
5
Tiempo [s]
10
Problema 4.9. Se contrae una deuda hipotecaria de 1000 [UF] a un interes mensual de 0, 7%. Si el plazo de la deuda es de 120 meses Cu
al debiera ser el dividendo
mensual, constante, en UF?
Section 4.6.
81
+
E
i0
i1
in2
in1
in
Problema 4.10 (Problema-desafo). En la red de la figura 4.4 todas las resistencias son iguales a R.
Considere como variable independiente, no al tiempo discreto sino que al n
umero
de orden de la malla. Construya una ecuaci
on de recursi
on en las corrientes de
mallas y especifique las condiciones (inicial y final).
Captulo 5
ANALISIS
DE SISTEMAS
LINEALES BAJO
EXCITACIONES PERIODICAS
5.1
Se
nales Peri
odicas
(5.1.1)
donde es un n
umero peque
no mucho menor que la amplificacion A. Entonces, si
u(t) = U cos(t) la salida y(t) esta dada por
y(t) = AU cos(t) + U 2 (0, 5 + 0, 5 cos(2t))
(5.1.2)
82
Section 5.2.
83
5.2
(5.2.1)
(5.2.2)
Esta u
ltima determina la frecuencia f = 2
[Hz] de la sinusoide, y su perodo
1
2
T = f = [seg].
Aplicando la formula de Euler se tiene que
A cos(t + ) = A
ej(t+) + ej(t+)
= ejt + ejt
2
(5.2.3)
A j
e
2
(5.2.4)
Por otra parte sabemos que si K() C es la ganancia al modo forzante ejt ,
entonces (usando la naturaleza lineal del sistema)
84
An
alisis de sistemas lineales bajo excitaciones peri
odicas
Captulo 5
(5.2.6)
As, se obtiene
Thhxo , A cos(t + )ii = |K()|A cos(t + + a ()) + {modos naturales} (5.2.7)
Como el sistema es estable, los modos naturales decaen a cero cuando t , as,
la respuesta estacionaria contiene solo la componente particular, es decir, contiene
solo los modos forzados y tiene la forma
y(t) = As () cos(t + s ())
(5.2.8)
Section 5.2.
85
C1 () =
Esta
se muestra en la Figura 5.1, donde se aprecia claramente la presencia
de una parte de la respuesta que es transiente, m
as lenta, que desaparece manteniendose s
olo una oscilaci
on sostenida de 10[rad/seg], pero de diferente amplitud
y fase que las de la se
nal original. Estos valores de As y s , que dependen de la
frecuencia , son en este caso:
p
As (10) = C1 (10)2 + C2 (10)2
= 0.272
s (10) = (C2 (10) + jC1 (10)) = (2262 j1040) = 2, 7106 [rad]
155, 31o
Una manera m
as directa para obtener una descripci
on generica de los resultados
anteriores sera calcular la respuesta en frecuencia K(), la que en este caso est
a
dada por
26
(5.2.9)
(j)2 + 4j + 13
La magnitud y la fase de esta respuesta en frecuencia aparecen en la Figura 5.2.
De esta figura los valores de magnitud y fase de K(10) se pueden calcular usando
el comando de Matlab ginput, el resultado es |K(10)| = 0, 2734 y a (10) =
2, 7188 [rad] (note que en este ejemplo, A = 1).
222
K() = |K()|eja () =
86
An
alisis de sistemas lineales bajo excitaciones peri
odicas
Captulo 5
0.5
0.5
Figura 5.1. Se
nales de entrada y salida del sistema del ejemplo 5.1
2.5
0.5
1.5
()
|K()|
1
1.5
1
2
0.5
0
2.5
0
10
15
Frecuencia [rad/s]
20
10
15
Frecuencia [rad/s]
20
Es necesario tener presente que en ciertos sistemas, a pesar de tener todas sus
frecuencias naturales en el interior de la zona de estabilidad, la respuesta a sinusoides de baja amplitud, incluye componentes sinuosidales de altsima amplitud.
Esto sucede en situaciones en que el sistema es excitado con una sinusoide de frecuencia muy cercana a una frecuencia natural proxima al lmite de estabilidad (el
eje imaginario). En este caso, dependiendo del amortiguamiento del sistema, la salida puede alcanzar el estado estacionario solo despues de mucho tiempo, y aunque
analticamente la oscilacion en la salida permanece acotada, puede alcanzar magnitudes insostenibles para el sistema real2 . Para esto recomendamos al lector analizar
en detalle el problema 5.4.
El fenomeno de respuestas inusualmente altas se origina en sistemas que exhiben
altas ganancias a un modo forzante de la forma ejt . Considere, por ejemplo, el
sistema con EDS
2 Un caso tradicionalmente analizado en la f
sica de las oscilaciones es el colpaso del Puente
Tacoma en EE.UU.
Section 5.3.
87
d 2 y(t)
d y(t)
+ 0, 01
+ 4y(t) = 4y(t)
(5.2.10)
2
dt
dt
En este ejemplo, que corresponde a un sistema estable, la ganancia a
continua es igual a 1, sin embargo la ganancia a modo forzante ej2t esta dada por
4
= j200
(5.2.11)
+ 0, 01 (j2) + 4
Esto significa que una excitacion sinuosidal de amplitud unitaria y frecuencia 2
[rad/s] genera una respuesta forzada de amplitud igual a 200. En casos como
este, se dice que, para esta excitacion, el sistema entra en resonancia.
La idea de resonancia en un sistema se refiere a la facilidad con que ese sistema
responde a determinadas frecuencias. Por ejemplo, todos conocemos la facilidad con
que se amplifica la oscilacion de un columpio cuando se lo empuja con la frecuencia
adecuada.
En terminos de la respuesta en frecuencia, el fenomeno descrito se refleja en que
la funcion |K()| tiene uno o mas picos muy pronunciados.
222
Cuando las frecuencias naturales del sistema se encuentran fuera de la zona de
estabilidad, la componente natural de la respuesta es no acotada. Sin embargo,
la componente forzada sigue siendo una oscilacion de la misma frecuencia que la
sinusoide en la entrada. Para apreciar esto se recomienda al lector analizar el
problema 5.5.
K() =
5.3
(j2)2
La idea central tras las series de Fourier, sean ellas de tiempo continuo como de
tiempo discreto, es la representacion de una funcion periodica usando una base
ortogonal de funciones.
La idea de ortogonalidad adquiere su sentido mas basico con el sistema cartesiano
de coordenadas. La diferencia esta en que, en las series de Fourier, la dimension de
la base es infinita, lo cual es usual en espacios de funciones.
Antes de analizar de lleno la representacion de funciones periodicas en forma de
una serie de Fourier, sugerimos al lector revisar el Apendice B para familiarizarse
con la notacion y el vocabulario empleado de aqu en adelante.
5.3.1
0 =
2
T
(5.3.1)
3 En t
erminos generales el intervalo a considerar es [to , to + T ]. Por simplicidad hemos escogido
to = T /2
88
An
alisis de sistemas lineales bajo excitaciones peri
odicas
Captulo 5
El conjunto definido en (5.3.1) resulta ser analogo al conjunto de funciones considerados en el lema B.1 en la pagina 288, dado que son linealmente independientes , pues ninguna de las sinusoides (o la constante) del conjunto puede describirse
como una combinacion lineal de las demas. Ademas definimos el producto interno
en este espacio de funciones como la integral:
Z
hf (t), g(t)i =
T
2
f (t) g(t)dt
f (t), g(t) B
(5.3.2)
T2
n=1
; 0 =
2
T
(5.3.3)
2
T
Z
Z
Z
T
2
y(t)dt
T2
T
2
T2
T
2
T2
(5.3.4)
Section 5.3.
89
y(t) = A0 +
Cn cos(n0 t n )
(5.3.5)
n=1
En que
Cn =
A2n + Bn2
Bn
n = arctg
An
(5.3.6)
(5.3.7)
Seal y(t)
1
0
1
2
6
0
Tiempo [s]
Figura 5.3. Se
nal cuadrada
La frecuencia fundamental es o = 2/T = /2 y los coeficientes de la serie se
pueden calcular como se indica
90
An
alisis de sistemas lineales bajo excitaciones peri
odicas
1
A0 =
T
T
2
y(t) dt = 0
Captulo 5
(5.3.8)
T2
2
An =
T
T
2
1
y(t) cos(no t) dt =
T
2
2
1
2 cos(0, 5nt) dt+
2
2
2 cos(0, 5nt) dt = 0
0
(5.3.9)
La ausencia de componentes cosenoidales es tambien previsible, dado que la se
nal
y(t) es una funci
on impar del tiempo.
Finalmente
Bn =
2
T
T
2
T2
y(t) sin(no t) dt =
1
2
2 seno(0, 5nt) dt +
2
1
2
2 seno(0, 5nt) dt
0
2
4
4
=2
seno(0, 5nt) dt = cos(0, 5nt) =
(1 cos(n))
n
n
0
(5.3.10)
(5.3.11)
8
Bn = n
0
n impar
(5.3.12)
n par
La participaci
on de las arm
onicas puede ser visualmente apreciada en la Figura
5.4.
3
2.5
2
1.5
1
0.5
0
4
6
8
Frecuencia angular, en mltiplos de o
10
12
Section 5.3.
91
222
El ejemplo precedente sugiere que el calculo manual de los coeficientes se puede
complicar notablemente para se
nales de mayor complejidad. Este proceso puede ser
enormemente facilitado por programas como Maple , tal como se ilustra en los
ejemplos que siguen.
Ejemplo 5.3. Uno de los procesos en que se generan se
nales peri
odicas no sinusoidales es en la rectificaci
on. En realidad, para circuitos de potencia, control de
motores, por ejemplo, en vez de diodos se utilizan tiristores, que no son m
as que
1
0.8
0.6
0.4
0.2
0
0.005
0.01
0.015
Time [s]
0.02
0.025
0.03
Figura 5.5. Se
nal a la salida de rectificador controlado por tristores
Claramente el rectificador de onda completa es un caso particular de este rectificador controlado, cuando el
angulo de disparo es = 0.
Con ayuda de Maple los coeficientes se pueden obtener f
acilmente, ahorr
andonos
buena parte del trabajo algebraico. En las lneas siguientes se muestran los comandos necesarios, entre los cuales se debe indicar a Maple que 0 < < y que n es
un n
umero entero. Se ha considerado, por simplicidad, que la frecuencia original
es 1[Hz] y la amplitud original es 1[V].
>
>
>
>
>
>
assume(0<alpha,alpha<1):
y(t):=(Heaviside(t-alpha)-Heaviside(t-Pi))*sin(t):
A_0:=1/Pi*int(y(t),t=0..Pi);
assume(n,integer):
A(n):=2/Pi*int(y(t)*cos(2*n*t),t=0..Pi);
B(n):=2/Pi*int(y(t)*sin(2*n*t),t=0..Pi);
Este c
odigo de Maple arroja como respuesta los coeficientes en funci
on de n
92
An
alisis de sistemas lineales bajo excitaciones peri
odicas
Captulo 5
1 + cos()
2
1 + 2 cos() (cos( n)) cos() + 4 n sin() sin( n) cos( n)
An = 2
(1 + 2 n) (1 + 2 n)
A0 =
Bn = 4
1 + t
y(t) = 1 t
y(t + 4)
peri
odica y(t) definida por tramos como:
; 2 < t 0
;0 < t 2
; en todo otro caso
(5.3.13)
(1 (1) )
n=1
2
n
2
cos
n
t
2
(5.3.14)
En el gr
afico de la Figura 5.6, podemos apreciar la aproximaci
on de la funci
on
y(t) por las primeras dos arm
onicas no nulas (n = 1, 3).
De la Figura 5.6 se observa que las dos primeras arm
onicas (con presencia no
nula en la serie) describen bastante bien la se
nal original. Ello puede ser entendido al calcular las amplitudes de las primeras diez componentes de la serie. Ellas
aparecen en el espectro de lneas de la Figura 5.7; all se observa que la amplitud de
cada arm
onica superior a la tercera es despreciable.
El gr
afico de la Figura 5.8 (a) muestra el error que se comete al representar la
funci
on por su serie truncada, en este caso hasta n = 3.
Section 5.3.
93
Seal y aproximacin
1
0.5
0
0.5
1
6
0
Tiempo [s]
1
0.8
0.6
0.4
0.2
0
3
4
5
6
Frecuencia angular, en mltiplos de
; N
(5.3.15)
94
An
alisis de sistemas lineales bajo excitaciones peri
odicas
Captulo 5
0.1
0.05
2
t
y(t)
eN (t)
yN (t)
0.05
0.1
(b) Interpretaci
on geom
etrica del error
Figura 5.8.
yN (t) =
N
X
k fk (t)
(5.3.16)
k=1
En que los fk (t) son vectores de la base B, el producto (5.3.15) puede escribirse
y desarrollarse de la siguiente manera:
heN (t), yN (t)i = hy(t) yN (t), yN (t)i
= hy(t), yN (t)i hyN (t), yN (t)i
*
+ *N
+
N
N
X
X
X
= y(t),
k fk (t)
k fk (t),
j fj (t)
k=1
N
X
k=1
k hy(t), fk (t)i
k=1
N
X
fk (t),
j=1
N
X
j fj (t)
j=1
k=1
N
X
k hy(t), fk (t)i
k=1
N
X
k=1
hy(t), fk (t)i
hfk (t), fk (t)i
Section 5.3.
95
Por lo tanto
N
N
X
X
hy(t), fk (t)i
hy(t), fk (t)i2
hy(t), fk (t)i
hfk (t), fk (t)i
hfk (t), fk (t)i
hfk (t), fk (t)i2
k=1
k=1
N
X
hy(t), fk (t)i2
k=1
N
X
hy(t), fk (t)i2
k=1
=0
Este resultado permite apreciar que yN (t), con los coeficientes calculados seg
un
(5.3.4), es la combinacion lineal que mejor representa a y(t) (en el sentido de
la norma cuadratica), ya que, dada su ortogonalidad con el vector de error eN (t),
minimiza la distancia entre y(t) y el conjunto de funciones que se generan por
combinacion lineal de los N elementos de la base. La Figura 5.8 (b) ilustra geometricamente la idea de ortogonalidad entre el error eN (t) y la representacion
truncada yN (t).
222
La representacion obtenida en (5.3.3), con los coeficientes explicitados en (5.3.4),
representa a la funcion y(t), dentro del intervalo [ T2 , T2 ] sea esta periodica o no. En
este u
ltimo caso la representacion se debe entender valida solo dentro del intervalo
en que se ha calculado. Sin embargo, dado que dentro del intervalo de longitud
T todas las sinusoides del conjunto B completan un n
umero entero de perodos, la
periodicidad de los elementos de B se extiende a la representacion de y(t), es decir, se
repite en todo intervalo de la forma [kT T2 , kT + T2 ] con k Z. Ademas por simple
traslacion del intervalo en que trabajamos, es decir, corriendo del eje temporal, el
calculo de los coeficientes y la representacion pueden tomarse en cualquier intervalo
arbitrario [to , to + T ]. En todo caso, el lector debe advertir que si la se
nal bajo
analisis no es periodica, la representacion sera distinta para distintas elecciones de
to .
5.3.2
96
An
alisis de sistemas lineales bajo excitaciones peri
odicas
y(t) = A0 +
Captulo 5
n=1
j00 t
= A0 e
X
ejn0 t + ejn0 t
ejn0 t ejn0 t
+
An
+ Bn
2
2j
n=1
X
An jBn
n=1
ejn0 t +
An + jBn jn0 t
e
2
(5.3.17)
Es decir, podemos reescribir una serie de Fourier trigonometrica como una serie
de Fourier exponencial de la forma:
y(t) =
Cn ejn0 t
(5.3.18)
n=
Puede obtenerse una expresion para el coeficiente Cn , por ejemplo, para n > 0,
en cuyo caso:
An jBn
#
" 2Z T
Z T2
2
2
1 2
y(t) cos(n0 t)dt j
y(t) sin(n0 t)dt
=
2 T T2
T T2
Z T2
1
=
y(t)(cos(n0 t) j sin(n0 t))dt
T T2
Cn =
T
2
y(t)ejn0 t dt
(5.3.19)
T2
Se deja al lector verificar que esta expresion tambien es valida para el resto de los
coeficientes Cn , cuando n 0. Si se presta atencion a la forma de los coeficientes en
la ecuacion (5.3.17), puede apreciarse que aparecen en pares complejos conjugados,
es decir, n > 0:
An jBn
= |Cn |ejn
2
An + jBn
= |Cn |ejn
=
2
Cn =
Cn
(5.3.20)
(5.3.21)
Section 5.3.
97
tal como tambien puede demostrarse a partir de la expresion general (5.3.19) para los
coeficientes de la serie compleja, es decir, tenemos un nuevo conjunto de funciones,
complejas en este caso, de la forma:
2
(5.3.22)
T
Este conjunto de funciones constituye una base para el espacio de funciones
seccionalmente continuas en el intervalo [ T2 , T2 ]. Se deja al lector verificar que este
conjunto tambien es ortogonal bajo el producto interno definido igual que antes,
pero en que ahora la conjugacion s afecta a las funciones involucradas:
{ejn0 t }nZ
; 0 =
Z
hfn (t), fm (t)i =
T2
Z
=
T
2
T
2
fn (t) fm (t)dt
ejn0 t ejm0 t dt
T2
5.3.3
Existe un conjunto de resultados, deducidos por Parseval, que relacionan directamente caractersticas de la se
nal periodica con los coeficientes de su Serie de Fourier.
En realidad, los resultados de Parseval se aplican a la expansion en cualquier base
ortogonal. Los detalles matematicos pueden ser examinados en el Apendice B.
Supongamos que una se
nal y(t) periodica se expresa como serie en los elementos,
f` (t), de una base ortogonal en el intervalo (T /2, T /2). Entonces
98
An
alisis de sistemas lineales bajo excitaciones peri
odicas
y(t) =
` f` (t)
Captulo 5
(5.3.23)
`=0
*
X
` f` (t),
`=0
+
` f` (t)
(5.3.24)
`=0
(5.3.25)
`=0
Note que el lado izquierdo en (5.3.25) representa el cuadrado del valor efectivo
de la se
nal periodica.
Para la Serie de Fourier trigonometrica, la expresion (5.3.25) se reduce a5
Z
T /2
T /2
(y(t))2 dt = A2o +
1X 2
(A` + B`2 )
2
(5.3.26)
`=0
T /2
T /2
(y(t))2 dt =
C` 2
(5.3.27)
`=
5.4
Section 5.4.
99
u[k] = A cos(k + );
con =
2
N
(5.4.2)
de la sinusoide,
ej(k+) + ej(k+)
= ejk + ejk
2
(5.4.3)
Esta u
ltima determina ademas la frecuencia discreta f =
y su perodo T = N .
Aplicando la formula de Euler se tiene que
A cos(k + ) = A
A j
e
2
(5.4.4)
Por otra parte sabemos que si K() C es la ganancia al modo forzante ejk ,
entonces (usando la naturaleza lineal del sistema)
Donde K() es la ganancia a modo forzante y esta dada por (4.3.28), con i =
ej . Si expresamos K() en su forma polar se llega a
K() = |K()|eja ()
(5.4.6)
As, se obtiene
Thhxo , A cos(k + )ii = |K()|A cos(k + + a ()) + {modos naturales} (5.4.7)
Como el sistema es estable, los modos naturales decaen a cero cuando k
, as, la respuesta estacionaria contiene solo la componente particular, es decir,
contiene solo los modos forzados y tiene la forma
y[k] = As () cos(k + s ())
(5.4.8)
100
An
alisis de sistemas lineales bajo excitaciones peri
odicas
Captulo 5
1, 5e2j
e2j 0, 7ej + 0, 12
(5.4.9)
Section 5.5.
101
3.5
0.5
2.5
a()
|K()|
2
1.5
0.5
1
0.5
2
4
6
Frecuencia angular discreta [rad]
2
4
6
Frecuencia angular discreta [rad]
(5.4.10)
pi
5.5
Veamos ahora como pueden extenderse las ideas hasta aqu expuestas a la representacion de funciones definidas en instantes de tiempo discreto como suma de
sinusoides, tambien definidas en tiempo discreto.
Para sistemas de tiempo discreto, las series trigonometricas son poco usadas,
prefiriendose la forma exponencial. Veremos que ello se debe a que las exponenciales
periodicas involucradas tienen propiedades de simetra que hacen mucho mas simple
el calculo de los coeficientes, en comparacion al calculo de los coeficientes de la serie
trigonometrica. As, consideramos se
nales de la forma
f [k] = ejk
; k = 0, 1, 2, . . .
(5.5.1)
102
An
alisis de sistemas lineales bajo excitaciones peri
odicas
Captulo 5
; k
(5.5.3)
N
1
X
Cn ej0 nk ;
0 =
n=0
2
N
(5.5.4)
Desde el punto de vista del algebra lineal queremos representar el vector y[k] en
terminos de los vectores del conjunto:
Bd = {1, ej0 k , ej20 k , . . . , ej(N 1)0 k }
(5.5.5)
N
1
X
f1 [k]f2 [k]
k=0
N
1
X
(ej0 n1 k ) ej0 n2 k
k=0
N
1
X
k=0
(5.5.6)
Section 5.5.
103
Pero seg
un (5.5.2) tenemos que N 0 = 2, y n1 y n2 son n
umeros enteros, por
tanto, para n1 6= n2 , pues de otra forma el denominador se hace cero:
1 ej2(n1 +n2 )k
1 ej0 (n1 +n2 )
=0
hej0 n1 k , ej0 n2 k i =
Y si n1 = n2 = n:
hej0 nk , ej0 nk i = kej0 nk k2
=
N
1
X
ej0 nk ej0 nk
k=0
N
1
X
k=0
=N
Es decir el conjunto definido en (5.5.5) es ortogonal bajo el producto interno
(5.5.6).
Con esto, los coeficientes de la representacion (5.5.4) se pueden calcular usando
el lema B.1:
Cn =
hej0 nk , y[k]i
hej0 nk , ej0 nk i
N 1
1 X
y[k]ej0 nk
=
N
k=0
; 0 =
2
N
(5.5.7)
104
An
alisis de sistemas lineales bajo excitaciones peri
odicas
CN ` =
Captulo 5
N 1
1 X
y[k]ej0 (N `)k
N
(5.5.8)
N 1
1 X
y[k]ej0 N k ej0 `k
N
(5.5.9)
k=0
k=0
N 1
1 X
y[k]ej0 `k
=
N
(5.5.10)
k=0
N 1
1 X
(y[k]ej0 `k )
N
(5.5.11)
k=0
= (C` )
(5.5.12)
Es decir, el coeficiente de la armonica N ` es el complejo conjugado del coeficiente de la correspondiente `-esima armonica. O, en otras palabras, la magnitud de
los coeficientes C` tiene simetra par respecto a N2 , mientras que su fase (o angulo)
tiene simetra impar con respecto a N2 . La armonica N ` puede ser expresada
como:
ej0 (N `)k = ej0 N k ej0 `k
=e
(5.5.13)
j0 `k
(5.5.14)
= |C` |e e
+ |C` |e
= 2|C` | cos(0 `k + ` )
(5.5.15)
j` j0 `k
(5.5.16)
(5.5.17)
Section 5.5.
105
Esto se debe a que las amplitudes de las N armonicas se pueden calcular a partir
de un sistema de ecuaciones linealmente independientes de la forma
y[0]
y[1]
y[2]
..
.
C0
C1
C2
..
.
= WN
CN 1
y[N 1]
(5.5.18)
(i1)(j1)
[WN ]i,j = ej0
(5.5.19)
Las ecuaciones precedentes permiten calcular los coeficientes que describen exactamente la se
nal periodica y[k]. Note que la matriz WN tiene la forma general
WN
1
1
12
..
.
1N 1
1
2
22
..
.
1
3
32
..
.
2N 1
3N 1
1
N
2
N
..
.
(5.5.20)
N 1
N
donde ` = ej0 (`1) para ` = {1; 2; 3...; N }. Dado que los ` 0 s son diferentes entre
s, la matriz WN es una matriz de Vandermonde, y por lo tanto, es no singular.
Con ello, el vector de la derecha en (5.5.18) puede ser despejado, al multiplicar por
la inversa de WN .
Las ideas de Parseval tambien se aplican a se
nales de tiempo discreto, aunque aca
el concepto de energa no tiene la connotacion fsica que tiene en tiempo continuo.
Si la se
nal periodica y[k] tiene la expansion en serie dada por
y[k] =
N
1
X
` f` [k]
(5.5.21)
`=0
donde las funciones f` [k] son elementos de una base ortogonal, entonces
hy[k], y[k]i =
N
1
X
(5.5.22)
`=0
As,
N
1
X
`=0
y[`]2 = N
N
1
X
`=0
|` |2
(5.5.23)
106
5.6
An
alisis de sistemas lineales bajo excitaciones peri
odicas
Captulo 5
Aplicaci
on de las Series de Fourier al an
alisis de sistemas
lineales
(5.6.1)
K() =
(j)3
54
+ 7(j)2 + 15(j) + 54
(5.6.2)
Section 5.6.
107
Aplicaci
on de las Series de Fourier al an
alisis de sistemas lineales
2.5
1
2
a()
|K()|
2
1.5
1
4
0.5
0
4
6
Frecuencia [rad/s]
10
4
6
Frecuencia [rad/s]
10
Frecuencia [rad/s]
Amplificaci
on
Desfase [rad]
1.0000
1.0000
1.1011
-0.2895
2.0000
1.5855
-0.7023
3.0000
2.6833
-2.0344
4.0000
0.9288
-3.2104
5.0000
0.4125
-3.5334
6.0000
0.2301
-3.7083
7.0000
0.1442
-3.8305
8.0000
0.0972
-3.9244
9.0000
0.0688
-4.0000
108
An
alisis de sistemas lineales bajo excitaciones peri
odicas
Entrada y respuesta
Captulo 5
y(t)
2
1
0
1
u(t)
2
3
10
Tiempo [s]
12
14
16
18
20
5.7
(a)
(b)
; < t 0
1
y(t) = +1
;0 < t
y(t + 2) e.t.o.c.
(
t
; 1 < t 1
y(t) =
y(t + 2) e.t.o.c.
(c)
(d)
y(t) = |A cos(t)|
y(t) = max{0, A sin(t)}
(e)
(f )
6 e.t.o.c.
Section 5.7.
109
(t nT )
n=
(d)
1
0.5
0
0.5
1
1.5
6
Tiempo [s]
10
12
110
An
alisis de sistemas lineales bajo excitaciones peri
odicas
Captulo 5
d 2 y(t)
d y(t)
+ 2n
+ n2 y(t) = n2 u(t)
2
dt
dt
5.4.1 Determine la salida del sistema si la entrada es u(t) = A cos(n t).
5.4.2 Determine la relaci
on de amplitudes entre la salida y la entrada en estado
estacionario cuando n = 10, y = 0.1, 0.05, 0.01.
5.4.3 Simule y grafique para las condiciones anteriores, cuando A = 1.
Problema 5.5. Considere el sistema definido por su ecuaci
on diferencial:
d y(t)
= y(t) + u(t)
dt
Si la entrada del sistema es una sinusoide u(t) = sen(10t)
5.5.1 Determine la salida del sistema y(t), suponiendo condiciones iniciales cero.
5.5.2 Grafique la parte homogenea de la soluci
on correspondiente a los modos naturales, la soluci
on particular correspondiente a la sinusoide de entrada y la
soluci
on total, suma de las dos primeras. Comente.
Problema
[ T2 , T2 ]:
0 =
2
T
T
2
T2
yn (t)ym (t)dt
; yn (t), ym (t) B
; |t| < /2
A
f (t) = 0
; /2 |t| < T /2
f (t + T ) ; e.t.o.c.
5.7.1 Determine la serie de Fourier trigonometrica de la funci
on f (t).
5.7.2 Grafique la amplitud de las arm
onicas en funci
on de la frecuencia.
5.7.3 C
omo se ve afectado el gr
afico a medida que crece el valor de T ? Que
pasa cuando T ?
Section 5.7.
111
An cos(n t)
n=1
5.9.2 C
omo podra extenderse al intervalo [T, T ] de manera que su serie sea de
la forma:
X
y(t) =
Bn sin(n t) ?
n=1
y[k] = sin k
( 3
sin 3k
; k = 0, . . . , 3
y[k] =
y[k + 4] ; e.t.o.c.
(
k
; 6= 1, k = 0, . . . , N 1
y[k] =
y[k + N ] ; e.t.o.c.
y[k] = (1)k
1
y[k] = 1
y[k + 6]
y[k] = k
mod N
; k = 2, . . . , 0
; k = 1, . . . , 3
; e.t.o.c.
112
An
alisis de sistemas lineales bajo excitaciones peri
odicas
Captulo 5
Captulo 6
SISTEMAS LINEALES
SUJETOS A EXCITACIONES
ARBITRARIAS. ANALISIS
VIA FOURIER
6.1
La limitaci
on de las series de Fourier
6.2
La Transformaci
on de Fourier. El caso del tiempo continuo
Si recordamos el captulo anterior (5) una serie de Fourier sirve para representar
una funcion, f (t), mediante suma de sinusoides. Sin embargo, esta serie representa
a la funcion solo dentro del intervalo sobre el cual se calculo, [to , to + T ). Si la
113
114
Captulo 6
Figura 6.1. Se
nales arbitrarias
se
nal es periodica,y este intervalo corresponde a un n
umero entero de perodos de
la funcion, entonces la serie tambien la representa en el resto del eje real. Esta
idea tambien se puede aplicar para obtener la serie de Fourier para una funcion no
periodica, siempre que la restrinjamos a un intervalo [a, b] de longitud T . Como se
menciono antes, esta serie (periodica) representa a la funcion (no periodica) dentro
del intervalo, y fuera de este solo replica periodicamente la representacion lograda
en [a, b]. Esto puede apreciarse en la figura 6.2.
En esta misma figura 6.2 se muestra que la longitud del intervalo T puede
ampliarse, de manera de ir mejorando la representacion de la funcion a traves de la
serie. Pues bien, lo que interesa en este punto es ver que pasa con la representacion
cuando el intervalo tiene longitud infinita. Es decir, queremos ver que pasa con la
serie de Fourier cuando se utiliza para representar funciones de perodo infinito o
aperiodicas.
Section 6.2.
La Transformaci
on de Fourier. El caso del tiempo continuo
f (t) =
Cn ejn t
115
(6.2.1)
n=
En que
Cn =
1
T
T /2
f (t)ejn t dt
(6.2.2)
2
T
(6.2.3)
T /2
n = n0 = n
(6.2.4)
F () = T Fn (n )
(6.2.5)
Con esto la serie de Fourier exponencial (6.2.1) de f (t) puede reescribirse como:
f (t) =
=
1 X
F (n )ejn t
T n=
1 X
F (n )ejn t 0
2 n=
(6.2.6)
1 X
F (n )ejn t
f (t) =
2 n=
Esta u
ltima expresion corresponde a una suma de Riemann 1 , la que, llevada
al lmite cuando el perodo T crece hasta infinito, equivale a 0, con lo que la
serie se transforma en una integral:
1 De
116
f (t) =
1
2
F (j)ejt d
Captulo 6
(6.2.7)
El significado de esta u
ltima expresion es conceptualmente muy importante, ya
que nos indica que a medida que el perodo de una funcion periodica aumenta, la
distancia entre la lneas del espectro se reduce progresivamente, y en el lmite,
cuando la funcion tiene perodo infinito y 0, la representacion en frecuencia
de f (t) pasa de ser discreta a ser una representacion continua. As, en vez de
quedar expresada como una suma de sinusoides de frecuencias m
ultiplos de una
fundamental 0 , queda representada por una integral en que participa una funcion,
F (j) definida para en toda la recta real.
Esta funcion F () es la transformada de Fourier de f (t) , y su expresion se
deduce utilizando (6.2.5), (6.2.4) y (6.2.2):
F () = T Cn
Z T /2
=
f (t)ejn t dt
T /2
F () =
f (t)ejt dt
(6.2.8)
f (t)ejt dt
F [f (t)] = F (j) =
(6.2.9)
1
[F (j)] = f (t) =
2
F (j)ejt d
(6.2.10)
| f (t) | dt
<
(6.2.11)
Section 6.2.
La Transformaci
on de Fourier. El caso del tiempo continuo
117
Sin embargo, a
un podemos obtener la transformada de Fourier de funciones que
no cumplen este requisito, por ejemplo, las funciones periodicas.
1
El factor 2
que acompa
na a la integral en (6.2.10), en algunos textos es repartido equitativamente entre ambas integrales, como un factor 12 en la transformada
directa y en la inversa. Preferiremos las expresiones (6.2.9) y (6.2.10), ya que esta
u
ltima puede reescribirse de manera natural, reemplazando la frecuencia angular
en [rad/s] por la frecuencia f en [Hz], tal como se aprecia en la siguiente ecuacion
Z
f (t) =
F (j2f )ej2f t df
Todo el desarrollo realizado para analizar lo que sucede con la serie de Fourier
exponencial cuando el perodo de la funcion se considera tendiendo a infinito, puede
repetirse de manera similar para la serie de Fourier trigonometrica (ver Problema
6.3)
Ejemplo 6.1. Para ilustrar los resultados obtenidos veamos un ejemplo. Consideremos la funci
on f (t) definida en principio peri
odica en el intervalo [ T2 , T2 ]:
(
f (t) =
A
0
; |t| /2 < T /2
; /2 < |t| T /2
assume(T>0,A>0);
assume(0<tau,tau<T);
y(t,T) := A * ( Heaviside(t+tau/2) - Heaviside(t-tau/2) );
C(0,T):=1/T*int(y(t,T),t=-T/2..T/2);
C(n,T):=simplify(1/T*int(y(t,T)*exp(-I*2*Pi*n/T*t),t=-T/2..T/2));
C0 =
A
T
Cn =
A seno T
n
T
T
(6.2.12)
n
n 6= 0
(6.2.13)
118
Captulo 6
F (j) =
Z
y(t)ejt dt =
/2
Aejt dt
(6.2.14)
/2
/2
A
A
= (ej 2 ej 2 )
ejt
j
j
/2
2A
seno
=
2
=
(6.2.15)
(6.2.16)
seno
(6.2.17)
(6.2.18)
lim T Cn = F (j)
(6.2.19)
donde n = 2n
T .
As observamos que
n
222
A pesar de su conexion, existen varias diferencias conceptuales entre la Serie
de Fourier y la Transformada de Fourier. La primera destacable es que el espectro
de lnea que aparece asociado a la Serie de Fourier, se convierte, en el caso de la
Transformada de Fourier, en un espectro definido para toda frecuencia. En forma
compacta nos referiremos a este u
ltimo como el espectro continuo de la se
nal.
Una segunda diferencia es que la Serie de Fourier resulta descrita por un conjunto de valores complejos asociados a un conjunto enumerable de frecuencias (la
frecuencia 0 y las frecuencias m
ultiplos de una frecuencia fundamental), esos valores complejos determinan la amplitud y fase de las componentes armonicas. Ese
no es el caso de la Transformada de Fourier para se
nales de tiempo continuo, ya que
la transformada F (j) es una medida de densidad o mas bien de intensidad
relativa (no absoluta) de la participacion de las distintas frecuencias en la representacion de la funcion. Esta cantidad esta definida para todo el eje de los reales,
es decir, para todo , as, la presencia de una frecuencia 1 en una se
nal f (t) esta
dada por
Z
Y1 =
1+
1
F (j)ejt d
(6.2.20)
Section 6.2.
La Transformaci
on de Fourier. El caso del tiempo continuo
119
F1
F3
f(x)
f (x)(x)Adx
(6.2.21)
120
6.2.1
Captulo 6
Los resultados deducidos por Parseval permiten tambien relacionar directamente las
caractersticas de una se
nal cualquiera con su transformada de Fourier. Los detalles
matematicos pueden ser examinados en el Apendice C.
Si la se
nal (real) f (t) tiene energa finita en el intervalo (, ), y su transformada de Fourier es F (j) entonces, aplicando el Teorema C.1 en la pagina 314, se
tiene que
Z
(f (t)) dt =
1
2
|F (j)|2 d =
|F (j)|2 d
(6.2.22)
2a
0
0
Usando Parseval podemos demostrar que la mitad de esa energa es aportada
por el espectro en el intervalo de frecuencia (a, a), como se ve en
Z
1 a
1
1
a
1
W(a,a) =
d
=
arctan
(6.2.25)
=
0 2 + a2
a
a 0
4a
6.2.2
Aplicaci
on a sistemas lineales
Section 6.2.
La Transformaci
on de Fourier. El caso del tiempo continuo
121
d f (t)
F
= (j)n F [f (t)] = (j)n F (j)
dt n
De esta forma, si se aplica transformacion de Fourier2 a ambos lados de la EDS
(6.2.26) se obtiene
(j)n Y (j) + . . . + a0 Y (j) = bm (j)m U (j) + . . . + b0 U (j)
(6.2.27)
luego
Y (j) =
bm (j)m + . . . + b0
B(j)
U (j) =
U (j)
(j)n + . . . + a0
A(j)
(6.2.28)
B(j)
bm (j)m + . . . + b0
=
A(j)
(j)n + . . . + a0
(6.2.29)
(6.2.30)
B(j)
bm (j)m + . . . + b0 j
=
e
A(j)
(j)n + . . . + a0
(6.2.31)
122
Captulo 6
Si aplicamos transformacion de Fourier a esta relacion, utilizando el resultado (C.1.13) en la pagina 313 que establece la transformada de la convolucion de
funciones, tenemos que:
F [y(t)] = F [u(t) h(t)]
Y (j) = U (j)F [h(t)]
(6.2.33)
(6.2.34)
= |H(j)|
= H(j)
= |H(j)|
= H(j)|
(6.2.35)
(6.2.36)
vc (t)
i(t)
Figura 6.4. Circuito RC como sistema de primer orden.
Usando leyes de Kirchoff y la ecuaci
on para la corriente por el condensador,
podemos llegar a una EDS
Section 6.2.
123
La Transformaci
on de Fourier. El caso del tiempo continuo
; R+
1
RC
=,
(6.2.37)
A continuaci
on calculamos la salida del sistema para diferentes funciones de
entrada u(t)
Si aplicamos transformaci
on de Fourier a (6.2.37) tenemos
>with(inttrans) : assume(alpha>0) :
>eds:= diff(y(t),t)+alpha*y(t)=alpha*u(t) ;
>eq1:=fourier(u(t),t,w)=U(jw) :
>eq2:=fourier(y(t),t,w)=Y(jw) :
>subs({eq1,eq2},fourier(eds,t,w)) ;
Y (j) =
U (j)
j +
(6.2.38)
124
Captulo 6
U (j) = 1
Y (j) = H(j) =
j +
h(t) = F 1
1
j +
= et (t)
Entrada escal
on unitario
>U(jw)= fourier(Heaviside(t),t,w) :
>Y(jw)=subs(%,Y(jw));
1
U (j) = () +
j
() +
Y (j) =
j +
j
Donde se desarrolla el producto y luego se buscan terminos que correspondan a
transformadas conocidas, ya sea agrupando de manera conveniente o separando en
fracciones parciales.
Y (j) =
() +
j +
j(j + )
1
1
= () +
j (j + )
Ya que, del termino que multiplica al delta Dirac s
olo interesa su valor en = 0,
y el otro se separa en fracciones parciales3 . De esta forma se puede calcular la
transformaci
on inversa de Fourier:
> y(t) = invfourier(Y(jw),w,t);
y(t) = F
1
1
1
F
() +
j
(j + )
= (t) et (t)
3 La
358
Section 6.2.
6.2.3
La Transformaci
on de Fourier. El caso del tiempo continuo
125
La funci
on de transferencia y la respuesta en frecuencia
U (j) = F ejo t = 2( o )
Con lo que la salida ser
a
2( o )
j +
=
2( o )
jo +
y(t) =
ejo t
jo +
Y (j) =
= p
A(o ) =
jo +
o2 + 2
o
(o ) = arctan
(6.2.39)
(6.2.40)
(6.2.41)
Luego, la salida es
y(t) = H(jo )ejo t
(6.2.42)
126
Captulo 6
Lema 6.1. Dado un sistema estable de tiempo continuo con entrada u(t) y salida
y(t). La respuesta del sistema a la entrada se
nal de entrada sinusoidal u(t) =
cos(o t), t, es
y(t) = A(o ) cos(o t + (o ))
(6.2.43)
En que
A(o ) = |H(jo )|
(o ) = H(jo )
(6.2.44)
(6.2.45)
(6.2.46)
(6.2.47)
(6.2.48)
Luego, la salida es
1
1
H(jo )ejo t + H(jo )ejo t
2
2
1
1
jo t+jH(jo )
= |H(jo )|e
+ |H(jo )|ejo tjH(jo )
2
2
= |H(jo )| cos(o t + H(jo ))
y(t) =
(6.2.49)
(6.2.50)
(6.2.51)
222
Ejemplo 6.4. Para el mismo sistema del ejemplo anterior, descrito por la ecuaci
on
diferencial
d y(t)
+ y(t) = u(t)
; R+
dt
Determinemos la soluci
on si la se
nal de entrada es u(t) = cos(t).
Tal como se hizo antes se aplica transformaci
on de Fourier sobre la EDS, donde
se ha reemplazado la entrada u(t) con lo que se obtiene la transformada de Fourier
de la salida
Section 6.2.
La Transformaci
on de Fourier. El caso del tiempo continuo
127
U (j) = (( + 1) + ( 1))
Y (j) =
(( + 1) + ( 1))
j +
Donde la transformaci
on inversa puede calcularse simplificando como antes
( + 1) +
( 1)
j +
j+
( + j)
( j)
=
( + 1) + 2
( 1)
2 + 1
+1
= Aej ( + 1) + Aej ( 1)
Y (j) =
En que
( + j)
=
A = 2
+1
2 + 1
( + j)
1
=
= arctan
2
+1
cos t arctan
=
2 + 1
F 1 [Y (j)] =
o
y(t) = p
cos t arctan
(6.2.52)
2 + o2
En la figura 6.5 se muestra la magnitud A(o ) y
angulo de desfase (o ) de la
salida cuando = 10.
Es decir, la salida que se obtiene corresponde a la parte estacionaria de la salida
del sistema, donde no aparecen modos naturales. Esto es coherente, ya que podemos pensar una se
nal no causal como una que comenzo a actuar sobre el sistema en
t = , y por ende no existe el efecto de las condiciones iniciales . Sin embargo,
128
Captulo 6
0.8
0.5
()
A()
0.6
0.4
0.2
1.5
100
200
300
400
500
600
(a) Magnitud
100
200
300
400
500
600
(b) Angulo
debemos observar que el desarrollo realizado es analogo cuando < 0. Esto nos
advierte que en el caso de sistemas inestables, es decir, con frecuencias naturales
fuera del semiplano izquierdo (que es la zona de estabilidad para sistemas de tiempo continuo), la salida obtenida mediante la transformacion de Fourier resulta ser
acotada, mientras que la salida verdadera del sistema crece hasta infinito. Es decir,
la solucion mediante Fourier para se
nales no causales resulta ciega a la inestabilidad propia del sistema, pero nos permite obtener la componente particular
de la se
nal de salida. Para ilustrar esto observe el siguiente ejemplo, que solo tiene
sentido si el sistema bajo analisis es estable.
Ejemplo 6.5. Consideremos el caso en que la entrada al sistema es u(t) = cos(t)(t).
En este caso, tenemos que la transformada de Fourier de la entrada y de la salida
al sistema son respectivamente
>U(jw) = fourier(Heaviside(t)*cos(t),t,w);
>Y(jw) = subs (%,Y(jw));
(( 1) + ( + 1)) +
2
2 + 1
j
Y (j) =
(( 1) + ( + 1)) +
j + 2
2 + 1
U (j) =
Section 6.2.
La Transformaci
on de Fourier. El caso del tiempo continuo
129
( 1) +
( + 1) +
j+ 2
j + 2
(j + )( 2 + 1)
( j)
( + j)
(j + 1))
2
1
=
( 1) +
( + 1) + 2
2 + 1 2
j + 2
( + 1)( 2 + 1) 2 + 1 j +
j
2
( + 1) + ( 1) + 2
( + 1) ( 1)
= 2
+1 2
+1 2
2
j
1
2
1
+ 2
+
( + 1) ( 2 + 1) (2 + 1) ( 2 + 1) 2 + 1 j +
Y (j) =
j
1
F
(
+
1)
+
(
1)
+
2 + 1
2
( 2 + 1)
j
1
+ F 1
( + 1) ( 1) +
2
( 2 + 1)
1
F 1
j +
y(t) = 2
cos(t)(t) + seno(t)(t) et (t)
+1
y(t) =
En Maple los c
alculos se pueden hacer mucho m
as r
apido, y dado que en
la transformaci
on inversa aparecen exponenciales complejas, se utiliza la funci
on
evalc, que permite expandir estas mediante la relaci
on de Euler4
>U(jw) = fourier(Heaviside(t)*cos(t),t,w);
>subs(%,Y(jw));
>y(t) = simplify( evalc( invfourier(%,w,t) ) );
222
Una generalizacion de los resultados precedentes se puede extraer examinando la
naturaleza de la funcion de transferencia y la forma en que evolucionan su magnitud
y su fase con la frecuencia . En estas caractersticas, que definen la respuesta en
frecuencia del sistema, se capturan efectos tales como su velocidad, su capacidad
de filtrar y discriminar, etc.
Es com
un que para clasificar las funciones de transferencia de sistemas esta
bles, se use su caracterstica filtrante. Esta
queda determinada por |H(j)|. Para
ejemplificar esta descripcion consideremos primero sistemas que discriminan entre
frecuencias altas y bajas.
4 ej
= cos() + j seno()
130
|H(j)|
Captulo 6
|H(j)|
Pasa bajos
(6.2.53)
Pasa altos
(6.2.54)
Section 6.2.
131
La Transformaci
on de Fourier. El caso del tiempo continuo
Respuesta a escaln
y1(t)
1.5
1
0.5
0
y2(t)
0.5
1
0
10
15
Tiempo [s]
20
25
30
La transicion entre una zona de paso y otra de rechazo (y viceversa) que ocurre en
|H(j)| es siempre gradual. Una forma de cuantificar un lmite para esa transicion
es lo que se define como frecuencia de corte. Esta definicion, aunque arbitraria
es
universalmente aceptada. En la Figura 6.6, c es la frecuencia de corte si a = A/ 2.
Aparte del comportamiento pasa bajos y pasa altos podemos reconocer las caractersticas pasa banda y elimina banda. Las caractersticas generales de ambos
sistemas aparecen reflejadas en los graficos de la Figura 6.8.
|H(j)|
|H(j)|
c1
c2
c1
c2
132
Captulo 6
H3 (j) =
Pasa banda
(6.2.55)
Elimina banda
(6.2.56)
Respuesta a escaln
1.5
1
y4(t)
0.5
0
y3(t)
0.5
1
1.5
10
15
Time [s]
20
25
30
Figura 6.9. Respuesta a escalones de un sistema pasa banda y un sistema elimina banda.
De la Figura 6.9 se observa que la respuesta del filtro pasa banda, y3 (t), no
puede seguir las transiciones de los escalones, y presenta respuesta nula una vez
que el escal
on alcanza niveles constantes (tiene ganancia a continua igual a cero).
Por su parte, la respuesta del filtro elimina banda, y4 (t), es capaz de replicar instant
aneamente los cambios bruscos, y de alcanzar, sin error, el valor constante de
la entrada (tiene ganancia a continua igual a uno). Sin embargo, y4 (t) presenta
una anomala justo despues de la transici
on brusca. Esta anomala se debe a que el
sistema bloquea un rango intermedio de frequencias.
En el caso de los sistemas pasa banda y sistemas elimina
banda, existen dos
frecuencias de corte, c1 y c2 (vea Figura 6.8), para a = A/ 2.
Cualquiera que sea la naturaleza filtrante del sistema, las frecuencias de corte
delimitan la(s) banda(s) de paso y la(s) banda(s) de rechazo.
6.2.4
Section 6.2.
La Transformaci
on de Fourier. El caso del tiempo continuo
133
1
j
(6.2.58)
1
y(t) = F 1 [Y (j)] = F 1 [H(j)U (j)] = F 1
(6.2.59)
j(j + a)
Usando el c
odigo Maple
>with(inttrans):
>assume(a>0);simplify(evalc((invfourier(1/(-w^2+I*a*w),w,t)));
se obtiene
134
H(j) =
Entonces
y(t) = F
1
+ ()
j
1
+ ()
j(j + a)
a
Captulo 6
(6.2.61)
(6.2.62)
1 eat (t)
(t)
a
(6.2.63)
(6.2.64)
Al aplicar transformaci
on de Fourier se obtiene
((j)2 + 4)Y (j) = 3U (j)
(6.2.65)
Observamos que y(t) contiene dos modos naturales complejos, los que combinados generan una se
nal sinusoidal de frecuencia 2 [rad/s]. Esto implica que Y (j)
debe incluir dos impulsos: ( 2) y ( + 2).
Cuando dividimos ambos lados de (6.2.65) por ((j)2 + 4), estamos dividiendo
por cero cuando = 2, exactamente donde ocurren los impulsos. Esta divisi
on
llevara, err
oneamente, a que la funci
on de transferencia sera
3
(j)2 + 4
(6.2.66)
3
seno(2t)(t)
2
(6.2.67)
Section 6.3.
135
La Transformaci
on de Fourier. El caso del tiempo discreto
6.3
3
3
+ j (( + 2) ( 2))
2
(j) + 4
2
(6.2.68)
La Transformaci
on de Fourier. El caso del tiempo discreto
y[k] =
N
1
X
Cn ejo nk ;
donde o =
n=0
2
N
N 1
1 X
Cn =
y[k]ejo nk
N
k=0
(6.3.1)
y[k] =
=
N 1
1 X
Y (ejn )ejo nk
N n=0
(6.3.2)
N 1
1 X
Y (ejn )ejn k
2 n=0
(6.3.3)
136
Captulo 6
se convierte en una integral en la variable , que pasa a ser continua. Cabe observar
que el lmite superior de la integral es
2
(N 1)
N
= 2
N 1 =
lim N 1
(6.3.4)
(6.3.5)
1
2
Y (ej )ejk d
(6.3.6)
Cabe recordar que para el caso de las funciones de tiempo discreto existe periodicidad en frecuencia, por tanto la funcion y[k] podra representarse empleando el
intervalo [, ] o cualquier otro de longitud 2.
La ecuacion (6.3.6) nos dice que podemos representar la funcion de tiempo discreto y[k] como una integral que involucra la funcion Y (ej ), que ahora presenta
valores en forma continua en el intervalo [0, 2]. Veamos ahora cual es la expresion
que permite obtener esta funcion. A partir de la definicion hecha en (6.3.1) tenemos
Y (ejn ) = N Cn =
N
1
X
y[k]ejo nk =
N
1
X
k=0
y[k]ejn k
(6.3.7)
k=0
y[k]ejk
(6.3.8)
k=
Fd {y[k]} = Y (ej ) =
y[k]ejk
(6.3.9)
k=
1
Fd 1 Y (ej ) = y[k] =
2
Veamos un ejemplo para ilustrar esto
Z
0
Y (ej )ejk d
(6.3.10)
Section 6.3.
137
La Transformaci
on de Fourier. El caso del tiempo discreto
Y (ej ) =
[k]ejk == K [0]ej0 = 1
(6.3.11)
k=
es decir, se obtiene un espectro plano, en analoga al caso del espectro del delta de
Dirac en tiempo continuo. En la figura 6.10 se muestra el delta de Kronecker y la
transdormada de Fourier calculada, que en este caso resulta tener s
olo parte real.
1.2
1
K[k]
0.8
0.6
0.4
0.2
0
5
0
k
Y(ej)
1.5
0.5
|| < 1
X
k=
y[k]ejk =
X
k=0
k ejk =
(ej )k
k=0
(6.3.12)
138
Captulo 6
La expresi
on para Y (ej ) resulta ser una serie geometrica convergente ya que
|e | < 1. Por tanto su suma es
j
1
1 ej
La transformada Y (ej ) puede ser reescrita en forma polar (m
odulo y
angulo)
como
Y (ej ) =
1
1 cos() + j seno()
1
1
=p
|Y (ej )| = p
2
2
(1 cos()) + ( seno())
1 2 cos() + 2
seno()
Y (ej ) = arctan
1 cos()
Y (ej ) =
5.5
1
4.5
0.8
4
3.5
y[k]
Y(ej)
0.6
2.5
0.4
2
1.5
0.2
0
10
0
k
10
0.5
Figura 6.11. Se
nal y[k] = (0.8)k [k] y la magnitud de Y (ej ).
En la figura 6.11 se muestra la se
nal en tiempo discreto y la magnitud de su
transformada de Fourier discreta cuando = 0.8
Ejemplo 6.12. Consideremos ahora un pulso discreto definido seg
un
(
1 ; |k| 5
y[k] =
0 ; |k| > 5
Su transformada de Fourier discreta est
a dada por la expresi
on
Y (ej ) =
5
X
k=5
ejk
Section 6.3.
139
La Transformaci
on de Fourier. El caso del tiempo discreto
5
X
cos(k)
k=1
Y (ej ) =
5
X
ejk = ej(5)
k=5
ej5 ej6
1 ej(11)
=
1 ej
1 ej
(6.3.13)
Esta expresi
on, a priori, no parece ser real, pero si se reescribe convenientemente
tenemos que:
Y (e ) =
=
j5
e ej6 ej 2
(1 ej ) ej 2
ej
11
2
ej
11
2
ej 2 ej 2
seno( 11
2 )
=
seno( 12 )
Note que la ecuaci
on (B.2.35) del Apendice B, establece justamente la propiedad
que permite convertir la suma de cosenos en un cuociente de senos.
En la figura 6.12 se muestran los gr
aficos del pulso en tiempo discreto y de su
transformada de Fourier.
En el Apendice C se incluyen la propiedades mas importantes de la transformacion de Fourier en tiempo discreto (tabla C.3 en la pagina 332), ademas de una
lista de transformadas simples que se pueden utilizar para el calculo de otras mas
complejas (Tabla C.4 en la pagina 333).
6.3.1
Parseval y las se
nales aperi
odicas de tiempo discreto
140
1.5
Captulo 6
12
10
y[k]
Y(ej)
0.5
10
0
k
10
Figura 6.12. Se
nal y[k] y su transformada discreta Y (ej ).
W =
(f [k])
(6.3.14)
k=
Si la se
nal f [k] tiene energa finita en el intervalo (, ), y su transformada
de Fourier es F (ej ) entonces, aplicando el Teorema C.2 en la pagina 330, se tiene
que
X
k=
1
(f [k]) =
2
|F (ej )|2 d
(6.3.15)
6.3.2
Aplicaci
on a sistemas lineales
Section 6.3.
La Transformaci
on de Fourier. El caso del tiempo discreto
141
(6.3.17)
bm + bm1 ej + . . . + b1 ej(m1) + b0 ej
U (ej )
1 + an1 ej + . . . + a1 ej(n1) + a0 ejn
(6.3.18)
U (ej ) = 1
(6.3.19)
bm + bm1 ej + . . . + b1 ej(m1) + b0 ej
= H(ej )
1 + an1 ej + . . . + a1 ej(n1) + a0 ejn
(6.3.20)
(6.3.21)
u[l]h[k l]
(6.3.22)
l=
Tal como se vio al final del Captulo 4, la secuencia h[k] es la respuesta del
sistema al delta Kronecker.
La funcion H(ej ) es la funci
on de transferencia del sistema de tiempo
discreto, y resulta igual a la ganancia al modo forzante ejk , descrita en (4.3.28).
Esto dice que H(ej ) describe completamente la respuesta en frecuencia del
sistema de tiempo discreto (vea la seccion 5.4).
142
Captulo 6
1
(1
0.9ej )(1
(6.3.23)
0.7ej )
U (ej )
(1 0.9ej )(1 0.7ej )
Analizaremos a continuaci
on el comportamiento del sistema para distintas excitaciones.
Excitaci
on delta de Kronecker
En este caso
U (ej ) = 1
Y (ej ) =
1
(1 0.9ej )(1 0.7ej )
1
0.9
Y (e ) =
+
1 0.9ej
1 0.7ej
4.5
3.5
=
1 0.9ej
1 0.7ej
j
1
0.7
1
0.7
1
0.9
(6.3.24)
Section 6.3.
143
La Transformaci
on de Fourier. El caso del tiempo discreto
Entrada escal
on unitario
u[k] = [k]
X
1
+
( + 2`)
1 ej
`=
X
1
1
Y (ej ) =
+
( + 2`)
(1 0.9ej )(1 0.7ej ) 1 ej
U (ej ) =
`=
La expresi
on de la tranformada de Fourier de la secuencia de salida puede simplificarse separando en fracciones parciales y considerando el valor del termino que
acompa
na a la sumatoria de deltas de Dirac s
olo en las frecuencias en que estos son
distintos de cero, es decir, en = 2`. Sin embargo, notamos que
100
H(ej )=2` = H(1) =
;
` Z
(6.3.25)
3
As
Y (ej ) =
X
1
1
+
( + 2`)
(1 0.9ej )(1 0.7ej )(1 ej ) (1 0.9ej0 )(1 0.7ej0 )
`=
40.5
8.17
+
+
1 0.9ej
1 0.7ej
1
100
3
ej
100
( + 2`)
`=
100
100
40.5
8.17
1
1
3
y[k] = Fd 1
+
F
+
F
+
()
d
d
1 0.9ej
1 0.7ej
1 ej
3
= (40.5(0.9)k + 8.17(0.7)k + 33.3)[k]
En la figura 6.13 se muestran los gr
aficos de las secuencias de salida correspondientes a la respuesta a impulso y a escal
on del sistema.
Entrada exponencial compleja
Ahora u[k] = ejo k y, de la Tabla C.4 en la p
agina 333 tenemos que su transformada
de Fourier es
X
U (ej ) = 2
( o + 2`)
(6.3.26)
`=
X
`=
(o +2`) = 2H(ejo )
(o +2`)
`=
(6.3.27)
144
2.5
Captulo 6
35
30
2
25
1.5
20
15
10
0.5
5
10
15
20
25
k
30
35
40
45
50
10
15
20
25
k
30
35
40
45
50
` Z
(6.3.28)
(6.3.29)
222
En el ejemplo precedente se observa el vnculo entre la funcion de transferencia
y la respuesta en frecuencia. Este resultado se generaliza en el siguiente lema.
Lema 6.2. Dado un sistema estable de tiempo discreto con entrada u[k] y salida
y[k]. La respuesta del sistema a la entrada se
nal de entrada sinusoidal u[k] =
cos(o k), t, es
y[k] = A(o ) cos(o k + (o ))
(6.3.30)
En que
A(o ) = H(ejo )
(o ) = H(e
jo
(6.3.31)
(6.3.32)
Section 6.3.
145
La Transformaci
on de Fourier. El caso del tiempo discreto
Demostraci
on
La respuesta a la excitaci
on cos(o t), puede ser calculada como la combinaci
on de
las respuestas a un par de exponenciales peri
odicas
Y (ej ) = H(ej )U (ej )
(6.3.33)
jo
)( o ) + H(e
jo
(6.3.34)
)( + o )
(6.3.35)
Luego, la salida es
1
1
H(ejo )ejo k + H(ejo )ejo k
2
2
jo
1
1
jo
jo k+jH(ejo )
= |H(e )|e
+ |H(jo )|ejo kjH(e )
2
2
= |H(ejo )| cos(o k + H(ejo ))
(6.3.36)
y[k] =
(6.3.37)
(6.3.38)
222
|F(ej)|
0.8
0.6
0.4
0.2
0
10
0
Frecuencia
10
146
Captulo 6
6.3.3
(6.3.39)
ej
1 ej
(6.3.40)
1
e
ej
Y (e ) =
1 a ej 1 ej a
j
ej
(ej 1)(ej a)
(6.3.41)
(6.3.42)
Section 6.3.
La Transformaci
on de Fourier. El caso del tiempo discreto
147
1
signo [k] 2ak [k]
2(1 a)
(6.3.43)
se obtiene
y[k] =
X
ej
+
( 2`)
ej 1
(6.3.44)
`=
j
j
X
e
1
e
Y (ej ) =
+
( 2`)
1 a ej 1 ej a
(6.3.45)
`=
Entonces
y[k] = Fd 1
1
+ ()
j(j + a)
a
(6.3.46)
1 ak
[k]
1a
(6.3.47)
148
6.4
Captulo 6
;T > 0
2. y(t) = (1 2e|t| )2
1
3. y(t) = e
2
t
2
!2
(Recuerde que
eu du =
4t(t + 1)
y(t) = 4t(t 1)
; 1 < t < 0
;0 < t < 1
; |t| 1
f (t) =
En que
Z
A() =
f (t) cos(t)dt
B() =
f (t) seno(t)dt
C
omo se reducen las expresiones si f (t) es par o impar.
Section 6.4.
149
2k + 3k
[k]
6k
150
Captulo 6
y[-1]=1
6.9.2 y[k]=u[k-1]-0,5u[k-2]+0,2u[k-3]
6.9.3 y[k]-1,1y[k-1]+0,24y[k-2]=u[k-2];
y[-1]=-1; y[-2]=1
Problema 6.10. Tenemos un sistema de tiempo discreto el queremos que su respuesta en frecuencia sea igual a
(
1 ; || < c
H(ej ) =
0 ; c < ||
6.10.1 Determine su respuesta a un delta de Kronecker.
6.10.2 Determine, si es posible, su respuesta a un escal
on de tiempo discreto.
Comente
Captulo 7
SISTEMAS LINEALES
SUJETOS A EXCITACIONES
ARBITRARIAS. ANALISIS
VIA LAPLACE
7.1
Definici
on de la Transformada
Considere una se
nal de tiempo continuo y(t), definida para 0 t < . La
Transformada de Laplace asociada a y(t), y su transformada inversa estan definidas
como
L [y(t)] = Y (s) =
est y(t)dt
(7.1.1)
1
[Y (s)] = y(t) =
2j
+j
est Y (s)ds
(7.1.2)
151
152
Captulo 7
Y (s) es la transformada de Laplace de y(t). El par transformada y su transformada inversa estan estan bien definidas si existe R, y una constante positiva
k < tales que
|y(t)| < ket ; t 0
(7.1.3)
7.2
Aplicaci
on a sistemas lineales: la funci
on de transferencia
Como ya hemos visto, una gran cantidad y variedad de sistemas de interes, pueden
ser modelados en forma lineal. Esto se consigue linealizando la o las ecuaciones
diferenciales que describen el comportamiento del sistema en el tiempo, como se vio
en el Captulo 1, en torno a un punto de equilibrio o mas generalmente, en torno
a un punto de operacion. Para el caso de sistemas de una entrada y una salida, el
proceso de linealizacion desemboca en la obtencion de una ecuaciob diferencial, la
EDS, de la forma eneral
dn1 y(t)
dm
dn y(t)
+
a
+
.
.
.
+
a
y(t)
=
b
u(t) + . . . + b0 u(t)
n1
0
m
dtn
dtn1
dtm
(7.2.1)
d y(t)
d n1 y(0 )
`
`1
L
=
s
Y
(s)
s
y(0
)
(7.2.2)
dt `
dt n1
Por tanto, si aplicamos esto a la EDS (7.2.1) tenemos que:
sn Y (s) + an1 sn1 Y (s) + . . . + a0 Y (s)
= bm sm U (s) + . . . + b0 U (s) + f (s, xo )
(7.2.3)
Section 7.2.
153
Aplicaci
on a sistemas lineales: la funci
on de transferencia
f (s, x0 ) = p(s)T x0
donde p(s) es un vector que contiene polinomios en s y x0 es un vector que contiene
las condiciones iniciales ya mencionadas. Esto estructura es una expresion de la
linealidad del sistema (homogeneidad y superposicion respecto de las condiciones
iniciales).
Ahora si suponemos condiciones iniciales iguales a cero, tenemos que:
Y (s) = H(s)U (s)
(7.2.4)
B(s)
A(s)
(7.2.5)
Que se forma con los polinomios que contienen los coeficientes de la ecuacion
(7.2.1) original:
A(s) = sn + an1 sn1 + . . . + a0
m
B(s) = bm s + bm1 s
m1
+ . . . + b0
(7.2.6)
(7.2.7)
1
s2 + 2s
(7.2.8)
(7.2.9)
154
Captulo 7
(ii) Las n races de la ecuacion A(s) = 0 son los polos del sistema. Ellos hacen
ademas que H(s)
(iii) Si A(s) = 0 tiene nk races en s = k , decimos que el polo k tiene multiplicidad nk .
(iv) La diferencia de grado entre A(s) y B(s), es decir, mn se denomina el grado
relativo del sistema.
(v) Si m < n decimos que el modelo es estrictamente propio. Esto implica que
el grado relativo del sistema es positivo.
(vi) Si m = n decimos que el modelo es bipropio. Esto implica que el grado
relativo del sistema es cero.
(vii) Si m n decimos que el modelo es propio .
(viii) Si m > n decimos que el modelo es impropio, o que tiene grado relativo
negativo.
En que,
(7.2.10)
h(t) = L1 [H(s)]
(7.2.11)
Section 7.2.
Aplicaci
on a sistemas lineales: la funci
on de transferencia
155
7.2.1
B(s) s
e
A(s)
(7.2.12)
Funci
on de transferencia en dominios de Laplace y Fourier
(7.2.13)
donde a0 > 0 y a1 0.
La funcion de transferencia en el dominio de la transformacion de Laplace es
HL (s) =
1
;
s2 + a 1 s + 1
<{s} > 0
(7.2.14)
156
Captulo 7
(j)2
1
+ a1 j + 1
(7.2.15)
En este caso,
HF (j) = HL (s)|s=j
(7.2.16)
a1 = 0
En este caso, las frecuencias naturales estan en el eje imaginario y los modos naturales combinados corresponden a una sinusoide. Mas especficamente, la respuesta
a impulso, con condiciones iniciales iguales a cero es
h(t) = seno(t)(t)
(7.2.17)
j
1
(( + 1) ( 1)) +
2
(j)2 + 1
(7.2.18)
7.3
Como ya se vio, la funcion de transferencia esta univocamente asociada a la respuesta a impulso del sistema. Por otro lado sabemos que si se aplica un impulso
a la entrada, la respuesta contiene solamente los modos naturales del sistema; esto
nos permite estudiar su comportamiento natural, que es independiente de la se
nal
de entrada, (caractersticas del transiente, velocidad de respuesta, etc. ) a partir
del analisis de la funcion H(s).
Debido a la idealizacion implcita en la definicion de un impulso es mucho mas
frecuente estudiar la dinamica natural de un sistema con la ayuda de la respuesta
a escalon, es decir, cuando U (s) = 1s 1 .
1 Tanto la respuesta a impulso como la respuesta a escal
on pueden obtenerse f
acilmente en
Matlab con las funciones impulse y step, respectivamente
Section 7.3.
157
(7.3.2)
donde y = H(0), en virtud del Teorema del Valor Final (ver Teorema D.1 en
la pagina 352 ). Si el sistema es estable, entonces los modos naturales decaen
exponencialmente a cero. Luego, para sistemas estables, la respuesta en estado
estacionario esta dada por la constante y . Note que si H(s) tiene uno o mas ceros
en s = 0, entonces y = 0.
Ejemplo 7.2. Consideremos el sistema definido por su ecuaci
on diferencial
d 2 y(t)
d y(t)
+5
+ 4y(t) = 2u(t)
2
dt
dt
Si aplicamos transformada de Laplace a ambos lados, suponiendo condiciones
iniciales iguales a cero, podemos obtener la funci
on de transferencia del sistema
s2 Y (s) + 5sY (s) + 4Y (s) = 2U (s)
H(s) =
Y (s)
2
= 2
U (s)
s + 5s + 4
Tal como se dijo, la respuesta del sistema cuando u(t) es un Delta de Dirac se
obtiene directamente de H(s)
U (s) = L [(t)] = 1
Y (s) = H(s)
2
Y (s) = 2
s + 5s + 4
Donde podemos aplicar transformada inversa separando en fracciones parciales2 ,
o bien con ayuda de Maple
>with(inttrans):
>U(s):=laplace(Dirac(t),t,s);
>Y(s):=2/(s^2+5*s+4)*U(s);
>Y(s):=convert(Y(s),parfrac,s);
>y(t):=invlaplace(Y(s),s,t);
2 Este
m
etodo se detalla en el ap
endice.
158
Captulo 7
2
+ 5s + 4
2
1
1
=
+
3 s+1 s+4
2
1
2
1
y(t) = L1
L1
3
s+1
3
s+4
2 t 2 4t
= e e
3
3
Y (s) =
s2
La respuesta a escal
on unitario se puede obtener de manera similar
U (s) = L [(t)] =
Y (s) =
1
s
2
1
s2 + 5s + 4 s
2
s(s + 1)(s + 4)
1 2
1
y(t) = et + e4t
2 3
6
Y (s) =
Section 7.3.
159
Amplitude
0.3
0.2
0.1
0
Time (sec.)
Step Response
0.5
Amplitude
0.4
0.3
0.2
0.1
0
3
Time (sec.)
s + 1
(7.3.3)
s2 + 4s + 9
La respuesta a escalon del sistema se muestra en la figura 7.3. Entonces podemos
definir los siguientes ndices:
G(s) = 9
160
Captulo 7
Tiempo de asentamiento (Settling time), ts : el tiempo luego del cual la respuesta a escalon queda confinada a una banda de desviacion , alrededor
del respuesta estacionaria. Esta deviacion, , se define generalmente como un
porcentaje de y , del 2% o 5%.
y +M
y+
kr y
Mu
tu
tr
tp
Tiempo
ts
7.4
Section 7.4.
161
Indice
Definicion
Valor en el ejemplo
respuesta estacionaria
tr
tiempo de subida
1.0
Mp
sobre-respuesta
0.5
Mu
max. contra-respuesta
1.5
ts
tiempo de asentamiento
1.8
s+2
(s + 12 )2 +
s + 12
=
(s + 12 )2 +
3
4
3
4
(s +
3
2
1 2
2)
3
4
162
Captulo 7
y(t)
0.5
5
t [seg]
10
de la se
nal en t = 0 . Es decir, son los valores de la funcion y(t) y de su derivada
justo antes que el sistema comience a evolucionar bajo el efecto de la entrada, que
en el caso del ejemplo es cero. Este alcance es importante ya que existen casos en
que pueden producirse discontinuidades en la salida del sistema en t = 0, lo que
implica que y(0+ ) 6= y(0+ ).
Veamos esto en un ejemplo simpleEjemplo 7.4. Considere la red de la figura 7.3 en que se conecta la batera de 1[V]
en t = 0, y todas las condiciones iniciales son cero.
R
+
vf (t)
C
i(t)
vc (t)
Section 7.4.
163
1
1
= R sI(s) i(0 ) + I(s)
s
C
y despejando se obtiene
I(s) =
1
sR +
1
C
s
sR +
1
C
==
1
R
(7.4.1)
1/R
1
i(t) = L1 [I(s)] = L1
= et/RC (t)
(7.4.2)
s + 1/RC
R
222
Consideremos ahora el caso en que la entrada es una se
nal arbitraria.
Ejemplo 7.5. Consideremos el mismo del sistema 7.4, pero en que ahora la entrada
es un pulso definido como
(
1 ; 0 t 10
u(t) =
0 ; t > 10
Y consideremos que las condiciones iniciales son cero, por simplicidad. Notemos
que no habra problemas en considerar el efecto de estas, ya sea incluyendolas en el
desarrollo mediante transformada de Laplace, o bien, dada la linealidad del sistema,
se calcula su efecto en la salida por separado y se suma al efecto de la entrada. La
funci
on de transferencia del sistema, si se aplica transforma de Laplace, es:
H(s) =
Y (s)
1
= 2
U (s)
s +s+1
La transformda de Laplace del pulso u(t) puede obtenerse sin problema, ya que
esta funci
on se expresa en terminos de escalones y se puede utilizar la propiedad de
corrimiento temporal:
L [f (t t0 )(t t0 )] = est0 F (s)
5 Ver
ap
endice
164
Captulo 7
1 e10s
s(s2 + s + 1)
=
+
s(s2 + s + 1)
s s2 + s + 1
s (s + 12 ) +
3
4
3
1
2
3 (s + 21 ) +
3
4
1 1t
12 t
3
2
(t)
f (t) = 1 e
cos 2 t e
sin 23 t
3
Luego la salida es
1
12 t
3
= 1e
cos 2 t sin 23 t
(t)
3
1 1 (t10)
12 (t10)
3
3
2
1e
cos 2 (t 10) e
sin 2 (t 10)
(t 10)
3
En la figura 7.4 se muestra el pulso u(t) de entrada y la salida del sistema a esta
excitaci
on.
Para finalizar, veamos un caso en que la transformada de Laplace permite, de
manera similar a la transformada de Fourier, analizar la respuesta de un sistema a
se
nales sinusoidales de diferente frecuencia en su entrada.
6 Ver
apendice
Section 7.4.
165
1.5
u(t) y(t)
0.5
0.5
10
t [seg]
12
14
16
18
20
Figura 7.4. Pulso de entrada y respuesta del sistema del ejemplo 7.5.
Ejemplo 7.6. Nuevamente consideremos el sistema del ejemplo 7.3 definido por
su ecuaci
on diferencial
d 2 y(t) d y(t)
+
+ y(t) = u(t)
dt 2
dt
Supongamos que como entrada al sistema se elige una se
nal sinusoidal de frecuencia , por ejemplo:
u(t) = cos(t)
Con esto y con ayuda de Maple podemos llegar de manera directa a una expresi
on para la transformada de Laplace de la salida y aplicarle transformci
on inversa:
>with(inttrans):
>assume(omega>0):
>U(s):=laplace(cos(omega*t),t,s);
>H(s):=1/(s^2+s+1);
>Y(s):=H(s)*U(s);
>y(t):=invlaplace(Y(s),s,t);
U (s) =
H(s) =
Y (s) =
=
y(t) =
s
+ 2
1
2
s +s+1
1
s
s2 + 2 s2 + s + 1
1 + s 2 s
2 + s 2 s
( 2 + 1 + 4 )(s2 + s + 1) ( 2 + 1 + 4 )(s2 + 2 )
1 2
cos(t) +
sin(t) + { modos naturales}
2
4
2
+ 1 +
+ 1 + 4
s2
166
Captulo 7
Los modos naturales del sistema decaen a cero cuando t , por tanto podemos
concentrarnos s
olo en la componente particular de la salida. Podemos combinar los
componentes seno y coseno en un solo termino:
y(t) =
+ { modos naturales}
cos t arctan
1 2
2 + 1 + 4
Y en esta expresi
on se aprecia como la amplitud y la fase de la se
nal de salida
dependen de la frecuencia . Esto se grafica en la figura 7.5.
1.4
1.2
Magnitud
1
0.8
0.6
0.4
0.2
0
0.5
1.5
0.5
1.5
2.5
3.5
4.5
2.5
3
Frecuencia [rad/s]
3.5
4.5
Fase
50
100
150
200
Este gr
afico se obtuvo con el c
odigo Matlab
>H=tf(1,[1 1 1]); w=[0:0.01:5];
>h=freqresp(H,w);hw=h(:);
>subplot(211);plot(w, abs(hw));
>subplot(212);plot(w, unwrap(angle(hw))*180/pi);
Section 7.5.
7.5
167
Hasta aqu hemos visto que la respuesta de un sistema que tiene una funcion de
transferencia H(s) es de la forma:
Y (s) = H(s)U (s) +
p X
nk
X
k=1 i=1
ki
(s k )i
(7.5.1)
7.5.1
Estabilidad via an
alisis de polinomios
(7.5.2)
(7.5.3)
donde ai R.
El problema a estudiar se refiere a determinar si este polinomio tiene o no todas
sus races con parte real estrictamente negativa, o de manera equivalente, si tiene
168
Captulo 7
o no races con parte real mayor o igual que cero. La idea puede naturalmente
ser resuelta calculando las n races de p(s). Sin embargo en muchas aplicaciones
resulta de especial interes estudiar la relacion entre los coeficientes del polinomio
con la ubicacion de sus races.
Los polinomios que tienen todas sus races en el semiplano izquierdo cerrado se
conocen como polinomios Hurwitz. Si sus races tienen parte real estrictamente
negativa, es decir, se ubican sobre el SPI abierto, los denominaremos estrictamente
Hurwitz .
De la ecuacion (7.5.3) podemos observar interesantes propiedades que por supuesto
son validas para los polinomios en general. Las que nos interesan en este caso son
aquellas que nos entregan informacion sobre el signo de la parte real de las races,
como las que se detallan a continuacion
Propiedad 1 El coeficiente an1 cumple con
an1 =
n
X
(7.5.4)
i=1
n
Y
(s i )
(7.5.5)
i=1
n
Y
(7.5.6)
i=1
Section 7.5.
169
n1 +i = n1 +n2 +i = |i | + ji
i = 1, 2, . . . , n2
(7.5.7)
(7.5.8)
n1
Y
(s + |i |)
i=1
n2
Y
(s + |l |)2 + l2
(7.5.9)
l=1
n
X
ai si
(7.5.10)
i=0
i = 1, 2, . . . , m0
(7.5.11)
1,i = an+12i ;
i = 1, 2, . . . , m1
(7.5.12)
170
sn
0,1
0,2
0,3
0,4
...
n1
1,1
1,2
1,3
1,4
...
sn2
2,1
2,2
2,3
2,4
...
n3
3,1
3,2
3,3
3,4
...
sn4
..
.
4,1
..
.
4,2
..
.
4,,3
..
.
4,4
..
.
...
s2
n2,1
n2,2
s1
n1,1
Captulo 7
n,1
Tabla 7.2. Arreglo de Routh
k = 2, . . . , n
j = 1, 2, . . . , mj
(7.5.13)
donde mj = max{mj1 , mj2 } 1, mientras que se asigna valor cero al coeficiente
k1,j+1 , cuando no esta definido en el arreglo de Routh 7.2.
Una vez construdo el arreglo de Routh podemos aplicar el siguiente resultado:
1
Y (s)
= 3
2
U (s)
s + s + 2s + 3
Section 7.6.
171
Por tanto, para la estabilidad debemos analizar las races del polinomio
p(s) = s3 + s2 + 2s + 3
Si construimos el arreglo de Routh en este caso este queda
s3
s2
s
s0
23
1
= 1
7.6
172
Captulo 7
7.6.1
Polos
Como el lector recordara de sus cursos de matematicas, una funcion racional siempre
puede descomponerse en fracciones parciales, tal es el caso tambien de la funcion
de transferencia de un sistema en la variable s. Cada uno de los terminos de esta
expansion contiene ya sea un polo real simple, un par de polos complejos conjugados
o m
ultiples combinaciones de polos repetidos. Por tanto, para conocer el efecto de
los polos en la respuesta transiente de un sistema basta conocer el efecto ocasionado
por los polos de primer y segundo orden y su interaccion.
Un polo de primer orden contribuye a la descomposicion en fracciones parciales,
en general, con un termino de la forma
H1 (s) =
K1
1 s + 1
(7.6.2)
s
n
K2
+ 2
s
n
(7.6.3)
+1
Cada polo genera un termino especfico que coincide justamente con cada uno
de los modos naturales en la respuesta del sistema a un impulso en la entrada.
Estos modos estan presentes tambien en la respuesta a cualquier entrada al sistema
(excepto en casos muy excepcionales cuando hay coincidencia de polos con ceros).
El tipo de modo natural asociado a cada polo de un sistema depende de la ubicacion
de este sobre el plano complejo s , exactamente equivalente a la ubicacion de cada
frecuencia natural sobre un plano complejo, como se vio en el Captulo 3 3. Para
ilustrar esto podemos apreciar en la Figura 7.6 las diferentes respuestas a impulso
de un sistema que tiene por funcion de transferencia:
7 En ocasiones, por abuso de lenguaje, los ceros de fase no m
nima tambi
es se les denomina
ceros inestables, dado que se encuantran al la regi
on del plano s en que los polos son inestables.
Section 7.6.
173
p2
p1
p0
p3
p4
174
H1 (s) =
Captulo 7
1
sp
s (a + bj) s (a bj)
7.6.2
Ceros
Section 7.6.
175
entre estos, por ejemplo, en el caso en que la salida de un sistema esta formada por
la suma de dos modos naturales diferentes. Ademas, a pesar que la ubicacion de
los polos determina los modos naturales de un sistema, es la ubicacion de los ceros
la que determina la proporci
on en que los modos aparecen combinados en la salida.
En estas combinaciones los modos naturales toman diferente fuerza, pudiendo ser
su efecto, en algunos casos, casi imperceptible. Veamos esto a traves de un ejemplo.
K
s+1
U (s)
Y (s)
K
s+2
K
K
Y (s) =
+
U (s)
s+1 s+2
(1 + )s + (2 + )
G(s) = K
(s + 1)(s + 2)
Este sistema tiene sus polos en s = 1, 2 y un cero en s = (2+)
1+ . Es decir,
la ubicaci
on est
a directamente relacionada con el peso de cada uno de los modos
naturales en la respuesta del sistema, por ejemplo, a un impulso unitario en la
entrada:
y(t) = K(et + e2t )
Si tomamos un valor peque
no, = 0.1, la funci
on de transferencia es:
G(s) = 1.1K
(s + 1.909)
(s + 1)(s + 2)
176
Captulo 7
K
(s + 1)
s + c
c(s + 1)(0.5s + 1)
(7.6.4)
Section 7.6.
177
6
c=0.1
Step response
4
c=0.25
2
c=10
0
c=10
c=0.25
c=0.1
4
6
0.5
1.5
2.5
Tiempo [s]
3.5
4.5
7.6.3
La Figura 7.3 en la pagina 160 sugiere que existen casos en los que, en la presencia
de una excitacion mayor que cero, la respuesta del sistema se hace negativa durante
alg
un lapso no despreciable. Este comportamiento tambien aparece en la Figura
7.8. Un resultado muy fuerte es el siguiente.
Lema 7.1. Considere un sistema lineal estable con funci
on de transferencia H(s),
y con un cero real en s = c, donde c > 0, entonces la respuesta a un escal
on positivo
se hace negativa durante uno o m
as lapsos no despreciables.
Demostraci
on
La respuesta del sistema est
a dada por
Y (s) = H(s)
Entonces
K
H(s) =
s
K
;
s
y(t)est dt;
K>0
<{s} > 0
(7.6.5)
(7.6.6)
178
Captulo 7
Como la integral es cero, y ect > 0, t, necesariamente y(t) debe ser negativa
en uno o m
as lapsos.
El lema precedente justifica la presencia de undershoots, como el sugerido en la
Figura 7.3 en la pagina 160. Sin embargo, este comportamiento inverso se puede
manifestar en formas mas diversas, tal como se ilustra en la Figura 7.9.
Respuesta a escaln
Respuesta a escaln
1.5
1
0.5
0.5
10
15
1
0.5
0
0.5
1
1.5
2
Tiempo [s]
Tiempo [s]
7.6.4
Sistema can
onico de segundo orden
s2
n2
+ 2n s + n2
(7.6.8)
Donde (0 < < 1) es conocido como el factor de amortiguamiento y n , como la frecuencia natural no amortiguada. Tambien definimos, para uso futuro, la
frecuencia natural amortiguada, d , como
p
d = n 1 + 2
(7.6.9)
Este sistema tiene dos polos complejos conjugados, s1 y s2 , las cuales estan
definidas por
s1,2 = n jd = n ej()
(7.6.10)
donde es el angulo definido por cos = .
Para este sistema, la transformada de Laplace de su respuesta a escalon unitario
esta dada por
Y (s) =
n2
n2
=
(s2 + 2n s + n2 )s
[(s + n )2 + d2 ] s
(7.6.11)
Section 7.6.
179
(7.6.12)
s (s + n )2 + d2
(s + n )2 + d2
p
1
1
s + n
d
2
p
=
1
(7.6.13)
s
(s + n )2 + d2
(s + n )2 + d2
1 2
Y (s) =
(7.6.14)
y+Mp
jd
Td
tr tp
Figura 7.10. Localizacion de los polos y respuesta a escalon unitario de un sistema canonico de segundo orden.
Podemos tambien calcular los indicadores descritos en la Figura 7.3 en la pagina 160.
Tiempo de levantamiento
Para este caso, usamos kr = 1 (refierase a la Figura 7.3 en la pagina 160) obteniendo
en tr
p
sin(d tr + ) = 0
1 2
(7.6.15)
De aqu se llega a
tr =
(7.6.16)
180
Captulo 7
Sobrerespuesta (overshoot)
La maxima sobrerespuesta, Mp , y el instante en el cual este ocurre, tp , pueden ser
calculados derivando y(t), y luego igualando a cero esta derivada.
en t
dy(t)
= p
[n sin(d t + ) + d cos(d tr + )]
dt
1 2
(7.6.17)
Td
=
d
2
(7.6.18)
e d
sin( + ) = e 12
M p = y(tp ) 1 = p
1 2
(7.6.19)
Section 7.6.
7.6.5
181
2 t
3. y(t) =
3 + t
0
4. y(t) =
que a > 0
;0 < t < 1
;1 t < 2
;2 t < 3
;t 3
1
2t
d 2 y(t) d y(t)
+
6y(t) = u(t)
dt 2
dt
2.
d 3 y(t)
d 2 y(t) d 2 y(t)
d u(t)
+3
+
+ 3y(t) =
u(t)
3
dt
dt 2
dt 2
dt
3.
d 2 y(t) d y(t)
+
6y(t) = u(t)
dt 2
dt
4.
d y(t)
d 2 y(t)
+ 16
+ 100y(t) = 100u(t)
dt 2
dt
=1
y y(0) = 1. Grafique.
182
Captulo 7
Problema 7.5. (i) Determine la funcion de transferencia del circuito de la figura 7.11 considerando como entrada la fuente de voltaje e(t) y como salida el
voltaje en el condensador vC (t)
+
e(t)
vc (t)
L
Section 7.6.
183
s3
s2 + 13s + 30
+ 4s2 7s 10
= 0 e y(0) = 2.
s2
K(s + 1)
s + 1 + K(s + 1)
s + b2
s2 + bs + b2
184
Captulo 7
(i)
(ii)
(iii)
K(s + a)
(s + a)(s + K)
K(s + a)(s + b)
G2 (s) =
(s + a)(s + b)(s + K)
K(s + a)(s + b)(s + c)
G3 (s) =
(s + a)(s + b)(s + c)(s + K)
G1 (s) =
Que puede decir del efecto de los ceros sobre la respuesta del sistema ?
Problema 7.12. Una forma de verificar el grado relativo de la funcion de tranferencia de un sistema es a traves de su respuesta a escal
on:
Demuestre que si p(t) es la respuesta a un escal
on de un sistema con funci
on de
transferencia G(s), entonces
dp(t)
=0
dt t=0
Captulo 8
ANALISIS
DE SISTEMAS EN
TIEMPO DISCRETO
MEDIANTE
ZETA
TRANSFORMACION
8.1
Definici
on de la Transformada
Dada una se
nal de tiempo discreto f [t], 0 t < . La Transformacion Zeta
asociada a f [t], y su transformacion Zeta inversa estan definidas por
Z [f [t]] = F (z) =
f [t]z t
(8.1.1)
t=0
Z 1 [F (z)] = f [t] =
1
2j
F (z)z t1 dz
(8.1.2)
185
186
An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta
Captulo 8
8.2
Aplicaci
on a sistemas lineales: la funci
on de transferencia
Como ya hemos visto, una gran cantidad y variedad de sistemas de interes, pueden
ser modelados en forma lineal. Esto se consigue linealizando la o las ecuaciones de
recursion que describen el comportamiento del sistema en el tiempo, como se vio
en el Captulo 1, en torno a un punto de equilibrio o mas generalmente, en torno
a un punto de operacion. Para el caso de sistemas de una entrada y una salida, el
proceso de linealizacion desemboca en la obtencion de una ecuacion de recursion,
la ERS, de la forma general
(8.2.2)
(8.2.3)
(8.2.4)
Section 8.2.
187
Aplicaci
on a sistemas lineales: la funci
on de transferencia
Nota 8.1. Note tambien que se ha supuesto que u[1] = u[2] = . . . = u[m] = 0.
Esto no es restrictivo, porque siempre es posible encontrar una secuencia de entrada
u[t], no nula t < m, tal que y[t] satisfaga las condiciones iniciales establecidas.
222
Para ilustrar el uso de estas ideas, consideramos un ejemplo en donde analizaremos ademas algunas alternativas en el calculo de la transformacion inversa.
Ejemplo 8.1. Considere un sistema con la ERS
y[t] 0, 7y[t 1] + 0, 1y[t 2] = 0, 8u[t 1]
(8.2.5)
Y (z) =
0, 8z 1
(0, 7 0, 1z 1 )y[1] 0, 1y[2]
U (z) +
1
2
1 0, 7z + 0, 1z
1 0, 7z 1 + 0, 1z 2
(8.2.7)
f (z 1 , xo ) = [p(z 1 )]T xo = 0, 7 0, 1z 1
y[1]
y[2]
0, 1
(8.2.8)
0, 8z
1, 5z 2 0, 2z
U
(z)
+
z 2 0, 7z + 0, 1
z 2 0, 7z + 0, 1
|
{z
} |
{z
}
Yu (z)
(8.2.9)
Yx (z)
donde Yu (z) e Yx (z) denotan las transformadas de la respuesta a entrada con condiciones iniciales iguales a cero y de la respuesta a condici
on inicial, con entrada cero,
respectivamente.
As, se obtiene
Yu (z) =
0, 8z
z
4
4
2
=
+
(z 0, 5)(z 0, 2) z 1
3(z 0, 2) 3(z 0, 5) z 1
Aplicando transformaci
on inversa se llega a
(8.2.10)
188
An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta
yu [t] =
4
(0, 2)t1 (0, 5)t1 [t 1] + 2[t 1];
3
Captulo 8
t 0
(8.2.11)
3
1
11
1, 5z 2 0, 2z
=
+
(z 0, 5)(z 0, 2)
2 15(z 0, 2) 12(z 0, 5)
(8.2.12)
Por su parte
Yx (z) =
Aplicando transformaci
on inversa se llega a
yx [t] =
3
1
11
K [t] (0, 2)t1 [t 1] + (0, 5)t1 [t 1];
2
15
12
t 0
(8.2.13)
0, 8z
1, 5z 0, 2
Y (z) = z
+
(z 0, 5)(z 0, 2)(z 1) (z 0, 5)(z 0, 2)
5
5
2
=z
+
15(z 0, 2) 6(z 0, 5) z 1
1z
5z
2z
=
+
3(z 0, 2) 6(z 0, 5) z 1
(8.2.14)
(8.2.15)
(8.2.16)
t 0
(8.2.17)
t 0
z
za
= at , t 0; sin embargo, Z 1
(8.2.18)
h
1
za
= at1 [t 1],
Section 8.2.
Aplicaci
on a sistemas lineales: la funci
on de transferencia
189
B(z)
A(z)
(8.2.19)
la que se forma con los polinomios que contienen los coeficientes de la ecuacion
(8.2.1) original:
A(z) = z m (z n + an1 z n1 + . . . + a0 )
n
B(z) = z (bm z
+ bm1 z
m1
+ . . . + z0 )
(8.2.20)
(8.2.21)
La definicion de los polinomios A(z) y B(z) acusa la presencia de una cancelacion. En realidad esto se ha registrado de esa forma para considerar los tres
casos posibles: n < m, n = m y n > m. Para clarificar esto ilustraremos los tres
diferentes casos.
Ejemplo 8.2 (Caso n < m). Sea la ERS
y[t] 0, 8y[t 1] + 0, 4y[t 2] 0, 1y[t 3] = 0, 2u[t 3] 0, 7u[t 4] (8.2.22)
En este caso, n = 3, con an1 = a2 = 0, 8, an2 = a1 = 0, 4 y an3 = a0 =
0, 1 Por otro lado m = 4, con bm = b4 = 0, bm1 = b3 = 0, bm2 = b2 = 0,
bm3 = b1 = 0, 2 y bm4 = b0 = 0, 7
Entonces, la funci
on de transferencia es
H(z) =
z 3 (0, 2z 0, 7)
0, 2z 0, 7
=
4
3
2
3
z (z 0, 8z + 0, 4z 0, 1)
z(z 0, 8z 2 + 0, 4z 0, 1)
(8.2.23)
222
z 3 (z 3
0, 2z 0, 7
z 3 (0, 2z 0, 7)
= 3
0, 8z 2 + 0, 4z 0, 1)
z 0, 8z 2 + 0, 4z 0, 1
(8.2.25)
222
190
An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta
Captulo 8
z 2 (z 3
z 3 (0, 2z 0, 7)
z(0, 2z 0, 7)
= 3
0, 8z 2 + 0, 4z 0, 1)
z 0, 8z 2 + 0, 4z 0, 1
(8.2.27)
222
Section 8.2.
Aplicaci
on a sistemas lineales: la funci
on de transferencia
191
(vii) Si m
n
decimos que el modelo es propio .
Note que el polinomio A(z) corresponde al polinomio caracterstico de la ERS,
multiplicado por z ` , donde ` N tiene un valor que depende del caso especfico. De
esta forma, el conjunto de los polos de H(z) incluye un conjunto de ` polos en el
origen mas las frecuencias naturales que se pueden calcular de la ERS.
Estas definiciones nos ayudaran a apreciar la forma en que se relaciona la salida
de un sistema con su entrada, tal como pone en evidencia la definicion (8.2.19),
pero la simplicidad reside en que la relacion se establece mediante la funcion racional
H(z), es decir, los desplazamientos temporales han desaparecido. Si bien para llegar
a esta relacion las condiciones iniciales se han supuesto iguales a cero, sabemos
que en caso de sistemas estables, el efecto de la condiciones iniciales se extingue
exponencialmente en tiempo.
En forma similar a aquella que se utilizo en el analisis de Fourier, la funcion de
transferencia puede ser definida en base a la respuesta a impulso, con condiciones
iguales a cero. Si recordamos como se definio la funcion de transferencia H(z) al
aplicar transformacion Zeta a la ERS del sistema (8.2.1), podemos escribir la salida
del sistema seg
un la ecuacion (8.2.18). Se puede apreciar que si a ambos lados de
esta expresion, se aplica transformacion Zeta inversa, tenemos que (vea la Tabla E.1
en la pagina 374)
Y (z) = H(z)U (z) y[t] = h[t] u[t]
(8.2.28)
h[t] = Z 1 [H(z)]
(8.2.29)
En que,
Por lo tanto, podemos afirmar que
8.2.1
Funci
on de transferencia en dominios de Fourier y Zeta
192
An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta
Captulo 8
ERS
H(z)
h[k]
g[k]
3
y[t] ay[t 1] + a2 y[t 2] = a
u[t 1]
(8.2.30)
2
donde 0 < a 1.
La funcion de transferencia en el dominio de la transformacion Zeta es
a 23 z
Hz (z) = 2
;
z az + a2
|z| > 1
(8.2.31)
es absolutamente sumable si y s
olo si
Section 8.3.
193
HF (e ) =
(ej )2
3 j
2 e
aej
+ a2
(8.2.32)
En este caso,
HF (ej ) = Hz (z)|z=ej
(8.2.33)
(8.2.34)
!
3 j
X
e
j
j
HF (e ) =
( + o + 2`) ( o + 2`) + j 2 2 j
2
(e ) e + 1
`=
(8.2.35)
Se observa que en este caso, no se cumple (8.2.33).
222
La relacion entre la transformacion de Fourier y transformacion Zeta puede ser
resumida en la siguiente afirmacion
8.3
Como ya se vio, la funcion de transferencia esta univocamente asociada a la respuesta a impulso del sistema. Por otro lado sabemos que si se aplica un impulso
a la entrada, la respuesta contiene solamente los modos naturales del sistema; esto
nos permite estudiar su comportamiento natural, que es independiente de la se
nal
de entrada, (caractersticas del transiente, velocidad de respuesta, etc. ) a partir
del analisis de la funcion H(z).
194
An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta
Captulo 8
a
y[t] = y + modos naturales del sistema
(8.3.2)
donde y = H(1), en virtud del Teorema del Valor Final (ver Teorema E.1 en
la pagina 372 ). Si el sistema es estable, entonces los modos naturales decaen
exponencialmente a cero. Luego, para sistemas estables, la respuesta en estado
estacionario esta dada por la constante y . Note que si H(z) tiene uno o mas ceros
en z = 1, entonces y = 0.
Es conveniente recalcar que la respuesta a escalon unitario contiene los modos
naturales del sistema, por lo que revela cuestiones fundamentales del comportamiento dinamico del sistema.
Tambien es conveniente recordar que existe una relacion simple entre la respuesta
a escalon g[t] y la respuesta a delta de Kronecter h[t]. Esta esta dada por
h[t] = g[t] g[t 1]
(8.3.3)
Bf (z)
Af (z)
(8.3.4)
Section 8.4.
195
Respuesta a escaln
2
1.5
1
0.5
0
0.5
1
10
15
20
25
30
35
40
45
50
Tiempo
Bf (z) = q z + q1 z
q1
+ . . . + 1 z + 0 ;
(8.3.5)
q 6= 0
(8.3.6)
para n
umeros enteros no negativos p y q. Observe que dado que Y (z) debe poder
expresarse en serie de potencias no positivas de z, es necesario que p q.
La expansion de F (z) en potencias de z 1 se obtiene dividiendo Bf (z) por Af (z),
esto lleva a
F (z) = q z p+q + (q1 q p1 )z p+q1 + . . .
(8.3.7)
Esta ecuacion demuestra que el primer valor de f [t] distinto de cero ocurre en
el instante t = p q, con f [p q] = q . El resultado principal se puede resumir en
el siguiente lema:
Lema 8.1. Considere una se
nal f [t] y su transformada F (z), cuociente de polinomios en z, con grado relativo d, entonces f [t] = 0 para t = 0, 1, ..d 1
222
Cuando este lema se aplica a la respuesta a escalon unitario, con condiciones
iniciales iguales a cero, se deduce que esta es cero en los primeros d instantes, donde
d es el grado relativo de la funcion de transferencia H(z). En rigor, el Lema 8.1
z
se aplica al producto H(z)U (z), pero en este caso U (z) es z1
, es decir, su grado
relativo es cero, por lo tanto el grado relativo de H(z)U (z) es igual al grado relativo
de H(z).
8.4
196
An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta
Captulo 8
excitaciones no acotadas y, por otro, que permite inclur el efecto de las condiciones
iniciales.
Observemos primero un ejemplo.
Ejemplo 8.5. Considere un sistema con ERS
y[t] + a1 y[t 1] + a2 y[t 2] = b1 u[t 3] + b0 u[t 4]
(8.4.1)
Y (z) =
b1 z 3 + b0 z 4
a1 y[1] a2 z 1 y[1] a2 y[2]
U (z) +
1
2
1 + a1 z + a2 z
1 + a1 z 1 + a2 z 2
(8.4.2)
lo cual lleva a
Y (z) =
b1 z + b0
(a1 y[1] + a2 y[2])z 2 a2 y[1]z
U (z) +
+ a1 z + a2 )
z 2 + a1 z + a2
{z
}
{z
} |
z 2 (z 2
(8.4.3)
Yx (z)=Z[Thhxo ,0ii]
Yu (z)=Z[Thh0,u[t]ii]
z
z ejo
Y (z) = H(z)
z
+ Yx (z)
z ejo
(8.4.4)
(8.4.5)
Section 8.5.
197
zH(ejo )
;
z ejo
(8.4.6)
zH(ejo )
;
z ejo
(8.4.7)
(8.4.8)
jo
(8.4.9)
= |H(e
)| cos(to + o )
8.5
Hasta aqu hemos visto que la respuesta de un sistema que tiene una funcion de
transferencia H(z) es de la forma:
Y (z) = H(z)U (z) +
p X
nt
X
t=1 i=1
ti
(z t )i
(8.5.1)
198
An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta
Captulo 8
origen a se
nales que decaigan exponencialmente. Esto se traduce en que los polos
del sistema deben tener magnitud estrictamente menor que uno, es decir, deben
estar ubicados sobre el disco unitario abierto del plano complejo z . Es decir,
para sistemas discretos, el lmite de estabilidad en el plano complejo z en que se
ubican sus polos, es la circunferencia unitaria .
Ejemplo 8.6. Consideremos un sistema con funci
on de transferencia
H(z) =
z 3 (z
(z 0, 2)
1)(z 0, 8)
(8.5.2)
Esta funci
on tiene tres polos en el origen, que se originan en los retardos y
en la estructura de la ERS (vea ecuaciones (8.2.20) y (8.2.21) ). Estos polos s
olo
introducen retardos en los modos naturales. Los otros polos de su funci
on de transferencia est
an ubicados en z = 1, y z = 0, 8. Estos u
ltimos polos corresponden a
frecuencias naturales del sistema. Uno de estos, el ubicado en z = 1, no est
a en
el disco unitario abierto, sino que justo sobre el lmite de estabilidad. Por tanto
el sistema no es estable. Se deja al lector el verificar que una entrada constante,
diferente de cero, produce una salida que crece indefinidamente.
8.5.1
8.6
Estabilidad via an
alisis de polinomios
Polos, ceros y la respuesta temporal
Section 8.6.
199
8.6.1
Polos
Las funciones que se originan al aplicar la transformacion Zeta a las ERS de sistemas
lineales, son funciones racionales y siempre pueden descomponerse en fracciones
parciales. Cada uno de los terminos de esta expansion contiene ya sea un polo real
simple, un par de polos complejos conjugados o m
ultiples combinaciones de polos
repetidos. Por tanto, para conocer el efecto de los polos en la respuesta transiente
de un sistema basta conocer el efecto ocasionado por los polos de primer y segundo
orden y su interaccion.
Un polo de primer orden contribuye a la descomposicion en fracciones parciales,
en general, con un termino de la forma
H1 (z) =
K1 (1 a)
za
(8.6.2)
1 2 cos o + 2
z 2 2z cos o + 2
(8.6.3)
200
An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta
Captulo 8
Figura 8.2. Relacion entre la ubicacion de los polos (de multiplicidad uno) y los
modos naturales (caso decreciente).
Section 8.6.
201
Figura 8.3. Relacion entre la ubicacion de los polos (de multiplicidad uno) y los
modos naturales (caso no decreciente).
202
An
alisis de Sistemas en tiempo discreto mediante transformaci
on Zeta
Captulo 8
ilustrar esto podemos apreciar en la Figura 8.2 las diferentes respuestas a impulso
de un sistema de un u
nico polo.
En forma analoga a lo que ocurre con los sistemas continuos en el tiempo, nos
referiremos, en general, como polos r
apidos a aquellos que se encuentran mas cercanos al origen del plano z Esto es equivalente que considerar que la respuesta
transiente asociada a estos polos desaparece mas rapido que aquella asociada a los
otros polos, tal como puede apreciarse en la figura 8.2. Por otro lado, llamaremos
polos dominantes o polos lentos a aquellos que se encuantran al interior del disco
unitario, pero mas cercanos al lmite de estabilidad (circunferencia unitaria) que el
resto de los polos de sistema. Esto equivale a decir que el transiente asociado a los
polos dominantes decae mas lentamente que los demas modos naturales.
Por ejemplo, si tenemos un sistema cuyos polos estan ubicados en (0, 5; 0, 6
j0, 6; 0, 2; 0, 2 + j0, 3), podemos decir que los polos dominantes es 0, 6 j0, 6
y el polo mas rapido es el que se encuentra en 0, 2.
8.6.2
Ceros
8.6.3
La Figura 8.3 en la pagina 195 sugiere que existen casos en los que, en la presencia
de una excitacion mayor que cero, la respuesta del sistema se hace negativa durante alg
un lapso no despreciable. Existe un resultado analogo al Lema 7.1 en la
pagina 177, respecto del rol de algunos ceros que estan ubicados fuera del crculo
unitario.
Lema 8.2. Considere un sistema lineal estable con funci
on de transferencia H(z),
y con un cero real en z = c, donde c > 1, entonces la respuesta a un escal
on positivo
Section 8.6.
203
Kz
;
z1
K>0
(8.6.4)
X
Kz
H(z)
=
y[t]z t ;
z1
t=0
|z| > 1
(8.6.5)
X
K
H(c) =
y[t]ct = 0
(8.6.6)
c
t=0
Como la suma es cero, y ct > 0, t, necesariamente y[t] debe ser negativa en
uno o m
as lapsos. y positiva, el resto del tiempo.
El lema precedente justifica la presencia de undershoots, como el sugerido en la
Figura 8.3 en la pagina 195. Sin embargo, este comportamiento inverso se puede
manifestar en formas mas diversas, tal como se ilustra en la Figura 8.4.
Respuesta a escaln
Respuesta a escaln
1.5
1
0.5
0.5
10
Tiempo [s]
15
1
0.5
0
0.5
1
1.5
2
Tiempo [s]
Captulo 9
DE
REPRESENTACION
SISTEMAS EN VARIABLES
DE ESTADO.
9.1
Uno de los aspectos esenciales que interesa tanto en Ingeniera como en Ciencias
Aplicadas es la rperesentacion de un sistema dado, en alguna forma que lo describa con suficiente detalle y permita analizar sus propiedades fundamentales. Una
descripcion de este tipo se denomina un modelo del sistema.
En la teora de sistemas los modelos juegan un rol fundamental, pues son imprescindibles para analizar, sintetizar y dise
nar todo tipo de sistemas y subsistemas.
Un aspecto de particular relevancia en la Ciencia y la Tecnologa es que un modelo puede ser usado para predecir y estudiar el comportamientoi del sistema bajo
variadas condiciones de excitacion.
Naturalmente un sistema dado puede ser descrito de diferentes formas, dando
lugar a diferentes modelos, seg
un sea el aspecto del sistema que interesa describir
con mayor enfasis. Por ejemplo, si consideramos el caso de un motor electrico,
podramos estar interesados en el proceso que conversion electro-mecanica, o bien,
nos podra interesar su analisis desde el punto de vista de un sistema termico,
o como un sistema mecanico sujeto a vibraciones, o estudiar el comportamiento
cristalografico de los materiales que lo conforman, etc.
En segundo lugar, no existe un u
nico modelo para un sistema, ya que siempre
que se realiza un modelado existe alguna simplificacion implcita de la realidad, la
que es inmensamente compleja en la mayor parte de los casos. Una decision fundamental a la hora de modelar un sistema es elegir cuales son los aspectos esenciales
que queremos capturar en el modelo. Ademas, esta eleccion esta directamente relacionada con el objetivo del modelado.
La teora y herramientas existentes para modelar de sistemas son muy diversas,
y en ellas se combinan leyes de la fsica, la qumica, la termodinamica, ademas de
teora de se
nales, procesamiento de datos, matematicas y herramientas numericas.
204
Section 9.2.
205
De hecho, un modelo generalmente no se obtiene de una sola vez, sino que se construye en un proceso iterativo, que considera la calidad de los resultados obtenidos
con el en las diferentes etapas, por ejemplo, para hacer control sobre un sistema o
predecir su comportamiento.
En este captulo, nos interesa introducir una clase especial de modelos, u
til para
describir sistemas din
amicos. Estos sistemas son los que hemos descrito ya a traves
de ecuaciones diferenciales (EDS), para el caso de tiempo continuo, o ecuaciones recursivas (ERS) para el caso de tiempo discreto, y se caracterizan porque las variables
involucradas nos solo se relacionan algebraicamente, sino que ademas interact
uan
en el tiempo, a traves de su efecto acumulado o su razon de cambio.
Adem
as de estos dos tipos de sistemas din
amicos, en el dominio del tiempo
continuo y en el del tiempo discreto, se introducen sistemas hbridos en los que se
establece una relaci
on entre tiempo continuo y discreto a traves del muestreo.
El enfasis se marca en los conceptos, propiedades fundamentales, interpretaciones fsicas y ejemplos. Para un estudio en mayor profundidad de los topicos
aqu presentados se sugiere al lector considerar literatura especializada como, por
ejemplo, las referencias [2], [4], [5], [6], [7], [8], [9].
9.2
9.2.1
Uno de los tipos de modelos utilizados con frecuencia para describir un sistema es
aquel en que se tiene un conjunto de ecuaciones que relaciona sus variables internas.
Estas variables se denominan variables de estado . En cada instante el conjunto
de ellas, que toman un valor determinado, se denomina estado del sistema .
Sin embargo, a menudo usaremos las expresiones variables de estado y estado del
sistemacomo sinonimos.
La definicion dada es mas bien intuitiva y podra coincidir en realidad con
cualquier grupo de variables de un sistema dado. Por esto, para distinguir exactamente un conjunto de variables de estado de un sistema tenemos la siguiente
definicion
Un conjunto de variables de estado de un sistema dado es un conjunto de variables propias del sistema tal que cualquier variable del sistema puede ser expresada
como funci
on del estado presente y de los valores presentes y futuros de las entradas
del sistema.
En esta definicion hemos enfatizado en significado fsico de las variables de estado. Sin embargo, existen tambien definiciones mas abstractas.
El conjunto de variables de estado usualmente se agrupan en forma de un vector
de estado, el cual pertenece al llamado espacio de estado .
La definicion dada implica tambien que si conocemos el estado del sistema en
un instante dado t, entonces se puede calcular la energa que en ese instante el
sistema posee. EN el caso de sistemas fsicos, esta depende siempre de algunas de
206
Representaci
on de sistemas en variables de estado.
Captulo 9
las variables del sistema, tales como velocidad, posicion, presion, voltaje y corriente,
entre otras. Todas estas variables, por la definicion dada, se pueden obtener a partir
del estado del sistema.
Esto sugiere ademas que podemos pensar el estado de un sistema de forma mas
general: las variables de estado pueden ser funci
on (por ejemplo, una combinacion
lineal) de variables del sistema. Esta observacion resulta muy importante pues
establece que el estado del sistema no necesariamente tiene un significado desde
el punto de vista fsico, sin embargo, permite un analisis mas general, independiente
del significado de cada una de las variables de estado elegidas. Ademas, de esta
forma queda en evidencia que la elecci
on de las variables de estado NO es
u
nica para un sistema dado.
Otra observacion importante es que la evolucion del estado en el tiempo, es
decir, su trayectoria, puede ser obtenida a partir del estado presente y el valor
futuro de las entradas del sistema. De esta forma, los modelos de este tipo son
siempre ecuaciones diferenciales de primer orden, en el caso de sistemas continuos,
o ecuaciones recursivas de un paso, para sistemas discretos
9.2.2
Modelos b
asicos en variables de estado.
(9.2.1)
(9.2.2)
(9.2.3)
(9.2.4)
Section 9.2.
207
Para ilustrar los conceptos presentados hasta el momento consideremos el siguiente ejemplo
Ejemplo 9.1. En la Figura 9.1, una fuerza externa f (t) se aplica a un sistema
masa-resorte sujeto a un muro por un extremo. La posici
on d(t) se mide con respecto
a la posici
on en que el resorte se encuentra en su largo natural. El movimiento de
la masa es amortiguado por una fuerza de roce viscoso, proporcional a la velocidad
de la masa, v(t).
v(t)
d(t)
K
M
f(t)
roce viscoso
(9.2.5)
(9.2.6)
f (t) = M
dv(t)
+ Kd(t) + Dv(t) = M x 2 (t) + Kx1 (t) + Dx2 (t)
dt
(9.2.7)
(9.2.8)
(9.2.9)
Es f
acil observar que para resolver este sistema de ecuaciones diferenciales de
primer orden, se requiere conocer los valores x1 (0) y x2 (0), as como el valor de la
excitaci
on f (t), t 0.
Podemos apreciar tambien que la energa almacenada en el sistema, w(t), queda
expresada como
208
Representaci
on de sistemas en variables de estado.
Captulo 9
1
1
2
2
K (d(t)) + M (v(t)) = x(t)T x(t)
(9.2.10)
2
2
K M
Donde es una matriz diagonal: = diag 2 , 2 .
Finalmente, la no unicidad de la representaci
on en variables de estado se puede
apreciar si, en vez de la elecci
on hecha en (9.2.8), elegimos un nuevo vector de
estado x(t) que se relaciona con x(t) a traves de una matriz no singular cualquiera
T R22 , i.e.
w(t) =
x(t) = Tx(t)
(9.2.11)
M
as adelante, en la subsecci
on 9.3.3, se dan m
as detalles sobre este tipo de
transformaciones.
222
9.2.3
Se
nales descritas en espacio de estado
y(t) = Cx(t)
para se
nales de tiempo continuo
(9.2.12)
(9.2.13)
(9.2.14)
Esta se
nal, sinusoide m
as una constante, puede interpretarse como la soluci
on
de la ecuaci
on diferencial homogenea
d 3 f (t)
d f (t)
+ 25
= 0;
3
dt
dt
(9.2.15)
Si ahora escogemos como variables de estado x1 (t) = f (t), x2 (t) = f(t) y x3 (t) =
f(t), entonces el modelo el espacio de estado de esta se
nal es
0
1
0
dx(t)
0
1 x(t)
= 0
y(t) = [1 0 0] x(t)
(9.2.16)
dt
0 25 0
222
Section 9.3.
209
9.3
9.3.1
Linealizaci
on
(9.3.1)
(9.3.2)
(9.3.3)
(9.3.4)
Note que el punto de equilibrio queda determinado haciendo las derivadas iguales
a cero.
Si consideramos una vecindad alrededor del punto de equilibrio, podemos aproximar el modelo (9.3.1)-(9.3.2) por una serie de Taylor truncada, de la forma
F
F
(x(t)
x
)
+
(u(t) uQ )
Q
x x=xQ
u x=xQ
u=uQ
u=uQ
G
G
(x(t)
x
)
+
(u(t) uQ )
y(t) G(xQ , uQ ) +
Q
x x=xQ
u x=xQ
x(t)
F(xQ , uQ ) +
u=uQ
u=uQ
(9.3.5)
(9.3.6)
210
Representaci
on de sistemas en variables de estado.
Captulo 9
(9.3.7)
(9.3.8)
Donde
x(t) = x(t) xQ ;
u(t) = u(t) uQ ;
y(t) = y(t) yQ
(9.3.9)
A=
F
;
x x=xQ
B=
F
;
u x=xQ
C=
u=uQ
u=uQ
G
;
x x=xQ
u=uQ
D=
G
u x=xQ
u=uQ
(9.3.10)
Para ilustrar esta forma de obtener un modelo lineal para un sistema no lineal,
se ilustra en el siguiente ejemplo.
Ejemplo 9.3. Considere el levitador electromagnetico que se muestra en la Figura
9.2.
i(t)
R
h(t)
f(t)
+
e(t)
v(t)
mg
K1
i(t)
h(t) + K2
(9.3.11)
Section 9.3.
211
Usando conocimientos b
asicos de redes electricas y de mec
anica, podemos escribir las siguientes ecuaciones
e(t) = Ri(t) + L
di(t)
dt
dh(t)
dt
K1
dv(t)
f (t) =
i(t) = mg + m
h(t) + K2
dt
v(t) =
(9.3.12)
(9.3.13)
(9.3.14)
A continuaci
on escogemos las variables de estado1 : la corriente i(t), la posici
on
de la esfera h(t), y su velocidad v(t), i.e.
T
T
x(t) = x1 (t) x2 (t) x3 (t) = i(t) h(t) v(t)
(9.3.15)
(9.3.16)
(9.3.17)
(9.3.18)
EQ
R
=0
K1
K1 EQ
=
x1Q K2 =
K2
mg
mgR
= x1Q =
(9.3.19)
= x3Q
(9.3.20)
= x2Q
(9.3.21)
De esta forma podemos obtener ahora el modelo linealizado en que las variables
ser
an: la entrada incremental e(t) y el estado incremental x(t) = [x1 (t) x2 (t) x3 (t)]T .
Con esto resulta
1 Note
212
Representaci
on de sistemas en variables de estado.
dx1 (t)
R
1
= x1 (t) + e(t)
dt
L
L
dx2 (t)
= x3 (t)
dt
dx3 (t)
Rg
Rmg 2
=
x1 (t)
x2 (t)
dt
EQ
K1 EQ
Captulo 9
(9.3.22)
(9.3.23)
(9.3.24)
L
0
A=
Rg
EQ
0
0
Rmg 2
K1 EQ
1
;
1
L
B = 0;
0
0
CT = 1 ;
0
D=0
(9.3.25)
222
En los desarrollos y ejemplos posteriores se omitira el prefijo , pero el lector
debe tener en mente que los modelos obtenidos de esta forma son modelos lineales
que relacionan el estado incremental, las entradas incrementales y las salidas
incrementales, en torno al punto de equilibrio.
9.3.2
(9.3.26)
(9.3.27)
eA(t ) Bu( )d
t to
(9.3.28)
to
X
1 k k
A t
k!
k=1
(9.3.29)
Section 9.3.
213
Demostraci
on
Puede verificarse directamente al reemplazar (9.3.28) en la ecuacion (9.3.26), usando
la regla de Leibnitz para la derivacion de la integral.
222
Con el resultado del Lema 9.1, la solucion de la ecuacion (9.3.27) queda dada
por
Z
y(t) = CeA(tto ) xo + C
(9.3.30)
to
Din
amica del sistema
Como ya hemos estudiado en captulos anteriores (3, 4), la salida de un sistema tiene
en general dos componentes: una parte no forzada determinada por las condiciones
iniciales y formada por los modos naturales del sistema, y una parte forzada por la
se
nal de entrada al sistema. Esto mismo se extiende al la solucion de la ecuacion
de estado (9.3.26). El estado del sistema tiene por tanto dos partes: la componente
no forzada xu (t), y la componente forzada xf (t), donde
xu (t) = eA(tto ) xo
Z t
xf (t) =
eA(t ) Bu( )d
(9.3.31)
(9.3.32)
to
(9.3.33)
n
X
` v` ;
` C
(9.3.34)
`=1
kn
2 Todo
3 Ver
Rn
214
Representaci
on de sistemas en variables de estado.
x(t) = e
At
xo = I +
n
X
`=1
n
X
X
1 k
k
`
A v` t =
` e` t v`
k! | {z }
k=1
k
` v`
Captulo 9
(9.3.35)
`=1
(9.3.36)
0
1
A= K
(9.3.37)
D
M
M
Por tanto sus frecuencias naturales son los autovalores de esta matriz, dados
por las soluciones de la ecuaci
on
det(I A) = 2 +
K
D
+
=0
M
M
(9.3.38)
Section 9.3.
215
i.e.
1,2
D
=
2M
D2
K
4M 2
M
(9.3.39)
0.4
D=0
D=0.2
D=2
0.2
0.2
0.4
10
15
20
25
Time [s]
30
35
40
45
50
M = 2 [kg];
K = 0, 1
N
m
d(0) = 0, 3 [m];
and v(0) = 0, 05
hmi
s
(9.3.40)
216
Representaci
on de sistemas en variables de estado.
Captulo 9
0.1
0.08
xo=[0.3 0.05]
0.06
velocidad v(t)
0.04
0.02
0.02
0.04
0.06
D=0
D=0.2
D=2
0.08
0.1
0.5
0.4
0.3
0.2
0.1
0
0.1
distancia d(t)
0.2
0.3
0.4
0.5
Section 9.3.
217
Por definicion, todas las variables de un sistema pueden expresarse como funciones lineales de su estado y su entrada. Cuando la entrada al sistema u(t) es un
vector de funciones temporales acotadas, entonces las variables del sistema seran
acotadas si su estado lo es.
Tenemos entonces el siguiente resultado:
Teorema 9.1. Considere el sistema con la descripci
on en variables de estado
(9.3.26)-(9.3.27) donde los elementos de A, B, C y D est
an acotados. Entonces el
estado del sistema, y por tanto su salida, es acotado para toda entrada acotada si,
y s
olo si, los autovalores de la matriz A tienen parte real estrictamente negativa.
222
Para apreciar la aplicacion de este teorema en la practica, retomemos el sistema
del levitador magnetico del Ejemplo 9.3. Para dicho sistema la matriz A (en el
modelo linealizado) esta dada por la expresion
R
L
0
A=
Rg
EQ
0
0
Rmg 2
K1 EQ
(9.3.41)
R
Rmg 2
Rmg 2
det(I A) = +
+
L
K1 E Q
K1 EQ
(9.3.42)
Podemos apreciar que, del conjunto de autovalores de la matriz, existe uno que
es real y mayor que cero. Esto implica que el sistema es inestable, lo cual
coincide con el analisis del sistema desde el punto de vista fsico. Si bien existe un
punto de euilibrio para el sistema, al menos teoricamente, dado x2Q en la ecuacion
(9.3.21)), este resulta ser un punto de equilibrio inestable, ya que cualquier peque
na
perturbacion sobre la esfera hara que esta o acelera hasta adherirse al iman, o bien,
cae al suelo.
Velocidad de respuesta y resonancia
Si bien un sistema puede ser estable, es importante considerar tambien otras de sus
propiedades fundamentales.
Como ya hemos visto, en los sistemas estables la parte real de los autovalores
determina la velocidad a la cual los modos naturales decaen a cero. Los modos mas
lentos, que hemos denominado modos dominantes, determinan la velocidad con que
la salida del sistema alcanza el estado estacionario, es decir, determinan la velocidad
de respuesta del sistema. Por ejemplo, un sistema con autovalores dominantes en
1,2 = jo , > 0, tiene modos naturales que pueden expresar como sinusoides
218
Representaci
on de sistemas en variables de estado.
Captulo 9
amortiguadas y(t) = Aet sin(o t + ). Se aprecia que mientras mayor sea , los
modos naturales decaen mas rapido.
Un segundo aspecto, de especial importancia en estructuras flexibles, es la presencia de resonancias en un sistema, que estan asociadas a autovalores complejos.
Desde el punto de vista fsico, la presencia de autovalores complejos tiene relacion
con la existencia de dos tipos de energa. En circuitos electricos, la energa electrostatica de condesadores y la energa electromagnetica en inductores. En sistemas
mecanicos, la energa cinetica de una masa en movimiento y la energa potencial
debida a diferencia de nivel o a la compresion de un resorte. Los principales problemas con este tipo sistemas ocurren cuando la se
nal de entrada contiene energa en
la banda de frecuencias cercana a la frecuencia con que el sistema oscila en forma
natural. En la practica, este problema puede traducirse en oscilaciones de magnitud
que el sistema simplemente no esta preparado para soportar5 . Para ilustrar esta
situacion examinaremos un ejemplo que ilustra el fenomeno
Ejemplo 9.5. Consideremos nuevamente el sistema masa-resorte-roce del Ejemplo
9.1, en que las constantes tienen los valores
M = 1[kg]
D = 13 [Ns/m]
K = 1[textN/m]
(9.3.43)
D
M
1,2 = 16
+
q
1
2
D
M
35
9
= 2 + 13 + 1 = 0
(9.3.44)
16 j
(9.3.45)
Por tanto, los modos naturales son de la forma e0,1667t cos(t+). Cualquier excitaci
on que posea energa a frecuencias cercanas a = 1[rad/s] har
a que el sistema
entre en resonancia, haciendo que en la salida del sistema aparezcan oscilaciones
de magnitud significativa.
Se desarrolla una simulaci
on del comportamiento del sistema bajo dos excitaciones distintas: en el primer caso, la entrada es una sinusoide de frecuencia = 1
[rad/s], y en el segundo caso, la excitaci
on una se
nal cuadrada de frecuencia fundamental o = 0, 333 [rad/s]. En ambos casos las condiciones iniciales del sistema
son cero. Los resultados se muestran en la Figura 9.5
Figura 9.5. Resonancia en el sistema masa-resorte
Section 9.3.
219
la frecuencia de oscilaci
on de los modos naturales del sistema. En el segundo
caso, tambien aparece un fen
omeno de resonancia; sinembargo, ahora se debe a
la tercera arm
onica de la excitaci
on , ya que la frequencia angular de ella es
3o = 0, 999[rad/s], es decir, coincide casi exactamente con la frecuencia natural
de oscilaci
on del sistema.
9.3.3
Transformaciones de similaridad
(9.3.46)
Lema 9.2. Dado un sistema cuyo vector de estado es x(t) y sus matrices son
(A, B, C, D), entonces, dada la matriz de transformaci
on T Rnn no singular,
tenemos un nuevo vector de estado
x(t) = T x(t)
(9.3.47)
B = TB
C = CT1
D=D
(9.3.48)
Demostraci
on
Dada la transformacion (9.3.47), en que T es no singular y, por tanto, invertible,
tenemos que
x(t) = T1 x(t)
(9.3.49)
T1 x(t)
= AT1 x(t) + Bu(t)
1
y(t) = CT
x(t) + Du(t)
(9.3.50)
(9.3.51)
220
Representaci
on de sistemas en variables de estado.
Captulo 9
B
z }| {
z}|{
x(t) = TAT1 x(t) + TB u(t)
(9.3.52)
y(t) = CT
D u(t)
| {z } x(t) + |{z}
C
(9.3.53)
(9.3.54)
(9.3.55)
1
(9.3.56)
(9.3.57)
i2 (t)
R1
+
vf (t)
L
iL (t)
R2
vC (t)
Section 9.3.
0
dx(t)
=
1
dt
1
0
L
x(t) +
u(t)
R1 + R2
1
R1 R2 C
R1 C
221
(9.3.58)
Una elecci
on alternativa del vector de estado es x(t) = [x1 (t) x2 (t)]T = [i(t) i2 (t)]T .
Donde puede probarse sin problema que
x(t) =
1 R2
R2 0
|
{z
1
x(t)
1
}
(9.3.59)
222
9.3.4
Y(s)
U(s)
(9.3.60)
En que U(s) y Y(s) son las transformadas de Laplace de la entrada u(t) y la salida
y(t). Entonces, esta se relaciona con las matrices (A, B, C, D) de la representaci
on
en variables de estado seg
un la ecuaci
on
H(s) = C(sI A)1 B + D
(9.3.61)
222
Representaci
on de sistemas en variables de estado.
Captulo 9
z }| {
z }| {
sX(s) x(0 ) = AX(s) + B L [(t)]
(sI A)X(s) = B
(9.3.62)
(9.3.63)
(9.3.64)
Si tambien aplicamos transformada de Laplace a la ecuacion (9.3.27) y reemplazamos la expresion para la transformada de Laplace del vector de estado X(s),
tenemos
Y(s) = H(s) = CX(s) + DL [(t)] = C(sI A)1 B + D
(9.3.65)
H(s) = C
Adj(sI A)
CAdj(sI A)B + D det(sI A)
B+D=
det(sI A)
det(sI A)
(9.3.66)
Lo que pone de manifiesto que todos los polos de H(s) son autovalores de la
matriz A.
222
Es importante, sin embargo, notar que no necesariamente los polos de la
funcion de transferencia son todos los autovalores del sistema, pues la ecuacion
(9.3.61) puede tener cancelaciones encubiertas entre races del numerador (ceros) y
races del denominador (polos) . Esto se ilustra mejor a traves del siguiente ejemplo.
Ejemplo 9.7. Consideremos el sistema
2 1
1
A=
; B=
;
0 3
0, 5
C= 0
1 ;
D=0
(9.3.67)
Entonces
1
0
(s + 2)(s + 3)
0, 5
0, 5(s + 2)
=
=
(s + 2)(s + 3)
(s + 3)
s+3
0
1
s+2
1
0, 5
(9.3.68)
(9.3.69)
Section 9.3.
223
222
Para establecer un nexo con lo que sucede en la practica, volvamos una vez
mas al levitador magnetico del Ejemplo 9.3. Si consideramos la corriente i(t) como
salida, vemos de inmediato que la funcion de transferencia desde la entrada e(t) a
esta salida tiene solo un polo, a pesar que el vector de estado tiene dimension tres.
La explicacion de esto es que, en nuestro modelo fsico simplificado, la corriente i(t)
no es afectada por la posicion ni por la velocidad vertical de la esfera (note que no
se ha considerado el efecto del cambio de posicion de la esfera en la inductancia del
electroiman).
El resultado fundamental es que la funci
on de transferencia puede no
entregar la misma informaci
on que el modelo en variables de estado para
un sistema dado.
Un problema interesante es obtener una representacion de estado de un sistema
a partir de su funcion de transferencia. El lector debe tener la precaucion de considerar que en este caso un modelo de estado no equvoco, no permite determinar
si hubo o no cancelaciones entre polos y ceros. Por esto, el modelo obtenido se
denomina realizaci
on mnima .
Existen muchos metodos para obtener un modelo en variables de estado a partir
de la funcion de transferencia, uno de ellos es el que se presenta a continuacion.
Consideremos la funcion de transferencia dada por
HT (s) =
Bo (s)
bn1 sn1 + bn2 sn2 + . . . b1 s + b0
+HT () =
+HT () (9.3.70)
Ao (s)
sn + an1 sn1 + . . . + a1 s + a0
s`1
U (s)
Ao (s)
` {1, 2, . . . , n}
(9.3.71)
(9.3.72)
(9.3.73)
`=1
U (s) =
n
X
sn
s`1
Ao (s)
U (s) =
U (s) +
a`1
U (s)
Ao (s)
Ao (s)
Ao (s)
`=1
|
{z
}
| {z }
sVn (s)
V` (s)
(9.3.74)
224
Representaci
on de sistemas en variables de estado.
Captulo 9
0
0
..
.
1
0
..
.
0
1
..
.
0
0
..
.
0
0
..
.
A=
;
a0 a1 a2 an2 an1
C = b0 b1 b2 bn1 ; D = HT ()
0
0
B = ...
0
1
(9.3.75)
(9.3.76)
4s 10
4s 10
= 3
(s + 2)2 (s 1)
s + 3s2 4
(9.3.77)
0 1 0
A = 0 0 1 ;
4 0 3
C = 10 4 0 ;
0
B = 0
1
(9.3.78)
D=0
(9.3.79)
222
Otro resultado importante, cuya prueba se deja al lector como ejercicio, es que
la funci
on de transferencia de un sistema es invariante respecto a transformaciones de similaridad del estado
9.4
Section 9.4.
225
9.4.1
Linealizaci
on de sistemas discretos
El equivalente en tiempo discreto de las ecuaciones (9.2.3)-(9.2.4) esta dado por las
expresiones no lineales
x[t + 1] = Fd (x[t], u[t])
(9.4.1)
(9.4.2)
(9.4.3)
(9.4.4)
Donde puede apreciarse que el punto de equilibrio queda definido por un conjunto
de valores constantes para el estado del sistema y para su entrada, que deben
satisfacer (9.4.1)- (9.4.2). Esto implica un valor constante tambien en la salida del
sistema. El sistema discreto puede ser entonces linealizado en torno a este punto
de equilibrio, definiendo
x[t] = x[t] xQ ;
u[t] = u[t] uQ ;
y[t] = y[t] yQ
(9.4.5)
(9.4.6)
(9.4.7)
Donde
Fd
Ad =
;
x x=xQ
u=uQ
Fd
Bd =
;
u x=xQ
u=uQ
Gd
Cd =
;
x x=xQ
u=uQ
Gd
Dd =
u x=xQ
u=uQ
(9.4.8)
6 La conexi
on requiere de conversores Digital-An
alogo y An
alogo-Digital (DAC y ADC, sus
siglas en ingl
es, respectivamente)
226
9.4.2
Representaci
on de sistemas en variables de estado.
Captulo 9
Sistemas muestreados
Como hemos dicho antes, los modelos de tiempo discreto se obtienen a menudo al
hacer un muestreo7 de las entradas y salidas de un sistema de tiempo continuo.
Cuando alg
un dispositivo digital se utiliza para actuar sobre un sistema de tiempo continuo, la se
nal de actuacion o de comando sobre el solo se define en ciertos
instantes de tiempo especficos, y no para todo el tiempo t. Sin embargo, siempre
necesitaremos una se
nal continua para actuar sobre el sistema (de tiempo continuo). Esta se
nal se obtiene usualmente a traves de un retentor, el cual genera una
se
nal constante por tramos, que mantiene el u
ltimo valor especificado hasta que se
define el siguiente. Este tipo de retentor se denomina retentor de orden cero 8 .
Es importante considerar que existen tambien otras formas de generar la se
nal de
actuacion continua necesaria.
Ademas de la se
nal de actuacion, es necesario medir digitalmente las variables
que nos interesan de un sistema en los instantes de tiempo especficos que se requiera.
Es decir, debemos muestrear las se
nales de salida.
En la Figura 9.7 se describe el proceso de discretizacion de un sistema continuo. Si suponemos un muestreo periodico, con periodo , nos interesa el valor de
las variables solo en los instantes k. En los desarrollos posteriores, iremos gradualmente omitiendo del argumento de las se
nales, usando u(k) = u[t] para la
entrada, y(k) = y[t] para la salida, y x(k) = x[t] para el estado del sistema.
Retentor
u[k]
(Hold)
uS (t)
Sistema de
Tiempo Continuo
Muestreo
y(t)
(Sample)
y[k]
k0 +
eA(k0 + ) B u( )d
(9.4.9)
k0
en ingl
es
Order Hold o ZOH, en ingl
es
Section 9.4.
227
Z
x(k0 + ) = e
x(k0 ) +
eA d B u(k0 )
(9.4.10)
(9.4.11)
(9.4.12)
(9.4.13)
Donde
Z
Ad = e
Bd =
eA d B
Cd = C ;
Dd = D
(9.4.14)
Ad = eA = L1 (sI A)1 t=
(9.4.15)
0
1
0
x 1 (t)
x1 (t)
=
+
(9.4.16)
1 f (t)
K
D
x 2 (t)
x2 (t)
M
M
M
donde f (t) es la fuerza externa, y donde podemos escoger como salida del sistema
ya sea la posici
on de la masa, x1 (t), o su velocidad, x2 (t).
Para simplificar las expresiones, supongamos algunos valores para los par
ametros
del sistema. Se fija la masa M = 1 [kg], la constante de roce viscoso D = 1, 2 [Ns/m]
y la constante del resorte K = 0, 32 [N/m].
La matriz Ad se obtiene usando (9.4.15), aplicando transformada de Laplace
inversa
228
Representaci
on de sistemas en variables de estado.
1 #
1
s + 1.2
"
1
Ad = L
s
0, 32
Captulo 9
t=
2e0,4 e0,8
2.5(e0,4 e0,8 )
=
0, 8(e0,4 e0,8 ) e0,4 + 2e0,8
(9.4.17)
0,4
0,8
6.25e
+ 3.125e
+ 3.125
Bd =
(9.4.18)
2.5(e0,4 e0,8 )
Z
2e0,4 e0,8
0, 8(e0,4 e0,8 )
9.4.3
(9.4.19)
(9.4.20)
x[t] = Ad
(tto )
xo +
t to
(9.4.21)
i=0
(9.4.22)
Section 9.4.
229
En consecuencia,
x[to + 2] = Ad x[to + 1] + Bd u[to + 1]
(9.4.23)
(9.4.24)
(9.4.25)
`1
X
Ad `1+i Bd u[to + i]
` 0
(9.4.26)
(9.4.27)
i=0
Este u
ltima ecuacion coincide con la ecuacion (9.4.21) al hacer ` = t to .
222
Con el resultado del lema anterior, podemos encontrar la solucion a la ecuacion
(9.4.20), pues la salida del sistema queda determinada en todo momento por el
vector de estado
y[t] = Cd Ad
(tto )
(tto )1
xo + Cd
i=0
Din
amica del sistema
El vector de estado que se obtiene al resolver las ecuaciones del sistema, analogamente
al caso de tiempo continuo, tiene dos componentes: la componente no forzada,
xu [t], y la forzada, xf [t], donde
xu [t] = Ad (tto ) xo
(9.4.29)
(tto )1
xf [t] =
(9.4.30)
i=0
Para simplificar el analisis del modelo y su solucion, aprovecharemos la invarianza en el tiempo, considerando el caso en que to = 0 and u[t] = 0 t 0, i.e. el
estado tiene solo su parte no forzada. En este caso
x[t] = Ad t xo
nn
(9.4.31)
230
Representaci
on de sistemas en variables de estado.
xo =
n
X
` v`
; ` C
Captulo 9
(9.4.32)
`=1
Del algebra lineal9 , sabemos que los autovalores la matriz Ad t son `t , para
t N, con sus correspondientes autovectores v` . Si se aplica esto, se obtiene
x[t] = Ad t xo = Ad t
n
X
` v` =
`=1
x[t] =
n
X
n
X
`=1
` Ad t v`
| {z }
(9.4.33)
`t v`
` `t v`
(9.4.34)
`=1
Esta ecuacion pone de manifiesto que la componente no forzada del estado es una
combinacion lineal de modos naturales del sistema, {` t }, en que cada uno esta
asociado con un autovalor de Ad , que son las frecuencias naturales del sistema.
Esto nos indica que, al igual que en el caso de los modelos de tiempo continuo, la
matriz Ad determina:
la estructura de la respuesta no forzada,
la estabilidad (o inestabilidad) del sistema, y
la velocidad de la respuesta.
Estructura de la respuesta no forzada
Cuando la entrada a un sistema es cero, el estado evoluciona como una combinacion
de modos naturales. Estos modos los cuales pertenecen a una clase definida de
funciones que ya hemos ya estudiado (ver subseccion 4.3.1 ) son las potencias de
los autovalores como se aprecia en la ecuacion (9.4.34), sean estos reales o complejos.
Estas funciones de tiempo discreto estan relacionadas con constantes, exponenciales
reales, sinusoides puras o moduladas por exponenciales, y otras funciones especiales
que aparecen cuando hay autovalores repetidos.
Para ilustrar estas ideas consideremos el sistema muestreado que vimos en el
Ejemplo 9.9. Si = 1, las matrices de la representacion de estado son:
Ad =
0, 8913 0, 5525
0, 1768 0, 2283
Bd =
0, 3397
0, 5525
(9.4.35)
ap
endice F
Section 9.4.
231
det(I Ad ) = det
0, 8913
0, 1768
0, 5525
0, 2283
= ( 0, 6703)( 0, 4493) = 0
(9.4.36)
(9.4.37)
(9.4.38)
donde C1 y C2 dependen solo del estado inicial. Podemos apreciar que cuando t
tiende a infinito, xu [t] se hace cero, ya que |1,2 | < 1. Ademas, estos autovalores son
n
umeros reales positivos, por tanto los modos naturales no son oscilatorios. Esto
es esperable pues en el Ejemplo 9.9 se eligieron los parametros de manera que el
sistema masa-resorte resulta sobre amortiguado.
Estructura de la respuesta forzada
Si se considera la ecuacion (9.4.21), cuando la condicion inicial es cero, el estado
solo exhibe su componente forzada. Sin embargo, esta incluye los modos naturales
ademas de otros modos forzados o particulares, los cuales dependen del tipo de
se
nal en la entrada u[t]. En general, los modos forzantes en la entrada tambien
aparecen en la salida del sistema, excepto en el caso que alguna de ellos coincida
con alguno un modo natural del sistema.
Estabilidad
La estabilidad de un sistema lineal, de tiempo discreto e invariante en el tiempo
tambien puede ser analizada a traves de la matriz Ad . Ya hemos establecido que
todas las variables del sistema se pueden expresar como funciones lineales del estado
y la entrada. Cuando la entrada u[t] es un vector acotado en el tiempo, entonces
las variables del sistema permaneceran acotadas si y solo si el estado esta acotado.
Tenemos entonces el siguiente resultado:
Teorema 9.2. Dado un sistema descrito en variables de estado por las ecuaciones
(9.4.19)-(9.4.20), donde Ad , Bd , Cd y Dd tienen elementos acotados. Entonces, el
estado del sistema estar
a acotado para toda entrada acotada si y s
olo si los autovalores de la matriz Ad se encuentran en el interior del disco unitario, i.e. |` | < 1 ; `.
Velocidad de respuesta y resonancia
Recordemos que los modos naturales de un sistema de tiempo discreto son las
potencias de los autovalores ` . Estos autovalores siempre pueden expresarse como
un n
umero complejo en su forma exponencial, por lo tanto, un modo natural puede
escribirse como:
t
(` )t = |` | ej` = |` |t ej` t
; donde ` = `
(9.4.39)
232
Representaci
on de sistemas en variables de estado.
Captulo 9
(9.4.40)
(9.4.41)
y[t] = Cd
t1
X
!
Ad
ti1
Bd
i=0
= (1 ` )
t1
X
i=0
= 1 `t
!
`ti1
= (1 ` )`t1
(9.4.42)
1 `t
1 `1
(9.4.43)
(9.4.44)
La salida, y[t] = yh [t] + yp [t] se muestra en la Figura 9.8, para diferentes valores
del u
nico autovalor ` . El transiente est
a dado por yh [t] = `t , mientras que la
respuesta estacionaria es yp [t] = 1.
En la ecuacion (9.4.39) apreciamos que los autovalores de un sistema determinan
la amortiguacion de su respuesta transiente, sin embargo, tambien determinan su
frecuencia de oscilacion (cuando los autovalores tienen parte imaginaria no nula).
El problema que puede surgir cuando existen estos modos resonantes es el mismo
que se menciono en el caso de sistemas de tiempo continuo: cuando la entrada el
sistema contiene una sinusoide u otra se
nal con energa en la banda de frecuencias
cercana a la frecuencia de oscilacion natural del sistema. A pesar que la salida
del sistema permanece acotada, ella puede alcanzar amplitudes demasiado grandes
para el sistema fsico..
Section 9.4.
233
y[k]
0.8
0.6
= 0.2
= 0.6
= 0.8
0.4
0.2
0
5
6
tiempo discreto k
10
1.2796 0, 81873
1
x[t + 1] =
x[t] +
u[t]
1
0
0
(9.4.45)
(9.4.46)
(9.4.47)
t
1,2
= 0, 9048t ej 4 t = 0, 9048t cos 4 t j sin 4 t
(9.4.48)
; en que ` = e`
(9.4.49)
234
Representaci
on de sistemas en variables de estado.
Captulo 9
5
y[k]
u[k]
10
15
20
25
tiempo discreto k
30
35
40
10
15
20
25
tiempo discreto k
30
35
40
3
y[k]
u[k]
2
1
0
1
2
3
Demostraci
on
Si se observa la ecuacion (9.4.15), suponiendo que la matriz del sistema de tiempo
continuo A ha sido diagonalizada, tenemos que
Ad = ediag{1 ,...,n } = diag{e1 , . . . , en }
(9.4.50)
(9.4.51)
222
En la Figura 9.10 se muestra la respuesta del sistema muestreado del Ejemplo
9.9, considerando x1 [t] como la salida del sistema, cuando inicialmente xo = [1 0]T ,
para diferentes valores de . Se debe notar que el eje horizontal corresponde a los
instantes discretos t, por tanto los instantes de tiempo reales son k [seg.]
En base a lo anterior se puede conclur que un aspecto fundamental que se debe
considerar cuando se muestrea un sistema de tiempo continuo es la eleccion del
perodo de muestreo, de manera que sea los suficientemente peque
no para reflejar
fielmente las se
nales que se muestrean. Para ejemplificar una mala eleccion de ,
supongamos una se
nal f (t) = A sin(o t) que es muestreada cada segundos, con
= 2`/, ` N. Entonces, la se
nal discreta resultante es f [t] = 0, t Z, es
decir, una constante.
Section 9.4.
235
x1[k]
0.5
8
10
12
Tiempo de muestreo =1
14
16
18
20
8
10
12
Tiempo de muestreo =2
14
16
18
20
14
16
18
20
x1[k]
0.5
x1[k]
0.5
10
12
tiempo discreto k
Heat Source
y(t)
Temperature Sensor
flow direction
236
Representaci
on de sistemas en variables de estado.
Captulo 9
transferencia:
Y (s)
e s K
= H(s) =
(9.4.52)
U (s)
s+
Donde U (s) e Y (s) son las transformadas de Laplace de u(t) e y(t) respectivamente.
Supongamos luego que las se
nales de entrada y salida son muestreadas cada
[s]. El retardo , tambien en segundos, es funci
on de la velocidad del flujo y podemos
suponer, por simplicidad, que es un m
ultiplo del intervalo de muestreo , i.e.,
= m, m Z+ . Este retardo se convierte en un factor z m en el denominador
de la funci
on de transferencia en el dominio de la transformada Zeta. Es decir, el
retardo se convierte en un conjunto de m polos en el origen. Adem
as, en base a
la ecuaci
on (9.4.49), el autovalor del sistema continuo en s = se transforman
en un autovalor del sistema discreto en z = e . La funci
on de transferencia
resultante es
Y [z]
K 1 e
= H[z] =
U [z]
z m (z e )
Que puede expresarse mediante el modelo de estado discreto
(9.4.53)
x1 [t + 1] = x2 [t]
x2 [t + 1] = x3 [t]
..
..
.
.
xm [t + 1] = xm+1 [t]
xm+1 [t + 1] = e
xm+1 [t] +
(9.4.54)
(9.4.55)
(9.4.56)
K
(1
y[t] = x1 [t]
)u[t]
(9.4.57)
(9.4.58)
A
un m
as, podemos interpretar las variables de estado xm+1 [t], . . . , x1 [t] como la
temperatura en puntos equiespaciados entre el calefactor y el sensor de temperatura
(suponiendo un caudal de velocidad constante).
222
Cuando el retardo no es m
ultiplo exacto del perodo de muestreo , en la
funcion de transferencia aparece un polo y un cero adicionales. Mas detalles al
respecto pueden consultarse en el Captulo 4 o la literatura, por ejemplo, en [3].
9.4.4
Transformaciones de similaridad
Section 9.4.
9.4.5
237
Para los sistemas de tiempo discreto la relacion entre los modelos en variables de
estado y aquellos mediante funciones de transferencia es basicamente la misma que
en el caso de tiempo continuo (ver subseccion 9.3.4). Como ya se menciono, el
modelo en variables de estado de un sistema lineal, invariante en el tiempo es una
descripcion alternativa a la funcion de transferencia, aunque en algunas ocasiones
entrega mayor informacion sobre el sistema.
Para un sistema de tiempo discreto, lineal e invariante, con entrada u[t] Rm
y salida y[t] Rp , la funcion de transferencia, H[z] Cpm , esta definida por la
ecuacion
Y[z] = H[z]U[z];
where [H[z]]ij =
Yi [z]
Uj [z]
(9.4.59)
(9.4.60)
(9.4.61)
Cd (zI Ad )1 Bd + Dd = H[z]
(9.4.62)
que se reduce a
Cd Adj(zI Ad ) Bd + Dd det(zI Ad )
det(zI Ad )
(9.4.63)
238
Representaci
on de sistemas en variables de estado.
Captulo 9
(9.4.64)
2z 2 z + 1
1.8z + 0, 04
= 2
+2
(z 0, 8)(z 0, 6)
z 1.4z + 0, 48
(9.4.65)
0
1
0
Ad =
; Bd =
0, 48 1.4
1
Cd = 0, 04 1.8 ; Dd = 2
(9.4.66)
(9.4.67)
9.5
Sistema 1:
Sistema 2:
dx1 (t)
= A1 x1 (t) + B1 u1 (t)
dt
y1 (t) = C1 x1 (t) + D1 u1 (t)
dx2 (t)
= A2 x2 (t) + B2 u2 (t)
dt
y2 (t) = C2 x2 (t) + D2 u2 (t)
(9.5.1)
(9.5.2)
(9.5.3)
(9.5.4)
Section 9.5.
239
Conexi
on en serie
La interconexion de sistemas que se muestra en la Figura 9.12 se denomina conexion
en serie o en cascada. Para obtener el modelo de estado deseado, se observa en
primer lugar que y2 (t) = u1 (t). Ademas, el sistema completo tiene como entrada
u(t) = u2 (t), y como salida y(t) = y1 (t). Con esto se obtiene
x 1 (t)
A1 B1 C2 x1 (t)
B1 D 2
=
+
u(t)
x 2 (t)
0
A2
x2 (t)
B2
x1 (t)
y(t) = C1 D1 C2
+ D1 D2 u(t)
x2 (t)
u(t)
x2(t)
u2(t)
u1(t)
x1(t)
y1(t)
(9.5.5)
(9.5.6)
y(t)
y2(t)
Figura 9.12. Conexion en serie
Conexi
on en paralelo
La interconexion de sistemas que se muestra en la Figura 9.13 se denomina conexion
en paralelo. Para obtener el modelo de estado deseado se observa que la entrada
es u(t) = u1 (t) = u2 (t) y que la salida para el sistema en su conjunto es y(t) =
y1 (t) + y2 (t). As se obtiene
x1 (t)
B1
A1 0
x 1 (t)
+
u(t)
=
B2
x 2 (t)
0 A2 x2 (t)
x1 (t)
y(t) = C1 C2
+ D1 + D2 u(t)
x2 (t)
(9.5.7)
(9.5.8)
Conexi
on en realimentaci
on
La interconexion de sistemas que se muestra en la Figura 9.14 se denomina conexion
en realimentacion o feedback (con realimentacion negativa unitaria), y aparece normalmente asociada a la estructura basica del lazo de control realimentado, donde
S1 es la planta y S2 es el controlador. Para obtener el modelo en variables de
estado del sistema en su conjunto, podemos apreciar que la entrada al sistema
completo satisface la ecuacion u(t) = u2 (t) + y1 (t), y que la salida del sistema es
240
Representaci
on de sistemas en variables de estado.
u1(t)
Captulo 9
y1(t)
x1(t)
u(t)
y(t)
+
u2(t)
x2(t)
y2(t)
x 1 (t)
A1 B1 D2 C1
=
x 2 (t)
B2 C1
x1 (t)
y(t) = C1 0
x2 (t)
B1 C2
A2
x1 (t)
B1 D2
+
u(t)
x2 (t)
B2
(9.5.9)
(9.5.10)
u(t)
u2(t)
+
x2(t)
y2(t)
x1(t)
y1(t)
y(t)
u1(t)
Section 9.6.
9.6
9.6.1
241
Una cuestion muy importante que nos interesa en sistemas de control es cuando es
posible o no llevar el vector de estado a una punto especfico del espacio de estado,
a traves de las se
nales de entrada al sistema. Debemos recordar que el estado
de un sistema a menudo esta formado por variables internas de este, tales como
temperatura, presion, el nivel de alg
un estanque u otras, que en pueden ser crticas
e interesa mantenerlas controladas entre algunos valores especficos. En esta seccion
se revisan conceptos relacionados con este objetivo.
Controlabilidad
El concepto de controlabilidad se refiere a determinar si, a partir de una condici
on
inicial x0 , es posible o no llevar el vector de estado al origen, x = 0, en un tiempo
finito, usando la entrada u(t).
Ejemplo 9.14. Si observamos el modelo definido en (9.6.1), podemos apreciar que
la entrada u(t) no tiene efecto alguno sobre el estado x2 (t).
1
0 1 x1 (t)
x 1 (t)
u(t)
+
=
0
0 0 x2 (t)
x 2 (t)
(9.6.1)
Dado un estado inicial [x1 (0), x2 (0)]T , la entrada u(t) puede ser elegida para
llevar x1 (t) a cero, mientras que x2 (t) no sufre ning
un cambio. Diremos que este
sistema no es completamente controlable.
Formalmente, tenemos la siguiente definicion:
Definici
on 9.1. Un estado xo se dice controlable si existe un intervalo de tiempo
finito [0, T ] y una entrada {u(t), t [0, T ]} tal que x(T ) = 0. Si todos los estados
son controlables, entonces se dice que el sistema es completamente controlable.
Alcanzabilidad
Un concepto relacionado con la controlabilidad es la alcanzabilidad, usado en
ocasiones para sistemas de tiempo discreto. Formalmente se define como:
Definici
on 9.2. Un estado x 6= 0 se dice alcanzable, desde el origen, si dado
x(0) = 0, existe un intervalo de tiempo finito [0, T ] y una entrada {u(t), t [0, T ]}
tal que x(T ) = x. Si todos los estados del sistema son alcanzables se dice que el
sistema es completamente alcanzable.
Para sistemas de tiempo continuo, lineales e invariantes, no hay distincion entre
completa controlabilidad y alcanzabilidad. Sin embargo, el ejemplo siguiente ilustra
una diferencia entre estas propiedades para sistemas de tiempo discreto.
242
Representaci
on de sistemas en variables de estado.
Captulo 9
x[t + 1] =
0, 5
1
x[t]
0, 25 0, 5
|
{z
}
= x[t] =
0, 5
0, 25
1
0, 5
x[0]
(9.6.2)
Ad
x(t)
= Ax(t) + Bu(t)
y(t) = Cx(t) + Du(t)
(9.6.3)
(9.6.4)
AB
A2 B . . .
An1 B
(9.6.5)
0 1
1
A=
;
B=
(9.6.6)
0 0
0
La matriz de controlabilidad del sistema es
1 0
c [A, B] = [B, AB] =
0 0
(9.6.7)
Section 9.6.
243
(9.6.8)
iR1(t)
Op.Amp.
v+ (t)
v (t)
R3
C1
vi (t)
C3
R2
vC3(t)
vo (t)
iC1 = C1
d
(vi v+ );
dt
iR1 =
vi v+
;
R1
iR2 =
v+
;
R2
(9.6.9)
244
Representaci
on de sistemas en variables de estado.
diR1 (t)
(R1 + R2 )
1
=
iR1 (t) +
vi (t)
dt
C1 R1 R2
C1 R1 R2
v+ (t) = R1 iR1 (t) + vi (t)
Captulo 9
(9.6.10)
(9.6.11)
(9.6.12)
(9.6.13)
1
(R1 + R2 )
diR1 (t)
0
dt C1 R1 R2
iR1 (t)
C1 R1 R2
dv (t) =
vi (t)
1
R1
1 vC3 (t) +
C3
C3 R3
R 3 C3
R3 C3
dt
iR1 (t)
vo (t) = 0 1
vC3 (t)
(9.6.14)
(9.6.15)
c [A, B] = B
1
R1 R2 C1
AB =
1
R3 C3
(R1 + R2 )
(R1 R2 C1 )2
(R2 C1 + R3 C3 )
(R3 C3 )2 R2 C1
(9.6.16)
y
det (c [A, B]) =
R2
(R1 C1 + R3 C3 )
(R1 R2 R3 C1 C2 )2
(9.6.17)
1
1
s+
Vo (s) V+ (s)
Vo (s)
R1 C1
R3 C3
=
=
(9.6.18)
1
R1 + R2
Vi (s)
V (s) Vi (s)
s+
s+
R3 C3
R1 R2 C1
Section 9.6.
245
J(u) =
u(t)T u(t)dt
ku(t)k dt =
(9.6.19)
(9.6.20)
donde
Z
P=
eAt BBT eA t dt
(9.6.21)
n
X
i vi P1 =
i=1
n
X
1
i vi
(9.6.22)
i=1
n
X
i vi
(9.6.23)
i=1
10 Note que P es una matriz sim
etrica, por lo tanto sus n autovalores son reales y no repetidos,
y sus autovectores son ortogonales
246
Representaci
on de sistemas en variables de estado.
Captulo 9
xT0 P1 x0
n
X
i 1
i
(9.6.24)
i=1
(9.6.25)
Ad t Bd Bd T (Ad T )t
(9.6.26)
Ad Pd Ad T Pd + Bd Bd T = 0
(9.6.27)
Pd =
t=0
el que satisface
C1 = 0.9[mF ];
C3 = 1[F ]
(9.6.28)
que hemos utilizado unidades especiales, donde mF corresponde a 103 [F] y K a 103
[]. Esto hace que el tiempo sea medido en segundos, la corriente en mili-Amp`
eres y la tensi
on,
en Volts.
Section 9.6.
247
20
10
iR1 (t)
9
0
i R1 (t)
=
+ 9 vi (t)
1 1 vC3 (t)
1
v C3 (t)
iR1 (t)
vo (t) = 0 1
vC3 (t)
(9.6.29)
(9.6.30)
En este caso, algunos estados, es decir ciertas combinaciones de valores de valores para iR1 y vC3 , son m
as dificiles de alcanzar que otros. Para verificar esto
podemos calcular el gramiano de controlabilidad definido en (9.6.21), resolviendo:
0 = AP + PAT + BBT
20
p11 p12
p
9
0
0=
+ 11
p21
1 1 p21 p22
lo cual lleva a
0.2778 0.2586
P=
0.2586 0.2414
p12
p22
20
9
0
1
+
1
10
9
(9.6.31)
= 10
10
(9.6.32)
1.4616 1.5660
1.5660 1.6820
(9.6.33)
(9.6.34)
(9.6.35)
s + 1 + 91
Vo (s)
1
=
Vi (s)
(s + 1)
s + 20
9
(9.6.36)
248
Representaci
on de sistemas en variables de estado.
Captulo 9
Descomposici
on can
onica y estabilizabilidad
En el caso que un sistema no sea completamente controlable, este puede decomponerse un subsistema controlable y uno completamente incontrolable de la siguiente
forma
Lema 9.6. Considere un sistema para el cual rank{c [A, B]} = t < n, entonces
existe una transformaci
on de similaridad T tal que x = T1 x,
A = T1 AT;
B = T1 B
(9.6.37)
y A, B tiene la forma
Ac
A=
0
A12
;
Anc
Bc
B=
0
(9.6.38)
x c
Ac
=
x nc
0
y = Cc
A12
xc
Bc
+
u
0
Anc xnc
xc
+ Du
Cnc
xnc
(9.6.39)
(9.6.40)
(9.6.41)
Section 9.6.
249
Forma can
onica controlable
Lema 9.7. Considere un modelo de estado completamente controlable para un sistema SISO. Entonces, existe una transformaci
on de similaridad tal que el modelo
de estado se puede expresar en la forma can
onica controlable:
0 0 ... 0
0
1
1 0 . . . 0
0
2
(9.6.42)
A0 = 0 1 . . . 0
B0 = 0
.. .. . .
..
..
..
. .
.
. .
.
0
...
n1
n1
1
A00 = 0
..
.
0
n2
0
1
..
.
...
...
...
..
.
1
0
0
..
.
...
0
0
..
.
0
1
0
B00 = 0
..
.
0
(9.6.43)
donde
n + n1 n1 + + 1 + 0 = det(I A) es el polinomio caracterstico de
A.
222
9.6.2
250
Representaci
on de sistemas en variables de estado.
x 1 (t)
1
=
x 2 (t)
1
0
x1 (t)
1 x2 (t)
y(t) = 1
x1 (t)
0
x2 (t)
Captulo 9
(9.6.44)
Podemos apreciar que y(t) queda determinada por x1 (t), mientras que la otra
variable de estado x2 (t) no tiene influencia alguna sobre la salida. Por tanto el
sistema no es completamente observable.
Se puede formalizar la definicion de observabilidad de la siguiente forma:
Definici
on 9.3. El estado xo 6= 0 se dice no observable si dado x(0) = xo , y
u(t) = 0 para t 0, entonces y(t) = 0 para t 0, i.e., no se aprecia efecto alguno
de xo sobre la salida del sistema.
El sistema se dice completamente observable si no existe estado inicial, diferente de cero, que sea no observable.
Reconstructibilidad
Existe otro concepto relacionado estrechamente al de la observabilidad, que se denomina reconstructibilidad. Este se refiere a lo qye se puede decir de x(K),
habiendo observado valores pasados de la salida y[t], durante 0 t K.
Para sistemas de tiempo continuo, lineales e invariantes, no es necesario hacer distincion entre observabilidad y reconstructibilidad. Sin embargo, el siguiente
ejemplo ilustra que para sistemas de tiempo discreto, estos conceptos son diferentes.
Ejemplo 9.20. Considere el modelo en espacio de estado
x[t + 1] = 0
y[t] = 0
x[0] = xo
(9.6.45)
(9.6.46)
x(t)
= Ax(t) + Bu(t)
(9.6.47)
(9.6.48)
Section 9.6.
251
C
CA
..
.
o [A, C] =
n1
CA
(9.6.49)
3
A=
1
2
;
0
1
B=
;
0
C= 1
(9.6.50)
o [A, C] =
C
1
=
CA
4
1
2
(9.6.51)
1
A=
1
0
;
1
C= 1
(9.6.52)
o [A, C] =
1 0
1 0
(9.6.53)
252
Representaci
on de sistemas en variables de estado.
Captulo 9
P
erdida de observabilidad
La falta de observabilidad de un sistema puede deberse a caractersticas propias de
su estructura. Sin embargo, tambien es posible que la observabilidad de un modelo
se vea afectada por valores numericos particulares en algunos de sus parametros,
de manera analoga a lo que sucede con la controlabilidad, tal como se analizo en
la subseccion 9.6.1. Es esperable que los parametros afecten la completa observabilidad de un modelo de una manera similar. Para esto se propone el siguiente
ejemplo, que es el dual del Ejemplo 9.17 en la pagina 243.
Ejemplo 9.23. Consideremos el circuito electr
onico de la Figura 9.16, que es el
mismo de la Figura 9.15, donde se han intercambiado las redes electricas a la derecha
e izquierda del amplificador operacional. Por tanto, podemos utilizar ecuaciones
similares para obtener un modelo de estado del sistema. Como variables de estado
se han escogido x1 (t) = vC3 (t) y x2 (t) = iR1 (t).
Op.Amp.
R3
v+ (t)
iR1(t)
+
R1
v (t)
vi (t)
vC3(t)
C3
C1
R2
vo (t)
(9.6.54)
(9.6.55)
(9.6.56)
(9.6.57)
El amplificado operacional, conectado como un seguidor de voltaje, asegura (idealmente) que v+ (t) = v (t), por tanto podemos combinar los modeloes de estado dados
por las ecuaciones (9.6.54) a (9.6.57):
Section 9.6.
253
1
dvC3 (t)
R C
dt =
3 3
di (t)
1
R1
dt
C1 R1 R2
vo (t) = 1
1
0
vC3 (t)
+ R3 C3 vi (t)
(R1 + R2 )
iR1 (t)
0
C1 R 1 R 2
v (t)
C3
R1
iR1 (t)
(9.6.58)
(9.6.59)
La matriz de observabilidad es
C
=
c [C, A] =
CA
1
1
1
R3 C3
R2 C1
R1
R1 + R2
(9.6.60)
R2 C1
1
(R1 C1 + R3 C3 )
R3 C3 C1
(9.6.61)
1
1
s+
Vo (s)
V+ (s) Vo (s)
R1 C1
R
C3
3
=
=
R1 + R2
1
Vi (s)
Vi (s) V (s)
s+
s+
R1 R2 C1
R3 C3
(9.6.62)
La condici
on R1 C1 = R3 C3 produce una perdida de la completa observabilidad,
que se traduce en una cancelaci
on de un polo con un cero en la funci
on de
transferencia, i.e., el polo del lado izquierdo del circuito en la Figure 9.16 se cancela
con el cero del lado derecho. Existe un diferencia entre las funciones de transferencia
en (9.6.62) y (9.6.18). El resultado final es el mismo, pero el orden de la cancelaci
on
es diferentes en cada caso. La cancelaci
on cero-polo se relaciona con la perdida
de completa observabilidad y la cancelaci
on polo-cero se relaciona con la perdida
de completa controlabilidad. Estos conceptos ser
an discutidos en mayor detalle en
la secci
on 9.6.3.
254
Representaci
on de sistemas en variables de estado.
Captulo 9
Gramiano de observabilidad
El test de observabilidad planteado en el Teorema 9.4 en la pagina 250 permite
determinar si un sistema es o no es completamente observable. sin embargo, en
ocasiones puede ser de interes determinar el grado de observabilidad para un modelo
en particular. Para esto, para sistemas estables, podemos cuantificarla energa en
la se
nal de salida y(t), cuando no hay entrada (u(t) = 0) y el estado es x(0) = x0
at t = 0
Z
Z
E(x0 ) =
ky(t)k2 dt =
y(t)T y(t)dt
(9.6.63)
0
E(xo ) =
ky(t)k2 dt = xo T Qxo
(9.6.64)
donde
Z
Q=
eA t CT C eAt dt
(9.6.65)
La matriz Q se denomina gramiano de observabilidad, y cuantifica la observabilidad del vector de estado x(0). Si esta matriz es peque
na, significa que tenemos
una debil contribucion del estado inicial x0 en la energa de la salida y(t). De
hecho, podemos apreciar el efecto de cada una de las variables de estado haciendo,
por ejemplo, xo = [0, . . . , 0, 1, 0, . . . , 0]T .
Note que la existencia de la integral definida en (9.6.65) queda garantizada pues
el sistema es estable, lo que asegura que los autovalores de la matriz A tienen parte
real negativa.
Ademas, el gramiano de observabilidad Q definido en (9.6.65) satisface la ecuacion
de Lyapunov
AT Q + QA + CT C = 0
(9.6.66)
(Ad T )t Cd T Cd Ad t
(9.6.67)
Ad T Qd Ad Qd + Cd T Cd = 0
(9.6.68)
Qd =
t=0
Which satisfies
Section 9.6.
255
Ejemplo 9.24. Consideramos el modelo del Ejemplo 9.23, descrito por el modelo
de estado (9.6.58)-(9.6.59), para apreciar la utilidad del gramiano de observabilidad
(9.6.65), en especial cuando el modelo est
a pr
oximo a perder la completa observabilidad, i.e., cuando R1 C1 R3 C3 .
Suponiendo los mismos valores para las componentes que en el Ejemplo 9.18 en
la p
agina 246, para R1 , R2 , R3 , C1 y C3 tenemos:
v C3 (t)
1
0
vC3 (t)
1
+
v (t)
=
20
10
i
(t)
0 i
i R1 (t)
R1
9
9
vC3 (t)
1
1
vo (t) =
iR1 (t)
(9.6.69)
(9.6.70)
10
1
q11 q12
q
9
0=
+ 11
q
q
q21
0 20
21
22
9
q12
q22
1
10
9
(9.6.71)
0
1
1
+
1
20
9
(9.6.72)
, lo cual arroja
0.2414
Q=
0.2328
0.2328
0.2250
(9.6.73)
(9.6.74)
(9.6.75)
s + 1 + 19
Vo (s)
1
=
(9.6.76)
20
Vi (s)
(s + 1)
s+ 9
donde hay una cuasi-cancelaci
on entre un polo y un cero.
256
Representaci
on de sistemas en variables de estado.
Captulo 9
Principio de Dualidad
Podemos notar un paralelo notable entre los resultados del Teorema 9.3 en la
pagina 242 y del Teorema 9.4 en la pagina 250, y tambien en las definiciones de los
gramianos (9.6.21) y (9.6.65). Esto se conoce como el principio de dualidad , y
puede formalizarse de la siguiente forma:
Teorema 9.5 (Dualidad). Considere el modelo en variables de estado descrito
por la 4-tupla (A, B, C, D). Entonces el sistema es completamente controlable si y
solo si el sistema dual (AT , CT , BT , DT ) es completamente observable.
Descomposici
on can
onica y detectabilidad
El teorema anterior puede ser a menudo utilizado para extender un resultado sobre
controlabilidad a un resultado sobre la observabilidad y vice versa. El dual del
Lema 9.6 en la pagina 248 es :
Lema 9.9. Si rango{o [A, C]} = k < n, existe una transformaci
on de similaridad
T tal que x = T1 x, A = T1 AT, C = CT, entonces C y A toman la forma
Ao
0
A=
C = Co 0
(9.6.77)
A21 Ano
donde Ao tiene dimensi
on k y el par (Co , Ao ) is completamente observable.
Este resultado tiene una relevanacia similar al de la propiedad de controlabilidad
y su descomposicion asociada. Para apreciar esto, aplicamos el dual del Lema 9.6
en la pagina 248 para expresar el estado (transformado) y las ecuaciones de salida
en la forma particionada que se muestra a continuacion:
x o (t)
Ao
=
x no (t)
A21
y(t) = Co
0
xo (t)
Bo
+
u(t)
Ano xno (t)
Bno
xo (t)
+ Du(t)
0
xno (t)
(9.6.78)
(9.6.79)
Section 9.6.
257
(9.6.80)
n1 1
bn1
..
..
..
.
.
.
x(t)
= .
(9.6.81)
x(t) + . u(t)
.
..
1
.
0
0
0
b0
9.6.3
Descomposici
on Can
onica
Podemos analizar a
un mas la estructura de los sistemas dinamicos, considerando
aquellos que son solo parcialmente observables y controlables. Estos pueden ser
separados en subsistemas completamente controlables y completamente observables.
Los dos resultados de los Lemas 9.6 y 9.9 pueden combinarse para aquellos
sistemas que no son ni completamente observables ni completamente controlables.
Podemos apreciar esto en el siguiente Teorema.
Teorema 9.6 (Descomposici
on Can
onica). Considere un sistema descrito por
un modelo en espacio de estado. Entonces, siempre existe una transformaci
on de
similaridad T tal que el modelo transformado, con su nuevo vector de estado x =
T1 x toma la forma:
Aco
A21
A=
0
0
0
A22
0
0
A13
A23
A33
A34
0
A24
;
0
A44
B1
B2
B=
0 ;
0
C = C1
0 C2
(9.6.83)
258
Representaci
on de sistemas en variables de estado.
Captulo 9
donde
i) El subsistema [Aco , B1 , C1 ] es tanto completamente controlable como comletamente observable, y tiene la misma funci
on de transferencia que el sistema
original (ver Lema 9.11).
ii) El subsistema
Aco
A21
0
B1
,
, C1
A22
B2
(9.6.84)
es completamente controlable.
iii) El subsistema
Aco
0
A13
B1
,
, C1
0
A33
C2
(9.6.85)
es completamente observable.
222
La descomposicon canonica descrito en el Teorema 9.6 tiene una importante
consecuencia para la funcion de transferencia del modelo, ya que esta solo refleja el
subespacio completamente observable y completamente controlable.
Lema 9.11. Considere la matriz de transferencia H(s) dada por
Y(s) = H(s)U(s)
(9.6.86)
(9.6.87)
Entonces
Autovalores
Autovalores
Autovalores
Autovalores
Autovalores
del
del
del
del
del
sistema
subsistema
subsistema
subsistema
subsistema
controlable y observable
controlable pero no observable
no controlable pero observable
no controlable y no observable
(9.6.88)
Section 9.7.
259
Observadores
9.7
9.7.1
Observadores
Conceptos b
asicos
Cuando las variables de estado de un sistema deben ser medidas para monitoreo,
control u otros propositos, existen importantes aspectos tanto tecnicos como economicos
a considerar. Un observador es un estimador de las variables de estado en base a un
modelo del sistema, mediciones de la salida de la planta y(t) y de su entrada u(t).
Este problema es una generalizacion de como medir indirectamente las variables de
un sistema usando un modelo de un sistema y otras variables mas faciles de medir.
9.7.2
Din
amica del observador
Supongamos que un sistema tiene un modelo de estado dado por las ecuaciones
(9.3.26)-(9.3.27) con D = 0 (sistema estrictamente propio). Entonces, la estructura
general de un observador clasico para el estado del sistema es la que se muestra en
la Figura 9.17, donde la matriz J es la ganancia del observador.
u(t)
y(t)
Sistema
(sI-A)
+
-1
^ (t)
x
260
Representaci
on de sistemas en variables de estado.
Captulo 9
d
x(t)
= A
x(t) + Bu(t) + J(y(t) C
x(t))
(9.7.1)
dt
Una pregunta natural es: si conocemos el modelo exacto del sistema y su entrada,
porque es necesario entonces usar la salida?. La respuesta es que se requiere usar
la medici
on de la salida porque no conocemos el estado inicial del sistema.
Esto se puede apreciar a partir de la ecuacion para el error de estimacion del estado
x
(t) = x(t)
x(t). La ecuacion se obtiene restando (9.7.1) de (9.3.26). Esto conduce
a
d
x(t)
= (A JC)
x(t)
(9.7.2)
dt
En esta ecuacion observamos que el error de estimacion converge a cero, en
caso de ser inicialmente distinto de cero, si y solo si todos los autovalores de la
matriz A JC tienen parte real negativa, i.e., si el polinomio del observador
E(s) = det(sI A + JC) es estrictamente Hurwitz.
Discusi
on
La ecuacion (9.7.2) es valida solo si el modelo es un representacion exacta del
sistema bajo analisis. Errores de modelado tendran consecuencias sobre el
observador, tales como error de estimacion diferente de cero.
Si el par (A, C) es completamente observable, entonces los autovalores de
A JC pueden situarse arbitrariamente sobre region de estabilidad del plano
complejo. Por tanto, la velocidad de convergencia de la estimacion es consecuencia de una eleccion en el dise
no del observador. Estos autovalores se
conocen como los polos del observador.
Si el par (A, C) es detectable, entonces el observador asegura error estacionario cero asitoticamente, a pesar que no todos los autovalores de la matriz
A JC pueden situarse a gusto.
Si el sistema no es completamente observable, y el subespacio no observable
contiene modos inestables, entonces el error de estimacion no converge.
Para ilustrar el uso de un observador se retoma el Ejemplo 9.8.
Ejemplo 9.25. Supongamos que queremos para el modelo de estado del Ejemplo
9.8, queremos que los polos del observador se ubiquen en s = 4, s = 6 y s = 8.
Entonces debemos calcular la ganancia del observador J, por ejemplo, usando alg
un
software como Matlab. De esta forma se obtiene
J = 4.5247
7.5617
4.1543
(9.7.3)
Section 9.7.
261
Observadores
10
8
6
4
2
0
0
0.2
0.4
0.6
0.8
1.2
1.4
1.6
1.8
Tiempo [s]
1
I
1 1 1
r1
D2
K2
r2
I2
2 2
2
3
3
I3
262
Representaci
on de sistemas en variables de estado.
Captulo 9
(9.7.5)
(9.7.6)
x3 (t) = 3 (t)
(9.7.7)
2
r1 r2 K2
r1 D2 + r22 D1
2
2
r 2 I2 + r 2 I1
r
1
2
1 I2 + r2 I1
dx(t)
r1
=
0
dt
r2
K2
0
I3
{z
|
r22
0
r2 I + r2 I
1 2
2 1
(t)
1 x(t) +
0
0
0
|
{z
}
}
(9.7.11)
1 (t) = 1 0 0 x(t)
| {z }
(9.7.12)
N ms
r1 = 0, 25[m]; r2 = r3 = 0, 50[m]; D1 = D2 = 10
rad
2
Nm
N ms
N ms2
K2 = 30
; I1 = 2.39
; I2 = I3 = 38.29
rad
rad
rad
(9.7.13)
(9.7.14)
Section 9.7.
263
Observadores
1.045 1.254
0
A = 0, 5
0
0, 784
0
1 ;
0
0, 084
B= 0
0
(9.7.15)
A continuaci
on utilizamos el test presentado en 9.6.2, con lo que se obtiene la
matriz de observabilidad
C
1.0000
0
0
0
o = CA = 1.0450 1.2540
(9.7.16)
2
0, 4650
1.3104 1.2540
CA
A partir de esta expresi
on podemos observar que la matriz o tiene rango completo, por tanto el sistema es completamente observable desde la salida 1 (t).
Una vez que tenemos la estimaci
on del vector de estado, x
(t), la estimaci
on del
estado
3 (t) para 3 , se obtiene a partir de
3 (t) = [0 0 1] x
(t)
| {z }
(9.7.17)
K3 T
donde
3 (t) puede obtenerse a partir de (9.7.1). Esto da por resultado
d
3 (t)
d
x(t)
= K3 T
= K3 T (A JC)
x(t) + K3 T B (t) + K3 T J1 (t)
| {z }
dt
dt
(9.7.18)
9.7.3
En los analisis teoricos previos hemos asumido que tanto la entrada al sistema,
u(t), como su salida, y(t), estan disponibles sin error. En general, suponer esto
es correcto respecto a la entrada, ya que el mismo dispositivo que genera u(t) es
normalmente usado para estimar el estado. Sin embargo, este supuesto no es valido
para el caso de la salida y(t), ya que la medicion de esta variable sera siempre en
presencia de ruido. Para analizar el efecto de este error, denotemos por ym (t) la
medicion con ruido, i.e., ym (t) = y(t) + v(t), donde v(t) es el ruido de medicion
aditivo. Por tanto, el error de medicion satisface la ecuacion
d
x(t)
= (A JC)
x(t) + Jv(t)
dt
(9.7.19)
X(s)
= (sI A + JC)1 x
(0) + (sI A + JC)1 JV (s)
(9.7.20)
264
Representaci
on de sistemas en variables de estado.
2 1
1
; B=
; C = 1 1 ; D = 0
A=
1 3
0, 5
Captulo 9
(9.7.21)
Supongamos que queremos estimar una variable del sistema z(t) = T x(t),
donde T = [1 1]. Entonces, una estimaci
on de esta variable es z(t), que se
obtiene como
z(t) = T x
(t)
(9.7.22)
(9.7.23)
A continuaci
on consideramos dos elecciones diferentes del polinomio del observador E(s). Estas son
E1 (s) = (s + 0, 5)(s + 0, 75)
(9.7.24)
(9.7.25)
(9.7.26)
Magnitud [dB]
20
|H2(j)|
0
20
|H1(j)|
40
60
1
10
10
10
Frecuencia [rad/s]
10
10
Section 9.7.
Observadores
265
A partir de la Figura 9.20 podemos concluir que para ruido de alta frecuencia,
el filtro m
as lento resulta tener mayor inmunidad al ruido que el r
apido.
222
Este ejemplo muestra el compromiso que existe entre la velocidad de convergencia del observador y su inmunidad al ruido. Una forma sistematica de encarar este
problema es usar la teora de filtro optimos, como los filtros de Kalman-Bucy. El
lector interesado puede consultar, por ejemplo,la referencia [1].
Captulo 10
MODELOS
10.1
Ideas generales
Dada una historia de datos del sistema (datos de entrada y salida, en tiempo
continuo o discreto), determinar un modelo matematico que pueda replicar en
la forma mas precisa posible (bajo alg
un criterio de optimalidad) la historia de
datos disponibles y otras historias de datos que se puedan obtener del mismo
sistema, para validar el modelo obtenido.
Note que exite un mecanismo generador de los datos, es decir, el sistema cuyo
comportamiento queremos modelar. Ademas la historia de datos del sistema debe
ser tal que permita observar los rasgos de interes del sistema. Por ejemplo, si el
sistema que deseamos modelar es una red RC, no nos servira recolectar datos del
sistema cuando las fuentes que alimentan la red son constantes, porque en ese caso
sera imposible calcular los parametros de cualquier modelo dinamico.
266
Section 10.2.
267
Otra idea que aparece en la definicion del problema es que la construccion del
mejor modelo tiene asociado un criterio de calidad optima.
En la determinacion de un modelo existen pues, tres elementos
1. La seleccion de una clase de modelos, M. Por ejemplo, una ecuacion diferencial
de cierto orden.
2. Un experimento que permite recolectar datos. Por ejemplo, el aplicar una excitacion de amplio espectro al sistema.
3. Un criterio de optimizacion que permite seleccionar uno de los miembros de la
clase elegida en base a los datos experimentales. Por ejemplo, el minimizar la
suma (o integral) de los errores cuadraticos.
La clase de modelos se elige, en primera instancia, usando citerios fenomenologicos.
Por ejemplo, si el comportamiento del sistema a modelar esta dominado por 3 componentes dinamicos, una clase razonable es el conjunto de las ecuaciones diferenciales de tercer orden.
En muchos casos, el experimento no puede ser dise
nado de acuerdo a las necesidades del analista, sino que se debe usar datos provenientes de la operacion normal
del sistema a modelar. Ademas, es com
un que se desee o necesite ir refinando el
modelo en forma recursiva (e incluso en tiempo real, es decir, se va refinando el
calculo a medida que se van obteniendo nuevos datos).
Tambien es crucial notar que el que se use un procedimiento de optimizacion solo
se garantiza, en el mejor de los casos, que se encontrara el modelo optimo dentro de
la clase elegida. Si el mecanismo generador de los datos no pertenece a la clase de
modelos elegida, como suele suceder, entonces siempre habra un error de modelado,
sin importar cuan informativo sea el experimento para recolectar datos.
Los metodos mas robustos que se conocen para construir modelos son aquellos
que usan un criterio de optimizacion cuadratica. En ellos concentraremos nuestra
atencion en lo que sigue.
10.2
Para motivar la discusion y el tratamiento teorico del tema, consideramos el siguiente ejemplo.
Ejemplo 10.1. Suponga que la clase de modelos elegida, M, est
a definida por
ym (t) = (u(t))3
(10.2.1)
268
Modelos
Captulo 10
tf
J() =
2
(y( ) (u( ))3 d
(10.2.2)
entonces
(10.2.3)
La minimizaci
on se realiza derivando J() respecto de y haciendo esa derivada
igual a cero. Esto lleva a
Z
tf
1 Z
(u( ))6 d
tf
y( )(u( ))3 d
(10.2.4)
1
(u( ))6 d
(10.2.5)
0
3
(t) = (u(t))
(10.2.6)
(t) = p(t)
y( )( ) d
(10.2.7)
dp(t)
d (p(t))
2
= (p(t)(t))
dt
dt
= ((t))
(10.2.8)
(10.2.9)
e(t)
donde e(t) es el error que se comete al predecir la salida y(t) usando el modelo y la
entrada observada de la planta.
Section 10.2.
269
y(t)
SISTEMA
e
(u(1))^3
e (t)
p (0)
\phi (t)
K
1/s
p (t)
1/s
alfa
alfa (t)
alfa (0)
Antes de empezar la simulacin, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p(0) y alfa(0) en los bloques de integracin correspondientes
(10.2.10)
270
Modelos
Captulo 10
son conocidos como regresores. Existen tres grandes lneas en la construccion del
vector de regresion:
En base a la entrada de la planta y la salida del modelo. Este enfoque es la
base de los llamados m
etodos de error de predicci
on, reconocidos por su
sigla inglesa PEM (prediction error methods).
En base a la entrada del modelo, la que resulta de medir la entrada a la planta2
y a la salida del modelo. Esta eleccion genera los metodos conocidos como de
errores en la variables
En base a la entrada de la planta y la salida de la planta. Esta eleccion es
la base del metodo clasico de estimaci
on por errores cuadr
aticos. Es
conocido por la sigla inglesa LSE (least squares errors). Ese el metodo mas
robusto y mas usado, y es el que usaremos en este texto. Distinguiremos esta
eleccion de las otras dos reemplazando m (t) por (t) en la derivacion de las
ecuaciones del metodo.
Por su parte, el vector Rp contiene los parametros 1 , 2 , . . . , p que distinguen cada elemento en M.
Note que la expresion es bastante general, ya que la u
nica restriccion es que el
modelo sea lineal en los parametros a estimar, y no necesariamente debe ser lineal
en los datos. Por ejemplo
p
ym (t) = a u(t) + b u(t) + c cos(u(t)) + d
(10.2.11)
Entonces, el modelo (10.2.11) puede ser puesto en la forma (10.2.10) con las
siguientes asociaciones
p
(t) = [ u(t) u(t) cos(u(t)) 1]T
(10.2.12)
= [a b c d ]T
(10.2.13)
Veremos ademas en una seccion siguiente que (10.2.10) puede describir sistemas
dinamicos.
Para modelar un sistema con entrada u(t) y salida y(t), como miembro de la
clase M, debemos encontrar un estimado optimo, , para de modo que se minimice
Z
J( ) =
tf
(y( ) ( )T )2 d
(10.2.14)
Section 10.2.
271
es el que arroja la prediccion con menor error cuadratico acumulado. Esto es equivalente a seleccionar el optimo .
La minimizacion de (10.2.14) se hace a traves del procedimiento tradicional:
derivando respecto de la incognita y luego haciendo esa derivada igual a cero. Como
se trata de la derivada de una funcion escalar respecto de un vector, la derivada
corresponde al gradiente . As el mejor estimado esta dado por
= arg minp J( )
(10.2.15)
tf
1 Z
( )T d
( )
(10.2.16)
tf
( )y( ) d
(10.2.17)
dP(t)
(t)
(t)T P(t)
= P(t)
dt
d(t)
(t)(y(t) (t)(t)) = P(t)
(t)e(t)
= P(t)
dt
3 Cuya
deducci
on escapa al marco de este texto.
(10.2.19)
(10.2.20)
272
Modelos
Captulo 10
Demostraci
on
Definamos previamente la matriz P(t) Rpp de la forma
Z
P(t) =
1
( )
( )T d
(10.2.21)
y la matriz
Z
1
Q(t) = P(t)
( )T d
( )
(10.2.22)
entonces
dP(t)Q(t)
dP(t)
dQ(t)
=0=
Q(t) + P(t)
dt
dt
dt
(10.2.23)
dP(t)
dQ(t)
(t)
(t)T P(t)
= P(t)
P(t) = P(t)
dt
dt
(10.2.24)
Esto lleva a
(10.2.25)
tf
( )y( ) d
(10.2.26)
(10.2.27)
(10.2.28)
(t)
Section 10.3.
10.3
273
hR
t
u( )d
0
T
= b0 a0
Rt
0
y( )d
iT
(10.3.3)
(10.3.4)
(10.3.5)
b0
+ a0
ym (t) +
u(t)
E()
E()
(10.3.6)
+ a0
b0
ym (t)
u(t)
ym (t) +
u(t) = (e0 a0 )
+ b0
E()
E()
E()
E()
(10.3.7)
274
Modelos
Captulo 10
(t) =
T
y(t)
E()
T
e0 a0
u(t)
E()
= b0
(10.3.8)
(10.3.9)
(10.3.10)
n1
(10.3.11)
B() = bn1
n
+ bn2
E() = + en1
n1
n2
+ . . . b0
+ . . . e0
(10.3.12)
A()
B()
ym +
u(t)
E()
E()
(10.3.13)
u(t) n2 u(t)
u(t) n1 y(t) n2 y(t)
(t) =
E()
E()
E()
E()
E()
ym (t) =
(10.3.14)
T
y(t)
E()
(10.3.15)
y el vector de parametros es
= bn1
bn2
b0
en1 an1
en2 an2
T
e0 a0
(10.3.16)
Ejemplo 10.3. Supongamos que la clase M es el conjunto de ecuaciones diferenciales de tercer orden, lineales y de coeficientes constantes, entonces
T
= b2 b1 b0 e2 a2 e1 a1 e0 a0
T
(10.3.17)
(10.3.18)
Section 10.4.
275
donde E() es cualquier polinomio de tercer grado cuyas races tenga parte real
menor que cero.
222
10.4
(10.4.1)
N
X
2
(y[`] (u[`])3
(10.4.2)
`=1
entonces
(10.4.3)
La minimizaci
on se realiza derivando J() respecto de y haciendo esa derivada
igual a cero. Esto lleva a
"
N
X
`=1
#1
(u[`])6
N
X
y[`](u[`])3
(10.4.4)
`=1
276
Modelos
Captulo 10
N
X
#1
6
(u[`])
(10.4.5)
`=1
3
[k] = (u[k])
(10.4.6)
[k] = p[k]
k
X
y[`][`]
(10.4.7)
`=1
p[k 1]
= p[k 1] p[k 1][k]2 p[k]
1 + p[k 1][k]2
(10.4.8)
[k] =
[k 1] + p[k][k] (y[k]
[k 1][k])
|
{z
}
(10.4.9)
e[k]
donde e[k] es el error que se comete al predecir la salida y[k] usando el modelo y la
entrada observada de la planta.
Las ecuaciones (10.4.8) y (10.4.9) permiten calcular
[k] en tiempo real, como
se puede verificar en la simulaci
on implementada en el esquema SIMULINK de la
Figura 10.2. En esa figura, el sistema a modelar, o mecanismo generador de datos
aparece enmascarado. El lector puede verificar, al observar e[k] en el oscilloscopio,
que ese sistema pertenece a la clase M.
Note adem
as que, para que este programa SIMULINK funcione se debe asignar
una condici
on distinta de cero a p[0] (en el bloque de retardo correspondiente). Se
invita al lector a observar el efecto de distintas elecciones para p[0]. En cambio, el
valor inicial
[0] puede ser cualquier valor, incluyendo cero.
222
Es importante repetir que, en el ejemplo precedente, se plantearon dos formas de
calcular un valor estimado para el parametro . En la primera, dada por la ecuacion
(10.4.4), se requiere conocer previamente un conjunto de datos en un lapso no cero.
En cambio, en la forma construida por las ecuaciones (10.4.8) y (10.4.9), el valor
estimado se va construyendo a medida que los datos se van obteniendo.
Formularemos a continuacion el metodo general sistemas de tiempo discreto.
La clase de modelos a usar, M, esta definida por
ym [k] = m [k]T
(10.4.10)
Section 10.4.
277
u[k]
y[k]
SISTEMA
p [0]
e [k]
z
p [k]
u(1)/(1+u(1)*u(2)^2)
(u(1))^3
\phi [k]
p
alfa [0]
1
z
alfa
alfa [k]
Antes de empezar la simulacin, defina el SISTEMA (haga un doble click en el bloque y edite) y asigne los
valores iniciales p[0] y alfa[0] en los bloques de retardo correspondientes
(10.4.13)
278
Modelos
Captulo 10
Veremos ademas en una seccion siguiente que (10.4.10) puede describir sistemas
dinamicos.
Para modelar un sistema con entrada u[k] y salida y[k], como miembro de la clase
M, debemos encontrar un estimado optimo, , para de modo que se minimice
J( ) =
N
X
(y[`] [`]T )2
(10.4.14)
(10.4.15)
J( ) =
X
dJ( )
= 2
[`](y[`] [`]T )
d
(10.4.16)
`=1
N
X
#1
T
[`]
[`]
`=1
N
X
[`]y[`]
(10.4.17)
`=1
HJ ( ) =
X
d 2 J( )
[`]T
=2
[`]
2
d
(10.4.18)
k=1
deducci
on escapa al marco de este texto.
Section 10.4.
279
[k]
[k]T P[k 1]
P[k 1]
T
[k]
1 + [k] P[k 1]
P[k] = P[k 1]
(10.4.19)
(10.4.20)
Demostraci
on
Definamos previamente la matriz P[k] Rpp de la forma
"
P[k] =
k
X
#1
T
[`]
[`]
(10.4.21)
`=1
y la matriz
1
Q[k] = P[k]
k
X
(10.4.22)
`=1
k
X
[`]y[`]
(10.4.23)
[`]y[`]
(10.4.24)
`=1
P[k 1]1[k 1] =
k1
X
`=1
lo cual lleva a
[`]y[`]
[k] = P[k]P[k 1]1[k 1] + P[k]
(10.4.25)
280
10.5
Modelos
Captulo 10
ym [k] + an1 ym [k 1] + . . . + a1 ym [k n + 1] + a0 ym [k n] =
bm u[k] + bm1 u[k 1] + . . . + b1 u[k m + 1] + b0 u[k m] (10.5.1)
Antes de desarrollar la metodologa general, examinaremos un ejemplo muy
simple, para adquirir perspectiva
Ejemplo 10.5. La clase M es elegida como en (10.5.1), con n = 1, es decir
ym [k] + a0 ym [k 1] = b0 u[k]
(10.5.2)
La primera opci
on para contruir la forma (10.4.10) en este caso es (note la
sustituci
on de ym [k] por y[k] en el vector [k])
T
[k] = u[k] ym [k 1]
T
= b0 a0
(10.5.3)
(10.5.4)
[k] = bm
bm1
...
(10.5.5)
. . . u[k m]
b0
an1
ym [k 1]
an2
. . . a0
ym [k 2]
...
ym [k n]
(10.5.6)
(10.5.7)
Apendice A
SERIES DE TAYLOR
A.1
Considere una funcion g(x), donde x R y sea xQ un valor arbitrario en R, tal que
g(x) es continua en x = xQ .
Suponga ademas que g(x) es infinitamente diferenciable en x = xQ , es decir,
todas las derivadas de g(x) en x = xQ son continuas.
Entonces la funcion g(x) se puede expandir en serie de potencias de (x xQ ),
es decir, admite la siguiente representacion en una serie de Taylor
d x
1 d 2 x
1 d 3 x
2
g(x) = g(xQ ) +
(x xQ ) +
(x xQ ) +
(x xQ )3 + . . .
dt Q
2! dt 2 Q
3! dt 3 Q
X
i=0
(A.1.1)
1 d i x
(x xQ )i
i! dt i Q
(A.1.2)
n
donde ddt nx Q denota la derivada n-esima de g respecto de x y evaluada en x = xQ .
A partir de esta expansion, podemos construir aproximaciones de primer, segundo, tercer orden, etc. truncando la serie despues de la potencia de primer, segundo,
tercer grado, etc., respectivamente. Por ejemplo, la aproximacion de primer orden
es
g1 (x) = k0 + k1 (x xQ );
k0 = g(xQ );
d g
k1 =
dx Q
(A.1.3)
dg
En esta figura m = k1 = dx
. Se observa que, en la medida que nos alejamos
Q
282
Series de Taylor
g(x)
Ap
endice A
g1 (x)
m
g(xQ )
xQ
Figura A.1. Aproximacion de primer orden para funcion no lineal de una variable.
A.2
g
g
1 2 g
g(x1Q , yQ ) +
(x1 x1Q )2 +
(x1 x1Q ) +
(x2 x2Q ) +
x1 Q
x2 Q
2 x21 Q
1 2 g
2 f
2
(x
x
)
+
(x1 x1Q )(x2 x2Q ) + . . . (A.2.1)
2
2Q
2 x2
x1 x2
2 Q
1 i+j g
(x1 x1Q )i (x2 x2Q )j
i!j! xi1 xj2
Q
(A.2.2)
En forma analoga al caso de una variable, podemos truncar esta serie para tener
aproximaciones de primer, segundo, tercer, etc. orden. Por ejemplo, la aproximacion de primer orden esta dada por
Section A.3.
283
El caso general
d g
k11 =
dx1 Q
d g
k12 =
dx2 Q
A.3
(A.2.3)
(A.2.4)
(A.2.5)
(A.2.6)
El caso general
X
1
ni g
i1 ,i2 ,...,in
i
i
i
1
2
n
i
!i
!
i
!
x
1
2
n
1
2
n
Q
=0
(A.3.1)
donde ni = i1 + i2 + . . . + in .
La aproximacion de primer orden, por truncamiento de la serie es entonces
g1 (x1 , x2 , . . . , xn ) = k0 +
n
X
(A.3.2)
i=1
d g
k1i =
dxi
(A.3.3)
(A.3.4)
(A.3.5)
Es importante se
nalar que los desarrollos precedentes siguen siendo validos
aunque las variable x1 , x2 , . . ., xn sean funciones de una variable temporal u otra
variable independiente.
A.4
Algunas reglas pr
acticas para la expansi
on en serie
La teora general precedente permite construir algunas reglas basicas para expandir
funciones complicadas en serie de potencias.
284
Series de Taylor
Ap
endice A
d g(x)
(x xQ )
dx Q
d h(x)
[R1.2]
h1 (x) = h(xQ ) +
(x xQ )
dx Q
!
d g(x)
d h(x)
\
[R1.3]g(x) + h(x)1 = g(xQ ) + h(xQ ) +
+
(x xQ )
dx Q
dx Q
d
g(x)
d
h(x)
\ = g(xQ )h(xQ ) + h(xQ )
+ g(xQ )
(x xQ )
[R1.4] g(x)h(x)
1
dx Q
dx Q
[R1.1]
g1 (x) = g(xQ ) +
d ` x(t)
dt `
d ` (x(t) xQ )
dt `
h
d ` x(t)
dt `
(A.4.1)
ik
(A.4.2)
Apendice B
BASES MATEMATICAS
PARA LAS SERIES DE
FOURIER
B.1
En esta seccion se revisan los conceptos basicos de los espacios vectoriales, incluyendo definiciones y propiedades. Se introducen ademas las ideas de ortogonalidad y
bases, ideas matematicas abstractas de mucha utilidad para fundamentar el analisis
mediante series de Fourier y otros topicos dentro de la teora de sistemas como es,
por ejemplo, la construccion de modelos y la estimacion de se
nales utilizando el
enfoque de mnimos cuadrados.
Definici
on B.1. Un espacio vectorial V es un conjunto de objetos ~v1 , ~v2 , . . . ,
llamados vectores, donde se definen dos operaciones: suma de dos vectores, y
multiplicaci
on por un escalar y que satisfacen las siguientes propiedades:
1. Si ~vi V y ~vj V, entonces ~vi + ~vj V
2. Si ~vi V y ~vj V, entonces ~vi + ~vj = ~vj + ~vi
3. Si ~vi , ~vj , ~vk son vectores cualesquiera de V, entonces ~vi + (~vj + ~vk ) = (~vi +
~vj ) + ~vk
4. Existe un vector ~0 V, tal que para todo ~vi V se cumple ~vi + ~0 = ~vi
5. Para cada ~vi V existe un vector ~vi V, tal que ~vi + (~vi ) = ~0
6. Si ~vi V y es un escalar, entonces ~vi V
7. Si ~vi y ~vj est
an en V y es un escalar, entonces (~vi + ~vj ) = ~vi + ~vj
8. Si y son escalares y ~vi V, entonces ( + )~vi = ~vi + ~vi
285
286
Bases matem
aticas para las Series de Fourier
Ap
endice B
Definici
on B.2. Dado un conjunto de vectores G = {~v1 , . . . , ~vn } V, diremos que
el espacio generado por G, es el conjunto de todos los vectores de la forma:
~v = 1~v1 + . . . + n~vn
Es decir, ~v es una combinaci
on lineal de ~v1 , . . . , ~vn .
Se deja al lector probar que el subespacio generado por el subconjunto de vectores
G V tambien cumple las propiedades de un espacio vectorial.
Definici
on B.3. Un conjunto de vectores ~v1 , . . . , ~vn se dice linealmente independiente, si la ecuaci
on:
1~v1 + . . . + n~vn = 0
se cumple s
olo para los escalares 1 = 2 = . . . = n = 0. En caso contrario se
dice que los vectores son linealmente dependientes.
La independencia lineal en un conjunto de vectores es una propiedad muy importante pues nos permite afirmar que ninguno de los vectores del conjunto puede
expresarse como una combinacion lineal de los demas vectores. Esta demostracion
se deja al lector.
Definici
on B.4. Dado un espacio vectorial V, diremos que un conjunto de vectores
B = {~v1 , . . . , ~vn } es base de V si:
1. {~v1 , . . . , ~vn } es linealmente independiente, y
1 Es
Section B.1.
287
Definici
on B.5. Dados dos vectores cualesquiera ~vi y ~vj en un espacio vectorial V con escalares en C, entonces diremos que h~vi , ~vj i es un producto interno,
producto escalar o producto punto si cumple las siguientes propiedades:
1. h~vi , ~vj i es un escalar
2. h~vi , ~vj + ~vk i = h~vi , ~vj i + h~vi , ~vk i
3. h~vi , ~vi i > 0 si ~vi 6= ~0
4. h~vi , ~vj i = h~vj , ~vi i , en que () denota el complejo conjugado de ()
Este producto ademas induce una norma en el espacio vectorial V:
p
~vi = h~vi , ~vi i
Recordamos que una norma se define como sigue:
Definici
on B.6. Una norma en un espacio vectorial es una funci
on que va
del espacio V a R que cumple con :
1. ~vi 0 y ~vi = 0 si y s
olo si ~vi = ~0
2. ~vi = ||~vi en que || es el valor absoluto o m
odulo del escalar
3. ~vi + ~vj ~vi + ~vi ( desigualdad triangular) .
Con la norma inducida de esta forma con el producto interno en el espacio
vectorial podemos introducir la idea de distancia entre dos vectores:
Definici
on B.7. Un espacio vectorial donde se ha definido una norma, es decir,
se tiene una medida de distancia y longitud se denomina espacio euclideano
288
Bases matem
aticas para las Series de Fourier
Ap
endice B
Definici
on B.8. De la definici
on del
angulo entre dos vectores es claro que podemos decir que dos vectores son ortogonales bajo el producto interno h, i, si este
producto es igual a cero. Es decir:
~vi ~vj h~vi , ~vj i = 0
(B.1.1)
(B.1.3)
h~vi , ~ui
h~vi , ~vi i
(B.1.4)
Demostraci
on
La representacion (B.1.3) se deduce de inmediato del hecho de tener un conjunto
de n vectores linealmente independientes en un espacio vectorial V de dimension n.
Lo central que nos ata
ne en este caso es el calculo de los coeficientes (B.1.4).
Tomemos la ecuacion (B.1.3), y apliquemosle producto interno con alguno de
los vectores de la base (B.1.1):
h~vi , ~ui = h~vi , 1~v1 + 2~v2 + . . . + n~vn i
(B.1.5)
Section B.2.
289
(B.1.6)
(B.1.7)
222
(B.1.8)
Demostraci
on
Primero se observa que esta desigualdad es inmediata si cualquiera de los vectores,
vi o vj , es el vector cero. As es suficiente considerar el caso en ambos son no nulos.
Consideremos un vector (vi vj ), cuya norma es no negativa
0 h(vi vj ), (vi vj )i
2
(B.1.9)
2
(B.1.10)
De donde
(B.1.11)
(B.1.12)
(B.1.13)
B.2
B.2.1
290
Bases matem
aticas para las Series de Fourier
Ap
endice B
Definici
on B.9. Se dice que una sucesi
on de funciones {fk (x)} de funciones, cada
una definida en un intervalo I = [a, b], converge (puntualmente) en I, si
lim fk (x0 )
existe x0 I
(B.2.1)
Definici
on B.10. Se dice que una sucesi
on {fk (x)} de funciones, definidas en un
intervalo I = [a, b], converge uniformemente a una funci
on f (x) en el intervalo
I si
> 0 K > 0
tal que
axb
(B.2.2)
Estas dos definiciones sobre la convergencia de sucesiones son aplicables totalmente a series de funciones, ya que estas u
ltimas no son mas que sucesiones de
sumas parciales. Es decir, si se tiene una serie de funciones de la forma
S(x) =
fn (x)
(B.2.3)
n=1
k
X
fn (x)
(B.2.4)
n=1
Definici
on B.11. Se dice que una serie de funciones
S(x) =
fn (x)
(B.2.5)
n=1
|fn (x)|
(B.2.6)
n=1
2 Sentido
Section B.2.
291
Mk
(B.2.7)
k=1
fk (x)
(B.2.8)
k=1
Tales que
|fk (x)| Mk
(B.2.9)
P
k=1
fk (x)
Demostraci
on
Por comparacion entre los terminos de la serie numerica y la de funciones, se sigue
que para cada x0 en el intervalo I, la serie converge absolutamente. As la serie
converge puntualmente a una funcion lmite f (x) en a x b. Ahora
fk (x) =
fk (x)
f (x)
k=1
(B.2.10)
k=n+1
k=n+1
|fk (x)|
(B.2.11)
Mk
(B.2.12)
k=n+1
n
X
k=1
k=1
Mk
Mk
(B.2.13)
B.2.2
292
Bases matem
aticas para las Series de Fourier
Ap
endice B
T
2
y (t)dt
T2
A20
1 X 2
+
Ak + Bk2
2
(B.2.14)
k=1
Demostraci
on
La norma al cuadrado del error que se comete, que se representa en la figura 5.8 a
la derecha, es:
k fk (t), y(t)
= y(t)
2
= y(t)
k=1
n
X
(B.2.15)
(B.2.16)
(B.2.17)
(B.2.18)
(B.2.19)
(B.2.20)
(B.2.21)
k=1
2
en (t)2 = y(t)2
k2 fk (t)
(B.2.22)
k=1
T
2
T2
Z
e2n (t)dt
T
2
"
2
y (t)dt
T2
A20
#
n
X
2 T
2 T
T +
Ak + Bk
0
2
2
(B.2.23)
k=1
T
2
T2
y 2 (t)dt A20 +
1 X 2
Ak + Bk2
2
(B.2.24)
k=1
222
Section B.2.
293
T
2
T2
T
2
T2
(B.2.25)
(B.2.26)
Demostraci
on
Directa de la desigualdad de Parseval, ya que si la integral del lado izquierdo existe,
entonces la serie del lado derecho, cuyo termino general es no-negativo, esta acotada
superiormente. Esto permite afirmar que converge, lo que a su vez implica que el
termino general se hace cero cuando n , por tanto, los coeficientes Ak y Bk se
hacen cero cuando k .
222
Lema B.5. La aproximaci
on o serie de Fourier truncada yn (t) de una funci
on
peri
odica y(t) de perodo T , puede escribirse como
2
T
yn (t) =
T
2
y(t + s)
T2
sin(0 (n + 12 )s)
ds
2 sin 20 s
; 0 =
2
T
(B.2.27)
Demostraci
on
La aproximacion n-esima puede escribirse utilizando las ecuaciones (5.3.4)
n
X
yn (t) = A0 +
1
=
T
+
T
2
n
X
2
T
2
T
"
(B.2.29)
T
2
2
cos(k0 t)
T
"
y( )
T2
(B.2.28)
y( )d
T2
k=1
k=1
T
2
T2
"
y( )
1
+
2
1
+
2
T
2
2
y( ) cos(k0 )d + sin(k0 t)
T
T
2
n
X
T
2
T2
#
y( ) sin(k0 )d
(B.2.30)
#
k=1
n
X
#
cos(k0 ( t)) d
k=1
(B.2.31)
(B.2.32)
294
sin
k+
1
2
Bases matem
aticas para las Series de Fourier
Ap
endice B
s
1
0
0 s sin
k
0 s = 2 sin
cos (k0 s)
2
2
(B.2.33)
n
s
s X
1
0
0
sin
n+
0 s sin
= 2 sin
cos (k0 s)
2
2
2
(B.2.34)
k=1
O bien,
n
sin n + 21 0 s
1 X
1
+
cos (k0 s) =
2
2 sin 2 0 s
k=1
(B.2.35)
T
2
y( )
sin
T2
n + 21 0 ( t)
d
2 sin 20 ( t)
(B.2.36)
T
2
y(t + s)
T2 t
sin
n + 12 0 s
ds
2 sin 20 s
(B.2.37)
t0 .
y(t+
0 ) + y(t0 )
2
(B.2.38)
En que y(t+
mites por la derecha y por la izquierda de y(t) en
0 ) e y(t0 ) son los l
Demostraci
on
Primero, y como resultado previo, observemos que si integramos a ambos lados de
la ecuacion (B.2.35), obtenemos
Section B.2.
295
T
2
T2
sin n + 21 0 s
T
1
=
2
2 sin 2 0 s
(B.2.39)
y(t+ ) + y(t )
2
(B.2.40)
Esta coincide con y(t) solo en sus puntos de continuidad y ademas hereda su
periodicidad. Podemos observar tambien que si t0 es una discontinuidad de y(t), lo
es tambien de g(t) y
y(t+
g(t+
0 ) + y(t0 )
0 ) + g(t0 )
=
(B.2.41)
2
2
Consideremos lo que sucede con el error en (t0 ), entre g(t) y su representacion
en serie de Fourier, a medida que n tiende a infinito. Si usamos la igualdad recien
mencionada y la expresion (B.2.27) para la n-esima suma parcial, el error puede
escribirse
g(t0 ) =
ds
g(t0 )
g(t0 + s)
=
T T2
T T2
2 sin 2 s
2 sin 20 s
(B.2.43)
Z T2
1
sin(0 (n + 2 )s)
2
ds
=
[g(t0 ) g(t0 + s)]
(B.2.44)
T T2
2 sin 20 s
#
Z T2 "
1
2
g(t0 ) g(t0 + s)
1
20 s
=
sin
n
+
s ds (B.2.45)
0
1
T T2
2
sin 12 0 s
2 0 s
La expresion entre corchetes dentro de la integral es seccionalmente continua
en el intervalo [ T2 , T2 ], siempre y cuando t0 sea un punto de continuidad de g(t),
lo que permite afirmar que el primer cuociente de la expresion entre corchetes se
transforma en la derivada cuando s 0. En estos puntos, usando la ecuacion
(B.2.26), se deduce que
lim en (t0 ) = 0
(B.2.46)
O, lo que es lo mismo,
lim gn (t0 ) = g(t0 ) =
g(t+
0 ) + g(t0 )
2
(B.2.47)
296
Bases matem
aticas para las Series de Fourier
Ap
endice B
g(t
0)
(B.2.48)
G(t) + G(t)
2
g(t + t0 ) + g(t + t0 ) 2g(t0 )
=
2
G(t) G(t)
Gimpar (t) =
2
g(t + t0 ) g(t + t0 )
=
2
Gpar (t) =
(B.2.49)
(B.2.50)
(B.2.51)
(B.2.52)
(B.2.53)
> 0 N > 0
(B.2.54)
Section B.2.
297
Demostraci
on
Sean
A0 +
A00 +
X
n=1
(B.2.55)
(B.2.56)
n=1
Las series de Fourier de y(t) e y 0 (t), respectivamente. Entonces, dada la periodicidad de y(t), tenemos que
A00
1
=
T
T
2
y 0 (t)dt
(B.2.57)
T2
1
[y(T /2) y(T /2)]
T
=0
(B.2.58)
(B.2.59)
A0n
2
=
T
T
2
T2
#
"
Z T2
T2
2
=
y(t) sin(n0 t)dt
y(t) cos(n0 t) T + n0
T
2
T2
Z T2
2
= n0
y(t) sin(n0 t)dt
T T2
= n0 Bn
Z T2
2
Bn0 =
y 0 (t) sin(n0 t)dt
T T2
"
#
Z T2
T2
2
=
y(t) sin(n0 t) T n0
y(t) cos(n0 t)dt
T
2
T2
Z T2
2
= n0
y(t) sin(n0 t)dt
T T2
= n0 An
(B.2.60)
(B.2.61)
(B.2.62)
(B.2.63)
(B.2.64)
(B.2.65)
(B.2.66)
(B.2.67)
298
Bases matem
aticas para las Series de Fourier
Ap
endice B
(B.2.68)
n=1
n=1
1
T
T
2
y 0 (t)2 dt <
(B.2.69)
T2
p
Si se observa el termino general {n0 A2n + Bn2 } de la segunda serie, se aprecia
que pertenece al conjuto de todas las sucesiones cuadrado sumables, al igual que
la sucesion {1/(n0 )}. En ambas sucesiones n = 1, 2, . . . . En consecuencia el
producto de estas sucesiones tambien es cuadrado sumable, por tanto
X
q
q
X
1
2
2
n0 An + Bn
=
An 2 + Bn 2
n
0
n=1
n=1
(B.2.70)
Tambien converge.
Si ahora usamos la desigualdad de Cauchy-Schwartz (B.1.8)
|h(An , Bn ); (cos(n0 t), sin(n0 t))i| k(An , Bn )k k(cos(n0 t), sin(n0 t))k
(B.2.71)
q
q
An cos(n0 t) + Bn sin(n0 t) An 2 + Bn 2 cos2 (n0 t) + sin2 (n0 t)
(B.2.72)
q
= An 2 + Bn 2
(B.2.73)
Con esto se puede comparar la serie
|A0 | +
(B.2.74)
n=1
q
X
An 2 + Bn 2
(B.2.75)
n=1
(B.2.76)
n=1
converge uniformemente en cualquier intervalo cerrado. Pero, por el lema de convergencia puntual antes visto, sabemos que esta serie converge a y(t) punto a punto.
222
Section B.2.
299
(B.2.77)
Demostraci
on
Es directa de (B.2.54), ya que si tomamos y(t) en el intervalo [ T2 , T2 ], y denotamos
por {t1 , t1 , . . . , tm } los puntos en que y(t) es discontinua dentro de el, entonces, dado
un > 0, para cada uno de los m+1 subintervalos ( T2 , t1 ), . . . , (tk , tk+1 ), . . . , (tm , T2 )
existe una constante Nk tal que
n > Nk |y(t) yn (t)| <
|en (t)| < t (tk , tk+1 )
(B.2.78)
(B.2.79)
(B.2.80)
Por tanto
Z
ken (t)k2 =
T
2
T2
t1
=
T2
en 2 (t)dt
(B.2.81)
Z
en 2 (t)dt + . . . +
tk+1
Z
en 2 (t)dt + . . . +
tk
T
2
en 2 (t)2 dt
(B.2.82)
tm
T
2
T2
y 2 (t)dt = A20 +
1 X 2
Ak + Bk2
2
k=1
(B.2.84)
300
Bases matem
aticas para las Series de Fourier
Ap
endice B
Demostraci
on
Es directa de la ecuacion (B.2.23), donde como consecuencia del lema anterior
(B.2.77), la norma del error, ademas de ser positiva, tiende asintoticamente a cero.
Por tanto la desigualdad (B.2.14) se transforma en la identidad (B.2.84).
Apendice C
DE
LA TRANSFORMACION
FOURIER
C.1
C.1.1
Transformaci
on de Fourier en tiempo continuo
Definici
on de la Transformada
y(t)ejt dt
F [y(t)] = Y (j) =
(C.1.1)
F 1 [Y (j)] = y(t) =
1
2
Y (j)ejt d
(C.1.2)
Para que la transformada exista es suficiente que la funcion y(t) sea absolutamente integrable en el intervalo < t < , es decir:
Z
y(t) dt <
Existen funciones que a pesar de no cumplir con esta condicion, es posible calcular su transformada de Fourier.
Veamos a manera de ejemplo como se puede obtener la transformada de Fourier
del delta de Dirac, a partir de la transformada de un pulso como el del ejemplo 6.1
(pag. 117).
Ejemplo C.1. Consideremos un pulso centrado en el cero, de ancho y altura
1/, es decir, una funci
on
301
302
La transformaci
on de Fourier
1
y (t) =
0
Ap
endice C
; |t| /2
; |t| > /2
Esta funci
on est
abien definida t ] , [, y el
area del pulso es unitaria
> 0. Su transformada de Fourier por tanto puede obtenerse, en base al ejemplo
6.1 ya mencionado, o por la definici
on (C.1.1) ser
a
Z
/2
1 jt
e
dt
/2
1 j
2 ej 2
=
e
j
sin
2
=
Y (j) =
14
0.8
12
0.6
10
0.4
0.2
4
40
0.2
0.4
0.6
t
0.8
30
20
10
10
20
w
0.2
1
.
Figura C.1. Pulso y su transformada para = 1, 41 , 16
30
40
Section C.1.
y (t)
Y (j) =
C.1.2
303
Transformaci
on de Fourier en tiempo continuo
sin(
2 )
(t)
Y (j) = 1
(C.1.3)
Demostraci
on
Es directa de reemplazar Y (t) en la definici
on de la transformada y recordando la
ecuaci
on que define a y(t) como transformada inversa de Y (j)
Z
Y (t)ejt dt
Z
1
= 2
Y (t)ejt() dt
2
F{Y (t)} =
= 2y(j)
222
Ejemplo C.2. Consideremos una funci
on constante y(t) = C. Esta funci
on no es
absolutamente integrable, sin embargo, su transformada de Fourier puede obtenerse
en base a la transformada del Delta de Dirac:
F [y(t)] = F [C]
= C F [1]
= C 2()
= C 2()
Veamos ahora como se ve afectada la transformada de Fourier de una se
nal
cuando esta es desplazada en el tiempo, que puede ser el caso en que existe, por
ejemplo, retardo.
304
La transformaci
on de Fourier
Ap
endice C
(C.1.4)
Demostraci
on
Aplicando la definici
on de la Transformada de Fourier, para la funci
on y(t) desplazada en el tiempo, tenemos que
Z
y(t t0 )ejt dt
Z
jt0
=e
y(t t0 )ej(tt0 ) dt
F{y(t t0 )} =
jt0
F{y(t t0 )} = e
y(t )ejt dt
= ejt0 Y (j)
222
Ejemplo C.3. Si se aplica este lema al ejemplo 6.1, obtenemos que si el pulso de
amplitud A no est
a centrado en el origen, sino que se ha desplazado a la derecha,
ubic
andose en el intervalo [0, ] su transformada de Fourier ser
a
sin 2
;a C
(C.1.5)
Section C.1.
305
Transformaci
on de Fourier en tiempo continuo
Demostraci
on
Si aplicamos la definici
on de la transformada a la funci
on y(t) multiplicada por la
exponencial peri
odica ej0 t tenemos que
Z
F{eat y(t)} =
eat y(t)ejt dt
y(t)e(ja)t dt
y(t)ej t dt
= Y (j )
= Y (j a)
222
Ejemplo C.4. Con este lema podemos obtener la transformada de Fourier de una
exponencial peri
odica, considerando en la ecuaci
on (C.1.5) a = j0 :
j0 t
j0 t
F e
=F e
1
= 2(j j0 )
= 2( 0 )
Ya que el delta de Dirac es diferente de cero s
olo en el punto en que su argumento
es igual a cero.
A partir de esta transformada, utilizando la ecuaci
on de Euler, se pueden obtener
sin problema la del coseno y del seno:
ej0 t + ej0 t
2
1 j0 t
=
F e
+ F ej0 t
2
= [( + 0 ) + ( 0 )]
F [cos(0 t)] = F
ej0 t ej0 t
F [sin(0 t)] = F
2j
j
=
F ej0 t + F ej0 t
2
= j [( + 0 ) ( 0 )]
306
La transformaci
on de Fourier
Ap
endice C
1
[Y (j j0 ) + Y (j + j0 )]
2
(C.1.6)
Demostraci
on
Esta es directa del lema anterior utilizando la ecuaci
on de Euler, es decir, escribiendo cos(0 t) con exponenciales peri
odicas. Esto es
F{cos(0 t)y(t)} = F
1 j0 t
(e
+ ej0 t )y(t)
2
1
F{ej0 t y(t)} + F{ej0 t y(t)}
2
1
= (Y (j j0 ) + Y (j + j0 ))
2
=
222
Se deja al lector la demostracion del corolario que se obtiene por analoga en el
caso que en vez de cos(0 t) se utiliza sin(0 t).
Ejemplo C.5. En ambos casos de modulaci
on planteados, cosenoidal y senoidal,
al hacer el producto de una se
nal con una sinusoide se logra desplazar el espectro,
o contenido de frecuencias de la se
nal. Esto permite llevar, por ejemplo, se
nales de
contenido de baja frecuencia (como la voz humana, en la banda de 0 4[kHz]), a
bandas de frecuencia para transmisi
on radial (por ejemplo 1[MHz]).
Esta idea se muestra en la figura C.2
|F {y(t)}|
4[kHz]
|F{y(t)cos(2106 t)}|
1[M Hz]
Section C.1.
307
Transformaci
on de Fourier en tiempo continuo
Si tenemos una se
nal peri
odica yT (t), en un intervalo de longitud T , esta no
es una funci
on absolutamente integrable y su transformada de Fourier no puede
obtenerse a traves de la definici
on (C.1.1). Sin embargo, sabemos ya que una se
nal
peri
odica podemos representarla mediante una Serie de Fourier (representaci
on en
el tiempo) ya sea trigonometrica o con exponenciales peri
odicas. En los desarrollos
realizados adem
as ya hemos encontrado las expresiones para las transformadas de
Fourier de una constante, del coseno, del seno y de una exponencial peri
odica, por
tanto, la transformada de Fourier de una se
al peri
odica se puede obtener:
"
F [yT (t)] = F
#
jn t
Cn e
n=
X
n=
Cn F ejn t
Cn ( + n )
n=
; 0 |t| 2
+1
y(t) = 1
; 2 < |t|
t
1
308
La transformaci
on de Fourier
y(t) =
Ap
endice C
An cos(nt)
n=1
An =
y(t) cos(nt)dt
y(t) =
n
X
4
sin
cos(nt)
n
2
n=1
Luego,
Y (j) =
=
n
X
4
sin
[( + n) + ( n)]
n
2
n=1
n
X
4
sin
( + n)
n
2
n=
n6=0
1.2
0.6
0.8
0.4
0.6
0.4
0.2
0.2
10
10
0.2
0.4
0.2
(a) Coeficientes An
Figura C.4.
10
Section C.1.
309
Transformaci
on de Fourier en tiempo continuo
1
Y (j )
|a|
a
(C.1.7)
Demostraci
on
Si reemplazamos la funci
on escalada y(at) en la definici
on de la integral, podemos
ah definir una nueva variable t = at, pero se debe tener en cuenta que el signo de
a determina si los lmites de la integral se mantienen o se deben intercambiar:
Z
F{y(at)} =
y(at)ejt dt
t dt
y(t )ej a
a
Z
=
t dt
y(t )ej a
a
; si a > 0
; si a < 0
signo(a)
a
y(t )ej a t dt
1
Y (j )
|a|
a
222
(C.1.8)
310
La transformaci
on de Fourier
d y(t)
F
= jY (j)
dt
Ap
endice C
(C.1.9)
Demostraci
on
Si se aplica la definici
on de la transformada de Fourier a la derivada
integra por partes, se obtiene:
Z
d y(t)
d y(t) jt
F
=
e
dt
dt
dt
Z
= y(t)ejt
+ j
d y(t)
dt ,
y se
y(t)ejt dt
Y dada la condici
on asint
otica sobre y(t) cuando t , s
olo sobrevive el segundo
termino
Z
d y(t)
F
= j
y(t)ejt dt
dt
= jY (j)
222
Es importante hacer notar que este lema no garantiza la existencia de la transformada de la derivada temporal de y(t), sino que, en caso de existir, su expresion
puede obtenerse utilizando (C.1.9). Para las derivadas de orden superior en tanto,
tenemos el siguiente corolario, que se debe utilizar con la misma precaucion antes
mencionada:
Corollario C.3. Derivadas de orden superior
Para una funci
on y(t) definida como en el lema anterior, tenemos que
n
d y(t)
F
= (j)n Y (j)
(C.1.10)
dt n
Demostraci
on
Se deja al lector, pues es directa por inducci
on, aplicando recursivamente el lema
anterior.
222
Lema C.6. Transformada de la integral.
Sea y(t) una funci
on definida en todos los reales, cuya transformada de Fourier
es Y (j). Entonces, la transformada de su integral definida es
Z t
1
Y (j) + Y (0)()
(C.1.11)
F
y( )d =
j
Section C.1.
311
Transformaci
on de Fourier en tiempo continuo
Demostraci
on
Para demostrar esta propiedad debemos en primer lugar observar que si definimos
1 (t) como la integral definida de y(t), entonces
d 1 (t)
d
=
dt
dt
y( )d
= y(t)
Pero tambien se cumple, para cualquier constante real k, que
d
(1 (t) + k) = y(t)
dt
Por tanto, aplicando Fourier y la ecuaci
on (C.1.9)
j (1 (j) + 2k()) = Y (j)
Luego, ya tenemos una forma para la transformada de la derivada, que es
1
Y (j) 2k()
(C.1.12)
j
Por tanto nos resta encontrar el valor de k. Para esto consideremos nuevamente
la integral indefinida 1 (t)
1 (j) =
1 (t) =
y( )d
Z
y( )d +
y( )d
Z t
y( )d
y(x)dx
2 (t) =
y(x)dx
2 (j) =
1
Y (j) 2k()
j
312
La transformaci
on de Fourier
Ap
endice C
y( )d 2 (t)
Z
1 (j) = 2
y( )d () 2 (j)
1
1
Y (j) 2k() = 2
y( )d ()
Y (j) 2k()
j
j
1 (t) =
1
y( )ej d
=
2
=0
1
= Y (0)
2
k=
Por tanto
1 (j) =
1
Y (j) + Y (0)()
j
222
Ejemplo C.7. El lema anterior puede utilizarse para obtener la transformada del
escal
on unitario (t) o funci
on de Heaviside, a partir de la transformada del delta
de Dirac.
Dada la definici
on del Delta Dirac y de la funci
on de Heaviside, tenemos que
(
0
( )d =
1
;t < 0
;t > 0
= (t)
Por tanto,
Z
( )d
F [(t)] = F
1
=
F [(t)] + () F [(t)]|=0
j
1
=
+ ()
j
Section C.1.
313
Transformaci
on de Fourier en tiempo continuo
(C.1.13)
(C.1.14)
Demostraci
on
Insertando la expresi
on de la convoluci
on en la transformada se obtiene
Z
y1 ( )y2 (t )d
ejt dt
y1 ( )
y2 (t )ejt dt d
y1 ( ) ej Y2 (j) d
Z
= Y2 (j)
y1 ( )ej d
= Y2 (j)Y1 (j)
222
Veamos a continuacion cual es la transformada de Fourier de un producto de
funciones que puede resultar u
til para el calculo de la transformada de Fourier de
alguna funcion mas complicada.
Lema C.8. Producto de funciones.
Sean y1 (t) e y2 (t) funciones definidas para < t < , cuyas transformadas
de Fourier son Y1 (j) e Y2 (j), respectivamente. Entonces, la transformada de
Fourier del producto entre ellas es
F{y1 (t)y2 (t)} =
1
Y1 (j) Y2 (j)
2
(C.1.15)
314
La transformaci
on de Fourier
Ap
endice C
Demostraci
on
Consideremos la transformada de Fourier inversa de la convoluci
on de funciones
en
Z
1
Y1 (j) Y2 (j)ejt d
2
Z Z
1
=
Y1 (j)Y2 (j j)d ejt d
2
1
{Y1 (j) Y2 (j)} =
2
Y1 (j)
Y2 (j j)e
jt
d d
Donde si se define j j = j
F
1
{Y1 (j) Y2 (j)} =
2
= 2
(j +j)t
Y1 (j)
Y2 (j )e
d d
Z
Z
1
1
jt
j t
Y1 (j)e d
Y2 (j )e
d
2
2
Demostraci
on
Esto se demuestra con ayuda del lema de convoluci
on en el tiempo (C.1.13). Seg
un
este tenemos que
y1 (t) y2 (t) = F 1 [Y1 (j)Y2 (j)]
Z
1
y1 ( )y2 (t )d =
Y1 (j)Y2 (j)ejt d
2
Section C.1.
Transformaci
on de Fourier en tiempo continuo
315
Si evaluamos en t = 0, queda
Z
y1 ( )y2 ( )d =
1
2
Y1 (j)Y2 (j)d
316
La transformaci
on de Fourier
f (t)
l
X
F [f (t)]
l
X
ai yi (t)
i=1
Descripcion
ai Yi (j)
Linealidad
i=1
dy(t)
dt
jY (j)
Derivacion
dk y(t)
dtk
(j)k Y (j)
Derivadas superiores
1
Y (j) + Y (0)()
j
Integracion
y(t )
ej Y (j)
Retardo
y(at)
1
Y j
|a|
a
Escalamiento temporal
y(t)
Y (j)
Inversion temporal
Y1 (j)Y2 (j)
Convolucion
eat y1 (t)
Y1 (j a)
Desplazamiento en frecuencia
y(t) cos(o t)
1
{Y (j jo ) + Y (j + jo )}
2
Modulacion (cosenoidal)
y(t) sin(o t)
1
{Y (j jo ) Y (j + jo )}
j2
Modulacion (senoidal)
Y (t)
2y(j)
Simetra
y( )d
Ap
endice C
y1 ( )y2 (t )d
y1 (t)y2 (t)
1
2
Y1 (j)Y2 (j j)d
Producto en el tiempo
Section C.1.
317
Transformaci
on de Fourier en tiempo continuo
f (t)
t R
F [f (t)]
2()
D (t)
(t)
() +
(t) (t to )
1
j
1 ejto
j
et (t)
<{} R+
1
j
tet (t)
<{} R+
1
(j )2
e|t|
R+
2
+ 2
cos(o t)
(( + o ) + ( o ))
sin(o t)
j (( + o ) ( o ))
cos(o t)(t)
j
(( + o ) + ( o )) +
2
2 + o2
sin(o t)(t)
j
o
(( + o ) ( o )) +
2
2
+ o2
et cos(o t)(t)
R+
j +
(j + )2 + o2
et sin(o t)(t)
R+
o
(j + )2 + o2
318
C.2
C.2.1
La transformaci
on de Fourier
Ap
endice C
Fd {y(t)} = Y (ej ) =
y[k]ejk
(C.2.1)
k=
Fd
1
Y (e ) = y[k] =
2
Y (j)ejk d
(C.2.2)
y[k] <
k=
Si bien existen funciones que no cumplen con esta condicion, a pesar de ello
poseen transformada de Fourier discreta.
A continuacion se muestran algunos ejemplos para ver como se obtiene la transformada de Fourier discreta para un delta de Kronecker, para una secuencia constante y para una exponencial decreciente discreta.
Ejemplo C.8. Consideremos primero la secuencia
(
1
y[k] = K [k] =
0
;k = 0
; k 6= 0
Section C.2.
319
Y (ej ) =
K [k]ejk
k=
= K [0]ej0
=1
Es decir, su transformada de Fourier discreta es constante. Podemos interpretar
esto de manera an
aloga al delta de Dirac en tiempo continuo, cuya transformada
tambien es constante y representa un espectro plano, o igual contenido de frecuencias
en todo el espectro.
Ejemplo C.9. Consideremos ahora el caso opuesto en que tenemos una secuencia
constante que se escoge de amplitud uno por simplicidad. Es decir, la secuencia que
nos interesa es
y[k] = 1
k Z
Esta secuencia no es absolutamente sumable, ya que
k=
Y (ej ) =
1 ejk
k=
Ck =
1
T
T
2
f ()ej T
T2
Ck ej T
k=
320
La transformaci
on de Fourier
Ap
endice C
X
Y (ej ) = 2
( 2n)
n=
X
1
=
2
( 2n)ejk d
2
n=
Z
()ejk d
=
=1
k Z
|| < 1
Y (ej ) =
=
X
k=0
k ejk
(ej )k
k=0
Que resulta ser una serie geometrica convergente ya que |ej | < 1. Por tanto
su suma es
Y (ej ) =
C.2.2
1
1 ej
Section C.2.
321
(C.2.3)
Demostraci
on
Es directa de la definicion de la transformada (C.2.1), ya que
k=
y1 [k]e
jk
k=
y2 [k]ejk
k=
= Y1 (e ) + Y2 (e )
222
Lema C.10. Corrimiento en el tiempo.
Sea y[k] una secuencia de tiempo discreto definida k Z, cuya transformada
de Fourier es Y (ej ) , y sea k0 un n
umero entero, entonces
Fd {y[k k0 ]} = ejk0 Y (ej )
k0 Z
(C.2.4)
Demostraci
on
Consideremos la definicion de la transformada (C.2.1), y tomemos k0 Z, entonces
Fd {y[k k0 ]} =
y[k k0 ]ejk
k=
y[l]ej(l+k0 )
l=
= ejk0
y[l]ejl
l=
=e
jk0
Y (ej )
322
La transformaci
on de Fourier
Ap
endice C
222
Lema C.11. Corrimiento en frecuencia.
Sea y[k] una secuencia de tiempo discreto definida k Z, con transformada
Y (ej ) , y sea 0 < 0 < 2 un n
umero real, entonces consideremos la transformada
de la secuencia original multiplicada por una exponencial peri
odica
(C.2.5)
Demostraci
on
Para demostrar la propiedad anterior podemos considerar directamente la definicion
(C.2.1)
Fd ej0 k y[k] =
ej0 k y[k]ejk
k=
y[k]ej(0 )k
k=
Fd ej0 k y[k] =
y[k]ejk
k=
= Y (ej )
= Y (ej(0 ) )
Section C.2.
323
2
y[k] = cos
k
10
Para calcular su transformada de Fourier discreta, en vez de usar la definici
on
podemos utilizar la propiedad (C.2.5), ya que el coseno puede escribirse en terminos
de exponenciales
2
2
ej 10 k + ej 10 k
2
k =
10
2
Ambas exponenciales peri
odicas las podemos pensar como la secuencia constante
y0 [k] = 1 multiplicada por la respectiva exponencial peri
odica. Es as como bajo este
punto de vista la transformada de Fourier discreta se puede obtener en unos pocos
pasos
y[k] = cos
Fd cos
2
k
10
1 n j 2 k o 1 n j 2 k o
Fd e 10
+ Fd e 10
2
2
X
X
1
1
2
2
= 2
+ 2n) + 2
+ 2n)
(
( +
2 n=
10
2 n=
10
=
X
n=
X
2
2
+ 2n) +
+ 2n)
( +
10
10
n=
Si restringimos la expresi
on de la transformada a la banda que nos ha interesado,
es decir, [0, 2], tenemos que en ella s
olo existen dos de los deltas de Dirac
18
2
2
k
) + (
)
Fd cos
= (
10
10
10
0<<2
En la figura C.5, se muestra la secuencia peri
odica discreta y su espectro, es
decir, su transformada de Fourier discreta, formada por los dos deltas de Dirac en
el intervalo [0, 2].
Como consecuencia del lema anterior, que expresa el corrimiento en frecuencia
que sufre el espectro de una secuencia discreta al ser multiplicado por una exponencial periodica tenemos el siguiente corolario. Este determina el efecto que tiene
sobre la transformada de Fourier discreta el modular una secuencia por alguna
sinusoidal.
Corollario C.5. Sea y[k] una secuencia discreta definida para < k < con
transformada Y (ej ), y 0 < 0 < 2 un n
umero real. Entonces
i
1h
Y (ej(+0 + Y (ej(0 )
(C.2.6)
Fd {cos(0 k)y[k]} =
2
h
i
j
Fd {sin(0 k)y[k]} =
Y (ej(+0 Y (ej(0 )
(C.2.7)
2
324
La transformaci
on de Fourier
Ap
endice C
1.5
1.8
1
1.6
1.4
0.5
Y(ej)
y[k]
1.2
0.8
0.5
0.6
0.4
1
0.2
1.5
15
10
0
k
10
15
Figura C.5. Se
nal cosenoidal y[k] y su transformada discreta.
Demostraci
on
Como se menciono anteriormente resulta de la aplicacion del lema anterior, ya
que tanto cos(0 k) como sin(0 k) pueden escribirse en terminos de exponenciales
periodicas.
Consideremos la ecuacion (C.2.6):
ej0 k + ej0 k
y[k]
2
1
1 j0 k
= Fd e
y[k] + Fd ej0 k y[k]
2
2
i
1h
j(0
=
Y (e
+ Y (ej(+0 )
2
Fd {cos(0 k)y[k]} = Fd
(C.2.8)
Section C.2.
325
Demostraci
on
Para demostrar la propiedad usamos la ecuacion (C.2.1), que define la transformada
de Fourier discreta de una secuencia
Fd {y[k]} =
y[k]ejk
k=
Sea l = k, entonces
Fd {y[k]} =
=
X
l=
y[l]ej(l)
y[l]ej()l
l=
= Y (ej )
222
Corollario C.6. Note que si la secuencia y[k] est
a compuesta s
olo por valores
reales, entonces
Fd {y[k]} = Y (ej )
(C.2.9)
En que () denota al complejo conjugado de ()
Demostraci
on
Se deja como ejercicio al lector.
222
326
La transformaci
on de Fourier
Ap
endice C
X(ej ) = Fd {[k]} + C2
( 2n)
n=
X(ej ) ej X(ej ) = 1
De ambas ecuaciones se puede eliminar X(ej ) y despejar la transformada que
nos interesa
X
1
Fd {[k]} =
C2
( 2n)
1 ej
n=
Donde hemos obtenida la forma de la transformada del escal
on unitario discreto.
Para obtener el valor de la constante C, podemos escribir el mismo escal
on como
[k] = 1 [k] + K [k]
Donde podemos aplicar la transformada utilizando la forma de Fd {[k]} obtenida, la propiedad de simetra temporal, y las transformadas del delta de Kronecker y
la constante, antes obtenidas.
1
C S() = S()
1 ej
1
C S() + 1
1 ej
En que
S() = 2
( 2n)
n=
1
1
+
+1
1 ej
1 ej
|
{z
}
0
C 2S() = S()
1
C=
2
Section C.2.
327
X
1
+
( 2n)
1 ej
n=
Lema C.13. Sea y[k] una secuencia de tiempo discreto definida k Z, cuya
transformada es Y (ej ). Consideremos ahora la secuencia k y[k], su transformada,
s
olo en el caso que exista, es igual a
Fd {k y[k]} = j
d Y (ej )
d
(C.2.10)
Demostraci
on
Se debe tener cuidado al aplicar esta propiedad, pues no garantiza la existencia
de la transformada de k y[k].
En caso de existir, podemos aplicar la transformada de Fourier inversa, usando
la ecuacion (C.2.2) :
Z 2
1
d Y (ej )
d Y (ej ) jk
1
Fd
=
e d
j
j
d
2 0
d
Donde se puede integrar por partes, eligiendo convientemente :
Z 2
j
d Y (ej )
d Y (ej )
Fd 1 j
=
ejk
d
d
2 0
d
2 j Z 2
j jk
j
=
e Y (e )
Y (ej )jkejk d
2 |
0
{z
} 2 0
j 2
=
k
2
=k
1
2
|
0
2
Y (ej )ejk d
Y (ej )ejk d
{z
}
y[k]
222
Ejemplo C.13. Calculemos la transformada de Fourier discreta de la secuencia
y[k] = kk [k]
|| < 1
328
La transformaci
on de Fourier
Fd
d Fd k [k]
k [k] = j
d
1
d
=j
d 1 ej
1
=j
(jej )
(1 ej )2
ej
=
(1 ej )2
k
1.8
4.5
1.6
1.4
3.5
3
Y(ej)
y[k]
1.2
2.5
0.8
0.6
1.5
0.4
0.2
0.5
0
5
Ap
endice C
10
k
15
20
25
(C.2.11)
Demostraci
on
Recordemos en primer lugar que la convolucion de dos secuencias de tiempo discreto
y1 [k] e y2 [k] se define como :
Section C.2.
329
y1 [k] y2 [k] =
y1 [l]y2 [k l]
l=
X
X
y1 [l]y2 [k l] ejk
Fd {y1 [k] y2 [k]} =
l=
k=
y1 [l]
l=
!
jk
y2 [k l]e
k=
y1 [l]ejl Y2 (ej )
l=
= Y2 (ej )
y1 [l]ejl
l=
j
= Y2 (e )Y1 (ej )
222
Lema C.15. Producto en el tiempo discreto
Sean y1 [k] e y2 [k] dos secuencias definidas k Z, cuyas transformadas de
Fourier son Y1 (ej ) e Y2 (ej ) respectivamente, entonces la transformada de Fourier
discreta del producto de ellas es :
1
Fd {y1 [k]y2 [k]} =
2
(C.2.12)
Demostraci
on
Reemplazando el producto de las secuencias en la definicion (C.2.1) tenemos que :
Fd {y1 [k]y2 [k]} =
y1 [k]y2 [k]ejk
k=
330
La transformaci
on de Fourier
Ap
endice C
Z 2
X
1
Y1 (ej )ejk d y2 [k]ejk
2 0
k=
!
Z 2
X
jk
1
j
jk
=
Y1 (e )
e y2 [k] e
d
2 0
k=
X
k=
1
y1 [k]y2 [k] =
2
2
0
(C.2.13)
X
k=
Z 2
X
1
j jk
y1 [k]y2 [k] =
Y1 (e )e d y2 [k]
2 0
k=
X
k=
y1 [k]y2 [k]
1
=
2
1
=
2
1
=
2
Y1 (e )
0
Y1 (e )
0
Z
0
!
y2 [k]ejk
k=
!
y2 [k]e
k=
2
jk
Section C.2.
331
222
Corollario C.7. Si y[k] es una secuencia discreta definida k Z, con transformada Y (ej ), entonces se cumple que:
X
k=
| y[k] |2 =
1
2
| Y (ej ) |2 d
(C.2.14)
Demostraci
on
Es directa de la ecuaci
on (C.2.13) ya que
y[k] y [k] = | y[k] |2
Y (ej )Y (ej ) = | Y (ej ) |2
222
332
La transformaci
on de Fourier
Fd {y[k]} = Y (ej )
y[k] , k Z
l
X
l
X
i yi [k]
i=1
i Yi (ej )
Ap
endice C
Descripcion
Linealidad
i=1
y[k]
Y (ej )
Inversion temporal
y[k k0 ] , k0 Z
ejk0 Y (ej )
Corrimiento temporal
ej0 k y[k]
Y (ej(0 ) )
Corrimiento en frecuencia
cos(0 k)y[k]
sin(0 k)y[k]
i
1h
Y (ej(+0 ) + Y (ej(0 )
2
i
jh
Y (ej(+0 ) Y (ej(0 )
2
ky[k]
l=
y1 [k]y2 [k]
y1 [k]y2 [k]
k=
X
k=
| y[k] |2
1
2
1
2
Modulacion senoidal
d Y (ej )
d
y1 [l]y2 [k l]
Modulacion cosenoidal
Convolucion
Producto en el tiempo
2
0
1
2
| Y (ej ) |2 d
Teorema de Parseval
Teorema de Parseval
Section C.2.
333
y[k]
Fd {y[k]} = Y (ej )
t R
K [k]
K [k k0 ]
ejk0
1 (k Z)
( 2n)
n=
[k]
X
1
+
( 2n)
1 ej
n=
1
1 ej
1
(1 ej )2
X
2
( 0 + 2n)
n=
cos(0 k)
[( + 0 + 2n) + ( 0 + 2n)]
n=
sin(0 k)
[( + 0 + 2n) ( 0 + 2n)]
n=
cos(0 k + )
X
j
e
( + 0 + 2n) + ej ( 0 + 2n)
n=
sin(c k)
k
Y0 (ej(+2n) )
n=
(
1 ; || < c
Y0 (e ) =
0 ; c < ||
2N +1
sin
21
sin 2
j
(
0
y[k] =
1
; |k| N
; |k| > N
ej
(1 ej )2
334
C.2.3
La transformaci
on de Fourier
Ap
endice C
Aspecto pr
actico: la transformada r
apida de Fourier
N
1
X
Cn ejo nk ;
donde o =
n=0
2
N
(C.2.15)
donde
Cn =
N 1
1 X
y[k]ejo nk
N
(C.2.16)
k=0
Usualmente se define
WN = ejo = ej N
(C.2.17)
y la funcion
Hn = N C n =
N
1
X
y[k]WNnk
(C.2.18)
k=0
N 1
1 X
Hn WNnk
N n=0
(C.2.19)
Section C.2.
335
0(N 1)
WN00
WN01
...
WN
H0
y[0]
1(N 1)
H1
y[1]
WN10
WN11
...
WN
.. =
..
.
.
.
..
..
..
.
.
.
.
.
(N
1)0
(N
1)1
(N
1)(N
1)
y[N 1]
HN 1
W
W
... W
N
(C.2.20)
Hacer el producto matricial el lado derecho de la ecuacion anterior implica N 2
multiplicaciones complejas, ademas de las sumas respectivas para el calculo de cada
Hn . Tambien se requieren algunas operaciones mas para el calculo de las potencias
de WN . Es decir, podemos apreciar que el calculo de la DFT es un proceso O(N 2 )
2
.
Sin embargo, la matriz involucrada en (C.2.20) esta formada por potencias de
2
WN = ej N , por tanto todos sus componentes son alguna de las races N -esimas de
la unidad, distribuida en torno a la circunferencia unitaria. Esta simetra de hecho
es el camino para reducir el n
umero de calculos necesarios para el calculo de la
DFT. Los algoritmos que hacen uso de estas simetras se comenzaron a desarrollar
mas fuertemente a partir de mediados de los a
nos 60 y reciben el nombre generico
de transformada r
apida de Fourier o FFT por su denominacion en ingles3 .
Para maximizar el aprovechamiento de las simetras es conveniente elegir secuencias y[k] cuyo largo se una potencia de 2, es decir:
N = 2v
para algun v Z+
(C.2.21)
Esto no implica perder generalidad, pues en los casos en que no pueden tomarse
mas valores de la secuencia original podemos completar con ceros hasta la potencia
de 2 mas cercana (aunque ello significa la introduccion de un grado variable de
inexactitud).
Consideremos la forma en que se calcula el coeficiente Hn , seg
un la ecuacion
(C.2.18). Si tenemos una secuencia de longitud N par, podemos separarla en una
que contenga los valores de y[k] cuando k es par y otra para los k impares. Es decir:
Hn =
N
1
X
y[k]WNnk
(C.2.22)
k=0
N/21
X
r=0
2 Del
N/21
n(2r)
y[2r]WN
n(2r+1)
y[2r + 1]WN
(C.2.23)
r=0
3 Fast
336
La transformaci
on de Fourier
Ap
endice C
Pero podemos apreciar que las nuevas secuencias, y[2r] e y[2r+1], son secuencias
de largo N/2, por lo que podra escribirse las sumatorias como la serie de Fourier
discreta modificada que les corresponde. Justamente esto sucede en forma natural
al observar que
n(2r)
WN
nr
= ej N n(2r) = ej N/2 nr = WN/2
(C.2.24)
Hn =
N/21
n(2r)
y[2r]WN
r=0
=
=
r=0
Hnpar
WNn
(C.2.25)
r=0
N/21
n(2r)
y[2r + 1]WN
N/21
nr
y[2r]WN/2
WNn
nr
y[2r + 1]WN/2
(C.2.26)
r=0
+ WNn Hnimpar
(C.2.27)
Como antes mencionamos, para calcular los terminos Hn para una secuencia de
longitud N por el metodo directo, se requieren del aproximadamente N 2 multiplicaciones complejas en el producto matricial (C.2.20). Analogamente para calcular
cada uno de los terminos Hnpar y Hnimpar , que corresponden a secuencias de largo
N/2, requeriremos (N/2)2 multiplicaciones complejas para cada uno. Y para poder
formar cada uno de los N terminos Hn requerimos una u
nica multiplicacion compleja mas, seg
un (C.2.27).
Es importante hacer notar que dado que las secuencias y[2r] e y[2r + 1] son N/2
nr
periodicas en r, sus armonicas WN/2
, tambien lo son:
(l+N/2)
WN/2
l
= ej N/2 (l+N/2) = ej N/2 l ej2 = ej N/2 l = WN/2
(C.2.28)
N +2
N
2
2
N2
N 2
(C.2.29)
Sin embargo, y he aqu la facilidad que entrega el suponer que N es una potencia
de 2, las secuencias y[2r] e y[2r +1], tienen longitud par (N/2 tambien sera potencia
de 2), por tanto podemos aplicarles este mismo metodo. Es decir, cada una puede
separarse en dos subsecuencias de longitud N/4. Con esto el n
umero de calculos
necesarios seran
2 !
2
N
N
N
N +2
+2
=N +N +4
(C.2.30)
2
4
4
Section C.2.
337
2000
1500
1000
500
10
15
20
25
N
30
35
40
45
50
338
La transformaci
on de Fourier
Ap
endice C
Esto se representa en la figura C.8, donde sobre las lineas de flujo se coloca el
factor que une a los datos
H0p
W80
H1p
H0
H1
W81
H2p
H2
W82
H3p
H3
W83
H0i
W84
H1i
W85
H2i
W86
H3i
W87
H4
H5
H6
H7
Section C.2.
339
H0pp
H1pp
H0pi
H1pi
H0ip
H1ip
H0ii
H1ii
H0
W80
W80
W82
W81
W84
W86
H2
W82
H3
W83
W80
W84
W82
W85
W84
W86
H1
W86
W87
H4
H5
H6
H7
Finalmente al subdividir nuevamente las secuencias quedan terminos individuales que corresponden a los 8 valores de la secuencia original considerada:
Hnpp = Hnppp + W84n Hnppi = y0 + W84n y1
Hnpi = Hnpip + W84n Hnpii = y2 + W84n y3
Hnip = Hnipp + W84n Hnipi = y4 + W84n y4
Hnii = Hniip + W84n Hniii = y6 + W84n y7
Estos productos calculos se agregan al esquema anterior, tal como se muestra
en la figura C.10, donde podemos apreciar claramente que en cada etapa se realizan 8 multiplicaciones complejas, totalizando un total de 24. En caso de haber
hecho los c
alculos de manera directa hubiera resultado necesario ralizar 82 = 64
multiplicaciones.
340
La transformaci
on de Fourier
y0
y1
y2
y3
y4
y5
y6
y7
W80
W84
W80
W84
W80
W84
W80
W84
Ap
endice C
H0
W80
W80
W82
W81
W84
W86
H2
W82
H3
W83
W80
W84
W82
W85
W84
W86
H1
W86
W87
H4
H5
H6
H7
Apendice D
LA TRANSFORMADA DE
LAPLACE
D.1
D.1.1
Transformada de Laplace
Definici
on de la Transformada
Sea una se
nal de tiempo continuo y(t), 0 t < , entonces la Transformada de
Laplace asociada a y(t), y su transformada inversa estan definidas como
Z
L [y(t)] = Y (s) =
est y(t)dt
(D.1.1)
L1 [Y (s)] = y(t) =
1
2j
+j
est Y (s)ds
(D.1.2)
(D.1.3)
341
342
La transformada de Laplace
Ap
endice D
con regi
on de convergencia <{s} > . SI denotamos como h(t) a su correspondiente funci
on temporal, i.e.
H(s) = L [h(t)]
(D.1.4)
(D.1.5)
Demostraci
on
De la definici
on de la transformada de Laplace tenemos que, para todo s en la regi
on
de convergencia de la transformada, i.e. en <{s} >
Z
H(s) =
h(t)est dt
(D.1.6)
0
(D.1.7)
t0
(D.1.8)
1
s2
para
<{s} > 2
(D.1.9)
Section D.1.
343
Transformada de Laplace
Z
ez0 t y(t)dt
I(z0 ) =
(D.1.10)
Z
3t 2t
I(3) =
et dt = 1
e dt =
(D.1.11)
Note que esto se podra haberse obtenido como consecuencia de lema D.1 ya que
Y (3) =
1
=1
32
(D.1.12)
D.1.2
, C
(D.1.13)
Demostraci
on
Esta propiedad es directa dado que la transformada de Laplace esta definida mediante la integral (D.1.1) :
Z
= Y1 (s) + Y2 (s)
222
344
La transformada de Laplace
d y(t)
dt
d y(t)
L
= sY (s) y(0 )
dt
Ap
endice D
es continua
(D.1.14)
Demostraci
on
Seg
un la definici
on tenemos:
Z
d y(t)
d y st
e dt
L
=
dt
0 dt
En esta si se integra por partes,
Z
= e y(t) + s
y(t)est dt
0
0
st
= lim e y(t) y(0 ) + sL [y(t)]
st
d y(t
L
= sY (s) y(0 )
(D.1.15)
dt
222
Maple tambien es capaz de reconocer esta y otras propiedades, mediante los
comandos:
> with(inttrans):
laplace(diff(y(t),t),t,s);
s laplace(y(t), t, s) y(0)
Corollario D.2. Derivadas de orden superior.
Si se extiende este resultado, aplicando este lema recursivamente a las derivadas
de orden superior puede demostrarse que
d n1 y(0 )
d n y(t)
= sn Y (s) sn1 y(0 )
n
dt
dt n1
n Z+
(D.1.16)
Section D.1.
345
Transformada de Laplace
Ilustramos esto en el siguiente ejemplo, en que cada paso del desarrollo se acompa
na por los comandos en Maple correspondientes.
Ejemplo D.2. Considere la ecuaci
on diferencial
> edo :=
diff(theta(t),t,t)+2*diff(theta(t),t)=v_a(t)
d 2
d
+2
= va (t)
(D.1.17)
dt 2
dt
Si tomamos transformada de Laplace a ambos lados de la ecuaci
on y aplicamos
D.1.16 se obtiene
> EDO := laplace(edo,t,s);
) = Va (s)
s2 (s) + 2s(s) (s + 2)(0 ) (0
(D.1.18)
1
(s) =
Va (s)
s2 + 2s
1
1
=
s2 + 2s s
Expandiendo en fracciones parciales obtenemos
> Theta(s):=convert(Theta(s),parfrac,s);
(s) =
1
1
1
+
4(s + 2) 2s2
4s
(D.1.19)
1
1 2t 1
e
+ t
4
2
4
(D.1.20)
346
La transformada de Laplace
Ap
endice D
1
L
y( )d = Y (s)
(D.1.21)
s
0
Demostraci
on
Si reemplazamos la integral en la definicion de la transfomada (D.1.1), podemos
hacer una integral por partes:
Z
y( )d e|st
{zdt}
{z
} dv
y( )d =
0
est
=
y( )d
s 0
0
Z
1
=0+
y(t)est dt
s 0
t
y(t)
0
est
dt
s
222
Lema D.5. Derivada en s.
Sea y(t) una funci
on continua con L [y(t)] = Y (s), entonces
L [tn y(t)] = (1)n
d n Y (s)
ds n
Demostraci
on
Este resultado se establece derivando ambos lados de la ecuaci
on
Z
Y (s) =
y(t)est dt
y as` obtenemos
dY (s)
=
ds
y(t)est dt
s
ty(t)est dt
= L [t y(t)]
(D.1.22)
Section D.1.
347
Transformada de Laplace
Y el lema se obtiene aplicando esto repetidamente aunque, en rigor, para intercambiar derivada con integral se requieren ciertas propiedades de regularidad.
222
Este lema puede resultar u
til para obtener la transformada de Laplace de funciones que aparecen multiplicadas por la variable t, como en el siguiente ejemplo.
Ejemplo D.3. Consideremos la funci
on y(t) = t2 y obtengamos su transformada
de Laplace.Seg
un la definici
on
Z
2
t2 est dt
L t =
0
Y para resolver se puede integrar por partes dos veces. Sin embargo, si se aplica
el lema D.5 tenemos
d2
L t2 1 = (1)2 2 L [1]
ds
d2 1
=
ds 2 s
1
d
2
=
ds
s
2
= 3
s
La propiedad en si y el ejemplo pueden realizarse en Maple , mediante los
siguientes comandos
>laplace(t*y(t),t,s);
laplace(y(t), t, s)
s
(D.1.23)
348
La transformada de Laplace
Ap
endice D
Demostraci
on
Dado que la funci
on escal
on unitario es igual a 0 antes de a y 1 despues, la transformada de Laplace puede calcularse con la definici
on
Z
Z0
(t a)y(t a)est dt
y(t a)est dt
Za
y(t)es(t+a) dt
Z
= esa
y(t)est dt
=
0
sa
= e
Y (s)
p(t) =
1
0
; si 0 t < a
; si t a
Esta se
nal puede escribirse usando la funci
on de Heaviside o escal
on unitario
(t) sin necesidad de definirla por tramos. En Maple
> assume(a>0);
p(t):=Heaviside(t)-Heaviside(t-a);
p(t) = (t) (t a)
Y usando la propiedad (D.1.23), o calculano con Maple , se obtiene
> P(s):=laplace(p(t),t,s);
Section D.1.
349
Transformada de Laplace
1 1 as
e
s s
1
= 1 esa
s
P (s) =
Este ejemplo puede extenderse a cualquier funcion que este definida por tramos,
cuya transformada de otra forma se tendra que calcular separando la integral
(D.1.1) de la definicion.
Se deja al lector obtener una expresion para f (t)p(t) en que p(t) es el pulso del
ejemplo anterior, y f (t) es alguna funcion continua en el intervalo 0 < t < a. A
continuacion se presenta otro resultado relacionado con el desplazamiento temporal
de una funcion.
Lema D.7. Funci
on peri
odica.
Tomemos una funci
on perodica
y(t) =
yT (t nT )
(D.1.24)
n=0
en que yT (t) es cero fuera del intervalo [0, T ], es decir, yT (t) = [(t) (t
T )]y(t). Entonces la transformada de Laplace de y(t) es
L [y(t)] =
1
YT (s)
1 esT
(D.1.25)
L [y(t)] =
enT s YT (s)
n=0
Y (s) = YT (s)
enT s
n=0
1 limn enT s
Y (s) = YT (s)
1 esT
350
La transformada de Laplace
Ap
endice D
y dentro de la regi
on de convergencia limn enT s 0
Y (s) =
1
YT (s)
1 esT
222
L eat y(t) = Y (s a)
(D.1.26)
Demostraci
on
De la definicion (D.1.1), tenemos que
L eat y(t) =
Z0
eat y(t)est dt
y(t)e(sa)t dt
= Y (s a)
222
Lema D.9. Convoluci
on
Sean y1 (t) e y2 (t) funciones continuas en (0, +), talque son iguales a cero para
t < 0, cuyas transformadas de Laplace son Y1 (s) e Y2 (s), respectivamente. Entonces
la transformada de la convoluci
on entre y1 (t) e y2 (t) es:
L [y1 (t) y2 (t)] = Y1 (s)Y2 (s)
(D.1.27)
En que
Z
y1 (t) y2 (t) =
y1 ( )y2 (t )d
(D.1.28)
Demostraci
on
Si las se
nales son causales, es decir, su valor es cero t < 0, entonces podemos
reescribirlas
Section D.1.
351
Transformada de Laplace
0
Z
st
y1 ( )( )
[y2 (t )(t )] e dt d
y1 ( )( )es Y2 (s)d
Z
= Y2 (s)
y1 ( )es d
= Y2 (s)Y1 (s)
222
Lema D.10. Producto en t
Sean y1 (t) e y2 (t) funciones continuas en (0, +), cuyas transformadas de
Laplace son Y1 (s) e Y2 (s), respectivamente. Entonces la transformada del producto
entre y1 (t) e y2 (t) es:
1
L [y1 (t)y2 (t)] =
2j
+j
Y1 ()Y2 (s )d
(D.1.29)
Demostraci
on
Si reemplazamos el producto de las funciones dentro de la definicion de la transformada, podemos demostrar la propiedad escribiendo una de ellas como la transformada inversa de su transformada de Laplace:
352
La transformada de Laplace
Z
L [y1 (t)y2 (t)] =
0
Z
=
0
Ap
endice D
y1 (t)y2 (t)est dt
Z +j
1
t
Y1 ()e d y2 (t)est dt
2j j
1
2j
1
2j
+j
Y1 ()
j
+j
et y2 (t)est dt d
Y1 ()Y2 (s )d
j
222
Teorema D.1. . [Teorema del Valor Final y Teorema del Valor Inicial]
Existen dos resultados que permiten obtener relaciones entre comportamientos
asint
oticos de la funci
on y(t) y su tranformada Y (s). Estos se conocen como el
teorema del Valor Inicial y teorema del Valor Final.
(D.1.30)
(D.1.31)
t0
s
s0
Demostraci
on
Las demostraciones se basan en resultados anteriores
(i) Teorema del Valor Inicial.
Supongamos primero que y(t) es continua en t = 0, i.e. y(0 ) = y(0+ ) = y = 0.
Si usamos la ecuaci
on (D.1.14) tenemos
Z
d y(t) st
e dt = sY (s) y(0 )
dt
Section D.1.
353
Transformada de Laplace
d y(t) st
e dt
dt
Z0
=k
d y(t) st
dt e dt
ket est dt
(s)t
s + 0
y si s entonces
k
s
d y(t) st
k
e dt
dt
s
0, de donde se obtiene
lim sY (s) = lim y(t)
t0+
Ahora si la funci
on y(t) no es continua, podemos definir
(D.1.32)
d y(t) st
e dt = sY (s) y(0 )
dt
h
d y(t) st
y(0+ ) y(0 ) i
e dt = s Y (s)
y(0 )
dt
s
= sY (s) y(0+ )
d y(t)
dt = sY (s) y(0 )
dt
(D.1.33)
354
La transformada de Laplace
d y(t) st
lim
e dt = lim sY (s) y(0 )
s0
s0
dt
0
Ap
endice D
(D.1.34)
d y(t)
lim est dt = lim sY (s) y(0 )
(D.1.35)
s0
s0
dt
0
Z
d y(t)
dt = lim sY (s) y(0 )
(D.1.36)
s0
dt
0
lim y(t) y(0 ) = lim sY (s) y(0 )
(D.1.37)
t
s0
s0
(D.1.38)
222
s2
s
+ 02
lim
s0
s2
=0
s2 + 02
222
Ejemplo D.6. Una distinci
on importante de hacer es que en el caso en que la
respuesta de un sistema sea discontinua en t = 0 el teorema del Valor Inicial entrega
el valor de la salida en t = 0+ el que puede no coincidir con la condici
on inicial
dada. Veamos esto en un ejemplo simple en que tenemos un circuito como el de la
figura D.1 en que se conecta la batera de 1[V] en t = 0, y todas las condiciones
iniciales son cero.
Por ley de voltajes de Kirchoff tenemos
vf (t) = vR (t) + vC (t)
Z
1 t
i( )d
(t) = Ri(t) +
C
Section D.1.
355
Transformada de Laplace
R
+
vf (t)
vc (t)
i(t)
Figura D.1. Circuito RC
1
1
= R sI(s) i(0 ) + I(s)
s
C
y despejando se obtiene
I(s) =
1
sR +
1
C
s
s sR +
1
=
R
= lim
1
C
1/R
1
=L
s + 1/RC
1
= et/RC (t)
R
356
La transformada de Laplace
Ap
endice D
f (t)
l
X
L [f (t)]
l
X
ai yi (t)
i=1
dk y(t)
dtk
sY (s) y(0 )
k
s Y (s)
Pk
i=1
ki
di1 y(t)
dti1 t=0
1
Y (s)
s
y( )d
0
i=1
dy(t)
dt
ai Yi (s)
Comentarios
dY (s)
ds
ty(t)
tk y(t)
(1)k
dk Y (s)
dsk
y(t )(t )
es Y (s)
eat y(t)
Y (s a)
k {1, 2, 3, . . .}
(t) :
escalon unitario
y1 ( )y2 (t )d
y1 (t)y2 (t)
lim y(t)
lim y(t)
t0+
Y1 (s)Y2 (s)
1
2j
+j
Y1 ()Y2 (s )d
Convolucion compleja
lim sY (s)
s0
lim sY (s)
Section D.1.
357
Transformada de Laplace
f (t)
(t 0)
L [f (t)]
Region de Convergencia
1
s
>0
D (t)
|| <
(t )
es
s
>0
1
s2
>0
n!
tn
n Z+
et
1
s
> <{}
tet
1
(s )2
> <{}
s
s2 + o2
>0
o
+ o2
>0
cos(o t)
sin(o t)
et sin(o t + )
sn+1
s2
>0
> <{}
2o s
+ o2 )2
>0
t cos(o t)
s2 o2
(s2 + o2 )2
>0
(t) (t )
1 es
s
|| <
t sin(o t)
(s2
358
D.1.3
La transformada de Laplace
Ap
endice D
Descomposici
on en fracciones parciales
Y1 (s) =
=
+
(D.1.40)
(s + 1 )(s + 2 )
s + 1
s + 2
H1 (s) =
(D.1.41)
(D.1.42)
(D.1.43)
Section D.1.
359
Transformada de Laplace
Finalmente teniendo estos valores de las constantes puede verse en la tabla D.2
la tranformada inversa
1
y1 (t) = L
+
= e1 t + e2 t
(D.1.44)
s + 1
s + 2
222
En el ejemplo anterior al descomponer la funcion racional (D.1.39) en dos fracciones (D.1.40), para encontrar las constantes se resolvio el sistema (D.1.42) de dos
ecuaciones y dos incognitas. Sin embargo, si el polinomio denominador es de orden
N el metodo desemboca en resolver un sistema de N ecuaciones y N inc
ognitas !.
Es por esto que en el siguiente ejemplo se muestra un metodo mas practico.
Ejemplo D.8. Consideremos el sistema
2s + 1
(D.1.45)
s3 + 3s2 4s
Del polinomio denominador pueden calcularse los polos del sistema. Estos se
ubican en s = 0, 4, 1, Por lo cual interesa descomponerlo en la forma
Y2 (s) =
s3
2s + 1
= +
+
2
+ 3s 4s
s
s+4 s1
(D.1.46)
s
s
2s + 1
=+
+
+ 3s 4
s+4 s1
1
=
4
"
#
2s + 1
(s + 4)
(s + 4)
++
=
s(s 1)
s
s1
s=4
s=4
7
=
20
De manera an
aloga pueden encontrarse la tercera constante, multiplicando por
(s 1) y reemplazando s = 1
#
"
2s + 1
(s 1) (s 1)
+
+
=
s(s + 4)
s
s+4
s=1
3
=
5
s=1
360
La transformada de Laplace
Ap
endice D
Como puede verse este metodo de multiplicar por cada uno de los polinomios
factores del denominador, para luego reemplazar la variable s por la respectiva raz,
permite llegar de manera mucho m
as directa a los coeficientes de la descomposici
on
(D.1.46). Con ayuda de la tabla D.2 se obtiene finalmente
1
3
7
20
1 4
+
+ 5
y2 (t) = L
s
s+4 s1
7
1
3
= e4t + et
(D.1.47)
4 20
5
222
Se deja al lector verificar que la funci
on obtenida es la misma que se obtiene si
se aplica el metodo del ejemplo D.7.
Cabe destacar que en el ejemplo D.8 se ha aprovechado que al multiplicar por
cada factor del denominador (s ) y reemplazar por s = todos los terminos
de la descomposicion en fracciones parciales se hacen cero, excepto el coeficiente
1
correspondiente a s
. Sin embargo, en caso de existir races repetidas, aparecera
una indefinicion al reeplazar (s = ).
Ejemplo D.9. En el caso de races repetidas, la descomposici
on en fracciones
parciales no toma la forma (D.1.40), sino que se descompone como
Y3 (s) =
As + B
=
+
(s )2
s (s )2
(D.1.48)
Y3 (s) =
(D.1.49)
(D.1.50)
222
Section D.1.
361
Transformada de Laplace
complejos conjugados2 , los coeficientes de la expansion en fracciones parciales tambien son complejos conjugados. Esto asegura que las funciones exponenciales complejas que se obtienen en (D.1.44) son iguales a sinusoidales multiplicadas por exponenciales reales. Se deja al lector como ejercicio esta demostracion.
Ejemplo D.10. Cuando el denominador de una funci
on racional de la forma
(D.1.39) tiene races complejas se suele escribir como
Y4 (s) =
As + B
;
s2 + 2n s + n2
0<1
(D.1.51)
Expresi
on en que se denomina factor de amortiguaci
on. Dado que en la tabla
D.2 tenemos s
olo expresiones en que el denominador es una suma de cuadrados,
podemos escribir la funci
on de la forma
Y4 (s) =
As + B
p
(s + n )2 + (n 1 2 )2
(D.1.52)
Y4 (s) =
p
A(s + n ) (An + B) (n 1 2 )
p
=
+
D(s)
D(s)
(0 1 2 )
(D.1.53)
en que el denominador es
D(s) = (s + n )2 + (n
1 2 )2
(D.1.54)
1 2t +
p
(An + B) n t
p
e
sin n 1 2 t (D.1.55)
2
(n 1 )
222
2 Esto
3 Use
362
La transformada de Laplace
Ap
endice D
1
1
e 2 Ct DA cos( 12 4 D C 2 t)
1 e 2 Ct C 3 B cos( 21 4 D C 2 t)
+4
h(t) =
2
(4 D C 2 ) D
4 D C2
1
1
12 Ct 2
Ct
e
C A cos( 2 4 D C 2 t) e 2 AC sin( 12 4 D C 2 t)
4 D C2
4 D C2
1
1
e 2 Ct CB cos( 12 4 D C 2 t)
e 2 Ct B sin( 12 4 D C 2 t)
2
+2
4 D C2
4 D C2
12 Ct
CB cos( 12 4 D C 2 t)
1 e
+
2
D
Es importante notar que Maple , en este caso, ha supuesto que el termino
4DC 2 es estrictamente positivo, es decir, que las races del polinomio denominador
son reales y distintas. En consecuencia, si bien el uso de software puede ayudar
bastante en un desarrollo matematico, lo fundamental es entender e interpretar lo
resultados que se obtienen.
Section D.1.
363
Transformada de Laplace
Y (s)
y(t) = L1 [Y (s)] ; t 0
D (t)
e s , > 0
D (t )
1
s
(t)
1
, n {2, 3, . . .}
sn
tn1
(n 1)!
k
s+
ket
e s
, > 0
s+
e(t ) (t )
a1 s + a0
(s + 1 )(s + 2 )
C1 e1 t + C2 e2 t
C1 =
a1 s + a0
(s + )2
1 a1 a0
1 2
; C2 =
a1 et + (a0 a1 )tet
h
i
et C1 cos(0 t) + C2 sen(0 t)
a1 s + a0
(s + )2 + 02
C1 = a1 ; C2 =
k
s(s + )
a1 s + a0
s (s + )2 + 02
2 a1 +a0
1 2
a0 a1
0
k
1 et
a
h
i
t
1
e
C
cos(
t)
+
C
sin(
t)
1
0
2
0
2
a0
+ 0
C1 = a0 ; C2 =
a0 a1 (2 +02 )
0
Apendice E
LA TRANSFORMACION
ZETA
E.1
Definici
on de la Transformaci
on
Dada una se
nal de tiempo discreto f [k], 0 k < . La transformacion Zeta, y
la transformacion Zeta inversa, estan definidas por
Z [f [k]] = F (z) =
f [k]z k
(E.1.1)
k=0
1
[F (z)] = f [k] =
2j
I
f (z)z k1 dz
(E.1.2)
X
k=
f [`]ej`
X
f [`]
k=0
|z|`
ej` ;
|z| >
(E.1.3)
Section E.1.
365
Definici
on de la Transformaci
on
F (z)z k d =
f [k]|z|k`
ej(k`) d
(E.1.4)
`=0
Por otra parte, sabemos que las exponenciales periodicas 1, ej , ej2 , ej3 , . . .
forman un conjunto de funciones ortogonales, ya que
(
Z 2
0
k 6= `
jk j`
j(`k)
e
he , e i =
d =
(E.1.5)
2 k = `
0
Con este resultado, (E.1.4) se simplifica a
f [k] =
1
2
F (z)z k d
(E.1.6)
(E.1.7)
(E.1.8)
X
1 (z 1 )k
Z k [k] =
k z k =
(z 1 )k = lim
k 1 (z 1 )
k=0
k=0
Donde la expresi
on al lado derecho converge si y s
olo si
(E.1.9)
366
La Transformaci
on Zeta
Ap
endice E
(E.1.10)
Z k [k] =
z
1
=
1 z 1
z
(E.1.11)
222
E.2
, C
(E.2.1)
Demostraci
on
Esta propiedad se demuestra sin problema ya dado que la transformada Zeta se
define mediante la integral (E.1.1) :
k=0
y1 [k]z
k=0
y2 [k]z k
k=0
= Y1 (z) + Y2 (z)
Se debe hacer notar que en este caso la region de convergencia de la combinacion
lineal de las transformadas es la intersecci
on de la region de convergencia de cada
una por separado.
222
Z ak y[k] = Y
a
(E.2.2)
Section E.2.
367
Demostraci
on
Seg
un la definicion tenemos:
z k
z
X
X
Z ak y[k] =
ak y[k]z k =
y[k]
=Y
a
a
k=0
(E.2.3)
k=0
z
z
; || < 1
Y2 (z) = Y1
1 j0 k
(re ) + (rej0 )k )
2
368
La Transformaci
on Zeta
Ap
endice E
1 j0 k
Z (re ) + Z (rej0 )k )
2
1
z
z
=
+
2 z rej0
z rej0
1
z(2z 2r cos 0 )
=
2 z 2 z2r cos 0 + r2
z(z r cos 0 )
= 2
z z2r cos 0 + r2
Y (z) =
(E.2.4)
Demostraci
on
Directa de la definicion (E.1.1)
Z [y [k]] =
y [k]z k
k=0
!
y[k](z )k
= {Y (z )}
k=0
222
Lema E.4. Desplazamientos en k.
Sea y[k] una secuencia discreta en que 0 k < cuya transformada Zeta es
Y (z). Entonces, dado un entero k0 > 0, tenemos los siguientes resultados para la
transformada Zeta de la secuencia y[k] desplazada
Z [y[k k0 ]] = Y (z)z k0 + y[1]z k0 +1 + . . . + y[k0 + 1]z 1 + y[k0 ] (E.2.5)
Section E.2.
369
Z [y[k k0 ]] =
y[k k0 ]z k
k=0
y[k k0 ]z k
k=k0
Z [y[k k0 ]] =
l=0
=z
k0
!
y[l]z
l=0
Z [y[k + k0 ]] =
=
y[k + k0 ]z k
k=0
y[l]z (lk0 )
l=k0
"
=z
k0
y[l]z
l=0
l=0
(E.2.7)
370
La Transformaci
on Zeta
Ap
endice E
z k0
z
d Y (z)
dz
(E.2.8)
Demostraci
on
De la definicion (E.1.1), tenemos que
Z [k y[k]] =
=
ky[k]z k
k=0
ky[k]z k
k=0
= z
(k)y[k]z k1
k=0
d Y (z)
= z
dz
222
Ejemplo E.5. Consideremos el caso en que la secuencia discreta a la cual queremos
calcularle su transformada Zeta es una rampa de tiempo discreto, es decir:
y[k] = k[k]
Seg
un (E.2.8) su transformada ser
a
Section E.2.
371
d
z
Z [k[k]] = z
dz z 1
(z 1) z
= z
(z 1)2
z
=
(z 1)2
(E.2.9)
En que
y1 [k] y2 [k] =
k
X
y1 [l]y2 [k l]
(E.2.10)
l=0
Demostraci
on
Si las se
nales son causales, es decir, su valor es cero k < 0, entonces podemos
reescribirlas
y1 [k] = [k]y1 [k]
y2 [k] = [k]y2 [k]
Con esto, la convolucion es equivalente a
y1 [k] y2 [k] =
y1 [l][l]y2 [k l][k l]
l=
k=0
X
l=
!
y1 [l][l]y2 [k l][k l] z k
l=
y1 [l][l]
X
k=0
!
y2 [k l][k l]z
372
La Transformaci
on Zeta
Ap
endice E
y1 [l][l]z l Y2 (z)
l=
= Y2 (z)
y1 [l]z l
l=0
= Y2 (z)Y1 (z)
222
Teorema E.1 (Teorema del Valor Final y Teorema del Valor Inicial).
Existen dos resultados que relacionan el comportamiento asint
otico de la funci
on
y[k] y su tranformada Y (z). Estos se conocen como el teorema del Valor Inicial y
teorema del Valor Final en tiempo discreto.
lim Y (z) = y[0]
(E.2.11)
(E.2.12)
z
z1
Y (z) =
y[k]z k
k=0
= y[0]
Con lo que se demuestra el Teorema del Valor Inicial.
Section E.2.
373
k
X
(y[l + 1] y[l])z l
l=0
z1
z1
l=0
k
X
(y[l + 1] y[l])
l=0
z1
Donde el u
ltimo paso al lado derecho se justifica ya que la sumatoria corresponde
a una serie telescopica. De esta forma se demuestra el Teorema del Valor Final, o
valor de equilibrio.
374
La Transformaci
on Zeta
y[k]
l
X
Y (z) = Z [y[k]]
l
X
ai yi [k]
i=1
Ap
endice E
Comentarios
ai Yi (z)
i=1
k y[k]
C, <{} > 0
y [k]
Y (z )
Conjugacion
y[k k0 ]
k0 Z+
y[k + k0 ]
k0 Z+
y[k k0 ][k k0 ]
z k0 Y (z)
k0 Z+
ky[k]
k
X
y1 [l]y2 [k l]
dY (z)
dz
Y1 (z)Y2 (z)
Convolucion en k
lim Y (z)
l=0
y[0]
lim y[k]
z1
Section E.2.
y[k]
375
Y (z) = Z [y[k]]
Region de Convergencia
K [k]
z C
z
z1
|z| > 1
z
(z 1)2
|z| > 1
z
z
|z| > ||
ej0 k
z
z ej0
|z| > 1
cos(0 k)
z(z cos 0 )
z 2 2z cos 0 + 1
|z| > 1
sin(0 k)
z sin 0
z 2 2z cos 0 + 1
|z| > 1
k cos(0 k)
z(z cos 0 )
z 2 2z cos 0 + 2
|z| > ||
k sin(0 k)
z sin 0
z 2 2z cos 0 + 2
|z| > ||
cos(0 k + )
|z| > 1
1 (z 1 )N
1 z 1
|z| > 0
(
k
0
(k 0)
;0 k < N
;k N
Apendice F
MATRICES. DEFINICIONES Y
PROPIEDADES
En este apendice se establecen las bases metamaticas necesarias para algunos de los
desarrollos presentados en los captulos del libro. Estos se refieren principalmente
a las definiciones de algunos tipos especiales de matrices y a sus propiedades asociadas. Tambien se presentan otras propiedades u
tiles para simplificar desarrollos o
trabajar, por ejemplo, con matrices definidas por bloques.
F.1
Conceptos B
asicos
Intuitivamente se puede decir que una matriz no es mas que un arreglo rectangular
de filas y columnas, cuyos elementos puedes ser n
umero, funciones u otros objetos
matematicos, entre los cuales se encuentren definidos la suma y la multiplicacion.
De esta forma entre las matrices se pueden definir algunas operaciones basicas, como
la suma, la resta y el producto por un escalar, y otras en que se deben hacer ciertas
definiciones especiales, como la multiplicacion (y su operacion inversa, la division).
Sin embargo, puede ser bueno formalizar lo que entenderemos en el presente
apendice por matriz:
Definici
on F.1. Una matriz es un arreglo de n m objetos pertenecientes a un
cuerpo K, dispuestos rectangularmente en n filas y m columnas.
Definici
on F.2. Cada uno de los objetos que forman parte de la matriz se denominan elementos de la matriz, y se denotan por aij en que el subndice representa
su ubicaci
on dentro del arreglo: aij es el elemento que se encuantra sobre la i-esima
fila y en la j-esima columna.
Una matriz se denotara por A = {aij } y se puede representar como el arreglo
rectangular de n
umeros, entre parentesis redondos o de corchetes:
376
Section F.1.
377
Conceptos B
asicos
A = {aij }
i=1...n ; j=1...m
a11
a21
..
.
an1
a11
...
a22
...
..
.
..
an2
...
a1m
a11
a2m
a21
=
..
..
.
.
an1
anm
a11
...
a22
...
..
.
..
an2
...
a1m
a2m
..
.
anm
(F.1.1)
(F.1.2)
a+bK
, existe cerradura.
(b)
a + (b + c) = (a + b) + c
(c)
0 K tal que a + 0 = 0 + a = a
neutro aditivo.
(d)
(e)
a+b=b+a
abK
(b)
a (b c) = (a b) c
(c)
1 K tal que a 1 = 1 a = a
neutro multiplicativo.
378
Ap
endice F
(d)
0 K tal que a 0 = 0 a = 0
absorvente del cero.
(e)
(f )
(g)
ab=ba
Tipos de Matrices
Definici
on F.4. Una matriz formada por n filas y 1 columna se denomina vector
columna
En base a esta definicion podemos decir tambien que una matriz de n m esta
formada por m vectores columna, de n elementos cada uno.
Definici
on F.5. Una matriz formada por 1 fila y m columnas se denomina vector
fila
Analogamente a lo anterior, en base a esta definicion podemos decir que una
matriz de n m esta formada por n vectores fila, de m elementos cada uno.
En general, cuando se defina un vector de dimension p nos referiremos a un
vector columan formado por p elementos.
Definici
on F.6. Dada una matriz A = {aij } de dimensiones n m, la matriz
B = {ij}, de dimensiones m n, es la traspuesta de A, si y solo si bij = aji i, j.
Es decir B es una matriz cuyas columnas son las filas de A, y se denota por AT
Ejemplo F.1. Dada la matriz A
A=
0
5
(F.1.3)
su traspuesta es
T
A = 0
(F.1.4)
Section F.1.
Conceptos B
asicos
Definici
on F.7. Una matriz se demomina
n
umero de filas que de columnas.
379
cuadrada si y solo si tiene igual
Definici
on F.8. Una matriz A = {aij } se denomina diagonal si y solo si es
cuadrada y aij = 0 i 6= j , es decir, todos los elementos fuera de la diagonal
principal de la matriz son cero.
Notar que de la definicion se desprende que si A es diagonal, entonces A = AT
Definici
on F.9. Una matriz A = {aij } se denomina triangular superior si y
solo si es cuadrada y aij = 0 i > j , es decir, todos los elementos bajo la diagonal
principal de la matriz son cero.
Definici
on F.10. Una matriz A = {aij } se denomina triangular inferior si y
solo si es cuadrada y aij = 0 i < j , es decir, todos los elementos sobre la diagonal
principal de la matriz son cero.
Notar que de si A es una matriz triangular superior, entonces AT es triangular
inferior, y vice-versa.
Rango de una matriz
Previo a esta seccion se sugiere al lector revisar en el apendice B, la seccion correspondiente a espacios vectoriales en que se definen los conceptos de combinacion
lineal y vectores linealmente independientes.
Definici
on F.11. Se define como rango columna de una matriz A al m
aximo
n
umero de columnas linealmente independientes.
Analogamente,
Definici
on F.12. Se define como rango fila de una matriz A al m
aximo n
umero
de filas linealmente independientes.
En base a estas definiciones, tenemos que
Definici
on F.13. Se define como rango de una matriz A al mnimo entre su rango
fila y su rango columna.
Finalmente,
Definici
on F.14. Una matriz se dice que es de rango completo si su rango es
igual su n
umero de filas o a su n
umero de columnas.
Determinante de una matriz
Para las matrices cuadradas se puede definir el calculo de su determinante, que tiene
directa relacion con el rango de la matriz, la existencia de su inversa, as como con
sus autovectores y autovalores, que se revisan mas adelante.
Una definicion formal puede ser
380
Ap
endice F
Definici
on F.15. Dada una matriz A cuadrada, es decir, de dimensiones n n,
su determinante es un escalar asociado a la matriz que se denota por
|A| = det(A)
(F.1.5)
a11
A=
a21
a12
a22
aij K
(F.1.6)
(F.1.7)
Entonces,
Ejemplo F.2.
Para matrices formadas por un u
nico elemento, su determinante es ese mismo
elemento:
" #!
det
aij
= aij
(F.1.8)
(F.1.9)
Section F.1.
381
Conceptos B
asicos
Definici
on F.19. Dada una matriz de n n, entonces su determinante se puede
calcular desarrollando a traves de su i-esima fila:
det(A) = ai1 Ai1 + ai2 Ai2 + . . . + ain Ain
n
X
=
aik Aik
(F.1.10)
(F.1.11)
k=1
(F.1.12)
(F.1.13)
k=1
a11
a21
a31
a12
a22
a32
a13
a22
=
a
11
a23
a32
a33
a21
a23
a12
a31
a33
a21
a23
+ a13
a31
a33
a22
a32
(F.1.14)
BIBLIOGRAPHY
[1] B.D.O. Anderson and John Moore. Optimal filtering. Prentice Hall, Englewood
Cliffs, N.J., 1979.
[2] R.C. Dorf and R. Bishop. Modern Control Systems. Prentice Hall, Englewood
Cliffs, New Jersey, 9th edition, 1997.
[3] G.F. Franklin and J.D. Powel. Digital Control of Dynamics Systems. AddisonWesley, second edition, 1990.
[4] Graham C. Goodwin, Stefan Graebe, and Mario E. Salgado. Control System
Design. Prentice Hall, New Jersey, 2001.
[5] K. Ogata. State Space Analisys of Control Systems. Prentice-Hall, Inc., Englewood Cliffs, New Jersey, 1967.
[6] H.H. Rosenbrock. State Space and Multivariable Theory. John Wiley and Sons,
New York, 1970.
[7] D.G. Schultz and J.L. Melsa. State Function and Linear Control Systems. McGraw Hill Book Company, New York, 1967.
[8] D.W. Wiberg. Theory and Problems of State Space and Linear Systems. McGraw
Hill Book Company, New York, 1971.
[9] Lotfi A. Zadeh and Charles A. Desoer. Linear System Theory: the state space
approach. McGraw Hill Book Company, New York, 1963.
[10] K. Zhou. Essentials of Robust Control. Prentice Hall, Englewood Cliffs, New
Jersey, 1998.
[11] K. Zhou, G. Salomon, and E. Wu. Balanced realization and model reduction for
unstable systems. International Journal of Robust and Nonlinear Control, 9:183
198, 1999.
382
Indice de nombres
Bode, xi
Euler, 24, 29
Heaviside, 20
Hurwitz, 96
Kalman, R.E., xi
Nyquist, xi
Routh, xi, 96
Taylor, 113
383
Indice de materias
desfase, 89
desigualdad triangular, 287
Desplazamiento en el tiempo, 304
Desplazamiento en frecuencia, 304
detectabilidad, 256
determinante, 380
disco unitario, 63
discretizacion, 57, 224
distancia, 287
dualidad, 256
ecuacion caracterstica, 36, 61
ecuacion de recursion, 56
ecuacion diferencial del sistema, 32
elimina banda, 131
entrada, 1
error, 93
errores en las variables, 270, 277
escalon
respuesta a, 156, 193
escalon unitario, 20
espacios de estado, 204
espectro continuo, 118
espectro de lnea, 89, 104
espectro en frecuencia, 89
estabilidad, 63, 167, 197
estabilizable
sistema, 248
estado, 204
del sistema, 205
observable, 250
variables de, 205
trayectoria, 206
385
Indice de materias
estado inicial, 3
estado, espacio de , 205
estado, vector de, 205
exponencial, 22, 27
creciente, 22, 27
exponencial imaginaria, 24
factor de amortiguamiento, 178
fase, 83, 99
fase mnima, 171
fase mnima , 198
forma canonica
controlable, 248
del controlador, 249
fracciones parciales, 358
frecuencia, 83, 99
frecuencia angular, 83, 99
frecuencia de corte, 131
frecuencia fundamental, 88
frecuencia natural
amortiguada , 178
dominante, 39, 67
no amortiguada, 178
frecuencias de corte, 132
frecuencias naturales, 37, 63
funcion muestreo, 21
funcion de transferencia, 121, 152, 153,
186, 190
bipropia, 154, 190
ceros, 153, 190
con retardo, 155
estrictamente propia, 154, 190
grado relativo, 154, 171, 190
impropia, 154
multiplicidad, 154
polos, 154
propia, 154, 191
funcion de transferencia
polos, 190
funcion de transferencia estable, 172,
199
ganancia, 40, 67
ganancia a continua, 40, 67
386
validacion, 266
modelos, 266
modo forzante, 40, 67
ganancia a, 67
modo natural
dominante, 39, 67
modos
forzados, 231
naturales, 231
particulares, 231
modos forzados, 40, 67
modos naturales, 37, 63, 199, 230
muestreo, 205, 224, 226, 228
norma, 287
norma inducida, 287
observabilidad, 250
forma canonica, 257
operador, 3
operador adelanto, 58
ortogonalidad, 88
Parseval, 97, 120, 139
pasa altos, 129
pasa bajos, 129
pasa banda, 131
PEM, 270, 277
perodo, 83, 99
plano de fase, 216
polinomio caracterstico, 61
polo
multiplicidad, 190
polos, 172, 199, 221, 358
dominantes, 174, 202
lentos, 174, 202
rapidos, 174, 202
prediccion
error de, 268, 270, 276, 278
primera diferencia, 12
promedio movil, 57
Propiedades transformada de Fourier,
316
Propiedades transformada de Fourier
discreta., 332
Indice de materias
387
Indice de materias
de tiempo discreto, 25
se
nales de prueba, 20
similaridad, 219, 236
sinuosoide
aperiodica, 28
sinusoidal, 83, 98
sinusoide, 24
amortiguada, 25
amplitud, 24
desfase, 24
discreta, 28
amortiguada, 29
frecuencia, 24
frecuencia angular, 24
formula de Euler, 24
perodo, 24
sistema
algebraico, 4, 6
dinamico, 2
dual, 256
hbrido, 205
sistema, 1
sistemas
muestreados, 225, 226
sistemas lineales, 5
solucion homogenea, 35, 60
solucion particular, 35, 62
subespacio
alcanzable, 248
no alcanzable, 248
observable, 256
no observable, 256
superposicion, 5
Tabla de transformadas de Fourier, 317
Tabla de transformadas de Fourier discretas, 333
Tabla transformada Zeta, 373
Tabla transformadas de Laplace, 356
Tabla transformadas de Laplace inversas, 356
transferencia
funcion de, 152, 186
transformaciones del estado, 219, 236