Sei sulla pagina 1di 157

Divisin de Estudios de Posgrado de la Facultad de Ingeniera

Notas del curso de SISTEMAS LINEALES

impartido por

Marco Tulio Mata Jimnez

para la Maestra en

Instrumentacin y Control Automtico

Enero-Junio de 2001

Contenido
1 Introduccin
1.1 1.2 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 3.1 3.2 El estudio de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Alcances del curso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1 2

2 Espacios lineales y operadores lineales

Espacios lineales sobre un campo . . . . . . . . . . . . . . . . . . . . . . . . . Independencia lineal, bases y representaciones en cambio de base . . . . . . . 2.2.1 Cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Operadores lineales y sus representaciones . . . . . . . . . . . . . . . . . . . . Sistemas de ecuaciones lineales algebraicas . . . . . . . . . . . . . . . . . . . Vectores propios, vectores propios generalizados y representaciones en la forma de Jordan de un operador lineal . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.1 Derivacin de la representacin en forma de Jordan . . . . . . . . . . . Funciones de una matriz cuadrada . . . . . . . . . . . . . . . . . . . . . . . . Normas y producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . Comentarios nales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Introduccin . . . . . . . . . . . . . . . . . . . . La descripcin entrada-salida . . . . . . . . . . . 3.2.1 Causalidad . . . . . . . . . . . . . . . . . 3.2.2 Invarianza en el tiempo . . . . . . . . . . 3.2.3 Matriz funcin de transferencia . . . . . . Descripcin en variables de estado . . . . . . . . 3.3.1 El concepto de estado . . . . . . . . . . . Descripcin matemtica de sistemas compuestos Introduccin . . . . . . . . . . . . . . . Soluciones de la ecuacin dinmica . . 4.2.1 Caso variante en el tiempo . . . 4.2.2 El caso invariante en el tiempo Ecuaciones dinmicas equivalentes . . 4.3.1 Caso invariante en el tiempo . . 4.3.2 Caso variante en el tiempo . . . i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

8 12 17 19 25

31 36 43 48 51

3 Descripcin matemtica de sistemas

53

3.3 3.4 4.1 4.2 4.3

53 55 58 62 63 64 64 67 73 74 74 81 84 84 89

4 Ecuaciones dinmicas lineales y matrices de respuesta al impulso

73

ii 4.3.3 Ecuaciones dinmicas variantes en el tiempo con A() peridica Matrices respuesta al impulso y ecuaciones dinmicas . . . . . . . . . . 4.4.1 Caso variante en el tiempo . . . . . . . . . . . . . . . . . . . . . 4.4.2 Caso invariante en el tiempo . . . . . . . . . . . . . . . . . . . . Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

CONTENIDO

4.4

4.5 5.1 5.2 5.3 5.4 5.5 5.6 6.1 6.2 6.3

. . . . .

. . . . .

. . . . .

91 92 92 94 98 99 105 105 106 110 112 113 114 118 118 120 131 132 134 134 134 134 134 134

5 Controlabilidad y observabilidad de ecuaciones dinmicas lineales

Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Observabilidad de ecuaciones dinmicas lineales . . . . . . . . . . . . . . . . . Descomposicin cannica de una ecuacin dinmica invariante en el tiempo . Controlabilidad y observabilidad de ecuaciones dinmicas en forma de Jordan Controlabilidad de salida y funcin de controlabilidad de salida . . . . . . . . Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

99

6 Realizaciones irreducibles, equivalencia estricta de sistemas e identicacin113


Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . El polinomio caracterstico y el grado de una matriz racional propia . . . . Realizaciones irreducibles de funciones racionales propias . . . . . . . . . . 6.3.1 Realizaciones irreducibles de /D(s) . . . . . . . . . . . . . . . . . . 6.3.2 Realizacin irreducible de g (s) = N (s)/D(s) . . . . . . . . . . . . . . 6.3.3 Realizacin de ecuaciones diferenciales lineales variantes en el tiempo 6.4 Realizaciones de funciones de transferencia racionales propias vectoriales . . 6.5 Realizaciones irreducibles de matrices racionales propias: Mtodo de Hankel 6.6 Realizaciones irreducibles de G(s). Mtodo de fraccin coprimal . . . . . . 6.7 Descripcin de matriz polinomial . . . . . . . . . . . . . . . . . . . . . . . . 6.8 Equivalencia estricta de sistemas . . . . . . . . . . . . . . . . . . . . . . . . 6.9 Identicacin de sistemas discretos de datos sin ruido . . . . . . . . . . . . . 6.10 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1 7.2 7.3 7.4 7.5 7.6 7.7 8.1 8.2 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ecuaciones dinmicas en forma cannica . . . . . . . . . . . . 7.2.1 Caso monovariable . . . . . . . . . . . . . . . . . . . . . Retroalimentacin de estado . . . . . . . . . . . . . . . . . . . 7.3.1 Caso monovariable . . . . . . . . . . . . . . . . . . . . . Estimadores de estado . . . . . . . . . . . . . . . . . . . . . . . Conexin entre la retroalimentacin de estado y el estimador de 7.5.1 Estimadores funcionales . . . . . . . . . . . . . . . . . . Desacoplamiento por retroalimentacin de estado . . . . . . . . Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . estado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7 Retroalimentacin de estado y estimadores de estado

135

135 136 136 142 142 142 142 142 145 145

8 Estabilidad de sistemas lineales

Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 Criterios de estabilidad en trminos de la descripcin entrada-salida . . . . . . 147 8.2.1 Caso variante en el tiempo . . . . . . . . . . . . . . . . . . . . . . . . . 147

147

CONTENIDO

iii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149 149 149 149 151

8.3 8.4 8.5 8.6 8.7

Criterio de Routh Hurwitz . . . . . . . . . . . . . . Estabilidad de las ecuaciones dinmicas lineales . . Teorema de Lyapunov . . . . . . . . . . . . . . . . Sistemas discretos invariantes en el tiempo lineales Conclusiones . . . . . . . . . . . . . . . . . . . . .

iv

CONTENIDO

Captulo 1

Introduccin
1.1 El estudio de sistemas
El estudio y diseo de un sistema fsico puede ser llevado a cabo mediante mtodos empricos. Aplicamos varias seales al sistema fsico y medimos sus respuestas. Si el desempeo no es satisfactorio, ajustamos algunos de sus parmetros o le conectamos algn compensador para mejorarlo. Este diseo es guiado por la experiencia pasada, si existe, y es obtenido a prueba y error. Este enfoque ha indudablemente triunfado al disear muchos sistemas fsicos. El mtodo emprico1 puede volverse insatisfactorio si las especicaciones sobre el desempeo se hacen muy precisas y exigentes. Puede tambin hacerse inadecuado si los sistemas fsicos se hacen muy complicados o muy caros o muy peligrosos para experimentar. En esos casos, los mtodos analticos se vuelven indispensables. El estudio analtico de los sistemas fsicos en lneas generales consiste de cuatro partes: modelacin, desarrollo de la descripcin en ecuaciones matemticas, anlisis y diseo. La distincin entre sistemas fsicos y modelos es bsica en ingeniera. De hecho, los circuitos o sistemas de control estudiados en cualquier libro de texto son modelos de sistemas fsicos. Un resistor con una resistencia constante es un modelo; la limitacin de potencia del resistor no aparece en la resistencia. Un inductor con una inductancia constante es de nuevo un modelo; en realidad, la inductancia podra variar con la cantidad de corriente uyendo a travs de ella. Modelar es un problema muy importante, el xito del diseo depende de si el sistema fsico est debidamente modelado. Un sistema fsico puede tener muchos modelos diferentes dependiendo de las preguntas indagadas y los diferentes rangos de operacin. Por ejemplo, un amplicador electrnico puede ser modelado de manera diferente para altas y bajas frecuencias. Un vehculo espacial puede ser modelado como una partcula para el estudio de su trayectoria; sin embargo, debe ser modelado como un cuerpo rgido en la maniobra. A n de desarrollar un modelo adecuado de un sistema fsico, un entendimiento minucioso del sistema fsico y su rango de operacin es esencial. En este libro, nos referiremos a modelos de sistemas fsicos como sistemas. Por lo tanto un sistema fsico es un dispositivo o coleccin de dispositivos existentes en el mundo real; un sistema es un modelo de un sistema fsico. Una vez que un sistema (un modelo) es encontrado, el siguiente paso en el estudio es desarrollar, al aplicar varias leyes fsicas, las ecuaciones matemticas para describir el sistema.
1

esta es una prueba

CAPTULO 1. INTRODUCCIN

Por ejemplo, aplicamos las leyes de voltaje de Kircho y las leyes de corriente a sistemas elctricos y las leyes de Newton a sistemas mecnicos. Las ecuaciones que describen sistemas pueden suponerse de muchas formas; pueden ser ecuaciones lineales, ecuaciones no lineales, ecuaciones integrales, ecuaciones a diferencias, ecuaciones diferenciales u otras. Dependiendo de las preguntas requeridas, una forma de ecuacin puede ser preferible a las dems para describir el mismo sistema. En conclusin, un sistema puede tener muchas descripciones matemticas, tal como un sistema fsico puede tener muchos modelos diferentes. Una vez que una descripcin matemtica de un sistema es obtenida, el siguiente paso en el estudio involucra el anlisis -cuantitativo o cualitativo. En el anlisis cuantitativo, estamos interesados en respuestas exactas de sistemas debido a la aplicacin de ciertas seales de entrada. Esta parte del anlisis puede ser fcilmente llevada a cabo usando una computadora analgica o digital. En el anlisis cualitativo, estamos interesados en las propiedades generales del sistema, como la estabilidad, controlabilidad y observabilidad. Esta parte del anlisis es muy importante, dado que las tcnicas de diseo pueden frecuentemente desarrollarse de este estudio. Si la respuesta de un sistema se encuentra que es insatisfactoria, el sistema tiene que ser mejorado u optimizado. En algunos casos, las respuestas de los sistema pueden ser mejoradas ajustando ciertos parmetros de los sistema; en otros casos, tienen que ser introducidos compensadores. Note que el diseo es llevado a cabo sobre el modelo del sistema fsico. Sin embargo, si el modelo es escogido correctamente, el desempeo del sistema fsico podra ser correspondientemente mejorado al introducir los ajustes o compensadores requeridos.

1.2

Alcances del curso

El estudio de sistemas puede ser divido en cuatro partes: modelacin, establecimiento de las ecuaciones matemticas, anlisis y diseo. El desarrollo de modelos para sistemas fsicos requiere el conocimiento de cada campo particular y algunos instrumentos de medicin. Por ejemplo, el desarrollo de modelos para transistores requiere el conocimiento de fsica cuntica y algn laboratorio. Desarrollar modelos para sistemas de suspensin de automviles requiere experimentacin real y mediciones; no puede ser logrado por el uso exclusivo de papel y lpiz. As, el problema de modelado podra ser estudiado en conexin con cada campo especco y no puede ser adecuadamente cubierto en este texto. Por lo tanto, asumiremos que los modelos de sistema fsicos, o sistemas, estn disponibles para nosotros en este texto. Las ecuaciones matemticas que sern usadas en este texto para describir sistemas estn principalmente limitadas a

u y = G(s) (s) = N(s)D1 (s) (s) = F1 (s)H(s) u u


y

(1.1)

x(t) = Ax(t) + Bu(t) y(t) = Cx(t) + Eu(t)

(1.2a) (1.2b)

y sus extensiones al caso variante en el tiempo. La ecuacin (1.1) describe la relacin entre la entrada u y la salida y en el dominio de la transformada de Laplace y es llamada la

1.2. ALCANCES DEL CURSO

descripcin entrada-salida o descripcin externa en el dominio de la frecuencia. La matriz G(s) es llamada la matriz de funcin de transferencia y sus elementos estn limitados a funciones racionales. En el diseo, G(s) ser factorizada como cocientes de dos matrices polinomiales, 1 (s) o F1 (s)H(s) y se dice que est en la forma polinomial fraccional. El como N(s)D conjunto de dos ecuaciones en (1.2) es llamado una ecuacin dinmica o ecuacin en variables de estado. La ecuacin es un conjunto de ecuaciones diferenciales de primer orden. Si (1.2) es utilizado para describir un sistema, es llamada la descripcin de ecuacin dinmica, la descripcin en variables de estado, o la descripcin interna. Estos dos tipos de ecuaciones sern desarrollados de los conceptos de linealidad e invarianza en el tiempo. Mostraremos entonces, por ejemplos, como pueden ser utilizados para describir sistemas. La mayor parte de este texto es dedicado al anlisis y diseo centrado alrededor de las Ecuaciones (1.1) y (1.2). El anlisis puede ser dividido en cuantitativo y cualitativo. El ltimo puede ahora ser delegado a computadoras anlogas o digitales, de esto enfatizamos ms tarde. Varias propiedades de esas ecuaciones sern cuidadosamente investigadas. Sus relaciones sern establecidas. Un cierto nmero de procedimientos sern entonces desarrollados. El problema de diseo estudiado en este libro no es exactamente el diseo de sistemas de control retroalimentados. En nuestro diseo, estamos interesados en las condiciones exactas, sin niguna restriccin sobre la complejidad de los compensadores, para lograr ciertos objetivos de diseo, como la estabilizacin o la colocacin de polos: Cul es el grado mnimo que los compensadores deben tener para lograr tal diseo? Estamos tambin interesados en desarrollar procedimientos simples y ecientes para llevar a cabo cumplir el diseo. En el diseo de sistemas de control, el propsito ltimo es disear un sistema para encontrar algn criterio de desempeo, como el tiempo de subida, el sobretiro, el error de estado estacionario y otros, con o sin restricciones sobre el grado de los compensadores. Un problema de diseo con restricciones es signicativamente diferente de uno sin restricciones. En este texto, el desempeo de los sistemas de control no es considerado. As nuestro estudio no es un estudio completo del diseo de sistemas de control, aunque muchos de los resultados en este texto son bsicos y tiles en su diseo. Para una discusin del diseo de sistemas de control, vea Referencia . En esta seccin damos una descripcin breve del contenido de cada captulo. Revisamos en el Captulo 2 un cierto nmero de conceptos y resultados en lgebra lineal. El objetivo de este captulo es habilitar al lector para llevar a cabo transformaciones de similitud, resolver ecuaciones lineales algebraicas y calcular funciones de una matriz. Esas tcnicas son muy importantes, si no indispensables, en el anlisis y diseo de sistemas lineales. En el Captulo 3 desarrollamos sistemticamente la descripcin entrada-salida y la descripcin en variables de estado de sistemas lineales. Estas descripciones son desarrolladas de los conceptos de linealidad, reposo, causalidad e invarianza en el tiempo. Tambin mostramos, por ejemplos, como estas descripciones pueden ser establecidas para sistemas. Las descripciones matemticas de sistemas compuestos y las ecuaciones discretas en el tiempo tambin son introducidas. Tambin discutimos el problema del buen planteamiento en los sistemas retroalimentados. En el Captulo 4 estudiamos las soluciones de las ecuaciones dinmicas lineales. Tambin mostramos que anlisis diferentes frecuentemente llevan a descripciones en ecuacin dinmica diferentes del mismo sistema. La relacin entre la descripcin entrada-salida y la descripcin en variables de estado tambin es establecida. Introducimos en el Captulo 5 los conceptos de controlabilidad y observabilidad. La im-

CAPTULO 1. INTRODUCCIN

portancia de introducir estos conceptos puede ser vista de las redes mostradas en la Figura. Sus funciones de transferencia son ambas iguales a 1. No existe duda sobre la funcin de transferencia de la red mostrada en la Figura sin embargo, podemos preguntar por qu el condensador en la Figura no juega ningn rol en la funcin de transferencia. A n de responder esta pregunta, los conceptos de controlabilidad y observabilidad son necesarios. Estos dos conceptos son tambin esenciales en la teora del control ptimo, estudios de estabilidad y la prediccin o ltrado de seales. Varias condiciones necesarias y sucientes para que una ecuacin dinmica sea controlable y observable son obtenidas. Tambin discutimos la descomposicin cannica de una ecuacin dinmica e introducimos un mtodo estable y eciente de reducir una ecuacin dinmica una forma irreductible. En el Captulo 6 estudiamos las realizaciones irreductibles de funciones de transferencia matriciales racionales. El problema es encontrar una ecuacin dinmica invariante en el tiempo lineal que tenga una matriz racional prescrita. Su solucin es indispensable en simulaciones por computadora anlogas y digitales. Es tambin ofrecido un mtodo de sintetizar una matriz racional usando circuitos de amplicadores operacionales. Este resultado es tambin necesario al establecer la liga entre el enfoque de variables de estado y el enfoque de la funcin de transferencia en el diseo de sistemas lineales invariantes en el tiempo. Las implicaciones prcticas de los conceptos de controlabilidad y observabilidad son estudiadas en el Captulo 7. Mostramos que si una ecuacin dinmica es controlable, los valores propios de la ecuacin pueden ser asignados arbitrariamente al introducir la retroalimentacin de estado con una ganancia matricial constante. Si una ecuacin dinmica es observable sus estados pueden ser generados al disear un estimador de estado con valores propios arbitrarios. Varios procedimientos de diseo son introducidos. La propiedad de separacin tambin es establecida. Estudiamos en el Captulo 8 una propiedad cualitativa de los sistemas lineales. Esto incumbe el rengln de estabilidad, lo cual siempre es el primer requerimiento a ser encontrado en el diseo de un sistema. Introducimos los conceptos de estabiidad de entrada-acotada salida-acotada, estabilidad en el sentido de Liapuno, estabilidad asinttica y estabilidad total. Sus caracterizaciones y relaciones son estudiadas. Tambin discutimos el teorema de Liapuno y lo usamos para establecer el criterio de Routh-Hurwitz. Sus contrapartes en el caso discreto en el tiempo tambin son estudiadas. En el ltimo captulo estudiamos varios problemas asociados con sistemas compuestos lineales invariantes en el tiempo. Uno de ellos es estudiar la implicacin de la cancelacin de polos de las funciones de transferencia. Por ejemplo, consideremos dos sistemas con las funciones de transferencia 1/(s1) y (s1)/(s+1) conectados en tres formas diferentes, como est mostrado en la Figura . Mostramos por que el sistema en la Figura puede ser estudiado de su funcin de transferencia compuesta, pero el sistema de la Figura no. Tambin estudiamos la estabilidad de sistemas retroalimentados monovariables y multivariables. Entonces estudiamos el diseo de compensadores usando funciones de transferencia matriciales en la forma fraccional. Estudiamos dos conguraciones de retroalimentacin: retroalimentacin unitaria y conexiones de planta con retroalimentacin entrada-salida. Diseamos compensadores con grado mnimo para lograr una colocacin de polos arbitraria o alcanzar el seguimiento asinttico y el rechazo de perturbaciones. Reestablecemos en el enfoque de funcin de transferencia esencialmente resultados desarrollados en el enfoque de variables de estado y completamos la liga entre los dos enfoques.

1.2. ALCANCES DEL CURSO

Un total de ocho apndices son introducidos. Sus relaciones con varios captulos son cubiertas en el Prefacio.

CAPTULO 1. INTRODUCCIN

Captulo 2

Espacios lineales y operadores lineales


En este captulo revisaremos un nmero de conceptos y resultados en lgebra lineal que son esenciales en el estudio de este texto. Los tpico estn cuidadosamente seleccionados, y slo aquellos que sern utilizados subsecuentemente son introducidos. El propsito de este captulo es hacer capaz al lector de entender el mecanismo de las transformaciones de similitud, resolver ecuaciones algebraicas lineales, encontrar las representaciones en formas de Jordan de matrices cuadradas y calcular funciones de una matriz, en particular, las funciones exponenciales de una matriz. En la Seccin 2.1 introducimos los conceptos de campo y espacio lineal sobre un campo. Los campos que encontraremos en este libro son el campo de los nmeros reales, el campo de los nmeros complejos y el campo de las funciones racionales. A n de tener una representacin de un vector en un espacio lineal, introducimos, en la Seccin 2.2, el concepto de base. La relacin entre representaciones diferentes del mismo vector es establecida. En la Seccin 2.3, estudiamos los operadores lineales y sus representaciones. El concepto de transformacin de similitud est implcito ah. En la Seccin 2.4, las soluciones de un conjunto de ecuaciones algebraicas lineales son estudiadas. Los conceptos de rango y nulidad son esenciales ah. En la Seccin 2.5, mostramos que cada matriz cuadrada tiene una representacin en forma de Jordan; esto es logrado al introducir los vectores propios y los vectores propios generalizados como vectores base. En la Seccin 2.6, estudiamos las funciones de matrices cuadradas. El polinomio mnimo y el teorema de Cayley-Hamilton son introducidos. En la ltima Seccin, los conceptos de producto interno y norma son introducidos. Este captulo se pretende que sea independiente. Se asume que el lector tiene algn conocimiento bsico de la teora de matrices (determinantes, adicin, multiplicacin e inversin de matrices). Las identidades matriciales siguientes sern tambin utilizadas. Sean A, B, C, D matrices constantes de dimensiones n m, m r, l n y r p, respectivamente. Sea ai la isima columna de A, y sea bj el j simo rengln de B. Entonces tenemos b1 b2 (2.1) AB = [a1 a2 am ] . = a1 b1 + a2 b2 + + am bm . .

bm CA = C[a1 a2 am ] = [Ca1 Ca2 Cam ]


7 (2.2)

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

BD =

b1 b2 . . . bm

D =

b1 D b2 D . . . bm D


(2.3)

Estas identidades pueden ser comprobadas fcilmente. Note que ai bi es una matriz n r, es el producto de una matriz ai de dimensin n 1 y una matriz bi de dimensin 1 r. El material presentado es bien conocido y puede ser encontrado en . Sin embargo nuestra presentacin es diferente. Enfatizamos la diferencia entre un vector y su representacin. Despus de acentuar esta distincin, los conceptos de representaciones de matrices de un operador y el de transformaciones de similitud vienen naturalmente.

2.1

Espacios lineales sobre un campo

En el estudio de las matemticas debemos primero especicar una coleccin de objetos que forma el centro de estudio. Esta coleccin de objetos o elementos es llamada un conjunto. Por ejemplo, en aritmtica, estudiamos el conjunto de los nmeros reales. En lgebra booleana, estudiamos el conjunto {0, 1}, el cual consiste slo de dos elementos. Otros ejemplos de conjuntos incluyen el conjunto de los nmeros complejos, el conjunto de los nmeros enteros positivos, el conjunto de todos los polinomios de grado menor que 5, el conjunto de todas las matrices reales constantes de dimensin 22. En esta seccin cuando discutamos un conjunto de objetos, el conjunto podra ser cualquiera de los mencionados o cualquier otro que el lector quisiera especicar. Consideremos un conjunto de nmeros reales. Las operaciones de adicin y multiplicacin con las propiedades conmutativa y asociativa estn denidas para el conjunto. La suma y el producto de cualesquiera nmeros reales son nmeros reales. El conjunto tiene elementos 0 y 1. Cualquier nmero real tiene una inversa aditiva () y una inversa multiplicativa (1/, excepto = 0) en el conjunto. Cualquier conjunto con esas propiedades es llamado un campo. Damos una denicin formal a continuacin.

Denicin 2.1 Un campo consiste de un conjunto, denotado por F , de elementos llamados

escalares y dos operaciones llamadas adicin "+" y multiplicacin ""; las dos operaciones estn denidas sobre F tal que satisfagan las condiciones siguientes: 1. Para cada par de elementos y en F , corresponde un elemento + en F llamado la suma de y , y un elemento o en F , llamado el producto de y . 2. La adicin y la multiplicacin son conmutativas respectivamente: Para cualesquier , en F , + =+ = 3. La adicin y la multiplicacin son respectivamente asociativas: Para cualesquier , , en F , ( + ) + = + ( + ) ( ) = ( )

2.1. ESPACIOS LINEALES SOBRE UN CAMPO

4. La multiplicacin es distributiva con respecto a la adicin: Para cualesquier , , en F, ( + ) = ( ) + ( ) 5. F contiene un elemento, denotado 0, y un elemento, denotado por 1, tal que + 0 = , 1 = para cada en F . 6. Para cada en F , existe un elemento en F tal que + = 0. El elemento es llamado el inverso aditivo . 7. Para cada en F el cual no es el elemento 0, existe un elemento en F tal que = 1. El elemento es llamado el inverso multiplicativo.

Ejemplo 2.1 Consideremos el conjunto de nmeros que consiste de 0 y 1. El conjunto {0, 1} no forma un campo si utilizamos la decin usual de la adicin y la multiplicacin, porque el elemento 1 + 1 = 2 no est en el conjunto {0, 1}. Sin embargo, si denimos 0 + 0 = 1 + 1 = 0, 1 + 0 = 1 y 0 1 = 0 0 = 0, 1 1 = 1, entonces podemos vecar que {0, 1} con la adicin y multiplicacin denidas satisfacen todas las condiciones enumeradas para un campo. Por lo tanto el conjunto {0, 1} con las operaciones denidas forma un campo. Este es llamado el campo de los nmeros binarios. Ejemplo 2.2 Considere el conjunto de todas las matrices de la forma
x y y x
donde x e y son nmero reales arbitrarios. El conjunto con las deniciones usuales de adicin y multiplicacin matricial forma un campo. Los elementos 0 y 1 del campo son, respectivamente,

0 0 0 0

1 0 0 1

Note que no todos los conjuntos de todas las matrices de dimensin 2 2 forman un campo. De las ejemplos anteriores, vemos que el conjunto de objetos que forma un campo podra ser cualquier cosa siempre que las dos operaciones puedan ser denidas para esos objetos. Los campos que se encontrarn en este libro son afortunadamente los ms familiares: el campo de los nmeros reales, el campo de los nmeros complejos y el campo de las funciones racionales con coecientes reales. La adicin y multiplicacin de esos campos estn denidas de la manera usual. El lector es aconsejado de mostrar que satisfacen todas las condiciones requeridas para un campo. Usamos IR y C para denotar el campo de los nmeros reales y el campo de los I nmeros complejos, respectivamente, y usamos IR(s) para denotar el campo de las funciones racionales con coecientes reales y con s indeterminada. Note que el conjunto de nmeros

10

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

reales positivos no forma un campo porque no tiene una inversa aditiva. El conjunto de enteros y el conjunto de polinomios no forman un campo porque no tienen inversa multiplicativa. Antes de introducir el concepto de espacio vectorial, consideremos el plano geomtrico ordinario bidimensional. Si el origen es escogido, entonces cada punto en el plano puede ser considerado como un vector: este tiene direccin as como magnitud. Un vector puede ser contrado o extendido. Cualesquier dos vectores pueden ser sumados, pero el producto de dos puntos o vectores no est denido. Tal plano, en la terminologa matemtica, es llamado un espacio lineal, o un espacio vectorial, o un espacio vectorial lineal.

Denicin 2.2 Un espacio lineal sobre un campo F , denotado por (X , F) consiste de un

conjunto, denotado por X , de elementos llamado vectores, un campo F y dos operaciones llamadas adicin vectorial y multiplicacin escalar. Las dos operaciones estn denidas sobre X y F tal que satisfagan todas las condiciones siguientes: 1. A cada par de vectores x1 y x2 en X le corresponde un vector x1 + x2 en X , llamado la suma de x1 y x2 en X . 2. La adicin es conmutativa: Para cualquier x1 y x2 en X , x1 + x2 = x2 + x1 . 3. La adicin es asociativa: Para cualquier x1 , x2 y x3 en X , (x1 +x2 )+x3 = x1 +(x2 +x3 ). 4. X contiene un vector, denotado 0, tal que 0 + x = x para cada x en X . El vector 0 es llamado el vector cero o el origen.

5. Para cada x en X , existe un vector x en X tal que x + x = 0.


6. A cada en F , y cada x en X , le corresponde un vector x en X llamado el producto escalar de y x. 7. La multiplicacin escalar es asociativa: Para cualesquier , en F y cualquier x en X , (x) = ()x. 8. La multiplicacin escalar es distributiva con respecto a la adicin vectorial: Para cualquier en F y cualesquier x1 , x2 en X , (x1 + x2 ) = x1 + x2 . 9. La multiplicacin escalar es distributiva con respecto a la adicin escalar: Para cualquier , en F y cualquier x, en X , ( + )x = x + x. 10. Para cualquier x en X , 1x = x, donde 1 es el elemento 1 en F .

Ejemplo 2.3 Un campo forma un espacio vectorial sobre si mismo con la adicin vectorial

y la multiplicacin escalar denida como las operaciones correspondientes en el campo. Por ejemplo, (IR, IR) y (C,C) son espacios vectoriales. Note que (C, IR) es un espacio vectorial I I I pero (IR,C) no. (Por qu?) Notemos que (IR(s), IR(s)) y (IR(s), IR) son tambin espacios I vectoriales , pero (IR, IR(s)) no lo es.

2.1. ESPACIOS LINEALES SOBRE UN CAMPO

11

(, ) forma un espacio lineal sobre el campo de los nmeros reales. La adicin y la multiplicacin escalar estn denidas en la forma acostumbrada. Este es llamado un espacio funcional.

Ejemplo 2.4 El conjunto de todas las funciones reales continuas por trozos denidas sobre

Ejemplo 2.5 Dado un campo F , sea F n todos los n-tuplos de escalares escritos como columnas

xi =

x1i x2i . . . xni


(2.4)

donde el primer subndice denota varios componentes de xi y el segundo denota diferentes vectores en F n . Si la adicin vectorial y la multiplicacin escalar son denidas de la siguiente manera: x1i + x1j x1i x2i + x2j x2i xi + xj = xi = . (2.5) . . . . .

xni + xnj

xni

entonces (F , F n ) es un espacio vectorial. Si F = IR, (IRn , IR) es llamado el espacio vectorial real n-dimensional; si F = C, (Cn ,C) es llamado el espacio vectorial complejo n-dimensional; I I I n si F = IR(s), (IR (s), IR(s)) es llamado el espacio vectorial racional n-dimensional.

Ejemplo 2.6 Considere el conjunto IRn [s] de todos los polinomios de grado menor a n con
coecientes reales
n1

i si
i=0

Sean la adicin vectorial y la multiplicacin escalar denidos como


n1 n1 n1

i si +
i=0 i=0 n1

i si =
i=0 n1 i

(i + i )si

i=0

i s

=
i=0

(i )si

Es fcil vericar que (IRn [s], IR) es un espacio lineal. Note que (IRn [s], IR(s)) no se un espacio lineal.

Ejemplo 2.7 Denotemos X el conjunto de todas las soluciones de la ecuacin diferencial

homognea x + 2x + 3x = 0. Entonces (X , IR) es un espacio lineal con la adicin vectorial y la multiplicacin escalar denidas de la manera habitual. Si la ecuacin diferencial no es homognea, entonces (X , IR) no es un espacio linael. (Por qu?)

12

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

Introducimos otro concepto ms para concluir esta seccin. dice que es un subespacio de (X , F) si bajo las operaciones de (X , F), Y forma por si mismo un espacio vectorial sobre F . 2 Remarquemos en las condiciones para que un subconjunto de X forme un subespacio. Dado que la adicin vectorial y la multiplicacin escalar han sido denidas para el espacio vectorial (X , F), ellas satisfacen las condiciones 2, 3 y 7 hasta la 10 listadas en la Denicin 2.2. Por lo tanto necesitamos comprobar slo las condiciones 1 y 4 hasta la 6 para determinar si un conjunto Y es un subespacio de (X , F). Es fcil vericar que que si 1 y1 + 2 y2 est en Y para cualesquier y1 , y2 en Y y para cualesquier 1 , 2 en F , entonces las condiciones 1 y 4 hasta la 6 son satisfechas. Por consiguiente concluimos que un conjunto Y es un subespacio de (X , F) si 1 y1 + 2 y2 est en Y , para cualesquier y1 , y2 en Y y para cualesquier 1 , 2 en F . por el origen es un subespacio de (IR2 , IR). Esto es, el conjunto

Denicin 2.3 Sea (X , F un espacio lineal y sea Y un subconjunto de X . Entonces (Y, F se

Ejemplo 2.8 En el espacio vectorial real bidimensional (IR2 , IR), cada lnea recta pasando
x1 x1

para cualquier x jo es un subespacio de (IR2 , IR).

Ejemplo 2.9 El espacio vectorial real (IRn , IR) es un subespacio del espacio vectorial (Cn , IR). I

2.2

Independencia lineal, bases y representaciones en cambio de base

Cada plano geomtrico tiene dos ejes coordenados, los cuales son mutuamente perpendiculares y de la misma escala. La razn para tener un sistema coordenado es tener alguna referencia o estndar para especicar un punto o un vector en el plano. En esta seccin, extenderemos este concepto de coordenadas a espacios lineales generales. En los espacios lineales un sistema de coordenadas es llamado una base. Los vectores base no son generalmente perpendiculares a los dems y tienen diferentes escalas. Antes de continuar, necesitamos el concepto de independencia lineal de vectores.

Denicin 2.4 Un conjunto de vectores x1 , x2 , . . . , xn en un espacio lineal sobre un campo


F , (X , F), se dice que es linealmente dependiente si y slo si existen escalares 1 , 2 , . . . , n en F no todos cero, tal que 1 x1 + 2 x2 + + n xn = 0

(2.6)

Si el nico conjunto para el cual (2.6) se cumple es 1 = 0, 2 = 0, . . . , n = 0, entonces los vectores x1 , x2 , . . . , xn se dice que son linealmente independientes. 2

2.2. INDEPENDENCIA LINEAL, BASES Y REPRESENTACIONES EN CAMBIO DE BASE

13

Dado que cualquier conjunto de vectores, la Ecuacin (2.6) siempre se cumple para 1 = 0, 2 = 0, . . . , n = 0. Por consiguiente, a n de mostrar la independencia lineal del conjunto, tenemos que mostrar que 1 = 0, 2 = 0, . . . , n = 0 es el nico conjunto de i para el cual (2.6) es vlido; esto es, si cualquiera de las i 's es diferente de cero, entonces el lado derecho de (2.6) no puede ser el vector cero. Si un conjunto de vectores es linealmente dependiente, existen generalmente una cantidad innita de conjuntos de i , no todos ceros, para concluir la dependencia lineal de los conjuntos de vectores.

Ejemplo 2.10 Consideremos el conjunto de vectores x1 , x2 , . . . , xn en el cual x1 = 0. Este


conjunto de vectores es siempre linealmente dependiente, debido a que podemos escoger 1 = 1, 2 = 0, . . . , n = 0, y la Ecuacin (2.6) se mantiene.

conjunto del vector x1 es linealmente independiente si y slo si x1 = 0, la nica manera para tener 1 x1 = 0 es 1 = 0. Si x1 = 0, podramos escoger 1 = 1. Si introducimos la notacin

Ejemplo 2.11 Consideremos el conjunto del vector x1 el cual consiste de slo un vector. El

1 x1 + 2 x2 + + n xn = [x1 x2 xn ]

1 2 . . . n

= [x1 x2 xn ]
(2.7)

entonces la independencia lineal de un conjunto de vectores tambin puede ser enunciada en la denicin siguiente.

Denicin 2.4' Un conjunto de vectores en (X , F) se dice que es linealmente independiente


si y slo si la ecuacin

[x1 x2 xn ] = 0
implica que = 0, donde cada componente de es un elemento de F o, de manera correspondiente, puede ser considerado como un vector de F n . 2 Observe que la dependencia lineal depende no slo del conjunto del campo. Por ejemplo, el conjunto de vectores {x1 , x2 }, donde s+2 1 s+1 (s + 1)(s + 3) x1 = x2 = 1 1 s+2 s+3 de vectores sino tambin

es linealmente dependiente en el campo de las funciones racionales con coecientes reales. Si escogemos s+3 1 = 1 y 2 = s+2

14

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

entonces 1 x1 + 2 x2 = 0. Sin embargo, este conjunto de vectores es linealmente independiente en el campo de los nmeros reales, para este no existe ningn 1 y 2 en IR diferentes de cero, tal que 1 x1 + 2 x2 = 0. En otras palabras, x1 y x2 son linealmente independientes en (IR2 (s), IR), pero son linealmente dependientes en (IR2 (s), IR(s)). Es claro de la denicin de dependencia lineal que si los vectores x1 , x2 , . . . , xn son linealmente dependientes, entonces al menos uno de ellos puede ser escrito como una combinacin lineal de los otros. Sin embargo, no es necesariamente cierto que cada uno de ellos pueda ser expresado como una combinacin lineal de los otros.

Denicin 2.5 El nmero mximo de vectores linealmente independientes en un espacio lineal (X , F) es llamado la dimensin del espacio lineal (X , F). 2
En las secciones precedentes introducimos el espacio vectorial real n-dimensional (IRn , IR). El signicado de n-dimensional es ahora claro. Signica que en (IRn , IR) hay, al menos, n vectores linealmente independientes (sobre el campo IR). En un espacio vectorial real bidimensional (2-dimensional) (IR2 , IR), no se puede encontrar tres vectores linealmente independientes.

Ejemplo 2.12 Consideremos el espacio funcional que consiste de todas la funciones reales continuas por trozos denidas sobre (, ). El vector cero en este espacio es el que es idnticamente cero sobre (, ). Las siguientes funciones, con < t < ,
t, t2 , t3 , . . .
son claramente elementos del espacio funcional. Este conjunto de funciones {tn , n = 1, 2, . . .} es linealmente independiente, debido a que no existen constantes reales, i s, no todas cer, tal que i ti 0
i=1

Existen un nmero innito de funciones de ese tipo; en consecuencia, la dimensin de este espacio es innita. Suponemos que todos los espacios lineales que encontraremos son de dimensin nita a menos que sea indicado de otra manera.

Denicin 2.6 Un conjunto de vectores linealmente independientes de un espacio lineal (X , F) se dice que son una base de X si cada vector en X puede ser expresado como una combinacin lineal nica de esos vectores. 2 Teorema 2.1 En un espacio vectorial n-dimensional, cualquier conjunto de n vectores linealmente independientes calican como una base.

2.2. INDEPENDENCIA LINEAL, BASES Y REPRESENTACIONES EN CAMBIO DE BASE

15

Prueba:

Sean e1 , e2 , . . . , en n vectores linealmente independientes cualesquiera en X , sea x un vector arbitrario en X . Entonces el conjunto de n + 1 vectores x, e1 , e2 , . . . , en es linealmente dependiente (dado que, por la dimensin de dimensin, n es el nmero mximo de vectores linealmente independientes que podemos tener en el espacio). Consecuentemente, existen 0 , 1 , . . . , n en F , no todos cero, tal que

0 x + 1 e1 + 2 e2 + . . . + n en = 0
Aseveramos que 0 = 0. Si 0 = 0, la Ecuacin 2.8 se reduce a

(2.8)

1 e1 + 2 e2 + . . . + n en = 0

(2.9)

lo cual, junto con la asuncin de la independencia lineal de e1 , e2 , . . . , en implica que 1 = 0, 2 = 0, . . . , n = 0. Esto contradice la asuncin que no todos los 1 , 2 , . . . , n son cero. Si denimos i = i /0 , para i = 1, 2, . . . , n, entonces (2.8) se convierte en

x = 1 e1 + 2 e2 + + n en

(2.10)

Esto muestra que cada vector x en X puede ser expresado como una combinacin lineal de e1 , e2 , . . . , en . Ahora mostramos que esta combinacin es nica. Supongamos que hay otra combinacin lineal, digamos

x = 1 e1 + 2 e2 + + n en
Entonces al restar (2.11) de (2.10), obtenemos

(2.11)

0 = (1 1 )e1 + (2 2 )e2 + + (n n )en


lo cual, junto con la independencia lineal de {ei }, implica que

i = i
Esto completa la prueba de este teorema.

i = 1, 2, . . . , n

Este teorema tiene una implicacin muy importante. En un espacio vectorial ndimensional (X , F) si una base es escogida, entonces cada vector en X puede ser nicamente representado por un conjunto de n escalares 1 , 2 , . . . , n en F . Si usamos la notacin de (2.7), podemos escribir (2.10) como

x = [e1 , e2 , , en ]

(2.12)

donde = [1 , 2 , . . . , n ] y donde la prima denota la transpuesta. El vector n 1 puede ser considerado como un vector en (F, F n ). Consecuentemente, existe una correspondencia uno-a-uno entre cualquier espacio vectorial (X , F) y el mismo espacio lineal n-dimensional (F, F n ) si una base es escogida para (X , F).

Denicin 2.7 En un espacio vectorial n-dimensional (X , F), si una base {e1 , e2 , . . . , en } es

escogida, entonces cada vector x en X puede ser nicamente escrito en la forma (2.12). es llamada la representacin de x con respecto a la base {e1 , e2 , . . . , en }. 2

16

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

espacio vectorial bidimensional. Cualquier punto en el plano es un vector. El Teorema 2.1 arma que cualquier conjunto de dos vectores linealmente independientes forma una base. Observe que no tenemos solamente la libertad al escoger las direcciones de los vectores base (siempre y cuando no estn en la misma lnea) pero tambin la magnitud (escala) de esos vectores. Como resultado, dado un vector en (IR2 , IR), para bases diferentes tiene representaciones diferentes del mismo vector. Por ejemplo, las representaciones del vector b en la Figura con respecto a la base {e1 , e2 } y a la base {1 , e2 } son, respectivamente, [1 3] y e [1 2] (donde el smbolo primo denota la transpuesta). Resumimos las representaciones de los vectores b, e1 , e2 , e1 y e2 con respecto a las bases {e1 , e2 }, {1 , e2 } en la Tabla. e

Ejemplo 2.13 El plano geomtrico mostrado en la Figura puede ser considerado como un

los polinomios reales de grado menor a 4 y con s indeterminada. Sea e1 = s3 , e2 = s2 , e3 = s, e4 = 1. Claramente, los vectores ei , i = 1, 2, 3, 4, son linealmente independientes y calican como vectores base. Con este conjunto de vectores, el vector x = 3s3 + 2s2 2s + 10 puede ser escrito como 3 2 x = [e1 e2 e3 e4 ] 2 10 por lo tanto [3 2 2 10] es la representacin de x con respecto a {e1 , e2 , e3 , e4 }. Si escogemos e1 = s3 s2 , e2 = s2 s, e3 = s 1 y e como vectores base, entonces

Ejemplo 2.14 Considere el espacio lineal (IR4 [s], IR), donde IR4 [s] es el conjunto de todos

3 5 x = 3s3 + 2s2 2s + 10 = 3(s3 s2 ) + 5(s2 s) + 3(s 1) + 13 1 = [1 e2 e3 e4 ] e 3 13


Por lo tanto la representacin de x con respecto a {1 , e2 , e3 , e4 } es [3 5 3 13] . e En este ejemplo, hay una aguda distincin entre los vectores y representaciones. Sin embargo, este no es siempre el caso. Consideremos el espacio vectorial (IRn , IR), el espacio vectorial complejo (Cn ,C), o el espacio vectorial racional (IRn (s), IR(s)) n-dimensional; un I I vector es un n-tuplo de funciones reales, complejas o racionales reales, escritas como 1 2 x= . . .

n
Este arreglo de n nmeros puede ser interpretado de dos maneras: (1) Este est denido como es; esto es, este es un vector y es independiente de la base. (2) Este es una representacin de un vector con respecto a alguna base ja desconocida. Dado un arreglo de nmeros, al

2.2. INDEPENDENCIA LINEAL, BASES Y REPRESENTACIONES EN CAMBIO DE BASE

17

menos que estn atados a una base, siempre lo consideraremos como un vector. Sin embargo tambin introduciremos, a menos que sea dicho de otra manera, los vectores siguientes:

n1 = 0 0

1 0 0 . . .

, n2 = 0 0

0 1 0 . . .

, , nn1 = 1 0

0 0 0 . . .

, nn = 0 1

0 0 0 . . .

(2.13)

como la base de (IRn , IR), (Cn ,C) y (IRn (s), IR(s)). En este caso, un arreglo de nmeros I I puede ser interpretado como un vector o la representacin de un vector con respecto a una base {n1 , n2 , . . . , nn ), debido a que con respecto a este conjunto de bases particular, la representacin y el vector son idnticos; esto es,

1 2 . . . n

= [n1 n2 . . . nn ]

1 2 . . . n


(2.14)

2.2.1

Cambio de base

Hemos mostrado que un vector x en (X , F) tiene representaciones diferentes con respecto a bases diferentes. Es natural preguntar la relacin entre esas representaciones diferentes del mismo vector. En esta subseccin, este problema ser estudiado. Sean las representaciones de un vector x en (X , F) con respecto a {e1 , e2 , e3 , en } y {1 , e2 , e3 , en } y respectivamente; esto es, e

x = [e1 e2 e3 en ] = [1 e2 e3 en ] e

(2.15)

A n de derivar una relacin entre y , tampoco necesitamos informacin de las repre sentaciones de ei , para i = 1, 2, . . . , n, con respecto a la base {e1 , e2 , . . . , en } o la informacin de las representaciones de ei , para i = 1, 2, . . . , n con respecto a la base {1 , e2 , . . . , en }. Sea e la representacin de ei con respecto a {1 , e2 , . . . , en } [p1i p2i p3i pni ] ; esto es, e ei = [1 e2 en ] e p1i p2i . . . pni donde E = [1 e2 en ], pi = [p1i p2i pni ]. Usando la notacin matricial, tenemos e [e1 e2 en ] = [Ep1 Ep2 Epn ]
(2.17)

= E pi i = 1, 2, . . . , n
(2.16)

18 lo cual, usando (2.2), puede ser escrito como

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

[e1 e2 en ] = E [p1 p2 pn ] p11 p21 = [1 e2 en ] . e . . = [1 e2 en ] P e


Substituyendo (2.18) en (2.15), obtenemos

p12 p22 . . .

p1n p2n . . . pnn


(2.18)

pn1 pn2

x = [1 e2 en ] P = [1 e2 en ] e e

(2.19)

Dado que la representacin de x con respecto a la base {1 , e2 , . . . , en } es nica, (2.19) implica e = P


donde (2.20)

isima columna: la representacin de P= ei con respecto a {1 , e2 , . . . , en } e

(2.21)

Esto establece la relacin entre y . En (2.16), si la representacin de ei con respecto a {e1 , e2 , . . . , en } es utilizada, entonces obtendremos = Q
donde (2.22)

isima columna: la representacin de Q= ei con respecto a {e1 , e2 , . . . , en }

(2.23)

Diferentes representaciones de un vector pueden ser relacionadas por (2.20) o (2.22). Consecuentemente, dados dos conjuntos de bases, si la representacin de un vector con respecto a un conjunto base es conocida, la representacin del vector con respecto al otro conjunto base puede ser calculada usando (2.20) o bien (2.22). Dado que = P y = Q , tenemos = P Q , para todo ; por lo tanto concluimos que

PQ = I o P = Q1
Puede ser fcilmente vericado que

(2.24)

Ejemplo 2.15 Consideremos los dos conjuntos de vectores base de (IR4 [s], IR) en el Ejemplo.
1 1 [e1 e2 en ] = [1 e2 en ] e 1 1 0 1 1 1 0 0 1 1 0 0 = [1 e2 en ]P e 0 1

2.3. OPERADORES LINEALES Y SUS REPRESENTACIONES

19

1 0 0 1 1 0 [1 e2 en ] = [e1 e2 en ] e 0 1 1 0 0 1

0 0 = [e1 e2 en ]Q 0 1

Claramente, tenemos PQ = I y = P , o 3 3 5 2 3 = P 2 = 13 10

1 1 1 1

0 1 1 1

0 0 1 1

0 3 0 2 0 2 1 10

2.3

Operadores lineales y sus representaciones

El concepto de una funcin es bsico para todas las partes del anlisis. Dado dos conjuntos X y Y , si asignamos a cada elemento de X uno y slo un elemento de Y , entonces la regla de asignacin es llamada una funcin. Por ejemplo, la regla de asignacin en la Figura es una funcin, pero la de la Figura no lo es. Una funcin es usualmente denotada por la notacin f : X Y y el elemento de Y que es asignado al elemento x de X es denotado por y = f (x). El conjunto X sobre el cual una funcin est denida es llamado el dominio de la funcin. El subconjunto de Y que es asignado para algn elemento de X es llamado el rango de la funcin. Por ejemplo, el dominio de la funcin mostrada en la Figura es una lnea positiva real, el rango de la funcin es el conjunto [1, 1], el cual es un subconjunto de toda la lnea real Y . Las funciones que estudiaremos en esta seccin pertenecen a una clase restringida de funciones, llamadas funciones lineales, o ms frecuentemente llamadas operadores lineales, mapeos lineales o transformaciones lineales. Los conjuntos asociados con los operadores lineales son requeridos ser lineales sobre el mismo campo, digamos (X , F) y (Y, F). Un operador lineal es denotado por L : (X , F) (Y, F). En palabras, L mapea (X , F) en (Y, F). y slo si

Denicin 2.8 Una funcin L que mapea (X , F) en (Y, F) se dice que es operador lineal si
L(1 x1 + 2 x2 ) = 1 Lx1 + 2 Lx2

para cualesquier vectores x1 , x2 en X y cualesquier escalar 1 , 2 en F .

2
Note que los vectores Lx1 y Lx2 son elementos de Y . La razn para requerir que Y est denido sobre el mismo campo que X es para asegurar que 1 Lx1 y 2 Lx2 estn denidos.

Ejemplo 2.16 Consideremos la transformacin que rota un punto en un plano geomtrico en direccin contraria a las manecillas del reloj 90 con respecto al origen como est mostrado en la Figura. Dado dos vectores cualesquiera en el plano, es fcil vericar que el vector que es la suma de los dos vectores despus de la rotacin es igual a la rotacin del vector que es la suma

20

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

de losdos vectores antes de la rotacin. Por lo tanto la transformacin es una transformacin lineal. Los espacios (X , F) y (Y, F) de este ejemplo son iguales a (IR2 , IR).

Ejemplo 2.17 Sea U el conjunto de todas las funciones reales continuas por trozos denidas
sobre [0, T ] para algn tiempo nito T > 0. Es claro que (U, IR) es un espacio lineal cuya dimensin es innito: Sea g una funcin continua denida sobre [0, T ]. Entonces la transformacin
T

y(t) =
0

g(t )u( )d

(2.25)

es una transformacin lineal. Los espacios (X , F) y (Y, F) de este ejemplo son todos iguales a (U, IR). Vemos de los dos ejemplos anteriores que los espacios (X , F) y (Y, F) sobre los cuales el operador lineal est denido pueden ser de dimensin nita o innita. Mostramos a continuacin que cada operador lineal que mapea (X , F de dimensin nita en (Y, F) de dimensin nita tiene una representacin matricial con coecientes en el campo de F . Si (X , F) y (Y, F) son de dimensin innita, una representacin de un operador lineal puede an ser encontrada. Sin embargo, la representacin ser una matriz de orden innito o de una forma similar a (2.25). Esto est fuera del alcance de este texto y no ser discutido.

Teorema 2.2 Sean (X , F) y (Y, F) espacios vectoriales n y m dimensionales, respectivamente, sobre el mismo campo. Sean x1 , x2 , . . . , xn un conjunto de vectores linealmente independientes en X . Entonces el operador lineal L : (X , F) (Y, F) est determinado nicamente por n pares de mapea yi = Lxi , para i = 1, 2, . . . , n. adems, con respecto a la base {x1 , x2 , . . . , xn } de X y una base {u1 , u2 , . . . , um } de Y . L puede ser representada por una matriz m n A con coecientes en el campo F . La isima columna de A es la representacin de yi con respecto a la base {u1 , u2 , . . . , um }. Prueba:
Sea x un vector arbitrario en X . Dado que x1 , x2 , . . . , xn son linealmente independientes, el conjunto calica como una base. Consecuentemente, el vector x puede ser expresado nicamente como 1 x1 + 2 x2 + . . . + n xn . Por la linealidad de L, tenemos

Lx = 1 Lx1 + 2 Lx2 + . . . + n Lxn = 1 y1 + 2 y2 + . . . + n yn


lo cual implica que para cualquier x en X , Lx es nicamente determinada por yi = Lxi , para i = 1, 2, . . . , n. Esto prueba la primera parte del teorema. Sea la representacin de yi con respecto a {u1 , u2 , . . . , um } [a1i a2i ami ] ; esto es, a1i a2i (2.26) yi = [u1 u2 un ] . i = 1, 2, . . . , n. . .

ami

2.3. OPERADORES LINEALES Y SUS REPRESENTACIONES

21

donde aij 's son elementos de F . Escribamos, como en

L[x1 x2 xn ] = [y1 y2 yn ] = [u1 u2 um ] = [u1 u2 um ] A

a11 a21 . . .

a12 a22 . . .

a1n a2n . . . amn


(2.27)

am1 am2

Note que los elementos de A estn en el campo F y la isima columna de A es la representacin de yi con respecto a la base de Y . Con respecto a la base {x1 , x2 , . . . , xn } de (X , F) y la base {u1 , u2 , . . . , um } de (Y, F), el operador lineal y = Lx puede ser escrito como

[u1 u2 um ] = L[x1 x2 xn ]

(2.28)

donde = [1 2 m ] y = [1 2 m ] son las representaciones de y y x, respectivamente. Despus que las bases son escogidas, no hay diferencias entre especicar x, y y , ; por lo tanto al estudiar y = Lx, podemos slo estudiar la relacin entre y . Al sustituir en, obtenemos [u1 u2 um ] = [u1 u2 um ] A (2.29) lo cual, junto con la unicidad de una representacin, implica que (2.30)

= A

Por lo tanto concluimos que si las bases de (X , F) y (Y, F) son escogidas, los operadores pueden ser representados por una matriz con coecientes en F . Vemos de (2.30) que la matriz A da la relacin entre las representaciones y , no la vectores x e y. Tambin vemos que A depende de la base escogida. Por lo tanto, para bases diferentes, tenemos representaciones diferentes del mismo operador. Estudiamos a continuacin una importante subclase de operadores lineales que mapea un espacio lineal (X , F) en si mismo; esto es, L : (X , F) (X , F). En este caso, la misma base siempre es usada para esos dos espacios lineales. Si una base de X , digamos {e1 , e1 , . . . , en } es escogida, entonces una representacin matricial A del operador lineal L puede ser obtenido usando el Teorema 2.2. Para una base diferente {1 , 1 , . . . , n }, obtendremos una repree e e sentacin diferente A del mismo operador L. Ahora estableceremos la relacin entre A y A. Considere la Figura ; x es un vector arbitrario en X ; y son las representaciones de x con respecto a la base {e1 , e1 , . . . , en } y la base {1 , 1 , . . . , n , respectivamente. Dado que el e e e vector y = Lx est en el mismo espacio, sus representaciones con respecto a las bases escogi das, digamos y , pueden ser encontradas. Las representaciones matriciales A y A pueden han sido ser calculadas usando el Teorema 2.2. Las relaciones entre y y entre y = P , donde P es una matriz establecidas en (2.20); ellas estn relacionadas por = P y no singular con coecientes en el campo F y la isima columna de P es la representacin de ei con respecto a la base {1 , 1 , . . . , n . De la Figura ??, tenemos e e e

= A y = P = PA = PAP1

22

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

Por lo tanto, de la unicidad de la representacin con respecto a una base especca, tenemos A = PAP1 . Dado que la relacin se mantiene para cualquier , concluimos que

A = PAP1 = Q1 AQ A = P1 AP = QAQ1

(2.31)

donde Q = P1 . Dos matrices A y A se dicen ser similares si existe una matriz P no singular satisfaciendo (2.31). La transformacin denida en (2.31) es llamada una transformacin de similitud. Claramente, todas las representaciones matriciales (con respecto a bases diferentes) del mismo operador son similares.

Ejemplo 2.18 Considere el operador lineal L del ejemplo mostrado en la Figura. Si escogemos {x1 , x2 } como una base, entonces
y1 = Lx1 = [x1 x2 ] 0 1
y

y2 = Lx2 = [x1 x2 ]

1 0

Por lo tanto la representacin de L con respecto a la base {x1 , x2 } es

0 1 1 0
La representacin de x3 es

1.5 0.5
Es fcil vericar que la representacin de y3 con respecto a {x1 , x2 } es igual a

0 1 1 0
o

1.5 0.5

0.5 1.5

y3 = [x1 x2 ]

0.5 1.5

Si en lugar de {x1 , x2 }, escogemos {x1 , x3 } como una base, entonces de la Figura

y1 = Lx1 = [x1 x3 ]

3 2

y3 = Lx3 = [x1 x3 ]

5 3

Por lo tanto la representacin de L con respecto a la base {x1 , x3 } es

3 5 2 3 El lector es aconsejado de encontra la matriz P para este ejemplo y vericar A = PAP1 .

2.3. OPERADORES LINEALES Y SUS REPRESENTACIONES

23

En la teora matricial, una matriz es introducida como un arreglo de nmeros. Con los conceptos de operadores lineales y representaciones, ahora daremos una nueva interpretacin de una matriz. Dado una matriz A de dimensin n n con coecientes en el campo F , si no se especica que es una representacin de algn operador, ser considerada como un operador lineal que mapea (F n , F) en si mismo. La matriz A es independiente de la base escogida para (F n , F). Sin embargo, si el conjunto de vectores n1 , n2 , . . . , nn en la Ecuacin (2.13) es escogido como una base de (F n , F), entonces la representacin del operador lineal A es idntica al operador lineal A (una matriz) misma. Esto puede ser vericado usando el hecho que la isima columna de la representacin es igual a la representacin de Ani con respecto a la base {n1 , n2 , . . . , nn }. Si ai es la isima columna de A, entonces Ani = ai Ahora la representacin de ai con respecto a la base (2.13) es idntica a ella misma. Por consiguiente concluimos que la representacin de una matriz (un operador lineal) con respecto a la base (2.13) es idntica a si misma. Para una matriz (un operador), la Figura puede ser modicada como en la Figura. La ecuacin Q = [q1 q2 qn ] sigue del hecho que la isima columna de Q es la representacin de qi con respecto a la base {n1 , n2 , . . . , nn }. Si una base {q1 , q2 , . . . , qn } es escogida para (F n , F), una matriz A tiene una representacin A. De la Figura, vemos que la representacin matricial A puede ser calculada del Teorema o de una transformacin de similitud. En la mayora de los problemas encontrados en este libro, es siempre ms fcil calcular A del Teorema que usar una transformacin de similitud.

Ejemplo 2.19 Considere la siguiente matriz con coecientes en IR:


3 2 1 0 L = A = 2 1 4 3 1
Sea

0 b= 0 1 1 Ab = 0 1 4 A2 b = 2 3 5 A3 b = 10 13

Entonces

Puede demostrarse que la relacin siguiente es vlida

A3 b = 5A2 b 15Ab + 17b

(2.32)

Dado que el conjunto de vectores b, Ab y A2 b son linealmente independientes, ellos calican como una base. Calculamos ahora la representacin de A con respecto a esta base. Es claro

24 que

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

0 A(b) = [b Ab A2 b] 1 0 0 A(Ab) = [b Ab A2 b] 0 1 17 A(A2 b) = [b Ab A2 b] 15 5

La ltima ecuacin es obtenida de (2.32). Por consiguiente la representacin de A con respecto a la base {b, Ab, A2 b} es 0 0 17 A = 1 0 15 0 1 5

La matriz A tambin puede ser obtenida de Q1 AQ, pero requiere una inversin de una 3 multiplicaciones. Sin embargo, podramos usar A = Q1 AQ, o ms fcilmente, matriz y n QA = AQ, para comprobar nuestro resultado. El lector es invitado a vericar 0 1 4 0 0 17 3 2 1 0 1 4 0 0 2 1 0 15 = 2 1 0 0 0 2 1 1 3 0 1 5 4 3 1 1 1 3

Ejemplo 2.20 Extendemos el Ejemplo al caso general. Sea A una matriz cuadrada de dimensin n n con coecientes reales. Si existe un vector real b tal que los vectores b,Ab,. . ., An1 b sean linealmente independientes y si An1 b = n b n1 Ab 1 An1 b, entonces la representacin de A con respecto a la base {b, Ab, . . . , An1 b es
= A 0 0 1 0 0 1 . . . . . . 0 0 0 0 0 n 0 n1 0 n2 . . . . . . 0 2 1 1

(2.33)

Una matriz de la forma mostrada en () o su transpuesta se dice que est en la forma companion. Esta forma aparecer constantemente en este texto. Como una ayuda en memorizar la Figura, escribimos A = Q1 AQ como

QA = AQ

2.4. SISTEMAS DE ECUACIONES LINEALES ALGEBRAICAS

25

Dado que Q = [q1 q2 qn ], puede ser adems como

[q1 q2 qn ]A = [Aq1 Aq2 Aqn ]

(2.34)

De (), vemos que la isima columna de A es en realidad la representacin de Aqi con respecto a la base {q1 , q2 , , qn }. Para terminar esta seccin planteamos la siguiente pregunta: Dado que un operador lineal tiene muchas representaciones, Es posible escoger un conjunto de vectores base tal que la representacin sea agradable y simple? La respuesta es armativa. A n de dar una solucin, tenemos que estudiar primero las ecuaciones algebraicas lineales.

2.4

Sistemas de ecuaciones lineales algebraicas


a11 x1 + a12 x2 + + a1n xn = y1 a21 x1 + a22 x2 + + a2n xn = y2 am1 x1 + am2 x2 + + amn xn = ym

Considere el conjunto de ecuaciones lineales: (2.35)

donde los aij 's e yij 's dados son considerados elementos de un campo F y las incgnitas xi 's tambin son requeridas estar en el mismo campo F . Este conjunto de ecuaciones puede ser escrito en una forma matricial como Ax = y (2.36) donde

A=

a11 a21 . . .

a12 a22 . . .

a1n a2n . . . amn

x=

x1 x2 . . . xn

y=

y1 y2 . . . ym

am1 am2

Claramente, A es una matriz de dimensin m n, x es un vector de dimensin n 1 e y es un vector de dimensin m 1. Ninguna restriccin es hecha sobre el entero m; podra ser ms grande, igual o ms pequeo que el entero n. Dos preguntas pueden aparecer viendo este conjunto de ecuaciones: primero, la existencia de una solucin y, segundo, el nmero de soluciones. Ms especcamente, suponga que la matriz A y el vector y en la Ecuacin () estn dados; la primera pregunta concierne con la condicin en A e y bajo la cual al menos un vector x existe tal que Ax = y. Si existen soluciones, entonces la segunda pregunta concierne con el nmero de vectores linealmente independientes x tal que Ax = y. A n de contestar con estas preguntas, el rango y la nulidad de la matriz A tienen que ser introducidos. Hemos acordado en la seccin precedente considerar la matriz A como un operador lineal el cual mapea (F m , F) en (F m , F). Recuerde que el espacio lineal (F m , F) que experimenta la transformacin es llamado el dominio de A.

Denicin 2.9 El rango de un operador lineal A es el conjunto R(A) denida por


R(A) = {todos los elementos de y de (F m , F) para los cuales existe al menos un vector x en (F m , F) tal que y = Ax} 2

26

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

Teorema 2.3 El rango de un operador lineal A es un subespacio de (F m , F). Prueba:


Si y1 e y2 son elementos de R(A), entonces por denicin existen vectores x1 y x2 en (F m , F) tal que y1 = Ax1 , y2 = Ax2 . Armamos que para toda 1 y 2 en F , el vector 1 y1 + 2 y2 es tambin elemento de R(A). De hecho, por la linealidad de A, es fcil mostrar que 1 y1 + 2 y2 = A(1 x1 + 2 x2 ), y entonces el vector 1 x1 + 2 x2 es un elemento de (F m , F). Por lo tanto el rango R(A) es un subespacio de (F m , F).

Sea la isima columna de A denotada por ai ; esto es, A = [a1 a2 an ], entonces la ecuacin matricial () puede ser escrita como

y = x1 a1 + x2 a2 + + xn an

(2.37)

donde xi , para i = 1, 2, . . . , n, son componentes de x y son elementos de F . El espacio de rango R(A) es, por denicin, el conjunto de y tal que y = Ax para algn x en (F m , F). Es lo mismo que decir que R(A) est en el conjunto de y con x1 , x2 , . . . , n en () ordenando completamente todos los posibles valores de F . Por consiguiente concluimos que R(A) es el conjunto de todas las combinaciones lineales posibles de las columnas de A. Dado que R(A) es un espacio lineal, su dimensin est denida y es igual a l nmero mximo de vectores linealmente independientes en R(A). Por lo tanto, la dimensin de R(A) es el nmero mximo de columnas linealmente independientes en A.

Denicin 2.10 El rango de una matriz A, denotado por (A), es el nmero mximo de columnas linealmente independientes en A, o equivalentemente, la dimensin del espacio rango de A. 2 Ejemplo 2.21 Considere la matriz
0 1 1 2 A= 1 2 3 4 2 0 2 0
El espacio rango de A es todas las combinaciones lineales posibles de todas las columnas de A, o correspondientemente, todas las combinaciones lineales posibles de las primeras dos columnas de A, dado que la tercera y la cuarta columnas de A son linealmente dependientes de las dos primeras columnas. Por consiguiente el rango de A es 2. El rango de una matriz puede ser calculado usando una secuencia de transformaciones elementales. Esto est basado sobre la propiedad que el rango de una matriz permanece sin cambio despus de pre o post multiplicaciones de matrices elementales (Teorema ). Una vez que una matriz es transformada en la forma triangular superior como est mostrado en (), entonces el rango es igual al nmero de renglones no cero en (). De la forma, es tambin fcil comprobar que el nmero de columnas linealmente independientes de una matriz es igual al

2.4. SISTEMAS DE ECUACIONES LINEALES ALGEBRAICAS

27

nmero de renglones independientes. Consecuentemente, si A es una matriz de dimensin n m, entonces rangoA = nmero de columnas linealmente independientes = nmero de renglones linealmente independientes min(n, m) (2.38)

El clculo del rango de una matriz en computadoras digitales, sin embargo, no es un problema simple. Debido a la precisin limitada de las computadoras digitales, los errores de redondeo siempre aparecen en clculos numricos. Suponga que una matriz, despus de transformaciones, se convierte en 1 2 0 donde es un nmero muy pequeo, digamos, 1010 . Este aparece de los datos dados (asumiendo que no existen errores de redondeo) o de los errores de redondeo. Si aparece de los errores de redondeo, tenemos que considerar como cero, y la matriz tiene rango 1. Si es debido a los datos dados, no podemos considerarlo como un cero y la matriz tiene rango 2. Determinar que valor es lo sucientemente pequeo para ser considerado cero es un problema complicado en clculos computacionales. En la teora de matrices, el rango de una matriz est denido como el orden ms grande de todos los menores no cero de A. En otras palabras, la matriz A tiene rango k si y slo si existe al menos un menor de orden k en A que no desaparezca y cada menor de orden mayor que k se hace cero. Esta denicin y la Denicin son, de hecho, equivalentes, ; la prueba puede ser encontrada en . Una consecuencia es que una matriz cuadrada tiene rango completo si y slo si el determinante de la matriz es diferente de cero; o correspondientemente, una matriz es no singular si y slo si todos los renglones y columnas de la matriz son linealmente independientes. Con los conceptos del espacio rango y rango, estamos listos para estudiar el problema de existencia de soluciones de Ax = y

Teorema 2.4 Considere la ecuacin matricial Ax = y, donde la matriz A de dimensin


m n mapea (F m , F) en (F m , F).

1. Dada una matriz A y dado un vector y en (F m , F), existe un vector x tal que Ax = y si y slo si el vector y es un elemento de R(A) , o equivalentemente, . (A) = ([A.y]) . 2. Dado un A, para cada y en (F m , F), existe un vector x tal que Ax = y si y slo si R(A) = (F m , F), o equivalentemente, (A) = m.

Prueba:
1. Viene directamente de la denicin del espacio rango de A Si el vector y no es un elemento de R(A), la ecuacin Ax = y no tiene solucin y se dice que es inconsistente.

28

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

2. El rango de A, (A), es por denicin la dimensin de R(A). Dado que R(A) es un subespacio de (F m , F), si (A) = m, entonces R(A) = (F m , F), entonces para cualquier y en (F m , F), existe un vector x tal que Ax = y. Si (A) < m, existe al menos un vector no cero y en (F m , F) , pero no en R(A), por lo cual no existe un x tal que Ax = y.

El diseo de compensadores para llevar a cabo varios objetivos de diseo puede ser reducido a la solucin de ecuaciones algebraicas lineales. Por lo tanto este teorema es muy importante en nuestra aplicacin. Si A se una matriz de dimensin m n y si (A = m entonces todos los renglones de A son linealmente independientes y A se dice que tiene rango completo de renglones. Si A tiene un rango completo de renglones , no importa que columna y sea anexada . . a A, el rango de [A.y] no puede incrementarse y es igual a (A). En otras palabras, y est en el espacio generado por las columnas de A y, consecuentemente, puede ser escrita como una combinacin lineal de las columnas de A. Por lo tanto si A tiene rango de renglones completo, para cualquier y, entonces existe una x tal que Ax = y. Similarmente, si (A) = n la matriz A de dimensin m n se dice que tiene un rango completo de columnas, cada vector a de dimensin 1 n estar en el espacio generado por los renglones de A y, consecuentemente, puede ser escrito como una combinacin lineal de los renglones de A. En otras palabras, existe un vector b de dimensin 1 m tal que bA = a. Despus de encontrar que una ecuacin lineal tiene al menos una solucin, es natural, preguntarse cuantas soluciones podra tener. En vez de estudiar el caso genera, discutiremos slo la ecuacin lineal homognea Ax = 0.

Denicin 2.11 El espacio nulo de un operador lineal A es el conjunto N (A) denido como
N (A) = {todos los elementos de x de (F m , F) para los cuales Ax = 0}
La dimensin de N (A) es llamada la nulidad de A y es denotada por (A).

2
En otras palabras, el espacio nulo N (A es el conjunto de todas las soluciones posibles de Ax = 0. Es fcil demostrar que N (A) es efectivamente un espacio lineal. Si la dimensin de N (A), (A), es 0, entonces N (A) consiste slo del vector cero y la nica solucin de Ax = 0 es x = 0. Si (A) = k , entonces la ecuacin tiene k vectores solucin linealmente independientes. Note que el espacio nulo es un subespacio del dominio (F m , F), mientras el espacio rango es un subespacio de (F m , F).

Ejemplo 2.22 Considere la matriz


0 1 1 2 1 A = 1 2 3 4 1 2 0 2 0 2

2.4. SISTEMAS DE ECUACIONES LINEALES ALGEBRAICAS

29

la cual mapea (IR5 , IR) en (IR3 , IR). Es simple vericar que las ltimas tres columnas de A son linealmente dependientes de las primeras dos columnas de A. Por lo tanto el rango de A, (A), es igual a 2. Sea x = [x1 x2 x3 x4 x5 ] . Entonces

0 1 1 2 1 Ax = x1 1 + x2 2 + x3 3 + x4 4 + x5 1 2 0 2 0 2 0 1 = (x1 + x2 + x3 ) 1 + (x2 + x3 + 2x4 x5 ) 2 2 0


(2.39)

Dado que los vectores [0 1 2] y [1 2 0] son linealmente independientes, concluimos de () que un vector x satisface Ax = 0 si y slo si

x1 + x3 + x5 = 0 x2 + x3 + 2x4 x5 = 0
Note que el nmero de ecuaciones es igual al rango de A, (A). La solucin x de Ax = 0 tiene cinco componentes pero es gobernada slo por dos ecuaciones; por consiguiente tres de los cinco componentes pueden ser asignados arbitrariamente. Sea x3 = 1, x4 = 0, x5 = 0; entonces x1 = 1. Sea x3 = 0, x4 = 1, x5 = 0; entonces x1 = 0 y x2 = 2. Sea x3 = 0, x4 = 0, x5 = 1; entonces x1 = 1 y x2 = 1. Es claro que los tres vectores

1 1 1 0 0

0 2 0 1 0

1 0 0 1 0

son linealmente independientes, y que cada solucin de Ax = 0 debe ser una combinacin lineal de esos tres vectores. Por lo tanto el conjunto de vectores forma una base de N (A) y (A) = 3. Vemos de este ejemplo que el nmero de ecuaciones que los vectores de N (A) deben obedecer es igual a (A) y que hay n componentes en cada vector de N (A). Por consiguiente n (A) componentes de los vectores de N (A) pueden ser arbitrariamente escogidos. Consecuentemente, existen n(A) vectores linealmente independientes en N (A). Por consiguiente concluimos que n (A) = (A). Armamos esto como un teorema.

Teorema 2.5 Sea A una matriz de dimensin m n. Entonces


(A) + (A) = n

30

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

Corolario 2.1 El nmero de vectores solucin linealmente independientes de Ax = 0 es igual

a n (A), donde n es el nmero de columnas de A, y (A) es el nmero de columnas linealmente independientes de A.

Este corolario viene directamente del Teorema y de la denicin del espacio nulo de A. Es claro que si r(A) = n entonces la solucin nica de Ax = 0 es x = 0, la cual es llamada la solucin trivial. Si (A) < n, entonces siempre podemos encontrar un vector x no cero tal que Ax = 0. En particular, si A es una matriz cuadrada, entonces Ax = 0 tiene una solucin no trivial si y slo si (A) < n, o equivalentemente, det (A) = 0, donde det simboliza el determinante. Introduciremos ahora tres teoremas tiles para concluir esta seccin.

Teorema 2.6 (Desigualdad de Sylvester) Sean A y B matrices de dimensiones q n y n p


con coecientes en el mismo campo. Entonces
(A) + (B) n (AB) min ((A), (B))

La matriz compuesta AB puede ser considerada como dos transformaciones lineales aplicada sucesivamente a (F p , F) como es mostrado en la Figura . Dado que el dominio de AB es R(B) y la imagen de AB es un subespacio de R(A), tenemos inmediatamente (AB) min ((A), (B)) al usar (2.38). De la Figura tenemos (AB) = (B) d, donde d es la dimensin de la interseccin de R(B) y N (A). La dimensin de N (A) es n (A); por lo tanto, d n (A). Consecuentemente, (AB) (B) n + (A). Si B es una matriz de dimensin n n y es no singular, entonces

Prueba:

(A) + (B) n = (A) (AB) min ((A), n) = (A)


Por consiguiente tenemos el siguiente importante teorema

Teorema 2.7 Sea A una matriz de dimensin m n. Entonces


(AC) = (A) y (DA) = (A)

para cualesquiera matrices no singulares C y D.


En palabras, el rango de una matriz no cambiar despus de pre- o postmultiplicarla por una matriz no singular. Debido a esta propiedad, la eliminacin gaussiana o el algoritmo de bsqueda de renglones discutido en el Apndice puede ser usados para calcular el rango de las matrices.

la transpuesta compleja conjugada de A Entonces

Teorema 2.8 Sea A una matriz de dimensin m n con coecientes en un campo, y sea A

2.5. VECTORES PROPIOS, VECTORES PROPIOS GENERALIZADOS Y REPRESENTACIONES EN LA FORMA DE JORDAN DE UN OPERADOR LINEAL

1. (A) = n si y slo si (A A) = n, o equivalentemente


det (A A) = 0

2. (A) = m si y slo si (AA ) = n, o equivalentemente


det (AA ) = 0

Note que A A es una matriz de dimensin n n y AA es una matriz de dimensin m m. A n de tener (A) = n, es necesario tener n m. Este teorema ser probado al usar la denicin . Ms especcamente, usamos el hecho que si A = 0 implica = 0, entonces todas las columnas de A son linealmente independientes y (A) = n, donde n es el nmero de columnas de A.

Prueba:

1. Suciencia: (A A) = n implica (A) = n. Mostramos que A = 0 implica = 0 bajo la suposicin que (A A) = n, donde es un vector de dimensin n 1. Si A = 0, entonces A A = 0, lo cual, con la suposicin (A A) = n, implica = 0. Por lo tanto concluimos que (A) = n. Necesidad: (A) = n implica (A A) = n. Sea un vector de dimensin 1 n. Mostramos que A A = 0 implica = 0 bajo la suposicin que (A) = n. La igualdad A A = 0 implica A A = 0. Sea A = [1 2 m ] . Entonces
A = [1 2 m ] A A = |1 |2 + |2 |2 + + |m |2

Por lo tanto A A = 0 implica i = 0, para i = 1, 2, . . . , m; o equivalentemente, A = 0, lo cual, a su vez, implica = 0 de la suposicin que (A) = n. Por consiguiente concluimos que (A A) = n 2. Esta parte puede ser probada de manera similar o deducida directamente de lo anterior usando el hecho que (A) = (A ).

2.5

Vectores propios, vectores propios generalizados y representaciones en la forma de Jordan de un operador lineal

Con el fondo de la Seccin 2.4, estamos ahora listos para estudiar el problema expuesto al nal de la Seccin 2.3. Discutimos en esta seccin slo operadores lineales que mapean (Cn ,C) I I en si mismo con el entendimiento que los resultados son aplicables a cualquier operador que mapea un espacio lineal de dimensin nita sobre C en si mismo. La razn para restringir el I campo al campo de los nmeros complejos ser vista inmediatamente. Sea A una matriz de dimensin n n con coecientes en el campo C. Hemos acordado I n n considerar A como un operador lineal que mapea (C ,C) en (C ,C). I I I I

32

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

Denicin 2.12 Sea A un operador lineal que mapea A en si mismo. Entonces un escalar
en C es llamado un valor propio de A si existe un vector x no cero en C tal que Ax = x. I I Cualquier vector x no cero satisfaciendo Ax = x es llamado un vector propio de A asociado con el valor propio . 2
A n de encontrar un valor propio de A, escribimos Ax = x como

(A I)x = 0

(2.40)

donde I es la matriz identidad de orden n. Vemos que para un jo en C, la Ecuacin (2.40) I es un conjunto de ecuaciones lineales homogneas. La matriz (AI) es una matriz cuadrada de dimensin n n. Del Corolario 2.1, sabemos que la Ecuacin (2.40) tiene una solucin no trivial si y slo si det (A I) = 0. De aqu viene que un escalar es un valor propio de A

si y slo si es una solucin de () = det (A I) = 0. () es un polinomio de grado n en y es llamado el polinomio caracterstico de A. Dado que () es de grado n, la matriz A de dimensin n n tiene n valores propios (no necesariamente todos distintos).

Ejemplo 2.23 Considere la matriz


A= 1 1 2 1
(2.41)

la cual mapea (IR2 , IR) en si misma. Queremos vericar si la Denicin 2.12 puede ser modicada y aplicada a un operador lineal que mapea (IRn , IR) en (IRn , IR). Una versin modicada de la Denicin 2.12 lee como un escalar en IR es un valor propio de A si existe un vector x no cero tal que Ax = x. Claramente es un valor propio de A si y slo si es una solucin de det (A I) = 0. Ahora

det (I A) = det

1 1 2 + 1

= 2 + 1

lo cual no tiene solucin real. Consecuentemente, la matriz A no tiene valores propios en IR. Dado que el conjunto de nmeros reales es una parte del campo de los nmeros complejos, no hay razn para que no podamos considerar a la matriz A en (2.41) como un operador lineal que mapea (Cn ,C) en si mismo. Al hacer esto, entonces la matriz A tiene valores propios +i I I y i donde i2 = 1. Las matrices constantes que encontraremos en este libro son todas reales. Sin embargo a n de asegurar la existencia de valores propios, las consideraremos como operadores lineales bajo el campo de los nmeros complejos. Con estos preliminares, estamos listos para introducir un conjunto de vectores base tal que un operador lineal tenga una representacin diagonal o casi diagonal. Estudiamos primero el caso en el cual todos los valores propios de A son distintos; el caso donde A tiene valores propios repetidos ser estudiado despus.

2.5. VECTORES PROPIOS, VECTORES PROPIOS GENERALIZADOS Y REPRESENTACIONES EN LA FORMA DE JORDAN DE UN OPERADOR LINEAL

Caso 1: Todos los valores propios de A son distintos Sean 1 , 2 , . . . , n los valores

propios de A y sea vi un vector propio de A asociado con i , para i = 1, 2, . . . , n; esto es, Avi = i vi . Usaremos el conjunto de vectores {v1 , v2 , . . . , vn } como una base de (Cn ,C). I I Con objeto de hacer esto, tenemos que mostrar que el conjunto es linealmente independiente y calica como una base.

pio de A asociado con i , para i = 1, 2, . . . , n. Entonces el conjunto {v1 , v2 , . . . , vn } es linealmente independiente (sobre C). I

Teorema 2.9 Sean 1 , 2 , . . . , n los valores propios distintos de A y sea vi un vector pro-

Prueba:

Probamos el teorema por contradiccin. Supongamos que v1 , v2 , . . . , vn son linealmente dependientes; entonces existen 1 , 2 , . . . , n (no todos cero) en C tal que I

1 v1 + 2 v2 + + n vn

(2.42)

Consideramos 1 = 0. Si i = 0, podramos reordenar i de tal manera que 1 = 0. La Ecuacin (2.42) implica que
n

(A 2 I)(A 3 I) (A n I)
i=1

i vi

=0

(2.43)

Dado que y

(A j I)vi = (i j )vi si j = i (A i I)vi = 0

la parte izquierda de (2.43) puede ser reducida a

1 (1 2 )(1 3 ) (1 n )v1 = 0
Por suposicin las i 's, para i = 1, 2, . . . , n, son todos distintos; por lo tanto la ecuacin
n

1
i=2

(1 i )v1 = 0

implica 1 = 0. Esto es una contradiccin. As, el conjunto de vectores {v1 , v2 , . . . , vn } es linealmente independiente y calica como base.

Sea A la representacin de A con respecto a la base {v1 , v2 , . . . , vn }. Recordemos de la Figura ?? que la isima columna de A es la representacin de Avi = i vi con respecto a {v1 , v2 , . . . , vn }, esto es, [0 0 i 0 0] , donde i est localizada en la isima entrada. Por consiguiente la representacin de A con respecto a {v1 , v2 , . . . , vn } es 1 0 0 0 0 2 0 0 (2.44) A = 0 0 3 0 . . . . . . . . . . . . 0 0 0 n

34

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

Esto puede tambin ser vericado usando una transformacin de similitud. De la Figura ??, tenemos Q = [v1 v2 vn ] Dado que

AQ = A[v1 v2 vn ] = [Av1 Av2 Avn ] = [1 v1 2 v2 n vn ] = QA A = Q1 AQ

tenemos

Concluimos que si los valores propios de un operador lineal A que mapea (Cn ,C) en si I I mismo son todos distintos, entonces al escoger el conjunto de vectores propios como base, el operador A tiene una representacin matricial diagonal con los valores propios sobre la diagonal.

Ejemplo 2.24 Considere


A=

1 1 2 1

El polinomio caracterstico de A es 2 + 1. Por lo tanto los valores propios de A son +i y i. El vector propio asociado con 1 = i puede ser obtenido al resolver la siguiente ecuacin homognea: 1i 1 v11 (A 1 I)v1 = =0 2 1 i v21 Claramente el vector v1 = [1 1i] es una solucin. De manera similar, el vector v2 = [1 1+i] puede mostrarse que es un vector propio de 2 = i. Por consiguiente la representacin de A con respecto a {v1 , v2 } es i 0 A= 0 i El lector es aconsejado de vericar esto por una transformacin de similitud.

Caso 2: Los valores propios de A no son todos distintos A diferencia del caso

anterior, si un operador A tiene valores propios repetidos, no siempre es posible encontrar una representacin matricial diagonal. Utilizaremos ejemplos para ilustrar la dicultad que podra aparecer con valores propios repetidos.

Ejemplo 2.25 Considere

1 0 1 0 A= 0 1 0 0 2

Los valores propios de A son 1 = 1, 2 = 1 y 3 = 2. Los vectores propios asociados con 1 pueden ser obtenidos resolviendo las ecuaciones homogneas siguientes: 0 0 1 0 v = 0 (2.45) (A 1 I)v = 0 0 0 0 1

2.5. VECTORES PROPIOS, VECTORES PROPIOS GENERALIZADOS Y REPRESENTACIONES EN LA FORMA DE JORDAN DE UN OPERADOR LINEAL

Note que la matriz (A 1 I) tiene rango 1; en consecuencia, dos vectores solucin linealmente independientes pueden ser encontrados para (2.45) (ver el Corolario 2.1). Claramente, v1 = [1 0 0] y v2 = [0 1 0] son dos vectores propios linealmente independientes asociados con 1 = 2 = 1. Un vector propio asociado con 3 = 2 puede ser encontrado como [1 0 1] . Dado que el conjunto de vectores {v1 , v2 , v3 } es linealmente independiente, calica como una base. La representacin de A con respecto a {v1 , v2 , v3 } es 1 0 0 A= 0 1 0 0 0 2

En este ejemplo, aunque A tiene valores propios repetidos, an puede ser diagonalizado. Sin embargo, esto no es siempre el caso, como puede ser visto del ejemplo siguiente.

Ejemplo 2.26 Considere

1 1 2 A= 0 1 3 0 0 2

(2.46)

Los valores propios de A son 1 = 1, 2 = 1 y 3 pueden ser encontrados resolviendo 0 0 (A 1 I)v = 0

= 2. Los vectores propios asociados con 1 1 2 0 3 v = 0 0 1

Dado que la matriz (A 1 I) tiene rango 2, el espacio nulo de (A 1 I) tiene dimensin 1. Consecuentemente, podemos encontrar slo un vector propio linealmente independiente, digamos v1 = [1 0 0] , asociado con 1 = 2 = 1. Un vector propio asociado con 3 = 2 puede ser encontrado como v3 = [5 3 1] . Claramente los dos vectores propios no son sucientes para formar una base de (C3 ,C). I I De este ejemplo, vemos que si una matriz A de dimensin n n tiene valores propios repetidos, no siempre es posible encontrar n vectores propios linealmentes. Consecuentemente, la A no puede ser transformada en una forma diagonal. Sin embargo, es posible encontrar un conjunto especial de vectores base tal que la nueva representacin sea casi una forma diagonal, llamada la forma cannica de Jordan. La forma tiene los valores propios de A sobre la diagonal y sea 0 o 1 sobre la superdiagonal. Por ejemplo, si A tiene un valor propio 1 con multiplicidad 4 y un valor propio 2 con multiplicidad 1, entonces la nueva representacin asumir alguna de las siguientes formas: 1 1 0 0 0 0 1 1 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 1 1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 1 0 0 0 0 0 1 0

36

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

(2.47) Cual forma asumir depende de las caractersticas de A y ser discutido en la siguiente subseccin. Las matrices en (2.47) son todas de forma bloque diagonal. Los bloques sobre la diagonal son de la forma 1 0 0 0 0 1 0 0 . . . . . . . . . . . . (2.48) . . . 0 0 0 1 0 0 0 0 1 0 0 0 0 donde el mismo valor propio sobre la diagonal principal y 1's en la diagonal justo encima de la diagonal principal. Una matriz de esta forma es llamada un bloque de Jordan asociado con . Una matriz se dice que est en la forma cannica de Jordan, o en la forma de Jordan, si su diagonal principal consiste de bloques de Jordan y los elementos restantes son ceros. La cuarta matriz en (2.47) tiene dos bloques de Jordan asociados con 1 (uno con orden 3, el otro con orden 1) y un bloque de Jordan asociado con 2 . Una matriz diagonal es claramente un caso especial de la forma de Jordan: todos sus bloques de Jordan son de orden 1. Cada matriz la cual mapea (Cn ,C) en si misma tiene una representacin en forma de I I Jordan. El uso de la forma de Jordan es muy conveniente al desarrollar un gran nmero de conceptos y resultados, por lo tanto ser usada extensivamente en el resto de este captulo.

1 1 0 0 0 0 0 1 1 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 2

1 1 0 0 0 0 0 1 1 0 0 0 0 0 1 1 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 2

2.5.1

Derivacin de la representacin en forma de Jordan

En esta subseccin, discutiremos como encontrar un conjunto de vectores base tal que la representacin de A con respecto a este conjunto de vectores base est en una forma de Jordan. Los vectores base a ser utilizados son llamados los vectores propios generalizados.

Denicin 2.13 Un vector v se dice ser un vector propio generalizado de grado k de A asociado con si y slo si (A I)k v = 0
y

(A I)k1 v = 0 2

Note que si k = 1, la Denicin 2.13 se reduce a (A I)v = 0 y v = 0, lo cual es la denicin de un vector propio. Por lo tanto el termino "vector generalizado" es bien justicado.

2.5. VECTORES PROPIOS, VECTORES PROPIOS GENERALIZADOS Y REPRESENTACIONES EN LA FORMA DE JORDAN DE UN OPERADOR LINEAL

Sea v un vector propio generalizado de grado k asociado con el vector propio . Denamos

vk = v vk1 = (A I)v = (A I)vk vk2 = (A I)2 v = (A I)vk1 v1 = (A I)k1 v = (A I)v2


Este conjunto de vectores {v1 , v2 , . . . , vn } es llamado una cadena de vectores propios generalizados de longitud k . Denote Ni el espacio nulo de (AI)i , esto es, Ni consiste de todo x tal que (AI)i x = 0. Es claro que si x est en Ni , entonces est en Ni+1 . Por lo tanto Ni es un subespacio de Ni+1 , denotado como Ni Ni+1 . Claramente, la v denida en la Denicin 2.13 est en Nk pero no en Nk1 . De hecho, para i = 1, 2, . . . , k , vi = (A I)ki v denida en (2.49) est en Ni pero no en Ni1 . As tenemos (2.49)

(A I)i vi = (A I)i (A I)ki v = (A I)k v = 0


y

(A I)i1 vi = (A I)i1 (A I)ki v = (A I)k1 v = 0

por lo tanto vi est en Ni pero no en Ni1 . Sea A una matriz de dimensin n n y tenga valores propios con multiplicidad m. Discutimos a continuacin como encontrar m vectores propios generalizados linealmente independientes de A asociados con . Esto es llevado a cabo al buscar cadenas de vectores propios generalizados de varias longitudes. Primero calculamos los rangos de (A I)i , i = 0, 1, 2, . . ., hasta que el rango de (A I)k = n m. A n de no abrumar con la notacin, consideramos n = 10, m = 8, k = 4, y los rangos de (A I)i i = 0, 1, 2, 3, 4, son mostrados en la Tabla 2.1. La nulidad de i es la dimensin del espacio nulo Ni , y es igual a, siguiendo el Teorema 2.5, n (A I)i . Debido a que N0 N1 N2 . . ., tenemos 0 = 0 1 2 k = m . Ahora estamos listos para encontrar m = 8 vectores propios linealmente independientes de A asociados con . Dado que N3 N4 y 4 3 = 1, podemos encontrar uno y slo un vector u linealmente independiente en N4 pero no en N3 tal que

B4 u = 0

B3 u = 0

donde B = A I. De esta u, podemos generar una cadena de cuatro vectores propios generalizados como u1 = B3 u u2 = B2 u u3 = Bu u4 = u (2.50) Dado que N2 N3 y 3 2 = 1, existe slo un vector linealmente independiente en N3 pero no en N2 . La u3 en (2.50) es tal vector; en consecuencia no podemos encontrar otro vector linealmente independiente en N3 pero no en N2 . Consideremos ahora los vectores en N2 pero no en N1 . Dado que 2 1 = 3, existen tres vectores linealmente independientes tales. Dado que u2 en (2.50) es uno de ellos, podemos encontrar dos vectores v y w tal que {u2 , v, w} sean linealmente independientes y

B2 v = 0 Bv = 0

38

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

(A I)0 (A I)1 (A I)2 (A I)3 (A I)4

= 10 = 7 = 4 = 3 = 2

0 1 2 3 4

= = = = =

0 3 6 7 8

4 3 = 1 u4 = u

3 2 = 1 u3 = Bu

2 1 w2 = v2 = u2 =

=3 w v B2 u

1 0 w1 = v1 = u1 =

=3 Bw Bv B2 u

Tabla 2.1: Cadenas de vectores propios generalizados, donde B = A I

B2 w = 0 Bw = 0

De v y w, podemos generar dos cadenas de vectores propios generalizados de longitud 2 como est mostrado en la Tabla 2.1. Como puede ser visto de la Tabla 2.1, el nmero de vectores en N1 es igual a 1 0 = 3, por lo tanto no es necesario buscar otro vector en N1 . Esto completa la bsqueda de ocho vectores propios generalizados de A asociados con .

la Tabla 2.1 son linealmente independientes.

Teorema 2.10 Los vectores propios generalizados de A asociados con generados como en

Prueba:

Primero mostramos que si {u2 , v, w} es linealmente independiente, entonces {u1 , v1 , w1 } es linealmente independiente. Suponemos que {u1 , v1 , w1 } no es linealmente independiente, entonces existen ci , i = 1, 2, 3, no todos cero, tal que c1 u1 + c2 v1 + c3 w1 = 0. Sin embargo, tenemos

0 = c1 u1 + c2 v1 + c3 w1 = c1 Bu2 + c2 Bv + c3 Bw = B(c1 u2 + c2 v + c3 w) = By
Dado que y es un vector en N2 , la nica manera de tener By = 0 es que y = 0. Dado que {u2 , v, w} es linealmente independiente por suposicin, y = 0 implica ci = 0, i = 1, 2, 3. Esto es una contradiccin. Por lo tanto si {u2 , v, w} es linealmente independiente, entonces {u1 , v1 , w1 } lo es. Ahora mostramos que los vectores propios generalizados {ui , i = 1, 2, 3, 4; vj , wj , j = 1, 2} son linealmente independientes. Considere

c1 u1 + c2 u2 + c3 u3 + c4 u4 + c5 v1 + c6 v2 + c7 w1 + c8 w2 = 0
La aplicacin de B3 = (A I)3 a (2.51) lleva a

(2.51)

c4 B3 u4 = 0
lo cual implica, debido a que B3 u4 = 0, c4 = 0. De manera similar, podemos mostrar que c3 = 0 al aplicar B2 a (2.51). Con c3 = c4 = 0, la aplicacin de B a (2.51) lleva a

c2 u2 + c6 v2 + c8 w2 = 0
lo cual implica, debido a la dependencia lineal de {u2 , v2 , w2 }, c2 = c6 = c8 = 0. Finalmente, tenemos c1 = c5 = c7 = 0 siguiendo con la independencia lineal de {u1 , v1 , w1 }. Esto completa la prueba de este teorema.

2.5. VECTORES PROPIOS, VECTORES PROPIOS GENERALIZADOS Y REPRESENTACIONES EN LA FORMA DE JORDAN DE UN OPERADOR LINEAL

Teorema 2.11 Los vectores propios generalizados de A asociados con los valores propios
diferentes son linealmente independientes.

Este teorema puede ser probado como el Teorema 2.10 aplicando repetidamente (A i I)k (A j I)l . La prueba es dejada como ejercicio. Ahora discutiremos la representacin de A con respecto a Q = [u1 u2 u3 u4 v1 v2 w1 w2 xx]. Los dos ltimos vectores son los vectores propios de A asociados con otros valores propios. Las primeras cuatro columnas de la nueva representacin de A son las representaciones de Aui , i = 1, 2, 3, 4, con respecto a {u1 , u2 , u3 , u4 , v1 , v2 , w1 , w2 , x, x}. Dado que (A I)u1 = 0, (A I)u2 = u1 , (A I)u3 = u2 y (A I)u4 = u3 , tenemos Au1 = u1 = Q[ 0 0 0] , Au2 = u1 + u2 = Q[1 0 0 0] , Au3 = u2 + u3 = Q[0 1 0 0] , y Au4 = u3 + u4 = Q[0 0 1 0 0] , donde el primo denota la transpuesta. Procediendo similarmente, la nueva representacin A puede ser obtenida como

A=

0 0 0 0 0 0 0

1 0 0 0 0 0 0

0 1 0 0 0 0 0

0 0 1 0 0 0 0

0 0 0 1 0 0 0

0 0 0 0 1 0 0

0 0 0 0 0 1 0

0 0 0 0 0 0 1

(2.52)

..

Esta es la matriz en forma de Jordan. Note que el nmero de bloques de Jordan asociados con es igual a 1 = 3, la dimensin del espacio nulo de (A I)

Ejemplo 2.27 Considere

1 1 2 A= 0 1 3 0 0 2

Sus valores propios son 1 = 1, 2 = 1, 3 = 2. Un vector propio asociado con 3 = 2 es v3 = [5 3 1] . El rango de (A 1 I) es 2; por consiguiente podemos encontrar slo un vector propio asociado con 1 . Consecuentemente, tenemos que usar los vectores propios generalizados. Calculamos

0 1 2 B = (A 1 I) = 0 0 3 0 0 1 0 0 5 0 1 2 0 1 2 = 0 0 3 0 0 3 = 0 0 3 0 0 1 0 0 1 0 0 1

(A 1 I)2

40

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

Dado que B2 = 1 = n m, aqu paramos. Buscamos un v tal que B2 v = 0 y Bv = 0. Claramente, v = [0 1 0] es tal vector. Este es un vector generalizado de grado 2. Sea 0 0 1 2 0 1 1 0 0 3 1 = 0 v2 = v = v1 = (A 1 I)v = 0 0 0 1 0 0 Los Teoremas 2.10 y 2.11 implican que v1 , v2 y v3 son linealmente independientes. Esto tambin puede ser comprobado calculando el determinante de [v1 v2 v3 ]. Si usamos el conjunto de vectores {v1 , v2 , v3 } como una base, entonces el la isima columna de la nueva representacin A es la representacin de Avi con respecto a la base {v1 , v2 , v3 }. Dado que Av1 = 1 v1 , Av2 = v1 + 1 v2 y Av3 = 2 v2 , las representaciones de Av1 , Av2 y Av3 con respecto a la base {v1 , v2 , v3 } son, respectivamente, 1 1 0 0 1 0 0 0 3 donde 1 = 1, 3 = 2. Por lo tanto tenemos

1 1 0 A= 0 1 0 0 0 2

(2.53)

Esto tambin puede ser obtenido usando una transformacin de similitud

A = Q1 AQ
donde

Q = [v1 v2

1 0 5 v3 ] = 0 1 3 0 0 1

Ejemplo 2.28 Transforme la matriz siguiente en la forma de Jordan:


A= 3 1 1 1 0 0 1 1 1 1 0 0 0 0 2 0 1 1 0 0 0 2 1 1 0 0 0 0 1 1 0 0 0 0 1 1

(2.54)

1. Calcule los valores propios de A.

det (A I) = [(3 )(1 ) + 1]( 2)2 [(1 )2 1] = ( 2)5


Por lo tanto A tiene un valor propio 2 con multiplicidad 5 y un valor propio 0 con multiplicidad 1.

2.5. VECTORES PROPIOS, VECTORES PROPIOS GENERALIZADOS Y REPRESENTACIONES EN LA FORMA DE JORDAN DE UN OPERADOR LINEAL

2. Calcule (A I)i , para i = 1, 2, , como sigue: 1 1 1 1 0 0 1 1 1 1 0 0 0 0 0 0 1 1 B = (A 2I) = 0 0 0 0 1 1 0 0 0 0 1 1 0 0 0 0 1 1

= =

(A 2I)2

0 0 0 0 0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0 0 0 0 0

2 2 0 0 0 0 0 0 0 0 0 0

2 0 0 2 0 0 0 0 0 0 0 0 0 2 2 0 2 2 0 0 0 0 0 0 0 0 0 0 0 0 0 4 4 0 4 4

(A 2I)3

Dado que (A 2I)3 = n m = 1, aqu paramos. Debido que 3 2 = 1, podemos encontrar un vector propio generalizado u de grado 3 tal que B3 u = 0 y B2 u = 0. Es fcil vericar que u = [0 0 1 0 0 0] es tal vector. Denamos 2 1 0 2 1 0 0 2 u = 0 u = Bu = u3 = u = 1 u1 = B 2 0 0 0 0 0 0 0 0 0 Esto es una cadena de vectores generalizados de longitud 3. Dado que 2 1 = 2, existen dos vectores linealmente independientes en N2 pero no en N1 . El vector u2 es uno de ellos. Buscamos un vector v el cual es independiente de u2 y tiene la propiedad que B2 v = 0 y Bv = 0. Puede ser fcilmente vericado que v = [0 0 1 1 1 1] es tal vector. Denimos 0 0 0 0 2 v2 = v = 1 v1 = Bv = 1 2 1 0

Ahora hemos encontrado cinco vectores propios generalizados de A asociados con = 2.

42

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

3. Calcular un vector propio asociado con 2 = 0. Sea w un vector propio de A asociado con 2 = 0; entonces 3 1 1 1 0 0 1 1 1 1 0 0 0 0 2 0 1 1 w = 0 (A 2 I)w = 0 0 2 1 1 0 0 0 0 0 1 1 0 0 0 0 1 1 Claramente, w = [0 0 0 0 1 1] es una solucin. 4. Con respecto a la base {u1 , u2 , u3 , v1 , v2 , w}, A tiene la representacin en forma de Jordan siguiente: 2 1 0 0 0 0 0 2 1 0 0 0 = 0 0 2 0 0 0 A (2.55) 0 0 0 2 1 0 0 0 0 0 2 0

0 0 0 0 0 0
5. Esto podra ser vericado utilizando

A = Q1 AQ
donde

QA = AQ

Q = [u1 u2 u3 2 1 2 1 0 0 = 0 0 0 0 0 0

v1 v2 w] 0 0 0 0 0 0 0 0 1 2 1 0 0 2 1 0 0 0 1 1 0 0 1 1

En este ejemplo, si reordenamos la base {u1 , u2 , u3 , v1 , v2 , w} {w, v2 , v1 , u3 , u2 , u1 } como una nueva base, entonces la representacin ser 0 0 0 0 0 0 0 2 0 0 0 0 = 0 1 2 0 0 0 A 0 0 0 2 0 0 0 0 0 1 2 0 0 0 0 0 1 2

usamos

(2.56)

Esto tambin es llamado una representacin en la forma de Jordan. Comparndola con la Ecuacin (2.55), vemos que el nuevo bloque de Jordan en (2.56) tiene los 1's sobre la

2.6. FUNCIONES DE UNA MATRIZ CUADRADA

43

diagonal justo debajo la diagonal principal como un resultado del ordenamiento diferente de los vectores base. En este libro, usamos principalmente el bloque de Jordan de la forma en (2.55). Ciertamente cada cosa discutida para esta forma puede ser modicada y ser aplicada a la forma dada en la Ecuacin (2.56). Una representacin en forma de Jordan de cualquier operador lineal A que mapea (Cn ,C) I I en si mismo es nica para el ordenamiento de los bloques de Jordan. Esto es, el nmero de bloques de Jordan y el orden de cada bloque de Jordan estn determinados nicamente por A. Sin embargo, debido a diferentes ordenamientos de los vectores base, podramos tener diferentes representaciones en forma de Jordan de la misma matriz.

2.6

Funciones de una matriz cuadrada

En esta seccin se estudiarn funciones de una matriz cuadrada o una transformacin lineal que mapea (Cn ,C). Usaremos las formas de Jordan extensivamente, dado que en trminos I I de esta representacin casi todas las propiedades de una matriz pueden ser visualizadas. Estudiaremos primero polinomios de una matriz cuadrada y entonces se denirn funciones de una matriz en trminos de polinomios de la matriz. Sea A una matriz cuadrada que mapea (Cn ,C) en (Cn ,C). Si k es un entero positivo, I I I I denimos: Ak = AA A k trminos (2.57) y

A0 = I

(2.58)

donde I es una matriz identidad. Sea f () un polinomio en de grado nito; entonces puede ser denido en trminos de (2.57). Cada matriz cuadrada A que mapea (Cn ,C) en si misma tiene una representacin en I I la forma de Jordan, o equivalentemente, existe una matriz constante no singular Q tal que A = QAQ1 con A en una forma cannica de Jordan. Dado que:

Ak = (QAQ1 )(QAQ1 ) (QAQ1 ) = (QA Q1 )


tenemos

f (A) = Qf (A)Q1

(2.59)

Una de las razones para usar la forma de Jordan es que si:

A=

A1
0

A2

(2.60)

donde A1 y A2 son matrices cuadradas, entonces

f (A) =

f (A1 ) 0 0 f (A2 )

(2.61)

Denicin 2.14 El polinomio mnimo de una matriz A es el polinomio mnico () de al menos un grado tal que (A) = 0.
2

44

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

Note que el 0 en (A) = 0 es una matriz cuadrada n n cuyas entradas son todas ceros. Una consecuencia directa de (2.59) es que f (A) = 0 si y slo si f (A) = 0. Consecuentemente, tienen el mismo polinomio mnimo, o ms generalmente, matrices similas matrices A y A lares tienen el mismo polinomio mnimo. Calculando el polinomio mnimo de una matriz es generalmente difcil; sin embargo, si la representacin en forma de Jordan de la matriz est disponible, su polinomio mnimo puede ser encontrado rpidamente. Sean 1 , 2 , . . . , m los distintos valores propios de A con multiplicidades n1 , n2 , . . . , nm respectivamente. Es lo mismo de decir las caractersticas del polinomio de A
m

() = det(I A) =
i=1

( i )ni A es

(2.62)

Asumiendo que una representacin en forma de Jordan de A1 0 0 0 A2 0 A= . . . . . . . . . 0 0 Am

(2.63)

donde la matriz Ai de dimensin ni ni denota todos los bloques de Jordan asociados con i .

Denicin 2.15 El orden ms grande de los bloques de Jordan asociados con i en A es llamado el ndice de i en A.

La multiplicidad de i es denotada por ni , el ndice de i es denotado por ni . Para la matriz en (??), n1 = 8,n1 = 4; para la matriz en (??)

Teorema 2.12 El polinomio mnimo de A es


m

() =
i=1

( i )ni

donde ni es el ndice de i en A.

Prueba:
mostrar

Dado que las matrices A y A tienen el mismo polinomio mnimo, es lo mismo

Dado que el polinomio caracterstico es siempre divisible sin residuo por el polinomio mnimo, tenemos el siguiente corolario del Teorema 2.12.

Corolario 2.2 (Teorema de Cayley-Hamilton) Sea () = det(I A) = n + 1 + + n1 + n el polinomio caracterstico de A. Entonces


(A) = An + 1 An1 + + n1 A + n I = 0

2.6. FUNCIONES DE UNA MATRIZ CUADRADA

45

n1 , n2 , . . . , nm . Sean f y g dos polinomios. Entonces las siguientes armaciones son equiva lentes.

Teorema 2.13 Sean 1 , 2 , . . . , m los valores propios distintos de A con ndices

1. f (A) = g(A) 2. Si f = h1 + g o g = h2 + f , donde es el polinomio mnimo de A, y h1 y h2 son polinomios. 3.


f (l) (i ) = g (l) (i ) para l = 0, 1, 2, . . . , ni 1; i = 1, 2, . . . , m
(2.64)

donde f (l) (i ) =

dl f () dl = i

y g (l) (i ) es denido de manera similar.

A n de aplicar este teorema, tenemos que conocer el polinomio caracterstico de A. El polinomio mnimo puede ser obtenido transformando A en una forma de Jordan o calculndolo directamente. Ambos mtodos son complicados. Por lo tanto es deseable modicar el teorema 2.13 para que el uso del polinomio mnimo pueda ser evitado.

Corolario 2.3 Sea el polinomio caracterstico de A


m

() = det(I A) =
i=1

( i )ni

Sean f y g dos polinomios arbitrarios. Si


f (l) (i ) = g (l) (i )

para l = 0, 1, 2, . . . , ni 1 i = 1, 2, . . . , m

(2.65)

entonces f (A) = g(A).


Esto sigue inmediatamente del Teorema 2.13 observando que la condicin (2.65) implica (2.64). El conjunto de nmeros f (l) (i ), para i = 1, 2, . . . , m y l = 0, 1, 2, . . . , ni 1 (hay un total de n = m ni ) son llamados los valores de f sobre el espectro de A. El Corolario i=1 2.3 implica que dos polinomios cualesquiera que tengan los mismos valores sobre el espectro de A denen la misma funcin matriz. Para establecer esto en una forma diferente: Dados n nmeros sobre el espectro de A, entonces este polinomio dene nicamente un funcin matricial de A. Es bien conocido que dados cualesquiera n nmeros, es posible encontrar un polinomio g() de orden n 1 que d esos n nmeros en algn preasignado. Por lo tanto si A es de orden n, para cualquier polinomio f (), podemos construir un polinomio de grado n 1, g() = 0 + 1 + + n1 n1 (2.66) tal que g() = f () sobre el espectro de A. Por lo tanto cualquier polinomio de A puede ser expresado como f (A) = g(A) = 0 + I1 A + + n1 An1

46

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

Esto puede ser directamente deducido del Corolario 2.2. El Corolario 2.3 es til calculando cualquier polinomio y cualquier funcin de A. Si A es de orden n, el polinomio g() puede ser escogido como en (2.66) o como cualquier polinomio de grado n 1 con n parmetros independientes.

Denicin 2.16 Sea f () una funcin (no necesariamente un polinomio) que est denida sobre el espectro de A. Si g() es un polinomio que tiene los mismos valore de f () sobre el espectro de A, entonces la funcin evaluada como funcin f (A) est denida como f (A) = g(A).
2
Esta denicin es una extensin del Corolario 2.3 para incluir funciones. Para ser preciso, las funciones de una matriz deberan estar denidas usando las condiciones en (2.64) . Las condiciones en (2.65) son usadas porque el polinomio caracterstico es ms fcil de obtener que el polinomio mnimo. Si A es una matriz n n, dando los n valores de f () sobre el espectro de A, podemos encontrar un polinomio de grado n 1,

g() = 0 + 1 + + n1 n1
el cual es igual a f () sobre el espectro de A. Por lo tanto de esta denicin conocemos que cada funcin de A puede ser expresada como

f (A) = 0 I + 1 A + + n1 An1
Sumarizando el procedimiento para calcular una funcin de una matriz: Dada una matriz n n A y una funcin f (), primero calculamos el polinomio caracterstico de A,
m

() =
i=1

( i )ni

demos

g() = 0 + 1 + + n1 n1

donde 0 , 1 , . . . , n1 son n incgnitas. Despus usemos las n ecuaciones en (2.65) para calcular esos i 's en trminos de los valores de f sobre el espectro de A. Entonces tenemos f (A) = g(A). N Notemos que otro polinomio g() de orden n 1 con n parmetros independientes pueden ser usados tambin. Una funcin de una matriz est denida por medio de un polinomio de la matriz por consiguiente, las relaciones que son vlidas para polinomios pueden ser aplicadas para funciones de una matriz. Hemos usado un polinomio de grado nito para denir una funcin de una matriz. Usaremos ahora una serie innita para dar una expresin alternativa de una funcin de una matriz.

Denicin 2.17 Sea la representacin en serie de potencias de una funcin f

f () =
i=0

i i

(2.67)

2.6. FUNCIONES DE UNA MATRIZ CUADRADA

47

con el radio de convergencia . Entonces la funcin f de una matriz cuadrada A est denida como

f (A) =
i=0

i A i

(2.68)

si los valores absolutos de los valores propios de A son mas pequeos que , el radio de convergencia; o la matriz A tiene la propiedad Ak = 0 para algn entero positivo k . 2 Esta denicin tiene signicado slo si la serie innita en converge. Si Ak = 0 para algn entero positivo k , entonces se reduce a
k1

f (A) =
i=0

i A i

Si los valores absolutos de todos los valores propios de A son ms pequeos que se pude demostrar que la serie innita converge.

Ejemplo 2.29 La funcin exponencial


et = 1 + t + n tn 2 t2 + + + 2! n!
k=0

converge para todo nito. Por lo tanto para cada A tenemos

eA t =

i k k t A k!

(2.69)

Derivamos algunas propiedades importantes de las funciones exponenciales de matrices. Usando (2.69), se puede demostrar que

= I A(t+s) = eAt eAs e


En (2.70), si escogemos s = t, entonces del hecho que e0 = I, tenemos

e0

(2.70)

eAt

= eAt

(2.71)

Por diferenciacin, trmino por trmino, de (2.69), tenemos


d At dt e

k=1

1 k1 Ak (k1)! t

=A

k=1

1 k k k! t A

= AeAt = eAt A
0

(2.72)

La transformada de Laplace de una funcin f denida sobre [0, ] est denida como

f (s) = L[f (t)] =

f (t)est dt

(2.73)

48 Es sencillo demostrar que

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

tk = s(k+1) k!

Tomando la transformada de Laplace de (2.69), tenemos

L(eAt ) =

s
k=0

(k+1)

A =s
k

1 k=0

(s1 A)k

(2.74)

Es bien conocido que la serie innita

f () = (1 )

= 1 + + + =
k=0

converge para | < 1. Ahora si s es escogida sucientemente grande, los valores absolutos de todos los valores propios de s1 son mas pequeos que 1. Por lo tanto de la Denicin 2.17, tenemos

(I s
Por consiguiente de (2.74) tenemos

A)

=
k=0

(s1 A)k

(2.75)

L(eAt ) = s1 (I s1 A)1 = (sI A)1

(2.76)

En esta derivacin, (2.76) es vlida slo para s sucientemente grande. Sin embargo, puede demostrarse por continuacin analtica que (2.76) es vlida para toda s excepto en los valores propios de A. La ecuacin (2.76) puede tambin ser establecida de (2.72). Dado que L[dh(t)/dt] = sL[h(t)] h(0), la aplicacin de la transformada de Laplace de (2.72) lleva a

sL(eAt ) e0 = AL(eAt ) (sI A)L(eAt ) = I


lo cual lleva inmediatamente a (2.76).

2.7

Normas y producto interno

Todos los conceptos introducidos en esta seccin son aplicables a cualquier espacio lineal sobre el campo de los nmeros complejos o sobre el campo de los nmeros reales. Sin embargo, por conveniencia en la discusin, nos restringimos al espacio de los nmeros complejos (Cn ,C). I I El concepto de norma de un vector x en (Cn ,C) es una generalizacin de la idea de longitud. I I Cualquier funcin de valor real de x, denotada por ||x||, puede ser denida como una norma si tiene las propiedades que para cualquier x en (Cn ,C) y cualquier en C I I I 1. ||x|| 0 y ||x|| = 0 si y slo si x = 0 2. ||x|| = || ||x|| 3. ||x1 + x2 || ||x1 || + ||x2 ||

2.7. NORMAS Y PRODUCTO INTERNO

49

La ltima desigualdad es llamada la desigualdad triangular Sea x = [x1 x2 xn ]. Entonces la norma de x puede ser escogida como
n

||x||1 =
i=1

|xi |
n
1 2

(2.77)
2

||x||2 =
i=1

|xi |

(2.78) (2.79)

||x|| = max |xi |


i

Es fcil vericar que cada una de ellas satisface todas las propiedades de una norma. La norma || || es llamada la norma euclidiana. En estas notas, el concepto de norma es usado principalmente en el estudio de estabilidad; usamos el hecho que ||x|| es nito si y slo si todos los componentes de x son nitos. El concepto de norma puede ser extendido a operadores lineales que mapean (Cn ,C) sobre I I si mismo, o de manera equivalente, a matrices cuadradas con coecientes complejos. La norma de una matriz A est denida como

||A|| = sup

||Ax|| = sup ||Ax|| x=0 ||x|| ||x||=1

donde sup est por supremum, el nmero ms grande posible de ||Ax|| o el mnimo lmite superior de ||Ax||. Una consecuencia inmediata de la denicin de ||A|| es, para cualquier x en (Cn ,C), I I ||Ax|| ||A|| ||x|| (2.80) La norma de A est denida por medio de la norma de x; por lo tanto es llamada una norma inducida. Para diferente ||x||, tenemos diferente ||A||. Por ejemplo, si ||x||1 es usada, entonces
n

||A||1 = max
j i=1

|aij |

donde aij es el ij th elemento de A. Si ||x||2 es usado, entonces

||A||2 = (max (A A)) 2

donde A es el complejo conjugado transpuesto de A y max (A A) denota el mayor valor propio de A A. Si ||x|| es usado, entonces

||A|| = max
i

n j=1

|aij |

Estas normas son todas diferentes, como pude ser visto en la Fig. ??

50

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

La norma de una matriz tiene las siguientes propiedades

||A + B|| ||A|| + ||B|| ||AB|| ||A||||B||


Estas desigualdades pueden ser rpidamente vericadas observando

(2.81) (2.82)

|| x, y (A + B)x|| = ||Ax + Bx|| ||Ax|| + ||Bx|| (||A|| + ||B||)||x|| ||ABx|| ||A|| ||Bx|| ||A|| ||B|| ||x||
para toda x La norma es una funcin de un vector. Ahora introduciremos una funcin de dos vectores, llamada el producto escalar o producto interno El producto interno de dos vectores x e y en (Cn ,C). es un nmero complejo, denotado por x, y , teniendo las propiedades que para I I cualquier x,y en (Cn ,C) y para cualquier 1 , 2 en C, I I I

x, y = x, y 1 x1 + 2 x2 , y = 1 x1 , y + 2 x2 , y x, x > 0 para toda x = 0


donde la barra denota el complejo conjugado de un nmero. La primera propiedad implica que x, x es un nmero real. Las primeras dos propiedades implican que x, y = x, y . En el espacio vectorial complejo (Cn ,C), el producto interno es siempre tomado como I I
n

x, y = x y =
i=1

xi yi

(2.83)

donde x es el complejo conjugado transpuesto de x. Por lo tanto, para cualquier matriz cuadrada A, tenemos x, Ay = x Ay

A x, y
Consecuentemente tenemos

= (A x) y = x Ay
(2.84)

x, Ay = A x, y

El producto interno proporciona una norma natural para el vector x : ||x|| = ( x, x )1/2 . De hecho , esta es la norma denida en (2.78).

Teorema 2.14 (Desigualdad de Schwartz) Si denimos ||x|| = ( x, x )1/2 entonces


| x, y | ||x|| ||y||

2.8. COMENTARIOS FINALES

51

Prueba:

La desigualdad es obviamente verdadera si y = 0. Asuma ahora y = 0 Claramente tenemos

0 x + y, x + y = x, x + y, x + x, y + y, y
para cualquier . Sea = y, x / y, y ; entonces lleva a

x, x

x, y y, x | x, y |2 = y, y y, y

lo cual nos da la desigualdad de Schwartz.

2.8

Comentarios nales

En este captulo se han revisado un nmero de conceptos y resultados en el lgebra los cuales sern tiles en este libro. Los tres tpico mas importantes que fueron cubiertos:

1. Transformaciones de similitud La idea bsica de la transformacin de similitud (cam-

bio de vectores base) y el signicado de llevar a cabo la transformacin son resumidas en Las transformaciones de similitud pueden realizarse (a) Al calcular A = PAP1 = 1 AQ, o (b) ms fcilmente, usando los conceptos de representacin de Aq con reQ i specto a la base {q1 , q2 , . . . , qn }. El segundo mtodo ser utilizado constantemente en el resto de este libro. con multiplicidad m, existen m valores propios generalizados linealmente independientes. Usando esos vectores como una base, la nueva representacin de A es una forma cannica de Jordan. Un procedimiento sistemtico par buscar esos valores propios generalizados puede ser encontrado en . Si todos los valores propios son distintos, entonces una forma de Jordan se reduce a una forma diagonal. La representacin en forma de Jordan es usualmente desarrollada introduciendo subespacios invariantes y su suma directa.

2. Representacin en forma de Jordan de una matriz Para cada valor propio de A

3. Funciones de una matriz cuadrada Tres mtodos para calcular una funcin de una
matriz f (A), donde A es una matriz constante n n, fueron introducidas. (a) Uso de la Denicin :Primero calcular los valores propios de A y encontrar un polinomio g() de grado n 1 que es igual a f () sobre el espectro de A, entonces f (A) = g(A). (b) 1 Utilizar la forma cannica de Jordan de A: Sea QAQ . Entonces f (A) = Qf (A)Q1 , donde A es calculada en y . (c) Usar la denicin.

52

CAPTULO 2. ESPACIOS LINEALES Y OPERADORES LINEALES

Captulo 3

Descripcin matemtica de sistemas


3.1 Introduccin

El primer paso en el estudio analtico de un sistema es establecer las ecuaciones matemticas que lo describen. Debido a que diferentes mtodos analticos son utilizados, o debido a las preguntas diferentes requeridas, frecuentemente podemos establecer diferentes ecuaciones matemticas para describir el mismo sistema. Por ejemplo, en anlisis de redes, si estamos interesados slo en las propiedades terminales, podramos usar la funcin de impedancia o la funcin de transferencia para describir la red; si deseamos conocer la corriente y el voltaje de cada rama de la red, entonces el anlisis de lazo o el anlisis de nodos tiene que ser usado para encontrar el conjunto de ecuaciones diferenciales para describir la red. La funcin de transferencia que describe slo la propiedad terminal de un sistema puede ser llamada la descripcin externa o entrada-salida del sistema. El conjunto de ecuaciones diferenciales que describe tanto el comportamiento interno como el comportamiento de las terminales de un sistema puede ser llamado la descripcin interna o en variable de estados del sistema. En este captulo introduciremos la descripcin entrada-salida y la descripcin en variables de estado de sistemas de una manera muy general. Sern desarrollados de los conceptos de linealidad, reposo, invarianza en el tiempo y causalidad. Por consiguiente sern aplicables a cualquier sistema, sea un sistema elctrico, mecnico, o qumico, a condicin que el sistema tenga las propiedades ya mencionadas. La clase de sistemas estudiados en este libro es supuesto que tienen algunas terminales de entrada y terminales de salida. Las entradas, o las causas, o la excitacin u son aplicadas en las terminales de entrada; las salidas, o los efectos, o las respuestas y son medibles en las terminales de salida. En la Seccin 3.2 mostramos que si la entrada u y la salida y de un sistema satisfacen la propiedad de linealidad, entonces pueden ser relacionadas por una ecuacin de la forma

y(t) =

G(t, )u( )d
53

(3.1a)

54

CAPTULO 3. DESCRIPCIN MATEMTICA DE SISTEMAS

si la entrada y la salida tienen, adems, la propiedad de causalidad , entonces (3.1a) puede ser reducida a
t

y=

G(t, )u( )d

(3.1b)

la cual puede ser adicionalmente reducida a


t

y=
t0

G(t, )u( )d

(3.1c)

si el sistema est en reposo en t0 . La Ecuacin (3.1) describe la relacin entre la entrada y la salida de un sistema y es llamada la descripcin entrada-salida o la descripcin interna del sistema. Tambin introducimos en la Seccin 3.2 los conceptos de invarianza en el tiempo y la funcin de transferencia. En la Seccin el concepto de estado es introducido. El conjunto de ecuaciones

x(t) = A(t)x(t) + B(t)u(t)uno y(t) = C(t)x(t) + E(t)u(t)dos

(3.2a) (3.2b)

que relaciona la entrada u, la salida y y el estado x es entonces introducido. El conjunto de dos ecuaciones de la forma (3.2) es llamado una ecuacin dinmica. Si es usado para describir un sistema, es llamado la descripcin de ecuacin dinmica o la descripcin en variables de estado del sistema. En la Seccin damos muchos ejemplos para ilustrar el procedimiento de establecer esas dos descripciones matemticas. Comparaciones entre la descripcin entradasalida y la descripcin en ecuacin dinmica son dadas en la Seccin . Estudiamos en la Seccin la descripcin matemtica de conexiones en paralelo, serie y de retroalimentacin de dos sistemas. Finalmente, las versiones discretas de (3.1) y (3.2) son introducidas en la ltima seccin. Estamos interesados con descripciones de sistemas que son modelos de sistemas fsicos reales; por lo tanto todas las variables y funciones en este captulo se asume estn valuadas en valores reales. Antes de proceder, clasicamos un sistema como un sistema monovariable o un sistema multivariable de acuerdo a la siguiente denicin.

Denicin 3.1 Un sistema se dice que es un sistema monovariable si y slo si tiene slo una terminal de entrada. Un sistema se dice ser un sistema multivariable si y slo si tiene ms de una teminal de entrada o ms de una terminal de salida. 2
Las referencias a este captulo son . El objetivo principal de es introducir los conceptos de linealidad, causalidad, invarianza en el tiempo y el estado, y para ilustrar su importancia en desarrollar ecuaciones lineales. Ellos no son introducidos muy rigurosamente. Para una exposicin rigurosa, ver referencias.

3.2. LA DESCRIPCIN ENTRADA-SALIDA

55

3.2

La descripcin entrada-salida

La descripcin entrada-salida de un sistema da una relacin matemtica entre la entrada y la salida del sistema. Desarrollando esta descripcin, el conocimiento de la estructura interna de un sistema podra asumirse nos es indisponible; el nico acceso al sistema es por medio de las terminales de entrada y las terminales de salida. Bajo esta suposicin, un sistema puede ser considerado como una caja negra, como est mostrado en la Figura ??. Claramente lo que podemos hacer a una caja negra es aplicar todo tipo de entradas y medir sus salidas correspondientes, y entonces intentar abstraer las propiedades fundamentales del sistema de esos pares entrada-salida. Hgamos un parntesis en este punto para introducir un poco de notacin. El sistema mostrado en la Figura ?? se supone que tiene p terminales de entrada y q terminales de salida. Las entradas estn denotadas por u1 , u2 , . . . , up o por un vector columna p 1 u = [u1 u2 up ] . Las salidas o respuestas estn denotads por y1 , y2 , . . . , yq o por un vector columna q 1 y = [y1 y2 yq ] . El intervalo de tiempo en el cual las salidas y las entradas estarn denidas es de a +. Usamos la u o u() para denotar una funcin vectorial denida sobre (, ); u(t) es utilizada para denotar el valor de u en el tiempo t. Si la funcin u est denida slo sobre [t0 , t1 ), escribimos u[t0 ,t1 ) . Si la salida de en el tiempo t1 de un sistema depende slo en la entrada aplicada en el tiempo t1 , el sistema es llamado un sistema instntaneo o de memoria cero. Una red que consiste slo de resistencias es un tal sistema. La mayora de los sistemas de inters, sin embargo, tienen memoria; esto es, las salida en el tiempo t1 depende no slo en la entrada aplicada en t1 , sino tambin en la entrada aplicada antes y/o despus de t1 . Por consecuente, si una entrada u[t1 ,) es aplicada al sistema, a menos que conozcamos la entrada aplicada antes de t1 , la salida y[t1 ,) es generalmente no nicamente determinada. De hecho, para entradas diferentes aplicadas antes de t1 , obtendremos una salida diferentes y[t1 ,) aunque la misma entrada u[t1 ,) sea aplicada. Es claro que un tal par entrada-salida, el cual carece de una relacin nica, no es til para determinar las propiedades fundamentales del sistema. Por lo tanto, al desarrollar la descripcin entrada-salida, antes que una entrada sea aplicada, el sistema debe asumirse relajado o en reposo, y que la salida es excitada exclusiva y nicamente por la entrada aplicada despus. Si el concepto de energa es aplicable a un sistema, el sistema dice estar relajado en el tiempo t1 si no hay energa almacenada en el sistema en ese instante. Como en la literatura de ingeniera, asumiremos que cada sistema est relajado en el tiempo . Consecuentemente si una entrada u(,) es aplicada en t = , la salida correspondiente ser excitada exclusiva y nicamente por u. Por consiguiente, bajo la suposicin de reposo, es legtimo escribir

y = Hu

(3.3)

donde H es algn operador o funcin que especica nicamente la salida y en trminos de la entrada u del sistema. En este libro, llamaremos a un sistema que est inicialmente relajado en un sistema inicialmente relajado -o un sistema relajado, para abreviar. Note que la Ecuacin(3.3) es aplicable solamente a sistemas relajados. En esta seccin, cada vez que hablemos sobre los pares entrada-salida de un sistema, signica que esos pares entrada-salida pueden ser relacionados por la Ecuacin (3.3).

56

CAPTULO 3. DESCRIPCIN MATEMTICA DE SISTEMAS

Introducimos a continuacin el concepto de linealidad. Este concepto es exactamente el mismo que para los operadores lineales introducidos en el captulo precedente.

Denicin 3.2 Un sistema en reposo se dice ser lineal si y slo si


H(1 u1 + 2 u2 ) = 1 Hu1 + 2 u2
(3.4)

para cualesquiera entradas u1 y u2 y para cualesquiera nmeros reales 1 y 2 . De otra manera el sistema en reposo es dicho ser no lineal. 2 En la literatura de ingeniera, la condicin de la Ecuacin (3.4) es frecuentemente escrita como

H(u1 + u2 ) = Hu1 + Hu2 H(u1 ) = Hu1

(3.5) (3.6)

para cualesquier u1 , u2 y para cualquier nmero real . Es fcil vericar que la condicin dada en (3.4) y el conjunto de condiciones en (3.5) y (3.6) son equivalentes. La relacin en (3.5) es llamada la propiedad aditiva y la relacin en (3.6) es llamada la propiedad de homogeneidad. Si un sistema en reposo tiene estas dos propiedades, el sistema se dice que satisface el principio de superposicin. El lector podra preguntarse si o no hay recundancia en (3.5) y (3.6). Generalmente, la propiedad de homogeneidad no implica la propiedad aditiva, como puede verse del siguiente ejemplo.

Ejemplo 3.1 Considere un sistema monovariable cuyas entradas y salidas estn relacionadas
por

y(t) =

u2 (t) u(t1)

si u(t 1) = 0 si u(t 1) = 0

para toda t. Es fcil vericar que el par entrada-salida satisface la propiedad de homogeneidad pero no la propiedad aditiva.

La propiedad aditiva, sin embargo, casi implica la propiedad de homogeneidad. Para ser precisos, la condicin H(u1 + u2 ) = Hu1 + Hu2 para cualesquier u1 y u2 implica que H(u1 ) = Hu1 , para cualquier nmero racional . Puesto que cada nmero rela puede ser aproximado tan cercanamente como se desee por un nmero racional, si un sistema en reposo tiene la propiedad de continuidad que ua u implica que Hun Hu, entonces la propiedad aditiva implica la propiedad de homogeneidad. Desarrollaremos a continuacin una descripcin matemtica para un sistema lineal en reposo. Antes de proceder necesitamos el concepto de la funcin delta o impulso. Procedemos intuitivamente dado que una una exposicin detallada podra desviarnos demsiado. Primero

3.2. LA DESCRIPCIN ENTRADA-SALIDA

57

sea (t t1 ) la funcin pulso denida en la Figura ; esto es, para t < t1 0 1 para t1 t < t1 + = 0 para t t1 + Note que (t t1 ) tiene un rea unitaria para toda . Cuando se aproxima a cero, la funcin lmite

(t t1 ) = lim (t t1 )
0

es llamada la funcin impulso o funcin delta de Dirac o simplemente funcin . As la funcin delta (t t1 ) tiene la propiedad que
t1 +

(t t1 )dt =

t1 +

(t t1 )dt = 1

para cualquier positivo y que


f (t)(t t1 )dt = f (t1 )

(3.7)

para cualquier funcin f que es continua en t1 . Con el concepto de la funcin impulso, estamos listos para desarrollar una descripcin matemtica para los sistemas lineales en reposo. Discutimos primero los sistemas monovariables; el resultado puede entonces ser fcilmente extendidos para los sistemas multivariables. Consideremos un sistema en reposo monovariable cuyas entradas y salidas estn relacionadas por y = Hu Como est mostrado en la Figura, cada entrada continua por trozos puede ser aproximada por una serie de funciones pulso. Dado que cada funcin pulso puede ser descrita por U (ti ) (t t1 ), podemos escribir la funcin de entrada como

u=
i

u(ti ) (t ti )

Si el par entrada-salida del sistema en reposo satisface la propiedad de linealidad, entonces tenemos y = Hu = (H (t ti ))u(ti ) (3.8)
i

Ahora cuando tiende a cero, la aproximacin tiende a una igualdad, la sumatoria se convierte en una integral y la funcin pulso (tti ) tiende hacia la funcin . Consecuentemente, cuando 0, la Ecuacin (3.8) se convierte en

y=

(H((t ))u( )d

(3.9)

58

CAPTULO 3. DESCRIPCIN MATEMTICA DE SISTEMAS

Ahora si H(t ) es conocido para toda , entonces para cualquier entrada, la salida puede ser calculada de (3.9). El signicado fsico de H(t ) es que es la salida del sistema en reposo debido a una entrada impulsiva aplicada en el tiempo . Denimos

H(t ) = g(, )

(3.10)

Note que g es una funcin de dos variables -la segunda variable denota el tiempo en el cual la funcin es aplicada y la primera variable denota el tiempo en el cual la salida es observada. Dado que g(, ) es la respuesta de una funcin impulso, es llamada la funcin impulso del sistema. Usando (3.10), podemos escribir la salida en el tiempo t como

y(t) =

g(t, )u( )d

(3.11)

Por lo tanto si g(, ) para toda es conocida entonces para cualquier entrada u, la salida puede ser calculada de (3.11). En otras palabras, un sistema lineal en reposo es completamente descrito por la integral de superposicin (3.11), donde g(, ) es la respuesta impulso del sistema, y tericamente puede ser obtenida por medicin directa de las terminales de entrada y de salida del sistema. Si un sistema tiene p terminales de entrada y q terminales de salida, y si el sistema est inicialmente en reposo en , la descripcin entrada-salida (3.11) puede ser extendida a

y(t) =

G(t, )u( )d

(3.12)

donde

G(t, ) =

g11 (t, ) g12 (t, ) g21 (t, ) g22 (t, ) . . . . . . gq1 (t, ) gq2 (t, )

g1p (t, ) g2p (t, ) . . . gqp (t, )

y gij (t, t) es la respuesta al tiempo t en la isima terminal de salida debido a una funcin impulso aplicada en el tiempo en la j sima terminal de entrada, las entradas en otras terminales son idnticas a cero. Equivalentemente, gij se la respuesta impulso entre la j sima terminal de entrada y la isima terminal de salida. Por consecuente G es llamada la matriz de respuesta al impulso del sistema. Aunque la entrada y la salida del sistema lineal en reposo puedan estar relacionadas por una ecuacin de la forma en la Ecuacin (3.12), la ecuacin no es fcilmente aplicable porque la integracin requerida es de a y porque no existe una manera para vericar si el sistema est o no inicialmente en reposo en . Estas dicultades sern eliminadas en el desarrollo subsiguiente.

3.2.1

Causalidad

Un sistema se dice que es causal o no anticipatorio si la salida del sistema en el tiempo t no depende en la entrada aplicada despus del tiempo t; depende slo en la entrada aplicada

3.2. LA DESCRIPCIN ENTRADA-SALIDA

59

antes y en el tiempo t. En breve, el pasado no afecta el futuro, pero no inversamente. Por lo tanto, si un sistema en reposo es causal, su relacin entrada salida puede ser escrita como

y(t) = Hu(,t]

(3.13)

para todo t en (, ). Si un sistema es no causal, se dice que es no causal o anticipatorio. La salida de un sistema no causal depende no slo de la entrada pasada sino tambin del valor futuro de la entrada. Esto implica que un sistema no causal es capaz de predecir la salida que ser aplicada en el futuro. Para un sistema fsicio real, esto es imposible. Por consiguiente la causalidad es una propiedad intrnseca de cada sistema fsico. Dado que en este libro los sistemas son modelos de sistemas fsicos, todos los sistemas que estudiamos son supuestos causales. Si un sistema relajado es lineal y causal, Qu podemos decir sobre la matriz de respuesta al impulso, G(t, ), del sistema? Cada elemento de G(t, ) es, por denicin, la salida debido a una entrada funcin aplicada en el tiempo . Ahora si un sistema relajado es causal, la salida es idnticamente cero antes que cualquier entrada sea aplicada. Por lo tanto un sistema es causal si y slo si G(t, ) = 0 para toda y toda t < (3.14) Consecuentemente, la descripcin entrada-salida de un sistema lineal, causal, relajado se convierte en
t

y(t) =

G(t, )u( )d

(3.15)

Recordemos que la ecuacin y = Hu de un sistema es vlida slo cuando el sistema est relajado en , o equivalentemente, slo cuando la salida y es excitada exclusiva y nicamente por u(,) . Podemos aplicar este concepto a un t0 arbitrario.

Denicin 3.3 Un sistema se dice estar relajado en t0 si y slo si la salida y[t0 ,) es exclusiva
y nicamente excitada por u[t0 ,)

Este concepto puede ser fcilmente entendido si consideramos una red RLC. Si todos los voltajes a travs de los capacitores y tods las corrientes a travs las inductancias son cero en el tiempo to , entonces la red est relajada en t0 . Si una red no est relajada en t0 y si una entrada u[t0 ,) , entonces parte de la respuesta ser excitada por las condiciones iniciales; y para diferentes condiciones iniciales, respuestas diferentes sern excitadas por la misma entrada u[t0 ,) . Si un sistema es conocido que est relajado en t0 entonces su relacin entrada salida puede ser escrita como:

y[t0 ,) = Hu[t0 ,)

(3.16)

Es claro que si un sistema est en reposo en , y si u(,t0 ) 0, entonces el sistema est an relajado en t0 . Para la clase de sistemas cuyas entradas y salidas estn linealmente relacionadas, es fcil probar que la condicin necesaria y suciente para que un sistema est en reposo en t0 es que y(t) = Hu(,t0 ) = 0 para todo t t0 . En palabras, si el efecto neto de u(,t0 ) sobre la salida despus de t0 es idntico a cero, el sistema est relajado en t0 .

60

CAPTULO 3. DESCRIPCIN MATEMTICA DE SISTEMAS

es igual a la entrada retrasada una unidad de tiempo; esto es, y(t) = u(t 1) para toda t. El sistema esta relajado en t0 si y slo si u(t0 1,t0 ) 0, aunque u,t0 1) = 0.

Ejemplo 3.2 Un sistema de retraso de una unidad de tiempo es un dispositivo cuya salida

Ahora si un sistema cuyas entradas y salidas estn linealmente relacionadas entre se sabe que est relajado en t0 , entonces la descripcin entrada-salida se reduce a

y(t) =
t0

G(t, )u( )d

Por consiguiente, si un sistema es descrito por


t

y(t) =
t0

G(t, )u( )d

(3.17)

conocemos que el par entrada-salida del sistema satisfacen la propiedad de linealidad y que el sistema es causal y est en reposo en t0 . Una pregunta legtima podra surgir en este punto: Dado un sistema en el tiempo t0 , Cmo conocemos que el sistema est en reposo? Para un sistema cuyas entradas estn linealmente relacionadas, esto puede ser determinado sin conocer la historia previa del sistema, al usar el teorema siguiente.

Teorema 3.1 Un sistema que es describible por

y(t) =

G(t, )u( )d

est en reposo en t0 si y slo si u[t0 ,] 0 implica y[t0 ,] 0

Prueba:

est dada por

Necesidad: Si un sistema est en reposo en t0 , la salida y(t) para toda t t0

G(t, )u( )d
t0

Por lo tanto, si u[t0 ,] 0, entonces y[t0 ,] 0. Suciencia: Mostramos que si u[t0 ,] 0 implica y[t0 ,] 0, entonces el sistema est en reposo en t0 . Dado que
t0

y(t) =

G(t, )u( )d =

G(t, )u( )d +
t0

G(t, )u( )d

la suposiciones u[t0 ,] 0, y[t0 ,] 0 implican que


t0

G(t, )u( )d = 0 para todo t t0

En palabras, el efecto neto de u[,t0 ] sobre la salida y(t) para t t0 es cero, y por lo tanto el sistema est en reposo en t0 .

3.2. LA DESCRIPCIN ENTRADA-SALIDA

61

Una implicacin del teorema es que dado un sistema en el tiempo t0 , si el sistema se sabe que es describible por

G(t, )u( )d

el reposo del sistema puede ser determinado del comportamiento del sistema despus de t0 sin conocer la historia previa del sistema. Ciertamente es imprctico o imposible observar la salida del tiempo t0 a innito: afortunadamente, para una gran clase de sistemas, no es necesario hacerlo.

Corolario 3.1 Si una matriz respuesta al impulso G(t, ) de un sistema puede ser descompuesta en G(t, ) = M(t)N( ), y si cada elemento de M es analtico sobre (, ), entonces el sistema est en reposo en t0 si y slo si para algn jo positivo, u[t0 ,t0 +] 0 implica y[t0 ,t0 +] 0.

Prueba:

Si u[t0 ,] 0, la salida y(t) del sistema est dada por


t0 t0

y(t) =

G(t, )u( )d = M(t)

N( )u( )d

Dado que

t0

N( )u( )d

es un vector constante, la suposicin de analiticidad de M implica que y(t) es analtica sobre [t0 , ). Consecuentemente, si y[t0 ,t0 +] 0 y u[t0 ,t0 +] 0, entonces y[t0 ,] 0, y el corolario viene del Teorema 3.1. Este es un resultado importante. Para cualquier sistema que satisface las condiciones del Corolario 3.1, su relajacin puede ser fcilmente determinada observando la salida sober cualquier intervalo no cero, digamos 10 segundos. Si la salida es cero en este intervalo, entonces el sitema est en reposo en ese momento. Ser visto en el prximo captulo que la clase de sistemas que son describibles por matrices funcin de transferencia racionales o ecuaciones diferenciales ordinarias invariantes en el tiempo lineales satisfacen las condiciones del Corolario 3.1. Por consiguiente el Corolario 3.1 es ampliamente aplicable. Damos un ejemplo para ilustrar que el Teorema 3.1 no se mantiene para los sistemas cuyas entradas y salidas no estn linealmente relacionadas.

Ejemplo 3.3 Consideremos el sistema mostrado en la Figura; la entrada es una fuente de voltaje, y la salida es el voltaje a travs del condensador no lineal. Si la carga elctrica almacenada en el condensador al tiempo t0 es tanto cero en q1 o q2 , la salida ser idnticamente cero si ningn voltaje es palicado a la entrada. Sin embargo, el sistema no es necesariamente en reposo en t0 , porque si una entrada es aplicada, podemos obtener diferenetes salidas dependiendo la carga inicail que tiene el condensador .

62

CAPTULO 3. DESCRIPCIN MATEMTICA DE SISTEMAS

3.2.2

Invarianza en el tiempo

Si las caractersticas de un sistema no cambian con el tiempo, entonces el sistema se dice ser invariante en el tiempo, jo o estacionario. A n de denir ms precisamente, necesitamos el concepto de un operador de corrimiento Q . El efecto de el operador de corrimiento Q es ilustrado en la Figura . La salida de Q es igual a la entrada retardada segundos. Matemticamente es denido como u = Q u si y slo si u(t) = u(t ) o u(t + ) = u(t) para toda t.

jo si y slo si

Denicin 3.4 Un sistema en repos se dice que es invariante en el tiempo (o estacionario o


HQ u = Q Hu
(3.18)

para cualquier entrada u y para cualquier nmero real . De otra manera el sistema en reposo se dice que es variante en el tiempo. 2 La relacin HQ u = Q Hu tambin puede ser escrita como HQ u = Q y, lo cual implica que si una entrada es recorrida por segundos, la forma de onda de la salida sigue siendo la misma excepto por un corrimiento de segundos. En otras palabras, no importa el tiempo en el que una entrada es aplicada a un sistema en reposo invariante en el tiempo, la forma de onda de la salida es siempre la misma. Si un sistema en reposo lineal se sabe que es invariante en el tiempo, Qu condicin que es impuesta sobre su respuesta al impulso? La respuesta al impulso f g(, ) es la salida debida a una entrada funcin aplicada en el tiempo ; esto es, g(, ) = H(t ). Si el sistema es invariante en el tiempo, entonces tenemos

Q g(, ) = Q H(t ) = HQ (t ) = H(t ( + )) = g(, + )


Ahora por la denicin de Q , la ecuacin Q g(. ) = g(, + ) implica g(t, ) = g(t + , + ), lo cual se mantiene para cualquier t, y . Escogiendo = , tenemos g(t, ) = g(t , 0) para toda t, . Por consiguiente la respuesta impulso g(t, ) de un sistema en reposo, lineal, invariante en el tiempo depende slo de la diferencia entre t y . Extendiendo esto para el caso multivariable, obtenemos

G(t, ) = G(t , 0) = G(t )


para toda t y . Por lo tanto, si un sistema es descrito por
t

y(t) =
t0

G(t )u( )d

(3.19)

sabemos que sus pares entrada-salida satisfacen las propiedades de invarianza en el tiempo, causalidad y linealidad; ms an, el sistema est en reposo en el tiempo t0 . En el caso invariante en el tiempo, el tiempo inicial t0 es siempre escogido, sin prdida de generalidad,

3.2. LA DESCRIPCIN ENTRADA-SALIDA

63

que sea 0 y el intervalo de inters es [0, ). Note que t0 = 0 es el instante donde comenzamos a considerar el sitema o aplicar la entrada u. Si t0 = 0, la Ecuacin (3.19) se convierte en
t t

y(t) =
0

G(t )u( )d =
0

G( )u(t )d

(3.20)

La segunda igualdad de (3.20) puede ser fcilmente vericada al cambiar las variables. La integracin de (3.20) es llamada la integral de convolucin. Dado que G(t ) = G(t, ) representa las respuestas en el tiempo t debidas a unas entradas funcin aplicadas en , G(t) representa las respuestas en el tiempo t debidas a entradas funcin aplicadas en = 0. Siguiendo (3.14), un sistema invariante en el tiempo lineal es causal si y slo si G(t) = 0 para toda t < 0.

3.2.3

Matriz funcin de transferencia

En el estudio de la clase de sistemas que son describibles por integrales de convolucin, es de gran ventaja usar la transformada de Laplace, porque cambiar una integral de convolucin en el dominio del tiempo en una ecuacin algebraica en el dominio de la frecuencia. Sea y(s) la transformada de Laplace de y; esto es,

y(s) = L(y) =
0

y(t)est dt

Debido a que G(t ) = 0 para > t, el lmite superior de la integracin en (3.20) puede ser puesto en ; por lo tanto, de (3.20), tenemos

y(s) =
0 0 0

G(t )u( )d

est dt

=
0

G(t )es(t ) dt u( )es d


(3.21)
0

=
0

G(v)esv dv

u( )es d

u = G(s) (s)
Aqu hemos cambiado el orden de la integracin, cambiado las variables y utilizado el hecho que G(t) = 0 para t < 0. Como est denido en (3.21), G(s) es la transformada de Laplace de la matriz respuesta al impulso; esto es,

G(s) =
0

G(t)est dt

y es llamda la matriz funcin de transferencia del sistema. Para los sistemas monovariables, G(s) se reduce a un escalar y es llamada la funcin de transferencia. Por lo tanto la funcin de transferencia es la transformada de Laplace de la respuesta al impulso; puede tambin ser denida, siguiendo (3.21), como

g (s) =

L[y(t)] y (s) = L[u(t)] u(s)

(3.22)

64

CAPTULO 3. DESCRIPCIN MATEMTICA DE SISTEMAS

donde el circunejo sobre la variable denota la transformada de Laplace de la misma variable; por ejemplo

x = L[x] =
0

x(t)est dt

Vemos que las funciones de transferencia familiares son las descripciones entrada-salida de los sistemas. Es importante notar que esta descripcin entrada salida es obtenida bajo la suposicin de reposo de un sistema; por lo tanto, si el sistema no est en reposo en t = 0, la funcin de transferencia no puede ser directamente aplicada. As cada vez que una funcin de transferencia sea utilizada, el sistem se supone siempre impcitamente que est en reposo en t=0. Una funcin de transferencia no es necesariamente una funcin racional de s. Por ejemplo, la respuesta al impulso g(t) del sistema de una unidad de retardo introducido en el Ejemplo es (t 1) y su funcin de transferencia es es , la cual no es una funcin racional de s. Sin embargo, las funciones de transferencia que estudiaremos en este libro son exclusivamente funciones racionales de s. De hecho, estudiamos slo una clase especial de funciones racionales.

Denicin 3.5 Una funcin racional g (s) se dice que es propia si g () es una constante

nita (cero o no cero). g (s) se dice que es estrictamente propia si g () = 0. Una matriz racional G(s) se dice que es propia si G() es una matriz constante nita (cero o no cero). G(s) se dice que es estrictamente propia si G() = 0. 2

Por ejemplo, g (s) = s2 /(s 1) no es propia; g (s) = s2 /(s2 s + 2) es propia y g (s) = 2 /(s3 s) es estrictamente propia. Es claro que si g (s) = N (s)/D(s), g (s) es propia si y s slo si deg N (s) deg D(s); g (s) es estrictamente propia si y slo si deg N (s) < deg D(s), donde deg signica el grado del polinomio. Una matriz racional es propia si y slo si todos sus elementos son propias. Una matriz racional es estrictamente propia si y slo si todos sus elementos son estrictamente propios. Si una funcin de transferencia no es propia, los ruidos de alta frecuencia sern muy amplicados y abrumarn la seales de informacin. Por lo tanto las funciones racionales impropias son difcilmente utilizadas en la prctica. En este libro, estudiamos solamente funciones racionales propias y matrices racionales propias.

3.3
3.3.1

Descripcin en variables de estado


El concepto de estado

La descripcin entrada-salida de un sistema es aplicable slo cuando el sistema est inicialmente en reposo. Si un sistema no est inicialmente en reposo,digamos en el tiempo t0 , la ecuacin y[t0 ,] = Hu[t0 ,) no se verica. en este caso la salida y[t0 ,] depende no slo de la entrada u[t0 ,] sino tambin de las condiciones iniciales en t0 . Por consiguiente, a n de determinar la salida y[t0 ,] de manera nica, adems de la entrada u[t0 ,] necesitamos un conjunto de condiciones iniciales en t0 . Este conjunto de condiciones iniciales es llamado el estado. Por lo tanto el estado en t0 es la informacin que, junto con la entrada u[t0 ,] , determina nicamente la salida y[t0 ,] . Por ejemplo, en mecnica Newtoniana, si una fuerza externa

3.3. DESCRIPCIN EN VARIABLES DE ESTADO

65

(entrada) es aplicada a una partcula (sistema) en el tiempo t0 , el movimiento (salida) de la partcula para t t0 no es nicamente determinable a menos que la posicin y la velocidad en el tiempo t0 sean conocidas. Como la partcula alcanz la posicin y la velocidad en t0 es intrascendente al determinar el movimiento de la partcula despus de t0 . Por lo tanto el conjunto de dos nmeros, la posicin y la velocidad en el tiempo t0 est calicado para ser llamdad el estado del sistema en el tiempo t0 . Note que el conjunto de dos nmeros, la posicin y la cantidad de movimiento en t0 , tambin estn calicados como el estado. que, junto con u[t0 ,] determina de manera nica el comportamiento del sistema para todo t t0 . 2 Por comportamiento de un sistema, queremos decir todas las respuestas, incluyendo el estado, del sistema. Si el sistema es una red, signica el voltaje y la corriente de cada rama de la red. Por consiguiente del estado en t0 , el estado para toda t > t0 puede ser calculado. Si el estado en t1 > t0 es conocido, necesitamos u[t1 ,] en lugar de u[t0 ,] , al calcular el comportamiento del sistema para t t1 . Por consiguiente el estado en t1 resume la informacin esencial sobre la entrada pasada u[,t1 ] la cual es necesaria para determinar el comportamiento futuro del sistema, Notamos que entradas diferentes ui [,t1 ] , i = 1, 2 . . ., i pueden llevarnos al mismo estado en t1 . En este caso, an cuando u[,t1 ] , i = 1, 2 . . . sean diferentes, sus efectos sobre el comportamiento futuro del sistema son idnticos. Damos algunos ejemplos para ilustrar el concepto de estado.

Denicin 3.6 El estado de un sistema en el tiempo t0 es la cantidad de informacin en t0

Ejemplo 3.4 Consideremos la red mostrada en la Figura . Es bien conocido que si la corriente inicial a travs del inductor y el voltaje inicial a travs del condensador son conocidos, entonces para cualquier voltaje de entrada el comportamiento de la red puede ser determinado nicamente. Por lo tanto la corriente del inductor y el voltaje del inductor calican como el estado de la red. Ejemplo 3.5 Consideremos de nuevo la red en el Ejemplo 3.4. La funcin de transferencia
de u a y de la red puede ser fcilmente encontrada como

g (s) =

2 2 2 = (s + 1)(s + 2) s+1 s+2

Por lo tanto la respuesta al impulso de la red es

g(t) = 2et 2e2t

(3.23)

la cual es la transformada inversa de Laplace de la funcin de transferencia g (s). Ahora aplicamos una entrada u[t0 ,] a la red. Si la red est en reposo en t0 , la salida est dada por
t t0 t

y(t) =

g(t )u( )d =

g(t )u( )d =
t0

g(t )u( )d para toda t t0 (3.24)

66

CAPTULO 3. DESCRIPCIN MATEMTICA DE SISTEMAS

dado que la entrada que haba sido aplicada antes de t0 podra an tener ciero efecto en la salida despus de t0 a travs de la energa almacenada en el condensador y el inductor. Consideramos ahora el efecto sobre y[t0 ,) debido a la entrada desconocida u(,t0 ) . De (3.23) tenemos
t g(t

)u( )d

= 2et =

t0 e u( )d 2et c1 2e2t c2

2e2 u( )d

(3.25)

para t t0 , donde
t0

c1 =

e u( )d

t0

c2 =

e2 u( )d

Note que c1 y c2 son independientes en t. Por consiguiente si c1 y c2 son conocidas, la salida despus de t t0 excitada por la entrada desconocida u(,t0 ) es completamente determinable. De (3.24) y (3.25) tenemos

y(t0 ) = 2et0 c1 2e2t0 c2


Tomando la derivada de (3.24) con respecto a t nos lleva a

(3.26)

y(t) = 2et c1 2e2t c2 + g(0)u(t) +


lo cual, junto con g(0) = 0, implica que

t t0

g(t )u( )d t

y(t0 ) = 2et0 c1 2e2t0 c2


Resolviendo para c1 y c2 de (3.26) y (3.27), obtenemos

(3.27)

c1 = 0.5et0 (2y(t0 ) + y(t0 )) 2t0 (y(t ) + y(t )) c2 = 0.5e 0 0


Por lo tanto si la red no est en reposo en t0 , la salida y(t) est dada por

y(t) = (2y(t0 ) + y(t0 ))e(tt0 ) (y(t0 ) + y(t0 ))e2(tt0 ) +

t t0

g(t )u( )d para t t0

Vemos que si y(t0 y y(t0 son conocidas, la salida despus de t t0 puede ser determinada de manera nica an si la red no est en reposo en t0 . Por lo tanto el conjunto de nmeros y(t0 ) y y(t0 ) calican como el estado de la red en t0 . Claramente, el conjunto {c1 , c2 } tambin calican como el estado de la red. En este ejemplo, vemos que el efecto de la entrada sobre el intervalo innito (, t0 ) es resumido en dos nmeros {t(t0 ), y(t0 )} o {c1 , c2 }; por lo tanto el concepto de estado es bastante eciente y poderoso.

3.4. DESCRIPCIN MATEMTICA DE SISTEMAS COMPUESTOS

67

3.4

Descripcin matemtica de sistemas compuestos

En ingeniera, un sistema es frecuentemente construido al interconectar un nmero de subsistemas. Tal sistema es llamado un sistema compuesto. Si el sistema es o no compuesto depende de que consideremos como bloques de construccin. Por ejemplo, una computadora anloga puede ser vista como un sistema, o como un sistema compuesto que consiste de amplicadores operacionales, generadores de funciones, potencimetros y otros subsistemas. Hay muchas formas de sistemas compuestos; sin embargo, en su mayor parte estn construidos de las siguientes tres conexiones bsicas: la paralela, la serial y la conexin de retroalimentacin, como est mostrado en la Figura. En esta seccin estudiaremos las descripciones entrada/salida y las descripciones en variables de estado de estos tres sistemas compuestos bsicos. Estudiamos primero la descripcin entrada/salida de sistemas compuestos. Consideremos dos sistemas multivariables Si los cuales estn descritos por
t

yi (t) =

Gi (t, )ui ( )d

i = 1, 2

(3.28)

donde ui e yi son la entrada y la salida, Gi es la matriz de respuesta al impulso del sistema Si . Sean u, y y G, respectivamente, la entrada, la salida y la matriz de respuesta al impulso de un sistema compuesto. Vemos de la Figura que en la conexin en paralelo, tenemos u1 = u2 = u, y = y1 + y2 ; en la conexin en serie, tenemos u = u1 , y1 = u2 , y2 = y; en la conexin de retroalimentacin, tenemos u1 = u y2 , y = y1 . Aqu hemos asumido implictamente que los sistemas S1 y S2 tienen un nmero compatible de entradas y de salidas; de otra manera, los sistemas no pueden ser conectados correctamente. Es tambin asumido que no hay efecto de carga en la conexin; esto es, las matrices de respuesta al impulso G1 , G2 permanecen sin cambio despus de la conexin. Es fcil demostrar que la matriz de respuesta al impulso de la conexin en paralelo de S1 y S2 mostrados en la gura es

G(t, ) = G1 (t, ) + G2 (t, )


Para la conexin en serie mostrada en la Figura, tenemos
t

(3.29)

G(t, ) =

G2 (t, )G1 (v, )dv

(3.30)

Probamos (3.30) para el caso monovariable. La respuesta al impulso g(t, ) es, por denicin, la respuesta de y2 debido a una funcin aplicada en el tiempo en u1 . La respuesta en y1 debido a la funcin es g1 (t, ). La salida de S2 debido a la entrada g1 (t, ) es
t

g2 (t, v)g1 (v, )dv

(3.31)

Por lo tanto,

g(t, ) =

g2 (t, v)g1 (v, )dv

(3.32)

El mismo procedimiento puede ser utilizado para el caso multivariable.

68

CAPTULO 3. DESCRIPCIN MATEMTICA DE SISTEMAS

Para la conexin de retroalimentacin mostrada en la Figura, la matriz de respuesta al impulso es la solucin de la ecuacin integral
t v

G(t, ) = G1 (t, )

G1 (t, v)

G2 (v, )G(s, ) ds dv

(3.33)

donde G1 y G2 son conocidas y G es desconocida. Esta ecuacin puede ser fcilmente vericada de la denicin de G(t, ). Hay un mtodo iterativo general para resolver (3.33), pero es muy complicado. Ahora estudiemos las descripciones en variables de estado de sistemas compuestos. Sean los sistemas S1 y S2 en la Figura descritos por

xi = Ai xi + Bi ui yi = Ci xi + Ei ui

(3.34)

donde xi es el estado, ui es la entrada y yi es la salida; Ai ,Bi ,Ci y Ei son matrices de ordenes compatibles cuyas entradas son funciones continuas de t denidas sobre (, ). El espacio de estado de Si est denotado por i . Introduzcamos el concepto de suma directa de dos espacios lineales. El espacio lineal es la suma directa de dos espacios lineales 1 y 2 , escrito como = 1 2 , si cada vector en es de la forma [x1 x2 ] , donde x1 es un vector en 1 y x2 es un vector en 2 . La dimensin de es la suma de los de 1 y 2 . Es claro que el vector compuesto x1 x2 calica como el estado de cualquier conexin compuesta de S1 y S2 ; su espacio de estado es la suma directa de los espacios de estado de S1 y S2 , 1 2 . Para la conexin en paralelo, tenemos u1 = u2 = u, y = y1 + y2 ; por lo tanto la ecuacin dinmica es

x1 x2 y=

A1 (t) 0 0 A2 (t) x1 x2

x1 x2

B1 (t) B2 (t)

(3.35) (3.36)

C1 (t) C2 (t)

+ (E1 (t) + E2 (t))u

La ecuacin dinmica de la conexin en serie de S1 y S2 est dada por

x1 x2

= y=

A1 (t) 0 B2 (t)C1 (t) A2 (t) E2 (t)C1 (t) C2 (t)

x1 x2 x1 x2

B1 (t) B2 (t)E1 (t)

(3.37) (3.38)

+ E2 (t)E1 (t)u

lo cual puede ser fcilmente obtenido observando que u1 = u, y1 = u2 ,y = y2 . Para la conexin de retroalimentacin mostrada en la gura, su descripcin de ecuacin dinmica es

x1 x2

A1 (t) B1 (t)Y2 (t)E2 (t)C1 (t) B1 (t)Y2 (t)C2 (t) B2 (t)Y1 (t)C1 (t) A2 (t) B2 Y1 E1 C2 (t) B1 (t)Y2 (t) + u B2 (t)Y1 (t)E1 (t)

x1 x2

(3.39)

3.4. DESCRIPCIN MATEMTICA DE SISTEMAS COMPUESTOS

69

y = [Y1 (t)C1 (t) Y1 E1 (t)C2 (t)]

x1 x2

+ Y1 (t)E1 (t)u

(3.40)

donde Y1 (t) = (I + E1 (t)E2 (t))1 e Y2 (t) = (I + E2 (t)E1 (t))1 . Es claro que a n que est enida, tenemos que asumir que las inversas de (I + E1 (t)E2 (t)) y (I + E2 (t)E1 (t)) existen para toda t. La ecuacin dinmica puede ser fcilmente vericada observando u1 = u y2 , y1 = u2 , y = y1 . Todos los resulatdos en la subseccin precedente pueden ser aplicados para el caso invariante en el tiempo sin ninguna modicacin. Ahora discutiremos las matrices de funcin de transferencia de sistemas compuestos. Sea G1 (s) y G2 (s) matrices de funcin de transferencia de S1 y S2 , respectivamente; entonces la matriz de funcin de transferencia de la conexin en paralelo de S1 y S2 es G1 (s) + G2 (s) . La funcin matriz de funcin de transferencia de la conexin en serie de S1 seguida de S2 es G2 (s)G1 (s). Note que el orden de G2 (s)G1 (s) no i (s)i = 1, 2, es propio, lo es tambin G1 (s) + G2 (s) y puede ser invertido. Es claro que si G G2 (s)G1 (s). Est implicitamente asumido que los ordenes de G1 (s) y G2 (s) son compatibles en ambas conexiones. A n de discutir la matriz de funcin de transferencia de la conexin de retroalimentacin mostrada en la gura, necesitamos algunos resultados preliminares.

y p q (no necesariamente propias). Entonces tenemos

Teorema 3.2 Sean G1 (s) y G2 (s), respectivamente , matrices de funciones racionales q p det(Ip + G2 (s)G1 (s)) = det(Iq + G1 (s)G2 (s))
(3.41)

Observe que la matriz del lado derecho de es una matriz q q , mientras que la matriz del lado izquierdo es una matriz p p. Im es la matriz identidad de orden m. Los elementos de esas matrices son funciones racionales de s, y dado que las funciones racionales forman un campo, los resultados estndar de la teora de matrices pueden ser aplicados. Es bien conocido que det(NQ) = det N det Q. Por lo tanto tenemos

det(NQP) = det N det Q det P = det(PQN)


donde N, Q y P son cualesquiera matriz cuadrada del mismo orden. Escojamos

(3.42)

N=

Ip 0 G1 (s) Iq

Q=

Ip G2 (s) G1 (s) Iq

P=

Ip G2 (s) 0 Iq

(3.43)

Son matrices cuadradas de orden (q + p). Puede ser vericado fcilmente que

NQP =
y

Ip 0 0 Iq + G1 (s)G2 (s) Ip + G2 (s)G1 (s) 0 0 Ip

(3.44)

PQN =

(3.45)

70 por lo tanto

CAPTULO 3. DESCRIPCIN MATEMTICA DE SISTEMAS

det(NQP) = det(Iq + G1 (s)G2 (s)) 1 (s)G2 (s)) det(PQN) = det(Iq + G

(3.46)

y el teorema sigue inmediatamente de .

Teorema 3.3 Si det(Iq + G1 (s)G2 (s)) = 0, entonces G1 (s)(Ip + G2 (s)G1 (s))1 = (Iq + G1 (s)G2 (s))1 G1 (s)
(3.47)

Note que el cero en det(Iq + G1 (s)G2 (s)) = 0 es el elemento cero en el campo de las funciones racionales. Por lo tanto, puede ser escrito ms sugestivamente como det(Iq + G1 (s)G2 (s)) = 0 para alguna s. La condicin det(Iq + G1 (s)G2 (s)) = 0 implica que la inversa de la matriz (Iq + G1 (s)G2 (s)) = 0 existe. Del teorema , tenemos Conociendo el teorema, estamos listos para investigar la matriz de funcin de transferencia de la conexin de retroalimentacin de S1 y S2 . Corolario 3.2 Considere el sistema retroalimentado mostrado en la gura . Sean G1 y G2 matrices de funcin de transferencia racionales propias de S1 y S2 , respectivamente. Si det(Iq + G1 (s)G2 (s)) = 0, entonces la matriz de funcin de transferencia del sistema retroalimentado est dada por G(s) = G1 (s)(Ip + G2 (s)G1 (s))1 = (Iq + G1 (s)G2 (s))1 G1 (s)
(3.48)

De Figura, tenemos G1 (s)( (s) G2 (s) (s)) = y(s), o u y (Iq + G1 (s)G2 (s)) (s) = G1 (s) (s) y u
(3.49)

lo cual, junto con el Teorema, implica este corolario. Note que la condicin det(Iq + G1 G2 ) = 0 es esencial para que un sitema retroalimentado est denido. Sin esta condicin, un sistema retroalimentado podra volverse sin signicado en el sentido que para ciertas entradas, no haya salidas satisfaciendo la ecuacin. Considere un sistema retroalimentado como s 1 s+1 s+2 1 0 G1 (s) = G2 (s) = (3.50) 0 1 1 s 1 s+1 s+2

Es fcil vericar que det(I2 + G1 (s)G2 (s)) = 0. Escojamos 1 s+2 u(s) = 1 (s + 1)2

(3.51)

3.4. DESCRIPCIN MATEMTICA DE SISTEMAS COMPUESTOS

71

Entonces se convierte en

1 s+1 1 s+1

1 1 s(s + 1) s+2 (s + 1)2 (s + 2) y(s) = 1 0 s+2


(3.52)

Obviamente no existe un y(s) satisfaciendo (3.52). En la teora de matrices, la ecuacin (3.52) se dice ser inconsistente. Por lo tanto, en la conexin de retroalimentacin, requerimos que det(Iq + G1 (s)G2 (s)) = 0 para alguna s. Recordemos de (??) que la condicin para la existencia de la descripcin de ecuacin dinmica del sistema retroalimentado en la Figura es det(I + E1 E2 ) = 0 donde Ei es la de la ecuacin dinmica de Si . Debido a que Gi () = Ei , si det(I + E1 E2 ) = 0, entonces

72

CAPTULO 3. DESCRIPCIN MATEMTICA DE SISTEMAS

Captulo 4

Ecuaciones dinmicas lineales y matrices de respuesta al impulso


4.1 Introduccin
Los sistemas lineales pueden ser descritos, como fue mostrado en el captulo precedente, por la descripcin entrada-salida y la descripcin en variables de estado. Una vez que estas descripciones son obtenidas, el siguiente paso es naturalmente analizarlas. Hay dos tipos de anlisis: cualitativo y cuantitativo. En el anlisis cualitativo, estamos interesados en las propiedades generales, como la controlabilidad, la observabilidad y estabilidad, de las ecuaciones. Estas sern discutidas en los Captulos 5 y 8. En el anlisis cuantitativo, estamos interesados en las respuestas exactas de las ecuaciones debidas a alguna excitacin. Las computadoras digitales son ahora ampliamente disponibles, pueden llevar a cabo estos anlisis. Las soluciones numricas sin embargo no estn en formas cerradas y es difcil extrapolar cualquier propiedad de esas soluciones. En este captulo estudiaremos las soluciones en forma cerrada de la descripcin entrada-salida y la descripcin en variables de estado. Las relaciones entre esas descripciones sern tambin estudiadas. Notemos que sern discutidas son aplicables a sistemas compuestos si sus descripciones matemticas completas son primero calculadas. Si la matriz respuesta al impulso G(t, ) de un sistema es conocida, entonces para cualquier entrada, la salida y puede ser obtenida de
t

y(t) =
t0

G(t, )u( )d

por clculo directo o por mtodo grco. En el caso invariante en el tiempo, la ecuacin u y = G(s) (s) puede tambin ser utilizada. A menos que la matriz de funcin de transferencia matricial sea una matriz racional, generalmente es ms fcil calcular y directamente en el dominio del tiempo que en el dominio de la frecuencia. Es elemental calcular y de la descripcin entrada-salida; as esto no ser discutido despus. Las soluciones de las ecuaciones dinmicas lineales son estudiadas en la seccin (4.2). Las soluciones son establecidas en trminos de la matriz de transicin de estado (t, ), la cual es la solucin nica de (t, ) = A(t)(t, ) (, ) = I t 73

74

CAPTULO 4. ECUACIONES DINMICAS LINEALES Y MATRICES DE RESPUESTA AL IMPULSO

En el caso invariante en el tiempo, tenemos (t, ) = eA(t ) . Varios mtodos para el clculo de eAt y (sI A)1 son discutidos. En la Seccin el concepto de ecuaciones dinmicas equivalentes es introducido. Los sistemas dinmicos equivalentes son obtenidos cambiando la base del espacio de estados. Mostramos que cada ecuacin dinmica lineal variante en el tiempo tiene una ecuacin dinmica lineal con una matriz constante A. Tambin establecemos la teora de Floquet. En la ltima seccin, la relacin entre las ecuaciones dinmicas lineales y las matrices de respuesta al impulso es estudiada. La condicin necesaria y suciente para que una matriz de respuesta al impulso sea realizable por una ecuacin dinmica lineal es establecida. Tambin mostramos que cada matriz racional propia tiene un realizacin de ecuacin dinmica invariante en el tiempo lineal. Las referencias para este captulo son

4.2
4.2.1

Soluciones de la ecuacin dinmica


Caso variante en el tiempo
E : x(t) = A(t)x(t) + B(t)u(t) (ecuacin de estado) y(t) = C(t)x(t) + E(t)u(t) (ecuacin de salida)

Considere la ecuacin dinmica lineal variante en el tiempo n-dimensional (4.1)

donde A(), B(), C() y D() son matrices n n, n p, q n y q p cuyas entradas son funciones reales continuas de t denidas sobre (, ). Dado que A() se asume que es continua, para cualquier est ado inicial x(t0 ) y culaquier u, existe una solucin nica en la ecuacin dinmica E . Este hecho ser usado frecuentemente en el desarrollo posterior. Antes de estudiar la ecuacin dinmica E entera, estudiamos primero las soluciones de la parte homognea de E ; particularmente

x = A(t)x

(4.2)

Soluciones de x = A(t)x El conjunto de ecuaciones diferenciales de primer orden en (4.2) tiene una solucin nicas para cada estado inicial x0 en (IRn , IR). Dado que existen una cantidad innita de posibles estados iniciales, la Ecuacin (4.2) tiene una cantidad innita de soluciones. Este conjunto de soluciones lineales forma un espacio lineal sobre IR. Existen slo n estados iniciales linealmente independientes en (IRn , IR); por lo tanto el espacio lineal es de dimensin n. Este hecho ser formalmente establecido en el teorema siguiente. Teorema 4.1 El conjunto de soluciones de x(t) = A(t)x(t) forma un espacio vectorial lineal n-dimensional sobre el campo de los nmeros reales.

Prueba:

Sean 1 y 2 dos soluciones arbitrarias de (4.2). Entonces 1 1 +2 2 tambin es una solucin de (4.2) para cualesquier 1 y 2 real. Probamos esto por vericacin directa:

d d d (1 1 + 2 2 ) = 1 1 + 2 2 = 1 A(t) 2 + 2 A(t) 2 = A(t)(1 1 + 2 2 ) dt dt dt

4.2. SOLUCIONES DE LA ECUACIN DINMICA

75

Por consiguiente el conjunto de soluciones forma un espacio linea sobre IR. Este es llamado el espacio solucin de (4.2). Despus probamos que el espacio solucin tiene dimensin n. Sean e1 , e2 , . . . , en cualesquiera vectores linealmente independientes en (IRn , IR) y sea i las soluciones de (4.2) con la condicin inicial i (t0 ) = ei , para i = 1, 2, . . . , n. Si mostramos que i , para i = 1, 2, . . . , n, son linealmente independientes y cada solucin de (4.2) puede ser escrita como una combinacin lineal de i , para i = 1, 2, . . . , n, entonces la aseveracin es probada. Probamos por contradiccin el hecho que los 's son linealmente independientes. Supongamos que i , para i = 1, 2, . . . , n son linealmente dependientes; entonces por denicin, existe un vector real n 1 no cero tal que

[ 1 2 n ] = 0

(4.3)

Note que el 0 en la parte derecha de la ecuacin (4.3) es el vector cero del espacio solucin; por consiguiente, es ms informativo escribir (4.3) como

[ 1 (t) 2 (t) n (t)] = 0 para todo t en (, )


En particular, tenemos

[ 1 (t0 ) 2 (t0 ) n (t0 )] = [e1 e2 en ] = 0


lo cual implica que ei , para i = 1, 2, . . . , n, son linealmente dependientes. Esto contradice la hiptesis; por lo tanto i para i = 1, 2, . . . , n, son linealmente independientes sobre (, ). Sea cualquier solucin de (4.2) y sea (t0 ) = e. Dado que e1 , e2 , . . . , en son n vectores linealmente independientes en el espacio n-dimensional (IRn , IR), e puede ser escrito como una combinacin lineal nica de ei , para i = 1, 2, . . . , n por ejemplo, como
n

e=
i=1

i ei

Es claro que

i i ()
i=1

es una solucin de (4.2) con la condicin inicial


n

i i (t0 ) = e
i=1

Por consiguiente, de la unicidad de la solucin, concluimos que


n

() =
i=1

i i ()

Esto completa la prueba que las soluciones de (4.2) forman un espacio vectorial n-dimensional.

76

CAPTULO 4. ECUACIONES DINMICAS LINEALES Y MATRICES DE RESPUESTA AL IMPULSO

A(t)x si y slo si las n columnas de consisten de n soluciones linealmente independientes de x = A(t)x. 2

Denicin 4.1 Una funcin matricial n n se dice que es una matriz fundamental de x =

Ejemplo 4.1 Consideremos la ecuacin dinmica


x= 0 0 t 0 x

Este consiste de dos ecuaciones: x1 = 0, x2 = tx1 . Sus soluciones son x1 (t) = x1 (t0 ) y 2 x (t )0.5t2 x (t )+x (t ), los cuales son obtenidos al primero resolver para x (t) x2 (t) = 0.5t 1 0 2 0 1 0 1 0 y entonces substituir x1 (t) en x2 = tx1 . Ahora las dos soluciones linealmente independientes 1 = [0 1] y 2 = [2 t2 ] pueden ser fcilmente obtenidos al jar t0 = 0, x1 (t0 ) = 0, x2 (t0 ) = 1 y x1 (t0 ) = 2, x2 (t0 ) = 0. Por lo tanto, la matriz

0 2 1 t2
es una matriz fundamental.

Cada columna de , por denicin, satisface la ecuacin diferencial x = A(t)x; por lo tanto, es evidente que satisface la ecuacin matricial = A(t)
(4.4)

con (t0 ) = H, donde H es alguna matriz real constante no singular. Inversamente, si una matriz M satisface (4.4) y si M(t) es no singular para alguna t, entonces de la prueba del teorema ?? conocemos que todas las columnas de M son linealmente independientes. Por lo tanto, la funcin matricial M calica como una matriz fundamental. As conlcuimos que una funcin matricial es una matriz fundamental de x = A(t)x si y slo si satisface (4.4) y (t) es no singular para alguna t. Una propiedad importante de una matriz fundamental () es que la inversa de (t) exista para todo t en (, ). Esto sigue del siguiente teorema.

Teorema 4.2 Cada matriz fundamental es no singular para toda t en (, ).


Antes de probar el teorema, necesitamos el hecho siguiente: Si () es una solucin de x = A(t)x y si (t0 ) = 0 para algun t0 , entonces la solucin de () es idnticamente cero; esto es, () 0. Es obvio que () 0 es una solucin de x = A(t)x con (t0 ) = 0. De nuevo, de la unicidad de la solucin, concluimos que () 0 es la nica solucin con (t0 ) = 0. Probaremos ahora el teorema; probamos por contradiccin. Supongamos que det (t0 ) = det[ 1 (t0 ) 2 (t0 ) n (t0 )] = 0 para algua t0 . Entonces el conjunto de n vectores columna

Prueba:

4.2. SOLUCIONES DE LA ECUACIN DINMICA

77

1 (t0 ), 2 (t0 ), . . . , n (t0 ) es linealmente independiente en (IRn , IR). Esto sigue que existen unos i reales, para i = 1, 2, . . . , n, no todos cero tal que
n

i i (t0 ) = 0
i=1

lo cual, junto con el hecho que

i i ()
i=1

es una solucin de x = A(t)x, implica que


n

i i () 0
i=1

Esto contradice la aseveracin que (), para i = 1, 2, . . . , n, son linealmente independientes. Por lo tanto, concluimos que det = 0 para todo t en (, ).

Denicin 4.2 Sea () cualquier matriz fundamental de x = A(t)x. Entonces (t, t0 ) = (t)1 (t0 ) para todo t, t0 en (, ) se dice que es la matriz de transicin de estado de x = A(t)x. 2
El signicado fsico de (t, t0 ) ser visto ms tarde. Dado que (t) es no singular para todo t, su inversa est bien denida para cada t. De la denicin tenemos inmediatamente las siguientes propiedades muy importantes de la matriz de transicin de estado:

(t, t) = I
1

(4.5)
1

(t, t0 ) = (t0 )

(t) = (t0 , t)

(4.6) (4.7)

(t2 , t0 ) = (t2 , t1 )(t1 , t0 )

para cualesquier t, t1 y t2 en (, ). Note que (t, t0 ) est determinado nicamente por A(t) y es independiente del parti cular escogido. Sean 1 y 2 dos matrices fundamentales diferentes de x = A(t)x. Dado que las columnas de 1 , como las de 2 , calican como vectores base, existe, como se muestra en la Seccin, una matriz real constante no singular P tal que 2 = 1 P. De hecho, la isima columna de P es la representacin de la isima columna de 2 con respecto a la base que consiste de las columnas de 1 (). Por denicin, tenemos

(t, t0 ) = 2 (t)( 2 (t))1 = 1 (t)PP1 (1 (t0 ))1 = 1 (t)(1 (t0 ))1

78

CAPTULO 4. ECUACIONES DINMICAS LINEALES Y MATRICES DE RESPUESTA AL IMPULSO

lo cual muestra la unicidad de (t, t0 ). De la Ecuacin (4.4), es evidente que (t, t0 ) es la solucin nica de la ecuacin matricial (t, t0 ) = A(t)(t, t0 ) (4.8) t con la condicin inicial (t0 , t0 ) = I. Las observaciones son en orden de inters las soluciones de (4.4) y (4.8). Si A(t) es una funcin continua de t, entonces (t, t0 ) y (t) son continuamente diferenciable en t. Ms generalmente, si A(t) es n veces diferenciable en t, entonces (t, t0 ) y (t) son n + 1 veces diferenciables en t. El clculo de la solucin de (4.8) en una forma cerrada es generalmente mu difcil, sino imposible, excepto en algunos casos especiales. Si A(t) es una matriz triangular, entonces su solucin puede ser reducida a resolver un conjunto de ecuaciones diferenciales escalares, y su solucin en forma cerrada puede ser obtenida fcilmente. Si A(t) tiene la propiedad conmutativa siguiente
t t

A(t)
t0

A( )d

=
t0

A( )d

A(t)

para toda t y t0 , entonces la solucin nica de (4.8) est dada por


t

(t, t0 ) = exp

A( )d
t0

(4.9)

Si A(t) es una matriz diagonal o una matriz constante, entonces encontramos la propiedad conmutativa, y su matriz de transicin est dada por (4.9) Para otros casos especiales vea Del concepto de matriz de transicin de estado, la solucin de x = A(t)x sigue inmediata mente. Para ser ms informativo, usamos (t; t0 , x0 , 0) para denotar la solucin de x = A(t)x en el tiempo t debido a la condicin inicial x(t0 ) = x0 . El cuarto argumento de denota el hecho que u 0. La solucin de x = A(t)x con x(t0 ) = x0 es dada por

x(t) = (t; t0 , x0 , 0) = (t, t0 )x0


lo cual puede ser vericado por medio de substitucin directa. El signicado fsico de la matriz de transicin de estado (t, t0 ) ahora es claro. Este gobierna el movimiento del vector estado en el intervalo de tiempo en el cual la entrada es idnticamente cero. (t, t0 ) es una transformacin lineal que mapea el estado x0 en t0 en el estado x en el tiempo t. Usamos para denotar el estado resultante al tiempo t debido al estado inicial x(t0 ) = x0 y la aplicacin de una entrada u.

Teorema 4.3 La solucin de la ecuacin de estado


x(t) = A(t)x(t) + B(t)u(t) x(t0 ) = x0
t

est dada por


x(t) = (t; t0 , x0 , u) = (t, t0 )x0 + = (t, t0 ) x0 + (t, )B( )u( )d
t0 t

(4.10) (4.11)

(t, )B( )u( )d


t0

4.2. SOLUCIONES DE LA ECUACIN DINMICA

79

donde (t, ) es la matriz de transicin de estado de x = A(t)x; o, de manera equivalente, la solucin nica de (t, ) = A(t)(t, ) (, ) = I t

Prueba:

La ecuacin (4.11) es obtenida de (4.10) al usar (t, ) = (t, t0 )(t0 , ). Primero mostramos que (4.10) satisface la ecuacin de estado por sustitucin directa:

d x(t) = dt

(t, t0 )x0 + t t

(t, )B( )u( )d


t0 t t t0

= A(t)(t, t0 )x0 + (t, t)B(t)u(t) + = A(t) (t, t0 )x0 + = A(t)x(t) + B(t)u(t)


En t = t0 , tenemos
t0

(t, )B( )u( )d t

t0

(t, )B( )u( )d B(t)u(t) t

x(t0 ) = (t0 , t0 )x0 +

t0

(t0 , )B( )u( )d = Ix0 + 0 = x0

En otras palabras, (4.10) tambin encuentra la condicin inicial. Por lo tanto es la solucin. Consideremos de nuevo la solucin dada por la Ecuacin (4.10). Si u 0, entonces (4.10) se reduce a (t; t0 , x0 , 0) = (t, t0 )x0 (4.12) Si x0 = 0, la Ecuacin (4.10) se reduce a
t

(t; t0 , 0, u) =

(t, )B( )u( )d


t0

(4.13)

Por razones obvias (t; t0 , x0 , 0) es llamada la respuesta de entrada cero y (t; t0 , 0, u) es llamada la respuesta de estado cero de la ecuacin de estado. Es claro que (t; t0 , x0 , 0) y (t; t0 , 0, u) son funciones lineales de x0 y u, respectivamente. Usando (4.12) y (4.13), la solucin de la Ecuacin (4.10) puede ser escrita como

(t; t0 , x0 , u) = (t; t0 , x0 , 0) + (t; t0 , 0, u)

(4.14)

Esta es una propiedad muy importante; dice que la respuesta de una ecuacin de estado lineal siempre puede ser descompuesta en la respuesta de estado cero y la respuesta de entrada cero. Esto es consistente con la Ecuacin (??). Note que la Ecuacin (4.13) puede ser obtenida directamente del hecho que es una funcin lineal de u. El procedimiento es exactamente el mismo como el de obtener
t

G(t, )ud
t0

80

CAPTULO 4. ECUACIONES DINMICAS LINEALES Y MATRICES DE RESPUESTA AL IMPULSO

en la Seccin. La respuesta de (t; t0 , 0, u) es, por denicin, la solucin de con 0 como estado inicial. Si cortamos la entrada u en pequeos pulsos, digamos

u=
i

u[ti ,ti +)
(4.15)

entonces tenemos

(t; t0 , 0, u[ti ,ti +) ) = (t, ti + )B(ti )u(ti )

donde hemos utilizado el hecho que si es muy pequeo, la solucin de debida a la entrada u[ti ,ti +) con 0 como el estado inicial es aproximadamente igual a B(ti )u(ti ). La entrada u[ti ,ti +) fuera del intervalo de tiempo [ti , ti + ) es idnticamente cero; por lo tanto, la respuesta entre ti + y t est gobernada por (t, ti + ). Sumando (4.15) para toda i y tomando el lmite 0, inmediatamente obtenemos la ecuacin
t

(t; t0 , 0, u) =

(t, )B( )u( )d


t0

Damos ahora la solucin completa de la ecuacin dinmica E .

Corolario 4.1 La solucin de la ecuacin dinmica E en (4.1) est dada por


t

y(t) = C(t)(t, t0 )x0 + C(t)


t

(t, )B( )u( )d + E(t)u(t)


t0

(4.16)

= C(t)(t, t0 ) x0 +

t0

(t0 , )B( )u( )d + E(t)u(t)

Al sustituir (4.10) y (4.11) en (4.1), obtenemos inmediatamente el Corolario. La salida de y puede tambin ser descompuesto en repuesta de estado cero y la respuesta de entrada cero. Si la ecuacin dinmica est inicialmente en el estado cero, la Ecuacin (4.16) se convierte en
t

y(t) =
t0

[C(t)(t, )B( ) + E(t)(t )] u(t)d

(4.17)

= G(t, )u( )d
La funcin matricial

G(t, ) = C(t)(t, )B( ) + E(t)(t )

(4.18)

es llamada la matriz de respuesta al impulso de la ecuacin dinmica E . Esta gobierna la relacin entrada-salida de E si E est inicialmente en el estado cero. Vemos de (4.16) que si la matriz de transicin de estado (t, ) es conocida, entonces la solucn de la ecuacin dinmica puede ser calculada. Recordemos que (t, ) es la solucin nica de (t, ) = A(t)(t, ) (, ) = I t Desafortunadamente, no hay en general una relacin simple entre y (t, ) y A(t), y excepto para casos muy simples, las matrices de transicin de estado (t, ) no pueden ser encontradas fcilmente. las Ecuaciones son utilizadas principalmente en el estudio terico de la teora de sistemas lineales. Si estamos requiriendo encontrar la solucin de una ecuacin dinmica debida a una x0 y u dadas, es innecesario calcular (t, ). La solucin puede ser fcilmente calculada usando sub-rutinas existentes en una computadora digital.

4.2. SOLUCIONES DE LA ECUACIN DINMICA

81

4.2.2

El caso invariante en el tiempo


F E x = Ax + Bu y = Cx + Eu

En esta subseccin, estudiamos la ecuacin dinmica (ja) invariante en el tiempo lineal (4.19)

donde son matrices reales constantes, respectivamente. Dado que la ecuacin F E es un caso especial de la ecuacin dinmica variante en el tiempo lineal E , todos los resultados obtenidos en la subseccin precedente pueden ser aplicados aqu. Hemos mostrado en (??) que

d At e = AeAt dt
y eAt es no singular en t = 0; por lo tanto eAt es una matriz fundamental de . De hecho, eAt es no singular para todo t y (eAt )1 = eAt ; por lo tanto, la matriz de transicin de estado de es, por el uso de (??) y (??),

(t, t0 ) = eAt (eAt0 )1 = eA(tt0 ) = (t t0 )


De (4.10) la solucin de (4.19) es

(t; t0 , x0 , u) = eA(tt0 ) x0 +

t t0

eA(t ) Bu( )d

(4.20)

Si t0 = 0, como es usualmente asumido en la ecuacin invariante en el tiempo, entonces tenemos el siguiente teorema.

Teorema 4.4 La solucin de la ecuacin dinmica lineal invariante en el tiempo FE dada en


(4.19) es
x(t) = (t; t0 , x0 , u) = eA(tt0 ) x0 +
t t0

eA(t ) Bu( )d

(4.21)

y
y(t) = CeAt x0 + CeAt
0

eA Bu( )d + Eu(t)

(4.22)

La matriz respuesta al impulso de FE es

G(t, ) = G(t ) = CeA(t ) B + E(t )


o, ms comnmente escrito,

G(t) = CeAt B + E(t)

(4.23)

La solucin de una ecuacin dinmica invariante en el tiempo lineal puede ser calculada tambin en el dominio de la frecuencia. Tomando la transformada de Laplace de (4.21) y (4.22), y usando, obtenemos

x(s) = (sI A)1 x(0) + (sI A)1 B (s) u y(s) = C(sI A)


1

(4.24) (4.25)

x(0) + C(sI A)

B (s) + E (s) u u

82

CAPTULO 4. ECUACIONES DINMICAS LINEALES Y MATRICES DE RESPUESTA AL IMPULSO

donde el circunejo denota la transformada de Laplace de una variable. Estas ecuaciones han sido obtenidas en la Seccin directamente de la ecuacin dinmica. Como denimos ah, la matriz funcin racional G(s) = C(sI A)1 B + E (4.26) es llamada la matriz funcin de transferencia de la ecuacin dinmica FE. Es la transformada de Laplace de la matriz respuesta al impulso dada en (4.23). La matriz funcin de transferencia gobierna la respuesta en estado cero de la ecuacin FE. Ahora damos algunos comentarios concernientes al clculo de eAt . Introducimos en la Seccin tres mtodos de calcular funciones de una matriz que podramos aplicar para calcular eAt . 1. Usando la Denicin : Primero, calculamos los valores propios de A; despus, encontramos un polinomio g() de grado n 1 que es igual a et sobre el espectro de A; entonces eAt = g(A).

2. Utilizando la forma cannica de Jordan de A: Sea A = QAQ1 , entonces eAt = QeAt Q1 , donde A es de la forma de Jordan. eAt puede ser obtenida inmediatamente usando (??).
3. Utilizando la serie innita eAt = tk Ak /k!: Esta serie no ser; generalmente, dada k=0 en una solucin de forma cerrada y es principalmente usada en clculos en computadora digital. Introducimos un mtodo masde calcular eAt . Dado que (sI A)1 , tenemos

eAt = (sI A)1

(4.27)

Por consiguiente, para calcular eAt , primero invertimos la matriz (sIA) y entonces tomamos la transformada inversa de Laplace de cada elemento de (sI A)1 . Calcular la inversa de una matriz no es generalmente un trabajo fcil. Sin embargo, si una matriz es triangular o de orden menor a 4, su inversa puede ser calculada fcilmente. Note que la inversa de una matriz triangular es una matriz triangular tambin. Note que (sI A)1 es una funcin de la matriz A; por lo tanto, tenemos de nuevo varios mtodos para calcularlo: 1. Tomando la inversa de (sI A). 2. Usando la denicin (??).

3. Usando (sI A)1 = Q(sI A)1 Q1 y (??)


4. Utilizando la Denicin. 5. Tomando la transformada de Laplace de eAt . En adicin, existe un esquema iterativo para calcular (sI A)1

Ejemplo 4.2 Usando los mtodos 1 y 2 para calcular (sI A)1 , donde
A= 0 1 1 2

4.2. SOLUCIONES DE LA ECUACIN DINMICA

83
1

1.

(sI A)1 =

s 1 1 s + 2 s+2

s2

1 + 2s + 1 1

s + 2 1 1 s

(s + 1)2 = 1 (s + 1)2

(s + 1)2 s 2 (s + 1)

2. Los valores propios de A son -1, -1. Sea g() = 0 + 1 . Si f () = (s )1 = g() sobre el espectro de A, entonces

f (1) = g(1) : f (1) = g (1) :


por lo tanto y

(s + 1)1 = 0 1 (s + 1)2 = 1

g() = [(s + 1)1 + (s + 1)2 ] + (s + 1)2 (sI A)1 = g(A) == [(s + 1)1 + (s + 1)2 ]I + (s + 1)2 A s+2 1 (s + 1)2 = 1 (s + 1)2 (s + 1)2 s (s + 1)2

Ejemplo 4.3 Considere la ecuacin de estado


x1 x2
La solucin es dada por

0 1 1 2

x1 x2

0 1

x(t) = eAt x(0) +


0

eA(t ) Bu( )d

(4.28)

La funcin matricial eAt puede ser obtenida tomando la transformada de Laplace inversa de lo cual es calculado en el Ejemplo. Por consiguiente y Las soluciones con u 0 son gracadas en la Figura para los estados iniciales x(0) = [8 8] . Note que la velocidad en cada punto de la trayectoria en la Figura es igual a Ax. Si la matriz A tiene m valores propios distintos i con ndices ni , para i = 1, 2, . . . , m (ver Denicin), pretendemos que cada elemento en eAt es una combinacin lineal de los factores tk ei t , para k = 0, 1, . . . , ni ; i = 1, 2, . . . , m. Sea A una representacin en la forma de Jordan 1 . Entonces eA = QeA Q1 . De (??) conocemos que cada elemento de de A y A = QAQ eA es de la forma tk ei t , para k = 0, 1, . . . , ni ; i = 1, 2, . . . , m. Por consiguiente cada elemento

84

CAPTULO 4. ECUACIONES DINMICAS LINEALES Y MATRICES DE RESPUESTA AL IMPULSO

de eAt es una combinacin lineal de esos factores. Llamamos a tk ei t un modo de la ecuacin dinmica FE en (4.19). Las respuestas de una ecuacin dinmica invariante en el tiempo lineal son dictadas principalmente sus modos, o equivalentemente, los valores propios de A. Si un valor propio tiene una parte real negativa, su modo se aproximar a cero exponencialmente cuando t ; se aproxima a cero tanto monotnicamente como oscilatoriamente dependiendo si su parte imaginaria es cero o no lo es. Si un valor propio tiene una parte real positiva, su modo se aproximar al innito exponencialmente cuando t . Si un valor propio tiene una parte real cero y tiene ndice 1, su modo es una constante o una senoidal pura; si su indice ni es ni 1 . dos o mayor, entonces su modo se aproximar al innito a la velocidad de t Si todos los valores propios de A son distintos, la respuesta de x = Ax debida a x(0) = x0 puede ser escrita como, usando el Problema ,

x(s) = (sI A)1 x0 =


i

1 qi pi x0 s i

(4.29)

donde qi y pi son, respectivamente, un vector propio derecho y un vector propio izquierdo de A asociado con i . En el dominio del tiempo, (4.29) se convierte en

x(t) =
i

(pi x0 )ei t qi

(4.30)

Si x0 es escogido tal que pi x0 = 0 para toda i excepto para i = j , entonces (4.30) se reduce a

x(t) = (pj x0 )ej t qj


Para este estado inicial, slo el modo ej t es excitado y x(t) viajar a lo largo de la direccin del vector propio qi . Si A tiene valores propios de ndice 2 o mayor, una frmula similar a (4.29) puede ser obtenida usando (??) y los vectores propios generalizados de A. La situacin es mucho ms complicada y no ser discutida.

4.3

Ecuaciones dinmicas equivalentes

Introducimos en esta seccin el concepto de ecuaciones dinmicas equivalentes. Este concepto en el caso invariante en el tiempo es idntico al del cambio de base introducido en la Figura. Por consiguiente, estudiamos primero el caso invariante en el tiempo y despus el caso variante en el tiempo.

4.3.1

Caso invariante en el tiempo


FE : x = Ax + Bu y = Cx + Eu

Considere la ecuacin dinmica (ja) invariante en el tiempo lineal (4.31)

donde A, B, C y E son, matrices constantes reales de dimensiones n n, n p, q n y q p, respectivamente; u es el vector entrada de dimensin p 1, y es el vector salida de dimensin

4.3. ECUACIONES DINMICAS EQUIVALENTES

85

q 1, y x es el vector de estado de dimensin n 1. El espacio de estado de la ecuacin dinmica es un espacio vectorial real n-dimensional y l a matriz A mapea en si misma. Hemos acordado en la Seccin para escoger los vectores ortonormales {n1 , n2 , . . . , nn } como los vectores base del espacio de estado , donde ni es un vector de dimensin n 1 con un 1 en el isimo componente y cero en otra parte. Estudiamos ahora el efecto de cambiar la base del espacio de estado. Las ecuaciones dinmicas que resultan de cambiar la base del espacio de estado son llamadas las ecuaciones dinmicas equivalentes. A n de permitir una clase ms grande de ecuaciones dinmicas equivalentes, extenderemos en esta seccin el campo de los nmeros reales al campo de los nmeros complejos y consideraremos el espacio de estado como un espacio vectorial complejo n-dimensional. Esta generalizacin es necesaria a n que la ecuacin dinmica FE tenga una ecuacin dinmica equivalente en forma de Jordan.

Denicin 4.3 Sea P una matriz no singular de dimensin n n con coecientes constantes en el campo de los nmeros complejos C, y sea x = Px. Entonces la ecuacin dinmica I
FE : x x = A + Bu x y = C + Eu
(4.32)

donde

A = PAP1 B = PB C = CP1 E = E

(4.33)

se dice que es equivalente a la ecuacin dinmica FE en (4.31), y P se dice que es una transformacin equivalente. 2

La ecuacin dinmica F E en (4.32) es obtenida de (4.31) por la sustitucin de x = Px. En esta substitucin hemos cambiado los vectores base del espacio de estado de los vectores ortonormales a las columnas de P1 (ver Figura ). Observe que las matrices A y A 1 = son similares; son representaciones diferentes del mismo operador. Si tenemos Q = P [q1 q2 qn ], entonces la isima columna de A es la representacin de Aqi con respecto a la = PB o B = P1 B = [q1 q2 qn ]B, vemos que la base {q1 , q2 , . . . qn } De la ecuacin B isima columna de B es la representacin de la isima columna de B con respecto a la base {q1 , q2 , . . . qn }. La matriz C es calculada de CP1 . La matriz E es la transmisin directa entre la entrada y la salida. Dado que no tiene nada relacionado con el espacio de estado, no es afectado por ninguna transformacin equivalente. Exploramos ahora el signicado fsico de las ecuaciones dinmicas equivalentes. Recordemos que el estado de un sistema es una cantidad auxiliar introducida para dar una relacin nica entre la entrada y la salida cuando el sistema no est inicialmente en reposo. La eleccin del estado no es nica; mtodos diferentes de anlisis frecuentemente llevan a diferentes elecciones del estado.

inductancia x1 y el voltaje en el condensador x2 son escogidos como las variables de estado,

Ejemplo 4.4 Considere la red mostrada en la Figura. Si la corriente pasa a travs de la

86

CAPTULO 4. ECUACIONES DINMICAS LINEALES Y MATRICES DE RESPUESTA AL IMPULSO

entonces la descripcin en ecuacin dinmica de la red es

x1 x2

0 1 1 1 0 1 x1 x2

x1 x2

1 0

u
(4.34)

y =

Si, en cambio, los lazos de corriente x1 y x2 son escogidos como las variables de estado, entonces la ecuacin dinmica es

x1 x2

1 1 1 0 1 1

x1 x2 x1 x2

1 1

u
(4.35)

y =

Las ecuaciones dinmicas (4.34) y (4.35) tienen la misma dimensin y describen el mismo sistema. Por lo tanto son equivalentes. La transformacin de equivalencia entre esas dos ecuaciones puede ser encontrada de la Figura . Es claro que x1 = x1 . Dado que x2 es igual al voltaje que cruza la resistencia de 1-ohm, tenemos x2 = (1 x2 ). As x

x1 x2
o

1 0 1 1 x1 x2

x1 x2 1 0 1 1
1

x1 x2

1 0 1 1

x1 x2

(4.36)

Es fcil vericar que las ecuaciones dinmicas en (4.34) y (4.35) estn efectivamente relacionadas por la transformacin de equivalencia (4.36).

Denicin 4.4 Dos ecuaciones dinmicas lineales se dice que son equivalentes de estado

cero si y slo si tienen la misma matriz respuesta al impulso o la misma matriz funcin de transferencia. Dos ecuaciones dinmicas lineales se dice que son equivalentes de entrada cero si y slo si para cualquier estado inicial en una ecuacin, existe un estado en la otra ecuacin, y visceversa, tal que las salidas de las dos ecuaciones debidas a la entrada cero son idnticas. 2
Note que esta denicin es aplicable a ecuaciones dinmicas invariantes en el tiempo como a ecuaciones dinmicas variantes en el tiempo.

Teorema 4.5 Dos ecuaciones dinmicas invariantes en el tiempo lineales son equivalentes de estado cero y de entrada cero.

4.3. ECUACIONES DINMICAS EQUIVALENTES

87

Prueba:

La matriz respuesta al impulso de FE es

G(t) = CeAt B + E(t) La matriz respuesta al impulso de FE es G(t) = CeAt B + E(t)


1 1 Si las ecuaciones FE y FE son equivalentes, tenemos A = PAP , B = PB, C = CP , y E = E. Consecuentemente tenemos

eAt = PeAt P1
y

CeAt E(t) = CP1 PeAt P1 PB + E(t) = CeAt B + E(t)

Por lo tanto, dos ecuaciones lineales equivalentes son equivalentes de estado cero. La respuesta de entrada cero de FE es

y(t) = CeA(tt0 ) x(t0 ) La respuesta de entrada cero de F E es y(t) = CeA(tt0 ) x(t0 ) = CeA(tt0 ) P1 x(t0 ) Por lo tanto, para cualquier x(t0 ), si escogemos x(t0 ) = Px(t0 ), entonces FE y F E tiene la misma respuesta de estado cero.
Notamos que aunque la equivalencia implica equivalencia de estado cero y equivalencia de entrada cero, lo inverso no es cierto. Esto es, dos ecuaciones dinmicas lineales pueden ser equivalentes de estado cero y equivalentes de entrada cero sin ser equivalentes. Adems, dos ecuaciones lineales pueden ser equivalentes de estado cero si ser equivalentes de entrada cero.

es cero, las dos redes tienen el mismo par entrada-salida; sus respuestas al impulso son todas iguales a (t), la funcin de Dirac. Por consiguiente, son equivalentes de estado cero, o ms precisamente, sus descripciones en ecuacin dinmica son equivalentes de estado cero. Debido a la simetra de la red, para cualquier voltaje inicial en el condensador, la salidas de estas dos redes debidas a u = 0 son todas idnticamente iguales a cero. Por consiguiente, son equivalentes de estado cero. Una condicin necesaria para que dos ecuaciones dinmicas sean equivalentes es que tengan la misma dimensin. La descripcin en ecuacin dinmica de la red en la Figura . tiene dimensin 0; la descripcin en ecuacin dinmica de la red en la Figura tiene dimensin !. Por lo tanto, no son equivalentes.

Ejemplo 4.5 Considere las dos redes mostradas en . Si el estado inicial en el condensador

88

CAPTULO 4. ECUACIONES DINMICAS LINEALES Y MATRICES DE RESPUESTA AL IMPULSO

Ejemplo 4.6 Las dos redes en la Figura o, ms precisamente, sus descripciones en ecuacin

dinmica son equivalentes de estado cero pero no equivalentes de entrada cero. Por supuesto, si hay una condicin inicial no cero en el condensador, la respuesta de entrada cero de la Figura es no cero, mientras que la respuesta de entrada de la Figura es idnticamente cero. Si la matriz A en una ecuacin dinmica est en forma de Jordan, entonces la ecuacin se dice que es una ecuacin dinmica en forma de Jordan. Hemos mostrado en la Seccin (??) que cada operador que mapea (Cn ,C) en si mismo tiene una representacin matricial en forma I I de Jordan. Por consiguiente, cada ecuacin dinmica lineal invariante en el tiempo tiene una ecuacin dinmica lineal en forma de Jordan equivalente.

Ejemplo 4.7 Considere la ecuacin dinmica

1 1 2 1 0 x1 x1 2 F E : x2 = 0 1 3 x2 + 3 x3 0 0 2 x3 1 2 y1 y2 = 1 0 0 1 2 2 x1 x2 x3

u1 u2
(4.37)

Es fcil vericar que si escogemos

P = Q1

1 1 0 5 1 0 5 = 0 1 3 = 0 1 3 0 0 1 0 0 1

entonces la nueva matriz A estar en la forma de Jordan. El mtodo para encontrar la matriz P fue discutido en la Seccin . Si sustituimos x = Px en (4.37), obtenemos inmediatamente la siguiente ecuacin dinmica en forma de Jordan equivalente: x1 1 1 0 x1 6 10 u1 x2 = 0 1 0 x2 + 6 8 u2 x3 0 0 2 x3 1 2

y1 y2 = 1 0 5 1 2 13

x1 x2 x3

Daremos a continuacin un importante teorema para concluir esta subseccin.

Teorema 4.6 Dos ecuaciones dinmicas lineales invariantes en el tiempo {A, B, C, E} y


i CAi B = CA B

{A, B, C, E}, no necesariamente de la misma dimensin, son equivalentes de estado cero o tienen la misma matriz funcin de transferencia si y slo si E = E y i = 0, 1, 2, . . .

4.3. ECUACIONES DINMICAS EQUIVALENTES

89

Prueba:

Son equivalentes de estado cero si y slo si

E + C(sI A)1 B = E + C(sI A)1 B


Esto puede ser escrito como, usando (??)

2 E + CBs1 + CABs2 + CA2 Bs3 + = E + CBs1 + CABs2 + CA Bs3 + Esta igualdad se cumple para toda s si y slo si E = E y i CAi B = CA B
Esto establece el teorema.

i = 0, 1, 2, . . .

4.3.2

Caso variante en el tiempo

En esta subseccin estudiamos ecuaciones dinmicas lineales variantes en el tiempo equivalentes. Esto es una extensin del caso invariante en el tiempo. Toda la discusin e interpretacin es que los vectores base en el caso invariante en el tiempo estn jos (independientes del tiempo), mientras que los vectores base en el caso variante en el tiempo podran cambiar con el tiempo. Consideremos una ecuacin dinmica lineal variante en el tiempo

E : x = A(t)x + B(t)u y = C(t)x + E(t)u

(4.38)

donde A, B, C y E son matrices de dimensin n n, n p, q n y q p. cyas entradas son funciones continuas de t.

Denicin 4.5 Sea P() una matriz de dimensin nn denida sobre (, ). Se considera

que P y P(t) son no singulares y continuas para toda t. Sea x = P(t)x. Entonces la ecuacin dinmica x E : x = A(t) + B(t)u (4.39) x y = C(t) + E(t)u A(t) B(t) C(t) E(t) = = = = (P(t)A(t) + P(t))P1 (t) P(t)B(t) C(t)P1 (t) E(t)

donde

(4.40)

se dice que es equivalente a la ecuacin dinmica E en (4.38) y P() se dice que es una transformacin equivalente. 2

90

CAPTULO 4. ECUACIONES DINMICAS LINEALES Y MATRICES DE RESPUESTA AL IMPULSO

La ecuacin dinmica E en la Ecuacin (4.39) es obtenida de (4.38) por la sustitucin de x = P(t)x y x = P(t)x + P(t)x. Sea una matriz fundamental de E . Entonces armamos que (t) = P(t) (4.41) es una matriz fundamental de E . La matriz es, por denicin, una matriz fundamental de E ; por lo tanto (t) = A(t)(t), y es no singular para toda t. Consecuentemente, la matriz P(t) es no singular para toda t. Ahora mostramos que P(t)(t) satisface la ecuacin matricial x = A(t). Por supuesto, x d (P(t)(t)) = P(t)(t) + P(t) dt = (P(t) + P(t)A(t))P1 (t)P(t)(t) = A(t)(P(t)(t)) Por lo tanto, P(t)(t) es una matriz fundamental de x = A. x

Teorema 4.7 Sea A0 una matriz constante arbitraria. Entonces la ecuacin dinmica en (4.38) es equivalente a la de (4.39) con A(t) = A0 . Prueba:
Sea (t) una matriz fundamental de x = A(t)x. Esto es, (t) es no singular para 1 toda t y satisface (t) = A(t)(t). La diferenciacin de 1 (t)(t) = I lleva a (t)(t)+ 1 1 (t)(t) = 0, lo cual implica (t) = 1 (t)(t)1 (t) = 1 (t)A(t). Denimos, en vista de (4.41), P(t) = eA0 t 1 (t) Claramente P(t) es no singular y continuamente diferenciable para toda t y calica como una transformacin de equivalencia. Calculamos

A(t) = (P(t)A(t) + P(t))P1 (t) 1 = (eA0 t 1 (t)A(t) + A0 eA0 t 1 (t) + eA0 t (t))(t)eA0 t = A0
Esto establece el teorema. En este teorema, () y consecuentemente P() no son generalmente conocidos, por lo tanto nada est realmente ganado en esta transformacin. Si A0 es escogido como cero, entonces P(t) = 1 (t) y (4.40) se convierte en

A(t) = 0

B(t) = 1 (t)B(t)

C(t) = C(t)

E(t) = E(t)

(4.42)

Su diagrama de bloques es dibujado en la Figura . A diferencia del mostrado en la Figura, no hay retroalimentacin en la Figura .

Denicin 4.6 Una matriz P() es llamada una transformacin de Lyapunov si (1) P(t) y
P(t) son continuas y acotadas sobre [t0 , ) y (2) existe una constante m tal que 0 < m < | det P(t)|
para toda t 0 (4.43)

4.3. ECUACIONES DINMICAS EQUIVALENTES

91

Dado (4.43) y el acotamiento de P(t), P(t) est acotada. Debido a que P(t) = P1 (t)P(t)P1 (t) y el acotamiento de P(t), P1 (t) est acotado. Consecuentemente, podemos mostrar que si P() es una transformacin de Lyapunov, tambin lo es P1 (). Claramente una matriz constante no singular es una transformacin de Lyapunov. En la Denicin , si P() es una transformacin de Lyapunov, las ecuaciones dinmicas se dice que son equivalentes en el sentido de Lyapunov. Una transformacin de Lyapunov preserva, como ser discutido en el Captulo , las propiedades de estabilidad de una ecuacin dinmica, pero una transformacin equivalente no. Si P() se requiere que sea una transformacin de Lyapunov, el Teorema no se mantiene en general. En otras palabras, no todas las ecuaciones dinmicas variantes en el tiempo pueden ser equivalentes en el sentido de Lyapunov a una ecuacin dinmica con una constante A. Esto es posible para la clase de ecuaciones variantes en el tiempo con A(t) peridicas como ser discutido ms adelante.

4.3.3

Ecuaciones dinmicas variantes en el tiempo con A() peridica


A(t + T ) = A(t)

Considere la ecuacin dinmica lineal variante en el tiempo en (4.38). Supongamos

para toda t y para alguna constante positiva T . Esto signica que cada elemento de A() es una funcin peridica con algn periodo T . Sea (t) una matriz fundamental de x = A(t)x. Entonces (t + T ) es tambin una matriz fundamental de x = A(t)x. Por supuesto tenemos

(t + T ) = A(t + T )(t + T ) = A(t)(t + T )


La funcin matricial (t) es no singular para toda t; consecuentemente, tambin (t + T ). Las columnas de (t) y las columnas de (t + T ) forman dos conjuntos de vectores base en el espacio de soluciones; por lo tanto, existe una matriz constante no singular Q (ver Seccin) tal que (t + T ) = (t)Q (4.44) AT = Q. Por lo tanto Para la matriz Q no singular existe una matriz constante A tal que e podemos escribir (4.44) como (t + T ) = (t)eAT (4.45) Denimos

P(t) = eAt 1 (t) P(t + T ) = eA(t+T ) 1 (t + T ) = eAt eAT eAT 1 (t) = P(t)

(4.46)

Mostramos que P() es una funcin peridica con periodo T :

Teorema 4.8 Consideremos que la matriz A en la ecuacin dinmica E en (4.38) es peridica con periodo T . Est P denida como en (4.46). Entonces la ecuacin dinmica E en (4.46) y la ecuacin dinmica
x E : x = A(t) + P(t)B(t)u(t) y = C(t)P1 (t)(t) + E(t)u(t) x donde A es una matriz constante, son equivalentes en el sentido de Lyapunov.

92

CAPTULO 4. ECUACIONES DINMICAS LINEALES Y MATRICES DE RESPUESTA AL IMPULSO

La matriz P() en (4.46) es peridica y no singular; por lo tanto es acotada. Su derivada es claramente continua y acotada. Por consiguiente, P() es una transformacin de Lyapunov. El resto del teorema sigue directamente del Teorema . La parte homogenea de este teorema es la llamada teora de Floquet. Esta arma que si x = A(t)x y si A(t + T ) = A(t) para toda t, entonces su matriz fundamental es de la forma P1 (t)eAt , donde P1 (t) es una funcin peridica. Adems, x = A(t)x es equivalente en el sentido de Lyapunov a x = A. x

4.4
4.4.1

Matrices respuesta al impulso y ecuaciones dinmicas


Caso variante en el tiempo

En esta seccin vamos a estudiar la relacin entre la matriz respuesta al impulso y la ecuacin dinmica. Sea la descripcin entrada-salida de un sistema con p teminales de entrada y q terminales de salida
t

y(t) =
t0

G(t, )u( )d

(4.47)

donde y es el vector de salida de dimensin q 1, y G es la matriz respuesta al impulso de dimensin q p del sistema. Hemos considerado implcitamente en (4.47) que el sistema est relajado inicialmente en t0 . El ij simo elemento (isima columna, j simo rengln) de G(, ) es la respuesta en la isima terminal de salida debido a una entrada funcin aplicada en el tiempo en la j sima terminal de entrada. Supongamos ahora que la estructura interna del mismo sistema es accesible, y que el anlisis de este sistema lleva a una ecuacin dinmica de la forma E : x(t) = A(t)x(t) + B(t)u(t) (4.48) y(t) = C(t)x(t) + E(t)u(t) donde x es el vector de estado de dimensin n 1 del sistema, y A, B, C y E son matrices de dimensiones n n, n p, q n y q p cuyas entradas son funciones continuas de t denidas sobre (, ). Dado que las ecuaciones (4.47) y (4.48) son dos descripciones diferentes del mismo sistema, deberan dar los mismos pares entrada-salida si el sistema est inicialmente relajado. La solucin de la ecuacin dinmica E con x(t0 ) = 0 est dada por
t

y(t) = C(t)
t t0

(t, )B( )u( )d + E(t)u(t)


(4.49)

=
t0

[C(t)(t, )B( ) + E(t)(t )] u( )d

donde (t, ) es la matriz de transicin de estado de x = A(t)x. Al comparar (4.47) y (4.49), inmediatamente obtenemos

G(t, ) =

C(t)(t, )B( ) + E(t)(t ) 0

para t para t <

(4.50)

Que G(t, ) = 0 para t < es consecuencia de la suposicin de causalidad la cual est implcitamente considerada al escribir (4.47); esto es, la integracin es detenida en t. Si la descripcin en variables de estado de un sistema est disponible, la descripcin entrada-salida puede ser fcilmente obtenida de (4.50). El problema inverso -encontrar la

4.4. MATRICES RESPUESTA AL IMPULSO Y ECUACIONES DINMICAS

93

descripcin en variables de estado de la descripcin entrada-salida de un sistema- es mucho ms complicada. De hecho consiste de dos problemas: (1) Es posible en algn modo obtener la descripcin en variables de estado de la matriz de respuesta al impulso de un sistema? (2) Si s, Cmo podemos obtener la descripcin en variables de estado de la matriz respuesta al impulso? Estudiaremos el primer problema en el resto de esta seccin. El segundo problema ser estudiado en el Captulo. Considere un sistema con la matriz respuesta al impulso G(t, ). Si existe una ecuacin dinmica de dimensin nita E que tenga G(t, ) como su matriz respuesta al impulso, entonces G(t, ) se dice que es realizable. Llamamos a la ecuacin dinmica E , o ms especcamente, a las matrices {A, B, C, E}, una realizacin de G(t, ). La terminologa "realizacin" es justicada por el hecho que al usar la ecuacin dinmica, podemos construir un circuito amplicador operacional que generar G(t, ). Note que el estado de una realizacin en ecuacin dinmica de la matriz respuesta al impulso de un sistema es puramente una variable auxiliar y podra no tener signicado fsico. Note tambin que la realizacin en ecuacin dinmica da slo la misma repuesta de estado cero del sistema. Si la ecuacin dinmica no est en estado cero, su respuesta podra no tener ninguna relacin con el sistema. Si la realizacin de una respuesta al impulso G(t, ) est restringida a ser una ecuacin dinmica lineal de dimensin nita de la forma (4.48), es concebible que no toda G(t, ) sea realizable. Por ejemplo, no existe una ecuacin lineal de la forma (4.48) que generar la respuesta impulso de un sistema de una unidad de retraso o la repuesta al impulso 1/(t ). Damos en lo siguiente la condicin necesaria y suciente para que G(t, ) sea realizable.

Teorema 4.9 Una matriz G(t, ) respuesta al impulso es realizable por una ecuacin dinmica lineal de dimensin nita de la forma (4.48) si y slo si G(t, ) puede ser descompuesta como
G(t, ) = E(t)(t ) + M(t)N( )

para toda t 0

(4.51)

donde E es una matriz de dimensin qp y M y N son matrices continuas de t de dimensiones q n y n p, respectivamente

Prueba:

Supongamos la ecuacin dinmica

E : x = A(t)x + B(t)u y = C(t)x + E(t)u


es una realizacin de G(t, ); entonces

G(t, ) = E(t)(t ) + C(t)(t, )B( ) = E(t)(t ) + C(t)(t)1 ( )B( )


donde es una matriz fundamental de x = A(t)x. La prueba es completada al identicar

M(t) = C(t)(t)
Sea

N(t) = 1 (t)B(t)

G(t, ) = E(t)(t ) + M(t)N( )

94

CAPTULO 4. ECUACIONES DINMICAS LINEALES Y MATRICES DE RESPUESTA AL IMPULSO

donde M y N son matrices continuas de dimensiones q n y n p, respectivamente. Entonces la siguiente ecuacin dinmica n-dimensional

E : x(t) = N(t)u(t) y(t) = M(t)x(t) + E(t)u(t)

(4.52)

es una realizacin de G(t, ). Ciertamente, la matriz de transicin de E es una matriz identidad de dimeensin n n; por consiguiente, G(t, ) = M(t)IN( ) + E(t)(t )

Notamos que la ecuacin dinmica en (4.52) puede ser simulada sin usar retroalimentacin como se mostr en la Figura con B(t) = N(t) y C(t) = M(t).

Ejemplo 4.8 Consideremos g(t, ) = g(t ) = (t )e(t ) . Es fcil vericar que


g(t ) = (t )e(t ) = [et tet ]
Por lo tanto, la ecuacin dinmica

e e

E:

x1 x2

tet et

u(t) x1 x2

y(t) = [et tet ]


es una realizacin de g(t, ).

Todas las ecuaciones dinmicas equivalentes tienen la misma matriz respuesta al impulso; por consiguiente, si encontramos una realizacin de G(t, ), podramos obtener diferentes realizaciones de G(t, ) al aplicar transformaciones equivalentes. Note que una matriz respuesta al impulso podra tener realizaciones de diferente dimensin; por ejemplo, las redes en la Figura son dos realizaciones de diferente dimensin de g(t, ) = (t ). Para ms resultados sobre realizaciones, ver

4.4.2

Caso invariante en el tiempo

Primero aplicaremos el Teorema para el caso invariante en el tiempo y veremos como puede ser establecido. Para el caso invariante en el tiempo, tenemos G(t, ) = G(t ). Consecuentemente, el Teorema puede ser ledo como: Una respuesta al impulso G(t ) es realizable por una ecuacin dinmica de dimensin nita (variante en el tiempo) si y slo si existen matrices M y N continuas tales que

G(t ) = M(t)N( ) + E(t )

para t

4.4. MATRICES RESPUESTA AL IMPULSO Y ECUACIONES DINMICAS

95

Hay dos objeciones para usar este teorema. Primero, la condicin est indicada en trminos de G(t ) en vez de G(t). Segundo, la condicin est dada para que G(t ) sea realizable por una ecuacin dinmica lineal variante en el tiempo. Lo que es ms deseable es tener condiciones sobre G(t) bajo las cuales G(t) tenga una realizacin en ecuacin dinmica lines invariante en el tiempo. Dado que, en el caso invariante en el tiempo, tenemos tambin que estudiar un sistema en el dominio de la frecuencia, primero obtendremos la condicin de realizacin en trminos de la matriz funcin de transferencia, y entonces lo enunciaremos en trminos de G(t). Consideremos un sistema con la descripcin entrada-salida
t

y(t) =
0

G(t )u( )d

o, en el dominio de la frecuencia,

u y(s) = G(s) (s)

(4.53)

donde G() es la matriz respuesta al impulso y G(s) es la matriz funcin de transferencia del sistema. Supongamos ahora que una descripcin del sistema se encuentra que es F E : x = Ax + Bu y = Cx + Eu
Tomando la transformada de Laplace y considerando el estado inicial cero, obtenemos (4.54)

y(s) = [C(sI A)1 B + E] (s) u


Dado que (4.53) y (4.55) describen el mismo sistema, tenemos

(4.55)

G(s) = C(sI A)1 B + E

(4.56)

Como se discuti en (??) y (??), C(sI A)1 B es una matriz racional estrictamente propia, y C(sI A)1 B + E es una matriz racional propia. Por lo tanto, la funcin matriz de transferencia de la ecuacin dinmica en (4.54) es una matriz racional propia.

Teorema 4.10 Una matriz funcin de transferencia G(s) es realizable por una ecuacin dinmica invariante en el tiempo lineal si y slo si G(s) es una matriz racional propia.

Si G(s) es realizable por una ecuacin dinmica invariante en el tiempo lineal, entonces de (4.56), conocemos que G(s) es una matriz racional propia. Antes de probar que cada matriz racional propia G(s) es realizable, primero probamos que cada funcin racional propia escalar (1 1) es realizable. La forma ms general de una funcin racional propia es

Prueba:

g (s) = e +

1 sn1 + + n1 s + n sn + 1 sn1 + + n1 s + n

(4.57)

96

CAPTULO 4. ECUACIONES DINMICAS LINEALES Y MATRICES DE RESPUESTA AL IMPULSO

Armamos quela ecuacin dinmica invariante en el tiempo lineal de dimensin n x1 0 1 0 0 0 x1 0 x2 x2 0 0 0 1 0 0 . . . . . . . . . . . . . . . = + . u . . . . . . . . xn1 xn1 0 0 0 0 0 0 xn n n1 n2 2 1 xn 1

(4.58)

y =

n n1 n2

2 1

x + eu

es una realizacin de g (s). Lo que tenemos que demostrar es que la funcin de transferencia de (4.58) es g (s). Demostraremos esto usando la frmula de Mason para un grafo de ujo de seales. Escojamos x1 , x1 , x2 , x2 , . . . , xn , xn como nodos; entonces el grafo de ujo de seales de (4.58) es de la forma mostrada en la Figura Hay n lazos con ganancia de lazo 1 /s, 2 /s2 , . . . , n /sn ; y excepto la trayectoria de transmisin directa de e, n trayectoria hacia adelante con ganancias 1 /s, 2 /s2 , . . . , n /sn . Dado que las trayectorias hacia adelante y los lazos tienen en comn nodos, tenemos

=1+

n 1 2 + 2 + ... + n s s s

(4.59)

y i = 1, para i = 1, 2, . . . , n. Por lo tanto, la funcin de transferencia de (4.58) de la entrada u y la salida y es

e+

1 /s + 2 /s2 + . . . + n /sn 1 sn1 + . . . + n = g (s) =e+ n 1 + 1 /s + 2 /s2 + . . . + n /sn s + 1 sn1 + + n

Esto prueba la armacin que cada funcin racional propia escalar es realizable. Ahora estamos listos para probar que cada matriz racional propia es realizable. A n de evitar notaciones incmodas, consideramos que G es una matriz de dimensin 2 2. Sea

G(s) =
y sea

g11 (s) g12 (s) g21 (s) g22 (s) yi = cij xij + eij uj

(4.60)

xij = Aij + bij uj

una realizacin de gij , para i, j = 1, 2; que es gij (s) = cij (sI Aij )1 bij + eij . Note que los bij son vectores columna y los cij son vectores rengln. Entonces la ecuacin dinmica compuesta es: b11 0 x11 A11 0 0 0 x11 x12 0 0 x12 0 b12 u1 + = 0 A12 0 x21 0 A21 0 x21 b21 0 u2 0 b22 x22 0 0 0 A22 x22 (4.61) x11 x12 e11 e12 u1 y1 c11 c12 0 0 = x21 + e21 e22 u2 y2 0 0 c21 c22 x22

4.4. MATRICES RESPUESTA AL IMPULSO Y ECUACIONES DINMICAS

97

es una realizacin de G(s). Ciertamente, la matriz funcin de transferencia de (4.61) es As cada matriz racional propia es realizable por una ecuacin dinmica invariante en el tiempo lineal de dimensin nita
El procedimiento de realizacin discutido en (4.60) y (4.61) es simple y directo. Realizamos cada elemento de una matriz funcin de transferencia independientemente y entonces los conectamos de la entra a la salida como es mostrado en la Figura . La realizacin resultante, sin embargo, no es generalmente satisfactoria por las siguientes dos razones: Primero, la relaizacin es internamente desacoplada como puede verse de la Figura . El acoplamiento o interaccin de todas las variables, sin embargo, es una caracterstica de la mayora de los sistemas multivariables. Segundo, la dimensin de la realizacin es generalmente innecesariamente grande. Estos dos problemas sern resueltos en el Captulo. La condicin del Teorema es enunciada en trminos de las matrices funciones de transferencia. Podramos transladarlo al dominio del tiempo como sigue:

lineal invariante en el tiempo de dimensin nita si y slo si cada entrada de G(t) es una combinacin lineal de trminos de la forma tk ei t (para k = 0, 1, 2, . . ., e i = 1, 2, . . . y posiblemente contiene una funcin en t = 0.

Corolario 4.2 Una matriz respuesta al impulso G(t) es realizable por una ecuacin dinmica

La matriz respuesta al impulso G(t) es la transformada de Laplace inversa de la matriz funcin de transferencia G(s). Si una funcin racional propia es de la forma

gij (s) = d +

(s 1

)k1 (s

N (s) 2 )k2

entonces su transformada de Laplace inversa gij (t) es una combinacin lineal de los trminos

(t), e1 t , te1 t , . . . , tk1 1 e1 t ; e2 t , te2 t , . . . , tk2 1 e1 t ; . . .


Por lo tanto, el Corolario viene directamente del Teorema Dado que una G(t) puede ser descompuesta en G(t ) = M(t)N( ) y dado que las entradas de G(t) son combinaciones lineales de tk ei t para k = 0, 1, 2, . . ., e i = 1, 2, . . ., las entradas de M(t) y N(t) deben ser combinaciones lineales de tk ei t . Consecuentemente, las matrices M(t) y N(t) son funciones analticas de t sobre toda la recta real. Como una consecuencia de este hecho, tenemos el siguiente teorema.

Teorema 4.11 Un sistema que tiene una matriz funcin de transferencia racional propia
est relajada en t0 si y slo si u[t0 ,0 +] = 0 implica y[t0 ,0 +] = 0 para algn .

Este es un nuevo planteamiento del Corolario. Por lo tanto, para la clase de sistemas que tiene matrices funcin de transferencia racionales -o equivalentemente, son descriptible por ecuaciones dinmicas invariantes en el tiempo lineales- si la salida es idnticamente cero en un intervalo (no importa que tan pequeo), entonces el sistema est relajado en el n de este intervalo.

98

CAPTULO 4. ECUACIONES DINMICAS LINEALES Y MATRICES DE RESPUESTA AL IMPULSO

4.5

Conclusiones

Las soluciones de ecuaciones dinmicas lineales fueron estudiadas en este captulo. La solucin se vincula con matriz de transicin de estado (t, ) la cual tiene las propiedades (t, t) = I, 1 (t, ) = (, t) y (t, )(, t0 ) = (t, t0 ). Para el caso variante en el tiempo, (t, ) es muy difcil de calcular; para el caso invariante en el tiempo, (t, ) es igual a eA(t ) , la cual puede ser calculada utilizando los mtodos introducidos en la Seccin . En ambos casos, si slo una solucin especca es de inters, podramos evadir (t, ) y calcular la solucin en una computadora digital por integracin directa. Anlisis diferentes frecuentemente llevan a diferentes descripciones en ecuacin dinmica de un sistema. Matemticamente, signica que las ecuaciones dinmicas dependen de la base escogida para el espacio de estados. Sin embargo, la descripcin entrada-salida no tiene nada que ver con la base; no importa que anlisis sea utilizado, simpre lleva a la misma descripcin entrada-salida. Esto es una ventaja de la descripcin entrada-salida sobre la descripcin en variables de estado. Cada funcin racional propia ha sido demostrado que es realizable por una ecuacin dinmica invariante en el tiempo lineal de dimensin nita. Esto corresponde a el problema de sntesis en teora de redes. Una realizacin de una matriz racional propia tambin es construida. Sin embargo, la realizacin no es satisfactoria, dado que generalmente es posible construir una realizacin de menor dimensin. Esto ser discutido en el Captulo despus de la introduccin de controlabilidad y observabilidad. Para concluir este captulo, comentamos brevemente la solucin de las ecuaciones discretas en el tiempo. La matriz transicin de estado (k, m) de x(k + 1) = A(k)x(k) = A(k)A(k 1)x(k 1) = pueden ser fcilmente calculados como (k, m) = A(k 1) A(m). A diferencia del caso continuo, (k, m) es fcilmente calculable. En trminos de (k, m), la solucin de una ecuacin dinmica discreta puede ser obtenida como en el problema. Para el caso invariante en el tiempo, las ecuaciones dinmicas y el problema de realizacin son idnticos al caso continuo. Por ejemplo, una matriz funcin de transferencia muestreada G(z) tiene una realizacin de dimensin nita de la forma (??) si y slo si G(z) es una matriz racional propia en z . El procedimiento de realizacin en el Teorema es tambin directamente aplicable al caso discreto.

Captulo 5

Controlabilidad y observabilidad de ecuaciones dinmicas lineales


5.1 Introduccin
Los anlisis de sistemas generalmente consisten de dos partes: cuantativa y cualitativa. En el estudio cuantitativo estamos interesados en la respuesta exacta del sistema a cierta entrada y condiciones iniciales., como estudiamos en el captulo precedente. En el estudio cualitativo estamos interesados En esta subseccin, estudiamos la controlabilidad de la ecuacin de estado invariante en el tiempo lineal n-dimensional x = Ax + Bu (5.1) donde x es el vector de estado de dimensin n 1, u es el vector de entrada p 1: A y B son matrices reales constantes de dimensin n n y n p, respectivamente. Para las ecuaciones dinmicas invariantes en el tiempo, el intervalo de tiempo de inters es del tiempo presente al innito, esto es [0, ). La condicin para que una ecuacin de estado variante en el tiempo sea controlable en t0 es que exista un t1 nito tal que todas los renglones de (t0 , t)B(t) sean linealmente independientes, en t, en [t0 , t1 ]. En el caso invariante en el tiempo, tenemos (t0 , t)B(t) = eA(t0 t) B. Como se discuti en el Captulo , todos los elementos de eA(t0 t) B son combinaciones lineales de trminos de la forma tk et , por lo tanto son analticos en [0, ). Consecuentemente, si sus renglones son linealmente independientes, ellos son linealmente independientes en [t0 , t1 ] para cualquier t0 y cualquier t1 > t0 . En otras palabras, si una ecuacin de estado invariante en el tiempo lineal es controlable en cada t0 0 y la transferencia de cualquier estado a cualquier otro estado puede ser llevada a cabo en cualquier intervalo de tiempo no cero. Por consiguiente la referencia de t0 y t1 es frecuentemente dejada a un lado en el estudio de controlabilidad de ecuaciones de estado invariantes en el tiempo lineales.

Teorema 5.1 La ecuacin de estado invariante en el tiempo lineal n-dimensional en (5.1) es controlable si y slo si cualquiera de las condiciones siguientes es satisfecha:
1. Todos los renglones de eAt B ( y consecuentemente eAt B) son linealmente independientes en [0, ) sobre C, el campo de los nmeros complejos. I
99

100

CAPTULO 5. CONTROLABILIDAD Y OBSERVABILIDAD DE ECUACIONES DINMICAS LINEALES

2. Todos los renglones de (sI A)1 B son linealmente independientes sobre C. I 3. El gramiano de controlabilidad
t

Wct =

eA BB eA d

es no singular para todo t > 0. 4. La matriz de controlabilidad de dimensin n (np) . . . . U = [B . AB . A2 B . . An1 B] . . . . tiene rango n. 5. Para cada valor propio de A (y por consiguiente para cada en C), la matriz compleja I . .B] de dimensin n (n + p) tiene rango n. [I A.
(5.2)

Prueba:

La equivalencia de los

desarrollada en (). Por conveniencia, suponemos 2mg/(2M +m) = 1, 2g(M +m)/(2M +m)l = 5, 2/(2M + m) = 1 y 1/(2M + m)l = 2. Entonces la ecuacin () se hace

Ejemplo 5.1 Considere el pndulo invertido estudiado en la gura. Su ecuacin dinmica es


1 0 0 0 1 0 1 0 x + 0 0 0 1 0 5 0 2 u y= 1 0 0 0 x
(5.3)

0 0 x= 0 0
Calculamos

0 1 0 2 1 0 2 0 U = [B AB A2 B A3 B] = 0 2 0 10 2 0 10 0

Puede mostrarse fcilmente que esta matriz tiene rango 4. Por lo tanto () es controlable. As, si x3 = es diferente de cero por una cantidad pequea, puede encontrarse un control u para llevarlo a cero. De hecho, existe un control para llevar x1 = y , x3 = 0, y sus derivadas a cero. Esto es seguramente consistente con nuestra experiencia de balancear un escoba en nuestra mano.

Ejemplo 5.2 Considere la plataforma mostrada en la Figura. Se supone que la masa de la

plataforma es cero y que la fuerza est dividida de igual manera entre los dos resortes del

5.1. INTRODUCCIN

101

sistema. Las constantes de los resortes se consideran 1 y los coecientes de friccin viscosa se supone que son 2 y 1 como est mostrado. Entonces tenemos x1 + 2x1 = u y x2 + x2 = u, o

x1 x2

0.5 0 0 1

x1 x2

0.5 1

(5.4)

Esta es la descripcin en variables de estado del sistema. Ahora si los desplazamientos iniciales x1 (0) y x2 (0) son diferentes de cero, la platoaforma oscilar y tomar, tericamente, un tiempo innito para que la plataforma llegue al reposo. Ahora exponemos el siguiente problema: Si x1 (0) = 10 y x2 (0) = 1, ?' Es posible aplicar una fuerza para llevar la plataforma al reposo en 2 segundos? La respuesta no parece ser obvia porau la misma fuerza es aplicada para los dos sistemas de resorte. Para la ecuacin de estado en (), calculamos . [B . AB] = .

0.5 0.25 1 1

=2

por lo tanto la ecuacin de estado es controlable. Consecuentemente, los desplazamientos pueden ser llevados a cero en dos segundos aplicando una entrada apropiada u. Utilizando las Ecuaciones () y (), tenemos
2

W(0, 2) =
0

e0.5 0

0 e e0.5 0

0.5 1 0 e

0.5 1

e0.5 0 10 1

0 e

d =

1.6 6.33 6.33 27

u1 (t) = [0.5 1]

W1 (0, 2)

= 44.1e0.5t + 20et

para t en [0, 2]. Si la fuerza de la forma u1 es aplicada, la plataforma llegar al reposo en t = 2. El comportamiento de x1 , x2 y de la entrada u son gracados usando lneas slidas en la Figura. En la Figura tambin gracamos utilizando lineas punteadas la entrada u2 que transere x1 (0) = 10 y x2 (0) = 1 a cero en 4 segundos. Vemos de las Figura que, al transferir x(0) a cero, entre ms pequeo es el intervalo de tiempo ms grande es la magnitud de la entrada. Si ninguna restriccin es impuesta sobre la entrada u, entonces podemos transferir x(0) a cero en un intervalo de tiempo arbitrariamente pequeo; sin embargo, la magnitud de la entrada podra hacerse muy grande. Si alguna restriccin sobre la magnitud de u es impuesta, podramos no ser capaces de tranferir x(0) a cero en un intervalo de tiempo arbitrariamente pequeo. Por ejemplo, si requerimos |u(t)| 5 en el ejemplo , entonces podra no ser posible transferir x(0) a cero en menos de 4 segundos.

Ejemplo 5.3 Considere nuevamente el sistema de plataforma mostrado en la Figura. Ahora

se supone que el coeciente de friccin viscosa y la constante del resorte son ambos iguales a 1. Entonces la descripcin en variables de estado del sistema es

x1 x2

1 0 0 1

x+

1 1

(5.5)

102

CAPTULO 5. CONTROLABILIDAD Y OBSERVABILIDAD DE ECUACIONES DINMICAS LINEALES

Claramente tenemos

U =

1 1 1 1

=1<2

y la ecuacin de estado no es controlable. Si x1 (0) = x2 (0), es posible encontrar una entrada para transferir x(0) al estado cero en un tiempo nito. Sin embargo, si x1 (0) = x2 (0), ninguna entrada puede transferir ambos x1 (0) y x2 (0) a cero en un tiempo nito. Sean A y B dos matrices constantes de dimensiones n n y n p. Denimos . . . Uk = [B . AB . . Ak B] . . .

k = 0, 1, 2, . . .

(5.6)

Este consiste de k + 1 columnas de bloques de la forma AB y es de orden n (k + 1)p. La matriz U = Un1 es la matriz de controlabilidad. Si {A, B} es controlable, entonces Un1 tiene un rango de n y consecuentemente tiene n columnas linealmente independientes. Note que hay un total de np columnas en Un1 ; por lo tanto hay muchas posibles maneras de escoger esas n columnas linealmente independientes. Discutimos en lo que sigue la manera ms natural y tambin ms importante de escoger esas columnas. Sea bi , i = 1, 2, . . . , p, la isima columna de B. Entonces la matriz Uk puede ser escrita como . . . . Uk = [b1 b2 bp . Ab1 Ab2 Abp . A2 b1 A2 b2 A2 bp . . Ak b1 Ak b2 Ak bp ] (5.7) . . . . Ahora buscamos columnas linealmente independientes de Uk en orden de izquierda a derecha; esto es, si una columna puede ser escrita como una combinacin lineal de sus columnas del lado izquierdo, la columna es linealmente dependiente, de otra manera, es linealmente independiente. Este proceso de bsqueda puede ser llevado a cabo usando, por ejemplo, el algoritmo de bsqueda de columnas discutido en . Sea ri el nmero de columnas dependientes en Ai B, para i = 0, 1, 2, . . . , k . Si B tiene rango pleno en columnas, entonces r0 = 0. Notamos que si una columna, digamos Ab2 es linealmente dependiente de sus columnas del lado izquierdo, entonces todas los Aj b2 , con j = 2, 3, . . ., sern linealmente dependientes de sus columnas a la izquierda. Ciertamente, si

Ab2 = 1 b1 + 2 b2 + . . . p bp + p+1 Ab1 A2 b2 = 1 Ab1 + 2 Ab2 + . . . p Abp + p+1 A2 b1


Vemos que A2 b2 es una combinacin lineal de sus columnas del lado izquierdo. Procediendo igualmente, podemos mostrar que Aj b2 , para j = 2, 3, . . ., son linealmente dependientes de sus columnas del lado izquierdo. Por esta propiedad, tenemos,

0 r1 r2 p
Dado que hay a lo sumo n columnas linealmente independientes en U , existe un entero tal que

0 r0 r1 r1 p r = r+1 = = p

(5.8) (5.9)

5.1. INTRODUCCIN

103

Equivalentemente, es el entero tal que

U0 < U1 < U1 = U = U+1 =

(5.10)

En otras palabras, el rango de Uk se incrementa montonamente hasta que k alcanza 1; en lo sucesivo, todasl las columnas p de Aj B sern linealmente dependientes de sus columnas del lado izquierdo. Por lo tanto la controlabilidad de {A, B} puede ser vericada de U1 y es llamado el ndice de controlabilidad. Aseveramos que el ndice de controlabilidad satisface las desigualdades n min ( , p + 1) n (5.11) p donde n es el grado del polinomio mnimo de A y p es el rango de B. De la denicin de polinomio mnimo, tenemos
An = 1 An1 + 2 An2 + + n I

para algunas i , lo cual implica


An B = 1 An1 B + 2 An2 B + + n B Por lo tanto, todas las columnas de An B son linealmente dependientes de sus columnas del lado izquierdo. Consiguientemente, tenemos n. De (),vemos que el rango de Uk puede incrementarse al menos uno cuando k se incrementa por 1; de otra manera, cesar de incrementarse. Dado que el rango de U es a lo mucho n, si el rango de B es p, es suciente agregar cuando mucho n p nmero de Aj B. Por lo tanto concluimos de () que 1 n p o n p + 1. La combinacin de n y n p + 1 lleva a los lmites superiores en (). A n de tener rango n, la matriz U1 debe tener ms columnas que renglones. Por lo tanto, necesitamos p n o n/p. Esto establece los lmites inferiores de (). El grado n del polinomio mnimo de A no es fcil de calcular; por lo tanto min ( , n p + 1) en () es frecuentemente reemplazado por n p + 1 De () y del Teorema (), n tenemos inmediatamente el siguiente corolario.

Corolario 5.1 La ecuacin de estado F E es controlable si y slo si la matriz de dimensin


n (n p + 1)p
p Un = [B AB AnB] p

donde p es el rango de B, tiene rango n o la matriz de dimensin n n UnU p es no p n singular.

Ejemplo 5.4 Considere el sistema satelital estudiado en la Figura . Su ecuacin dinmica

linalizada es desarrollada en (). Como podemos ver de las lneas punteadas en () el control de xi , i = 1, 2, 3, 4, por u1 y u2 y el control de x5 y x6 por u3 son enteramente independientes; por lo tanto, podramos considerar slo la siguiente subecuacin de ():

104

CAPTULO 5. CONTROLABILIDAD Y OBSERVABILIDAD DE ECUACIONES DINMICAS LINEALES

0 1 3 0 x = 0 0 0 2 y =

0 0 0 0

0 2 x + 1 0 x

0 1 0 0

0 0 u 0 1

(5.12)

1 0 0 0 0 0 1 0

donde suponemos , por simplicidad, = m = r0 = 1 y eliminamos las barras. El rango de B es 2; por lo tanto, la ecuacin de estado es controlable si y slo si la matriz 0 0 1 0 0 2 1 0 . . 0 2 1 0 [B . AB . A2 B] = . . 0 0 0 1 2 0 0 1 2 0 0 4 tiene rango 4. Este es el caso; por lo tanto, la ecuacin de estado () es controlable. Para este problema, podemos fcilmente mostrar

U0 = 2 < U1 = 4 = U2 = U3 =
por lo tanto, el ndice de controlabilidad de () es 2. Estudiamos ms la matriz de controlabilidad U. Consideramos que las columnas linealmente independientes de U en orden de izquierda a derecha tienen que ser encontradas. Ahora reordenamos esas columnas independientes como

b1 , Ab1 , . . . , A1 1 b2 , b2 , Ab2 , . . . , A2 1 b2 , . . . , bp , Abp , . . . , Ap 1 bp


El entero i es el nmero de columnas linealmente independientes asociadas con bi en el conjunto, o es la longitud de la cadena asociada con bi . Claramente tenemos

= max {1 , 2 , . . . , p }
y 1 + 2 + + p n. La identidad se mantiene si {A, B} es controlable. El conjunto {1 , 2 , . . . , p } ser llamado los ndices de controlabilidad de A, B. Ahora estableceremos la relacin entre los ndices de controlabilidad y las ri 's denidas en (). A n de visualizar la relacin, usamos un ejemplo. Consideramos p = 4, 1 = 3, 2 = 1, 3 = 5 y 4 = 3. Esas columnas independientes son reordenadas en una tabla como se muestra en la Figura. La (i, j)sima celda representa la columna Ai1 bj . Una columna que es linealmente independientede sus columnas del lado izquierdo en () es denotada por x, de otra manera es denotado por 0. La bsqueda de columnas linealmente independientes en () de izquierda a derecha es equivalente a buscar de izquierda a derecha en cada rengln y entonces el siguiente rengln en la Figura. Por lo tanto, el nmero de ceros en la isimo regnln de la Figura es igual a ri1 como mostrado. De la table, podemos deducir que ri

5.2. OBSERVABILIDAD DE ECUACIONES DINMICAS LINEALES

105

es igual al nmero de n{bk , k = 1, 2, . . . , p} con ndices de controlabilidad iguales a o ms pequeos que i. Por consiguiente, concluimos que

ri ri1 = no. de {bk , k = 1, 2, . . . , p} con ndice de controlabilidad i


con r1 = 0. Por ejemplo, r1 r0 = 1 y b2 tiene ndice de controlabilidad 1;

(5.13)

5.2 5.3

Observabilidad de ecuaciones dinmicas lineales Descomposicin cannica de una ecuacin dinmica invariante en el tiempo

Teorema 5.2 Considere la ecuacin dinmica invariante en el tiempo lineal de dimensin n F E . Si la matriz de controlabilidad de F E tiene rango n1 (donde n1 < n), entonces existe una transformacin equivalente x = Px, donde P es una matriz constante no singular, la cual transforma F E en
FE : xc x c = y= Ac A12 c 0 A c Cc C xc x c xc x c + + Eu Bc 0 u
(5.14a) (5.14b)

y la subecuacin de dimensin n1 de F E F Ec : xc = Ac xc + Bc u y = Cc xc + Eu
(5.15a) (5.15b)

es controlable y tiene la misma matriz funcin de transferencia de F E .

Teorema 5.3 Considere la ecuacin dinmica invariante en el tiempo lineal de dimensin n

F E . Si la matriz de observabilidad de F E tiene rango n2 (donde n2 < n), entonces existe una transformacin equivalente x = Px, donde P es una matriz constante no singular, la cual transforma F E en FE : xo x o = y= Ao 0 21 A o A Co 0 xo x o xo x o + Bo Bo u
(5.16a) (5.16b)

+ Eu

y la subecuacin de dimensin n1 de F E F Ec : xo = Ao xo + Bo u y = Co xo + Eu
(5.17a) (5.17b)

es observable y tiene la misma matriz funcin de transferencia de F E .

106

CAPTULO 5. CONTROLABILIDAD Y OBSERVABILIDAD DE ECUACIONES DINMICAS LINEALES

Este teorema puede ser obtenido fcilmente al usar los Teoremas

Teorema 5.4 Considere la ecuacin dinmica invariante en el tiempo lineal


x = Ax + Bu y = Cx + Eu
(5.18)

5.4

Controlabilidad y observabilidad de ecuaciones dinmicas en forma de Jordan

La controlabilidad y observabilidad de una ecuacin dinmica invariante en el tiempo lineal son invariantes bajo cualquier transformacin equivalente; por lo tanto es concebible que podamos obtener un criterio de controlabilidad y observabilidad ms simple al transformar la ecuacin en una forma especial. De hecho, si una ecuacin dinmica est en una forma de Jordan, las condiciones son muy simples y puede ser vericadas casi por inspeccin. En esta seccin, obtenemos esas condicones. Consider la ecuacin dinmica en forma de Jordan invariante en el tiempo lineal n dimensional

JF E :

x = Ax + Bu y = Cx + Eu

(5.19a) (5.19b)

donde las matrices A, B y C se consideran de las formas mostradas en la Tabla ??. La matriz A de dimensin n n est en forma de Jordan, con m valores propios distintos 1 , 2 , . . . , m . Ai denota todos los bloques de Jordan asociados con el valor propio i ; r(i) es el nmero de bloques de Jordan en Ai ; y Aij es el j simo bloque de Jordan en Ai . Claramente,

Ai = diag (Ai1 , Ai2 , . . . Air(i) ) y A = diag (A1 , A2 , . . . Am )


Sean ni y nij el orden de Ai y Aij , respectivamente; entonces
m m r(i)

n=
i=1

ni =
i=1 j=1

nij

Correspondiendo a Ai y Aij , las matrices B y C estn particionadas como se muestra. El primer rengln y el ltimo rengln de Bij estn denotados por b1ij y blij , respectivamente. La primera columna y la ltima columna de Cij estn denotadas por c1ij y clij .

dimesional JF E es controlable si y slo si para cada i = 1, 2, . . . , m, los renglones de la matriz de dimensin r(i) p bli1 bli2 (5.20a) Bl = . i . .
blir(i)

Teorema 5.5 La ecuacin dinmica en forma de Jordan invariante en el tiempo lineal n

5.4. CONTROLABILIDAD Y OBSERVABILIDAD DE ECUACIONES DINMICAS EN FORMA DE JORDAN

107

son linealmente independiente (sobre el campo de los nmeros complejos). JF E es observable si y slo si para cada i = 1, 2, . . . , m, las columnas de la matriz de dimensin q r(i)
C1 = i c1i1 c1i2 c1ir(i)
(5.20b)

son linealmente independientes (sobre el campo de los nmeros complejos).

Ejemplo 5.5 Considere la ecuacin dinmica en forma de Jordan


x= y= 1 1 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 2 1 0 0 0 0 0 2 0 0 0 0 0 0 1 1 2 0 0 2 0 1 0 1 2 0 1 1 x 1 0 2 3 0 2 2 0 0 0 0 0 1 2 x + 0 1 0 0 1 0 0 0 0 1 0 1 1 0 0 0 0 1 2 0 1 u

JF E :

(5.21a)

(5.21b)

La matriz A tiene dos valores propios distintos 1 y 2 . Hay tres bloques de Jordan asociados con 1 ; por lo tanto r(1) = 3. Existe slo un bloque de Jordan asociado con 2 ; por consiguiente r(2) = 1. Las condiciones para que JF E sea controlable son que el conjunto {bl11 , bl12 , bl13 } y el conjunto {bl21 } sean, individualmente, linealmente independientes. Este es el caso; por lo tanto JF E es controlable. Las condiciones para que JF E sea observable son que el conjunto {c111 , c112 , cl13 } y el conjunto {c121 } sean, individualmente, linealmente independientes. Aunque el conjunto {c111 , b112 , c113 } es linealmente independiente, el conjunto {c121 } el cual consiste de un vector cero, es linealmente dependiente. Por lo tanto JF E es no observable. Las condiciones para controlabilidad y observabilidad en el Teorema 5.5 requieren que cada uno de los m conjuntos de vectores sea examinado individualmente para independencia lineal. La dependencia lineal de un conjunto sobre otro conjunto es intrascendente. Mas un, los vectores de renglones de B excluyendo los blij 's no juegan ningn rol al determiar la controlabilidad de la ecuacin. El signicado fsico de las condiciones del Teorema 5.5 pueden ser visto del diagrama de bloques de la ecuacin dinmica en forma de Jordan JF E . En vez de estudiar el caso general, dibujamos en la Figura ?? un diagrama de bloques para la ecuacin dinmica en forma de Jordan en (5.21). Observe que cada bloque consiste de un integrador y una trayectoria de retroalientacin, como es mostrado en la Figura ??. La salida de cada bloque, o ms precisamente la salida de cada integrador, est asignada como una variable de estado. Cada cadena de bloques corresponde a un bloque de Jordan en la ecuacin. Considere la ltima cadena de la Figura ??. Vemos que si bl21 = 0, entonces todos las variables de estado en esta cadena pueden ser controladas.; si c121 = 0, entonces todas las variables de estado en

108

CAPTULO 5. CONTROLABILIDAD Y OBSERVABILIDAD DE ECUACIONES DINMICAS LINEALES

esa cadena pueden ser observadas. Si existen dos o mas cadenas asociadas con el mismo valor propio, entonces requerimos la independencia lineal del primer vector de ganancias de esas cadenas. Las cadenas asociadas con valores propios diferentes pueden ser estudiadas de manera separada. Prueba: statement Usamos la armacin 4 del Teorema ?? para probar el teorema. A n . de no ser agobiado por la notacin, asumimos que [sI B.B] sea de la forma .

s 1 1 0 0 s 1 1 0 0 s 1 s 1 1 s 1 s 2 1 s 2

b111 b211 bl11 b112 bl12 b121 bl21

(5.22)

La matriz A tiene dos valores propios distintos 1 y 2 . Hay dos bloques de Jordan asociados con 1 , uno asociado con 2 . Si s = 1 , (5.22) se convierte en 0 1 0 b111 0 0 1 b211 0 0 0 bl11 0 1 b112 (5.23) 0 0 bl12 1 2 1 b121

1 2

bl21
matriz en (5.23) puede

Mediante una secuencia de operaciones elementales de columnas, la ser transformada en 0 1 0 0 0 0 1 0 0 0 0 bl11 0 1 0 0 0 bl12 1 2 0 0 1 2 0

(5.24)

Note que 1 2 es diferente de cero. La matriz en (5.24), o equivalentemente, la matriz en (5.22) en s = 1 , tiene un rango pleno de renglones si y slo si bl11 y bl12 son linealmente independientes. Al proceder de manera similar para cada valor propio distinto, el teorema puede ser establecido. Observe que para que los renglones de una matriz Bl de dimensin r(i)p sean linealmente i independientes, es necesario que r(i) p. Por lo tanto en el caso monoentrada, esto es, p = 1, es necesario tener r(i) = 1 a n de que los renglones de Bl sean linealmente independientes. i En palabras, una condicin necesaria para que una ecuacin dinmica en forma de Jordan

5.4. CONTROLABILIDAD Y OBSERVABILIDAD DE ECUACIONES DINMICAS EN FORMA DE JORDAN

109

monoentrada sea controlable es que existe slo un bloque de Jordan asociado con cada valor propio distinto. Para p = 1, la matriz Bl se reduce a un vector. De este modo tenemos el i corolario siguiente.

monoentrada es controlable si y slo si existe slo un bloque de Jordan asociado con cada uno de los valores propios distintos y todos los componentes del vector columna B que corresponde al ltimo rengln de cada bloque de Jordan son diferentes de cero. Una ecuacin dinmica en forma de Jordan invariante en el tiempo lineal monoentrada es observable si y slo si existe slo un bloque de Jordan asociado con cada uno de los valores propios distintos y todos los componentes del vector rengln C que corresponde al ltimo rengln de cada bloque de Jordan son diferentes de cero.

Corolario 5.2 Una ecuacin dinmica en forma de Jordan invariante en el tiempo lineal

Ejemplo 5.6 Considere la ecuacin dinmica en forma de Jordan monovariable


0 0 x= 0 0 1 0 0 0 0 1 0 0 0 0 x + 0 1 10 9 u 0 1 y= 1 0 0 1 x

Hay dos valores propios distintos 0 y 1. El componente de B el cual corresponde al ltimo rengln del bloque de Jordan asociado con el valor propio 0 es cero; por consecuencia, la ecuacin en no controlable. Los dos componentes de C correspondiendo a la primera columna de ambos bloques de Jordan son diferentes de cero; por lo tanto, la ecuacin es observable.

Ejemplo 5.7 Considere las siguientes ecuaciones de estado en forma de Jordan


x1 x2
y

1 0 0 2 1 0 0 2

x+

1 1 et e2t

(5.25)

x1 x2

x+

(5.26)

El que la ecuacin de estado (5.25) sea controlable es consecuencia del Corolario 5.2. La ecuacin (5.26) es una ecuacin dinmica variable en el tiempo; sin embargo, dado que su matriz A est en forma de Jordan y dado que los componentes de B son diferentes de cero para toda t, uno podra estar tentado de concluir que (5.26) es controlable. Veriquemos esto usando el Teorema . Para cualquier t0 jo, tenemos

(t0 t)B(t) =

e(t0 t) 0 0 e2(t0 t)

et e2t

et0 e2t0

Es claro que los renglones de (t0 t)B(t) son linealmente dependientes en t. Por lo tanto la ecuacin de estado (5.26) es no controlable para cualquier t0 . De este ejemplo vemos que, al aplicar un teorema, todas las condiciones deben ser cuidadosamente vericadas; de otra manera, podramos obtener una conclusin rronea.

110

CAPTULO 5. CONTROLABILIDAD Y OBSERVABILIDAD DE ECUACIONES DINMICAS LINEALES

5.5

Controlabilidad de salida y funcin de controlabilidad de salida

Similar a la controlabilidad (de estado) de una ecuacin dinmica, podemos denir la controlabilidad para el vector salida de un sistema. Aunque esos dos conceptos son iguales excepto que uno est denido para el estado y el otro para la salida, la controlabilidad de estado es una propiedad de una ecuacin dinmica, mientras que la controlabilidad de estado es una propiedad de la matriz respuesta al impulso de un sistema. Considere un sistema con la descripcin entrada-salida
t

y(t) =

G(t, )u( )d

donde u es el vector entrada de dimensin p 1, y es el vector salida de dimensin q 1, G(t, ) es la matriz respuesta al impulso de dimensin q p del sistema. Consideramos por simplicidad que G(t, ) no contiene funciones y es continua en t y para t > .

Denicin 5.1 Un sistema con una matriz respuesta al impulso G(t, ) se dice que es con-

trolable en salida en el tiempo t0 si, para cualquier y1 , existe un t1 > t0 nito y una entrada u[t0 ,t1 ] que transere la salida de y(t0 ) = 0 a y(t1 ) = y1 2

Teorema 5.6 Un sistema con una G(t, ) continua es controlable en salida en t0 si y slo
si existe un t1 > t0 nito tal que cada rengln de G(t1 , ) sea linealmente independiente en sobre [t0 , t1 ] sobre el campo de los nmeros complejos.

La prueba de este teorema es exactamente la misma que la del Teorema y es por consiguiente omitida. Estudiamos a continuacin la clase de sistemas que tambin tienen descripciones en ecuacin dinmica invariante en el tiempo lineales. Considere el sistema que es describible por FE : x = Ax + Bu y = Cx donde A, B y C son matrices reales constantes de dimensiones n n, n p y q n, repectivamente. La matriz respuesta al impulso del sistema es

G(t) = CeAt B
La matriz funcin de transferencia del sistema es

G(s) = C(sI A)1 B Es claro que G(s) es una matriz funcin racional estrictamente propia.

(5.27)

5.5. CONTROLABILIDAD DE SALIDA Y FUNCIN DE CONTROLABILIDAD DE SALIDA

111

trictamente propia es controlable en salida si y slo si todos los renglones de G(s) son linealmente independientes sobre el campo de los nmeros complejos o si y slo si la matriz de dimensin q np . . . [ CB . CAB . . CAn1 B ] (5.28) . . .

Corolario 5.3 Un sistema cuya funcin de transferencia es una matriz funcin racional es-

tiene rango q .
La prueba del Teorema puede ser aplicada aqu con ligeras modicaciones. Una consecuencia trivial de este corolario es que cada sistema monosalida es controlable en salida. Vemos que aunque la condicin de la controlabilidad en salida puede ser enunciada tambin en tr minos de A, B y C, comparada con vericar la independencia lineal de G(s), la condicin (5.28) parece ms complicada. La controlabilidad de estado est denida para la ecuacin dinmica, mientras que la controlabilidad de salida est denida para la descripcin entrada-salida; por consiguiente, esos dos conceptos no estn necesariamente relacionados.

Ejemplo 5.8 Considere la red mostrada en la Figura . No es ni controlable ni observable, pero es controlable en salida. Ejemplo 5.9 Considere el sistema mostrado en la Figura . La matriz funcin de transferencia
del sistema es

1 s+1 2 s+1 los renglones del cual son linealmente dependientes. Por consiguiente el sistema no es controlable en salida. La ecuacin dinmica del sistema es x = x + u
lo cual es controlable y observable. Si un sistema es controlable en salida, su salida puede ser transferida a cualquier valor deseado en un cierto instante de tiempo. Un problema relacionado es si es posible dirigir la salida siguiendo una curva preasignada sobre cualquier intervalo de tiempo. Un sistema cuya salida puede ser dirigida sobre cualquier intervalo de tiempo se dice que es controlable en funcin de salida o funcionalmente reproducible.

y=

1 2

Teorema 5.7 Un sistema con una matriz funcin racional propia G(s) de dimensin q p

es controlable en funcin de salida si y slo si G(s) = q en IR(s), el campo de las funciones racionales propias con coecientes reales.

112

CAPTULO 5. CONTROLABILIDAD Y OBSERVABILIDAD DE ECUACIONES DINMICAS LINEALES

Prueba:

Si el sistema est inicialmente en reposo, entonces tenemos

u y(s) = G(s) (s)

(5.29)

Si G(s) = q , que es, todos los renglones de G(s) son linealmente independientes sobre el campo de las funciones racionales, entonces la matriz G(s)G (s) de dimensin n n es no singular (Teorema ??). Consecuentemente, para cualquier y, si escogemos u(s) = G (s)(G(s)G (s))1 y(s)
(5.30)

entonces la Ecuacin (5.29) es satisfecha. Consecuentemente, si G(s) = q , entonces el sistema es controlable en funcin de salida. Si G(s) < q , podemos siempre encontrar una y(s), no en el rango de G(s), para la cual no exista solucin u(s) en (5.29) (Teorema ??).
Si la entrada est restringida a la clase de funciones continuas por trozos de t, entonces la funcin de salida dada debe ser muy suave; de otra manera, la entrada caldulada de (5.30) no ser continua por trozos. Por ejemplo, si la salida dada tiene alguna discontinuidad, una entrada conteniendo funciones puede ser necesaria para generar la discontinuidad. La condicin para la controlabilidad de funcin de salida puede tambin ser enunciada en trminos de las matrices A, B y C. Sin embargo, es mucho ms complicado. Dual a la controlabilidad de funcin de salida es la observabilidad de funcin de entrada. Estos problemas estn intimamente relacionados con el problema inverso. Un sistema con una matriz racional propia G(s) de dimensin q p se dice que tiene un inversa derecha (izquierda) si existe una matriz racional GRI (s) de dimensin p q [GLI (s)] tal que

G(s)GRI (s) = Iq

[G(s)GLI (s) = Ip ]

Un sistema se dice que tiene una inversa si tiene tanto inversa derecha como inversa izquierda. Una condicin necesaria y suciente para que G(s) tenta una inversa derecha es que G(s) = q en IR(s). Esta condicin es idntica a la de la controlabilidad de funcin de salida. Muchas preguntas pueden surgir observando una inversa derecha. Es nica?, Es una matriz racional propia? Cul es su grado mnimo? Es estable? Cules son sus condiciones equivalentes en ecuaciones dinmicas? Esas preguntas no sern estudiadas en este texto.

5.6

Conclusiones

Captulo 6

Realizaciones irreducibles, equivalencia estricta de sistemas e identicacin


6.1 Introduccin

La sntesis de redes es una de las disciplinas ms importantes en ingeniera elctrica. Est principalmente interesada en determinar una red pasiva o activa que tiene una impedancia prescrita o una funcin de transferencia. El tema que introduciremos en este captulo es a todo lo largo la misma lnea que es, determinar una ecuacin dinmica lineal invariante en el tiempo que tenga una matriz funcin de transferencia prescrita. Por lo tanto este captulo puede ser visto como una versin moderna de sntesis de redes. Una ecuacin dinmica lineal invariante en el tiempo que tiene una matriz de transferencia prescrita G(s) es llamada una realizacin de G(s). El trmino "realizacin" est justicado por el hecho que, al usar la ecuacin dinmica, el sistema con la matriz funcin de transferencia G(s) puede ser construida en el mundo real utilizando un circuito de amplicador operacional. Aunque hemos probado en el Teorema que cada matriz racional propia tiene una realizacin de ecuacin dinmica lineal invariante en el tiempo de dimensin nita, hay an muchas preguntas sin responder. En este captulo estudiaremos esto y otros problemas relacionados. Estudiamos el problema de realizacin por las razones siguientes: Primero, existen muchas tcnicas de diseo y muchos algoritmos computacionales desarrollados exclusivamente para ecuaciones dinmicas. A n de aplicar esas tcnicas y algoritmos, las matrices funcin de transferencia deben ser realizadas en ecuaciones dinmicas. Segundo, en el diseo de sistemas complejos es siempre deseable simular el sistema en una computadora digital o analgica para vericar su desempeo antes de que el sistema sea construido. Un sistema no puede ser simulado ecientemente si la funcin de transferencia es la nica descripcin disponible. Despus que una realizacin en ecuacin dinmica es obtenida, asignando las salidas de integradores como variables de estado, el sistema puede ser simulado fcilmente. La realizacin puede tambin ser construida usando circuitos amplicadores operacionales. Finalmente, los resultados pueden ser utilizados para establecer la liga entre el enfoque de variables de estado y el enfoque de la funcin de transferencia. 113

114

CAPTULO 6. REALIZACIONES IRREDUCIBLES, EQUIVALENCIA ESTRICTA DE SISTEMAS E IDENTIFICACIN

Para cada matriz funcin de transferencia realizable G(s), existe un nmero ilimitado de realizaciones en ecuacin dinmica lineales invariantes en el tiempo. Por consiguiente un problema mayor en la realizacin es encontrar una "buena" realizacin. Es claro que una realizacin en ecuacin dinmica con la menor dimensin posible es una buena realizacin. Armamos que una realizacin de G(s) con la menor dimensin posible debe ser una ecuacin dinmica controlable y observable. Por supuesto, si una realizacin en ecuacin dinmica lin eal invariante en el tiempo de G(s) es encontrada, y si la ecuacin es no controlable o no observable, entonces del Teorema es posible reducir la realizacin a una ecuacin de menor dimensin que an tiene a G(s) como su matriz funcin de transferencia. Esta reduccin es imposible slo si la ecuacin es controlable y observable. Por lo tanto, concluimos que una realizacin de G(s) con la menor dimensin posible es una ecuacin dinmica controlable y observable, o equivalentemente, una ecuacin dinmica irreducible. Tal realizacin es llamada una realizacin de dimensin mnima o irreducible. En este captulo estudiamos principalmente realizaciones irreducibles por las siguientes razones: (1) Una matriz funcin de transferencia racional describe slo la parte controlable y observable de una ecuacin dinmica; consecuentemente una realizacin able debera ser una realizacin irreducible. (2) Cuando una realizacin irreducible es utilizada para sintetizar una red, el nmero de integradores necesarios ser mnimo. Esto es deseable por razones de economa y sensibilidad. Note que si una realizacin irreducible es encontrada, cualquier otra realizacin irreducible puede ser obtenida al aplicar una transformacin equivalente (Teorema). Este captulo est organizado como sigue. En la Seccin 6.2, introducimos el concepto del grado de matrices racionales propias. Su signicado es demostrado en el Teorema 6.2. En la Seccin 6.3, varias realizaciones son introducidas para funciones racionales escalares. El teorema de Hankel tambin es introducido. Los mtodos de realizacin son entonces extendidos a funciones racionales vectoriales en la Seccin 6.4. Dos mtodos de realizaciones irreducibles diferentes, uno basado en las matrices de Hankel y el otro en fracciones coprimas, para matrices racionales propias, son discutidos en las Secciones 6.5 y 6.6. En la Seccin 6.7 introducimos una nueva descripcin matemtica, llamada descripcin matriz polinomial, para sistemas lineales invariantes en el tiempo. Sus relaciones con funciones de transferencia y ecuaciones dinmicas tambin es establecida. En la Seccin 6.8 el concepto de ecuaciones dinmicas equivalentes es extendido a equivalencia estricta de sistemas para descripciones matriz polinomiales. Es mostrado que, bajo la suposicin de coprimalidad, todas las descripciones de matriz polinomial las cuales tienen la misma matriz funcin de transferencia son sistemas estrictamente equivalentes. En la ltima seccin, estudiamos la identicacin de sistemas discretos en el tiempo para pares entrada-salida arbitrarios. El concepto de excitacin persistente es introducido. Este captulo est principalmente basado en la referencias . Para las realizaciones de respuesta al impulso G(t, ), el lector interesado es referido a la Referencias .

6.2

El polinomio caracterstico y el grado de una matriz racional propia

En esta seccin introduciremos los conceptos de grado y polinomio caracterstico de matrices racionales propias. Estos conceptos son la extensin del denominador de una funcin racional

6.2. EL POLINOMIO CARACTERSTICO Y EL GRADO DE UNA MATRIZ RACIONAL PROPIA

115

propia y su grado al caso matricial. Considere una funcin racional propia g (s) = N (s)/D(s). Se supone que N (s) y D(s) son coprimales (no tienen factores comunes no triviales). Entonces el denominador de g (s) est denido como D(s), y el grado de g (s) est denido como el grado de D(s). Sin la consideracin de coprimalidad, el denominador y el grado de g (s) no estn bien denidos. En lo siguiente, usamos det, deg y dim para, respectivamente, determinante, grado y dimensin.

Teorema 6.1 Sea la ecuacin dinmica lineal invariante en el tiempo monovariable


x = Ax + bu y = Cx + eu

una realizacin de la funcin racional propia g (s). Entonces F E1 es irreducible (controlable y observable) si y slo si
det(sI A) = k[denominadorde(s)] g dim A = deg g (s)
(6.1)

donde k es una constante no cero.

Prueba:

Sea (s) = (sI A) y sea

c(sI A)1 =

N1 (s) (s)

(6.2)

Primero demostramos que {A, b, c} es irreducible si y slo si (s) y N1 (s) son coprimales. Por supuesto, si {A, b, c} no es irreducible, entonces los Teoremas y implican la existencia de c un {A, b, } tal que dim A < dim A y

N1 (s) N1 (s) = (sI A)1 b = c(sI A)1 b = c (s) (s) donde (s) = det(sI A). Dado que deg (s) = dim A = deg (s), concluimos que (s) y N1 (s) tienen factores comunes. Invirtiendo el citado argumento, podemos mostrar que si (s) y N1 (s) no son coprimales, entonces {A, b, c} es no irreducible. Por lo tanto hemos establecido que {A, b, c} es controlable y observable si y slo si (s) y N1 (s) son coprimales. Si F E1 es una realizacin de g (s), entonces tenemos g (s) = e + N1 (s) e(s) + N1 (s) = (s) (s)

Es fcil mostrar que (s) y N1 (s) son coprimales si y slo si (s) y e(s) + N1 (s) son coprimales. Consecuentemente, hemos establecido que F E1 es irreducible si y slo si Denominador de g (s) = (s) = det(sI A) deg g (s) = deg (s) = dim A

116

CAPTULO 6. REALIZACIONES IRREDUCIBLES, EQUIVALENCIA ESTRICTA DE SISTEMAS E IDENTIFICACIN

Si el denominador de g (s) no es mnico (su coeciente principal no es igual a 1) entonces necesitamos una constante no cero k en (6.1) Con este teorema, la irreducibilidad de una ecuacin dinmica lineal invariante en el tiempo monovariable puede ser fcilmente determinada del grado de su funcin de transferencia. Es deseable ver si esto es posible para el caso multivariable. La respuesta es armativa si un "denominador" puede ser denido para una matriz racional.

como el menor comn denominador de todos los menores de G(s). El grado de G(s), denotado por G(s), est denido como el grado del polinomio caracterstico de G(s). 2

Denicin 6.1 El polinomio caracterstico de una matriz racional propia G(s) est denido

1 1 1 2 s+1 s+1 s+1 s+1 G1 (s) = G2 (s) = 1 1 1 1 s+1 s+1 s+1 s+1 1 (s) son 1/(s + 1), 1/(s + 1), 1/(s + 1) y 1/(s + 1). El menor de Los menores de orden 1 de G orden 2 de G1 (s) es 0. Por lo tanto el polinomio caracterstico de G1 (s) es s+1 y G1 (s) = 1. 2 (s) son 2/(s + 1), 1/(s + 1), 1/(s + 1) y 1/(s + 1). El menor Los menores de orden 1 de G de orden 2 de G2 (s) es 1/(s + 1)2 . Por consecuencia el polinomio caracterstico de G2 (s) es 2 y G (s) = 2. 2 (s + 1) De este ejemplo, vemos que el polinomio caracterstico de G(s) es en general diferente del denominador del determinante de G(s) [si G(s) es una matriz cuadrada] y diferente del menor comn denominador de todas las entradas de G(s). Si G(s) es escalar (una matriz 1 1), el polinomio caracterstico de G(s) se reduce al denominador de G(s).

Ejemplo 6.1 Considere las matrices funciones racionales

Ejemplo 6.2 Considere la matriz funcin racional de dimensin 2 3


s s+1 G(s) = 1 s+1 1 (s + 1)(s + 2) 1 (s + 1)(s + 2) 1 s+3 1 s

Los menores de orden 1 son las entradas de G(s). Hay tres menores de orden 2. Ellos son 1 s+1 1 s + = = (s + 1)2 (s + 2) (s + 1)2 (s + 2) (s + 1)2 (s + 2) (s + 1)(s + 2) s 1 1 s+4 + = s + 1 s (s + 1)(s + 3) (s + 1)(s + 3) 1 1 3 = (s + 1)(s + 2)s (s + 1)(s + 2)(s + 3) s(s + 1)(s + 2)(s + 3)
(6.3)

6.2. EL POLINOMIO CARACTERSTICO Y EL GRADO DE UNA MATRIZ RACIONAL PROPIA

117

Por lo tanto el polinomio caracterstico de G(s) es s(s + 1)(s + 2)(s + 3) y G(s) = 4.


Note que al calcular el polinomio caracterstico de una matriz racional, cada menor de la matriz debe ser reducido a uno irreducible como hicimos en (6.3); de otra manera obtendremos un resultado errneo. En lo siguiente, introducimos una denicin diferente pero equivalente del polinomio caracterstico y del grado de una matriz racional propia. Esta denicin es similar al caso escalar y requiere de los conceptos desarrollados en el Apndice .

Denicin 6.2 Considere una matriz racional propia G(s) factorizada como G(s) =

Nr (s)D1 (s) = D1 (s)Nl (s). Se supone que Dr y Nr (s) son coprimales derechos y Dl r l y Nl (s) son coprimales izquierdos. Entonces el polinomio caracterstico de G(s) est denido como det Dr (s)
o

det Dl (s)

y el grado de G(s) est denido como deg G(s) = deg det Dr (s) = deg det Dr (s)
donde deg det es el grado del determinante.

2
Remarcamos que los polinomios det Dr (s) y det Dl (s) dieren a lo sumo por una constante no cero [ver Ecuacin]; por consiguiente cualquiera puede ser utilizada para denir el polinomio caracterstico de G(s). La equivalencia de las Deniciones 6.1 y 6.2 puede ser establecida al utilizar la forma de Smith-McMillan. El lector interesado es referido a las Referencias

Teorema 6.2 Sea la ecuacin dinmica lineal invariante en el tiempo multivariable


x = Ax + Bu y = Cx + Eu una realizacin de la matriz racional propia G(s). Entonces F E es irreducible (controlable y observable) si y slo si det(sI A) = k[polinomio caracterstico de G(s)] dim A = deg G(s)

donde k es una constante no cero.


La irreducibilidad de las realizaciones en este captulo para el caso multivariable ser establecida usando las condiciones de controlabilidad y observabilidad sin conar en este teorema. Por lo tanto este teorema no ser probado aqu. De hecho, este teorema ser una consecuencia directa de la realizacin irreducible discutida en la Seccin 6.6. Es armado en esta seccin a causa de su analoga con el Teorema 6.1 y para manifestar la importancia de los conceptos del polinomio caracterstico y grado de G(s).

118

CAPTULO 6. REALIZACIONES IRREDUCIBLES, EQUIVALENCIA ESTRICTA DE SISTEMAS E IDENTIFICACIN

6.3
6.3.1

Realizaciones irreducibles de funciones racionales propias


Realizaciones irreducibles de /D(s)
g (s) = = + + n1 s + n D(s)
(6.4)

Antes de considerar el caso general, estudiamos primero la funcin de transferencia

sn

+ 1

sn1

donde y i , para i = 1, 2, . . . , n, son constantes reales. Note que el coeciente principal de D(s) es 1. Sean u e y la entrada y salida; entonces tenemos

D(s)(s) = u(s) y
o, en el dominio del tiempo,

(6.5)

(pn + 1 pn1 + + n )y(t) = u(t)


donde pi est por di /dti . Esto es una ecuacin diferencial de nsimo orden. Es bien conocido que una ecuacin diferencial de orden n, a n de tener una solucin nica para cualquier u, necesitamos n condiciones iniciales. Por lo tanto el vector estado consistir de n componentes. En este caso la salida y y sus derivadas hasta el orden (n 1) calican como variables de estado. Denimos x1 (s) y (s) 1 x2 (s) s(s) s y x= . = (6.6) = . y (s) . . . . . . .

xn (s)
o, en el dominio del tiempo

sn1 y (s)

sn1

x1 (t) = y(t) x2 (t) = y(t) = py(t) = x1 (t) x3 (t) = y (t) = p2 y(t) = x2 (t) xn (t) = y (n1) (t) = pn1 y(t) = xn1 (t)
Diferenciando xn (t) una vez y usando (6.5) obtenemos

xn = pn y(t) = n x1 n1 x2 1 xn + u
Estas ecuaciones pueden ser arregladas en forma matricial como 0 1 0 0 0 0 1 0 0 0 0 0 x = . x + . . . . . . . . . . . 0 0 0 1 n n1 n2 1

(6.7)

u 0

0 0 0 . . .

(6.8)

y =

1 0 0

6.3. REALIZACIONES IRREDUCIBLES DE FUNCIONES RACIONALES PROPIAS

119

La primeras n 1 ecuaciones de (6.8) son obtenidas directamente de (6.6). Estas son consecuencia de la denicin de xi , i = 1, 2, . . . , n, y son independientes de la funcin de transferencia dada. La funcin de transferencia g (s) viene en (6.8) slo en su ltima ecuacin por (6.7). Dibujamos en la Figura un diagrama de bloques de (6.8). Para mostrar que (6.8) es una realizacin de g (s), podramos aplicar la frmula de Mason a la Figura para mostrar, como en la Figura , que la funcin de transferencia de u a y es igual a g (s). Una manera diferente es vericar g (s) = c(sI A)1 b donde

(sI A)1 b = 0 0 n n1

s 0 . . .

1 s . . .

0 0 . . .

0 0 . . .

s 1 2 s + 1

0 0 . . .


(6.9)

Es claro que (sI A)1 b es igual a la ltima columna de (sI A)1 o, equivalentemente, a los cofactores del ltimo rengln de (/(s))(sI A), donde

(s) = det(sI A) = sn + 1 sn1 + + n


(ver Problema). En vista de la forma de sI A, los cofactores del ltimo rengln de (/(s))(sI A) puede ser fcilmente calculado como

[1 s s2 sn1 ] (s)
Por lo tanto,

(sI A)1 b = 0 0 n n1
y

s 0 . . .

1 s . . .

0 0 . . .

0 0 . . .

s 1 2 s + 1

0 0 . . .

= (s) n2 s sn1 1 s . . .

1 s . . .


(6.10)

g (s) = c(sI A)1 b = [1 0 0 0] (s) sn2 sn1 =

(6.11)

= n n1 (s) s + 1 s + + n Esto verica que (6.8) es en realidad una realizacin de g (s) en (6.4). Dado que deg g (s) = dim A, (6.8) es una realizacin irreducible (Teorema 6.1). Esto tambin puede ser vericado al mostrar que (6.8) es controlable (excepto para el caso trivial = 0) y observable. Note que la realizacin (6.8) puede ser obtenida directamente de los coecientes de g (s) en (6.4).

120

CAPTULO 6. REALIZACIONES IRREDUCIBLES, EQUIVALENCIA ESTRICTA DE SISTEMAS E IDENTIFICACIN

6.3.2

Realizacin irreducible de g (s) = N (s)/D(s)


0 sn + 1 sn1 + + n n + sn1 + + 0 s 1 n

Considere la siguiente funcin de transferencia propia escalar

g1 (s) =

(6.12)

donde i y i , para i = 0, 1, 2, . . . , n, son constantes reales. Se considera que 0 = 0. Por divisin larga, g1 (s) puede ser escrito como g1 (s) = 1 sn1 + 2 sn2 + + n + e = g (s) + e sn + 1 sn1 + + n1 s + n
(6.13)

donde e = g1 () = 0 / 0 . Dado que la constante e da inmediatamente la parte de trans misin directa de una realizacin, necesitamos considerar en lo siguiente slo la funcin racional estrictamente propia g (s) = N (s) 1 sn1 + 2 sn2 + + n = n D(s) s + 1 sn1 + + n1 s + n
(6.14)

Sean u e y la entrada y salida de g (s) en (6.14). Entonces tenemos

D(s)(s) = N (s)(s) y u
o, en el dominio del tiempo,

(6.15)

D(p)y(t) = N (p)u(t)
donde D(p) = pn + 1 pn1 + + n , N (p) = 1 pn1 + 2 pn2 + + n , y pi simboliza di /dti . Claramente, la funcin de transferencia de (6.15) es g (s) en (6.14). En lo siguiente introducimos varias realizaciones diferentes de (6.15)

Realizacin en forma cannica observable


Considere una ecuacin diferencial de nsimo orden D(p)y(t) = N (p)u(t). Es bien conocido que si tenemos n condiciones iniciales - por ejemplo, y(t0 ), y (1) (t0 ), . . . , y (n1) (t0 ) - entonces para cualquier entrada u[t0 ,t1 ] , la salida y[t0 ,t1 ] es completamente determinable. En este caso, sin embargo, si escogemos y(t), y (1) (t), . . . , y (n1) (t) como variables de estado como hicimos en (6.6), entonces no podemos obtener una ecuacin dinmica de la forma x = Ax + bu, y = cx. En su lugar, obtendremos una ecuacin de la forma x = Ax + bu, y = cx + e1 u + e2 u(1) + e3 u(2) + . Por lo tanto a n de realizar N (s)/D(s) en la forma x = Ax + bu, y = cx, un conjunto diferente de variables de estado tiene que ser escogido. Tomando la transformada de Laplace de (6.15) y agrupando los trminos asociados con la misma potencia de s, nalmente obtenemos

y (s)
El trmino

(6.16)

N (s) u(s) = g (s)(s) u D(s)

6.3. REALIZACIONES IRREDUCIBLES DE FUNCIONES RACIONALES PROPIAS

121

en el lado derecho de (6.16) da la respuesta debida a la entrada u(s); el residuo da la re spuesta debida a las condiciones iniciales. Por lo tanto, si todos los coecientes asociados con sn1 , sn2 , . . . , s0 en (6.16) son conocidos, entones para cualquier u una y nica puede ser determinada. Consecuentemente, si escogemos las variables de estado como

xn (t) = y(t) xn1 (t) = y (1) (t) + 1 y(t) 1 u(t) xn2 (t) = y (2) (t) + 1 y (1) (t) 1 u(t) + 2 y(t) 2 u(t) x1 (t) = y (n1) (t) + 1 y (n2) (t) 1 u(n2) (t) + + n1 y(t) n1 u(t)
entonces x = [x1 x2 xn ] calica (6.17) lleva a y xn1 xn2 x1 como un vector de estado. El conjunto de ecuaciones en (6.17)

= = = =

xn xn + 1 xn 1 u xn1 + 2 xn 2 u x2 + n1 xn n1 u

Diferenciando x1 en (6.17) una vez y utilizando (6.15), obtenemos

x1 = n xn + n u
Las ecuaciones precedentes pueden 0 0 1 0 0 1 x = . . . . . . 0 0 0 0 ser arregladas en forma matricial como 0 0 n n n1 0 0 n1 n2 0 0 n2 x + . u . . . . . . . . . . . 2 0 0 2 0 0 1 1

(6.18)

y =

0 0 0

0 1

Una ecuacin dinmica en la forma (6.18) se dice que est en la forma cannica observable. El diagrama de bloques de (6.18) es mostrado en la Figura . Dado que (6.18) proviene de (6.15), la funcin de transferencia de (6.18) es g (s) en (6.14). Esto puede ser vericado tanto al aplicar a la Figura la frmula de Mason para grafos de ujo de seales o calculando

c(sI A)1 b = [c(sI A)1 b] = b (sI A )1 c


con la ayuda de (6.10), donde el smbolo "primo" denota La matriz de observabilidad de (6.18) es 0 0 0 0 c 0 0 0 0 cA 0 0 0 1 2 V = cA = . . . . . . . . . . . . . . . 0 1 x x cAn1 1 x x x la transpuesta.

0 1 1 1 2 1 2 + 1 . . . . . . x x x x

122

CAPTULO 6. REALIZACIONES IRREDUCIBLES, EQUIVALENCIA ESTRICTA DE SISTEMAS E IDENTIFICACIN

donde x denota posibles elementos no cero. La matriz V es no singular para cualquier i y i ; por lo tanto (6.18) es observable no importando si D(s) y N (s) en (6.14) son coprimales o no, y es as llamado la realizacin en forma cannica observable. La ecuacin dinmica en (6.18) es controlable tambin si D(s) y N (s) son coprimales. Por supuesto, si D(s) y N (s) son coprimales, entonces deg g (s) = deg D(s) = dim A y (6.18) es controlable siguiendo el Teorema . Si D(s) y N (s) no son coprimales, la ecuacin dinmica observable (6.18) no puede ser controlable tambin; de otra manera, violara el Teorema 6.1. En lo siguiente mostraremos directamente que si D(s) y N (s) son no coprimales, entonces (6.18) no es controlable. Sea s un factor comn de N (s) y D(s); entonces tenemos

D() = n + 1 n1 + + n1 + n = 0
y

(6.19) (6.20)

N () = 1 n1 + 2 n2 + + n = 0

Denimos el vector constante de dimensin 1 n como = [1 2 n1 ]. Entonces (6.20) puede ser escrita como b = 0, donde b est denida en (6.18). Utilizando (6.19), es fcil vericar que A = , A2 = 2 ,. . ., An1 = n1 . Por lo tanto la identidad b = 0 implica que aAi b = 0, para i = 0, 1, . . . , n 1, lo cual puede ser escrito como

[b Ab A2 b An1 b] = 0
lo cual, junto con = 0, implica que la matriz de controlabilidad de (6.18) tiene un rango menor que n. Por lo tanto si D(s) y N (s) no son coprimales, la realizacin en (6.18) no es controlable.

Realizacin en forma cannica controlable


Ahora introduciremos una realizacin diferente, llamada la realizacin en forma cannica controlable, de g = N (s)D1 (s) o y (s) = N (s)D1 (s)(s). Introduzcamos una nueva variable u v(t) denida como v (s) = D1 (s)(s). Entonces tenemos u

D(s)(s) = u(s) v
y

(6.21) (6.22)

y (s) = N (s)(s) v

La Ecuacin (6.21) tiene la misma forma que (6.5); por lo tanto podramos denir las variables de estado como, similar a (6.6) v(t) x1 (s) x1 (s) 1 x2 (s) x2 (s) s v(t) (6.23) x(s) = . = . y (s) o x(s) = . = . . . . . . . . . xn (s) xn (s) sn1 v (n1) (t) Esta denicin implica x1 = x2 , x2 = x3 , . . . , xn1 = xn . De (6.21), tenemos

sxn (s) = sn v(s) = 1 sn1 v (s) 2 sn2 v (s) n sn1 v (s) + u(s) = [n n1 2 1 ](s) + u(s) x

6.3. REALIZACIONES IRREDUCIBLES DE FUNCIONES RACIONALES PROPIAS

123

lo cual se convierte, en el dominio del tiempo,

xn = [n n1 2 1 ]x(t) + u(t)
Utilizando (6.23), la Ecuacin (6.22) puede ser escrita como v (s) s(s) v x y (s) = [n n1 1 ] = [n n1 1 ](s) . . . sn1 v (s) o, en el dominio del tiempo,

(6.24)

y(t) = [n n1 1 ]x(t)
Estas ecuaciones pueden ser arregladas en forma matricial como

(6.25)

x = Ax + bu
donde

y = cx 0 0 0 . . . 1 1 0 0 0 . . .

(6.26)

A=

0 0 0 . . .

1 0 0 . . .

0 1 0 . . .

0 0 0 n n1 n2

b= 0 1

c = [n n1 n2 1 ]
Esta es una realizacin de g (s) en (6.14). A diferencia de (6.17), no existe una relacin simple entre xi , u e y . La ecuacin dinmica en (6.26) siempre es controlable sin importar si D(s) y N (s) son coprimales o no y se dice que est en la forma cannica controlable. Si D(s) y N (s) son coprimales, entonces (6.26) tambin es observable; de otra manera, no es observable. Esta aseveracin es dual a la de la forma cannica observable, y su prueba es dejada como un ejercicio. Un diagrama de bloques de (6.26) es dibujado en la Figura .

Ejemplo 6.3 Considere la funcin de transferencia irreducible propia


g (s) = 4s3 + 25s2 + 45s + 34 2s3 + 12s2 + 20s + 16

Por divisin larga, g (s) puede ser escrita como

g (s) =

s3

0.5s2 + 2.5s + 1 +2 + 6s2 + 10s + 8

Por lo tanto su realizacin en forma cannica controlable es 0 x1 0 1 0 x1 x2 + 0 u x2 = 0 0 1 1 x3 8 10 6 x3

124

CAPTULO 6. REALIZACIONES IRREDUCIBLES, EQUIVALENCIA ESTRICTA DE SISTEMAS E IDENTIFICACIN

y = [ 1 2.5 0.5 ]x + 2u
Su realizacin en forma cannica observable es 0 0 8 1 x = 1 0 10 x + 2.5 u 0 1 6 0.5

y = [ 0 0 1 ]x + 2u

Realizacin de la matriz de Hankel


Considere la funcin racional propia

g (s) =

0 sn + 1 sn1 + + n sn + 1 sn1 + + n

(6.27)

Lo expandemos en una serie de potencias innita de potencia descendiente en s como

g (s) = h(0) + h(1)s1 + h(s)s2 +

(6.28)

Los coecientes {h(i), i = 0, 1, . . .} sern llamados los parmetros de Markov. Estos parmetros pueden ser obtenidos recursivamente de i y i como

h(0) h(1) h(2) h(n)

= = = =

0 1 h(0) + 1 1 h(1) 2 h(0) + 2 1 h(n 1) 2 h(n 2) n h(0) + n

(6.29)

h(n + i) = 1 h(n + i 1) 2 h(n + i 2) n h(i) i = 1, 2, . . .


Estas ecuaciones son obtenidas igualando (6.27) y (6.28) como

(6.30)

(0 sn + 1 sn1 + + n ) = (sn + 1 sn1 + + n )(h(0) + h(1)s1 + h(s)s2 + )


y entonces igualando los coecientes de la misma potencia dimensin h(1) h(2) h(3) h(2) h(3) h(4) h(3) h(4) h(5) H(, ) = . . . . . . . . . h() h( + 1) h( + 2) de s. Formamos la matriz de

h() h( + 1) h( + 2) . . . h( + 1)


(6.31)

Es llamada una matriz de Hankel de orden . Est formada de los coecientes {h(i), i = 1, 2, 3, . . .}. Es importante notar que el coeciente h(0) no est implicado en H(, ).

6.3. REALIZACIONES IRREDUCIBLES DE FUNCIONES RACIONALES PROPIAS

125

Teorema 6.3 La funcin de transferencia propia g (s) en (6.27) tiene grado n si y slo si
H(n, n) = H(n + k, n + l) = n para todo k, l = 1, 2, 3, . . .
(6.32)

donde denota el rango.


Mostramos primero que si deg g (s) = n, entonces H(n, n) = H(n + 1, ) = H(, ) = n. Si deg g (s) = n, entonces (6.30) se mantiene, y n es el menor entero teniendo esta propiedad. Debido a (6.30) el (n+1)simo rengln de H(n+1, ) puede ser escrito como una combinacin lineal de los n renglones de H(n, ). Por consiguiente tenemos H(n, ) = H(n + 1, ). Adems, tenemos H(n, ) = n, de otra manera, existira un entero n mas pequeo que n con la propiedad (6.30). A causa de la estructura de H, la matriz H(n + 2, ) sin el primer rengln se reduce a la matriz H(n+1, ) sin la primera columna. Por lo tanto el (n + 2)simo rengln de H(n + 2, ) es linealmente dependiente de sus n renglones previos y, consecuentemente, de los primeros n renglones de H(n + 2, ). Procediendo de esta manera, podemos establecer H(n, ) = H(, ) = n. Usando nuevamente (6.30), la (n + 1)sima columna de H(n, ) es linealmente dependiente de las columnas de H(n, n). Procediendo de manera similar, tenemos H(n, n) = H(n + k, n + l) = n para todo k, l = 1, 2, . . . Ahora mostramos que si (6.32) se cumple, entonces g (s) = h(0) + h(1)s1 + puede ser reducido a una funcin racional propia de grado n. La condicin H(n, n) = H(, ) = n implica la existencia de {i , i = 1, 2, . . . , n} para encontrar (6.30). Usando (6.29) podemos calcular {i , i = 0, 1, 2, . . . , n}. Por consiguiente tenemos

Prueba:

g (s) = h(0) + h(1)s1 + h(2)s2 + =

0 sn + 1 sn1 + + n sn + 1 sn1 + + n

Dado que n es el menor entero teniendo esta propiedad, tenemos deg g (s) = n. Esto completa la prueba de este teorema. Considere la ecuacin dinmica

x = Ax + bu y = cx + eu
Su funcin de transferencia es claramente igual a

g (s) = e + c(sI A)1 b = e + s1 c(I s1 A)1 b


lo cual puede ser expandido, usando (??),

g (s) = e + cbs1 + cAbs2 + cA2 bs3 +

(6.33)

De (6.28) y (6.33), concluimos que {A, b, c, e} es una realizacin de g (s) en (6.27) si y slo si e = h(0) y h(i) = cAi1 b i = 1, 2, 3, . . . (6.34) Con este fondo, estamos listos para introducir una realizacin diferente. Considere una funcin de transferencia propia g (s) = N (s)/D(s) con deg D(s) = n. Aqu no suponemos

126

CAPTULO 6. REALIZACIONES IRREDUCIBLES, EQUIVALENCIA ESTRICTA DE SISTEMAS E IDENTIFICACIN

que D(s) y N (s) sean coprimales; por consiguiente el grado de g (s) podra ser menor a n. Expandemos g (s) como en (6.28) usando las ecuaciones recursivas en (6.29) y (6.30). Entonces formamos la matriz de Hankel h(1) h(2) h(n) h(2) h(3) h(n + 1) H(n + 1, n) = . (6.35) . . . . . . . . h(n) h(n + 1) h(2n 1) Note que hay un rengln mas que columnas, y los parmetros de Markov hasta h(2n) son usados al formar H(n+1, n). Ahora aplicamos el algoritmo de bsqueda de renglones discutido en el Apndice para buscar los renglones linealmente independientes de H en (6.35) en orden de arriba a abajo. Sean los primeros renglones linealmente independientes y el ( + 1)simo rengln de H linealmente dependiente de sus renglones previos. Entonces el Teorema implica que los ( + k)simos renglones k = 1, 2, 3, . . ., son todos linealmente dependientes de sus renglones precedentes y el rango de H(n + 1, n) es . Por consiguiente una vez que un rengln linealmente dependiente aparece en H(n + 1, n), podramos para la bsqueda. Llamaremos al (+1)simo rengln de H(n+1, n) el rengln linealmente dependiente primario; el (+1)simo rengln, k = 2, 3, . . ., renglones linealmente independientes no primarios. Note que si D(s) y N (s) son coprimales, entonces = n; de otra manera, tenemos < n. El algoritmo de bsqueda de renglones producir {ai , i = 1, 2, . . .} tal que

[1 2 1 0 0]H(n + 1, n) = 0

(6.36)

Esta ecuacin expresa el rengln linealmente dependiente primario como un combinacin lineal nica de sus renglones previos. El elemento 1 corresponde al rengln dependiente primario. Note que si = n entonces ai = ni , i = 1, 2, . . . , n. Si < n, entonces no tenemos i = ni . Aseveramos que la ecuacin dinmica de dimensin

x = Ax + bu
con

y = cx + eu 0 0 . . . 0 0 . . . h(1) h(2) . . .

(6.37)

A =

0 0 . . .

1 0 . . .

0 1 . . .

0 0 0 1 2 3

0 1 1

b= h( 1) h()

(6.38)

c = [1 0 0 0 0]
es una realizacin controlable y observable de g (s). Debido a (6.36) y al Teorema 6.3, tenemos

h( + i) = a1 h( + i 1) a2 h( + i 2) h(i)
Usando esto, podemos fcilmente mostrar h(2) h(3) h(3) h(4) 2 Ab = . ,A b = . . . . . h( + 1) h( + 2)

i = 1, 2, 3, . . .
(6.39)

, , Ak b =

h(k + 1) h(k + 2) . . . h(k + )

6.3. REALIZACIONES IRREDUCIBLES DE FUNCIONES RACIONALES PROPIAS

127

El efecto de la multiplicacin por A simplemente incrementa el argumento i en h(i) por 1, o equivalentemente, desplaza los elementos hacia arriba una posicin. Debido a la forma de c, CAk b slo tom el primer elemento de Ak b como

cb = h(1), cAb = h(2), cA2 b = h(3), . . .

(6.40)

Esto muestra que (6.37) es en realidad una realizacin de g (s). La matriz de controlabilidad de (6.37) es [b Ab A1 b] = H(, ) La matriz de Hankel H(, ) tiene rango ; por matriz de observabilidad de (6.37) es c 1 cA 0 0 cA2 = . . . . . . lo tanto {A, b} en (6.37) es controlable. La

cA1

0 0 1 0 0 1 . . . . . . 0 0 0

0 0 0 . . . 1

Claramente {A, c} es observable. Por consiguiente (6.37) es una realizacin irreducible de g (s).

Ejemplo 6.4 Considere


1 1 3 1 1 5 3 s4 + s3 s 1 = +0s1 s2 s3 + s4 +s5 s6 s7 s8 + 4 + 2s3 + 2s2 + 3s + 1 2s 2 2 4 2 8 4 8 Formamos la matriz de Hankel 1 0 1 3 2 4 2 1 1 3 1 4 2 2 1 1 1 8 H(5, 4) = 3 2 4 1 1 1 5 2 8 4 1 1 5 3 8 4 8 g (s) =
Usando el algoritmo de bsqueda de renglones discutido en el Apndice, podemos fcilmente mostrar que el rango de H(5, 4) es 3. Por consiguiente una realizacin irreducible de g (s) tiene dimensin 3. El algoritmo de bsqueda de renglones tambin da

kH(5, 4) = [0.5 1 0 1 0]H(5, 4) = 0


Por lo tanto una realizacin irreducible de g (s) es 0 0 1 0 0 0 1 x + 1 u x = 2 0.5 1 0 3 4

y =

[ 1 0 0 ]x

+ 0.5u

El ltimo rengln de la matriz en forma acompaada A consiste de los primeros tres elementos de k con el signo cambiado. El vector b consiste de los tres primeros parmetros de Markov de g (s) [excluyendo h(0)]. La forma de c es jada y es independiente de g (s).

128

CAPTULO 6. REALIZACIONES IRREDUCIBLES, EQUIVALENCIA ESTRICTA DE SISTEMAS E IDENTIFICACIN

Notamos que este procedimiento tambin revela que si el numerador y el denominador de g (s) son coprimales. Si el rango de la matriz de Hankel de g (s) es menor que el grado de su denominador, entonces g (s) no es irreducible. Dual al procedimiento introducido, podramos tambin buscar las columnas linealmente independientes de H(n, n + 1) en orden de izquierda a derecha y obtener una realizacin irreducible diferente. El procedimiento no ser repetido.

Realizacin en forma cannica de Jordan


Usamos un ejemplo para ilustrar el procedimiento para realizar una funcin de transferencia en una ecuacin dinmica en forma de Jordan. La idea puede ser fcilmente extendida al caso general. Considere que D(s) consiste de tres races distintas 1 , 2 y 3 , y suponga que D(s) puede ser factorizado como D(s) = (s 1 )(s 2 )(s 3 ). Tambin suponemos que g (s) puede ser expandida en una expansin en fracciones parciales

g (s) =

e3 e11 e12 e13 e2 + + + + 3 2 3 (s 1 ) (s 1 ) (s 1 ) (s 2 ) (s 3 )

(6.41)

Los diagramas de bloques de g (s) son dados en la Figura. En la Figura, los coecientes e11 , e12 , e13 , e2 y e3 estn asociados con la salida. En la Figura , estn asociados con la entrada. Notamos que cada bloque en la Figura puede ser visto como consistente en un integrador, como est mostrado en la Figura. Por consiguiente la salida de cada bloque calica como una variable de estado. Al asignar la salida de cada bloque como una variable de estado y reriendo a la Figura , podemos fcilmente obtener la ecuacin dinmica de cada bloque de la Figura como mostrado. Al agrupar las ecuaciones en la Figura , obtenemos x11 1 1 0 0 0 0 x12 0 1 0 0 0 0 x13 = 0 0 1 0 0 x + 1 u x2 0 0 0 2 0 1 (6.42) x3 0 0 0 0 3 1

y =

e11 e12 e13 e2 e3

La Ecuacin (6.42) es una forma cannica de Jordan. Existe un bloque de Jordan asociado a cada valor propio. La ecuacin es claramente controlable (Corolario); tambin es observable, excepto para los casos triviales e11 = 0, e2 = 0 o e3 = 0. Por consiguiente la ecuacin dinmica (6.42) es una realizacin irreducible de g (s) en (6.41). Si el diagrama de bloques en la Figura es utilizado y si las variables de estado son escogidas como es mostrado, entonces la ecuacin dinmica es e11 1 0 0 0 0 x11 e12 1 1 0 0 0 x12 x13 = 0 1 1 0 0 x + e13 u e2 0 0 0 2 0 x2 e3 0 0 0 0 3 x3

y =

0 0 1 1 1

6.3. REALIZACIONES IRREDUCIBLES DE FUNCIONES RACIONALES PROPIAS

129

lo cual es otra realizacin irreducible en forma de Jordan de g (s). Note que la diferencia en la asignacin de las variables de estado en las Figuras y. Hay dos dicultades en realizar una funcin de transferencia en una forma cannica de Jordan. Primero, el denominador de la funcin de transferencia debe estar factorizado, o correspondientemente, los polo s de la funcin de transferencia g (s) deben ser calculados. Esto es una tarea difcil si el grado de g (s) es mayor que 3. Segundo, si una funcin de transferencia tiene polos complejos, las matrices A, b y c consistirn de nmeros complejos. En este caso, la ecuacin no puede ser simulada en una computadora analgica, dado que los nmeros complejos no pueden ser generados en el mundo real. Sin embargo, esto puede ser tomado en cuenta al introducir alguna transformacin equivalente como ser demostrado en lo siguiente. Dado que los coecientes de g (s) son considerados reales, si un nmero complejo es un polo de g (s), su complejo conjugado tambin es un polo de g (s). Por consiguiente en la realizacin en forma de Jordan de g (s), tenemos la siguiente subecuacin:

x1 x2

A1 0 0 A c1 1 c

x1 x2 x1 x2

b1 b1

u
(6.43)

y =

donde A1 es el bloque de Jordan asociado con 1 y A1 es el complejo conjugado (no transpuesto) de A1 . Claramente A1 es el bloque de Jordan asociado a . Introduzcamos la transformacin de equivalencia x = Px, donde P=
y

I I iI iI

(i2 = 1)

P1 =

1 2

I iI I iI

Entonces puede ser fcilmente vericado que la ecuacin dinmica en (6.43) puede ser transformada en

x1 x2

Re A1 Im A1 Re c1

Im A1 Re A1 Im c1

x1 x2 x1 x2

2 Re b1 2 Re b1

u
(6.44)

y =

donde Re A y Im A denotan la parte real y la parte imaginaria de A, respectivamente. Dado que todos los coecientes en (6.44) son reales, esta ecuacin puede ser usada en simulaciones en una computadora analgica. Otra manera conveniente para transformar una ecuacin dinmica en forma de Jordan en una ecuacin con coecientes reales es usar la transformacin introducida en los problema y .

130

CAPTULO 6. REALIZACIONES IRREDUCIBLES, EQUIVALENCIA ESTRICTA DE SISTEMAS E IDENTIFICACIN

Ejemplo 6.5 Considere la ecuacin en forma de Jordan con valores propios complejos
x = 1 + 2i 1 0 0 0 1 + 2i 0 0 0 0 1 2i 1 0 0 0 1 2i 0 0 0 0 1 i 1 i 2 P= 1 0 i 0 0 x 0 1 0 0 1 0 1 0 0 i 0 0 i 0 i 0 0 0 0 1 0 0 0 0 2 x + 2 3i 1 2 + 3i 1 2 u

(6.45)

y =
Demos x = Px, donde

Entonces (6.45) puede ser transformada en

x =

1 1 2 0 1 0 2 0 1 0 2 0 0 0 0

0 2 1 1 0

0 0 0 0 2

x +

4 2 6 0 2

y =
cuyos coecientes son todos reales

1 0 0 1 2

Una observacin es a n de observar estas realizaciones de g (s). Claramente, la realiza ciones en forma cannica controlable y observable son las ms fciles de obtener. Estas realizaciones, sin embargo, no son necesariamente irreducibles a menos que el g (s) = N (s)/D(s) dado sea conocido ser irreducible [N (s) y D(s)] son coprimales. La realizacin obtenida de las realizaciones de parmetros de Markov y la forma de Jordan son siempre controlables y observables sin importar si el g (s) dado es irreducible o no. Debido a los requerimientos de calcular los polos de g (s) la realizacin en forma de Jordan es generalmente ms difcil de calcular. La realizacin en forma de Jordan sin embargo es, como es discutido en la Referencias, menos sensible a las variaciones de parmetros entre todas las realizaciones. La sensibilidad est denida como el corrimiento de los valores propios debido a la variacin de parmetros. En la prctica, a n de reducir la sensibilidad, una funcin de transferencia g (s) es factorizada como g (s) = g1 (s)2 (s) g o

g (s) = g1 (s) + g (s) +

6.3. REALIZACIONES IRREDUCIBLES DE FUNCIONES RACIONALES PROPIAS

131

donde gi (s) y g (s) son funciones de transferencia de grado 1 o 2. Entonces realizamos cada (s) y entonces las conectamos juntas. La primera es llamada una realizacin en gi (s) y g paralelo; y la segunda, una realizacin en paralelo. Este tipo de realizaciones es usada frecuentemente en el diseo de ltros digitales (ver Referencia).

6.3.3

Realizacin de ecuaciones diferenciales lineales variantes en el tiempo

Antes de concluir esta seccin, discutiremos brevemente la determinacin de ecuaciones dinmicas para ecuaciones diferenciales lineales variantes en el tiempo. Si una ecuacin diferencial lineal variante en el tiempo de nsimo orden es de la forma

(pn + 1 (t)pn1 + + n (t))y(t) = (t)u(t)

(6.46)

al escoger y(t), y(t), . . . , y (n1) (t) como variables de estado, una ecuacin dinmica de exac tamente la misma forma como (6.8) puede ser establecida. Sin embargo, si el lado derecho de (6.46) consiste de las derivadas de u, aunque puede an ser realizado en una ecuacin dinmica, la situacin se hace muy complicada. En lugar de dar una frmula general, damos un ejemplo para ilustrar el procedimiento.

Ejemplo 6.6 Considere la siguiente ecuacin diferencial de segundo orden variante en el


tiempo

[p2 + 1 (t)p + 2 (t)]y(t) = [0 p2 + 1 (t)p + 2 (t)]u(t)

(6.47)

El procedimiento de formular una ecuacin dinmica para (6.47) es como sigue: Primero suponemos que (6.47) puede ser puesta en la forma

x1 x2

= y =

0 1 2 (t) 1 (t) 0 1 x + e(t)u

x1 x2

b1 (t) b2 (t)

u
(6.48)

y entonces vericar esto al calcular las funciones del tiempo desconocidas b1 , b2 y e en trminos de los coecientes de (6.47). Diferenciando (6.48) y usando (6.48), obtenemos

y = py = x2 + b1 (t)u(t) + e(t)u(t) + e(t)u(t) 2 y = x x + b u + b u + b u + eu + 2eu + u 1 y = p 2 1 1 2 2 1


Substituyendo estos en (6.47) e igualando los coecientes de u, u y u, obtenemos

e(t) = 0 (t) b1 (t) = 1 (t) 1 (t)0 (t) 0 (t) 1 (t) 1 (t)b1 (t) 1 (t)0 (t) 2 (t)0 (t) 0 b2 (t) = 2 (t) b

(6.49)

Dado que las ecuaciones del tiempo b1 , b2 y e pueden ser resueltas de (6.49), concluimos que la ecuacin diferencial (6.47) puede ser transformada en una ecuacin dinmica de la forma en (6.48). Vemos que an para una ecuacin diferencial de segundo orden, las relaciones entre b, e y las i 's y i 's son muy complicadas

132

CAPTULO 6. REALIZACIONES IRREDUCIBLES, EQUIVALENCIA ESTRICTA DE SISTEMAS E IDENTIFICACIN

6.4

Realizaciones de funciones de transferencia racionales propias vectoriales

En esta seccin unas realizaciones funciones de transferencia racionales propias vectoriales sern estudiadas. Por una funcin racional vectorial queremos decir cualquier funcin matricial racional de dimensin 1 p o q 1. Considere la matriz funcin racional propias de dimensin q 1 g1 (s) g (s) 2 G(s) = . (6.50) . .

gq (s) Se supone que cada gi (s) es irreducible. Primero expandemos G en G(s) = e1 e2 . . . eq + g1 (s) g2 (s) . . . gq (s)
(6.51)

donde ei = gi () y gi (s) = gi (s)ei es una funcin racional estrictamente propia. Calculamos el mnimo comn denominador de gi , para i = 1, 2, . . . , q , digamos sn + 1 sn1 + + n y entonces expresamos G(s) como e1 11 sn1 + . . . + 1n e2 21 sn1 + . . . + 2n 1 G(s) = . + n (6.52) . . . s + 1 sn1 + + n . . eq q1 sn1 + . . . + qn Es aseverado que la ecuacin dinmica 0 1 0 0 0 1 0 0 0 x = . . . . . . . . . 0 0 0 n n1 n2

x + 0 1 1 1 e1 e2 . . . eq u

0 0 0 . . .

0 0 0 . . .

u
(6.53)

y1 y2 . . . yq

1n 1(n1) 2n 2(n1) . . . . . . qn q(n1)

11 21 . . . q1

x +

es una realizacin de (6.52). Esto puede ser probado usando la realizacin en forma controlable de g (s) en (6.14). Comparando (6.53) con (6.26), vemos que la funcin de transferencia de u

6.4. REALIZACIONES DE FUNCIONES DE TRANSFERENCIA RACIONALES PROPIAS VECTORIALES

133

a yi es igual a

ei +

i1 sn1 + + in sn + 1 sn1 + + n

la cual es el isimo componente de G(s). Esto prueba la aseveracin. Dado que gi (s) para i = 1, 2, . . . , q se considera irreducible, el grado de G(s) es igual a n. La ecuacin dinmica (6.53) tiene dimensin n; por lo tanto es una realizacin de dimensin mnima de G(s) en (6.52). Notamos que si alguna o todas las gi (s) no son irreducibles, entonces (6.53) no es observable, aunque permanece siendo controlable. Para funciones de transferencia monoentrada monosalida, tenemos tanto las realizaciones en forma controlable como observable. Pero para funciones racionales columna no es posible tener la realizacin en forma observable.

Ejemplo 6.7 Considere


s+3 (s + 1)(s + 2) = G(s) = s+4 s+3 = 0 1 s+3 + (s + 1)(s + 2) s+4 s+3 + 1 (s + 1)(s + 2)(s + 3) 1 s3 + 6s2 + 11s + 6 (s + 3)2 (s + 1)(s + 2) s2 + 6s + 9 s2 + 3s + 2

0 1 0 1

Por consiguiente una realizacin de dimensin mnima de G(s) est dada por x1 0 1 0 0 x2 = 0 x + 0 u 0 1 x3 6 11 6 1 y = 9 6 1 2 3 1 + 0 1 u

(6.54)

Estudiamos ahora las realizaciones de matrices de funcin racionales propias de dimensin 1 p. Dado que el desarrollo es similar al del caso de dimensin q 1, presentamos slo el resultado. Considere la matriz racional propia de dimensin 1 p

G(s) = [ g (s) 1 . = [ e1 . . . = [ e1 . .

. . . ] + [ g1 (s) . g2 (s) . . gp (s) ] . . . 1 ]+ n s + 1 sn1 + + n . [11 sn1 + 12 sn2 + + 1n .21 sn1 + 22 sn2 + +] .

. . g (s) . . . 2 . . e2 . . . e2 . .

. . e . p . . e . p

. . g (s) ] . p

(6.55)

134

CAPTULO 6. REALIZACIONES IRREDUCIBLES, EQUIVALENCIA ESTRICTA DE SISTEMAS E IDENTIFICACIN

Entonces la ecuacin dinmica

x1 x2 x3 . . . xn

0 1 0 . . .

0 0 1 . . .

0 0 0 . . .

n n1 n2 . . .

x+

1n 1(n1) 1(n2) . . . 11

2n 2(n1) 2(n2) . . . 21

pn p(n1) p(n2) . . . p1

0 0 y = 0 0

1 1 0 1 x+

(6.56) es una realizacin de (6.55). La realizacin es siempre observable sea gi (s), i = 1, 2, . . . , p irreducible o no. Si son todos irreducibles, entonces la realizacin tambin es controlable. Tambin es posible encontrar realizaciones en forma de Jordan para funciones racionales propias vectoriales. El procedimiento es similar al usado para el caso escalar. Utilizamos un ejemplo para ilustrar el procedimiento.

e1 e2

ep

6.5 6.6 6.7 6.8 6.9 6.10

Realizaciones irreducibles de matrices racionales propias: Mtodo de Hankel


Realizaciones irreducibles de G(s). Mtodo de fraccin coprimal

Descripcin de matriz polinomial Equivalencia estricta de sistemas Identicacin de sistemas discretos de datos sin ruido Conclusiones

Captulo 7

Retroalimentacin de estado y estimadores de estado


7.1 Introduccin

En ingeniera, las tcnicas de diseo son frecuentemente desarrolladas de anlisis cuantitativos de sistemas. Por ejemplo, el diseo de sistemas de control retroalimentado al usar diagramas de Bode fue desarrollado del estudio de estabilidad de sistemas retroalimentados. En el Captulo 5 introducimos dos propiedades cualitativas de las ecuaciones dinmicas: la controlabildad y la observabilidad. En este captulo estudiaremos sus implicaciones prcticas y desarrollaremos algunas tcnicas de diseo de ellos. Si una ecuacin dinmica invariante en el tiempo n dimensional es controlable, la matriz de controlabilidad [BAB An1 B] tienen n columnas linealmente independientes. Al usar esas columnas independientes o sus combinaciones lineales como vectores base del espacio de estado, varias formas cannicas pueden ser obtenidas. Introducimos en la Seccin 7.2 la ms til: la forma cannica controlable. Tambin introducimos la ecuacin dinmica en forma cannica observable. Estas dos formas cannicas son muy tiles en el diseo de retroalimentacin de estado y estimadores de estado. Considere un sistema, llamada planta, y una seal de referencia o deseada; el problema de control es encontrar una seal de control o una seal de accionamiento tal que la salida de la planta sea tan cercana como sea posible a la seal de referencia. Si una seal de control est predeterminada y es independiente de la respuesta actual de la planta, el control es llamado un control en lazo abierto. Este tipo de control no es satisfactorio si existen perturbaciones o cambios en el sistema. Si una seal de control depende de la respuesta actual del sistema del sistema, es llamado un control en lazo cerrado o retroaliementado. Dado que el estado de un sistema contiene toda la informacin esencial del sistema, si una seal de control es diseada para ser una funcin del estado y la seal de referencia, un control razonablemente bueno puede ser logrado. En la Seccin 7.3, estudiamos los efectos de introducir una retroalimentacin de estado lineal de la forma u = r + Kx en una ecuacin dinmica. Mostramos que puede ser lograda por la retroalimentacin de estado lineal bajo la consideracin de controlabilidad. La estabilizacin de una ecuacin dinmica incontrolable tambin es discutida. En retroalimentacin de estado, todos las variables del sistema se supone que estn 135

136

CAPTULO 7. RETROALIMENTACIN DE ESTADO Y ESTIMADORES DE ESTADO

disponibles as como las salidas. Esta suposicin generalmente no se cumple en la prctica. En consecuencia si deseamos introducir retroalimentacin de estado, el vector estao tiene que ser generado o estimado de la informacin disponible. En la Seccin 7.4 introducimos estimadores de estado asintticos bajo la suposicin de observabilidad. Las salidas de un estimador de estado asinttico dan un estimado del estado para la ecuacin original. Tanto los estimadores de estado de dimensin completa como los estimadores de orden reducido son introducidos. En la Seccin 7.5 aplicamos la retroalimentacin de estado a la salidad de un estimador de estado. Estableceremos la propiedad de separacin la cual muestra que la retroalimentacin de estado y la estimacin de estado puede ser diseadas independientemente y su conexin no afectar sus pretendidos diseos. Tambin mostramos que el estimador de estado no aparecer en la matriz funcin de transferencia de la entrada de referencia a la salida de la planta. Las entradas y salidas de un sistema multivariable estn generalmente acopladas; esto es, cada entrada controla ms de una salida y cada salida es controlada por ms de una entrada. Si un compensador puede ser encontrado tal que cada entrada controle una y slo una salida, entonces el sistema multivariable se dice que est desacoplado. Estudiamos en la Seccin 7.6 el desacoplamiento de un sistema multivariable por retroalimentacin de estado. La condicin necesaria y suciente bajo la cual un sistema puede ser desacoplado por una retroalimentacin de estado es obtenida.

7.2
7.2.1

Ecuaciones dinmicas en forma cannica


Caso monovariable
F E1 : x = Ax + bu y = cx + eu
(7.1a) (7.1b)

Considere la ecuacin dinmica monovariable invariante en el tiempo n dimensional:

donde A, b, c y e son, respectivamente, matrices constantes reales de dimensin n n, n 1, 1 n y 1 1. Note que el subndice 1 en F E1 signica que es monovariable. En esta seccin obtenemos varias ecuaciones equivalentes de F E1 bajo las consideraciones de controlabilidad y observabilidad. Sea la siguiente ecuacin dinmica F E1

F E1 :

x = A + bu x y = x + eu c

(7.2a) (7.2b)

una ecuacin dinmica equivalente de F E1 , la cual es obtenida al introducir x = Px = Q1 x, donde P = Q1 es una matriz constante no singular. Entonces de (??) tenemos

A = PAP1

b = Pb

= cP1 c

Las matrices de controlabilidad de F E1 y F E1 son, respectivamente, U = [ b Ab U = [ b Ab = P[ b Ab An1 b ] An1 b ] An1 b ] = PU = Q1 U


(7.4) (7.3)

7.2. ECUACIONES DINMICAS EN FORMA CANNICA

137

Ahora si las ecuaciones dinmicas F E1 y, consecuentemente, F E1 son controlables, entonces las matrices de controlabilidad U y U son no singulares. Por lo tanto de (7.4) tenemos P = UU1 Q = UU1 Similarmente, si V y V son las matrices de observabilidad de F E1 y F E1 , esto es, c c A cA c = V V= = VP1 = VQ . . . . . . n1 n1 cA A c y si F E1 y F E1 son observables, entonces P = V1 VoQ = V1 V
(7.6) (7.5a) (7.5b)

As, si dos ecuaciones monovariables, invariantes en el tiempo lineales de las mismas dimensiones son conocidas que son equivalentes y si son controlables u observables, entonces la transformacin de equivalencia P entre ellas puede ser calculado usando sea (??) o (??). Esto tambin es cierto para ecuaciones dinmicas multivariables invariantes en el tiempo observables o controlables. Para ecuaciones equivalentes multivariables, la relacin U = PU se mantiene an. En este caso U no es una matriz cuadrada; sin embargo, del Teorema , tenemos UU = PUU y P = UU (UU )1 . Sea el polinomio caracterstico de la matriz A en (7.1a)

() = det(I A) = n + 1 n1 + + n1 + n

Teorema 7.1 Si la ecuacin dinmica monovariable, invariante en el tiempo, lineal n dimensional F E1 es controlable, entonces puede ser transformada, mediante una transformacin equivalente, en la forma 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 CF E1 : x = . (7.7a) x + . u . . . . . . . . . . . . . . . . 0 0 0 0 0 1 n n1 n2 2 1 1
y= n n1 n2 2 1 x + eu
(7.7b)

donde 1 , 2 , . . . , n son los coecientes del polinomio caracterstico de A, y las i 's tienen que ser calculados de F E1 . La ecuacin dinmica (7.7) se dice que est en la forma cannica controlable. La funcin de transferencia de F E1 es
g (s) = 1 sn1 + 2 sn2 + + n +e sn + 1 sn1 + + n1 s + n
(7.8)

138

CAPTULO 7. RETROALIMENTACIN DE ESTADO Y ESTIMADORES DE ESTADO

Prueba:

La ecuacin dinmica F E1 es controlable por suposicin; por lo tanto el conjunto de n 1 vectores columna b, Ab, . . . , An1 b es linealmente independiente. En consecuencia, el siguiente conjunto de n 1 vectores

qn = b qn1 = Aqn + 1 qn = Ab + 1 b qn2 = Aqn1 + 2 qn = A2 b + 1 Ab + 2 b q1 = Aq2 + n1 qn = An1 b + 1 An2 b + + n1 b


es linealmente independiente y calica como una base del espacio de estado de F E1 . Recuerde de la Figura que si los vectores {q1 , q2 , . . . , qn } son utilizados como una base, entonces la isima columna de la nueva representacin de A es la representacin de Aqi con respecto a la base {q1 , q2 , . . . , qn }. Observe que (7.9)

Aq1 = (An + 1 An1 + + n1 A + n I)b n b 0 0 . = n b = n qn = q1 q2 qn . . 0 n 1 0 . . Aq2 = q1 n1 qn = q1 q2 qn . 0 n1 0 0 . Aqn = qn1 n qn = q1 q2 qn . . 1 1


Por lo tanto si escogemos {q1 , q2 , . . . , qn } como una nueva base del espacio de estado, entonces A y b tienen nuevas representaciones de la forma 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 (7.10) b= . A= . . . . . . . . . . . . . . . . . 0 0 0 0 0 1 1 n n1 n2 2 1

Las matrices A y b tambin puede ser obtenido usando una transformacin equivalente. Sea Q = [q1 q2 qn ] = P1 , y sea x = Px o x = Q, entonces la ecuacin dinmica F E1 puede x ser obtenido en x = Q1 AQ + Q1 bu x y = cQ + eu x

7.2. ECUACIONES DINMICAS EN FORMA CANNICA

139

Se aconseja al lector vericar que Q1 AQ = A o AQ = QA y Q1 b = b. El vector es c calculado de cQ como = cQ = [ n n1 n2 c 1 ]


(7.11)

Por consiguiente la ecuacin dinmica controlable F E1 tiene la ecuacin dinmica en forma cannica controlable equivalente CF E1 . Esto prueba la primera parte del teorema. Las ecuaciones dinmicas F E1 y CF E1 son equivalentes; por lo tanto tienen la misma funcin de transferencia. Ha sido probado en las Secciones y que la funcin de transferencia de CF E1 es igual a g (s) en la Ecuacin (7.8). Uno podra preguntarse como obtener el conjunto de vectores base dados en (7.9). Esto es obtenido a continuacin. Sea U la matriz de controlabilidad de la ecuacin dinmica en forma cannica controlable, entonces

U=

b Ab 0 0 . . . 0 0 . . . 0 0 . . .

An1 b 1 e1 . . . en3 en2 en1

= 0 0 1 0 1 e1 0 e1 e2
donde
k1

(7.12)

ek =
i=0

i+1 eki1

k = 1, 2, . . . , n 1; e0 = 1

La matriz de controlabilidad U es no singular para cualquier 1 , 2 , . . . , n . Por consiguiente la ecuacin dinmica en forma cannica controlable siempre es controlable, como podamos esperar. La inversa de U tiene una forma muy simple: n1 n2 1 1 n2 n3 1 0 . . . . = . . . U1 = . (7.13) . . . . 1 1 0 0 1 0 0 0 1 Esto puede ser vericado directamente al mostrar que UU = I. La ecuaciones dinmicas F E1 y CF E1 estn relacionadas por la transformacin equivalente x = Q; por lo tanto x 1 Q = UU . En la transformacin equivalente x = Q, usamos las columnas de Q como x 1 nuevos vectores base del espacio de estado (ver Figura). Al calcular UU , vemos que las columnas de Q son en realidad aquellas dadas en (??); esto es, Q= q1 q2 qn = b Ab An1 b = U
(7.14)

Tenemos el teorema siguiente, el cual es similar al Teorema 7.1, para una ecuacin dinmica observable.

140

CAPTULO 7. RETROALIMENTACIN DE ESTADO Y ESTIMADORES DE ESTADO

Teorema 7.2 Si la ecuacin dinmica monovariable, invariante en el tiempo, lineal n di-

mensional F E1 es observable, entonces puede ser transformada, mediante una transformacin equivalente, en la forma n 0 0 0 0 n n1 1 0 0 0 n1 n2 0 1 0 0 n2 (7.15a) OF E1 : x = . . . x + . u . . . . . . . . . . . . . . 2 0 0 0 0 2 1 0 0 0 1 1
y= 0 0 0 0 1 x + eu
(7.15b)

La ecuacin dinmica (7.15) se dice que est en la forma cannica observable. La funcin de transferencia de F E1 es
g (s) = 1 sn1 + 2 sn2 + + n +e sn + 1 sn1 + + n1 s + n

Este teorema puede ser probado tanto por sustitucin directa o usando el teorema de dualidad (Teorema ??). Su prueba es dejada como un ejercicio. La transformacin equivalente x = Px entre (7.1) y (7.15) puede ser obtenida utilizando la Ecuacin (7.6): P = V1 V. Es de la ecuacin dinmica en forma cannica obfcil vericar que la matriz de observabilidad V servable OF E1 es la misma que la matriz en (7.12). Por lo tanto la transformacin equivalente x = Px entre (7.1) y (7.15) est dada por n1 n2 1 1 c n2 n3 1 0 cA . . . . . . . . . P= . (7.16) = V . . . . . n2 1 1 0 0 cA 1 0 0 0 cAn1 Vemos de (??) que la base de la ecuacin dinmica en forma cannica controlable es obtenida de una combinacin lineal de los vectores {b, Ab, . . . , An1 b}. Uno podra preguntarse que forma obtendremos si escogemos {b, Ab, . . . , An1 b} como base. Denamos

q1 = b, q2 = Ab, . . . , qn = An1 b y sea x = Q1 x, donde Q = entonces podemos obtener la siguiente nueva representacin: 1 0 0 0 0 n 0 1 0 0 0 n1 0 0 1 0 0 n2 x= . . . x + . u . . . . . . . . . . . . . . 0 0 0 0 0 2 0 0 0 0 1 1 y = cQ + eu x

q1 q2

qn ;

7.2. ECUACIONES DINMICAS EN FORMA CANNICA

141

Esta ecuacin tiene la misma matriz A que la de (??) y es ms fcil de obtener dado que su transformacin equivalente Q es ms simple. Sin embargo, la utilidad de una ecuacin de esta forma no es conocida actualmente.

Ejemplo 7.1 Transformemos la siguiente ecuacin dinmica monovariable observable y controlable

1 20 2 3 1 1 x + 1 u x= 0 2 0 1 y= 0 0 1 x

(7.17a) (7.17b)

en ecuaciones dinmicas en las formas controlable y observable 1 2 0 () = det 3 + 1 1 = 3 9 + 2 0 2 Por lo tanto 3 = 2, 2 = 9 y 1 = 0. La matriz 2 4 U= 1 6 1 2 de controlabilidad U es 16 8 12

De las Ecuaciones (??) y (??), tenemos 2 4 16 9 0 1 2 4 2 Q = U = 1 6 8 0 1 0 = 1 6 1 1 2 12 1 0 0 3 2 1 La matriz Q puede ser obtenida de (??). De (??), tenemos

3 2 1

= cQ =

3 2 1

Por lo tanto las ecuaciones dinmicas en forma observable son, respectivamente, 0 CF E1 : x= 0 2

cannica controlable y en forma cannica

1 0 0 0 1 x + 0 u 9 0 1 x

OF E1 :

3 0 0 2 x + 2 u = 1 0 9 x 1 0 1 0 y= 0 0 1 x

y=

3 2 1

La ecuacin dinmica en forma cannica controlable u observable tambin puede ser obtenida calculando primero la funcin de transferencia de la ecuacin dinmica. Los coecientes de la funcin de transferencia dan inmediatamente las ecuaciones en forma cannica.

142

CAPTULO 7. RETROALIMENTACIN DE ESTADO Y ESTIMADORES DE ESTADO

Las ecuaciones dinmicas en forma cannica controlable y en forma cannica observable son tiles en el estudio de la retroalimentacin de estado y del estimador de estado. Tambin son tiles en la simulacin de una ecuacin dinmica en una computadora analgica. Por ejemplo, al simular la ecuacin dinmica F E1 , necesitamos generalmente n2 amplicadores y atenuadores (potencimetros) para simular A, y 2n amplicadores y atenuadores para simular b y c. Sin embargo si F E1 es transformada en la forma cannica controlable u observable o en la forma de (??), entonces el nmero de componentes requeridos en la simulacin se reduce de n2 + 2n a 2n.

7.3

Retroalimentacin de estado

En esta seccin estudiamos el efecto de la retroalimentacin de estado lineal u = r + Kx sobre la ecuacin dinmica invariante en el tiempo lineal. La variable r denota la entrada de referencia y la K es la matriz de ganancia de retroalimentacin y se requiere que sea real. En este estudio, implcitamente suponemos que todas las variables de estado estn disponibles para la retroalimentacin.

7.3.1

Caso monovariable

Considere la ecuacin dinmica invariante en el tiempo lineal monovariable

F E1 :

x = Ax + bu y = cx + eu

(7.18a) (7.18b)

donde

7.4 7.5
7.5.1

Estimadores de estado Conexin entre la retroalimentacin de estado y el estimador de estado


Estimadores funcionales

Si todos las variables de estado van a ser reconstruidas, se requiere un estimador de dimensin al menos n q . En muchos casos, sin embargo, no es necesario reconstruir tods las variables de estado; lo que se necesita es generar algunas funciones del estado, por ejemplo, generar Kx en la retroalimentacin de estado. En estos casos, las dimensiones de los estimadores podran reducirse considerablemente. En lo siguiente, discutimos un mtodo para disear un estimador y generar kx, donde k es un vector constante arbitrario de dimensin 1 n. Tal estimador es llamado un estimador funcional u observador. Considere la ecuacin dinmica en (??) con rango C = q . El problema es disear un estimador que su salida se aproxime a kx cuando t . Primero transformamos (??) en la forma en (??), reescribiendo aqu por conveniencia,

7.5. CONEXIN ENTRE LA RETROALIMENTACIN DE ESTADO Y EL ESTIMADOR DE ESTADO

143

x1 x2

= y=

A11 A12 A21 A22 Iq 0

x1 x2

B1 B2

x u = A + Bu

x = C x

donde x = Px con P dada en (??). El estimador funcional con un sola salida w(t) ser escogido de la forma

z = Fz + Gy + Hu w = Mz + Ny

(7.19a) (7.19b)

donde F es una matriz de dimensin m m; G, m q , H, m p y N, 1 q . El problema es disear tal estimador de una dimensin tan pequea como sea posible tal que w(t) se aproxime a kx = KP1 x, donde x = kP1 . Emulando el Teorema ??, podemos mostrar que

TA FT = GC H = TB

(7.20a) (7.20b)

y todos los valores propios de F tienen parte real negativa, donde T es una matriz real constante de dimensin m n, entonces z(t) se aproxima a T(t) cuando t . Por lo x tanto, si M y N son diseados para ser

MT + NC = k

(7.20c)

entonces w(t) se aproxima a kx(t) cuando t . Ahora particionamos T como T = [ T1 T2 ], donde T1 y T2 son, respectivamente, matrices de dimensin m q y m (n q). Entonces (7.20a) puede ser escrito como, usando C = [ Iq 0 ],

T1 A11 + T2 A21 FT1 = G T1 A12 + T2 A22 FT2 = 0

(7.21a) (7.21b)

Si tambin particionamos k como k = [ k1 k2 ], donde k1 y k2 son, respectivamente, vectores de dimensin 1 q y 1 (n q), entonces (7.20c) se convierte en MT1 + N = k1 MT2 = k2
Ahora escojamos F y M para ser de las formas 0 1 0 0 0 1 . . . . . F= . . . . 0 0 0 m m1 m2 (7.21c) (7.21d)

0 0 . . . 1 1


(7.22)

M=

1 0 0

144

CAPTULO 7. RETROALIMENTACIN DE ESTADO Y ESTIMADORES DE ESTADO

donde i pueden ser asignadas arbitrariamente. Note que {F, M} es observable. Sea tij , j = 1, 2, . . . , m, la j sima columna de Ti , i = 1, 2. Entonces debido a las formas de F y M, (7.21d) y (7.21b) implican

t21 t11 A12 + t21 A22 t12 A12 + t22 A22 12 + t2m A22 t1m A

= = = =

k2 t22 t23 m t21 m1 t22 1 t2m

(7.23a)

Estas ecuaciones, excepto la ltima, pueden ser escritas como

t21 t22 t23 t2m

= = = =

k2 k2 A22 + t11 A12 2 +t A A +t A k2 A22 12 12 11 12 22 2 Am1 + t11 A12 Am2 + + t1,m2 A12 A22 + t1,m1 A12 k
22 22

(7.23b)

La sustitucin de estos t2j , j = 1, 2, . . . , m, en la ltima ecuacin de (??) lleva, despus de algunas manipulaciones directas,

22 k = k2 Am + 1 k2 Am1 + + m1 k2 A22 + m k2 22 I 1 I I 2 I 1 I I = t1m t1,m1 t12 t11 . . . m1 I

. 1 I I

..

A12 12 A22 A A12 A2 22 . . . 12 Am1 A 22


(7.24)

El vector k es un vector de dimensin 1 (n q) y es conocido mientras k es dado y i son escogidas. La matriz de dimensin mq mq en (7.24) es no singular para cualquier i . As concluimos del Teorema (??) que, para cualquier k, una solucin [ t1m t1,m1 t11 ] existe en (7.24) si y slo si la matriz de dimensin mq (n q) V= A12 A12 A22 A12 A2 22 . . . A12 Am1
22

tiene rango n q . Ahora {A, C} en (??) es observable si y slo si {A22 , A12 } es observable. Ms an, el ndice de observabilidad de {A22 , A12 } es 1, donde es el ndice de observabilidad de {A, C}. Por lo tanto, si m = 1, entonces V tiene rango n q , y para cualquier k y cualquier i , una solucin T1 existe en (7.24). Una vez que T1 es conocida, calculamos T2 de (7.23b) y entonces calculamos G, H y N de (7.21a), (7.20b) y (7.21c). El estimador resultante es un estimador funcional de kx. Esto es enunciado como un teorema.

7.6. DESACOPLAMIENTO POR RETROALIMENTACIN DE ESTADO

145

, entonces para cualquier vector constante real de dimensin 1 n, existe un estimador funcional de dimensin ( 1) con valores propios arbitrariamente asignables tal que su salida se aproxime a kx(t) exponencialmente.
La dimensin ( 1) puede ser mucho ms pequea que nq para q grandes. Por ejemplo, si n = 12 y q = 4, entonces tenemos n q = 8; mientras que el ndice de observabilidad puede ser 12 = 3, y tenemos 1 = 2. Si q = 1, entonces n q = 1. 4 Si una matriz de ganancias de retroalimentacin K de dimensin pn es de rango 1, puede ser escrito como K = vk, donde v es un vector de dimensin p1 y k es un vector de dimensin 1n ccomo el K2 en la Figura, entonces Kx puede ser generado al usar un estimador funcional de dimensin ( 1). Para una K general, la situacin es mucho ms complicada. Los valores propios de los estimadores funcionales discutidos anteriormente se permite que sean escogidos arbitrariamente. Para un conjunto dado de valores propios, si son escogidos adecuadamente, podra ser posible reducir an ms la dimensin del estimador funcional. En el diseo, si aumentamos la matriz C en (??) como [C , K ], entonces la dimensin del estimador podra tambin ser reducida.

Teorema 7.3 Si la ecuacin dinmica en (??) es observable con ndice de observabilidad

7.6

Desacoplamiento por retroalimentacin de estado

Considere un sistema de p entradas y p salidas con la descripcin en ecuacin dinmica invariante en el tiempo lineal

FE

x = Ax + Bu y = Cx

(7.25a) (7.25b)

donde u es el vector de entrada de dimensin p 1, y es el vector de salida de dimensin p 1; A, B y C son

7.7

Conclusiones

146

CAPTULO 7. RETROALIMENTACIN DE ESTADO Y ESTIMADORES DE ESTADO

Captulo 8

Estabilidad de sistemas lineales


8.1 Introduccin
La controlabilidad y observabilidad son dos propiedades cualitativas importantes de los sistemas lineales. En este captulo introduciremos otra propiedad cualitativa de estos sistemas - es decir, la estabilidad. El concepto de estabilidad es extremadamente importante, dado que casi cada sistema trabajable es diseado para ser estable. Si un sistema no es estable, usualmente no tiene utilidad en la prctica. Hemos introducido la descripcin entrada-salida y la descripcin de ecuacin dinmica de los sistemas; por lo tanto es natural estudiar la estabilidad en trminos de estas dos descripciones separadamente. En la Seccin la estabilidad de sistemas entrada acotada-salida acotada (BIBO) es introducida en trminos de la descripcin entrada salida. Mostramos que si la respuesta impulso de un sistema es absolutamente integrable, entonces el sistema es BIBO estable. La condicin de estabilidad en trminos de funciones de transferencia racionales es tambin dada en esta seccin. En la Seccin ?? introducimos el criterio de Routh-Hurwitz el cual puede ser usado para vericar si todas las races de un polinomio tienen parte real negativa. Estudiamo en la Seccin ?? la estabilidad de un sistema en trminos de la descripcin en variables de estado. Introducimos los conceptos de estado equilibrio, estabilidad en el sentido de Lyapunov, estabilidad asinttica y estabilidad total. Las relaciones entre estos conceptos es establecida. En la Seccin ??, introducimos un teorema de Lyapunov y entonces lo utilizamos para establecer el criterio de Routh-Hurwitz. En la ltima seccin, la estabilidad de los sistemas discretos lineales es discutida.

8.2
8.2.1

Criterios de estabilidad en trminos de la descripcin entrada-salida


Caso variante en el tiempo

Consideramos primero los sistemas monovariables, esto es, sistemas con slo una terminal de entrada y una terminal de salida. Fue mostrado en el Captulo ?? que si la entrada y la salida de un sistema inicialmente en reposo satisfacen las propiedades de homogeneidad y aditividad, y si el sistema es causal, entonces la entrada u y la salidad y del sistema pueden 147

148 ser relacionadas por


t

CAPTULO 8. ESTABILIDAD DE SISTEMAS LINEALES

y(t) =

g(t, )u( )d

para toda t en (, )

(8.1)

donde g(t, ) es la respuesta impulso del sistema y es, por denicin, la salidad medida en el instante t debida a una entrada funcin impulso aplicada en el tiempo . En el estudio cualitativo de un sistema de las terminales de entrada y salida, tal vez la nica pregunta la cual puede ser contestada es que si la entrada tiene ciertas propiedades, Bajo qu condicin la salida tendr las mismas propiedades? Por ejemplo, si la salida u est acotada, esto es, |u(t)| k1 < para toda t en (, ) (8.2) Bajo qu condicin sobre el sistema existe una constante k2 tal que la salida y satisfaga

|y(t)| k2 <
para toda t en (, )? Si la salida es de energa nita, esto es,
1/2

|u(t)|2 dt

k3 <

(8.3)

Existe una constante k4 tal que


|y(t)| dt

1/2

k4 < ?

(8.4)

Si la salida tiene a una funcin peridica, Bajo qu condicin la salida tender a otra funcin peridica con el mismo periodo? Si la entrada tiende a una constante, La salida se aproximar a alguna constante? De acuerdo a estas propiedades, debemos introducir diferentes deniciones de estabilidad para el sistema. Introduciremos aqu slo aquella que es ms comnmente usadas en sistemas lineales: la estabilidad entrada acotada-salida acotada. Recordemos que la descripcin entrada-salida de un sistema es aplicable slo cuando el sistema est inicialmente en reposo. Un sistema que est inicialmente en reposo es llamado un sistema relajado. Por lo tanto la estabilidad que es denida en trminos de la descripcin entrada-salida es aplicable slo a sistemas relajados.

Denicin 8.1 Un sistema en reposo se dice que es BIBO estable (bounde-input - boundedoutput) s y slo s para cualquier entrada acotada, la salida es acotada.

2
Ilustramos la importancia de la calicacin reposo mostrando que un sistema, siendo BIBO estable bajo la suposicin de reposo, podra no ser BIBO estable si no est inicialmente en reposo.

Ejemplo 8.1 Consideremos la red mostrada en la Figura ??. Si est inicialmente en reposo, esto es, si el voltaje inicial a travs del condensador es cero, entonces y(t) = u(t)/2 para toda t. Por lo tanto, para cualquier entrada acotada, la salida tambin es acotada. Sin embargo, si el voltaje inicial a travs del condensador no es cero, debido a la capacitancia negativa, la salida se incrementar a innito an si ninguna entrada es aplicada.

8.3. CRITERIO DE ROUTH HURWITZ

149

Teorema 8.1 Un sistema monovariable en reposo que est descrito por


t

y(t) =

g(t, )u( )d

es BIBO estable s y slo s existe un nmero nito k tal que

d k <

para toda t en (, ).
Consideramos ahora los sistemas multivariables. Consideremos un sistema con p terminales de entrada y q terminales de salida, el cual es descrito por

y(t) =

G(t, )u( )d

(8.5)

donde

8.3 8.4 8.5 8.6

Criterio de Routh Hurwitz Estabilidad de las ecuaciones dinmicas lineales Teorema de Lyapunov Sistemas discretos invariantes en el tiempo lineales

Los conceptos de estabilidad introducidos para los sistemas continuos en el tiempo son directamente aplicables al caso discreto en el tiempo. Sin embargo, las condiciones de estabilidad son bastante diferentes. En esta seccin discutiremos algunas de esas condiciones. Consideremos un sistema discreto en el tiempo invariante en el tiempo lineal en reposo descrito por
k

y(k) =
m=0

g(k m)u(m)

(8.6)

Entonces para cualquier secuencia de entrada-acotada {u(k)}, (esto es, existe una h nita tal que |u(k)| < h para k = 0, 1, 2, . . .), la secuencia de salida {y(k)} est acotada, s y slo s

|g(k)| <
k=0

(8.7)

esto es, {g(k)} es absolutamente sumable1 . La prueba de (8.7) es similar a la del caso continuoy es dejada como un ejercicio. La transformada z de (8.6) no lleva a

y (z) = g (z)(z) u
1 Una funcin absolutamente integrable no es necesariamente acotada ni necesariamente tiende a cero cuando t como se muestra en la Figura ??. Una sequencia absolutamente sumable sin embargo es siempre acotada y se aproxima a cero cuando k . As el problema de estabilidad en el caso discreto en el tiempo es ms simple que el del caso continuo en el tiempo.

150

CAPTULO 8. ESTABILIDAD DE SISTEMAS LINEALES

Si g (z) es una funcin racional de z , entonces el sistema es BIBO estable s y slo s todos los polos de g (z) tiene magnitudes menores que 1, o equivalentemente, todos los polos de g (z) estn dentro del crculo unitario del plano z . Esto puede ser fcilmente desmostrado notando que el par de la transformada z

g(k) = bk

k = 0, 1, 2, . . . g (z) = Z[g(k)] =

z zb

donde b es una nmero real o complejo. Si |b| < 1, entonces

|b|k <
k=0

De otra manera, diverge. Si g (z) es irreducible, los polos de g (z) son iguales a las races de su denominador. Si el grado del denominador es tres o mayor, el clculo de las races es complicado. Introducimos a continuacin un mtodo para vericar si todas las races de un polinomio estn dentro del crculo unitario sin calcular expcitamente las races. El mtodo es una contraparte del criterio de Routh-Hurwitz. Consideremos el polinomio con coecientes reales

D(z) = a0 z n + a1 z n1 + + an1 z + an
(0)

a0 > 0

(8.8)

Denimos ai = ai , i = 0, 1, . . . , n, y formamos la tabla en Tabla ??. El primer rengln es slo los coecientes de D(z). La constante k0 es el cociente de su ltimo y primer elemento. El segundo rengln es obtenido al multiplicar k0 sobre el primer rengln, excepto el primer elemento, y entonces invirtiendo su orden. El tercer rengln es la diferencia entre sus dos renglones previos. El residuo de la tabla es obtenido mediante el mismo procedimiento hasta (1) (2) (n) (i) n nmeros {a0 , a0 , . . . , a0 } son obtenidos. Denimos i = a0 , i = 0, 1, . . . , n.

Teorema 8.2 Todas las races de D(z) en (8.8) tienen magnitud menors que 1 s y slo s (i) los n nmeros i = a0 , i = 1, 2, . . . , n, calculados en la Tabla ?? son todos positivos.
Probaremos esto despus de establecer el teorema de Lyapunov para los sistemas discretos en el tiempo. Consideremos la ecuacin dinmica discreta en el tiempo invariante en el tiempo lineal x(k + 1) = Ax(k) + Bu(k) y = Cx(k) Los conceptos de estado equilibrio, estabilidad en el sentido de Lyapunov y estabilidad asinttica son idnticos al caso continuo en el tiempo. Similar al Teorema ??, cada estado equilibrio de x(k + 1) = Ax(k) es estable i.s.L. s y slo si todos los valores propios de A tiene magnitudes iguales o menores que 1 y aquellos con magnitudes iguales a 1 son races distintas del polinomio mnimo de A. Similar al Teorema ?? , el estado cero de x(k + 1) = Ax(k) es asintticamente estable s y slo s todos los valores propios de A tienen magnitud menor que 1. El teorema de Lyapunov para el caso discreto en el tiempo se lee como:

8.7. CONCLUSIONES

151

s para cualquier matriz hermitiana positiva denida N o para cualquier matriz hermitiana positiva semidenida con la propiedad {A, N} observable, la ecuacin matriz
A MA M = N

Teorema 8.3 Todos los valores propios de A tienen magnitudes menores que 1 s y slo

tiene una solucin hermitiana nica M y M es positiva denida.


Este teorema puede ser demostrado deniendo

V (x(k)) = x (k)Mx(k)
y calculando

8.7

Conclusiones

En este captulo introducimos la estabilidad BIBO para la respuesta de estado cero y la estabilidad i.s.L y la estabilidad asinttica para el estado equilibrio de la respuesta de entradacero. Para el caso variante en el tiempo, un sistema podra ser estable sin ser uniformemente estable. Para el caso invariante en el tiempo no existe distincin entre estabilidad uniforme y estabilidad (no uniforme). Aunque las condiciones necesarias y sucientes son establecidas para el caso variante en el tiempo, ellas pueden ser difcilmente empleadas debido a que las matrices de transicin no estn generalmente disponibles. Para el caso invariante en el tiempo, la estabilidad puede ser vericada de los polos de la funcin de transferencia o de los valores propios de la matriz A. S si o no todos los valores propios de A tienen parte real negativa puede ser examinado aplicando el criterio de RouthHurwitz al polinomio caracterstico de A o aplicando el teorema de Lyapunov. El polinomio caracterstico de A puede ser calculado usando el algoritmo de Leverrier, el cual sin embargo es sensible a errores computacionales. Si la matriz A es primero transformada en una forma de Hessenberg por un mtodo numrico estable, el polinomio caracterstico de A puede entonces ser ms fcilmente calculado. Una vez que A es transformado en una forma de Hessenberg, los calculos necesarios en el mtodo de Routh-Hurwitz es mucho menor que para resolver la ecuacin de Lyapunov y vericar si M es positiva denida. Por consiguiente el mtodo de Routh-Hurwitz es ms simple computacionalmente que el mtodo de Lyapunov para estudiar la estabilidad de A. Aunque ninguna comparacin ha sido llevada a cabo, la primera puede tambin ser ms estable numricamente que la segunda. Los conceptos de estabilidad son igualmente aplicables al caso discreto en el tiempo. Las condiciones de estabilidad, sin embargo, son diferentes. Si todos los polos de una funcin de transferencia estn dentro del semiplano abierto izquierdo s, entonces el sistema continuo en el tiempo es BIBO estable; mientras que si todos los polos de una funcin de transferencia estn dentro del crculo unitario abierto del plano z , entonces el sistema discreto en el tiempo es BIBO estable. Su relacin puede ser establecida usando la transformacin bilineal

s=

z1 z+1

152

CAPTULO 8. ESTABILIDAD DE SISTEMAS LINEALES

la cual mapea el semiplano izquierdo s en el crculo unitario en el plano z . Aunque pdemos transformar un problema discreto en el tiempo en un problema continuo en el tiempo al usar la transformacin bilineal, es ms simple vericar la estabilidad directamente sobre las ecuaciones discretas en el tiempo.

Potrebbero piacerti anche