Sei sulla pagina 1di 116

Tesis doctoral Condicionamiento y alta precisin o en problemas espectrales estructurados

Autor: Mar Jos Pelez Montalvo a e a Director: Julio Moro Carreo n

Condicionamiento y alta precisin o en problemas espectrales estructurados

Memoria que se presenta para optar al t tulo de Doctor en Matemticas a por la Universidad Carlos III de Madrid

Autor: Mar Jos Pelez Montalvo a e a Director: Julio Moro Carreo n

Programa de doctorado en Ingenier Matemtica a a Departamento de Matemticas a Escuela Politcnica Superior e Universidad Carlos III de Madrid Marzo de 2007

A mis padres y hermanos, en particular Fran y Roc o.

Agradecimientos

Un trabajo como es una tesis de 4 aos es, sin duda, un paseo de conocimiento, aprenn dizaje y simbiosis de mucha gente. Primero, quiero agradecer a Julio la paciencia y la precisin que me ha enseado en todo momento; su madurez cient o n ca que me ha transmitido, as como sus nimos en los momentos no productivos y dif a ciles que se tienen en toda tesis. A Froiln y Juan Manuel, unas sinceras gracias por todo su apoyo y sus a conversaciones siempre prcticas. a A Volker Merhmann y Daniel Kressner les agradezco su hospitalidad en mis estancias en Alemania y Suecia y mi ms sincera admiracin por el fervor que me han mostrado siempre a o en su visin de la ciencia1 ; a mis compaeros de doctorado por hacer ms ameno mi camino, o n a en especial a Alberto Portal por su ayuda siempre presente en temas computacionales y a Luis Lafuente que, aparte de las magn cas discusiones matemticas mantenidas con l, a e me ha dado un bao de realidad y una amistad dif de olvidar. n cil Y por ultimo debo agradecer a todas esas personas que siempre han conado en m a : Juan Antonio, quien me ha enseado en todo momento a ver la cara positiva; a Juan Pablo, n que siempre ha hecho anteponer la razn a la derrota; a Mercedes, quien me ha dado paz o y fuerzas en momentos dif ciles de esta tesis; a Laura, por sus consejos y esos interesantes partidos de tenis que hemos compartido; a Pilar, quien ha sabido comprenderme y ponerse en mi piel en todo momento; a mi hermano Francisco, que siempre me dijo que mirase hacia delante y a mi madre, quien siempre me ha escuchado. Y, por supuesto, a todos los dems que no puedo nombrar en estas l a neas porque, igual que un ordenador trabaja con precisin nita y esto conlleva en ocasiones errores de redondeo, estos agradecimientos o tambin son nitos y con errores. A todos: gracias. e Mar a Madrid, Marzo del 2007.
1 To Volker Merhmann and Daniel Kressner go my thanks for their hospitality during my visits to Germany and Sweden, and my most sincere admiration for the passion they have always shown me in their vision of science.

Este trabajo ha sido posible gracias a los proyectos del Ministerio de Educacin y Ciencia o BFM 2000-0008, BFM 2003-00223 y MTM 2006-05361.

Si he conseguido ver ms lejos, es porque me he aupado en hombros de gigantes. No se a lo que parecer a los ojos del mundo, pero a los m es como si hubiese sido un muchacho e os que juega en la orilla del mar y se divierte de tanto en tanto encontrando un guijarro ms a pulido o una concha ms hermosa, mientras el inmenso ocano de la verdad se extend a e a, inexplorado, frente a m . Isaac Newton

Indice general
1. Introduccin o 1.1. Algoritmos estructurados . . . . . . . . . . . 1.2. Algoritmos estructurados y precisin . . . . o 1.2.1. Nmeros de condicin estructurados u o 1.2.2. Algoritmos de alta precisin relativa o 1.3. Notacin . . . . . . . . . . . . . . . . . . . . o 9 9 11 13 14 18 19 19 23 27 27 27 29 30 33 36 39 39 49 52 54 56 60 74 75 75 81 87 87 96

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

2. N meros de condicin espectrales estructurados u o 2.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 2.1.1. Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. Perturbaciones estructuradas genricas: el caso matricial . . . . . . . . . . e 2.2.1. Nmero de condicin de Hlder estructurado para autovalores mltiples u o o u 2.2.2. Matrices reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.3. Estructuras lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.4. Matrices de Toeplitz y Hankel . . . . . . . . . . . . . . . . . . . . . 2.2.5. Matrices simtricas, antisimtricas y herm e e ticas . . . . . . . . . . . 2.2.6. Matrices Jsimtricas y Jantisimtricas . . . . . . . . . . . . . . . e e 2.3. Perturbaciones estructuradas genricas: problemas generalizados . . . . . . e 2.3.1. Haces de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2. Polinomios matriciales . . . . . . . . . . . . . . . . . . . . . . . . . 2.4. Perturbaciones estructuradas completamente no genricas: el caso matricial e 2.4.1. Estructuras lineales completamente no genricas . . . . . . . . . . . e 2.4.2. Estructuras y antiestructuras lineales . . . . . . . . . . . . . . . . . 2.4.3. Nmeros de condicin estructurados v el diagrama de Newton . . u o a 2.5. Conclusiones y trabajos futuros . . . . . . . . . . . . . . . . . . . . . . . . 3. Algoritmos espectrales de alta precisin relativa para matrices simtricas o e estructuradas 3.1. Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2. Factorizacin LDLT por bloques de matrices simtricas . . . . . . . . . . . o e 3.3. Factorizacin con alta precisin para matrices simtricas DSTU y TSC . . o o e 3.3.1. Matrices DSTU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2. Matrices TSC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

3.4. Paso de LDLT a RRD: Anlisis de errores a 3.5. Experimentos numricos . . . . . . . . . . e 3.5.1. Matrices DSTU . . . . . . . . . . . 3.5.2. Matrices TSC . . . . . . . . . . . . 3.6. Conclusiones y trabajos futuros . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

100 104 105 107 109

Cap tulo 1 Introduccin o


1.1. Algoritmos estructurados

En los inicios del Algebra Lineal Numrica, como es natural, los algoritmos se disearon e n a n de poder ejecutarse sobre la clase ms amplia posible de matrices, idealmente sin a restriccin alguna. Los algoritmos ms clebres del clculo matricial, como eliminacin o a e a o gaussiana o el algoritmo QR se desarrollaron con la idea de aplicarlos a matrices completamente arbitrarias. En el curso de los aos, estos algoritmos se han ido perfeccionando n gradualmente, incorporando todo tipo de mejoras y modicndose en el sentido de hacerlos a ms rpidos, ms robustos y ms precisos. Gracias a ello disponemos a fecha de hoy de una a a a a panoplia de algoritmos de carcter general rpidos y ables, ampliamente testados y que a a resuelven de manera satisfactoria gran parte de los problemas matriciales que se presentan en la prctica. a Sin embargo, estos algoritmos de carcter general, que llamaremos convencionales para a distinguirlos de los algoritmos estructurados, no son siempre la mejor opcin a la hora de o resolver un problema: con frecuencia, las matrices u operadores lineales que aparecen en las aplicaciones no son arbitrarios, sino que suelen tener estructuras especiales, bien como consecuencia de las propiedades f sicas subyacentes al modelo (simetr invariancias,...) as, o, por ejemplo, debido a la discretizacin de la que surge el problema lineal que se debe o resolver. Si la dimensin n del problema no es demasiado grande y se dispone de un buen o algoritmo convencional para resolver el problema, ignorar la estructura puede ser una buena opcin. Sin embargo, cuando n es grande, o cuando hay que resolver muchos problemas o similares de manera sucesiva, puede ser necesario sacarle partido a la estructura a efectos de reducir el coste computacional del algoritmo empleado. La estructura de una clase de matrices puede manifestarse de maneras muy distintas. Puede venir dada, por ejemplo, por relaciones de igualdad entre los elementos de la matriz: relaciones de simetr o antisimetr con respecto a la diagonal o a la antidiagonal principal a a (es el caso de las matrices simtricas, las antisimtricas o las persimtricas), relaciones de e e e igualdad a lo largo de diagonales o de antidigonales (matrices Toeplitz o Hankel), o puede que las repeticiones de elementos sigan otros patrones diferentes (matrices circulantes,

INTRODUCCION

10

centrosimtricas, etc...). La estructura puede venir dada de forma impl e cita, como en el caso de sumas (Toeplitz ms Hankel, por ejemplo), productos, o inversas de matrices con a estructura dada. O puede venir impuesta de modo ms sutil, como es el caso de las lgebras a a de Lie o de Jordan asociadas a productos escalares arbitrarios: un ejemplo paradigmtico a son las matrices hamiltonianas y las antihamiltonianas, que son, respectivamente, el lgebra a de Lie y el lgebra de Jordan correspondientes al producto escalar indenido asociado a la a matriz 0 In . Jn = In 0 Otras clases de matrices estructuradas aparecen de manera natural en problemas de interpolacin y aproximacin de funciones (matrices de Cauchy, de Vandermonde, de Vandero o monde polinmicas, de Pick,...), o al discretizar ecuaciones diferenciales (matrices banda: o tridiagonales, pentadiagonales,...). Tambin son relevantes en la prctica las estructuras e a dadas por la distribucin de elementos nulos y no nulos en la matriz, o aquellas con gran o nmero de elementos nulos en posiciones ms o menos prejadas (las matrices sparse en u a la terminolog inglesa, que, a falta de mejor traduccin, llamaremos huecas). El auge de a o los mtodos de Krylov, una de las reas de investigacin ms activas del Algebra Lineal e a o a Numrica en los ultimos aos, se debe a que para matrices de dimensiones muy grandes, e n los algoritmos convencionales, t picamente de orden n3 , son demasiado costosos y deben buscarse algoritmos ms baratos desde el punto de vista computacional. Para matrices a huecas, un mtodo de Krylov con un buen precondicionador es una alternativa mucho ms e a rpida que los mtodos convencionales. a e En general, diremos que un conjunto de matrices n n es una clase estructurada de matrices si existe un nmero t < n2 tal que cualquier matriz del conjunto se puede describir u como funcin de t parmetros o menos. Obviamente, el hecho de que las matrices dependan o a de un nmero pequeo de parmetros abre la posibilidad de disear algoritmos ms rpidos u n a n a a que los convencionales. Uno de los ejemplos ms familiares es el de las matrices simtricas: a e el hecho de que una matriz simtrica depende de aproximadamente la mitad de parmetros e a que una matriz no simtrica permite reducir el coste de eliminacin gaussiana a la mitad e o en su versin simtrica, el algoritmo de Cholesky, y permite reducir a bastante menos de o e la mitad el coste del algoritmo QR de autovalores. Por tanto, hay un primer incentivo a la hora de buscar algoritmos estructurados, relacionado con el coste computacional del algoritmo y el almacenamiento de los datos: si la matriz depende de menos parmetros, las a necesidades de almacenamiento se reducen y es probable que se pueda reducir tambin el e nmero de operaciones que debe ejecutar el algoritmo. Este tipo de reduccin es la que con u o frecuencia lleva a cabo cualquier usuario de Matlab, aunque no sea consciente de ello: el algoritmo que Matlab emplea para calcular los autovalores de una matriz, o para resolver un sistema lineal, es distinto segn que la matriz sea simtrica o que no lo sea. Cuando u e Matlab detecta que la matriz en cuestin es simtrica, emplea la versin estructurada (en o e o este caso, simtrica) del algoritmo, aunque esta eleccin sea transparente para el usuario. e o De manera muy laxa, llamaremos algoritmo estructurado a cualquier algoritmo ideado de manera espec ca para aplicarse a una clase concreta de matrices estructuradas, y que explote de alguna manera las propiedades especiales de dicha clase, bien para reducir el

INTRODUCCION

11

coste computacional, o con otros propsitos relacionados con la precisin, que explicaremos o o a continuacin. o Con una denicin tan vaga no es fcil hacer una historia de los algoritmos matrio a ciales estructurados, en parte porque los analistas numricos han tenido siempre en cuenta e la posibilidad de aprovechar la estructura para acelerar o simplicar sus algoritmos. Sin embargo, no fue hasta los aos 80 que esos esfuerzos se convirtieron en una corriente ren conocible dentro del clculo matricial, corriente que llega hasta nuestros d Como puede a as. verse en la pgina web a http://www.math.uconn.edu/ olshevsky/community.php, que enumera los integrantes de la Structured matrix community, muchos investigadores dedican sus esfuerzos a d de hoy al diseo y al anlisis de algoritmos estructurados para a n a resolver todo tipo de problemas matriciales. Sin embargo, las tcnicas y la terminolog e a que emplean, o los propsitos que rigen su investigacin, son muy diversos. Muestra de o o ello es, por ejemplo, la diversidad de enfoques que se puede apreciar en los cap tulos del libro [33]. Esta es otra dicultad aadida a la hora de trazar un panorama que recoja todas n las aportaciones de los diferentes enfoques. Aunque hay algoritmos rpidos anteriores para problemas estructurados, como el de a Bjrck-Pereyra para resolver sistemas lineales de Vandermonde [7], quiz uno de los cono a ceptos ms exitosos a la hora de sistematizar el estudio de una amplia clase de problemas a matriciales estructurados sea el de desplazamiento, introducido primeramente en [36, 53] en conexin con las matrices de Toeplitz, y extendido posteriormente a clases mucho ms o a amplias de matrices y a diversas aplicaciones prcticas. Por dar una idea de la amplitud de a problemas que se abarcan, este tipo de tcnicas permite hallar algoritmos de orden O(n2 ) e para resolver sistemas lineales1 cuyas matrices son, no slo Toeplitz, sino tambin productos o e 1 1 1 T1 T2 , inversas T u otras combinaciones T1 T2 T3 T4 , (T1 T2 ) T3 , ... de matrices Toeplitz Ti . El concepto de desplazamiento ha dado lugar a todo un rea de investigacin, dedicada a o a obtener algoritmos rpidos para clases de matrices con desplazamiento de rango nito a (vanse [40, 54, 33] para ms detalles y para una panormica de este activo campo de e a a investigacin). o

1.2.

Algoritmos estructurados y precisin o

Adems de obtener algoritmos ms rpidos, hay otros incentivos de peso, relacionados a a a con la precisin en el clculo de las soluciones, para emplear algoritmos estructurados. Es o a precisamente a estos aspectos de precisin a los que se dedica fundamentalmente la preo sente memoria. En primer lugar, algunas estructuras imponen fuertes restricciones sobre la naturaleza de las soluciones. Los autovalores de una matriz hamiltoniana real, por ejemplo, son simtricos con respecto a los ejes real y complejo, esto es, si es autovalor, entonces e tambin lo son , y . Si para calcular los autovalores de la matriz aplicamos el e
1

Ms en concreto, el coste es O(rn2 ), siendo r el rango de desplazamiento de la matriz. a

INTRODUCCION

12

mtodo QR, un algoritmo de Krylov o cualquier otro algoritmo que ignore la estructura e hamiltoniana, los autovalores calculados perdern esta simetr debido a la inuencia de los a a errores de redondeo. Esto diculta, por ejemplo, el identicar los autovalores imaginarios puros de una matriz hamiltoniana, algo que resulta crucial tanto para calcular el radio de estabilidad de una matriz [47] como para calcular la norma H de sistemas lineales invariantes en el tiempo [9]. Sin embargo, si en lugar de un algoritmo convencional se emplea un algoritmo que respete la estructura hamiltoniana, la simetr de los autovalores a se preserva. En resumen, suele ocurrir que las respuestas obtenidas de un algoritmo que preserva la estructura contienen una informacin cualitativa ms acorde con la naturaleza o a del sistema f sico subyacente que las soluciones calculadas por mtodos convencionales. e Esta idea puede precisarse en lenguaje matemtico por medio del anlisis regresivo a a de errores. Por simplicidad, lo haremos, como antes, aplicado al ejemplo de las matrices hamiltonianas reales. Se dice que un algoritmo de autovalores es regresivamente estable si, para cada matriz A, los autovalores de A calculados por el algoritmo son los autovalores exactos de una matriz ligeramente perturbada A+E (1.1)

(esto es, la matriz E es pequea, por ejemplo en norma, comparada con la matriz A). A la n matriz E se le llama matriz de errores regresivos. Si para calcular los autovalores de una matriz hamiltoniana real H empleamos un mtodo regresivamente estable (y prcticamente e a todos los algoritmos convencionales lo son), los autovalores calculados por dicho mtodo e sern los autovalores exactos de una matriz perturbada H +E, donde la matriz E acumula, a por as decirlo, todos los errores debidos al redondeo en las operaciones aritmticas que e requiere el proceso de clculo de autovalores. Si, adems, el algoritmo en cuestin preserva a a o la estructura hamiltoniana, el error regresivo E ser tambin hamiltoniano y real. En tal a e caso, se dice que el mtodo es regresivamente estable en sentido fuerte [12] y, al ser la suma e H + E tambin hamiltoniana, la simetr en los autovalores se conservar. Por el contrario, e a a si el mtodo no preserva la estructura, el error regresivo E deja de ser hamiltoniano y, e como consecuencia, la simetr se pierde. a Idealmente, un algoritmo estructurado deber cumplir tres condiciones: a ser regresivamente estable en sentido fuerte, ser capaz de calcular los autovalores de cualquier matriz que pertenezca a la clase estructurada en cuestin, y o no ser ms costoso computacionalmente que un mtodo convencional. a e Para algunas clases, como la de matrices simtricas reales o la de las antihamiltonianas e (vase, por ejemplo, [4, 2.42.5]), existen mtodos de autovalores que cumplen los tres e e requisitos. Sin embargo, no siempre es fcil desarrollar mtodos que satisfagan las tres a e condiciones, especialmente la primera. Valga como ejemplo de ello el caso hamiltoniano: la historia de los algoritmos estructurados para el problema hamiltoniano se abre con el

INTRODUCCION

13

trabajo de Paige y van Loan [75] en los aos 80. Desde entonces se han propuesto diversos n mtodos, ninguno de ellos totalmente satisfactorio: los primeros algoritmos, como el squaree reduced method de van Loan [65], trabajan de forma impl cita con la matriz al cuadrado, por lo que preservan la estructura de la matriz al cuadrado, no la de la matriz original. Esto conlleva calcular los autovalores con la mitad de la precisin con la que lo har un o a algoritmo que trabaje directamente con la matriz. Posteriormente, Benner et al. [5] evitan esa prdida de precisin, aunque preservando igualmente la estructura de la matriz al e o cuadrado. Finalmente, algoritmos ms recientes, como el propuesto en [6], slo se aplican a o al caso en que ninguno de los autovalores de la matriz es imaginario puro. Por tanto, aunque los algoritmos ya existentes son capaces de resolver de manera satisfactoria gran parte de los problemas que se plantean en la prctica, la cuestin de hallar un algoritmo ideal a o para el problema hamiltoniano de autovalores sigue an abierta. u

1.2.1.

N meros de condicin estructurados u o

Otra observacin importante es que, adems de preservar propiedades cualitativas coo a mo las simetr es de esperar que un algoritmo regresivamente estable en sentido fuerte as, sea ms preciso que uno convencional. Ello se debe a que si el mtodo es regresivamente a e estable en sentido fuerte, el conjunto de posibles errores regresivos E en (1.1) debidos al redondeo se restringe a la clase de matrices estructuradas en cuestin. Al ser menor el o conjunto de perturbaciones admisibles, el peor efecto posible sobre la precisin de los autoo valores a causa de errores estructurados puede ser mucho menor que el peor efecto posible debido a errores arbitrarios, sin estructurar. Esto abre la posibilidad de que un mtodo que e preserve la estructura alcance una precisin mucho mayor que un algoritmo convencional, o si es que los autovalores son mucho ms sensibles a perturbaciones no estructuradas que a a las estructuradas. Dado que la sensibilidad de los autovalores de una matriz se mide a travs de su nmero de condicin, es de la mayor importancia el poder comparar, para e u o las distintas estructuras, el nmero de condicin estructurado y el no estructurado, a n u o de detectar aquellos casos en que un algoritmo estructurado pueda ser signicativamente ms preciso que un algoritmo convencional. Varios autores, como Higham y Higham [42], a Rump [81, 82], o Tisseur [91] se han ocupado de esta cuestin, pero siempre para autoo valores simples. En [42, 91], por ejemplo, se obtienen expresiones expl citas del nmero u de condicin estructurado de un autovalor simple cuando la clase estructurada de matrio ces es un subespacio lineal. Este tipo de resultados fue extendido por Karow, Kressner y Tisseur en [55] a estructuras no lineales bajo ciertas condiciones de regularidad. Rump, por su parte, hace en [81, 82] un estudio exhaustivo del nmero de condicin estructurau o do de autovalores simples y del pseudoespectro para diversas estructuras, tanto lineales como no lineales. Sorprendentemente, en la mayor parte de los casos investigados, el condicionamiento estructurado diere poco del no estructurado. Los unicos casos en los que se sabe que puede haber una diferencia signicativa son el caso antisimtrico complejo [82], e el de matrices con ciertas distribuciones de ceros [73], y el caso simplctico [55]. e Nuestra intencin en el cap o tulo 2 de esta memoria es explorar el caso de autovalores mltiples. En primer lugar, deniremos con todo detalle los nmeros de condicin, tanto u u o

INTRODUCCION

14

estructurados como no estructurados, para autovalores mltiples, posiblemente defectivos u de matrices. Para ello nos basaremos en la denicin de nmero de condicin propuesta o u o en [72, 4], que a su vez se sigue de la teor de perturbacin de Lidskii [64, 96], que a o describe los desarrollos asintticos en potencias fraccionarias que son de esperar cuando o se perturba un autovalor mltiple. Una vez dispongamos de un concepto de nmero de u u condicin estructurado, obtendremos expresiones expl o citas del mismo para diversas clases de matrices estructuradas, e incluso para algunas clases estructuradas de haces de matrices: dadas dos matrices cuadradas A y B de la misma dimensin, consideraremos el problema o de determinar escalares y vectores x = 0 tales que Ax = Bx. (1.2)

Tambin trataremos, aunque muy tangencialmente, los problemas polinmicos de autovae o lores en la seccin 2.3.2. o

1.2.2.

Algoritmos de alta precisin relativa o

En el ultimo cap tulo de la memoria nos ocuparemos de ciertos algoritmos estructurados de autovalores que se han venido desarrollando en los ultimos veinte aos para matrices n simtricas, y que podemos englobar bajo la denominacin de algoritmos de alta precisin e o o relativa. El nombre se debe a que si A es la matriz simtrica cuyos autovalores queremos e calcular, E es el error regresivo como en (1.1), y suponemos que el cociente de normas E / A es del orden de una cierta cantidad (por ejemplo, la unidad de redondeo de la aritmtica nita empleada por un ordenador), entonces lo ms que se puede asegurar e a para los autovalores calculados es que se obtienen con alta precisin absoluta, esto es, que o el error absoluto | | verica para una cierta cantidad del orden de , donde es un autovalor exacto y es la aproximacin de que nos proporciona el algoritmo. Esto no garantiza que todos los autovalores o de la matriz se calculen con un m nimo de cifras signicativas correctas: la anterior cota absoluta se traduce en la cota relativa |mx | | | a || || donde mx es el autovalor de mdulo mximo de la matriz. Por tanto, los unicos autovao a a lores para los que se puede garantizar un error relativo de orden son aqullos de tamao e n similar al de max . Sin embargo, hay en las aplicaciones numerosos ejemplos de sistemas con escalas mltiples, cuya matriz tiene autovalores de tamaos muy dispares y en los que, u n de hecho, son los autovalores ms pequeos los que interesa calcular con mayor precisin. a n o En tales situaciones los algoritmos al uso proporcionan con frecuencia aproximaciones que no concuerdan en ninguna cifra signicativa con los autovalores de la matriz e incluso dieren en rdenes de magnitud y/o signo con los autovalores exactos. o | | A ,

INTRODUCCION

15

o con = O(), esto es, que calculan con la misma precisin los autovalores grandes que los pequeos. En la actualidad estos algoritmos existen slo para ciertas clases muy particun o lares de matrices simtricas, as como para el problema relacionado de la descomposicin e o en valores singulares (DVS) de matrices cualesquiera. A fecha de hoy slo se conoce un o algoritmo de alta precisin relativa para autovalores de matrices no simtricas: el algoritmo o e para matrices totalmente no negativas desarrollado por Koev [57] (vase tambin Koev & e e Dopico [58]). Una historia resumida de los algoritmos de alta precisin relativa comienza con el o clculo de autovalores y autovectores de ciertas matrices tridiagonales simtricas [52], y a e el problema relacionado del clculo de valores y vectores singulares de matrices bidiagoa nales [23, 35]. Estos estudios proporcionan algoritmos no slo precisos sino muy ecientes, o que en la actualidad son los utilizados por defecto para el problema bidiagonal en la librer a numrica LAPACK [1]. Los algoritmos propuestos por Dhillon y Parlett [26, 27, 28], por e ejemplo, son la base del algoritmo MRRR, el ms eciente a fecha de hoy2 para el problema a espectral tridiagonal simtrico. Dicho algoritmo est implementado en LAPACK y alcanza e a una precisin absoluta similar a la del algoritmo QR. o Para matrices densas los logros iniciales ms importantes fueron: algoritmos para matria ces escaladas diagonalmente dominantes (matrices que reescaladas tienen diagonal principal dominante) [2], para matrices ac clicas (matrices tales que el grafo bipartito que representa el patrn de ceros de la matriz es ac o clico) [25], para matrices denidas positivas bien condicionadas tras escalamiento diagonal simtrico [24] y para ciertos tipos de matrices e simtricas indenidas muy dif e ciles de caracterizar a travs de su factor polar denido e positivo [95, 94]. En cada uno de estos trabajos pioneros se desarrollaba un algoritmo distinto, que requer un anlisis de errores diferente y una teor de perturbaciones propia. El trabajo a a a unicador de Demmel et al. [22] establece que, para todas las clases de matrices para las que hoy en d existen algoritmos de alta precisin relativa para calcular la DVS, dicha a o descomposicin se puede calcular en dos fases: o 1. Calcular una descomposicin de la matriz A = XDY T con D diagonal y X, Y bien o condicionadas. Dicha descomposicin se calcula usando diferentes versiones, adaptao das a la estructura de la matriz y, en ocasiones muy sosticadas, del algoritmo de eliminacin Gaussiana con pivote completo. o 2. Aplicar un algoritmo de tipo Jacobi a la matriz factorizada XDY T .
El algoritmo MRRR es el unico mtodo para el problema espectral tridiagonal simtrico con coste e e O(n2 ), donde n es la dimensin de la matriz o
2

Estas dicultades han motivado que desde nales de los aos 80 se haya desarrollado n una intensa investigacin en los algoritmos de alta precisin relativa, que garantizan o o cotas de error de la forma | | , (1.3) ||

INTRODUCCION

16

Dado que el algoritmo de la segunda etapa es siempre el mismo, las diferencias para cada clase estructurada de matrices se reducen a cmo calcular la factorizacin XDY T . La clave o o es evitar el efecto de cancelacin en todas y cada una de las operaciones aritmticas del o e proceso de factorizacin. Para ello se modica adecuadamente el algoritmo de eliminacin o o gaussiana, haciendo uso de las propiedades especiales de la clase de matrices sobre la que se est trabajando para evitar las operaciones potencialmente peligrosas a efectos de a cancelacin. Hay que resaltar que en [22] no slo se unican la teor y los algoritmos o o a previamente existentes, sino que se introducen nuevas clases de matrices para las que la DVS se puede calcular con alta precisin relativa. As se identic la coleccin de matrices o o o ms amplia, hasta esa fecha, para las que esto era posible. a Las ideas de [22] fueron trasladadas al problema simtrico de autovalores por Dopico, e Molera y Moro [30], en el sentido de demostrar que para todas las matrices simtricas, e denidas o indenidas, incluidas en las clases identicadas en [22], se pueden calcular sus autovalores y autovectores con alta precisin relativa. La idea es aadir una tercera fase o n al esquema de [22] que permite calcular autovalores y autovectores a partir de valores y vectores singulares. Sin embargo, el algoritmo de [30] no aprovecha al mximo la simetr a a T de la matriz. En particular, comienza hallando una factorizacin A = XDY mediante o eliminacin Gaussiana con pivote completo, que para matrices simtricas indenidas no o e respeta la simetr de la matriz, y no permite en consecuencia los ahorros tanto de memoria a como de operaciones esperables en un problema simtrico. e En el cap tulo 3 de la presente memoria demostramos que, para dos clases espec cas de matrices simtricas (las matrices DSTU y las TSC), la factorizacin no simtrica e o e XDY T de la primera etapa del algoritmo en [30] se puede reemplazar por una factorizacin o T simtrica XDX sin perder por ello precisin, ni en la factorizacin inicial ni en el clculo e o o a subsiguiente de autovalores y autovectores. De hecho, se llega a la factorizacin XDX T o pasando por una factorizacin LDLT por bloques que, convenientemente adaptada en cada o caso a las propiedades espec cas de la estructura, demostraremos que se calcula con error relativo pequeo componente a componente. Aunque este tipo tan fuerte de precisin se n o T pierde al emplear despus rotaciones de Givens para llegar a XDX , la precisin que se e o mantiene (columna a columna en norma) es suciente para garantizar la alta precisin o relativa de la segunda etapa del algoritmo espectral. Tras discutir en la seccin 3.3 cmo o o se puede adaptar el algoritmo de factorizacin a cada una de las clases de matrices (DSTU o y TSC), la seccin 3.4 contiene un anlisis de errores detallado al respecto. Finalmente, o a en la seccin 3.5 se incluyen experimentos numricos que conrman la alta precisin de o e o los algoritmos propuestos. Otras clases de matrices para las que se puede obtener tanto factorizaciones simtricas como autovalores y autovectores con alta precisin relativa son e o las matrices de Cauchy (escaladas diagonalmente o no), las de Vandermonde y las matrices totalmente no negativas parametrizadas mediante su factorizacin bidiagonal [29]. o Antes de terminar esta introduccin queremos hacer notar que los dos tipos de incentivo o que hemos mencionado a la hora de emplear algoritmos estructurados (rapidez/almacenamiento por un lado, y precisin/estabilidad por otro) no estn descorrelacionados, ni son o a el objetivo primordial de comunidades cient cas disjuntas: por un lado, se est haciendo a un esfuerzo por estabilizar algoritmos rpidos ya existentes, por ejemplo mediante tcnicas a e

especiales de pivotaje (vanse los art e culos de survey [74, 10]). Por otro lado, los algoritmos de alta precisin relativa que acabamos de describir, cuya segunda etapa es un algoritmo de o tipo Jacobi, pueden verse acelerados en un futuro muy prximo como consecuencia de las o nuevas implementaciones del algoritmo de Jacobi, debidas principalmente a Drma [31, 32], c que comienzan a ser competitivas frente a algoritmos tradicionalmente considerados ms a rpidos, en particular frente al algoritmo QR. a Concluimos esta introduccin mencionando los art o culos a que ha dado lugar la investigacin conducente a esta memoria: el contenido del cap o tulo 2 corresponde a los art culos [59, 77, 78]. El art culo [59], escrito en colaboracin con Daniel Kressner, se encuentra en o proceso de revisin por la revista SIAM Journal on Matrix Analysis and Applications, y o el art culo [78] se someter en breve a la revista Linear Algebra and its Applications. La a nota [77], cuyos resultados estn contenidos en [59], se public en la coleccin de actas a o o PAMM (Proceedings in Applied Mathematics and Mechanics) de la Sociedad Alemana de Matemtica Aplicada y Mecnica (GAMM). a a El contenido del cap tulo 3 corresponde al art culo [76], que ya ha sido publicado en la revista SIAM Journal on Matrix Analysis and Applications.

17

1.3.

Notacin o

Para comodidad del lector ofrecemos la siguiente tabla de notaciones, que se seguir a a lo largo de toda la memoria. S mbolo Cnn Rnn Cp Rp p 0() o() >> << AT AH i (A) F 2 (A) (A) In Fn n Signicado conjunto de matrices cuadradas de orden n con coecientes complejos conjunto de matrices cuadradas de orden n con coecientes reales conjunto de vectores columna con p componentes complejas conjunto de vectores columna con p componentes reales suma directa de p matrices producto de Kronecker O-grande de Landau o-pequea de landau n mucho mayor mucho menor equivalente no equivalente traspuesta de la matriz A, es decir, (AT )ij = Aji traspuesta conjugada de la matriz A, es decir, (AH )ij = Aji i-simo mayor valor singular de la matriz A e n 2 norma de Frobenius: ||A||F = i=1 |aij | norma espectral: A 2 = 1 (A) espectro de la matriz A radio espectral de la matriz A matriz identidad de orden n matriz antidiagonal con unos sobre la antidiagonal principal (ip matrix) matriz antidiagonal con signos alternos sobre la antidiagonal principal

Por ultimo, vaya de antemano la disculpa por el empleo de algunos trminos y siglas, e como underow o TSC, que conservaremos en ingls, debido a que traducirlos conlleva o e bien una prdida grande de precisin o el empleo de una expresin poco natural en espaol. e o o n

18

Cap tulo 2 N meros de condicin espectrales u o estructurados


2.1. Introduccin o

Como se seal en el cap n o tulo introductorio, los nmeros de condicin miden en general u o la sensibilidad de la solucin de un problema frente a cambios innitesimales en los datos o de entrada. Un anlisis regresivo de errores lleva en general a cotas de error del tipo a (error en la solucin) (nmero de condicin) (error regresivo) , o u o donde el error regresivo se dene como en (1.1). Esta es la motivacin de tratar de estio mar tanto el nmero de condicin del problema como el error regresivo correspondiente a u o cada algoritmo regresivamente estable. Adems, como se ha visto tambin en el Cap a e tulo 1, cuando la matriz del problema tiene una estructura particular puede ser ventajoso el incorporar esa estructura a los algoritmos de resolucin. Un anlisis de errores que ino a corpore la estructura requiere en primer lugar una estimacin del nmero de condicin o u o estructurado, esto es, una estimacin de lo sensibles que son las soluciones del problema o con respecto a perturbaciones estructuradas. A ello se dedica el presente cap tulo para el caso de algoritmos espectrales. Si nos centramos en el problema del clculo de autovalores simples de una matriz, a hay numerosos resultados en la literatura relacionados con nmeros de condicin y errores u o regresivos, tanto estructurados como no estructurados [16, 39, 42, 55, 73, 77]. A continuacin resumiremos algunos de estos resultados. Sea un autovalor simple de una matriz o A Cnn . Se sabe que es una funcin diferenciable de los elementos de la matriz A y o que el autovalor perturbado de la matriz perturbada A + E admite un desarrollo de la forma y H Ex + O(2 ), 0, (2.1) x 2 y 2 donde x e y son, respectivamente, autovectores derecho e izquierdo de la matriz A correspondientes al autovalor , normalizados por la condicin |y H x| = 1. As el nmero de o , u =+ 19

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS condicin absoluto del autovalor , denido como o (A, ) = l m sup
0
E 1 ECnn

20

| | ,

(2.2)

viene dado por (A, ) = x 2 y 2 para cualquier norma unitariamente invariante . Una de las matrices de perturbacin que alcanza la mxima variacin es la matriz de rango o a o uno yxH , (2.3) x 2 y 2 conocida como perturbacin de Wilkinson. A n de incorporar la estructura al concepto o de nmero de condicin debemos considerar el caso en que las matrices de perturbacin u o o nn E pertenecen a un conjunto S C de matrices estructuradas. El nmero de condicin u o estructurado de un autovalor simple se dene como E= (A, ; S) = l sup m
0
E 1 ES

| | ,

(2.4)

Obviamente, puesto que el conjunto de perturbaciones admisibles en (A, ; S) es un subconjunto del conjunto admisible para (A, ). La pregunta que surge de modo natural es en qu situae ciones ser (A, ; S) mucho ms pequeo que (A, ) o, lo que es lo mismo, cundo ser el a a n a a autovalor mucho menos sensible a perturbaciones estructuradas que a perturbaciones arbitrarias. Para muchas estructuras S la respuesta es negativa, en el sentido de que el nmero de condicin estructurado (A, ; S) es, salvo un factor de tamao moderado, u o n igual al nmero de condicin no estructurado (A, ). Esto se demuestra en [16] para u o S = Rnn y en [55, 82] para matrices antisimtricas reales, matrices de Hankel y Toeplitz, e hamiltonianas, persimtricas, circulantes, ortogonales y unitarias. Tambin hay ejemplos e e relevantes para los cuales (A, ; S) (A, ); estos ejemplos corresponden a matrices antisimtricas complejas [82], ciertas ceroestructuras (esto es, ciertas matrices con ceros e en posiciones prejadas) [73] o matrices simplcticas [55]. e El condicionamiento de autovalores mltiples, sin embargo, no ha sido tratado hasta el u momento en la literatura. Aunque hay varios conceptos similares de nmero de condicin u o no estructurado para autovalores mltiples [17, 72], esas deniciones no se han trasladado u al contexto estructurado hasta muy recientemente [59]. La denicin en [59], que veremos o ms adelante como Denicin 2.2.1, se basa en la teor de perturbacin de Lidskii [64] a o a o para autovalores mltiples, eventualmente defectivos u Antes de recordar la teor de Lidskii, ntese que la denicin (2.2) no es vlida para a o o a autovalores mltiples. Por ejemplo, la matriz u 0 1 0 0 (A, ; S) (A, ),

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS tiene un unico autovalor nulo doble. Si se perturba de la forma 0 1 0 0 entonces + 0 0 1 0

21

1 | | = / = , l m sup
0
E 1 ECnn

luego | | = .

En general, es bien sabido que si es un autovalor mltiple de multiplicidad algebraica u m, entonces no se desarrolla de la forma (2.1), sino que pueden aparecer desarrollos de Puiseux en potencias fraccionarias (vase [3, 9.3.1] o [56, II.1.2]). Ms en concreto, el e a autovalor se bifurca en m autovalores perturbados k admitiendo cada uno un desarrollo
k = + kk k + o(),

k = 1, . . . , m,

(2.5)

en potencias fraccionarias de con k > 0 y 0 < k 1. Bajo ciertas condiciones de genericidad sobre la matriz de perturbacin E, la teor de perturbacin de Lidskii [64] o a o asegura que cada bloque de Jordan de tamao nj nj asociado al autovalor da lugar n genricamente a nj autovalores perturbados con desarrollo fraccional (2.5) para k = 1/nj . e Por ejemplo, sea una matriz A con un autovalor de multiplicidad algebraica 9 y sea

1 1 1 1

su correspondiente forma de Jordan. Si perturbamos esta matriz, en general los autovalores perturbados se bifurcan del modo que se muestra en las siguientes guras:

Dos bloques 3 3.

Un bloque 2 2.

Un bloque 1 1.

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

22

donde el c rculo representa el autovalor mltiple y las echas las direcciones tangentes al u movimiento de los autovalores perturbados. Motivados por los desarrollos (2.5), en [72, 4] se dene el nmero de condicin de u o Hlder para un autovalor como un par o (A, ) = (n1 , ), (2.6)

donde n1 es el tamao del mayor bloque de Jordan de A asociado a y la cantidad 1/n1 > 0 n es el valor ms grande posible del coeciente 1/n1 entre todas las perturbaciones E Cnn a con ||E|| 1 (vase la Denicin 2.1.3 ms adelante). Ntese que, al ser 1/n1 el menor e o a o exponente posible en los desarrollos (2.5), se tiene que 1/n1 = l m sup
0
E 1 ECnn

|k | . k=1,...,m 1/n1 mx a

(2.7)

(vase [17, p. 156] para una denicin similar de nmero de condicin de autovalores mltie o u o u ples). Llegados a este punto debemos hacer notar que, para ciertas perturbaciones no genrie cas, el valor de k en (2.5) puede ser mayor que 1/n1 para todo autovalor perturbado k . Por ejemplo, consideremos el siguiente ejemplo, sacado de [97, 2.22]. Sea la matriz perturbada

A + E =


0 1 0 0 1 0 0 1 0

(2.8)

cuyo polinomio caracter stico es 2 5 . En este caso, k = 2/5 para todo k en (2.5) mientras que 1/n1 = 1/3. Estos casos no genricos suelen aparecer cuando la perturbacin E pertenece a un e o conjunto S de matrices con una estructura dada. Fijada una estructura S, queremos denir un nmero de condicin de tipo Hlder estructurado de la forma u o o (A, ; S) = (nS , S ), donde 1/nS es el menor exponente posible de en (2.5) y la cantidad 1/nS > 0 es el valor ms grande posible en el coeciente 1/nS para toda perturbacin E S (vase la Denicin a o e o 2.2.1 ms adelante). a En general, suele ocurrir que nS = n1 , pero existen estructuras tales que nS es menor que n1 . Por ejemplo si S es el conjunto de matrices antisimtricas complejas, la matriz e 0 1 0 1 1 0 1 0 i 0 i 0 i 0 i 0

A=

(2.9)

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

23

tiene un unico autovalor = 0 de multiplicidad geomtrica dos y mayor bloque de Jordan e de tamao tres, esto es, n1 = 3. Puede comprobarse fcilmente que para cualquier matriz n a de perturbacin E S la matriz perturbada A + E tiene autovalores de orden O(1/2 ). o En otras palabras, se tiene nS = 2 < n1 = 3. En casos como ste en los que, dada una matriz y uno de sus autovalores, todas las e perturbaciones dentro de una clase estructurada dn lugar a perturbaciones (2.5) con k > e 1/n1 (y, por tanto, sea nS < n1 ), diremos que las perturbaciones en S son completamente no genricas (en ingls, fully nongeneric). Ms adelante dividiremos nuestro estudio en dos e e a casos: llamaremos genrico al caso en que nS = n1 y caso completamente no genrico a e e aqul en que nS < n1 . e Finalmente, hacemos notar que, como se ver en 2.3.1 y 2.3.2, se pueden denir a tambin nmeros de condicin de tipo Hlder para problemas generalizados de autovalores, e u o o tales como haces de matrices AB con A, B Cnn , o polinomios matriciales de la forma P () = m Am + m1 Am1 + . . . + A1 + A0 con Ai Cnn .

2.1.1.

Preliminares

En esta seccin resumiremos los resultados de la teor de Lidskii [64, 72] que conducen o a al nmero de condicin (2.6). Adems, haremos unos breves comentarios sobre formas u o a cannicas estructuradas [89, 71], que usaremos con frecuencia en todo este cap o tulo. nn Sea un autovalor de la matriz A C y sea n1 el tamao del mayor bloque de n Jordan correspondiente a dicho autovalor . La forma cannica de Jordan de la matriz A o se puede escribir como J 0 0 J donde Q Q P P =I (2.11) = Q Q A P P
1 = PA APA ,

(2.10)

y J contiene todos los bloques de Jordan de tamao n1 n1 asociados a . Ms concretan a mente, se tiene que J = diag(1 , . . . , r1 ), 1 1 1 = = r1 = 1 1 1 ... ... ... 1

Cn1 n1 .

(2.12)

n El bloque J contiene tanto los bloques de Jordan de tamao menor que n1 asociados a como los bloques de Jordan asociados a autovalores distintos de . Las columnas de la matriz P forman r1 cadenas de Jordan linealmente independientes de longitud n1 , cada una de las cuales comienza con un autovector derecho de A asociado

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS a . Reunimos todos estos autovectores derechos en una matriz X de tamao n r1 n X= P e1 , P en1 +1 , . . . , P e(r1 1)n1 +1 ,

24

(2.13)

donde ei denota la columna i-sima de la matriz identidad de orden n. Anlogamente, reue a nimos en una matriz Y los autovectores izquierdos de las r1 cadenas de Jordan linealmente independientes que aparecen en la matriz Q, es decir, Y = QH en1 , QH e2n1 , . . . , QH er1 n1 . (2.14)

Ntese que la relacin (2.11) implica que Y H X = Ir1 r1 si n1 = 1 e Y H X = 0r1 r1 en o o otro caso. Con esta notacin, el siguiente resultado es una versin simplicada del resultado o o fundamental de [64]: Teorema 2.1.1 ([64, 72]) Sea A Cnn , sea un autovalor de A y sea (2.10) una forma de Jordan de A. Sean las matrices X e Y denidas como en (2.13) y (2.14), respectivamente, y supongamos que Y H EX es invertible para una cierta E Cnn . Entonces existen n1 r1 autovalores k de la matriz perturbada A + E que admiten un desarrollo en potencias fraccionarias de la forma k = + (k )1/n1 1/n1 + o(1/n1 ), k = 1, . . . , r1 , (2.15)

donde 1 , . . . , r1 son los autovalores de la matriz Y H EX. Ntese que las columnas de las matrices X e Y son linealmente independientes, luego o la matriz Y H EX ser no singular para una perturbacin genrica E Cnn . En el caso a o e H no genrico en que Y EX es singular, los desarrollos (2.15) siguen siendo vlidos, aunque e a slo parcialmente. En concreto, se tiene el siguiente resultado. o Lema 2.1.2 ([72, Pg. 809]) Sea un autovalor de la matriz A Cnn , y sea ( 2.10) una forma cannica de Jordan de A. Sean las matrices X e Y denidas como en (2.13) o y (2.14), respectivamente. Sea E Cnn una perturbacin tal que Y H EX es singular. o Entonces cada uno de los < r1 autovalores no nulos 1 , . . . , de Y H EX da lugar a n1 autovalores perturbados de la forma (2.15). Los r1 autovalores nulos restantes corresponden a autovalores perturbados con desarrollos en los que el exponente principal es estrictamente menor que 1/n1 . El Teorema 2.1.1 implica que, para valores de sucientemente pequeos, el peor caso en n cuanto a la magnitud de la perturbacin en los autovalores corresponde al mayor autovalor o H en valor absoluto de la matriz Y EX. Esto motiva la siguiente denicin de nmero de o u condicin. o Denicin 2.1.3 ([72, Denition 4.1]) Sea un autovalor de la matriz A Cnn , o sea ( 2.10) una forma cannica de Jordan de A y sean X e Y matrices denidas como o en (2.13) y (2.14). El n mero de condicin (absoluto) Hlder de se dene como u o o

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

25

(A, ) = (n1 , ), donde n1 es el tamao del mayor bloque de Jordan asociado al autovalor n y (2.16) = sup (Y H EX),
E 1 ECnn

donde () denota el radio espectral de una matriz. La cadena de desigualdades (Y H EX) = (EXY H ) EXY H 2 XY H 2 para la norma 2 nos dice que para alcanzar la igualdad deber amos construir una matriz de H H perturbacin E tal que (Y EX) = XY 2 . El siguiente lema caracteriza algunas de o estas perturbaciones. Lema 2.1.4 Sea XY H = U V H una descomposicin en valores singulares, esto es, U Cnr1 , V Cnr1 con columnas o ortonormales y = diag(1 , . . . , r1 ) con 1 r1 0. Consideramos E = V DU H con D = diag(1, 2 , . . . , r1 ) tal que j 1, j = 2, . . . , r1 . Entonces (EXY H ) = XY H 2 . Demostracin: o El resultado se sigue de que (EXY H ) = (V DV H ) = (D) = D
2

= XY H 2 .

Ntese que la denicin de en (2.16) depende de la norma usada. Para cualquier o o norma unitariamente invariante, si D = diag(1, 0, . . . , 0) y E = V DU H en el Lema 2.1.4, se tiene E = 1 y por tanto = XY H 2 , resultado que ya se demostr en [72]. Para otras normas, otras elecciones de D son posibles. o Para la norma espectral, por ejemplo, cualquier perturbacin E denida como en el Lema o 2.1.4, cumple que E 2 = 1. En particular, si tomamos D = /1 , la matriz E= Y XH , XY H 2 (2.17)

que llamaremos perturbacin de Lidskii, resulta ser una generalizacin de la perturbacin o o o de Wilkinson (2.3), en el sentido de que es una matriz de rango bajo que realiza el mximo a efecto sobre de entre todas las perturbaciones de norma 1. Este tipo de perturbaciones ser util al probar que el nmero de condicin estructurado y el no estructurado coinciden a u o para la norma dos. Otras clases de perturbaciones que tambin se usarn son las siguientes. e a Lema 2.1.5 Sea autovalor de una matriz A Cnn con forma de Jordan (2.10) y sean X e Y las matrices de autovectores de A denidas en (2.13) y (2.14), respectivamente. Sean u1 , v1 Cnn , respectivamente, vectores singulares izquierdo y derecho correspondientes al mayor valor singular de la matriz XY H . Sea E Cnn tal que Eu1 = v1 con || = 1. Entonces (EXY H ) XY H 2 .

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

26

Demostracin: o Sea XY H = U V H una descomposicin en valores singulares con U = [u1 , . . . , un ], o V = [v1 , . . . , vn ]. Entonces (EXY H ) = (EU V H ) = (V H EU ) = (V H [v1 , Ev2 , . . . , Evn ]) XY H 2 = XY H 2 . 0 Tambin necesitamos para nuestro anlisis emplear formas cannicas espec e a o cas para ciertas estructuras, ya sea de matrices o de haces de matrices. En general, las formas cannicas que emplearemos son la de Jordan para matrices (a la que se llega por semejano za) y la de Weierstrass para haces regulares de matrices (a la que se llega por equivalencia), aunque a veces recurriremos tambin a formas cannicas por congruencia para haces ese o tructurados de matrices. Como ya hemos visto, las matrices X e Y denidas en (2.13) y (2.14) juegan un papel crucial a la hora de denir los nmeros de condicin de Hlder. Una de nuestras herrau o o mientas fundamentales en las secciones 2.2 y 2.3 ser el hecho de que algunas estructuras a inducen relaciones especiales entre X e Y . Estas relaciones son consecuencia inmediata de las formas cannicas estructuradas, descritas por ejemplo en [89] y [71], para haces de o matrices A B, cuando A y/o B son matrices simtricas o antisimtricas [89] o, de forma e e ms general, autoadjuntas o antiautoadjuntas con respecto a productos escalares arbitraa rios [71]. Por ejemplo, la forma de Jordan de una matriz simtrica (resp. antisimtrica) se e e obtiene fcilmente de la forma cannica por congruencia del haz simtrico (resp. del haz a o e antisimtrico/simtrico) A I: si el haz G H con e e G = P T AP, H = PTP

es una forma cannica por congruencia de A I entonces puede comprobarse que o H1 G = P 1 AP es una semejanza que lleva A a una forma muy cercana a su forma de Jordan. Para llegar a la forma de Jordan basta llevar a cabo ciertas reordenaciones de las y columnas, que suelen involucrar a las matrices k = (1)
k1

. ..

(1)0

Fk = 1

. ..

(2.18)

ambas de k k. Las matrices Fk y k aparecern con frecuencia a lo largo de todo el a cap tulo.

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

27

2.2.
2.2.1.

Perturbaciones estructuradas genricas: el caso e matricial


N mero de condicin de Hlder estructurado para autou o o valores m ltiples u

En esta seccin denota un autovalor de la matriz A Cnn con nmero de condicin o u o de Hlder no estructurado (A, ) = (n1 , ) dado por la Denicin 2.1.3. Las matrices X o o e Y estn denidas como en (2.13) y (2.14) respectivamente. a Si restringimos las perturbaciones admisibles E de Cnn a un subconjunto S Cnn , tendremos el correspondiente nmero de condicin estructurado (A, ; S) = (nS , S ). u o Denicin 2.2.1 Sea un autovalor de la matriz A Cnn y sea S un subconjunto de o matrices de Cnn . El n mero de condicin estructurado de Hlder de con respecto u o o a S se dene como (A, ; S) = (nS , S ), donde 1/nS es el menor exponente posible k de en el desarrollo de los autovalores perturbados (2.5) entre todas las perturbaciones E S, y S > 0 es el mayor valor posible para k en (2.5) para toda E S con E 1. Como se dijo en la seccin anterior existen casos en los que nS < n1 , pero en esta seccin o o nos restringiremos al caso ms frecuente, en el que nS = n1 . En tal caso, por el Teorema a 2.1.1 y el Lema 2.1.2, se tiene que S = sup (Y H EX).
E 1 ES

(2.19)

La presencia del radio espectral en (2.19) complica en gran medida el problema de determinar el supremo y diculta el conseguir frmulas expl o citas o cotas razonables para S . Veremos, sin embargo, que para ciertas estructuras es posible identicar cundo S y a son valores cercanos construyendo perturbaciones E S para las cuales (Y H EX) es cercano a . En las prximas subsecciones determinaremos tales estructuras. o

2.2.2.

Matrices reales

Como primer ejemplo, nos restringimos a perturbaciones reales. Veremos que, en el mejor de los casos, slo se mejora ligeramente la sensibilidad del autovalor . Esto ya o se demostr para autovalores simples en [16]. El siguiente lema es la generalizacin para o o autovalores mltiples. u Lema 2.2.2 Sea una matriz A Cnn y sea un autovalor de A con nmero de condicin u o de Hlder (A, ) = (n1 , ). Entonces (A, ; Rnn ) = (n1 , R ) con o (i). /2 R para cualquier norma unitariamente invariante y

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS (ii). R = para la norma espectral si la matriz A es una matriz normal.

28

Demostracin: o Descomponemos la matriz compleja XY H = MR + MI con MR , MI Rnn tales que MR 2 XY H 2 /2 MI 2 XY H 2 /2. Sin prdida de generalidad suponemos que o e MR 2 XY H 2 /2. Sea la perturbacin E = v1 uT Rnn , donde u1 y v1 son vectores o 1 singulares izquierdo y derecho, respectivamente, correspondientes al mayor valor singular de la matriz MR . Entonces E = 1 y (EXY H ) = (v1 uT (MR + MI )) = |uT (MR + MI )v1 | 1 1 |uT MR v1 | = MR 2 XY H 2 /2, 1 lo que prueba R /2. Para demostrar la segunda parte utilizamos el hecho de que A es normal, y por tanto unitariamente diagonalizable. Por tanto, podemos elegir la matriz Y tal que Y = X. En tal caso, la perturbacin E = I Rnn cumple que (EXX H ) = = R . o Observemos que en el caso r1 = 1 (un unico bloque de Jordan de tamao n1 ) se puede n usar el mismo argumento que en [16] para obtener la cota inferior del Lema 2.2.2 (i). En cambio, no es claro que se puedan utilizar los mismos argumentos para el caso r1 > 1. Supongamos ahora que S es una estructura tal que si E S, entonces tanto su parte real como su parte imaginaria estn en S Rnn . Por ejemplo, si S es el conjunto de las a matrices simtricas complejas, al restringirnos a la parte real o a la imaginaria obtenemos e las matrices reales y simtricas. Para un autovalor simple, Rump [82] extendi las cotas del e o Lema 2.2.2 a nmeros de condicin estructurados, en el sentido de restringir las perturbau o ciones de S a S Rnn , mejorando as el nmero de condicin a lo sumo un factor 1/ 2. u o Este resultado se puede extender facilmente al caso mltiple cuando r1 = 1, pero no ocurre u lo mismo para autovalores mltiples con varios bloques de Jordan del mayor tamao. El u n siguiente lema es un primer paso para conseguir resultados en esta direccin. o Lema 2.2.3 Sea SR Rnn y sea S = SR + SR el subconjunto de todas las matrices con parte real e imaginaria en SR. Si existe una matriz E S de rango uno con E = 1 tal que S = (Y H EX) entonces S /4 SR S en la norma Frobenius y la norma dos. Demostracin: o Consideremos la matriz E = vuH con u, v Cnn y u 2 = v 2 = 1. Si descomponemos los vectores como u = uR + uI y v = vR + vI con uR , uI , vR , vI Rn , tenemos que
T S = |uH XY H v| = |(uT XY H vR + uT XY H vI ) (uT XY H vR uR XY H vI )|. R I I

Uno de los dos sumandos entre parntesis del trmino de la derecha tiene que ser mayor o e e igual que S /2 en valor absoluto. Supongamos sin prdida de generalidad que e |uT XY H vR + uT XY H vI | S /2 R I

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS y sea U = [uR , uI ], V = [vR , vI ]. Entonces |tr(U T XY H V )| S /2. Y, por tanto (U T XY H V ) S /4.

29

As la perturbacin real ER = V U T (parte real de E) cumple SR (EXY H ) S /4 , o con E 2 1 y E F 1, lo cual completa la demostracin. o

2.2.3.

Estructuras lineales

Estudiemos ahora el caso en que S es un espacio lineal de matrices en el cuerpo Fnn con F {R, C}. Usando tcnicas desarrolladas por Higham y Higham [41], dada una matriz e E S existe un unico vector p = [p1 , . . . , pl ]T Fl y una base {M1 , . . . , Ml } del subespacio S tal que E = p1 M1 + + pl Ml y E F = p 2 . Si nS = n1 , el nmero de condicin u o estructurado (A, ; S) = (n1 , S ) satisface S = sup p1 Y H M1 X + + pl Y H Ml X
p 2 1 pFl

(2.20)

para la norma Frobenius. Maximizar una funcin espectral no simtrica es un problema o e de optimizacin no trivial como se puede ver, por ejemplo, en [15]. Por tanto, conseguir en o general una frmula expl o cita de la expresin S no parece fcil. Dos casos especiales para o a los que existe una expresin ms manejable de S son los siguientes. o a 1. El caso r1 = 1 (es decir, X e Y son vectores) puede tratarse como en el caso de un autovalor simple [42, 91]. Denimos la matriz de patrones M = [vec(M1 ), . . . , vec(Ml )], (2.21)

donde el comando vec convierte una matriz en un vector concatenando las columnas de dicha matriz. Entonces vec(E) = Mp y por tanto S = sup |p1 Y H M1 X + + pl Y H Ml X|
p 2 1 pFl

Por otra parte, si denota el producto de Kronecker, entonces |p1 Y H M1 X + + pl Y H Ml X| = |vec(p1 Y H M1 X + + pl Y H Ml X)| = = |(X T Y H )Mp| (X T Y H )M S = (X T Y H )M
2

p 2,

alcnzndose la igualdad para un cierto vector p. De este modo a a


2

cuando F = C o cuando F = R y X, Y Rn . Para F R y X, Y Rn podemos = demostrar como en [55, Seccin 2] que (X T Y H )M 2 / 2 S (X T Y H )M 2 . o

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 2. Si F = C y todas las matrices Nj = Y H Mj X son matrices herm ticas, entonces S = = Se sigue por tanto mx Ni a
i 2

30

sup
p 2 1 pCl

p1 N1 + + p l Nl

sup
x 2 =1 xCn

[xH N1 x, . . . , xH Nl x] 2 .

l mx Ni 2 . a
i

2.2.4.

Matrices de Toeplitz y Hankel

Como dijimos en la introduccin, el nmero de condicin mide la sensibilidad de un o u o autovalor frente a perturbaciones innitesimales. El comportamiento frente a perturbaciones nitas de la matriz se caracteriza por medio del pseudoespectro (vase [92, 93]). El e pseudoespectro asociado a > 0 de una matriz se dene como := { C : E Cnn , ||E|| , (A + E)}. Si consideramos una estructura S, podemos denir el pseudoespectro estructurado con respecto a S como S := { C : E S, ||E|| , (A + E)}. Los nmeros de condicin estructurado y no estructurado pueden obtenerse a partir u o del pseudoespectro estructurado y no estructurado, respectivamente. En [82] se prueba que el pseudoespectro estructurado de una matriz A S coincide con el pseudoespectro no estructurado para las siguientes clases S de matrices complejas S: simtricas, persimtrie e cas, Toeplitz, Toeplitz simtricas, Hankel, Hankel persimtricas y circulantes; por tanto e e (A, ; S) = (A, ) para todas estas estructuras. Por tanto, alguno de los resultados que enunciamos a continuacin son consecuencia de los resultados en [82]. No obstante, en o las demostraciones construimos expl citamente perturbaciones que alcanzan el supremo (A, ), algo que no se obtiene del enfoque empleado en [82]. Una matriz Toeplitz tiene la forma t0 T = t1 . . . tn1 t1 . . . tn+1 . ... . t0 . ... ... t1 . . . t1 t0

Cnn

y H Cnn es una matriz Hankel si Fn H es una matriz Toeplitz, donde la matriz cuadrada Fn es la matriz con unos en la antidigonal y ceros en el resto de sus entradas denida en (2.18).

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

31

Teorema 2.2.4 Sean T y SY los conjuntos de las matrices Toeplitz y de las matrices simtricas complejas, respectivamente. Entonces, para la norma espectral se tiene: e (i). (A, ; T) = (A, ) = (n1 , XX T
2)

para A T;
2)

(ii). (A, ; T SY) = (A, ) = (n1 , XX T

para A T SY;
2)

(iii). (A, ; T Rnn ) = (A, ) = (n1 , XX T

para A T Rnn y R;

(iv). (A, ; T SY Rnn ) = (A, ) = (1, 1) para A T SY Rnn , donde X es la matriz de autovectores derechos asociados a denida en (2.13). Demostracin: o Una matriz Toeplitz es una matriz persimtrica, es decir, Fn T es simtrica, con Fn e e dada por (2.18). Podemos, por tanto, aplicar resultados de Thompson [89] sobre formas cannicas de haces simtricos complejos al haz simtrico Fn T Fn (vase tambin [71, o e e e e Theorem 7.2]). Segn estos resultados, podemos elegir las matrices P y Q en la forma u cannica de Jordan (2.10) de manera que o Q = diag(Fn1 , . . . , Fn1 )P T Fn y as de acuerdo con (2.14), se tiene Y = Fn X. A continuacin tomamaos una factorizacin , o o T de Takagi [48, 4.4] de la matriz simtrica compleja XX , esto es, una descomposicin en e o valores singulares especial XX T = U U T , donde U Cnr1 tiene columnas ortonormales y = diag(1 , . . . , r1 ) con 1 r1 > 0. Por [81, Lema 10.1], existe una matriz de Hankel H con H 2 = 1 y Hu1 = u1 , donde u1 denota la primera columna de la matriz U . Basta escoger la matriz de perturbacin E = Fn H T, que cumple E 2 = 1 y o Eu1 = Fn u1 , para demostrar (i) gracias al Lema 2.1.5. Una matriz Toeplitz simtrica es a la vez persimtrica; esto permite, a travs de una e e e simple transformacin ortogonal, diagonalizar por bloques la matriz A de la forma : o GT AG = A11 0 0 A22 ,

donde A11 Rn/2n/2 y A22 Rn/2n/2 son matrices simtricas complejas, e 1 G= 2 y 1 G= 2 I 0 F(n1)/2 0 F(n1)/2 2 0 0 I I Fn/2 Fn/2 I si n es par

si n es impar.

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

32

Este resultado, que puede encontrarse en [98], muestra que X = [X1 , X2 ] con X1 = F X1 y X2 = F X2 . Los autovectores contenidos en las matrices X1 y X2 provienen de los bloques de Jordan de A11 y A22 , respectivamente. Adems, Y = Fn [X 1 , X 2 ] y por tanto a TSY = =
E 2 =1 ETSY

T T sup mx (EX1 X1 Fn ), (EX2 X2 Fn ) a

E 2 =1 ETSY

T T sup mx (EX1 X1 ), (EX2 X2 ) . a

H H H H De X2 X1 = X2 Fn Fn X1 = X2 X1 se sigue que X2 X1 = 0 y por lo tanto

XX T

= [X1 , X2 ][X1 , X2 ]T

T = mx( X1 X1 a

2,

T X2 X2

2 ).

T T T Supongamos que X1 X1 2 X2 X2 2 (el otro caso se trata anlogamente) y sea X1 X1 = a T U U una factorizacin de Takagi. Entonces U = Fn U y, por [82, Lema 2.4], existe una o matriz Toeplitz simtrica E tal que E 2 = 1 y Eu1 = u1 . La demostracin de (ii) se e o completa usando de nuevo el Lema 2.1.5. Los apartados (iii) y (iv) son obvios si observamos que R implica X Rnr1 , y por tanto las perturbaciones construidas antes pueden elegirse reales [82].

El Teorema 2.2.4 puede extenderse fcilmente a matrices Hankel. a Corolario 2.2.5 Sean HA y PS los conjuntos de matrices Hankel y persimtricas, respece tivamente. Entonces para la norma espectral tenemos que: (i). (A, ; HA) = (A, ) = (n1 , XX T
2)

si A HA;
2)

(ii). (A, ; HA PS) = (A, ) = (n1 , XX T

si A HA PS;

(iii). (A, ; HA Rnn ) = (A, ) = (1, 1) si A HA Rnn ; (iv). (A, ; HA PS Rnn ) = (A, ) = (1, 1) si A HA PS Rnn , siendo X la matriz de autovectores derechos asociados a denida en (2.13). Demostracin: o Una matriz de Hankel es simtrica luego, usando de nuevo las formas cannicas para e o haces simtricos [89, 71], podemos elegir las matrices P y Q en la forma de Jordan (2.10) e de modo que Q = diag(Fn1 , . . . , Fn1 )P T , o a o y, en consecuencia, Y = X. El resto de la demostracin es anlogo a la demostracin del Teorema 2.2.4.

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

33

2.2.5.

Matrices simtricas, antisimtricas y herm e e ticas

La demostracin del Teorema 2.2.4 slo hace uso de la persimetr de las matrices o o a Toeplitz. Si denotamos el conjunto de las matrices persimtricas como PS, el mismo argue mento demuestra que (A, ; PS) = (A, ) para las matrices A PS. En un marco ms a amplio, tenemos el siguiente resultado, que incluye, aparte de las matrices persimtricas e (M = Fn ), clases de matrices estructuradas como las simtricas(M = In ) y las pseudosime e tricas (M = Ip (Iq ) con p + q = n) (vanse las deniciones al comienzo de la seccin e o 2.4.2). Teorema 2.2.6 Dada una matriz simtrica y ortogonal M Rnn , sea S = {A Cnn : e AT M = M A}. Para cualquier matriz A S y cualquier norma unitariamente invariante se tiene (i). (A, ; S) = (A, ) = (n1 , XX T
2 ); 2 /2

(ii). (A, ; S Rnn ) = (n1 , SRnn ) con XX T

SRnn XX T

2,

donde X es la matriz de autovectores derechos de A asociados a denida en (2.13). Demostracin: o Como en la demostracin del Teorema 2.2.4, la forma cannica del haz simtrico M A o o e M nos dice que Y = M X. Sea XX T = U U T una factorizacin de Takagi. Llamamos o u1 = U e1 y E = M u1 uH , de modo que E = 1 y 1 S (EXX T M ) = (M u1 uT XX T M ) = (uT XX T u1 ) = XX T 1 1
2

= ,

Esto completa la demostracin de la primera parte. La segunda parte es anloga a la o a demostracin del Lema 2.2.2 (i). o Usando la terminolog de [55], el Teorema 2.2.6 se ocupa de las algebras de Jordan asoa T ciadas a la forma bilineal simtrica x, y = x M y. Para las correspondientes lgebras de e a Lie, dadas por S = {A Cnn : AT M = M A}, es sabido que los nmeros de condicin u o estructurado y no estructurado para autovalores simples pueden diferir de manera considerable [55, 82]. De hecho, ya hemos visto en el ejemplo (2.9) (con M = I) que puede darse nS < n1 , esto es, que los autovalores mltiples pueden tener un comportamiento cualitatiu vamente mejor frente a perturbaciones estructuradas. El siguiente resultado identica una de las situaciones en que esto sucede, y demuestra que esto slo ocurre bajo condiciones o muy espec cas: para autovalores nulos que tienen asociado un unico bloque de Jordan de tamao mximo y de dimensin impar. Adems, el Teorema 2.2.7 pone de maniesto las n a o a diferencias que se pueden esperar entre S y cuando nS = n1 . Teorema 2.2.7 Dada una matriz simtrica y ortogonal M Rnn sea S = {A Cnn : e T A M = M A}. Entonces el nmero de condicin estructurado (A, ; S) = (nS , S ) para u o A S y la norma espectral cumple que:

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS (i). Si = 0, n1 es impar y r1 = 1, entonces nS < n1 ;

34

(ii). Si = 0, n1 es impar y r1 > 1, entonces nS = n1 y S = 1 2 , donde 1 , 2 son los dos mayores valores singulares de la matriz XX T (mientras que = 1 ); (iii). Si = 0 y n1 es par, entonces r1 es par, nS = n1 y S = = X (iv). Si = 0 y r1 = 1, entonces nS = n1 y S = (v). Si = 0 y r1 > 1, entonces nS = n1 , donde X e Y son las matrices de autovectores de A asociados a denidas en (2.13) y (2.14), respectivamente. Demostracin: o La forma cannica estructurada de A S puede extraerse fcilmente de la forma o a cannica del haz antisimtrico/simtrico M A M (vase, por ejemplo, [71, Teorema o e e e 7.3]). En particular, si = 0 es un autovalor y n1 es impar, entonces las matrices P, Q en (2.10) cumplen que Q = diag(n1 , . . . , n1 )P T M. Por tanto, Y = M X y si nS fuese igual a n1 existir alguna perturbacin E S con a o (Y H EX) = (X T M EX) > 0. Esto es imposible si r1 = 1, ya que X es un vector y M E es una matriz antisimtrica y por tanto (X T M EX) = |X T M EX| = 0. Esto demuestra (i). e Para demostrar que nS = n1 cuando = 0, n1 impar y r1 > 1, basta construir una perturbacin E S tal que (X T M EX) > 0. Para ello, consideramos una factorizacin o o T T de Takagi XX = U U , donde U = [u1 , . . . , ur1 ] tiene columnas ortonormales y = diag(1 , . . . , r1 ) con 1 r1 > 0. Tomando E = M [u1 , u2 ] 0 1 [u1 , u2 ]H tenemos 1 0 que E S, E 2 = 1 y S (X T M EX) = 0 2 1 0 = 1 2 > 0. X
2 2

0 Ir1 /2

Ir1 /2 0

;
2

2 2

|Y T M X|2 .

Por otro lado, denotando por SK al conjunto de matrices complejas antisimtricas, tenemos e que S = sup (EXX T ) = sup (G) = sup (1/2 G1/2 )
E 2 1 ESK G 2 1 GSK G 2 1 GSK

sup
G 2 1 GSK

1/2 G1/2

= sup
G 2 1 GSK

G 2,

donde = [ i j ]r1 y denota el producto de Hadamard, esto es elemento a elemeni,j=1 to, entre matrices. Un resultado de Mathias [70, Corolario 2.6] implica que G 2 1 2 G 2 , lo cual concluye la demostracin de (ii). o

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

35

Si = 0 y n1 es par, puede verse usando [71, Theorem7.3] que r1 tambin par e Y = es e MX


Ir1 /2 0 Ir1 /2 0

. Para alcanzar (Y H EX) = = X

Ir1 /2 0 Ir1 /2 0

X T se puede usar
0 2 Ir1 /2 XH 0

S. una perturbacin de Lidskii como en (2.17), en este caso E = o Ir1 /2 Esto prueba (iii). Para el caso de un autovalor no nulo la forma cannica estructurada de Jordan de una o matriz A S parece no revelar ninguna estructura particular en las matrices X, Y . Por otro lado, es tambin un autovalor de la matriz A con la misma forma de Jordan que e el autovalor . De hecho, si denotamos por X, Y las matrices de autovectores derechos e izquierdos asociadas a los bloques de Jordan de tamao n1 correspondientes al autovalor n , entonces X = M Y e Y = M X. Esto no slo implica (A, ) = (A, ) y que o (A, ; S) = (A, ; S), sino que adems [X, M Y ] es una matriz de rango completo. Para a el caso particular en que r1 = 1 se tiene que |Y H EX| = [M Y , X]T M E[M Y , X] = M E[M Y , X][M Y , X]T para cualquier perturbacin E S. Usando los argumentos de la demostracin de (ii), o o tenemos que S = 1 2 , donde 1 y 2 son los dos mayores valores singulares de la a matriz simtrica [M Y , X][M Y , X]T . Clculos laboriosos, aunque elementales, revelan que e 2 2 T 2 1 2 = X 2 Y 2 |Y M X| , lo que demuestra (iv). Esta tcnica, sin embargo, no es e vlida para el caso r1 > 1. S que podemos demostrar en ese caso que S > 0, aunque no a parece fcil conseguir una cota superior o inferior de S . El rango completo de la matriz a [X, M Y ] implica la existencia de una matriz invertible L tal que L1 [X, M Y ] = Ir 1 0 Ir 1 0 0

1 MX

Tomando E = M LT ([0, Ir1 , 0][Ir1 , 0, 0]T [Ir1 , 0, 0][0, Ir1 , 0]T )L1 S tenemos que (Y H EX) = (Ir ) = 1 y por lo tanto S > 0, completando la demostracin de (v). o Observemos que el Teorema 2.2.7 (iv) no slo corrobora los resultados de [55, Teorema o 4.3] y [82, Teorema 3.2], que se limitan a acotar los nmeros de condicin, sino que adems u o a ofrece frmulas expl o citas para el nmero de condicin estructurado de autovalores simples u o no nulos. Afortunadamente, el estudio de los nmeros de condicin estructurados es ms sencillo u o a para el caso de lgebras de Jordan y de Lie asociadas con formas sesquilineales x, y = a xH M y. Lema 2.2.8 Dada una matriz ortogonal simtrica o antisimtrica M Rnn , sea S = e e nn H {A C : A M = M A} para {1, 1} jo. Entonces para cualquier matriz A Cnn se tiene que (A, ; S) = (A, ) en la norma espectral.

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

36

Demostracin: o Sea XY H = U V H una descomposicin en valores singulares y conideramos los vectores o u1 = U e1 , v1 = V e1 , siendo e1 la primera columna de la matriz identidad. Entonces u1 2 = v1 2 = 1 y por [68, Theorem 8.6] podemos encontrar una matriz H tal que H 2 = 1 y Hu1 = v1 para algn C con || = 1. Tomando la perturbacin E = M T H se tiene u o que E S, E 2 = 1 y S (EXY H ) = (HXY H M ) = (V H HU ) por el Lema 2.1.5.

2.2.6.

Matrices Jsimtricas y Jantisimtricas e e


0 In In 0

Si la matriz M del producto escalar es J2n = , (2.22)

la estructura S = {A C2n2n : AH M = M A} considerada en el Lema 2.2.8 coincide con el conjunto de matrices antihamiltonianas complejas si = 1, y con el conjunto de matrices hamiltonianas complejas si = 1. Los siguientes teoremas se reeren a estructuras similares de la forma S = {A C2n2n : AT J2n = J2n A}. En particular, se obtienen cotas para los nmeros de condicin estructurados de matrices antihamiltonianas u o y hamiltonianas reales. Teorema 2.2.9 Dada una matriz ortogonal y antisimtrica M R2n2n , sea S = {A e C2n2n : AT M = M A}. Para cada A S y cada autovalor de A se tienen los siguientes resultados en la norma espectral: (i). (A, ; S) = (A, ) = (n1 , XJr1 X T
2 ); 2 /4

(ii). (A, ; S R2n2n ) = (n1 , SR2n2n ) con XJr1 X T

SR2n2n XJr1 X T

2,

donde X es la matriz de autovectores derechos asociados a denida en (2.13) y Jr1 viene dada por (2.22). Demostracin: La forma cannica estructurada de A se sigue del hecho de que cualquier o o matriz antihamiltoniana tiene una forma cannica diagonal por bloques [34, 51]. Ms cono a cretamente, de [71, Theorem 8.2] se sigue que r1 es par y que las matrices P y Q en la forma de Jordan (2.10) pueden elegirse de modo que
T Q = GJr1 n1 GP T M,

donde G = diag(Ir1 n1 /2 , Fn1 , . . . , Fn1 ), la matriz Jr1 n1 viene dada por (2.22) y la matriz Fn1 o por (2.18). Por tanto, Y = M T XJr1 y podemos usar una perturbacin del tipo (2.17), en este caso E = (M T XJr1 X H )/ XJr1 X T 2 ,

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS que cumple E S, E = 1 y es tal que


2

37

T S (Jr1 X T M EX)/ XJr1 X T

= XJr1 X T

= .

Para probar la segunda parte, sean u = uR +uI y v = vR +vI , con uR , uI , vR , vI R2n , siendo u y v vectores singulares izquierdo y derecho asociados al mayor valor singular de la matriz K = XJr1 X T . Entonces S = K
2

= uH Kv = (uT KvR + uT KvI ) + (uT KvI uT KvR ). R I R I

Al menos uno de los cuatro trminos en esta suma ser mayor o igual en valor absoluto e a que S /4. Elegimos este trmino y denimos la matriz W = [w1 , w2 ] R2n2 formada e por los dos vectores que denen este trmino. Por ejemplo si |uT KvR | S /4, entonces e I W = [uI , vR ]. Como la matriz K es antisimtrica, podemos suponer que los vectores u y v e cumplen v T u = 0, lo que implica W 2 1. Tomando la perturbacin E = M T W J2 W T o S R2n2n , se tiene E 2 1 y
T SR2n2n (Jr1 /2 X T M EX) = (J2 W T KW ) T T = (diag(w2 Kw1 , w1 Kw2 )) S /4,

lo que completa la demostracin. o Teorema 2.2.10 Dada una matriz ortogonal antisimtrica M R2n2n , sea S = {A e 2n2n T nn C : A M = M A}. Entonces para cada A C y cada autovalor de A se tiene que (i). (A, ; S) = (n1 , S ) con / 2 S para la norma de Frobenius y S = para la norma || ||2 ; (ii). (A, ; S R2n2n ) = (n1 , SR2n2n ) con /8 SR2n2n S para la norma || ||2 . Demostracin: o Sean u1 , v1 los vectores singulares izquierdo y derecho, respectivamente, asociados al mayor valor singular de la matriz XY H M . Denimos

E = [v1 , u1 ]

T 1 v1 u1

[v1 , u1 ]T .

Entonces E es una matriz simtrica y puede demostrarse que E F = 2 |uT v1 |2 2 e 1 (vase [55, Theorem 4.3]). Eligiendo la perturbacin E = M E/ 2 tenemos que E e o S, E F 1 y S (Y H EX) = (EXY H M )/ 2 XY H 2 / 2,

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

38

donde hemos aplicado el Lema 2.1.5. Para la norma espectral, el Teorema 5.8 de [69] nos dice que existe una matriz simtrica E que transforma el vector u1 en v1 con E 2 = 1. e As tomando como perturbacin E = M E queda demostrada la segunda parte de (I). , o Para demostrar (ii) descomponemos la matriz XY H M = S + W , donde S = (XY H + Y X T )/2 y Entonces = XY H 2 S 2 + W 2 . Distinguimos dos casos, dependiendo de si la parte antisimtrica W domina o no a la parte simtrica S. e e 1. Si S 2 W 2 /3, descomponemos S = SR + SI con SR , SI matrices simtricas e reales. Entonces SR 2 S 2 /2 SI 2 S 2 /2. En el primer caso, sea u1 un o autovector ortonormalizado asociado al autovalor de la matriz SR cuyo valor absoluto coincide con SR 2 . Entonces E = M u1 uT S R2n2n con E 2 = 1 cumple que 1 SRnn (EXY H ) = |uT XY H M u1 | = |uT Su1 | |uT SR u1 | 1 1 1 S 2+3 S 2 S 2+ W 2 S 2 = . 2 8 8 8 El caso SI
2

W = (XY H Y X T )/2.

S 2 /2 puede demostrarse anlogamente. a

2. Si S 2 W 2 /3, descomponemos W = WR +WI con WR , WI matrices antisimtrie cas reales. Supongamos que WR 2 W 2 /2 (de nuevo, el caso WI 2 W 2 /2 es anlogo ). Sean u1 , v1 los vectores singulares izquierdo y derecho, respectivamente, a asociados al mayor valor singular de la matriz WR . Como WR es antisimtrica se e T tiene que v1 u1 = 0. Eligiendo la perturbacin o E = M [u1 , v1 ] que cumple E
2

0 1 1 0

[u1 , v1 ]T S R2n2n ,

= 1, se tiene 0 1 1 0 [u1 , v1 ]T (S + W )[u1 , v1 ] = (),


T uT Sv1 v1 Sv1 1 T u1 Su1 uT Sv1 1

SR2n2n (EXY H ) = donde = con = WR


2

0 0

+ uT WI v1 . Adems, det() = ( + )( ) con a 1 =


T (uT Su1 )(v1 Sv1 ) (uT Sv1 )2 1 1

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS cumpliendo || S 2 . Esto demuestra que () || || WR = W 2


2 2

39

S 1 S 8
2

9 S 8

W 2 S 2 2 S 2+ W 2 , 8 8

y concluye la demostracin. o El Teorema 2.2.10 (ii) nos dice que el restringir las perturbaciones al conjunto de matrices hamiltonianas reales puede tener un efecto positivo, aunque limitado, sobre la sensibilidad de autovalores mltiples. Por otro lado, debemos sealar que los nmeros de u n u condicin no proporcionan informacin alguna sobre la direccin en la cual se mueven los o o o autovalores perturbados. Esta es una cuestin crucial a la hora de decidir si un autovao lor imaginario puro de una matriz hamiltoniana permanece o no sobre el eje imaginario cuando se le somete a perturbaciones estructuradas, algo que es importante en numerosas aplicaciones. Para resultados relacionados vase [8] y las referencias que contiene. e

2.3.

Perturbaciones estructuradas genricas: problee mas generalizados

Consideramos en esta seccin dos extensiones del problema usual de autovalores: los o haces de matrices y los polinomios matriciales.

2.3.1.

Haces de matrices

Un haz de matrices (en ingls, matrix pencil) es una familia de matrices de la forma e {A B : C} con A, B Cnn . Se dice que un haz es regular si existe un valor de tal que det(A B) = 0. En caso contrario, se dice que el haz es singular. Nosotros slo o trataremos el caso de haces regulares. Se suele identicar el haz A B con el par de matrices (A, B) y se dice que C es un autovalor nito del haz (A, B) si det(A B) = 0. Cuando la matriz B es singular, el haz (A, B) tiene uno o varios autovalores innitos, que se identican con los autovalores nulos del haz dual (B, A). Si 0 es un autovalor nito del haz A B, decimos que x Cn es un autovector derecho asociado a 0 si (A 0 B)x = 0, y que y Cn es un autovector izquierdo de (A, B) asociado a 0 si y H (A 0 B) = 0. Los autovectores asociados a un autovalor innito de (A, B) son los asociados al autovalor nulo de (B, A). Ntese que el o problema de hallar los autovalores y los autovectores de un haz de matrices (el llamado problema generalizado de autovalores) incluye como caso particular al problema usual de autovalores (basta tomar B = In ). Dado un autovalor nito del haz (A, B) diremos que es simple si el rango de A B es n 1. En caso contrario, diremos que el autovalor es mltiple. u

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

40

De forma anloga al problema usual de autovalores, consideramos perturbaciones de la a forma (A + E, B + F ) a un haz (A, B), donde E, F Cnn , y estudiamos la sensibilidad de los autovalores de (A, B) en el l mite cuando tiende a cero. En un contexto ms general, Langer y Najman emplean en [61, 62, 63] la forma loa cal de Smith para extender la teor de perturbaciones de Lidskii, obteniendo desarrollos a asintticos de los autovalores perturbados de funciones matriciales anal o ticas L(). Recientemente, de Tern, Dopico y Moro [88] han investigado el caso especial en que L() es un a haz A B, reemplazando la forma local de Smith por la forma cannica de Weierstrass, o mucho ms natural para haces de matrices, y que pasamos a describir a continuacin: para a o todo haz regular A B existen matrices cuadradas no singulares Q y P tales que donde J es suma directa de bloques de Jordan (2.12) asociados a los autovalores nitos del haz, y J es suma directa de bloques de Jordan nilpotentes

Q(A B)P = diag(J I , J I),

(2.23)

0 1 1 0

(2.24)

asociados al autovalor innito. Al mayor tamao de estos bloques nilpotentes se le llama n ndice de nilpotencia del haz (A, B). La descomposicin (2.23) es conocida como forma o cannica de Weierstrass del haz (A, B) (vase, por ejemplo, [87, VI.1.2]). o e Dado un autovalor nito de un haz regular (A, B), la forma cannica de Weierstrass o puede escribirse de la forma J 0 0 JA = Q Q A
Q

P P

I 0 0 JB

Q Q

P P

(2.25)

donde tanto (P, P ) como Q son matrices invertibles, y J contiene los r1 bloques de Jordan asociados a de tamao mximo n1 . Anlogamente, para un autovalor innito del n a a haz (A, B), tenemos I 0 0 JA = Q Q A P P , N 0 0 JB = Q Q B P P , (2.26)

donde N contiene r1 bloques de Jordan nilpotentes Nn1 de la forma (2.24). Al igual que en el problema usual de autovalores, reunimos en las matrices X e Y autovectores derechos e izquierdos contenidos en las matrices P y Q: X = Y = P e1 , P en1 +1 , . . . , P e(r1 1)n1 +1 QH en1 , QH e2n1 , . . . , QH er1 n1 . , (2.27)

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

41

Obviamente, la relacin entre X, Y y P, Q impone una normalizacin sobre las matrices o o X, Y . Para n1 = 1 tenemos que Y H BX = I si es nito e Y H AX = I si es innito. Para n1 > 1 tenemos la igualdad Y H AX = Y H BX = 0 para cualquier autovalor . Los siguientes teoremas resumen los principales resultados de [88] en cuanto a desarrollos para autovalores perturbados de haces regulares. Teorema 2.3.1 Sea un autovalor nito de un haz regular (A, B) y sean (E, F ) Cnn Cnn matrices tales que Y H (E F )X es invertible, con X e Y denidas como en (2.27). Entonces existen n1 r1 autovalores k del haz perturbado (A + E, B + F ) que admiten un desarrollo k = + (k )1/n1 1/n1 + o(1/n1 ), k = 1, . . . , r1 (2.28)

en potencias fraccionarias, donde 1 , . . . , r1 son los autovalores de la matriz Y H (E F )X. Para autovalores innitos del haz (A, B), sea F Cnn tal que la matriz Y H F X es invertible. Entonces existen n1 r1 autovalores k del haz perturbado (A + E, B + F ) que admiten el desarrollo en potencias fraccionarias 1 = (k )1/n1 1/n1 + o(1/n1 ), k k = 1, . . . , r1 , (2.29)

donde k son los autovalores de Y H F X para k {1, . . . , r1 }. 2.3.1.a. N meros de condicin no estructurados para haces de matrices u o Basndonos en el Teorema 2.3.1, podemos denir un nmero de condicin para autoa u o valores mltiples de un haz regular de matrices como sigue. u Denicin 2.3.2 Sea un autovalor nito del haz regular (A, B). El n mero de condio u cin (absoluto)de Hlder de viene dado por o o (A, B, ) = (n1 , ), donde n1 es la dimensin del mayor bloque de Jordan asociado a en la forma cannica o o de Weierstrass de (A, B) y = sup
||E||wA ,||F ||wB E,F Cnn

(Y H (E F )X),

donde X e Y vienen dadas por (2.27). El nmero de condicin (absoluto) de Hlder para u o o un autovalor = de (A, B) viene dado por (A, B, ) = (n1 , ), donde n1 es el ndice de nilpotencia del haz (A, B) y = sup (Y H F X).
||F ||wB F Cnn

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

42

Ntese que la Denicin 2.3.2 no slo depende de la norma matricial, sino que tambin o o o e depende de la eleccin de los pesos no negativos wA y wB . Estamos suponiendo impl o citamente que estas cantidades son estrictamente positivas cero, ya que, en caso contrario, ser (A, B, ) = (0, 0). Ms concretamente, supondremos que wA > 0 si = 0, wB > 0 a a si = y mx{wA , wB } > 0 para cualquier otro autovalor. Los pesos wA y wB se ina troducen en la Denicin 2.3.2 para equilibrar la inuencia de las perturbaciones de las o matrices A y B. Por ejemplo, si tanto E y F tienen norma pequea comparada, respectin vamente, con las normas de las matrices A y B, parece razonable escoger los pesos de la forma wA = A / A 2 + B 2 y wB = B / A 2 + B 2 . El lema siguiente representa una extensin directa de [72, Theorem 4.2]. o Lema 2.3.3 Para cualquier norma unitariamente invariante, se tiene que (A, B, ) = (n1 , (wA + wB ||) XY H 2 ) para autovalores nitos y (A, B, ) = (n1 , wB XY H ) si = . Demostracin: o Por un lado (Y H (E F )X) = ((E F )XY H ) (E F )XY H 2 (E F )XY H (wA + wB ||) XY H para perturbaciones E, F tales que E wA , F wB . Por tanto (wA + wB ||) XY H 2 . Por otro lado, sean u1 , v1 los vectores singulares izquierdo y derecho correspondiente al ma yor valor singular de XY H . Escogiendo las perturbaciones E = wA v1 uH y F = || wB v1 uH 1 1 (F = 0 si = 0) tenemos que E wA , F wB y ((wA + wB ||)v1 uH XY H ) = 1 La demostracin para (A, B, ) es anloga. o a = (wA + wB ||)(uH XY H v1 ) = (wA + wB ||) XY H 2 . 1

La Denicin 2.3.2 est basada en la distancia usual | | en C. Para autovalores o a innitos la distancia usual no es invariante bajo intercambios de las matrices A y B, es 1 a decir, que | | = | 1 |. Un concepto ms elegante de distancia es el que ofrece la distancia cordal | | (, ) = , ||2 + 1 ||2 + 1 que incluye de forma natural autovalores innitos
||

(, ) = l (, ) = m

1 ||2 + 1

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS (vase [87] para ms detalles). Sustituyendo los desarrollos (2.28) y (2.29) se tiene que e a (k , ) = y (k )1/n1 1/n1 + o(1/n1 ) ||2 + 1

43

Esto demuestra que cuando se trabaja con la mtrica cordal la cantidad en la e denicin del nmero de condicin de Hlder para un autovalor nito debe dividirse por o u o o a a o ||2 + 1, mientrs que para un autovalor innito es igual. Es fcil ver que esta modicacin de nmero de condicin tiene la propiedad de ser continua para || = . u o El empleo de la mtrica usual o de depender de la aplicacin en la que estemos e a o interesados. Si el objetivo es calcular un autovalor nito parece ser ms relevante utilizar a la mtrica usual. e Todos los resultados que veremos a continuacin estn basados en la mtrica usual o a e de C pero como hemos visto por los comentarios anteriores, escribirlos en trminos de la e distancia cordal es inmediato. 2.3.1.b. N meros de condicin estructurados para haces de matrices u o El nmero de condicin de Hlder estructurado (A, B, ; S) = (nS , S ) para un subconu o o nn nn junto S C C puede denirse anlogamente al del problema usual de autovalores. a Como antes, suponemos que las cantidades wA , wB son positivas: Denicin 2.3.4 Sea un autovalor del haz regular (A, B) con A, B Cnn , y sea S un o subconjunto de Cnn Cnn . El n mero de condicin estructurado de Hlder de u o o con respecto a S se dene como (A, B, ; S) = (nS , S ), donde 1/nS es el menor exponente posible k de en los desarrollos
k = + kk k + o(),

(k , ) = (k )1/n1 1/n1 + o(1/n1 ).

k = 1, . . . , m,

de los autovalores del haz perturbado (A + E, B + F ) entre todas las perturbaciones (E, F ) S, y S > 0 es el mayor valor posible de k para toda (E, F ) S con E wA , F wB . En particular, si nS = n1 entonces S = sup
||E||wA ,||F ||wB (E,F )S

(Y H (E F )X).

Algunas demostraciones de la Seccion 2.2.1 pueden extenderse al caso de autovalores de haces de matrices si la estructura es separable, es decir si S = S1 S2 con S1 , S2 Cnn . Esto se reeja en el siguiente teorema:

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

44

Teorema 2.3.5 Sean S1 , S2 dos subconjuntos de Cnn y sea un autovalor del haz regular (A, B) Cnn . Sean (A, B, ) = (n1 , ), Entonces, (i). Haces de matrices reales: Si S1 = S2 = Rnn , entonces nS1 S2 = n1 y /4 S1 S2 para matrices A, B Cnn y cualquier norma unitariamente invariante. (ii). Haces de matrices simtricas : Si S1 = S2 = {A Cnn : AT = A}, entonces e nS1 S2 = n1 y S1 S2 = para matrices A, B S1 y cualquier norma unitariamente invariante. (iii). Haces de matrices simtricas reales: Si S1 = S2 = {A Rnn : AT = A} entonces e nS1 S2 = n1 y /2 S1 S2 para matrices A, B Cnn con AT = A, B T = B y cualquier norma unitariamente invariante. (iv). Haces de matrices simtricas/antisimtricas : Si S1 = {A Cnn : AT = A} y e e S2 = {B Cnn : B T = B} entonces los siguientes resultados son ciertos para haces de matrices (A, B) S1 S2 en la norma dos: b) Si = , n1 es impar y r1 > 1, entonces nS = n1 y S = wB 1 2 , donde 1 , 2 son los dos mayores valores singulares de la matriz XX T (mientras que = wB 1 ). c) Si = y n1 es par, entonces r1 es par, nS = n1 y S = = w
B

(A, B, ; S1 S2 ) = (nS1 S2 , S1 S2 ).

a) Si = , n1 es impar y r1 = 1, entonces nS < n1 .

0 Ir1 /2

Ir1 /2 0

T 2

.
2.

d) Si = 0 y n1 es par, entonces nS = n1 y S = = wA XX T e) Si = 0 y n1 es impar, entonces r1 es par, nS = n1 y S = = w


A

0 Ir1 /2

Ir1 /2 0

T 2

g) Si = , = 0 y r1 > 1, entonces nS = n1 y S wA XY H 2 .

f) Si = , = 0 y r1 = 1, entonces nS = n1 y S = wA 1 + wB ||2 , donde X 2 Y 2 |Y T X|2 . 1 = X 2 Y 2 y 2 = 2 2

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

45

(v). Haces de matrices antisimtricas:Si S1 = S2 = {A Cnn : AT = A} entonces e nS1 S2 = n1 , r1 es par y S1 S2 = para cualesquiera A, B S1 en norma || ||2 . (vi). Haces de matrices herm ticas : Sea Sj = {A Cnn : AH = j A} para j {1, 2} con 1 , 2 {1, 1} jos. Entonces nS1 S2 = n1 y se cumplen las desigualdades / 2 S1 S2 para cualesquiera matrices A, B Cnn en norma dos. Si, adems, 1 = 2 y R a entonces S1 S2 = . Demostracin: o Mientras no se indique lo contrario, suponemos que el autovalor es nito (para el caso = las demostraciones son anlogas). a (i) En vista de la demostracin del Lema 2.2.2, sabemos que existe una matriz real E o con E 1 tal que (Y H EX) XY H 2 /2. Escogemos E = wA E, F = 0 si wA wB || y E = 0, F = wB E en otro caso. Entonces (Y H (E F )X) wA + wB || wA + wB || (Y H EX) XY H 2 , 2 4

lo que demuestra (i). (ii) y (iii) Usando el hecho de que la forma cannica estructurada de un haz simtrio e co [89, Theorem 1] implica que Y = X, los apartados (ii) y (iii) pueden demostrarse de igual manera que el Teorema 2.2.6. (iv) Para = , la forma cannica estructurada de un haz simtrico/antisimtrico [89, o e e Theorem 1] impone la misma estructura en las matrices X e Y que para los autovalores nulos de una matriz antisimtrica. Esto implica que /wB coincide con el nmero de e u condicin no estructurado para autovalores nulos de B y los apartados (a)(c) se siguen o del Teorema 2.2.7 (i)(iii). Para = 0 y n1 par, la forma cannica del haz (A, B) [71, Theorem 8.3] conduce o a que Y = X, luego tomando E = wA XX H / XX T 2 , F = 0 se demuestra (d). Si Ir1 /2 0 = 0 y n1 es impar, entonces r1 es par e Y = X Ir /2 0 . Sean u1 , v1 vectores 1 singulares izquierdo y derecho respectivamente, correspondientes al mayor valor singular 1 de la matriz antisimtrica XY H = X Ir 0/2 Ir1 /2 X T . Entonces, el haz E F con e 0 E = wA [u1 , v1 ]

0 1 1 0

[u1 , v1 ]T y F = 0 son tales que E S1 , F S2 , E

= wA y

S EX

0 Ir1 /2

Ir1 /2 0

XT

= (V H EU ) =

wA 1 0 0

wA 1 = ,

dondeU V H es una descomposicin en valores singulares de la matriz o Ir1 /2 0 T X Ir /2 0 X , denota una matriz no nula de tamao (r1 1) (r1 1) y hemos n
1

T usado que v1 u1 = 0 ya que X (e).

Ir1 /2

Ir1 /2 0

X T es una matriz antisimtrica. Esto prueba e

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS Para autovalores no nulos nitos y r1 = 1, se tiene que (Y H (E F )X) = |Y H (E F )X|, luego S = sup
||E||wA ,||F ||wB (E,F )S

46

(Y H (E F )X)

wA sup (Y H EX) + wB || sup (Y H F X).


||E||1 ES1 ||F ||1 F S2

El supremo en S1 est claramente acotado por 1 , mientras que el supremo en S2 es igual a a 2 por el Teorema 2.2.7 (iv). Por tanto, S wA 1 + wB ||2 . Por [69, Teorema 5.8] tenemos que existe una matriz E S1 con E 2 = Y 2 / X 2 tal que EX = Y . Por 2 tanto, la matriz simtrica E1 = X 2 E, cuya norma espectral es igual a uno, alcanza e Y la cota superior 1 . Sea F2 S2 , con norma espectral igual a uno que alcanza el valor mximo 2 . Entonces existen 1 , 2 C, |1 | = |2 | = 1 de manera que el par (E, F ) = a (1 wA E1 , 2 wB F2 ) S1 S2 cumple (Y H (E F )X) = wA 1 + wB ||2 . Esto prueba (f). Para autovalores no nulos nitos y r1 > 1 tenemos que, como se vio en la demostracin o del Teorema 2.2.10, existe una matriz simtrica E1 con E1 2 = 1 y (Y H E1 X) XY H 2 . e As tomando E = wA E1 y F = 0 probamos (g). , (v) Para haces antisimtricos/antisimtricos, todo autovalor tiene un nmero par r1 e e u de bloques de Jordan. Adems, la forma cannica estructurada [89] (vase tambin [71, a o e e Ir1 /2 0 Theorem 8.2]), induce la relacin Y = X Ir /2 0 entre X e Y . Si elegimos la matriz o

E = X Ir /2 1 E 2 = wA , F

Ir1 /2 0 2

X , y las perturbaciones E = = wB y

wA E, E 2

F =
Ir1 /2 0

wB E, E 2 ||

se tiene que

(Y (E F )X) = (wA + ||wB ) X

0 Ir1 /2

= .
2

(vi) Como en la demostracin del Lema 2.2.8 , podemos construir una matriz herm o tica E tal que E 2 = 1 y (EXY H ) = XY H 2 . Elijamos {1, 1} de modo que es igual al signo de R si 1 = 2 , y al signo de I en caso contrario. Entonces E = wA 1 E S1 y F = wB 2 E S2 cumplen que S1 S2 ((E F )XY H ) = |wA 1 + wB 2 | XY H 2 wA + wB || XY H 2 . 2 La ultima desigualdad se sigue del hecho de que 2 2 2|wA 1 + wB 2 |2 (wA + wB ||)2 wA 2wA wB || + wB ||2 = (wA wB ||)2 0.

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

47

Si 1 = 2 = 1 y R entonces |wA + wB | = wA + wB ||, y el factor 1/ 2 puede eliminarse. Una estructura diferente a las anteriores, en el sentido que no es separable, y que aparece en muchas aplicaciones, es la estructura palindrmica. Un haz palindrmico es un haz de o o T la forma (A, A ) (para ms detalles vase [46, 66]). Para esta clase estructurada de haces a e se tiene el siguiente resultado: Teorema 2.3.6 Sea S = {(A, AT ) : A Cnn } el conjunto de haces pal omicos de mandr trices y tomemos wA = wB = 1. Entonces las siguientes armaciones sobre (A, AT , ; S) = (nS , S ) son ciertas para cualquier A Cnn y para la norma espectral. (i). Si = 1, n1 es impar y r1 = 1, entonces nS < n1 ; (ii). Si = 1, n1 is impar y r1 > 1, entonces nS = n1 y S = 2 1 2 , donde 1 , 2 son los dos mayores valores singulares de la matriz XX T (mientras que = 21 ); (iii). Si = 1 y n1 es par, entonces r1 es par, nS = n1 y S = = 2 X

0 Ir1 /2

Ir1 /2 0

;
2

(iv). Si = 1 y n1 es impar entonces r1 es par, nS = n1 y S = = 2 X


0 Ir1 /2

Ir1 /2 0

;
2 2;

(v). Si = 1 y n1 es par, entonces nS = n1 y S = = 2 XX T

(vi). Si = 1 es nito y r1 = 1, entonces nS = n1 y S = |1 | 1 + |1 + | 2 donde 1 = X 2 Y 2 y 2 = X 2 Y 2 |Y T X|2 . 2 2 (vii). Si = 1 es nito y r1 > 1, entonces nS = n1 y (viii). Si = , entonces nS = n1 y S = . Demostracin: o Si es un autovalor nito y nS = n1 entonces S = sup (Y H (E E T )X) =
E 2 1 ECnn

|1| 1+||

S ;

1 sup (1 )Y H (E + E T )X + (1 + )Y H (E E T )X . 2 E 2 1
ECnn

(2.30)

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

48

Esta relacin indica que el anlisis de los haces palindrmicos est relacionado con el anlisis o a o a a de haces de matrices simtrica/antisimtrica. De hecho, en [49, 80, 83] se demuestra que e e la forma cannica de un haz palindrmico (A, AT ) puede extraerse la forma cannica [89] o o o T T del haz de matrices simtrico/antisimtrico (A + A , A A ). e e Si el autovalor es = 1 y n1 es impar entonces la forma cannica estructurada de o 0 T (A, A ) implica Y = X. Si = 1 y n1 es par, entonces r1 es par e Y = X Ir /2 Ir1 /2 . 0 1 Por otro lado, se sigue de (2.30) que S = sup (Y H (E E T )X) =
E 2 1 ECnn

sup
G 2 2 Gantisimtrica e

(Y H GX) =

=2

sup
G 2 1 Gantisimtrica e

(Y H GX).

Por tanto, el nmero de condicin de Hlder estructurado para el autovalor = 1 de u o o T (A, A ) coincide esencialmente con el nmero de condicin de Hlder estructurado para el u o o autovalor = 0 de la matriz antisimtrica A AT . En particular, los apartados (i), (ii), e y (iii) del Teorema 2.2.7 implican los apartados (i), (ii) y (iii) de este teorema. Si = 1 y n1 es impar, entonces la forma cannica estructurada de (A, AT ) implica o Ir1 /2 0 que r1 es par e Y = X Ir /2 0 . Si = 1 y n1 es par, entonces Y = X. De nuevo
1

se sigue de (2.30) que el supremos de (Y H (E E T )X) es alcanzado por una matriz simtrica E si = 1. Por tanto, la situacin en (iv) y (v) es completamente paralela a e o los apartados (e) y (d) respectivamente del Teorema 2.3.5 (iv). Luego una eleccin anloga o a de la matriz simtrica E demuestra (iv) y (v). e Para un autovalor nito con r1 = 1 (es decir, X e Y son vectores), la relacin (2.30) o implica S |1 | sup |Y H E1 X| + |1 + | sup |Y H E2 X|.
E1 2 1 E1 es simtrica e E2 2 1 E2 es antisimtrica e

Como se demuestra en el Teorema 2.3.5 (iv) (f), el primer supremo, que se toma sobre matrices simtricas, es igual a 1 . Segn el Teorema 2.2.7 (iv), el supremo en E2 es igual e u a 2 . Esto demuestra que S |1 | 1 + |1 + | 2 . Ahora, sea E1 una matriz simtrica e H con E1 2 1 y |Y E1 X| = 1 , y sea E2 una matriz antisimtrica con E2 2 1 y e |Y H E2 X| = 2 . Entonces, la matriz E = 1 E1 + 2 E2 con 1 , 2 convenientemente elegidas cumpliendo |1 | = |2 | = 1, satisface E 2 2 y adems |Y H EX| = |1 | 1 + |1 + | 2 a lo que concluye la demostracin de (vi). o El apartado (vii) se sigue directamente del hecho (vase la demostracin del Teorema e o H 2.2.10) de que existe una matriz simtrica E1 tal que E1 2 = 1 y (Y EX) XY H 2 . e Finalmente, como la denicin de no cambia para autovalores innitos, se verica o (viii). Resumiendo los resultados del Teorema 2.3.6 podemos concluir que los nmeros de u condicin de Hlder estructurados y no estructurados de un haz de matrices palindrmico o o o pueden diferir signicativamente slo para autovalores cercanos a 1. o

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

49

2.3.2.

Polinomios matriciales

Otras variantes en principio ms generales del problema generalizado de autovalores, a como son los polinomios matriciales, pueden reformularse de tal forma que se puedan tratar con las ideas de la seccin 2.3.1. En esta seccin veremos como obtener nmeros de o o u condicin de Hlder para autovalores de un polinomio matricial o o P () = m Am + m1 Am1 + . . . + A1 + A0 , Ai Cnn . (2.31)

Decimos que es autovalor de P () si det P () = 0, y se dice que los vectores x, y Cnn son, respectivamente, autovector derecho e izquierdo asociados al autovalor si P ()x = 0 e y H P () = 0, respectivamente. En lo que sigue supondremos que el polinomio matricial P es regular, esto es, que el polinomio det P () en la variable no es idnticamente nulo. El haz de matrices e

A B =


Am1 Am2 I 0 0 I . . . . . . 0 0

A1 A0 0 0 0 0 . . ... . . . . I 0

Am 0 0 . . . 0

0 I 0 . . .

0 0 0 0 0 0 ... . . . . . . 0 0 I

(2.32)

de tamao mn mn se llama forma compaera del polinomio matricial (2.31), y representa n n una de las linealizaciones ms usuales: una linealizacin de (2.31) es un haz de matrices a o 1 cuyos autovalores coinciden con los de P () . Adems, hay tambin una correspondena e cia, que veremos a continuacin, entre los autovectores de P () y los autovectores de su o linealizacin [38, 1.1 & 7.2] (vanse tambin [67, 66]). o e e Consideramos el polinonio matricial perturbado P + P con P () = m Em + m1 Em1 + + E1 + E0 , Ei Cnn .

Para investigar el comportamiento de los autovalores perturbados correspondientes, observamos que coinciden con los autovalores del haz de matrices perturbado (A + E, B + F ), donde E = V
1

Em1 Em2 E1 E0

F = V Em V T ,

(2.33)

De forma ms rigurosa, un haz L() de mn mn es una linealizacin del polinomio P () en (2.31) a o si existen matrices unimodulares (esto es, con determinante constante, independiente de ) E() y F () tales que P () 0 . E()L()F () = 0 I(k1)n

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

50

y V = [In , 0, . . . , 0]T . Esta relacin nos permite extender fcilmente las Deniciones 2.3.2 y 2.3.4 de nmero o a u de condicin de Hlder, tanto estructurado como no estructurado, del marco de los haces o o de matrices al de los polinomios matriciales. Dedicaremos lo que queda de esta seccin al o condicionamiento no estructurado. El estructurado se dene de manera anloga. a La siguiente denicin es ligeramente ms general que la Denicin 2.3.2 de la que o a o proviene, en el sentido de que permite exibilidad en los coecientes al permitir la eleccin o de m + 1 pesos no negativos w0 , . . . , wm . Para evitar situaciones degeneradas impondremos w0 > 0 para = 0, wm > 0 para = , y mx{w0 , . . . , wm } > 0 para cualquier otro a autovalor. Denicin 2.3.7 Sea un autovalor nito del polinomio matricial P con forma como paera (A, B) como en (2.32), sean X e Y las correspondientes matrices de autovecn tores (2.27) de (A, B) y sean wi , i = 0, . . . , m constantes no negativas. Consideramos las matrices de perturbacin (E, F ) de la forma (2.33), que preservan la forma compaera. o n Entonces el n mero de condicin (absoluto) de Hlder para el autovalor viene u o o dado por (P, ) = (n1 , ), donde n1 es el tamao del mayor bloque de Jordan en la forma n de Weierstrass del haz (A, B) asociado al autovalor y =
Ei wi Ei Cnn

sup (Y H (E F )X).

El nmero de condicin (absoluto) de Hlder para = viene dado por (P, ) = (n1 , ), u o o donde n1 es el ndice de nilpotencia del haz (A, B) y = sup (Y H F X).
Ei wi Ei Cnn

Ntese que no perdemos generalidad por usar la linealizacin en forma compaera en o o n la Denicin 2.3.7, ya que la relacin entre los autovalores de un polinomio matricial y los o o autovalores de cualquier linealizacin es biyectiva. Por tanto, cualquier otra linealizacin o o fuerte2 en el sentido de [37, 60, 67] conducir al mismo nmero de condicin de Hlder. Una a u o o de las ventajas de haber elegido la forma compaera es la estructura especialmente sencilla n de los autovectores del haz (A, B). Ms concretamente, los resultados en [45, Lemma 7.2] a y [44, Lema 3.7] demuestran que x1 e y1 son autovectores derecho e izquierdo asociados al autovalor de P si y slo si o m1 x1 . . . x1 x1

x=

y=

y1 (Am + Am1 )H y1 . . . (m1 Am + m2 Am1 + + A1 )H y1

(2.34)

2 El concepto de linealizacin fuerte fue introducido por Gohberg, Kaashoek y Lancaster en [37], aunque o fueron Lancaster y Psarrakos quien le dieron ese nombre en [60]: un linealizacin L() = A B de un o polinomio regular P () es fuerte si, adems, el haz dual B A de L() es una linealizacin del polinomio a o dual de P ().

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

51

son autovectores derecho e izquierdo del haz (A, B), respectivamente. Para el autovalor = H , los autovectores de (A, B) vienen dados por x = [xH , 0, . . . , 0]H e y = [y1 , 0, . . . , 0]H . 1 Esto demuestra que las matrices X e Y denidas en (2.27), que contienen autovectores derechos e izquierdos asociados a un autovalor nito (mltiple) del haz (A, B), son de la u forma m1 X1 . . . X1 X1

X=

Y =

Y1 (Am + Am1 )H Y1 . . . (m1 Am + m2 Am1 + + A1 )H Y1

(2.35)

donde X1 e Y1 son matrices de autovectores derechos e izquierdos del polinomio matricial P . Para un autovalor innito, slo los primeros bloques de las matrices X e Y son no nulos o e iguales a X1 e Y1 , respectivamente. El siguiente lema nos proporciona una frmula expl o cita del nmero de condicin de u o Hlder y adems demuestra que > 0 (bajo las condiciones anteriores sobre los pesos), o a algo que estrictamente hablando es necesario para justicar la Denicin 2.3.7. o Lema 2.3.8 Sea P () un polinomio matricial regular de la forma (2.31) y sea un autovalor nito de P . Entonces (P, ) = (n1 , (wm ||m + wm1 ||m1 + + w0 ) X1 Y1H 2 ) para cualquier norma unitariamente invariante , donde X1 e Y1 son las matrices de autovectores de P relativas a las matrices de autovectores X e Y del haz (A, B) como se muestra en (2.35). Para un autovalor innito, (P, ) = (n1 , wm X1 Y1H 2 ). Demostracin: o La estructura de las matrices E, F , X e Y dadas en (2.33) y (2.35) implica que Y H (E F )X = Y1H (m Em + m1 Em1 + + E0 )X1 Como en la demostracin del Lema 2.3.3, se prueba que o (Y H (E F )X) (wm ||m + wm1 ||m1 + + w0 ) X1 Y1H
2

(2.36)

Sean u, v los vectores singulares izquierdo y derecho, respectivamente, asociados al mayor valor singular de la matriz X1 Y1H . Entonces, la igualdad en (2.36) se alcanza con la eleccin o de las siguientes perturbaciones E0 = w0 vuH , E1 = w1 H m vu , . . . , Em = wm m vuH , || ||

con E1 = = Em = 0 para = 0. Esto demuestra el resultado para nito. Para autovalores innitos la demostracin es anloga, teniendo en cuenta que Y H F X = Em . o a

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

52

Queremos hacer notar que las matrices X1 e Y1 no pueden elegirse arbitrariamente en el Lema 2.3.8; el resultado depende de la normalizacin de las matrices X e Y impuesta o por (2.27). Para ilustrar el efecto de tal normalizacin, sea, por ejemplo, un autovalor o nito semisimple de P y supongamos que X1 y Y1 contienen bases arbitrarias de autovectores derechos e izquierdos asociados a . Si denotamos por X e Y las correspondientes bases de autovectores de A B entonces (2.35) implica Y H B X = Y1H P ()X1 . Como es semisimple y nito, la matriz Y1H P ()X1 es invertible y X1 = X1 (Y1H P ()X1 )1 , Y1 = Y1

cumple que Y1H P ()X1 = I. Esto implica la condicin impuesta por (2.27) para un autoo valor semisimple. Por el Lema 2.3.8,
(P, ) = 1, (wm ||m + wm1 ||m1 + + w0 )X1 (Y1H P ()X1 )1 Y1H

Para r1 = 1, esta frmula coincide con el resultado de Tisseur [90, Theorem 5] sobre o nmeros de condicin para autovalores simples de un polinomio matricial. u o

2.4.

Perturbaciones estructuradas completamente no genricas: el caso matricial e

Dada una matriz cuadrada A Cnn , un autovalor de A y una perturbacin aditiva o de la forma A + E para una cierta E Cnn , ya hemos visto en la seccin 2.1 que los o autovalores perturbados k pueden escribirse como
k = + kk k + o(k ),

0,

k = 1, . . . , m.

(2.37)

Adems, el exponente k coincide genricamente con 1/n1 , siendo n1 el tamao del mayor a e n bloque de Jordan asociado al autovalor . Sin embargo, como se observ en el Ejemplo 2.9, hay casos en los que k es estrictao mente mayor que 1/n1 . Esto puede ocurrir para una perturbacin E en concreto, o para o todas las perturbaciones E que pertenezcan a una cierta clase de matrices estructuradas S. Este ultimo caso es el que ms nos interesa, y a l dedicaremos la presente seccin. a e o Si, como antes, denotamos por (A, ; S) = (nS , S ) y (A, ) = (n1 , ) los nmeros de u condicin estructurado y no estructurado, nuestro primer objetivo en esta seccin es hallar o o condiciones necesarias y sucientes sobre la clase S bajo las cuales nS < n1 . Si la estructura cumple esta propiedad, diremos que es completamente no genrica para el autovalor y e la matriz A en cuestin. Para estas estructuras, por tanto, el comportamiento de frente o a perturbaciones en S es cualitativamente mejor que frente a perturbaciones arbitrarias. Una vez identicadas tales estructuras, nuestro objetivo ser identicar nS y, si es posible, a

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

53

obtener frmula expl o citas o, al menos, estimaciones para S . Para ello emplearemos en la seccin 2.4.3 el diagrama de Newton. o Ntese en primer lugar que, puesto que el nmero de condicin reeja el mayor efecto o u o posible sobre los autovalores, dada una clase S de matrices estructuradas, basta que haya una sola matriz E S tal que el exponente k en (2.37) sea igual a 1/n1 para concluir que nS = n1 . Por tanto, si X e Y son las matrices de autovectores denidas en (2.13) y (2.14), una estructura S es completamente no genrica si y slo si para toda matriz E S e o se cumple la ecuacin o Y H EX = 0r1 r1 . (2.38) Veamos un par de ejemplos de estructuras completamente no genricas. e Ejemplo 2.4.1 Sea S = {A C33 : A = AT } el conjunto de las matrices antisimtricas e complejas de tamao 3 y sea la matriz antisimtrica n e A= 0 1 0 1 0 i 0 i 0

Consideramos su unico autovalor = 0, que posee un unico bloque de Jordan de tamao n 3. Si calculamos el nmero de condicin de Hlder no estructurado usando la Denicin u o o o 2.3.2, se obtiene (A, 0) = (3, 2). Puede comprobarse que los autovalores perturbados k () de A + E para cualquier matriz antisimtrica e E= cumplen el desarrollo asinttico o
1

0 x y x 0 z y z 0

k () = + (2iz + 2x)1/2 1/2 + o( 2 ),

para k = 1, 2.

Por tanto, nS = 2 < n1 = 3, y el nmero de condicin estructurado es u o (A, 0; S) = (2, mx |2iz + 2x|) = (2, 2). a
||E||F =1

Ejemplo 2.4.2 Consideramos la estructura S = {A C33 : A3 = 3 AT } para la 1 1 matriz ortogonal simtrica 3 = e . Sea
1

A=

2 i 0 i 0 i 0 i 2

S,

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

54

que tiene un solo autovalor = 0 con un unico bloque de Jordan de tamao 3. Si calculamos n el nmero de condicin de Hlder no estructurado usando la Denicin 2.3.2, se tiene que u o o o (A, 0) = (3, 4). Puede comprobarse que todas las matrices de S tienen la forma E= x y 0 z 0 y 0 z x

y que los autovalores perturbados k () de A + E para cualquier matriz de esa forma cumplen el desarrollo 1/2 k () = + (iz + 2iy + 2 2x)1/2 1/2 + o( ), para k = 1, 2.

Por tanto nS = 2 < n1 = 3 y el nmero de condicin estructurado es u o 2 (A, 0; S) = (2, mx |iz + 2iy + 2 2x|) = 2, a . ||E||F =1 2

2.4.1.

Estructuras lineales completamente no genricas e

Comenzamos por recordar nuestra denicin de estructuras completamente no genricas o e Denicin 2.4.3 Sea un autovalor de A Cnn con forma de Jordan (2.10), y sean X o e Y denidas como en (2.13) y (2.14), respectivamente. Sea S Cnn . Se dice que la clase de matrices S es completamente no genrica para A y si para toda matriz E S se e H tiene que Y EX = 0. Nuestro objetivo en esta seccin es ver qu relacin debe haber entre las matrices de o e o autovectores X e Y y la estructura S para asegurar que Y H EX = 0r1 r1 para cualquier E S siempre que S sea una estructura lineal. Si escribimos X = x1 x2 . . . xr1 e Y = y1 y2 . . . yr1 , entonces las matrices de rango 1 Mij = yi xH , i, j = 1, . . . , r1 (2.39) j van a jugar un papel importante en la discusin. Si llamamos vec al operador que concatena o las columnas de una matriz m n para producir un vector de Cmn , una de las propiedades de este operador [48, 4.3] es que vec(ABC) = (C T A)vec(B) (2.40)

para cualesquiera matrices A, B, C tales que su producto est bien denido. Haremos uso a de esta propiedad en el siguiente lema, que da condiciones necesarias y sucientes para que se satisfaga (2.38).

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

55

Lema 2.4.4 Sea A Cnn con forma cannica de Jordan (2.10), sean X e Y las matrices o denidas como en (2.13) y (2.14) y sean Mij , i, j = 1, . . . , r1 , dadas por (2.39). Entonces Y H EX = 0 para E Cnn si y slo si o vec(Mij )H vec(E) = 0, para todo i, j {1 . . . r1 }. (2.41)

Demostracin: o H El producto Y H EX valdr cero si y slo si cada una de las entradas yi Exj son nulas. a o T H Usando la propiedad (2.40), esto es equivalente a que (xj yi )vec(E) = 0 para cada par de ndices i, j {1 . . . r1 }, o lo que es lo mismo, a que sea [vec(yi xT )]T vec(E) = 0, lo que j implica el resultado (2.41). El Lema 2.4.4 demuestra que, dada una estructura de matrices S, la condicin (2.38) o 2 se satisface si y slo si todas y cada una de las r1 matrices Mij en (2.39) son ortogonales o a cualquier matriz de la estructura S con respecto al producto escalar matricial A, B = vec(A)H vec(B). (2.42)

Cuando el conjunto S de matrices estructuradas es un subespacio lineal, podemos hablar de la antiestructura correspondiente a S. Denicin 2.4.5 Sea S una estructura lineal de Cnn , esto es, un subespacio vectorial de o nn C . Se dene la antiestructura asociada a S como S = {B Cnn : vec(B)H vec(A) = 0 A S}. S es, obviamente, el complemento ortogonal del subespacio S en Cnn con respecto al producto escalar (2.42). As toda estructura lineal S tiene una unica antiestructura asocia, da S , que es tambin subespacio lineal, y si S tiene dimensin k entonces S tiene dimene o 2 sin n k. Adems, (S ) = S. En la seccin 2.4.2 veremos cules son las antiestructuras o a o a correspondientes a algunas de las estructuras lineales ms comunes. a 2 Con esta denicin, la propiedad (2.38) es equivalente a decir que las r1 matrices de o rango uno Mij en (2.39) pertenecen a la antiestructura S . Este es el principal resultado de esta seccin y es consecuencia directa del Lema 2.4.4 y la Denicin 2.4.5: o o Teorema 2.4.6 Sea un autovalor de la matriz A Cnn , sea S Cnn una estructura lineal, y sean (A, ) = (n1 , ) y (A, ; S) = (nS , S ) los nmeros de condiu cin no estructurado y estructurado, respectivamente, del autovalor . Sean las matrices o Mij , i, j = 1, . . . , r1 , denidas como en (2.39). Entonces nS < n1 si y slo si Mij S o para todo i, j = 1, . . . , r1 . En la seccin anterior denimos la matriz de Lidskii (2.17) o W = Y XH , XY H 2

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS


r1

56

que, salvo por un factor constante, es igual a la suma Obtenemos as una condicin necesaria para (2.38): o
i=1

Mii de las matrices Mij con i = j.

Corolario 2.4.7 Sea un autovalor de la matriz A Cnn , sea S una estructura lineal y sean (A, ) = (n1 , ) y (A, ; S) = (nS , S ) los nmeros de condicin no estructurado u o y estructurado, respectivamente, del autovalor . Si nS < n1 entonces la perturbacin W o denida en (2.17) pertenece a la clase de matrices S . Ilustremos este resultado con los Ejemplos 2.4.1 y 2.4.2. Para el Ejemplo 2.4.1 su matriz de Lidskii es 1 0 i 0 0 0 W = , i 0 1

que es simtrica. Como se ver en 2.4.2 la antiestructura asociada a las matrices antie a simtricas es justamente el conjunto de matrices simtricas. Anlogamente, en el Ejemplo e e a 2.4.2 se puede ver que la matriz de Lidskii 1 2i 1 , W = 2i 2 2i 1 2i 1 pertenece a la antiestructura de las matrices S = {A C33 : A3 = 3 AT }.

2.4.2.

Estructuras y antiestructuras lineales

En esta subseccin describiremos las antiestructuras asociadas a las estructuras lineales o ms comunes. Para ello debemos recordar algunas deniciones bsicas. a a Denicin 2.4.8 Se dice que A Cnn es simtrica (resp., antisimtrica) si AT = A o e e (resp., si AT = A). Se dice que A Cnn es persimtrica (resp., antipersimtrica) e e T T si A Fn = Fn A (resp., A Fn = Fn A), donde Fn viene dada por (2.18). Denicin 2.4.9 Sea n N, sean p, q N con p + q = n y sea o p,q = Ip 0 0 Iq .

Se dice que A Cnn es una matriz pseudosimtrica (resp., antipseudosimtrica) e e T T con respecto a p,q si p,q A = Ap,q (resp., p,q A = Ap,q ). Denicin 2.4.10 Sea o Jn = 0 In In 0 .

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

57

Se dice que H R2n2n es hamiltoniana (resp., antihamiltoniana) si HJn es simtrica e (resp., antisimtrica), es decir, si HJn = (HJn )T (resp., si HJn = (HJn )T ). Toda matriz e hamiltoniana real H Rnn se puede escribir de la forma H= A B C AT

con B y C simtricas, mientras que toda matriz antihamiltoniana real H Rnn se puede e escribir de la forma A B H= C AT con B y C antisimtricas e Denicin 2.4.11 Se dice que A Cnn es una matriz circulante (resp., cocirculante) o si es de Toeplitz (resp., de Hankel) y cada una de sus las (resp., de sus columnas) es una traslacin c o clica de la la (resp., de la columna) anterior. Por ejemplo, para n = 4 a1 a4 a3 a2 es una matriz circulante y a1 a2 a3 a4 es una matriz cocirculante. Denicin 2.4.12 Sea una matriz A = (aij ) Cnn . Se dice que o i) A tiene sumas diagonales nulas (o abreviando, sumas-d nulas) si, para cada k {n + 1, n + 2, . . . , 0, . . . , n 2, n 1}, aij = 0.
ij=k

a2 a1 a4 a3 a2 a3 a4 a1

a3 a2 a1 a4 a3 a4 a1 a2

a4 a3 a2 a1 a4 a1 a2 a3

ii) A tiene sumas antidiagonales nulas (o abreviando, sumas-ad nulas) si, para cada k {2, . . . , 2n}, aij = 0.
i+j=k

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

58

iii) A tiene sumas diagonales extendidas nulas (o abreviando, sumas-de nulas) si, para cada k {0, . . . , n 2, n 1}, aij +
ij=k ji=nk

aij = 0.

iv) A tiene sumas antidiagonales extendidas nulas (o abreviando, sumas-ade nulas) si, para cada k {2, . . . , n, n + 1}, aij +
i+j=k j+i=nk

aij = 0.

Sean las siguientes matrices: A1 = 1 2 0 4 2 2 0 4 3 1 4 9 3 2 2 6 6 3

A2 =

0 2 1 2 2 4 3 4 0

A3 =

A3 =

Entonces A1 tiene sumas-d nulas, A2 tiene sumas-ad nulas, A3 tiene sumas-de nulas y A4 tiene sumas-ade nulas. Despus de estas deniciones, la siguiente tabla describe las antiestructuras correspone dientes a las estructuras lineales ms usuales: a S simtrica e pseudosimtrica e persimtrica e hamiltoniana real Toeplitz Hankel circulante cocirculante S antisimtrica e antipseudosimtrica e antipersimtrica e antihamiltoniana real sumas d-nulas sumas ad-nulas sumas de-nulas sumas dea-nulas

1 4 9 3 7 5 16 6 1

La idea de la demostracin es la misma para todas las estructuras: se sabe por [42] que o 2 para cada estructura lineal S de dimensin t existe una matriz F Rn t tal que toda o A S satisface vec(A) = F p para algn vector p Ct apropiado. A la vista de ello, una matriz B Cnn estar en S u a si y slo si o vec(B)H F = 01t .

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

59

Por tanto, las condiciones sobre las entradas de la matriz B se extraen de esta ecuacin. o Veremos slo dos ejemplos, las matrices simtricas 3 3 y las cocirculantes 4 4, a modo o e de ilustracin. El resto de los casos son totalmente anlogos, y pasar a dimensin arbitraria o a o no reviste complicacin alguna. o 1. Simtrica, n = 3: Sea A C33 una matriz simtrica. Como la dimensin del e e o conjunto de matrices simtricas 3 3 es t = 6, sabemos que existe una matriz e 96 F R y un vector p C6 tal que vec(A) = F p. Dicha matriz F es la que se muestra en la siguiente ecuacin. o

vec(A) = F p =


1 0 0 0 0 0 0 0 0

0 1 0 1 0 0 0 0 0

0 0 1 0 0 0 1 0 0

0 0 0 0 1 0 0 0 0

0 0 0 0 0 1 0 1 0

0 0 0 0 0 0 0 0 1

a11 a12 a13 a22 a23 a33

33 Sea ahora B = (bij )3 una matriz cualquiera. Entonces, vec(B)H F = 016 i,j=1 C si y slo si o

b11 b21 b31 b12 b22 b32 b13 b23 b33

F = 01t

Basta hacer el producto matricial e igualar los elementos de ambas matrices para obtener que B S si y slo si bii = 0 para i=1,2,3 y bij = bji para i, j o {1, . . . , 3}. En otras palabras, la antiestructura de las matrices simtricas es la clase e de matrices antisimtricas. e a d c b b a d c una matriz circulante. Como la 2. Circulante, n = 4: Sea A = c b a d d c b a dimensin del conjunto de matrices circulantes 4 4 es t = 4, sabemos que existe o una matriz F R164 y un vector p C4 tales que

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

60

vec(A) = F p =

1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1

0 1 0 0 0 0 1 0 0 0 0 1 1 0 0 0

0 0 1 0 0 0 0 1 1 0 0 0 0 1 0 0

0 0 0 1 1 0 0 0 0 1 0 0 0 0 1 0

a b c d

para cualquier matriz circulante A


33 Sea ahora B = (bij )3 una matriz cualquiera. Entonces, puede comprobarse i,j=1 C H que vec(B) F = 016 si y slo si o

b1 + b6 + b11 + b16 = 0 b2 + b7 + b12 + b13 = 0 , b3 + b8 + b9 + b4 = 0 b4 + b5 + b10 + b15 = 0 es decir, la antiestructura asociada a las matrices circulantes son las matrices que tienen sumas-de nulas.

2.4.3.

N meros de condicin estructurados v el diagrama de u o a Newton

En esta subseccin identicaremos el exponente principal nS en el nmero de condicin o u o estructurado (A, ; S) para una estructura S completamente no genrica, esto es, para una e estructura que satisfaga la condicin (2.38). Nuestra herramienta fundamental ser el diao a grama de Newton [3, Appendix A7] (a veces llamado tambin pol e gono de Puiseux-Newton), una herramienta ideada y desarrollada por Newton, aunque rigurosamente justicada mucho ms tarde por Puiseux [79]. Describiremos el diagrama de Newton adaptado al contexto a del problema que nos ocupa: sean las matrices A, E Cnn , sea 0 un autovalor de A, 1 sean , dos parmetros y sea JA la forma cannica de Jordan de la matriz A = PA JA PA , a o como en (2.10). Sin prdida de generalidad, supondremos en toda esta seccin que e o 0 = 0

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

61

(de no ser as basta reemplazar el parmetro por 0 en lo que sigue). Con esta , a simplicacin, podemos escribir la ecuacin caracter o o stica de la matriz perturbada A + E como p(, ) = det(A + E I) = det(JA + P 1 EP I) = = n + 1 ()n1 + . . . + n1 () + n () k () = k ak + . . . , k = 1, . . . , n, siendo ak el exponente principal y k el coeciente director de k (), es decir, k = 0 y no hay trminos de orden menor que ak en el desarrollo de k (). Se sabe [3, 56, 72] que en e esta situacin las ra de p(, ) vienen dadas por desarrollos o ces () = p/q + . . . en potencias fraccionarias de . Los exponentes principales p/q de estos desarrollos pueden determinarse por medio de la siguiente construccin geomtrica: dibujamos los puntos o e (k, ak ) para k = 1, . . . , m y el punto (0, 0) correspondiente a la potencia n . Entonces dibujamos los segmentos que forman el borde inferior de la envolvente convexa de esos puntos. Estos segmentos constituyen lo que se denomina Diagrama de Newton asociado a p(, ). Se puede demostrar que: 1. Las pendientes de los distintos segmentos son los exponentes principales de los desarrollos en de las ra () de p(, ). ces 2. El nmero de ra que corresponde a cada pendiente coincide con la longitud de la u ces proyeccin sobre el eje horizontal del segmento con dicha pendiente. o 3. Los coecientes directores asociados a un determinado exponente, y por tanto al segmento S que tiene ese exponente por pendiente, son las soluciones de la ecuacin o mk k = 0.
(k,ak )S

donde

Ilustramos estas propiedades con el siguiente ejemplo. Ejemplo 2.4.13 Sea P (, ) = 5 2 4 + ( 32 )3 + 2 3 . El diagrama de Newton asociado a P (, ) es

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

62

5 4 3 2

El diagrama de Newton est compuesto por dos segmentos, uno de pendiente 1/2 y a otro de pendiente 1. Esto signica que hay cuatro autovalores perturbados cuyo exponente principal es 1/2, y cuyo coeciente director viene dado por las soluciones de la ecuacin o 23 = 0. El quinto autovalor tiene exponente principal 1, y el coeciente director viene dado por la solucin de o 1 = 0. Por tanto, las ra de p(, ) son de la forma ces k () = y 5 () = + . . . . Emplearemos esta teor para obtener los trminos dominantes de los desarrollos en a e serie de potencias fraccionarias en de los autovalores de la matriz perturbada A + E para E S cuando S es una estructura completamente no genrica. e Para ello, sea A Cnn con forma de Jordan (2.10). Para cada i = 1, . . . , q, las columnas de P contienen ri cadenas de Jordan linealmente independientes de longitud ni . Consideramos el segundo vector de cada cadena de Jordan derecha de longitud n1 asociada a , y reunimos todos estos segundos vectores en la matriz X2 = P e2 , P en1 +2 , P e2n1 +2 , . . . , P e(r1 1)n1 +2 1 1 2 + . . . 2 k = 1, 2, 3, 4

de n r1 . Anlogamente, se renen en la matriz a u Y2 = QH en1 1 , QH e2n1 1 , . . . , QH er1 n1 1

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

63

de n r1 todos los segundos vectores de cadenas de Jordan izquierdas de longitud n1 . Si X e Y son las matrices de autovectores denidas como en (2.13) y (2.14), y suponemos que hay r2 bloques de Jordan asociados a del segundo mayor tamao n2 , consideramos n la matriz W2 = Y | QH er1 n1 +n2 , QH er1 n1 +2n2 , . . . , QH er1 n1 +r2 n2 , de tamao n (r1 + r2 ), que contiene todos los autovectores izquierdos asociados a las n cadenas de Jordan de longitud n1 y n2 , y la matriz Z2 = X | P er1 n1 +1 , P er1 n1 +n2 +1 , P er1 n1 +2n2 +1 , . . . , P e(r1 n1 +(r2 1)n2 +1 1 = Y H EX Cr1 r1 , y las matrices de tamao r1 r1 n 12 = Y H EX2 , 21 = Y2H EX. (2.44) Queremos hallar el exponente principal 1/nS de (A, ; S) = (nS , S ) para estructuras S que cumplan (2.38). Para ello debemos identicar la menor pendiente posible del diagrama de Newton asociado al polinomio caracter stico de A + E cuando E S. La restriccin o H Y EX = 0 sobre S equivale en trminos del diagrama de Newton a que el punto P1 = e (n1 r1 , r1 ) no aparece en el diagrama (vanse las Figuras 2.1 y 2.2), puesto que el coeciente e nr1 n1 r1 de p(, ) en es det 1 = det(Y H EX) = 0. De hecho, como el rango de la matriz H 1 = Y EX es cero, en el diagrama de Newton no puede aparecer ningn segmento de u pendiente 1/n1 , luego los puntos
j P2 = (n1 r1 jn1 , r1 j), H 2 = W2 EZ2 C(r1 +r2 )(r1 +r2 )

de n (r1 + r2 ), que hace lo mismo para autovectores derechos. Finalmente, se dene (2.43)

j {1, . . . , r1 1}

en las Figuras 2.1 y 2.2 no sern candidatos para el anlisis en nuestra discusin. a a o En cualquier caso, el segmento del diagrama de Newton con menor pendiente provendr de un segmento de pendiente mayir que 1/n1 que conecte el origen con alguno de los a puntos de la cuadr cula ms cercanos a P1 . Distinguiremos dos situaciones diferentes: a 1. La matriz A tiene forma de Jordan (2.10) con q = 1, es decir, slo posee bloques de o Jordan de tamao n1 , y los puntos ms cercanos a P1 (vase Figura 2.2) son n a e P3 = (n1 r1 1, r1 ) P4 = (n1 r1 2, r1 ) (2.45) (2.46)

2. La matriz A tiene forma de Jordan (2.10) con q > 1, es decir, hay bloques de Jordan de tamaos menores que n1 y los puntos ms cercanos (vase Figura 2.1) son n a e P3 = (n1 r1 1, r1 ) P5 = (n1 r1 , r1 + 1) (2.47) (2.48) (2.49)

j P4 = (n1 r1 + n2 j, r1 + j) para algn j {1, . . . , r2 } u

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

64

Figura 2.1:

P4
j P2

P3

P1 r1

n 1 r1

Estudiemos primero el segundo caso, es decir, el caso en que q > 1: denotamos por m3 , mj y m5 , respectivamente, a las pendientes de los segmentos que unen el origen (0, 0) 4 j con cada uno de los puntos P3 , P4 y P5 respectivamente. Obviamente, m1 m5 , inde4 pendientemente de los valores de n1 , n2 y r1 . El siguiente resultado compara las restantes pendientes.
j Lema 2.4.14 Sea A una matriz con forma de Jordan (2.10), sean los puntos P3 , P4 , j = 1, . . . r2 y P5 , denidos como en (2.47), (2.48) y (2.49), respectivamente, y sean m3 , mj y 4 m5 las pendientes respectivas del segmento que une el origen con cada uno de esos puntos. Entonces

(i) m3 m5

si y slo si o

n1 2. si y slo si o si y slo si o n1 n 2
r1 +j . r1 j

(ii) m3 mj para algn j {1, . . . , r2 } u 4 (iii) mj m5 , para algn j {1, . . . , r2 } u 4

(r1 + 1)j n1 . n2 r1 (j 1)

Demostracin: o El apartado (i) es trivial. Para ver el apartado (ii), basta comparar las pendientes correspondientes, esto es, m3 es ms pequea que mj si a n 4 r1 + j r1 . n1 r1 1 n1 r1 + jn2 Un simple clculo demuestra que esto es equivalente a a n 1 n2 r1 + j . r1 j

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS Finalmente, la pendiente mj es ms pequea que m5 cuando a n 4 r1 + j r1 + 1 n1 r1 + jn2 n 1 r1 lo que ocurre slo si o n1 r1 + 1 j , n2 r1 j 1

65

concluyendo la demostracin. o

Ahora queremos determinar los coecientes del polinomio caracter stico p(, ) asociaj dos a los puntos P3 , P4 y P5 . Si denotamos a una submatriz de tamao k k de una matriz n M formada por las las i1 , . . . , ik y las columnas j1 , . . . , jk por M([i1 , . . . , ik ], [j1 , . . . , jk ]), y a la submatriz principal de las y columnas i1 , . . . , ik por M(i1 , . . . , ik ), tenemos el siguiente resultado. Figura 2.2:

P5 P3
j P2

j P4

r2

P1

r1

n 1 r1 n 1 r1 + n 2 r2

Teorema 2.4.15 Sea la matriz A Cnn con forma cannica de Jordan (2.10), sea o nn E C y sea p(, ) el polinomio caracter stico de la matriz A + E. Sean los punj tos P3 , P4 , j = 1, . . . , r2 y P5 denidos como en (2.47), (2.48) y (2.49) respectivamente. Entonces 1. El coeciente de nn1 r1 +1 , r1 en p(, ), correspondiente al punto P3 en la Figura 2.1, es: a) si n1 n2 2, el coeciente es
r1

C3 = (1)

(n1 1)r1 1 r1

[
j=1

det(([1 : r1 ] , [1 : j 1 , j + r1 , j + 1 : r1 ]))

(2.50)

+
j=1

det(([1 : j 1 , j + r1 , j + 1 : r1 ], [1 : r1 ]))]

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 1 12 21 0

66

donde = y (2.44). b) si

, y las matrices 1 , 12 y 21 estn dadas por (2.43) a

n2 = n1 1, C3 = C3 + (1)(n1 1)r1 1

r1

r2

j=1 k=1

det(2 ([1 : j 1, j + 1 : r1 , r1 + k])),

donde C3 viene dado por (2.50) y la matriz 2 est denida en (2.43). a 2. Para cada j {1, . . . , r2 }, el coeciente de nn1 r1 jn2 r1 +j en p(, ), correspondiente j al punto P4 en la Figura 2.1, es
j C4 = (1)(n1 1)r1 +(n2 1)j {k1 ,...,kj }{1,...,r2 }

det(2 ([1 . . . r1 , r1 + k1 , . . . , r1 + kj ]))

Demostracin: o 1 Sea JA = PA APA la forma de Jordan de A. El coeciente del trmino en j k del e polinomio caracter stico de A + E es igual a la suma de los coecientes de los trminos de e orden k que aparecen en los menores principales de tamao n j de la matriz n
1 G = JA PA EPA .

(2.51)

La unica manera de construir un menor principal de tamao nj que contenga un producto n de ese orden es elegir el menor de modo que el producto contenga exactamente n j k trminos que no dependan de , esto es, que el menor contenga n j k de las posiciones e supradiagonales de G que contienen un 1 en la forma de Jordan JA . A estas posiciones las llamaremos posiciones -constantes3 en el resto de la demostracin. o nn1 r1 +1 r1 En vista de esta observacin, el coeciente del trmino en o e , correspondiente al punto P3 , es la suma de los coecientes de orden r1 que aparecen en los menores principales de tamao n1 r1 1 de G. Esto equivale a elegir menores principales de tamao n n n1 r1 1 que contengan exactamente (n1 1)r1 1 posiciones -constantes. Veamos en primer lugar que los menores con esta propiedad tienen que estar formados por las que provienen de r1 bloques de Jordan distintos de la matriz JA : en efecto, cada posicin o constante es de la forma (j, j + 1). Sea s el nmero de bloques de Jordan distintos de u entre los que se eligen las las para generar productos de orden r , y sea pi , i {1, . . . , s}, 1 el nmero de posiciones -constantes que aporta al producto cada uno de los s bloques. u Las pi posiciones -constantes de cada bloque determinan como m nimo pi + 1 las del menor principal. Por tanto, el nmero de las del menor principal que contienen posiciones u n a -constantes es al menos s pi + s. Como los menores son de tamao n1 r1 1 y adems i=1 s i=1 pi = (n1 1)r1 1, concluimos que tiene que ser s = r1 . Distinguimos los siguientes casos dependiendo de cmo se elijan las las en cada uno o de los menores principales:
3 Como estamos suponiendo que 0 = 0, sas son las unicas posiciones que contienen trminos que no e e dependen de en la matriz.

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

67

1. Si escogemos las n1 r1 1 las de entre los r1 bloques de tamao mximo n1 , stos n a e contienen como mximo (n1 1)r1 posiciones -constantes. Para obtener (n1 1)r1 1 a posiciones -constantes eligiendo n1 r1 1 las debemos dejar fuera del menor principal una la que sea o la primera o la ultima asociada a uno de los bloques de Jordan de tamao r1 : dejar fuera del menor cualquier otra la intermedia eliminar dos n a posiciones -constantes en lugar de slo una. Por tanto, el coeciente depende excluo sivamente de lo que llamaremos las primeras y segundas esquinas de la perturbacin o 1 PA EPA . Podemos ilustrar lo que son con el siguiente ejemplo: sea una matriz de 6 6, con un unico autovalor = 0, cuya forma cannica de Jordan tiene dos bloques o de Jordan de tamao 3. Entonces, para toda perturbacin E de 6 6, los coecientes n o 2 del trmino en dependen slo de los elementos marcados con un s e o mbolo en la matriz

1 PA EPA =


Los elementos marcados con son las esquinas primeras, y los marcados con y son las esquinas segundas. De hecho, puede comprobarse fcilmente que, en general, el coeciente del trmino a e nn1 r1 +1 r1 es la suma de los menores principales G([1 : jn1 1, jn1 + 1 : n1 r1 ]) y G([1 : (j 1)n1 , (j 1)n1 + 2 : n1 r1 ]). El primer caso corresponde a dejar fuera del menor principal la ultima la del j-si e mo bloque de Jordan de tamao r1 (esto es, la jn1 -sima la de G), mientras que la n e segunda corresponde a dejar fuera la la (jn1 + 1)-sima de G, es decir, la primera e la del j-simo bloque. Un simple clculo permite escribir esta suma como suma de e a 1 12 los menores que se indica en (2.50) de la matriz donde 12 , 21 estn a 21 0 denidos como en (2.43) y (2.44). Esto concluye la demostracin del apartado 1.a). o En el ejemplo anterior, la matriz es 1 3 1 3 2 1 2 4 3 4 2 0 0 4 0 0

1 1 1 3 3 3

2 2 2 4 4 4

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS y el coeciente correspondiente es det 1 2 3 4 det 1 2 3 4 det 1 2 3 4 det 1 2 3 4 .

68

2. Si escogemos las n1 r1 1 las de entre r1 k bloques de Jordan de tamao n1 , y n k bloques de tamaos menores, ni1 , . . . , nik , tendremos a lo sumo (n1 1)(r1 k) + n k u j=1 (nij 1) posiciones -constantes disponibles. Para que este n mero sea mayor o k igual que (n1 1)r1 1 tiene que ser j=1 nij n1 k 1 con nij < n1 y k 1. La unica posibilidad de que esto ocurra es que sea k = 1 y ni1 = n1 1, es decir, slo o se pueden conseguir trminos del orden deseado si el segundo mayor tamao n2 de e n bloques de Jordan asociados a es justamente n2 = n1 1. En tal caso, las las del menor principal provendrn de r1 1 bloques de Jordan completos de tamao n1 y a n un solo bloque de Jordan completo de tamao n1 1. n En consecuencia, la parte del coeciente principal que se aade al coeciente C3 en n (2.50) depender slo de los elementos de 2 , esto es, con las primeras esquinas de a o 1 la perturbacin PA EPA asociadas con los bloques de Jordan de ambos tamaos n1 o n y n1 1. Si consideramos, por ejemplo, una matriz de 10 10 con n1 = 3, n2 = 2 y r1 = r2 = 2, el coeciente del trmino en 5 2 depender slo de las entradas e a o marcadas con un s mbolo en

1 PA EPA =

1 3 5 9

2 4 6 10

1 3 7 11

2 4 8 12

(2.52)

Ms concretamente, un simple clculo muestra que el coeciente es la suma de los a a menores principales G([1 : (j 1)n1 , jn1 + 1 : n1 r1 , n1 r1 + (k 1)n2 + 1 : n1 r1 + kn2 ]) para j {1 . . . r1 }, k {1 . . . r2 }, esto es, incluimos en el menor las las correspondientes a todos los bloques de Jordan de tamao n1 salvo uno (el j-simo), y las las n e correspondientes a un solo bloque de tamao n1 1 (el k-simo). Equivalentemente, n e la parte del coeciente principal que se aade a C3 es la suma de los menores princin pales [1 . . . j 1, j + 1 : r1 , r1 + k] con j {1, . . . , r1 }, k {1, . . . , r2 } de la matriz

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 2 . Para el anterior ejemplo este coeciente es det . 1 1 5 7 det 1 2 9 12 det 4 3 6 7 det 4 4 10 12

69

j Esto concluye la demostracin del apartado 1.b). Estudiamos ahora el punto P4 , que o se corresponde con los trminos en nn1 r1 jn2 r1 +j , esto es, con la suma de los coecientes e r1 +j de orden que aparecen en los menores principales de tamao n1 r1 + jn2 de la matriz n G. Por tanto, esos menores principales deben contener exactamente (n1 1)r1 + (n2 1)j posiciones -constantes. Para ello es necesario que las las de estos menores principales provengan de exactamente r1 + j bloques de Jordan de la matriz JA , razonando de manera anloga al caso anterior. La unica posibilidad es elegir r1 bloques de Jordan completos de a tamao n1 y j bloques completos del segundo mayor tamao n2 . Esta combinacin es la n n o unica que contiene exactamente el nmero de posiciones -constantes que se necesitan. Por u tanto, el coeciente ser la suma de aquellos menores principales de tamao r1 + j de la a n 1 matriz 2 que contengan a la matriz 1 . En el ejemplo (2.52), el coeciente de P4 es

det
2 y el coeciente de P4 es

1 2 1 3 4 3 5 6 7

det

1 2 2 3 4 4 9 10 12

det

1 2 1 2 3 4 3 4 5 6 7 8 9 10 11 12

El Teorema 2.4.15 es vlido para perturbaciones no estructuradas cualesquiera. Ima poniendo ahora la condicin (2.38), esto es, que la perturbacin pertenezca a una estruco o tura completamente no genrica, podemos extraer los coecientes S para una estructura e dada, y as escribir una expresin simplicada para el nmero de condicin de Hlder o u o o estructurado. Esto es lo que muestra el siguiente teorema. Teorema 2.4.16 Sea un autovalor de una matriz A Cnn con forma cannica de o Jordan (2.10), y sean X e Y matrices de autovectores de A denidas como en (2.13) y (2.14). Sea S un conjunto de matrices tales que Y H EX = 0 para toda perturbacin E S o y sean 1 , 2 las matrices dadas por (2.43) y 12 , 21 denidas como en (2.44). 1. Si n1 n2 2 y r1 = 1, entonces (A, ; S) = (n1 1, ) donde = sup
ES,||E||1

|12 + 21 | .

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 2. Si n1 = n2 + 1 y r1 = 1, entonces (A, ; S) = (n1 1, ) donde = sup


ES,||E||1

70

|12 + 21 + traza(2 )|.

3. Si n1 = n2 + 1 y r1 = 2, entonces (A, ; S) = donde = sup


r2

n1 r1 1 , r1
r2

det 2 ([1 , 2 + k]) +


k=1

det 2 ([2 , 2 + k]) .

ES, E 1 k=1

4. Si n1 n2 2, r1 > 1 y r2 > 1, o si n1 = n2 + 1, r1 > 2 y r2 > 1, entonces (A, ; S) = donde


ES,||E||1

n1 r1 + 2n2 , r1 + 2

sup

det 2 ([1 . . . r1 , r1 + k1 , r1 + k2 ]) . kp {1 : r2 } p {1 : 2}

Demostracin: Basta reeemplazar 1 por la matriz nula en el Teorema 2.4.15 y tener o en cuenta el Lema 2.4.14. Para completar nuestro estudio debemos analizar el caso en que la forma cannica o de Jordan de la matriz A tiene bloques de Jordan de un unico tamao. Este caso queda n reejado en la Figura 2.2, que reproducimos de nuevo para comodidad del lector. El primer candidato para formar el segmento de menor pendiente del diagrama de Newton es el punto P3 , que corresponde al trmino en r1 del polinomio caracter e stico. Por tanto, el coeciente asociado ser la suma de los menores principales de tamao n 1 a n de G que contengan n r1 1 posiciones -constantes. Ahora bien, como q = 1, se tiene que n = n1 r1 por lo que habremos de buscar menores principales de tamao n1 r1 1 que n contengan (n1 1)r1 1 posiciones constantes. Eso slo lo podemos obtener dejando o fuera del menor una unica la, que tendr que ser o la primera o la ultima de un bloque a de Jordan. Ahora bien, si r1 > 1 entonces al dejar fuera del menor una de esas las, el menor resultante siempre contiene una la de ceros, debido a la condicin (2.38) de la o estructura S. Por tanto, el punto P3 = (n1 r1 1, r1 ) desaparece del diagrama de Newton

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

71

si r1 > 1. Por un argumento similar, P4 = (n1 r1 2, r1 ) no puede aparecer si r1 > 2, y as sucesivamente con los puntos (n1 r1 j, r1 ), j = 3, . . .. Por tanto, la menor pendiente posible en el diagrama de Newton es siempre (n1 r1 r1 )/r1 = n1 1. El siguiente Teorema describe los dos primeros casos, para r1 = 1 y r1 = 2. A medida que r1 crece, las expresiones para se complican ms y ms. Obviamos el caso n1 = 1, a a puesto que es el caso trivial en que sigue siendo autovalor de +B. Teorema 2.4.17 Sea un autovalor de la matriz A Cnn con forma de Jordan (2.10) tal que q = 1, es decir, A slo tiene bloques de Jordan de tamao n1 2. Sea S un conjunto o n H estructurado de matrices tales que Y EX = 0 para toda perturbacin E S, siendo X e o Y las matrices de autovectores denidas en (2.13), (2.14), y 12 , 21 las matrices denidas en (2.43) y (2.44). Entonces, (A, ; S) = (n1 1, ) , 1. Si, adems, r1 = 1, entonces a = 2. Si, adems, r1 = 2, entonces a = sup
ES,||E||1

sup
ES,||E||1

|12 + 21 | .

|det 12 + det 21 + [12 ]11 [21 ]22 + [12 ]22 [21 ]11 ] |.

Demostracin: o El primer apartado se sigue de la demostracin del Teorema 2.4.16 del clculo del o a coeciente no nulo del punto P3 para r1 = 1. Cuando r1 > 1 el coeciente de P3 en las condiciones de nuestro teorema es nulo ya que 1 es la matriz nula. De este modo el siguiente punto ms cercano que tenemos que estudiar es P4 (vase la Figura 2.2). a e nn1 r1 +2 r1 El coeciente del trmino en e , correspondiente al punto P4 , es la suma de los coecientes de orden r1 que aparecen en los menores principales de tamao n1 r1 1 n de (2.51). Esto equivale a elegir menores principales de tamao n1 r1 2 que contengan n exactamente (n1 1)r1 2 posiciones -constantes. El unico modo de obtener esto es escoger menores principales de la matriz total (2.51) eliminando dos las primeras, dos ultimas o una primera y otra ultima asociadas a cualquiera de los bloques de Jordan de tamao n1 ; n cualquier otra eleccin de las eliminar ms posiciones -constantes de las necesarias. De o a a hecho, los menores principales resultantes de eliminar o bien las dos primeras o bien las dos ultimas las de cualesquiera bloques de Jordan de tamao r1 ser nulos por ser la n an matriz 1 nula, obtenindose el ultimo apartado. e En particular para el caso r1 = 2 la suma de los menores anteriores pueden simplicarse como siguen. Sea

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

72

... 1

...

...

1 PA EPA =

1 ...

1 ...

...

De este modo el coeciente de P4 es igual a det 1 2 3 4 det

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

...

...

...

2 ...

2 ...

...

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1 2 3 4

1 4 1 4 ,

obtenindose el segundo apartado. e Concluimos esta seccin aplicando los teoremas anteriores a las matrices que se ofrecieron o en los Ejemplos 2.4.1 y 2.4.2 comprobando que el resultado coincide con el ya visto. En 1 ambos casos se cumple que n1 = 1, r1 = 1, y escribimos la matriz PA EPA de la forma
1 PA EPA =

| + |.

Por tanto, por el apartado 1. del Teorema 2.4.16 se tiene que (A, ; S) = (2, ) con = sup
ES,||E||1

En el caso de la matriz antisimtrica compleja e A= se tiene


1 PA EPA =

0 1 0 1 0 i 0 i 0

iz x 0 iz x

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS y para la matriz A= se tiene


1 PA EPA =

73

2 i 0 i 0 i 0 i 2

Como se ve, los resultados obtenidos coinciden con los calculados en los Ejemplos 2.4.1 y 2.4.2. Otro ejemplo completamente no genrico es la estructura de matrices e S = {A Cnn : AT M = M A} donde M es una matriz ortogonal simtrica. Sabemos gracias al apartado (i) del Teoree ma 2.2.7 que si A S tiene un autovalor = 0 con n1 impar y r1 = 1, entonces nS < n1 . Si, adems, n2 = n1 1, el apartado 1 del Teorema 2.4.16 nos dice que a (A, ; S) = (n1 1, ) , donde = Adems, como r1 = 1, a
H H 12 + 21 = y1 Ex2 + y2 Ex1 = traza( H y1 H y2

iy + 2x 0 2x + iy + iz

sup
ES,||E||1

|12 + 21 | .

x1 x2

0 1 1 0

),

donde x1 y x2 (resp., y1 e y2 ) son los dos primeros vectores de la unica cadena derecha (resp., izquierda) de Jordan asociada al bloque de tamao n1 . Usando como antes [71, Theorem n 7.3], se comprueba fcilmente que la relacin entre los vectores de Jordan izquierdos y a o derechos es H y1 1 0 xT 1 = M, H y2 0 1 xT 2 de modo que

sup
ES,||E||1

|12 + 21 | =

sup
ES,||E||1

traza M E

x1 x2

0 1 1 0

xT 1 xT 2

Si llamamos K= x1 x2

0 1 1 0

xT 1 xT 2

(2.53)

NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS entonces la perturbacin E = o


1 ||K||F

74

M K es tal que E S, E

=1y

Por otra parte

1 |traza(KK H )| ||K||F . ||K||F

n||K||F . As tenemos el siguiente resultado.

Lema 2.4.18 Sea S = {A Cnn : AT M = M A}, sea A S con un autovalor = 0 y forma de Jordan (2.10) con n1 impar, r1 = 1 y n2 = n1 1, y sea la matriz K como en (2.53). Entonces (A, ; S) = (n1 1, ) con ||K||F n||K||F .

2.5.

Conclusiones y trabajos futuros

Hemos introducido una denicin de nmero de condicin de tipo Hlder para autoo u o o valores mltiples, tanto para haces regulares de matrices como para matrices. En ambos u casos se han comparado los nmeros de condicin estructurado y no estructurado para diu o versos tipos de estructuras. Tambin hemos propuesto una denicin de condicionamiento e o para autovalores de polinomios matriciales regulares v la linealizacin en forma coma o paera. De acuerdo con los resultados obtenidos, el comportamiento bajo perturbaciones n estructuradas de los autovalores mltiples diere poco del comportamiento de los autovau lores simples descrito en [16, 55, 82], en el sentido de que la estructura inuye poco sobre el condicionamiento, salvo en situaciones muy particulares. Todas estas situaciones especiales parecen provenir de la combinacin de simetr con antisimetr tanto en el caso o a a, de matrices que son antisimtricas con respecto a un producto escalar simtrico (Teorema e e 2.2.7, apartados (ii) y (iv)) como en el caso de haces de matrices simtricos/antisimtricos e e (Teorema 2.3.5 (iv)) o el de haces palindrmicos (Teorema 2.3.6). Entender por qu ocurre o e esto es una de las cuestiones que quedan abiertas para trabajos futuros. Tambin hemos llevado a cabo un anlisis detallado, v el diagrama de Newton, de la e a a teor de perturbaciones que se requiere en el caso que hemos llamado completamente no a genrico, esto es, aqul en que las perturbaciones estructuradas inducen un comportamiene e to cualitativamente mejor en los autovalores que las perturbaciones arbitrarias, no estructuradas. Hemos caracterizado las estructuras lineales completamente genricas a travs de e e una condicin matricial de ortogonalidad (Teorema 2.4.6) y hemos obtenido, usando el diao grama de Newton, expresiones simplicadas para los nmeros de condicin estructurados u o correspondientes (Teoremas 2.4.16 y 2.4.17). Sin embargo, estas expresiones no son an expl u citas, sino que vienen dadas como la solucin de un problema no trivial de optimizacin. Queda como problema abierto el o o obtener expresiones expl citas para los nmeros de condicin como se hizo en la seccin 2.2.1 u o o o, si eso no fuera posible, llegar a estimaciones como la obtenida en el Lema 2.4.18.

Cap tulo 3 Algoritmos espectrales de alta precisin relativa para matrices o simtricas estructuradas e
3.1. Preliminares

Ya vimos en el Cap tulo 1 que, si denotamos por i y vi , respectivamente, a los autovalores y autovectores exactos de una matriz simtrica A Rnn , y denotamos por i y e vi a los autovalores y autovectores calculados por un algoritmo convencional (como QR, o divide-y-vencers), entonces i y vi son los autovalores y autovectores exactos de una a matriz A = A + E tal que ||E||2 = O(), ||A||2 (3.1)

donde representa el psilon-mquina, una cantidad que mide la precisin con la que trae a o baja la aritmtica nita de nuestro ordenador. Entonces, el Teorema de Weyl [87, Corollary e 4.10, p. 203] asegura que |i i | ||E||2 i = 1, 2, . . . , n.

En cuanto a los autovectores, el Teorema de Davis y Kahan [19] nos dice que ||E||2 1 sen(2) 2 m j=i |i i | n i = 1, 2, . . . , n

donde representa el ngulo entre el autovector exacto vi y el calculado vi . Combinando a estas frmulas con la estabilidad regresiva dada en (3.1), se obtiene o |i i | mx |j | a O() |i | |i | 75 i = 1, 2, . . . , n

ALGORITMOS DE ALTA PRECISION

76

Por tanto, se puede asegurar alta precisin relativa, tal y como se deni en (1.3), slo o o o para los autovalores ms grandes de la matriz A, pero no se tiene informacin sobre la a o precisin de los autovalores ms pequeos. Un ejemplo de esta situacin es la matriz o a n o 1 1 0 1 2 1 0 1 1 000001

1 mx |j | a sen(2) O() 2 m j=i |i i | n

i = 1, 2, . . . , n .

Si se calculan los autovalores con el comando eig de Matlab, que emplea el algoritmo QR con una precisin de 1016 , se obtiene un error relativo para todos los autovalores o del orden de excepto para el autovalor ms pequeo = 3,333331 107 , para el cual el a n | | 1010 = O(1016 ). valor calculado = 0,00000033333315 cumple que || En diversas situaciones se necesitan algoritmos que sean capaces de calcular autovalores y autovectores con tantas cifras signicativas correctas como sea posible. As dada una , nn matriz A R , lo mejor que se puede esperar es que todos sus autovalores calculados i y sus correspondientes autovectores vi , i = 1, . . . , n, cumplan |i i | = O(), |i | O() , (vi , vi ) = relgap(i )

(3.2)

donde i son los autovalores exactos de A, qi los autovectores exactos, (, ) representa el ngulo entre dos vectores, relgap(i ) es la separacin relativa denida como a o relgap(i ) = min minj=i |j i | , 1 , i = 1, . . . , n, |i | (3.3)

y es una constante de tamao moderado, que por lo general depende de la dimensin de n o la matriz A, pero que es siempre independiente del nmero de condicin de A. u o Los algoritmos que calculan los autovalores y autovectores con esta precisin se llaman, o como ya se dijo en el cap tulo introductorio, algoritmos espectrales de alta precisin relativa. o Una denicin similar puede darse para el problema de valores singulares (SVD). o Existen algoritmos de alta precisin relativa tanto para el problema espectral como para o el problema de valores singulares. Todos estos algoritmos tienen en comn el hecho de que u la alta precisin relativa se alcanza slo para clases espec o o cas de matrices, y cada clase de matrices requiere un algoritmo distinto, adaptado a ese tipo de matrices. La propiedad comn a todas estas clases de matrices es que es posible calcular con alta precisin un u o cierto tipo de factorizacin, que deniremos en breve (vase la Denicin 3.1.1). o e o

ALGORITMOS DE ALTA PRECISION

77

De entre todos estos mtodos nos centraremos, como ya se anunci en el Cap e o tulo 1, en una familia de algoritmos espectrales [22, 30, 84] que constan de dos etapas: Primera etapa: clculo de una factorizacin inicial de la matriz. a o Segunda etapa: aplicacin de un algoritmo de tipo Jacobi a los factores de la descomo posicin obtenida en la primera etapa. o Para obtener las cotas de alta precisin relativa (3.2), ambas etapas deben llevarse a cabo o con una precisin adecuada. La precisin de la segunda etapa suele garantizarse mediante o o un anlisis de errores que supone asegurada la alta precisin en la primera etapa. Por tanto, a o se puede armar que la precisin de esta familia de algoritmos depende esencialmente de la o precisin obtenida en la factorizacin de la primera etapa. En otras palabras, las clases de o o matrices para las que estos algoritmos calculan autovalores y autovectores con alta precisin o relativa son aquellas clases que permiten calcular con alta precisin relativa la factorizacin o o inicial. En el problema de valores singulares se pueden encontrar muchas clases de matrices (vase [22]) tales que eliminacin gaussiana con pivote completo, adaptada convenientee o mente a cada una de las clases, conduce a una factorizacin no simtrica de la forma o e A = XY T , calculada con alta precisin relativa. Dos de estas familias son las matrio ces DSTU (totalmente unimodulares diagonalmente escaladas) y las matrices TSC (total signed compound), vense secciones 3.3.1 y 3.3.2 para sus respectivas deniciones. Nuestra a principal aportacin en este cap o tulo es el desarrollo de algoritmos de clculo de una faca T torizacin de la forma A = XX de las matrices simtricas A en las estructuras DSTU o e y TSC. Estos algoritmos calculan la factorizacin con la precisin requerida para que sus o o autovalores y autovectores se calculen despus con la alta precisin relativa (3.2). As para e o , cualquier matriz simtrica perteneciente a una de las clases DSTU o TSC, sus autovalores e y autovectores podrn calcularse con alta precisin relativa. a o Dos algoritmos de alta precisin relativa que calculan autovalores y autovectores de o matrices simtricas posiblemente indenidas son los siguientes: e 1. Algoritmo J-ortogonal [85, 84], el cual consta de dos etapas: a) La matriz simtrica A Rnn se descompone de la forma e A = GJGT , J = Inpos Irnpos (3.4)

b) Aplicacin sucesiva de transformaciones de la forma o Gm+1 = Gm Jm ,

siendo npos el nmero de autovalores positivos, r el rango de la matriz A y u G Rnr una matriz de rango completo. (3.5)

ALGORITMOS DE ALTA PRECISION

78

donde G0 = G y Jm es una matriz ortogonal que contiene rotaciones hiperblicas o de la forma cosh() senh() . senh() cosh() Esta etapa calcula de modo impl cito los autovalores y autovectores de G a partir de los autovalores y autovectores del haz (GT G, J). 2. Algoritmo SVD con signos [30], compuesto por las etapas: a) Dada la matriz simtrica A Rnn se calcula una descomposicin de la forma e o A = XDY T , donde X, Y son matrices bien condicionadas y D es una matriz diagonal. b) Clculo de una descomposicin en valores singulares de XDY T . a o c) Clculo de los autovalores y autovectores de A a partir de sus valores y vectores a singulares. Ninguno de estos algoritmos, estrictamente hablando, produce errores de la forma (3.2). Para el mtodo J-ortogonal, la constante en ( 3.2) es el mximo de los nmeros de e a u condicin de matrices intermedias que se utilizan en el algoritmo, y estos nmeros de o u condicin podr ser, en principio, magnitudes grandes. El segundo algoritmo, el SVD o an con signos, tiene una cota de error para el clculo de autovectores de la forma (3.2), pero a con una cantidad ms pequea, relgap , en el denominador (vase (3.12)). Pese a todo, en a n e la prctica ambos algoritmos son capaces de calcular autovalores y autovectores con alta a precisin relativa. o Como se ha observado antes, salvo una ligera diferencia, ambos algoritmos tienen en comn la primera etapa. Para ser ms precisos en la descripcin de esa primera etapa u a o comenzaremos deniendo lo que es una descomposicin que revela el rango (en ingls, o e rank-revealing decomposition). Denicin 3.1.1 Dada una matriz A Rmn con m n y rango r, una descomo posicin que revela el rango de A es una factorizacin de la forma A = XY T con o o mr nr rr X R , Y R , R , donde es una matriz diagonal y no singular y las matrices X, Y son matrices bien condicionadas. Para abreviar, diremos que cualquier descomposicin de este tipo es una RRD de A. o La descomposicin en valores singulares, por ejemplo, es una RRD. Pero se pueden o usar otros mtodos para la obtencin de una RRD, como eliminacin gaussiana con pivote e o o completo, QR con pivote completo o el mtodo de pivote diagonal. e La descomposicin inicial (3.4) que utiliza el mtodo J-ortogonal no es exactamente o e una descomposicin RRD, pero si se escala la matriz a ambos lados con ||1/2 = o 1/2 diag(|ii |), obtenemos una factorizacin simtrica de la forma A = GJGT con G = o e 1/2 1/2 1/2 X|| y J = || || .

ALGORITMOS DE ALTA PRECISION

79

Como las matrices que se van a estudiar son matrices simtricas, se estudiarn descome a posiciones RRD simtricas, con la idea de preservar la estructura. e El camino que se utilizar para obtener una descomposicin simtrica RRD es la factora o e T izacin LDL por bloques [43, Cap o tulo 11]. Dada una matriz simtrica A Rnn existe e una matriz de permutacin P tal que o P AP T = LDLT , (3.6)

donde la matriz L es una matriz triangular inferior con unos en la diagonal y D es una matriz diagonal con bloques diagonales de tamaos 1 1 y 2 2. Esta factorizacin no es n o una RRD ya que la matriz D no es diagonal, pero si diagonalizamos los bloques de tamao n 2 2 mediante rotaciones de Givens, entonces podemos conseguir una descomposicin o RRD simtrica como se muestra en [85, 86] y explicamos a continuacin. e o nn Sea Q R una matriz ortogonal, diagonal por bloques particionada de manera conforme con la matriz D: cada bloque diagonal de tamao 2 2 de Q es una rotacin de n o Givens 2 2 que diagonaliza el correspondiente bloque de la matriz D. Por lo tanto, A = XX T , con X = P T LQ, y = QT DQ. (3.8) Puesto que la matriz Q es una matriz ortogonal, el nmero de condicin de la matriz u o X para cualquier norma unitariamente invariante coincide con el nmero de condicin del u o factor L. Por tanto, para demostrar que la matriz X est bien condicionada basta estudiar a el condicionamiento de la matriz L. Se puede demostrar fcilmente que la descomposicin simtrica RRD determina la dea o e scomposicin espectral con alta precisin relativa [29]. Ms en concreto, se puede demostrar o o a que si A = XDX T y A = X DX T son, respectivamente, descomposiciones RRD simtricas e de dos matrices simtricas A y A, y el error relativo en norma e X X / X en el factor X, y el error relativo componente a componente |Dii Dii |/|Dii | en el factor D estn acotados por una cantidad menor que 1, entonces, denotando por a = (2 + )(X), el error relativo de los autovalores est acotado por O() y el seno de los ngulos cannicos a a o entre los autovectores de las matrices A y A est acotado por O() dividido por la separaa cin relativa (para ms detalles vase [29, 2]). Esto equivale a decir que cambios pequeos o a e n en los factores de la descomposicin RRD producen cambios pequeos en los autovalores o n y autovectores. (3.7)

ALGORITMOS DE ALTA PRECISION

80

A la vista de ello, se concluye que para asegurar alta precisin relativa para ambos o algoritmos, el J-ortogonal o el SVD con signos, basta probar que la factorizacin inicial se o calcula con una precisin suciente. A ello dedicamos el presente cap o tulo. Para determinar la precisin con la que se ha obtenido una descomposicin RRD, o o procederemos del siguiente modo: Etapa 1 Veremos en primer lugar cmo se puede calcular una factorizacin LDLT por bloo o ques de matrices simtricas DSTU y TSC con error relativo pequeo componente a e n componente, esto es, si L y D son los factores calculados en aritmtica nita, y L, D e son los factores exactos, se demostrar que a |lij lij | = O()|lij |, |dij dij | = O()|dij | (3.9)

para cada i, j {1, . . . , n}. Para ello es suciente probar que no se producen restas en todo el proceso de la factorizacin, ya que los productos, cocientes, ra cuadradas o ces y sumas de cantidades del mismo signo en coma otante no producen errores progresivos grandes y la unica posibilidad de producir un error progresivo grande es la cancelacin, producida por la resta de nmeros cercanos. o u Etapa 2 Analizaremos si la descomposicin RRD, obtenida a partir de la factorizacin por o o T boques LDL v rotaciones de Givens, como en (3.8), cumple los requisitos que asea guran la precisin (3.2). De acuerdo con el anlisis de errores en [30], estos requisitos o a son que el factor en (3.7) se calcule con errores relativos pequeos componente a n componente y que el factor X se calcule con error relativo pequeo en norma para n cualquier norma unitariamente invariante, esto es,
X X = O() X ,

|ii ii | = O()|ii |,

i = 1, . . . , n,

(3.10)

e siendo X, los factores calculados en aritmtica en coma otante y X, los factores exactos.

Todo esto conducir a probar que los autovalores y respectivos autovectores de matrices a simtricas con estructura DSTU o TSC se calculan con alta precisin relativa mediante e o el algoritmo SVD con signos. Para ser ms precisos, el error relativo en los autovalores a calculados ser de la forma (3.2), donde viene dado por a = (R )(X), (3.11)

donde () denota el nmero de condicin en norma dos, X es el factor no diagonal en (3.7), u o y R es el mejor escalamiento por las del factor triangular R de una descomposicin QR o con pivote por columnas de la matriz X. En [22, Teorema 3.2] se demuestra que (R ) es a lo sumo de orden O(n3/2 (X)), luego el orden de la constante depende slo del nmero o u de condicin del factor X de la RRD simtrica . De ah la importancia de demostrar que o e

ALGORITMOS DE ALTA PRECISION

81

el nmero de condicin de X no es grande. Veremos en el Teorema 3.3.5 que para matrices u o simtricas DSTU el nmero de condicin (X) es del orden de n2 . e u o En cuanto a los autovectores, se calculan con un error de la forma (3.2), pero reemplazando la separacin relativa (3.3) usual por o relgap (|i |) = m n

|j | |i | m n , ,1 i
j=i

jS

(3.12)

donde el conjunto de ndices S es igual a {1, . . . , n}, salvo que el autovalor, digamos j0 , con el valor absoluto ms cercano a |i | tenga signo opuesto al de i . En tal caso, S se obtiene a del conjunto {1, . . . , n} eliminando el ndice j0 y el ndice k de cualquier otro autovalor que se encuentre a una distancia de orden O() del autovalor j0 . Finalmente, debemos hacer notar que nuestro anlisis de errores es vlido slo para a a o matrices simtricas no singulares: si A es singular, el nmero de autovalores nulos se obtiene e u de cualquier RRD que cumpla (3.10), y puede modicarse el algoritmo SVD con signos para calcular una base del ncleo, usando la factorizacin QR con pivote completo. Sin u o embargo, este procedimiento queda fuera de nuestro anlisis de errores. a

3.2.

Factorizacin LDLT por bloques de matrices simtrio e cas

La descomposicin por bloques LDLT (3.6) es una versin simtrica de la factorizacin o o e o LU. Cualquier matriz simtrica admite una factorizacin de esta forma [43, Cap e o tulo 11], y el procedimiento ms comn para calcularla es el mtodo de pivote diagonal: este comienza a u e por elegir una matriz de permutacin P , un entero s = 1 s = 2, y un pivote no singular o o E de tamao s s tal que n E CT P AP T = , C B de modo que P AP T = Is 0 CE 1 Ins E 0 0 B CE 1 C T Is E 1 C T 0 Ins . (3.13)

La factorizacin por bloques LDLT de A se obtiene repitiendo el proceso sobre los o sucesivos complementos de Schur B CE 1 C T . El coste en operaciones aritmticas del e proceso es n3 /3 ms el coste de elegir las permutaciones. a Para la eleccin del pivote en eliminacin gaussiana existen estrategias de pivote paro o cial, pivote completo o pivote mixto. Para la factorizacin simtrica LDLT tambin existen o e e estrategias simtricas para la eleccin del pivote E. Como nuestro objetivo es una descome o posicin RRD, usaremos la estrategia de pivote de BunchParlett [14], que es un anlogo o a simtrico de la estrategia de pivote completo. Esta estrategia produce, en la prctica, face a tores L bien condicionados (vase [13] para un anlisis detallado del factor de crecimiento e a del factor L). Esta estrategia se resume como sigue.

ALGORITMOS DE ALTA PRECISION

82

= (1 + 17)/8 0,64 0 = maxi,j |aij | =: |apq | 1 = maxi |aii | =: |arr | If 1 0 then elegir E = [arr ] como pivote 1 1 else app apq elegir E = como pivote 2 2. apq aqq

(3.14)

Esto signica que elegimos pivote 2 2 cuando el elemento de mayor valor absoluto de la matriz es bastante ms grande que el elemento de mayor valor absoluto de la diagonal. a Cualquier pivote 2 2 elegido con esta estrategia es una matriz simtrica indenida y bien e condicionada, ya que su nmero de condicin en norma dos est acotada por u o a Se elige el valor (1+ 17)/8 de la constante para que el factor de crecimiento de dos pasos consecutivos con pivotes 1 1 sea igual al de un solo paso con pivote 2 2 (vase [43, e Cap tulo 11]). Es bien conocido que cualquier valor intermedio o nal del proceso de eliminacin o gaussiana con cualquier estrategia de pivote es o un menor, o un cociente de menores de la matriz original [22, Lemma 5.1]. Descomponiendo una matriz cuadrada A de la forma A11 A12 , y denotando el complemento de Schur del bloque A11 en A como A21 A22 tenemos el siguiente resultado. Ck = A22 A21 A1 A12 , 11 (3.15) (1 + )/(1 ) 4,6.

Lema 3.2.1 Sea A = P LDU Q una factorizacin de A, calculada mediante eliminacin o o gaussiana con cualquier estrategia de pivotaje, donde P y Q son matrices de permutacin, L o es una matriz triangular inferior, U es triangular superior, ambas con unos en la diagonal, y D es una matriz diagonal. Reescribiendo A = P L U Q con L = L y U = DU y denotando por Ck cualquier complemento de Schur de A como en (3.15), entonces 1. Cualquier menor de Ck es un cociente de menores, o simplemente un menor, de A. 2. Cualquier menor de A1 es, salvo signos, un cociente de menores de A. 3. Cualquier entrada de L, D, U o U es o bien cero, o bien un menor de A, o bien un cociente de menores de A. 4. Cualquier menor de L, D, U o U formado por las consecutivas es o bien cero, o bien un menor de A, o bien un cociente de menores de A.

ALGORITMOS DE ALTA PRECISION 5. Cualquier entrada de L1 , D1 , U 1 o U bien un cociente de menores de A.


1

83 es o bien cero, o bien un menor de A, o

Veamos ahora cules de las propiedades dadas en el lema se cumplen tambin para la a e T descomposicin LDL por bloques; veremos que las propiedades 1, 2 y 3 del Lema 3.2.1 o se preservan, dando de hecho sus frmulas expl o citas. Sin embargo las propiedades 4 y 5, no se cumplen, como se demostrar con un contraejemplo. a Antes de escribir estos resultados, necesitamos un resultado auxiliar, consecuencia de la identidad de Sylvester (vase, por ejemplo, [18, 2]). e Lema 3.2.2 Sea M cualquier matriz cuadrada, particionada de la forma M= B , con B= B1

B M donde B y B1 son submatrices cuadradas y no singulares. Sea C1 (resp. C1 ) el complemento de Schur de B1 en B (resp. en M ). Entonces, el complemento de Schur de B en M es B M igual al complemento de Schur de C1 en C1 .

Para no complicar la notacin, la Frmula 3.15 y el Lema 3.2.3 vienen dados en o o trminos del complemento de Schur del bloque principal superior izquierdo. Por supuesto, e todos los resultados son ciertos para cualquier submatriz cuadrada y no singular de la matriz A. Para enunciar los siguientes resultados se utilizar la notacin de Matlab: a o A([r1 , . . . , rp ], [c1 , . . . , cp ]) denota la submatriz de tamao p p de A que contiene los elen mentos de las las r1 , . . . , rp y las columnas c1 , . . . , cp . Adems, 1 : k denota la lista de a enteros desde 1 hasta k. Lema 3.2.3 Sea A Rnn , sea k < n y sea Ak = A(1 : k, 1 : k) la submatriz superior izquierda de A. Entonces, (a) el elemento (i, j) del complemento de Schur Ck de tamao (n k) (n k) de Ak n en A viene dado por Ck (i, j) = para cada i, j {1, . . . , n k}. (b) para cualquier s n k, el menor de Ck que contiene las las i1 < . . . < is y las columnas j1 < . . . < js viene dado por det Ck ([i1 , . . . , is ], [j1 , . . . , js ]) = = det A([1 : k, k + i1 , . . . , k + is ], [1 : k, k + j1 , . . . , k + js ]) det A[1 : k], [1 : k] (3.17) det A([1 : k, k + i], [1 : k, k + j]) det A([1 : k], [1 : k]) (3.16)

En particular, cada menor del complemento de Schur Ck es cociente de menores de la matriz original A.

ALGORITMOS DE ALTA PRECISION Demostracin: o Probaremos (a) por induccin sobre k. Si k = 1, los elementos de C1 son o C1 (i, j) = ai+1,j+1 = ai+1,1 a1,j+1 ai+1,j+1 a11 ai+1,1 a1,j+1 = = a11 a11 det A([1, i + 1], [1, j + 1]) , det A([1], [1])

84

es decir, la ecuacin (3.16) con k = 1. Supongamos que (3.16) es cierto para algn k o u {1, 2 . . . n}. Demostraremos que tambin es cierto para k + 1. Segn el Lema 3.2.2, el e u complemento de Schur Ck+1 de Ak+1 en A es el resultado de realizar dos complementos de Schur sucesivos: primero, el complemento de Schur Ck de Ak en A, y despus el complemento e de Schur del elemento (1, 1) en Ck . Por la hiptesis de induccin, sabemos que o o Ck (i, j) = Sustituyendo en la frmula o Ck+1 (i, j) = Ck (i + 1, j + 1) para los elementos de Ck+1 nos lleva a Ck+1 (i, j) =

det A([1 : k, k + i], [1 : k, k + j]) . det A([1 : k], [1 : k])

Ck (i + 1, 1)Ck (1, j + 1) Ck (1, 1)


det A([1 : k, k + i + 1], [1 : k, k + j + 1]) det A([1 : k, k + 1], [1 : k, k + j + 1]) det A([1 : k, k + i + 1], [1 : k, k + 1]) det A([1 : k, k + 1], [1 : k, k + 1])

det A([1 : k], [1 : k]) det A([1 : k, k + 1], [1 : k, k + 1])

Basta aplicar la identidad de Sylvester [48, p. 22] al numerador para obtener (3.16) con k + 1 en lugar de k. Una vez probado (a), todos los elementos de Ck ([i1 , . . . , is ], [j1 , . . . , js ]) pueden escribirse como cocientes de menores de la matriz A, con el mismo denominador dk = det A([1 : k], [1 : k]). As la submatriz puede escribirse como (1/dk ) M , donde para cada l, m {1, . . . , s}, el , elemento (l, m) de M es det A([1 : k, k + il ], [1 : k, k + jm ]).Aplicando de nuevo la identidad de Sylvester a M se demuestra la parte (b). Como consecuencia del Lema 3.2.3, se demuestra el siguiente teorema: Teorema 3.2.4 Sea A una matriz real simtrica y sea P AP T = LDLT una factorizacin e o LDLT por bloques de la matriz A como en (3.6), obtenida usando cualquier estrategia de pivotaje. Entonces cualquier entrada del factor L o el factor D es o bien cero, o bien un cociente de menores ede A o simplemente un menor de A.

ALGORITMOS DE ALTA PRECISION

85

Demostracin: o La demostracin es similar a la del Lema 5.1 en [22, p. 52]. Las entradas de D son o o elementos de la matriz A o elementos de un complemento de Schur de la matriz A. Por el Lema 3.2.3, cada elemento de D es un elemento de A o un cociente de menores de A. Por otra parte, cada elemento lij de L generado por un pivote 1 1 es un cociente de dos elementos del correspondiente complemento de Schur de A y, como ambos elementos han sido creados en la misma etapa de la factorizacin, por el apartado (a) del Lema 3.2.3 son o cocientes de la forma (3.16) con el mismo denominador. Por lo tanto, ambos denominadores se cancelan y se obtiene que el elemento lij es un cociente de menores de A. El argumento es similar para las entradas de L generadas por un pivote de tamao 2 2, usando el n apartado (b) del Lema 3.2.3. Por otra parte, la factorizacin LDLT no cumple las propiedades 4 y 5 del Lema 3.2.1, o es decir, todo menor formado por las consecutivas de la matriz L no es necesariamente un cociente de menores de la matriz original A. Si consideramos, por ejemplo, la matriz A= con L= 13 39 65 39 128 274 65 274 903

= LDLT

1 3 1 5 7 1

13 , D= 11 2 2 11

Puede comprobarse por enumeracin que o 3 1 = 16 det L([2, 3], [1, 2]) = 5 7 no es cociente de menores de A. Ntese que este menor solapa en parte con un pivote 1 o 1 y en parte con otro de tamao 2 2. n

Concluimos derivando frmulas expl o citas para los elementos de L y D como cociente de menores de A. Estas frmulas, que necesitaremos ms adelante para recalcular las eno a tradas de L, son nuevas en la literatura y extienden las frmulas clsicas para eliminacin o a o gaussiana (vase, por ejemplo,[50, 1.4]). Por simplicidad, las frmulas estn escritas sin e o a tener en cuenta las matrices de permutacin necesarias para el pivotaje, pero el resultado o es vlido trivialmente para la factorizacin (3.6) sin ms que renombrar las y columnas. a o a Lema 3.2.5 Sea A Rnn una matriz simtrica factorizada como A = LDLT con L e nn R triangular inferior con unos sobre la diagonal y D Rnn diagonal por bloques de tamaos 11 y 22. Sea D = diag(D1 , . . . , Dr ) con Dk Rsk sk , sk = 1 2, k = 1, . . . , r, y n o una particin conforme de L, L = [L1 | | Lr ], con Lk Rnsk . Para cada k {1, . . . , r}, o

ALGORITMOS DE ALTA PRECISION

86

sea nk = s1 + . . . + sk . Entonces, para cada k {1, . . . , r}, los elementos (i, j) de L con j {nk sk + 1, . . . , nk } vienen dados por L(i, j) = det A([1 : j 1, i, j + 1 : nk ], [1 : nk ]) , det A([1 : nk ], [1 : nk ]) i = nk + 1, . . . , n, (3.18)

y, si n0 = 0, los elementos (i, j) de D con i, j {nk sk + 1, . . . , nk } vienen dados por D(i, j) = det A([1 : nk1 , i], [1 : nk1 , j]) . det A([1 : nk1 ], [1 : nk1 ]) (3.19)

Demostracin: o Se distinguen los casos sk = 1 y sk = 2. Si sk = 1 entonces nk = nk1 + 1 y L(i, nk ) = Ck1 (i, 1) , Ck1 (1, 1) i {nk + 1, . . . , n},

que, segn el apartado (a) del Lema 3.2.3, y una vez simplicado, es igual a u L(i, nk ) = det A([1 : nk1 , nk1 + i], [1 : nk1 , nk1 + 1]) = det A([1 : nk1 , nk1 + 1], [1 : nk1 , nk1 + 1]) = det A([1 : nk1 , i], [1 : nk ]) det A([1 : nk ], [1 : nk ])

Si sk = 2 entonces nk = nk1 + 2 y, para cada i {nk + 1, . . . , n}, tenemos L(i, nk 1) = y L(i, nk ) = Ck1 (i, 1) Ck1 (i, 2) Ck1 (1, 2) Ck1 (2, 2)

Ck1 (1, 1) Ck1 (1, 2) Ck1 (2, 1) Ck1 (2, 2)


Ck1 (1, 1) Ck1 (2, 1) Ck1 (i, 1) Ck1 (i, 2)

Ck1 (1, 1) Ck1 (1, 2) Ck1 (2, 1) Ck1 (2, 2)

En ambos casos, la identidad de Sylvester, combinada con el Lema 3.2.3, conduce a la frmula del enunciado. Finalmente, las frmulas para los elementos de D se obtienen trio o vialmente usando el hecho de que los elementos de D son o bien elementos de la matriz original o bien elementos de alguno de sus complementos de Schur.

ALGORITMOS DE ALTA PRECISION

87

3.3.

Factorizacin con alta precisin para matrices sio o mtricas DSTU y TSC e

En esta seccin se demostrar que, para ambas clases de matrices DSTU y TSC, la o a descomposicin LDLT por bloques (3.6) puede calcularse con un error relativo pequeo o n componente a componente, como se indic en ( 3.9). Para demostrarlo, se modicar el o a mtodo de pivote diagonal, a n de evitar posibles sustracciones en el proceso factorizacin e o (el efecto de cancelacin es el unico que puede producir una inestabilidad en el anlisis de o a errores regresivos).

3.3.1.

Matrices DSTU

Denicin 3.3.1 Se dice que una matriz Z con entradas enteras es totalmente unimoduo lar (TU) si todos sus menores son iguales a 1, 0 1. En particular, las entradas de Z slo o o pueden tomar los valores 1, 0 1. Una matriz A es diagonalmente escalada totalmente o unimodular (DSTU) si A = DL ZDR , con Z totalmente unimodular y DL , DR matrices diagonales. Un ejemplo de matriz diagonalmente escalada totalmente unimodular es el siguiente: 22 2 0 0 0 3 2 0 3 0 12 A= 0 4 0 12 0 = DL ZDR = 0 0 7 0 0  1 0 2 0 0 2

2 3 4

=


7
1 2

1 1 0 0 0 1 0 1 0 1 0 1 0 1 0 0 0 1 0 0 0 1 0 0 1

2 1 1

. 3 4

La clase de matrices TU contiene algunas clases de matrices como las matrices ac clicas, matrices de elementos nitos asociadas a sistemas lineales de masa-resorte, o las matrices de incidencia nodo-arco (vease [22, Seccin 10]). Estamos interesados solamente en las o matrices simtricas DSTU, esto es, matrices simtricas A que pueden escribirse como e e A = DZD, (3.20)

donde Z es una matriz simtrica TU, y D = diag(d1 , . . . , dn ) es una matriz diagonal. La e matriz Z se supone conocida exactamente, pero los elementos de la matriz D son slo o conocidos con alta precisin relativa, es decir, con error relativo del orden del psilono e mquina. a

ALGORITMOS DE ALTA PRECISION

88

Una primera propiedad relevante de las matrices DSTU es que cualquier complemento de Schur de una matriz DSTU es tambin trivialmente DSTU. Esta es una de las propiedades e fundamentales que utilizaremos en cada una de las etapas de la factorizacin. La segunda o propiedad que veremos de las matrices DSTU, y que es la clave para evitar cancelaciones, es la siguiente. Lema 3.3.2 Cualquier menor de una matriz simtrica DSTU es un monomio con coee cientes 0, 1 1 con los elementos diagonales di de la matriz D como variables. o Como consecuencia de este lema, cualquier menor de una matriz DSTU puede calcularse con alta precisin relativa, y lo mismo sucede con los elementos de cualquier complemento o de Schur, puesto que, segn el Teorema 3.2.4, cada uno de estos elementos es un cociente u de menores de la matriz original. Otra propiedad interesante de las matrices simtricas DSTU es que los pivotes de e tamao 22 seleccionados por la estrategia de BunchParlett tienen la siguiente estructura n especial. Lema 3.3.3 Cualquier pivote de tamao 2 2 elegido por la estrategia de pivotaje de n BunchParlett de una matriz simtrica DSTU tiene, al menos, una entrada nula en la e diagonal. Demostracin: o Un pivote de tamao 2 2 se elige siempre que n 1 = maxi |aii | := |arr | < |apq | =: maxi,j |aij | = 0 Si suponemos que los elementos diagnales app y aqq son ambos no nulos, entonces |app | 1 < |apq | y |aqq | 1 < |apq |, (3.21)

de modo que apq = dp dq zpq es no nulo y consecuentemente, tambin lo son dp y dq . Esto, e junto con (3.21), implica que |dp | < 2 |dp |, (3.22) en contradiccin con el hecho de que < 1. Por tanto, o bien app = 0 aqq = 0. o o Ntese que la desigualdad (3.22) est tambin en contradiccin con = 1. Por tanto, o a e o el Lema 3.3.3 se cumple incluso si = 1, un hecho que se utilizar en 3.3.1 al modicar a la estrategia de pivote. Como la estrategia de Bunch-Parlett puede elegir pivotes de tamao 1 1 o tamao 2 n n 2, el estudio de la factorizacin se basar en la distincin de estos dos casos. o a o Los elementos de L calculados en una cierta etapa de la factorizacin son un cociente o lir = (CE 1 )ir = air arr Caso 1: El pivote elegido E = [arr ] es 1 1

ALGORITMOS DE ALTA PRECISION

89

de elementos del complemento de Schur de la anterior etapa. As lir se calcula con , un error relativo pequeo, suponiendo que los elementos del complemento de Schur n air y arr se hayan calculado tambin con un error relativo pequeo. Al calcular los e n elementos del factor D, por otro lado, podr darse sustracciones, puesto que vienen an dados por las frmulas o (B CE 1 C T )ij = aij lir arj . (3.23)

A la vista del Teorema 3.2.4 y el Lema 3.3.2, cada uno de los operandos de la sustraccin es o bien cero o bien, salvo signo, un producto de potencias de los elementos o de la matriz diagonal D. De hecho, un simple clculo demuestra que cada operando a es un monomio con coecientes 1 0 en las variables di y dj . Por lo tanto podemos o reescribir (3.23) como m1 = m2 + m3 donde cada operando mi , para i = 1, 2, 3, es un monomio con coecientes 1 0 en o las dos variables di y dj . Podemos distinguir cuatro posibilidades para esta operacin o aritmtica, dependiendo del signo de m2 y m3 . Si alguno de los sumandos es cero e no hay tal operacin. Si los dos operandos son no nulos entonces m1 por fuerza es o nulo puesto que la unica forma de obtener un monomio en las mismas variables con coecientes 1, 1 0 en el operando m1 es que los coecientes de los monomios o m2 y m3 sean 1 y se cancelen entre ellos. En otras palabras, cuando la operacin o arimtica (3.23) tiene dos operandos no nulos podemos asignar cero al resultado sin e realizar la operacin aritmtica. As evitaremos la cancelacin que se hubiera podido o e o producir. Caso 2: El pivote elegido E es 2 2 con elemento no diagonal apq , p < q. Por el Lema 3.3.3, las entradas en las dos columnas de L son lip = (CE 1 )ip = liq = (CE 1 )iq = aip aqq aiq apq + 2 ; a2 apq pq aip apq aiq app 2 . a2 apq pq

(3.24) (3.25)

De nuevo, ambas expresiones pueden escribirse de la forma m1 = m2 + m3 , donde cada operando mi es un monomio con coecientes 0, 1 1 en tres variables: di y los o rec procos de dp y dq . El mismo argumento que en el caso 1 puede emplearse, esto es, podemos evitar cualquier sustraccin asignando m1 = 0 cuando los operandos m2 y o m3 son no nulos. Algo similar ocurre con los elementos del factor D: los elementos del complemento de Schur de una matriz arbitraria son de la forma (B CE 1 C T )ij =

ALGORITMOS DE ALTA PRECISION aip aqq apj aiq apq apj aip apq aqj + aiq app aqj , app aqq a2 pq

90 (3.26)

= aij

pero en nuestro caso, segn el Lema 3.3.3, se tiene app aqq = 0. Reemplazando este u resultado en (3.26) obtenemos que las entradas del complemento de Schur son una suma m1 = m2 + m3 + m4 + m5 (3.27) de cuatro operandos, cada uno de los cuales es un monomio en las variables di , dj con coecientes 1 0. Por tanto m1 es tambin un monomio en las mismas variables y o e con coeciente 1 0 por ser un elemento de un complemento de Schur de una matriz o DSTU. Si todos los operandos son cero, o slo uno de ellos es no nulo, entonces no se o realiza ninguna operacin. Si tenemos exactamente dos o cuatro operandos no nulos o en (3.27), el mismo razonamiento empleado en el caso 1 nos dice que el valor de m1 debe ser cero, ya que la unica posibilidad de que dos o cuatro operandos 1 sumen una cantidad perteneciente a {1, 1, 0} es que sumen cero. Finalmente, en el caso de que tengamos exactamente tres operandos no nulos ocurrir que necesariamente dos a de ellos debern cancelarse y el resultado de m1 ser igual al tercer operando. Por a a tanto, si los tres operandos no nulos son mr , ms , mt , podemos asignar m1 = |mt |sign(mr ms mt ) donde mt es cualquiera de los tres operandos, ya que los tres tienen el mismo valor absoluto |di dj |. El anlisis anterior sugiere el siguiente algoritmo de coste O(n3 ). a Algoritmo 1: Input: Output: P AP = LDL
T

LDLT A L
T

nn 1 1 2 2 P

1. for i = 1 to n 2. elegir pivote de acuerdo con la estrategia de pivote de BunchParlett 3. if pivote 1 1 aii 4. Dii = aii 5. for j = i + 1 to n 6. lji = aji /aii 7. endfor 8. for j = i + 1 to n 9. for k = i + 1 to n aji aik 10. ajk = ajk Dii

ALGORITMOS DE ALTA PRECISION 11.

91

(*)Si la resta tiene dos operandos no nulos, asignamos el valor ajk = 0 12. endfor 13. endfor aii ai,i+1 14. else pivote 2 2 , ai+1,i ai+1,i+1 15. Dii = aii , Di,i+1 = Di+1,i = ai,i+1 , Di+1,i+1 = ai+1,i+1 16. for j = i + 1 to n aj,i+1 ai,i+1 aji ai+1,i+1 17. lji = a2 a2 i,i+1 i,i+1 18. (*)Si la resta tiene dos operandos no nulos, asignamos el valor lji = 0 19. endfor 20. for j = i + 2 to n aj,i ai,i+1 aj,i+1 aii 21. lj,i+1 = 2 a2 ai,i+1 i,i+1 22. (*)Si la resta tiene dos operandos no nulos, asignamos el valor lj,i+1 = 0 23. endfor 24. for j = i + 1 to n 25. for k = i + 1 to n ajp apq aqk ajq apq apk , m4 = 26. m2 = ajk , m3 = 2 apq a2 pq 27. if app = 0 ajp aqq apk 28. m5 = a2 pq ajq app aqk 29. else m5 = a2 pq 30. endif 31. ajk = m2 + m3 + m4 + m5 32. (*) Si la suma tiene dos o cuatro operandos no nulos, asignamos el valor ajk = 0 33. (*) Si la suma tiene tres operandos no nulos mr , ms , mt , 34. asignamos el valor ajk = |mr |sign(mr ms mt ) 35. endfor 36. endfor 37. endif 38.endfor Adems, el anlisis llevado a cabo anteriormente sirve como demostracin del siguiente a a o resultado.

ALGORITMOS DE ALTA PRECISION

92

Teorema 3.3.4 El Algoritmo 1 calcula todas las entradas de los factores L y D de la factorizacin LDLT por bloques de una matriz simtrica DSTU con alta precisin relativa, o e o es decir, |lij lij | = O()|lij |, |dij dij | = O()|dij |, i, j {1, . . . , n}
donde L y D son los factores calculados en aritmtica en coma otante por el Algoritmo 1, e y L, D son los factores exactos que el mtodo de pivote diagonal calcular en aritmtica e a e exacta eligiendo los pivotes con las mismas dimensiones y posiciones que los elegidos en aritmtica en coma otante para calcular L y D. e

Cualquier intento de estimar tericamente las constantes dentro de la O() en el Teoo rema 3.3.4 producir cotas pesimistas. Sea pk el nmero de operaciones en coma otante a u necesarias para calcular los elementos de D en la etapa k-sima de la factorizacin por e o T bloques LDL . Esta cantidad viene dada por la frmula recursiva pk+1 = 2pk + 1, por lo o que pk = 2k+1 1. Por ello, la constante en la O() obtenida por un anlisis elemental de a errores es exponencial. Sin embargo, esto no se ha observado nunca en la prctica. a Una nueva estrategia de pivotaje Un caracter stica adicional de eliminacin gaussiana con pivote completo sobre matrices o no simtricas DSTU de n n es que el nmero de condicin de los factores L y U crece e u o cuadrticamente con la dimensin n [22, Teorema 10.2]. Esto es importante, pues garantiza a o que los factores estn bien condicionados y, por ello, la factorizacin obtenida es una RRD. a o Con el n de probar lo mismo para el factor triangular L en la descomposicin LDLT o por bloques, debemos hacer un ligero cambio en la estrategia de pivotaje. Se considera la siguiente estrategia,

if 0 = maxi,j |aij | = maxi |aii | = 1 elegir pivote 1 1 else elegir pivote 2 2

(3.28)

Con esta estrategia de pivotaje, la entradas de L estn trivialmente acotadas por 1 en a valor absoluto, mientras que lo mejor que se puede decir utilizando la estrategia de Bunch Parlett es que |lij | 1/ 1 6 (para los elementos generados por pivotes de tamao 1 n 1). Adems, el nmero de condicin en norma 2 de los pivotes est acotado por 4 6 para a u o a BunchParlett, y por 2 6 para esta nueva estrategia. Ntese que el cambio en el valor de o no afecta a la validez de los resultados en 3.3.1, ya que el Lema 3.3.3 es cierto para 1. Veamos que con esta estrategia modicada de pivote, el nmero de condicin del factor u o L de una descomposicin por bloques LDLT (3.6) crece cuadrticamente con la dimensin o a o de la matriz factorizada.

ALGORITMOS DE ALTA PRECISION

93

Teorema 3.3.5 Sea A una matriz simtrica DSTU. Existe una matriz B, tambin DSTU, e e cuyo factor triangular inferior calculado por eliminacin gaussiana con pivote completo o coincide con el factor triangular de la descomposicin por bloques LDLT de A obtenida o usando la estrategia de pivotaje (3.28). Por tanto, el nmero de condicin del factor L de u o la factorizacin LDLT por bloques crece cuadrticamente con la dimensin de la matriz A. o a o Demostracin: o Sin prdida de generalidad, podemos restringirnos a comparar los dos primeros pasos e de eliminacin gaussiana con pivote completo con los correspondientes pasos del mtodo de o e pivote diagonal. Si el primer pivote elegido por el mtodo de pivote diagonal es de tamao e n 1 1, se aplican a la matriz A las mismas permutaciones que se har con eliminacin an o gaussiana, y la primera columna de ambos factores triangulares trivialmente coincide. Por otro lado, como el pivote elegido en este caso est en la diagonal, la matriz se permuta a simtricamente, y los complementos calculados por ambos mtodos son iguales. e e Ahora, supongamos que el primer pivote elegido por el mtodo de pivote diagonal es e de tamao 2 2, por ejemplo, n app apq , aqp 0 donde hemos supuesto, a la vista del Lema 3.3.3, que aqq = 0. El caso app = 0 es completamente anlogo. Denotando por Pij a la matriz de permutacin que intercambia la a o la i-sima con la j-sima, el mtodo de pivotaje diagonal permuta la matriz A de la fore e e ma P2q P1p A P1p P2q para colocar el pivote 2 2 en la esquina superior izquierda de la matriz. Eliminacin gaussiana, en cambio, permuta A de la forma P1p AP1q para colocar o el pivote apq en la parte superior izquierda de la matriz. Va a ser conveniente aplicar una permutacin de las adicional, P2q , que coloque la entrada nula aqq en la posicin (2, 1). o o Finalmente, para colocar el elemento aqp = apq en la posicin (2, 2) realizamos los cambios o por columnas P2q y P2p . De esta manera, si renombramos M1 = P2q P1p A P1p P2q , M2 = P2q P1p AP1q P2q P2p ,

resultan dos matrices idnticas excepto por las dos primeras columnas, que estn intercame a biadas. Si denotamos por mij al elemento (i, j) de la matriz simtrica M1 entonces m22 = 0, e y m12 es la entrada de M1 con mayor valor absoluto de la matriz. As el mtodo de pivote e diagonal calcula las entradas de las dos primeras columnas de su respectivo factor L como li1 = mi2 , i = 3, . . . , n, m12 mi1 m12 mi2 m11 li2 = , i = 3, . . . , n m2 12

y las entradas del complemento de Schur de tamao (n 2) (n 2) Schur como n (B CE 1 C T )ij = mij + mi2 m12 m1j mi1 m12 m2j + mi2 m11 m2j , m2 12 (3.29)

ALGORITMOS DE ALTA PRECISION

94

para i, j = 3, . . . , n. Veamos que las dos primeras etapas de eliminacin Gaussiana con o pivote completo sobre M2 producen exactamente las dos mismas columnas de L y el mismo complemento de Schur de tamao (n 2) (n 2). El primer paso de eliminacin n o gaussiana sobre M2 produce una primera columna con un cero en la primera posicin, o y li1 = mi2 /m12 , i = 3, . . . , n como antes. El complemento de Schur (n 1) (n 1) resultante de esta primera etapa tiene la forma

m12 m2j . . . . . . . . . mi2 m1j mi2 m11 . . mij . mi1 m12 m12 . . . . . . . . .

. . . . . . . . .

(3.30)

En la segunda etapa, eliminacin gaussiana busca la entrada con mayor valor absoluto en o esta matriz. Veamos que esta entrada es de nuevo m12 ; en caso contrario, deber haber un a nuevo elemento ms grande que m12 en valor absoluto. Cualquier entrada del complemento a de Schur (3.30) desaparece si es el resultado de una resta con operandos no nulos, luego la unica posibilidad de elementos nuevos son cocientes de la forma (mi2 m1j )/(m12 ). Estos cocientes son tambin monomios con coecientes 1 en dos variables. Estas dos variables e son los elementos diagonales de D correspondientes a los ndices i, j antes de que la matriz A se permutase para obtener M2 . En cualquier caso, como ambos i, j son diferentes de 1 y 2, los di y dj correspondientes, son diferentes de dp y dq . En consecuencia, el valor absoluto de cualquier nuevo elemento aparecido en (3.30) es estrictamente menor que el mximo a |m12 | = |dp dq |. Luego en esta segunda etapa de eliminacin gaussiana de la matriz M2 no hace falta o permutar. La segunda columna del factor L correspondiente tiene entradas mi1 m11 mi2 mi1 m12 m11 mi2 m12 = m12 m2 12

li2 =

que coinciden con las entradas li2 anteriores reeemplazando i por j (recurdese que mij = e mji ). Finalmente, el complemento de Schur de tamao (n 2) (n 2) calculado por n eliminacin gaussiana en este segundo paso tiene las entradas o mi2 m1j m12 m1i m11 mi2 m2j m12 . m12

mij

Un simple clculo demuestra que esta frmula coincide con (3.29). Esto prueba que, como se a o demostr, dos pasos de eliminacin gaussiana sobre M2 producen las dos mismas columnas o o para L que un paso del mtodo de pivote diagonal con un pivote de tamao 2 2 sobre la e n matriz M1 . Adems el complemento de Schur (n 2) (n 2) resultante en ambos casos a es el mismo.

ALGORITMOS DE ALTA PRECISION

95

Repitiendo el argumento para los pasos subsiguientes de la descomposicin por bloques, o obtenemos que el factor L de una matriz A simtrica DSTU, es igual al factor triangular e inferior de una factorizacin LDU de una matriz no simtrica B = AQ, para una matriz o e de permutacin Q apropiada. Ntese que la matriz B es DSTU si A es DSTU, ya que o o B = DL ZDR , con DL = D, DR = QT DQ, Z = ZQ, y esta ultima es TU. Por tanto el nmero de u condicin del factor L crece cuadrticamente con la dimensin n de la matriz original A o a o por el Teorema 10.2 de [22]. La demostracin del Teorema 3.3.5 se basa indirectamente en [22, Teorema 10.2]. Una o demostracin directa anloga a la de [22, Teorema 10.2] no es posible ya que falta el o a ingrediente principal: que los elementos de cualquier menor del factor L sean cocientes de menores de la matriz original A y, por lo tanto, los elementos de la matriz L1 sean cocientes de menores de A. Y esto no es cierto para la factorizacin LDLT por bloques o como se seal con el ejemplo 3 3 dado en 2. n o Clculo de menores de una matriz DSTU con alta precisin relativa a o Se sabe por el Lema 3.3.2 que cualquier menor de una matriz simtrica DSTU es un e monomio con coecientes 0, 1 o 1 en los elementos diagonales di de la matriz D. En el siguiente lema damos una frmula expl o cita de estos coecientes para una matriz DSTU cualquiera. Lema 3.3.6 Sea A Rmn una matriz DSTU cualquiera, esto es, A = DL ZDR , donde Z es totalmente unimodular y DL = diag(l1 , . . . , lm ), DR = diag(r1 , . . . , rn ) son matrices diagonales. Entonces det(A([i1 , . . . , is ], [j1 , . . . , js ])) = li1 . . . lis rj1 . . . rjs K donde K = det(Z([i1 , . . . , is ], [j1 , . . . , js ])). Un problema del Algebra Lineal Numrica es calcular el determinante de una matriz e con alta precisin relativa. En el caso de las matrices DSTU esto es posible en los siguientes o casos: 1. Sea A una matriz DSTU tal que se conocen los factores A = DL ZDR . Las entradas de Z se suponen conocidas exactamente, y las entradas de DL y DR conocidas con alta precisin relativa en la aritmtica empleada (esto es, con un error relativo del o e orden del psilon-mquina). Entonces se puede calcular cualquier menor de A con e a alta precisin relativa utilizando la frmula (3.31). o o 2. Sea A una matriz simtrica DSTU. Aplicando el Algoritmo 1 obtenemos que P AP T = e LDLT con D = diag(D1 , . . . , Dr ), donde las matrices Di para i {1, . . . , r} son (3.31)

ALGORITMOS DE ALTA PRECISION

96

matrices de tamao 1 1 2 2, cuyos elementos estn calculados con alta precisin n o a o relativa por el Teorema 3.3.4. De este modo
r

det(A) =
i=1

det(Di ).

Este producto se realiza con alta precisin relativa: es producto de cantidades calcuo ladas con alta precisin relativa ya que las entradas de los pivotes de tamao 1 1 o n estn calculadas con dicha precisin por el Algoritmo 1 y los determinantes de los piva o app apq otes de tamao 2 2, por ejemplo, Di = n , cumplen que det(Di ) = a2 pq aqp app gracias al Lema 3.3.3.

3.3.2.

Matrices TSC

Denicin 3.3.7 Sea S un conjunto de matrices con un patrn de signos dado, es decir, o o todas las matrices pertenecientes a S tienen sus entradas no nulas en las mismas posiciones y con el mismo signo. Se dice que el conjunto S es TSC (total signed compound) si para toda matriz A S y para toda submatriz cuadrada M de A, la expresin Laplaciana de su o determinante det M = [sign() m1,(1) m2,(2) . . . ms,(s) ] (3.32)

es o bien suma de monomios del mismo signo, con por lo menos un monomio no nulo, o bien idnticamente cero (es decir, todos los monomios en la expresin son nulos). e o Hay patrones bien conocidos entre las matrices TSC, como el patrn tridiagonal o

+ + + + + + + + + + +

o el patrn en punta de echa o

+ + + + + + + + +

Las matrices TSC son adems matrices huecas (hay a lo sumo 3n 2 entradas no nulas a en una matriz TSC de n n (vase [21, Lema 7.1]). Esta propiedad se observa a simple e vista en la Figura 3.1, en la que se muestran dos matices TSC generadas aleatoriamente tal como se describe en la Seccin 3.5. Un cuadrado gris representa una entrada nula de la o

ALGORITMOS DE ALTA PRECISION

97

30

30

25

25

20

20

15

15

10

10

10

15

20

25

30

10

15

20

25

30

Figura 3.1: Ejemplos de matrices simtricas TSC e matriz, un cuadrado blanco una entrada positiva y un cuadrado negro una entrada negativa de una matriz simtrica TSC. e El hecho de tener tantos elementos nulos permite calcular determinantes de matrices TSC de tamao n mediante algoritmos de coste O(n). Adems, tales algoritmos calculan el n a determinante con alta precisin relativa, debido a la propiedad que dene las matrices TSC, o ya que en su clculo no puede haber cancelacin al ser suma de monomios del mismo signo. a o El coste de O(n) se alcanza haciendo uso de una denicin alternativa de las matrices TSC: o cada matriz TSC puede construirse empezando con una matriz no nula de tamao 1 1 n y repitiendo una o varias de entre cuatro reglas prejadas de construccin (vanse [11, 22] o e para ms detalles). Si nos restringimos al conjunto de matrices TSC simtricas, se puede a e probar que slo se necesitan tres reglas de construccin para generar cualquier matriz TSC. o o El siguiente resultado es una versin simtrica del Lema 7.2 de [22]. o e Teorema 3.3.8 Una matriz simtrica TSC se puede generar partiendo de una matriz no e nula de tamao 1 1 y aplicando repetidamente algunas de las siguientes reglas, repetidas n en cualquier orden: 1. Si A es una matriz TSC simtrica, entonces la permutacin de dos las y las correse o pondientes columnas, o multiplicar por 1 una la y su correspondiente columna, no cambia el carcter TSC simtrico. a e 2. Si A1 y A2 son ambas matrices simtricas TSC, entonces tambin lo es su suma e e directa A1 0 0 A2 3. Si una matriz A de tamao n n es simtrica TSC, con aii = 0, entonces tambin n e e

ALGORITMOS DE ALTA PRECISION es TSC simtrica la matriz A siguiente de tamao (n + 1) (n + 1) e n

98

0 . . . 0 A ai,n+1 0 . . .

A=

0 0 . . . 0 ai,n+1 0 . . . 0 an+1,n+1

donde se puede asignar cero a la entrada aii . Las nuevas entradas no nulas ai,n+1 y an+1,n+1 deben elegirse de tal modo que los dos monomios que aparecen en el menor an+1,n+1 ai,i ai,n+1 an+1,i tengan el mismo signo (o bien sean ambos nulos). Estas reglas nos permitirn generar matrices TSC en 3.5 a un coste computacional a muy bajo. Factorizacin LDLT por bloques con alta precisin relativa para matrices simtrio o e cas TSC El inters por las matrices simtricas TSC proviene del hecho que todos sus menores e e pueden calcularse sin sustracciones, y por lo tanto sin efectos de cancelacin. De acuero do con el Teorema 3.2.4, cualquier cantidad intermedia en la descomposicin LDLT por o bloques de una matriz es un cociente de menores o simplemente un menor de la matriz original. Aunque las frmulas estndar del mtodo de pivote diagonal podr requerir alguna o a e an sustraccin, y por tanto dar lugar a una posible cancelacin, las restas pueden evitarse si o o el correspondiente elemento de L o del complemento de Schur se recalcula como cociente de menores de la matriz original. Estas frmulas aparecen el Lema 3.2.3 para los elementos o del complemento de Schur , y en el Lema 3.2.5 para los elementos de L. Por otro lado, la ausencia de cancelacin implica que estos menores se calculan con alta precisin relativa. o o A continuacin se escribe en pseudocdigo el correspondiente algoritmo. Por supuesto o o la operacin de recalcular supone un coste adicional. Un menor de tamao s s supone o n O(s) operaciones, y como cualquier submatriz de una matriz TSC es tambin TSC, la e versin modicada del mtodo de pivotaje diagonal puede costar en el peor de los casos o e O(n4 ) operaciones aritmticas, el mismo orden que el algoritmo propuesto en [22] (vase [22, e e Teorema 7.2, p. 60]) para calcular RRD no simtricas de matrices TSC. Sobre esta cuestin, e o vase tambin el experimento al nal de la seccin 3.5.2. e e o Algoritmo 2: Input: A LDLT nn

ALGORITMOS DE ALTA PRECISION Output: P AP T = LDLT L 1 1 2 2 P D

99

1. for i = 1 to n 2. elegir pivote de acuerdo con la estrategia de pivote de BunchParlett 3. if pivote 1 1 , aii 4. Dii = aii 5. for j = i + 1 to n 6. lji = aji /aii 7. endfor 8. for j = i + 1 to n 9. for k = i + 1 to n aji aik 10. ajk = ajk Dii 11. (*) Si la resta tiene dos operandos no nulos del mismo signo, recalcular ajk como cociente de dos menores de A segn la frmula 3.16 en Lema 3.2.3 u o 12. endfor 13. endfor aii ai,i+1 14. else pivote 2 2 , ai+1,i ai+1,i+1 15. Dii = aii , Di,i+1 = Di+1,i = ai,i+1 , Di+1,i+1 = ai+1,i+1 16. for j = i + 1 to n 17. dpiv = aii ai+1,i+1 a2 i,i+1 18. (*)Si la resta tiene dos operandos no nulos del mismo signo recalcular dpiv como cociente de dos menores de A segn la frmula 3.17 en Lema 3.2.3 u o aji ai+1,i+1 aj,i+1 ai,i+1 19. lji = dpiv dpiv 20. (*) Si la resta tiene dos operandos no nulos del mismo signo, recalcular lji como cociente de dos menores de A segn la frmula 3.18 en Lema 3.2.5 u o 21. endfor 22. for j = i + 2 to n aj,i+1 ai,i+1 aj,i+1 aii + 23. lj,i+1 = dpiv dpiv 24. (*) Si la resta tiene dos operandos no nulos del mismo signo, recalcular lj,i+1 como cociente de dos menores de A segn la frmula 3.18 en Lema 3.2.5 u o 25. endif 26. for j = i + 1 to n 27. for k = i + 1 to n

ALGORITMOS DE ALTA PRECISION ajp aqq apk ajq apq apk ajp apq aqk ajq app aqk + dpiv dpiv dpiv dpiv 29. (*) Si la resta tiene dos operandos no nulos del signo, recalcular ajk como cociente de dos menores de A segn la frmula 3.16 en Lema 3.2.3 u o 30. endfor 31. endfor 32. endif 33.endfor 28. ajk = ajk

100

El argumento anterior demuestra la alta precisin relativa con que se calculan, elemento o a elemento, los factores de la descomposicin LDLT de una matriz TSC. Esto se reeja en o el siguiente teorema. Teorema 3.3.9 El Algoritmo 2 calcula todas las entradas de los factores L y D de una descomposicin LDLT por bloques de una matriz simtrica TSC con alta precisin relativa, o e o esto es, |lij lij | = O()|lij |, |dij dij | = O()|dij |,
donde L y D son los factores calculados en aritmtica en coma otante por el Algoritmo 1, e y L, D son los factores exactos que el mtodo de pivote diagonal calcular en aritmtica e a e exacta eligiendo los pivotes con las mismas dimensiones y posiciones que en aritmtica en e coma otante para calcular L y D.

3.4.

Paso de LDLT a RRD: Anlisis de errores a

Una vez calculada la factorizacin por bloques LDLT , ya vimos en (3.8) cmo obtener o o una descomposicin simtrica RRD mediante diagonalizacin por rotaciones de Givens. o e o Es fcil demostrar que como L est calculado con un error relativo pequeo componente a a n a componente y X = P T LQ es, salvo permutaciones, el resultado de una transformacin o de Givens en coma otante (vase, por ejemplo, [20, Lema 3.1]), el factor calculado X e cumplir ( 3.10). De hecho, obtendremos cotas de error ms nas en el Teorema 3.4.1, a a donde se muestra que el factor X se calcula con un error relativo pequeo columna a n columna. Observemos, adems, que X y L tienen el mismo nmero de condicin, luego si a u o el factor L est bien condicionado, tambin lo estar el factor X, garantizando una de las a e a propiedades esenciales de una descomposicin RRD (esto queda probado, por el momento, o para las matrices DSTU utilizando la nueva estrategia de pivotaje y el Teorema 3.3.5). A continuacin presentamos el anlisis de errores que demuestra que la descomposio a T cin LDL por bloques dada por los Algoritmos 1 2, seguida por una diagonalizacin o o o de Givens, conduce a una descomposicin RRD que cumple (3.10), requisito esencial para o poder asegurar alta precisin relativa en el clculo de los autovalores y autovectores de las o a matrices simtricas DSTU y TSC mediante el algoritmo SVD con signos. No se har dise a tincin entre matrices DSTU y TSC, ya que el anlisis de errores es vlido para cualquier o a a

ALGORITMOS DE ALTA PRECISION

101

matriz de la que se pueda calcular una descomposicin LDLT por bloques con error reo lativo pequeo componente a componente como en (3.9). Este anlisis de errores es muy n a similar al llevado a cabo en [29]. De hecho, se tomar de [29] algunos resultados necesarios a para el anlisis. Para ser ms precisos, introduciremos la siguiente notacin; partimos del a a o modelo convencional de aritmtica en coma otante, e fl(a b) = (a b)(1 + ), (3.33)

donde a y b son nmeros reales en coma otante, {+, , , /}, y || , donde es la u precisin de la mquina. Por otro lado, se supone que no se produce overow ni underow. o a Para cada k > 0 llamamos k k = (3.34) 1 k y, como en [43, 3.4], denotamos por k cualquier cantidad positiva acotada por k . Finalmente, dada una matriz real y simtrica de tamao 2 2, el mtodo de diagonalizacin de e n e o Jacobi se escribe como a c c b = cs sn sn cs 1 2 cs sn sn cs , (3.35)

con 1 = a ct, 2 = b + ct, donde t= y

signo() || + 1 + 2 cs =

para

ba 2c

(3.36)

1 , sn = cs t. (3.37) 1 + t2 El principal resultado de esta seccin, escrito con esta notacin, es el siguente. o o

Teorema 3.4.1 Sea A Rnn una matriz simtrica y sean L, D los factores calculados de e una factorizacin LDLT por bloques de A, obtenida a travs del mtodo de pivotaje o e e diagonal usando la estrategia de pivotaje de BunchParlett (3.14) (es decir, con = (1 + 17)/8). Supongamos que L, D se han calculado con error relativo pequeo componente a componente n

lij = lij (1 + KL ), dij = lij (1 + KD ),


(ij)

(ij)

i, j = 1, . . . , n (3.38) i, j = 1, . . . , n

para ciertas constantes KL , KD > 0, y sean X, (respectivamente X, ) los factores calculados (respectivamente exactos) de una descomposicin RRD simtrica obtenida por o e diagonalizacin mediante rotaciones de Givens (3.8) en aritmtica nita (respectivamente o e en aritmtica exacta), usando las frmulas (3.35)(3.37). Entonces, e o

|jj jj | 1+ 4 K +29 , |jj | 1 D

j = 1, . . . , n

(3.39)

ALGORITMOS DE ALTA PRECISION y


X(:, j) X(:, j) X(:, j) 2

102

2nC 2 + 1 M ,

j = 1, . . . , n

(3.40)

donde C es C= y

1 + O(). 1 (3.41)

M = max{48KL + 141, KL + 48KD + 143}.

Para demostrar este resultado utilizaremos el siguiente lema auxiliar extra de [29, do Appendix A.3]. Lema 3.4.2 (Dopico & Koev [29]) Sea A= a c c b = a(1 + a ) c(1 + c ) c(1 + c ) b(1 + b )

ua matriz de nmeros reales en coma otante, con max{|a |, |b |, |c |} k y |c| u max{|a|, |b|}. Sea a c A= , c b con autovalores 1 2 , y autovectores ortonormales correspondientes v1 = [cs, sn]T y v2 = [sn, cs]. Sean 1 , 2 , cs y sn las versiones de 1 , 2 , cs y sn calculadas en aritmtica e en coma otante para A segn las frmulas (3.35)(3.37). Si u o 1+ 4 2 k+29 1, 1 entonces 1+ |i i | 4 k+29 , |i | 1
cs = cs(1 + 16k+113 ),

141+48k 1, i = 1, 2 (3.42) (3.43)

sn = cs(1 + 48k+141 ).

Demostracin: (del Teorema 3.4.1) o En primer lugar, se supone sin prdida de generalidad que P = I, ya que las permutae ciones no introducen error alguno. Sea Q la matriz ortogonal calculada que diagonaliza D, esto es, si D = diag(D1 , . . . , Dr ) con Dk Rsk sk , sk = 1 2, k = 1, . . . , r, entonces o sk sk Q = diag(Q1 , . . . , Qr ) con Qk R , k = 1, . . . , r. Los bloques de tamao 1 1 de Qk n son iguales a 1, y cada bloque de tamao 2 2 n Qk =
cs sn sn cs

(3.44)

ALGORITMOS DE ALTA PRECISION

103

es la versin calculada en aritmtica nita de la rotacin de Jacobi que diagonalizar en o e o a aritmtica exacta el bloque Dk de tamao 2 2. Anlogamente, Q = diag(Q1 , . . . , Qr ), e n a donde cs sn Qk = sn cs es la rotacin de Jacobi exacta que diagonaliza el bloque diagonal Dk de D. Para aquellas o columnas j correspondientes a un pivote con sk = 1 se tiene que jj = djj , jj = djj y X(:, j) = L(:, j), X(:, j) = L(:, j), por lo que (3.39) y (3.40) se satisfacen trivialmente. Slo queda considerar el caso de las columnas correspondientes a pivotes de tamao 2 o n 2. Supongamos que la j-sima y la (j + 1)-sima son dos de tales columnas. Primero, e e la desigualdad (3.39) se sigue directamente de aplicar el Lema 3.4.2, es decir, tomando A, A, 1 , 2 , y k iguales, respectivamente, a D, D, jj , j+1,j+1 y KD . Con esta eleccin, o la desigualdad (3.42) se reduce a (3.39). Para demostrar (3.40), se observa que X = LQ,
X = fl(LQ),

donde fl(expr) denota el resultado calculado en precisin nita de la expresin expr. o o Leyendo estas igualdades componente a componente para las columnas j y j+1 en cuestin, o tenemos 0 , si i < j ; cs , si i = j ; X(i, j) = (3.45) sn , si i = j + 1 ; fl(lij cs + li,j+1 sn) , si i > j + 1 , 0 sn cs fl(lij sn + li,j+1 cs) , si , si , si , si i<j; i=j; i=j+1; i>j+1.

X(i, j + 1) =

y las mismas igualdades sin los acentos circunejos para los elementos de X. Por lo tanto,
||X(:, j) X(:, j)||2 = (cs cs)2 + 2

+(sn sn) +

n i=j+2

[fl(lij cs + li,j+1 sn) (lij cs + li,j+1 sn)]2 .

Usando (3.38), (3.33) y (3.43), se puede escribir


fl(lij cs + li,j+1 sn) = lij cs (1 + KL ) (1 + 16KD +113 ) (1 + 1 ) +

(i,j)

+ li,j+1 sn (1 + KL

(i,j+1)

) (1 + 48KD +141 ) (1 + 2 ) (1 + 3 ) =

= lij cs (1 + KL +16KD +115 ) + li,j+1 sn (1 + KL +48KD +143 ).

ALGORITMOS DE ALTA PRECISION Volviendo hacer uso de (3.43), se tiene


X(:, j) X(:, j)

104

2 2

= (cs 16KD +113 )2 + (sn 48KD +141 )2 +


n

+
i=j+2

lij cs KL +16KD +115 + li,j+1 sn KL +48KD +143

(48KL +141 )2 + 2n (KL +48KD +143 )2 max{|lij |2 , |li,j+1 |2 }, donde se ha usado la monoton de k en k. Llegados a este punto, observamos que aunque a la estrategia de BunchParlett asegura que las entradas del factor calculado L cumplen |lik | 1/(1 ) para todo i, k, esto puede no ser cierto para las entradas lik del factor exacto L. La cota componente a componente (3.38), sin embargo, implica tras llevar a cabo ciertos clculos que |lik | C para una constante C igual a 1/(1 ) salvo trminos de a e primer orden en . Para un anlisis ms detallado vese [29], donde se demuestra que a a a C= As ,
X(:, j) X(:, j)

1 , (1 )(1 g() )

g() = 32

1+ 1

+ 196

1+ KD . 1

1 + 2nC 2 M

con M dado por (3.41), lo cual conduce trivialmente a (3.40), ya que X(:, j)
2 2

cs2 + sn2 1.

3.5.

Experimentos numricos e

Hemos llevado a cabo pruebas numricas que conrman la precisin predicha por nuese o tro anlisis de errores para los Algoritmos 1 y 2. Todas estas pruebas numricas se han a e realizado con el programa matemtico Matlab 5.3 usando un procesador AMD Athlon a (tm) XP 2000+ con aritmtica IEEE. e Para comparar los algoritmos 1 y 2 hemos usado como referencia los autovalores y autovectores calculados usando la aritmtica de precisin variable Maple del paquete e o Symbolic Math Toolbox de Matlab por medio del comando vpa. Para cada matriz A, la descomposicin espectral exacta se obtiene usando el comando eig de Matlab (es o decir, con el algoritmo QR), pero eligiendo un valor sucientemente grande para la variable digits, que ja el nmero de cifras signicativas con que se hacen los clculos en Maple. u a Se elige digits igual a 18 + d si el nmero de condicin de la matriz A es O(10d ). Denotamos u o por i , qi a los autovalores y autovectores calculados de esta manera y por i , qi a los calculados por el algoritmo SVD con signos, implementado en Matlab. Por tanto, i , qi estn calculados en aritmtica de doble precisin, es decir, 2,21016 . La descomposicin a e o o

ALGORITMOS DE ALTA PRECISION

105

inicial RRD est implementada en Matlab, usando el Algoritmo 1 para matrices DSTU a y el Algoritmo 2 para matrices TSC. Para demostrar que los resultados obtenidos tienen la precisin deseada en todos los o autovalores y autovectores analizaremos las siguientes cantidades: 1. El mximo error relativo en los autovalores a e = max
i

i i i

(3.46)

2. Una cantidad de control para los autovalores = e (3.47)

donde es el psilon-mquina y = (R ) (X) como en (3.11). Si esta cantidad es e a del orden O(1) signica que el resultado de los experimentos es del orden predicho por la teor a. 3. El mximo error en los autovectores a eq = maxi ||qi qi ||2 4. Una cantidad de control para los autovectores ||qi qi ||2 relgap (i ) q = maxi (3.49) (3.48)

con como antes y relgap denido como en (3.12). De nuevo, q deber ser de orden a O(1) en los experimentos para conrmar el anlisis. a

3.5.1.

Matrices DSTU

Se han generado matrices simtricas no singulares totalmente unimodulares (TU) de e tamaos 6, 8, 10 y 12. En principio no hemos podido generar matrices TU de tamao n n mayor debido al alto coste que conlleva construirlas: generamos recursivamente matrices TU, comenzando con una matriz de tamao 1, esto es o bien 1, 1 0. Dada una matriz n o generada de tamao s, el algoritmo construye una matriz TU de tamao (s + 1) (s + 1) n n TU orlando la matriz s s con una nueva la y columna, con entradas aleatorias elegidas entre 1 0, y comprobando que todos los nuevos menores que contengan esta la y/o o columna cumplen que su valor es 1 0. El coste computacional de comprobar estos o menores es muy alto, de ah la baja dimensin de las matrices generadas. o Una vez creada la matriz simtrica TU, la escalamos a ambos lados con una misma e matriz diagonal con potencias de 10 sobre la diagonal y nmeros de condicin variando entre u o 5 20 10 y 10 . Finalmente multiplicamos las potencias de 10 por valores aleatorios generados

ALGORITMOS DE ALTA PRECISION

106

por el comando rand de Matlab . De este modo, se han generado matrices simtricas e DSTU con un nmero de condicin entre 1010 y 1040 . Para cada tamao, dividimos los u o n experimentos en tres grupos segn sus nmeros de condicin: los que oscilan entre 1010 u u o 20 20 30 y 10 , los que oscilan entre 10 y 10 y nalmente entre 1030 y 1040 . Generamos 100 matrices para cada uno de los tres grupos, por lo que las tablas dadas abajo reejan el resultado para un total de 1200 matrices, 300 para cada dimensin elegida. La Tabla 1 o muestra la cantidad de control para los autovalores y la Tabla 2 la cantidad de control q para los autovectores. Para cada dimensin tenemos dos columnas, la izquierda nos da o la media sobre 100 tests hechos en el rango correspondiente de nmero de condicin, y u o la derecha nos da el valor mximo encontrado, esto es, el peor caso entre las 100 pruebas a realizadas.
n=6 Mean Max 1.412 6.689 1.460 16.34 1.699 26.65 n=8 Mean Max 1.746 32.34 1.652 38.14 1.338 11.34 n = 10 Mean Max 1.879 19.14 1.432 13.49 1.157 3.949 n = 12 Mean Max 1.425 9.310 1.696 45.45 1.719 33.02

(A) = 10 d 20 20 d 30 30 d 40

O(10d )

Tabla 1: Datos estad sticos para el clculo de autovalores de matrices simtricas DSTU: a e

(A) = 10 d 20 20 d 30 30 d 40

O(10d )

n=6 Mean Max 0.508 2.653 0.502 1.914 0.447 1.884

n=8 Mean Max 0.508 1.886 0.518 1.716 0.582 2.795

n = 10 Mean Max 0.579 1.989 0.623 2.214 0.571 2.840

n = 12 Mean Max 0.605 2.364 0.603 1.928 0.621 2.697

Tabla 2: Datos estad sticos para el clculo de autovectores de matrices simtricas DSTU: q a e

Finalmente, consideramos una subclase de matrices TU que se genera a bajo coste. Estas son las matrices simtricas tridiagonales TU eulerianas, matrices tridiagonales tales e que la suma de los elementos de cualquier la o columna es par. El coste de generar este tipo de matrices es O(n) si la dimensin de la matriz generada es n. El determinante de o estas matrices es siempre cero, pero el menor que resulta de eliminar la ultima la y la ultima columna es no singular. Por tanto, generamos matrices simtricas tridiagonales T U e eulerianas U de tamao n+1 y realizamos las pruebas con las matrices U (1 : n, 1; n), que son n simtricas, TU, no singulares y de tamao n. Utilizando estas matrices, volvemos a generar e n matrices DSTU del mismo modo que en los experimentos anteriores, denotmoslas DSTU*. e Las Tablas 3 y 4 nos dan los resultados de las cantidades de control del clculo de sus a autovalores y autovectores, realizando 10 experimentos para cada dimensin. Observemos o de nuevo que el resultado est en concordancia con los resultados tericos. a o

ALGORITMOS DE ALTA PRECISION


n = 20 Mean Max 1.025 2.353 1.293 3.801 1.153 2.262 n = 40 Mean Max 1.359 4.716 1.353 3.244 1.572 3.984 n = 60 Mean Max 1.209 3.706 1.288 3.388 1.519 3.804 n = 100 Mean Max 1.367 3.559 1.274 3.247 1.500 5.321

107

(A) = 10 d 20 20 d 30 30 d 40

O(10d )

Tabla 3:Datos estad sticos para el clculo de autovalores de matrices simtricas DSTU*: a e

(A) = 10 d 20 20 d 30 30 d 40

O(10d )

n = 20 Mean Max 0.534 0.841 0.523 1.454 0.588 1.835

n = 40 Mean Max 0.670 2.578 0.746 2.720 0.770 2.125

n = 60 Mean Max 0.601 2.330 0.635 2.221 0.641 1.855

n = 100 Mean Max 0.720 3.132 0.594 2.494 0.776 2.826

Tabla 4: Datos estad sticos para el clculo de autovectores de matrices simtricas DSTU*: q a e

3.5.2.

Matrices TSC

Se han generado matrices simtricas TSC del siguiente modo: creamos una matriz e aleatoria de tamao 1 1 y repetidamente aplicamos las reglas 2 y 3 del Teorema 3.3.8 n con una probabilidad dada. La regla 2 se aplica con una probabilidad del 50 %, eligiendo como A2 uno de los bloques de la matriz A1 calculada en la anterior etapa. La regla 3 se aplica generando los nuevos elementos ai,n+1 , an+1,n+1 con el comando rand de Matlab, y asignando el valor cero al elemento aii con una probabilidad del 20 %. En la Figura 3.2 se representan dos matrices TSC de dimensin 100 generadas de ese modo. o
100 100

90

90

80

80

70

70

60

60

50

50

40

40

30

30

20

20

10

10

10

20

30

40

50

60

70

80

90

100

10

20

30

40

50

60

70

80

90

100

Figura 3.2: Ejemplos de matrices simtricas TSC e El uso del comando vpa utilizado para calcular los autovalores y autovectores de referencia para los algoritmos 1 y 2 viene limitado por el tamao de las matrices. Por ello, a n

ALGORITMOS DE ALTA PRECISION

108

pesar de poder generar matrices simtricas TSC de cualquier orden a un bajo coste, los e experimentos los realizaremos con matrices de tamao 10, 20, 40, y 60. Una vez generadas n estas matrices TSC las escalaremos a ambos lados con la misma matriz diagonal positiva mal condicionada, como hicimos con las matrices simtricas DST U . Ntese que, como e o los escalamientos son positivos, el patrn de signos de la matriz TSC no cambia con el o escalamiento. De nuevo, presentamos resultados para 1200 matrices, 100 de cada dimensin o para cada uno de los tres rangos de nmeros de condicin. Los resultados se muestran en u o las tablas 5 y 6.
n = 10 Mean Max 1.446 10.024 1.332 6.579 1.362 5.973 n = 20 Mean Max 1.449 4.196 2.170 38.68 1.591 7.411 n = 40 Mean Max 1.940 8.802 2.033 5.172 2.841 44.70 n = 60 Mean Max 2.280 9.639 2.278 9.528 2.502 9.583

(A) = 10 d 20 20 d 30 30 d 40

O(10d )

Tabla 5: Datos estad sticos para el clculo de autovalores de matrices simtricas TSC: a e

(A) = 10 d 20 20 d 30 30 d 40

O(10d )

n = 10 Mean Max 0.682 3.044 0.717 7.438 0.800 3.768

n = 20 Mean Max 0.843 2.987 0.889 4.215 0.893 3.386

n = 40 Mean Max 1.292 3.342 1.294 3.034 1.265 2.802

n = 60 Mean Max 1.418 3.641 1.405 3.665 1.471 3.672

Tabla 6: Datos estad sticos para el clculo de los autovectores de matrices simtricas TSC: q a e

Como se puede ver en las tablas 5 y 6, los resultados conrman nuestras predicciones tericas. En paralelo, se calcularon los autovalores y autovectores con el comando eig de o Matlab. Como es de esperar, los errores relativos fueron extremadamente grandes, sin d gito correcto alguno para los autovalores ms pequeos. a n Para concluir con los experimentos numricos, presentamos una ultima prueba para e T dar una idea del coste computacional de la factorizacin LDL por bloques de matrices o simtricas TSC. Ms concretamente para matrices de tamaos que van desde 10 a 100 en e a n intervalos de diez, es decir, generamos cien matrices de tamao 10, cien de 20, cien de n 30 y as sucesivamente, un total de mil matrices en total. Para cada matriz se calcula su respectiva descomposicin LDLT por bloques usando el Algoritmo 2, y contamos el nmero o u de operaciones en coma otante llevadas a cabo en el proceso. Cada estrella en la Figura 3.3 corresponde a un tamao jo y representa la media aritmtica de las operaciones realizadas n e en las 100 matrices de ese tamao, representandola en una grca a escala logar n a tmica, con el logaritmo del tamao n de la matriz en el eje de abscisas. La l n nea continua corresponde a flops= n4 , y la l nea discontinua a flops= n3 . Como puede verse en la gura, el coste parece estar entre ambos rdenes. Como no hemos estimado las constantes que aparecen o en la o-mayscula de Landau, es dif llegar a conclusiones rigurosas. u cil

ALGORITMOS DE ALTA PRECISION


Flops of factorization LDL of a TSC matrix 20
t

109

18

16

log(flops)

14

12

10

2.5

3.5 log(n)

4.5

Figura 3.3: Coste computacional de la factorizacin LDLT por bloques de matrices simtrio e cas TSC de tamaos entre 10 y 100 n

3.6.

Conclusiones y trabajos futuros

Hemos descrito y llevado a cabo un anlisis de errores detallado de dos algoritmos que a calculan todos los autovalores y autovectores con alta precisin relativa de cualquier matriz o simtrica perteneciente a las clases DSTU o TSC. e Extensiones y cuestiones relacionadas con este trabajo y que podrn ser motivo de a estudio en el futuro son: 1. Estudiar nuevos algoritmos de factorizacin de las clases de matrices estudiadas, o empleando otras estrategias de pivote. Por ejemplo, la estrategia de pivote de BunchKauman. 2. Buscar nuevas clases de matrices, eventualmente no simtricas, cuyas propiedades e permitan evitar cancelaciones en el proceso de factorizacin. o

Bibliograf a
[1] E. Anderson, Z. Bai, C. Bischof, S. Blackford, J. Demmel, J. Dongarra, J. Du Croz, A. Greenbaum, S. Hammarling, A. McKenney, and D. Sorensen. LAPACK users guide, Third ed. SIAM, Philadelphia, 1999. [2] J. Barlow and J. Demmel. Computing accurate eigensystems of scaled diagonally dominant matrices. SIAM J. Numer. Anal., 27:762791, 1990. [3] H. Baumgrtel. Analytic Perturbation Theory for Matrices and Operators. Birkhuser, a a Basel, 1985. [4] P. Benner and D. Kressner. Algorithm 854: Fortran 77 subroutines for computing the eigenvalues of Hamiltonian matrices II. ACM Trans. Math. Softw., 32(2):352373, 2006. [5] P. Benner, V. Mehrmann, and H. Xu. A numerically stable, structure-preserving method for computing the eigenvalues of real Hamiltonian or symplectic pencils. Num. Math., 78:329358, 1996. [6] P. Benner, V. Mehrmann, and H. Xu. A new method for computing the stable invariant subspace of a real Hamiltonian matrix. J. Comput. Appl. Math., 86(1):1743, 1997. [7] . Bjrck and V. Pereyra. Solution of Vandermonde systems of equations. Math. A o Comp., 24:893903, 1970. [8] S. Bora and V. Mehrmann. Linear perturbation theory for structured matrix pencils arising in control theory. SIAM J. Matrix Anal. Appl., 28(1):148169, 2006. [9] S. Boyd, V. Balakrishnan, and P. Kabamba. A bisection method for computing the H norm of a transfer matrix and related problems. Mathematics of Control, Signals, and Systems, 2(3):207219, 1989. [10] R. P. Brent. Stability of fast algorithms for structured linear systems. In Fast reliable algorithms for matrices with structure, SIAM, pages 103152, 1999. [11] R. Brualdi and H. Ryser. Combinatorial Matrix Theory. Cambridge University Press, Cambridge, 1991. 110

ALGORITMOS DE ALTA PRECISION

111

[12] J. R. Bunch. The weak and strong stability of algorithms in numerical linear algebra. Linear Algebra Appl., 88/89:4966, 1987. [13] J.R. Bunch. Analysis of the diagonal pivoting method. SIAM J. Numer. Anal., 8(4):656680, 1971. [14] J.R. Bunch and B. Parlett. Direct methods for solving symmetric indenite systems of linear equations. SIAM J. Numer. Anal., 8(3):639655, 1971. [15] J. V. Burke, A. S. Lewis, and M. L. Overton. A robust gradient sampling algorithm for nonsmooth, nonconvex optimization. SIAM J. Optim., 15(3):751779, 2005. [16] R. Byers and D. Kressner. On the condition of a complex eigenvalue under real perturbations. BIT, 44(2):209215, 2004. [17] F. Chatelin. Eigenvalues of Matrices. Wiley, New York, 1993. [18] R. W. Cottle. Manifestations of the schur complement. Linear Algebra Appl., 8:189 211, 1974. [19] C. Davis and W. Kahan. The rotation of eigenvectors by a perturbation. III. SIAM J. Numer. Anal., 7:146, 1970. [20] J. W. Demmel. Applied Numerical Linear Algebra. SIAM, Philadelphia. [21] J. W. Demmel and A. Edelman. The dimension of matrices (matrix pencils) with given Jordan (Kronecker) canonical forms. Linear Algebra Appl., 230, 1995. [22] J. W. Demmel, M. Gu, S. Eisenstat, I. Slapniar, K. Veseli, and Z. Drma. Computing c c c the singular value decomposition with high relative accuracy. Linear Algebra Appl., 299:2180, 1999. [23] J. W. Demmel and W. Kahan. Accurate singular values of bidiagonal matrices. SIAM J. Sci. Stat. Comp., 11:873912, 1990. [24] J. W. Demmel and K. Veseli. Jacobis method is more accurate than QR. SIAM J. c Matrix Anal. Appl., 13:12041245, 1992. [25] J.W. Demmel and W. Gragg. On computing accurate singular values and eigenvalues of matrices with acyclic graphs. Linear Algebra Appl., 185:203217, 1993. [26] I. S. Dhillon. A new O(n2 ) algorithm for the symmetric tridiagonal eigenvalue/eigenvector problem. PhD thesis, University of California at Berkeley, Berkeley (USA), 1998. [27] I.S. Dhillon and B.N. Parlett. Orthogonal eigenvectors and relative gaps. SIAM J. Matrix Anal. Appl., 25(3):858899, 2003.

ALGORITMOS DE ALTA PRECISION

112

[28] I.S. Dhillon, B.N. Parlett, and C. Vmel. The design and implementation of the o MRRR algorithm. ACM Trans. Math. Softw., 32(4):533560, 2006. [29] F. M. Dopico and P. Koev. Accurate symmetric rank-revealing and eigendecompositions of symmetric structured matrices. SIAM J. Matrix Anal. Appl., 28:11261156, 2006. [30] F. M. Dopico, J. M. Molera, and J. Moro. An orthogonal high relative accuracy algorithm for the symmetric eigenproblem. SIAM J. Matrix Anal. Appl., 25(2):301 351, 2003. [31] Z. Drma and K. Veseli. LAPACK Working Note 169: New fast and accurate Jacobi c c SVD algorithm: I. Technical report, 2005. [32] Z. Drma and K. Veseli. LAPACK Working Note 170: New fast and accurate Jacobi c c SVD algorithm: II. Technical report, 2005. [33] V. Olshevsky (editor). Structured matrices in mathematics, computer science, and engineering: Proceedings of an AMS-IMS-SIAM joint Summer Research Conference, Boulder, June 27-July 1, 1999. AMS, 2001. [34] H. Fabender, D. S. Mackey, N. Mackey, and X. Xu. Hamiltonian square roots of skew-Hamiltonian matrices. Linear Algebra Appl., 287(1-3):125159, 1999. [35] K. V. Fernando and B. Parlett. Accurate singular values and dierential qd algorithms. Num. Math., 67:191229, 1994. [36] B. Friedlander, M. Morf, T. Kailath, and L. Ljung. New inversion formulas for matrices classied in terms of their distance from Toeplitz matrices. Linear Algebra Appl., 27:3160, 1979. [37] I. Gohberg, M. A. Kaashoek, and P. Lancaster. General theory of regular matrix polynomials and band Toeplitz operators. Integral Equations and Operator Theory, 11:776882, 1988. [38] I. Gohberg, P. Lancaster, and L. Rodman. Matrix polynomials. Academic Press Inc. [Harcourt Brace Jovanovich Publishers], New York, 1982. [39] S. Graillat. A note on structured pseudospectra. J. Comput. Appl. Math., 191(1):68 76, 2006. [40] G. Heinig and K. Rost. Algebraic methods for Toeplitz-like matrices and operators. Birkhuser, Basel, 1984. Operator Theory, vol. 13. a [41] D. J. Higham and N. J. Higham. Backward error and condition of structured linear systems. SIAM J. Matrix Anal. Appl., 13(1):162175, 1992.

ALGORITMOS DE ALTA PRECISION

113

[42] D. J. Higham and N. J. Higham. Structured backward error and condition of generalized eigenvalue problems. SIAM J. Matrix Anal. Appl., 20(2):493512, 1999. [43] N. J. Higham. Accuracy and Stability of Numerical Algorithms (2nd. ed.). SIAM, Philadelphia, 2002. [44] N. J. Higham, R.-C. Li, and F. Tisseur. Backward error of polynomial eigenproblems solved by linearization. MIMS EPrint 2006.137, Manchester Institute for Mathematical Sciences, University of Manchester, Manchester, UK, 2006. See http://eprints.ma.man.ac.uk/312. [45] N.J. Higham, D.S. Mackey, and F. Tisseur. The conditioning of linearizations of matrix polynomials. SIAM Journal on Matrix Analysis and Applications, 28(4):10051028, 2006. [46] A. Hilliges, C. Mehl, and V. Mehrmann. On the solution of palindromic eigenvalue problems. In Proceedings of ECCOMAS, Jyvskyl, Finland, 2004. a a [47] D. Hinrichsen and A.J. Pritchard. Stability radii of linear systems. Syst. Control Lett., 7(1):110, 1986. [48] R. A. Horn and C. R. Johnson. Matrix Analysis. Cambridge University Press, Cambridge, 1985. [49] R. A. Horn and V. V. Sergeichuk. Canonical forms for complex matrix congruence and -congruence. Linear Algebra Appl., 416(2-3):10101032, 2006. [50] A. Householder. The Theory of Matrices in Numerical Analysis. Dover, 1975. [51] K. D. Ikramov. Hamiltonian square roots of skew-Hamiltonian matrices revisited. Linear Algebra Appl., 325(1-3):101107, 2001. [52] W. Kahan. Accurate eigenvalues of a symmetric tridiagonal matrix. Technical Report CS-41, Department of Computer Science, Stanford University, Palo Alto (USA), 1968. [53] T. Kailath, S.-Y. Kung, and M. Morf. Displacement ranks of matrices and linear equations. J. Math. Anal. Appl., 68:395407, 1979. [54] T. Kailath and A. H. Sayed. Displacement structure: theory and applications. SIAM Rev., 37:297386, 1995. [55] M. Karow, D. Kressner, and F. Tisseur. Structured eigenvalue condition numbers. SIAM J. Matrix Anal. Appl., 28(4):10561058, 2006. [56] T. Kato. Perturbation Theory for Linear Operators. Springer, Berlin, 1980. [57] P. Koev. Accurate eigenvalues and SVDs of totally nonnegative matrices. SIAM J. Matrix Anal. Appl., 27(1):123, 2005.

ALGORITMOS DE ALTA PRECISION

114

[58] P. Koev and F. M. Dopico. Accurate eigenvalues of certain sign-regular matrices, 2006. preprint. [59] D. Kressner, M. J. Pelez, and J. Moro. Structured Hlder condition numbers for a o multiple eigenvalues, 2006. preprint. [60] P. Lancaster and P. Psarrakos. A note on weak and strong linearizations of regular matrix polynomials. Technical Report No. 470, Manchester Institute for Mathematical Sciences, University of Manchester, June 2005. [61] H. Langer and B.Najman. Remarks on the perturbation of analytic matrix functions. II. Integral Equations and Operator Theory, 12(3):392407, 1989. [62] H. Langer and B.Najman. Remarks on the perturbation of analytic matrix functions. III. Integral Equations and Operator Theory, 15(5):796806, 1992. [63] H. Langer and B.Najman. Leading coecients of the eigenvalues of perturbed analytic matrix functions. Integral Equations and Operator Theory, 16(4):600604, 1993. [64] V. B. Lidski On the theory of perturbations of nonselfadjoint operators. Z. Vyisl. . c Mat. i Mat. Fiz., 6(1):5260, 1966. [65] C. F. Van Loan. A symplectic method for approximating all the eigenvalues of a Hamiltonian matrix. Linear Algebra Appl., 61:233252, 1984. [66] D. S. Mackey, N. Mackey, C. Mehl, and V. Mehrmann. Palindromic polynomial eigenvalue problems: Good vibrations from good linearizations. SIAM J. Matrix Anal. Appl., 28(4):10291051, 2006. [67] D. S. Mackey, N. Mackey, C. Mehl, and V. Mehrmann. Vector spaces of linearizations for matrix polynomials. SIAM J. Matrix Anal. Appl., 28(4):9711004, 2006. [68] D. S. Mackey, N. Mackey, and F. Tisseur. G-reectors: analogues of Householder transformations in scalar product spaces. Linear Algebra Appl., 385:187213, 2004. [69] D. S. Mackey, N. Mackey, and F. Tisseur. Structured mapping problems for matrices associated with scalar products part I: Lie and Jordan algebras. MIMS EPrint 2006.44, Manchester Institute for Mathematical Sciences, University of Manchester, Manchester, UK, 2006. See http://eprints.ma.man.ac.uk/197/. [70] R. Mathias. The singular values of the Hadamard product of a positive semidenite and a skew-symmetric matrix. Linear and Multilinear Algebra, 31(1-4):5770, 1992. [71] C. Mehl. On classication of normal matrices in indenite inner product spaces. Electron. J. Linear Algebra, 15:5083, 2006.

ALGORITMOS DE ALTA PRECISION

115

[72] J. Moro, J. V. Burke, and M. L. Overton. On the Lidskii-Vishik-Lyusternik perturbation theory for eigenvalues of matrices with arbitrary Jordan structure. SIAM J. Matrix Anal. Appl., 18(4):793817, 1997. [73] S.Noschese and L. Pasquini. Eigenvalue condition numbers: zero-structured versus traditional. J. Comput. Appl. Math., 185(1):174189, 2006. [74] V. Olshevsky. Pivoting for structured matrices and rational tangential interpolation. In Contemporary mathematics: theory and applications, AMS, pages 173, 2003. [75] C. C. Paige and C. Van Loan. A Schur decomposition for Hamiltonian matrices. Linear Algebra Appl., 41:1132, 1981. [76] M. J. Pelez and J. Moro. Accurate factorization and eigenvalue algorithms for syma metric DSTU and TSC matrices. SIAM J. Matrix Anal. Appl., 28(4):11731198, 2006. [77] M. J. Pelez and J. Moro. Structured condition numbers of multiple eigenvalues. a Proceedings in Applied Mathematics and Mechanics (PAMM), 6(1):6770, 2006. [78] M. J. Pelez and J. Moro. Hlder condition numbers for eigenvalues under fully a o nongeneric structured perturbation, 2007. preprint. [79] V. Puiseux. Recherches sur les fonctions algbriques. J. Math Pures Appl., 15:365480, e 1850. [80] L. Rodman. Bounded and stably bounded palindromic dierence equations of rst order. Electron. J. Linear Algebra, 15:2249, 2006. [81] S. M. Rump. Structured perturbations. I. Normwise distances. SIAM J. Matrix Anal. Appl., 25(1):130, 2003. [82] S. M. Rump. Eigenvalues, pseudospectrum and structured perturbations. Linear Algebra Appl., 413(2-3):567593, 2006. [83] C. Schrder. A canonical form for palindromic pencils and palindromic factorizations. o Technical report, MATHEON, DFG Research Center Mathematics for key technologiesin Berlin, TU Berlin, 2006. [84] I. Slapniar. Accurate Symmetric Eigenreduction by a Jacobi Method. PhD thesis, c Fernuniversitt Hagen, 1992. a [85] I. Slapniar. Componentwise analysis of direct factorizations of real symmetric and c Hermitian matrices. Linear Agebra Appl., 272:227275, 1998. [86] I. Slapniar. Highly accurate symmetric eigenvalue decomposition and hyperbolic c SVD. Linear Algebra Appl., 358:387424, 2003.

ALGORITMOS DE ALTA PRECISION

116

[87] G. W. Stewart and J.-G. Sun. Matrix Perturbation Theory. Academic Press, New York, 1990. [88] F. de Tern, F. Dopico, and J. Moro. First order spectral perturbation theory of a matrix pencils via the Kronecker form, 2006. In preparation. [89] R. C. Thompson. Pencils of complex and real symmetric and skew matrices. Linear Algebra Appl., 147:323371, 1991. [90] F. Tisseur. Backward error and condition of polynomial eigenvalue problems. Linear Algebra Appl., 309(1-3):339361, 2000. [91] F. Tisseur. A chart of backward errors for singly and doubly structured eigenvalue problems. SIAM J. Matrix Anal. Appl., 24(3):877897, 2003. [92] L.N. Trefethen. Pseudospectra of linear operators. SIAM Rev., 39:383406, 1997. [93] L.N. Trefethen and M. Embree. Spectra and pseudospectra: the behavior of nonnormal matrices and operators. Princeton University Press, Princeton, 2005. [94] K. Veseli. Floating-point perturbations of Hermitian matrices. Linear Algebra Appl., c 195(1):81116, 1993. [95] K. Veseli. A Jacobi eigenreduction algorithm for denite matrix pairs. Numer. Math., c 64(2):241269, 1993. [96] M. I. Vishik and L. A. Ljusternik. Solution of some perturbation problems in the case of matrices and self-adjoint or non-selfadjoint dierential equations. I. Russian Math. Surveys, 15(3):173, 1960. [97] J. H. Wilkinson. The Algebraic Eigenvalue Problem. Clarendon Press, Oxford, 1965. [98] D. Xie, X. Hu, and L. Zhang. The solvability conditions for inverse eigenproblem of symmetric and anti-persymmetric matrices and its approximation. Numer. Linear Algebra Appl., 10(3):223234, 2003.

Potrebbero piacerti anche