Sei sulla pagina 1di 13

1

DESCOMPOSICIN EN VALORES SINGULARES


Interpretacin geomtrica: consideremos en particular las transformaciones lineales
del plano asociadas a matrices diagonales, vemos que dado un vector del dominio una
transformacin tal multiplica sus coordenadas por los coeficientes de la diagonal de la
matriz as sea x
t
=(x
1,
x
2
) y D= entonces Dx= una transformacin as
transformara la bola de centro cero y radio 1 en una elipse con semiejes |a| y |b|
coincidentes con los ejes coordenados como muestra el siguiente esquema
Por otra parte las transformaciones asociadas a matrices simtricas
producirn el mismo efecto pero considerando los ejes rotados
Esto indica que para alguna base ortonormal del dominio, una transformacin de matriz
simtrica le hace corresponder a los vectores de dicha base B={u1,u2} los
correspondientes vectores {au1,bu2} para algunos pares de reales a y b.
Lo anterior se indica de la siguiente forma sea A/A=A
t
(matriz simtrica de coeficientes
reales) existe una matriz U cuyas columnas forman una bon del dominio, que verifica
AU=UD, siendo D una matriz diagonal.
En el teorema de la descomposicin en valores singulares de una matriz asociada a una
transformacin de R
n
en R
m
hay dos bases ortonormales V en dominio y U en
codominio para cuyos elementos se cumple que
AV=US donde U tiene columnas u
i
y V
tiene las v
i
,mientras que S tiene las mismas dimensiones que A o sea mxn
2
Si la transformacin se da en del plano en s mismo al aplicarla a la circunferencia de
radio 1 tenemos que la grfica de la interpretacin geomtrica es
Dado que la matriz V es ortogonal en AV=US entonces VV
t
=I, luego
A=USV
t
=
V
t
rota los vectores de v
i
para colocarlos en posicin cannica, luego S transforma la
bola unitaria en la elipse con semiejes
i
e
i
, por ltimo U posiciona los ejes de la elipse
en las direcciones de los versores u
i
Ahora consideremos una transformacin que aplica la esfera centrada en el origen y de
radio 1 en una elipse centrada en el origen pero cuyos ejes no coincidan con los ejes de
coordenadas, si pretendemos hallar un vector unitario x que maximice Ax este
vector es el mismo que maximiza Ax
2
=(Ax)
t
(Ax)=x
t
(A
t
A)x, luego debemos hallar el
x que maximiza esta forma cuadrtica sujeta a la restriccin de x=1.
Cmo A
t
A es simtrica, en efecto (A
t
A)
t
=A
t
A, la solucin al problema est en hallar el
mximo autovalor de A
t
A y el versor asociado al autovector correspondiente. Por ser
A
t
A simtrica existe una base ortonormal de R
n
as
Av
i

2
=(Av
i
)
t
(Av
i
)=v
t
i
(A
t
A)v
i
=v
i
t

i
v
i
=
i
de aqu que los autovalores de A
t
A son no
negativos, llamaremos valores singulares de una matriz A a la raz cuadrada de los
autovalores de A
t
A
3
Ejemplo 0:
Sea la transformacin con dominio en R
3
y codominio en R
2
tal que su matriz asociada
es A=

,
_

1 1 0
0 1 1
se desea determinar el vector x de R
3
que maximice Axcon la
restriccin x=1 y calcular la longitud mxima.
El vector que estamos buscando es el mismo vector que maximiza Ax
2
=x
t
A
t
Ax
Con la restriccin x=1,cmo se vio antes el vector en cuestin est asociado al
mximo autovalor de A
t
A= , en este caso es 3 que tiene asociado el
autovector [1,2,-1]cuyo autoversor es v0=[1/ ,2/ ,-1/ ] luego el vector requerido
es
Av0= cuya longitud es 3, el primer valor singular de A es la norma de Av0
que adems es el mximo de todas las normas para vectores unitarios.
Ejemplo 1:
Dada la matriz
7 0 0 0
0 3 0 0
0 0 0 0
A
1
1

1
1
]
tenemos que A
t
A=
as
1
7
,
2
3
,
3
0
,
4
0
.
TEOREMA DE LA DESCOMPOSICIN EN VALORES SINGULARES
DE UNA MATRIA REAL
Sea A una matriz real mxn de rango r entonces se verifican que: existe una matriz S
mxn que en su diagonal principal contiene y la matrices
ortogonales U mxm y Vnxn tales que A=USV
t
, a esta factorizacin la denominamos de
valores singulares para matrices de coeficientes reales.
La demostrcin: consideremos los autovalores de A
t
A, digamos adems
es bon de R
n
luego es base ortogonal de Col(A) que
normalizada pasa a ser base ortonormal .
4
En efecto de aqu que Av
i
es ortogonal a Av
j
donde y Extendiendo el
conjunto hasta una base ortonormal de R
m
y sean
son matrices ortogonales
Entonces US
es:
=AV. De US=AV y por ser V ortogonal ,
USV
t
=AVV
t
=A.
Ejemplo elemental
Volvamos al caso
Dada la matriz
7 0 0 0
0 3 0 0
0 0 0 0
A
1
1

1
1
]
tenemos que los valores singulares son
as
1
7
,
2
3
,
3
0
,
4
0
. Las matrices V
t
=I
4
, U=I
3
, S=A

Ejemplo 3 para matrices de coeficientes reales
Dada la matriz calcular nmeros ,valores singulares de
A y matrices que verifiquen:
a) .
b) y son ortogonales .
c)
5
Solucin Seguimos el mtodo general expuesto anteriormente.
Los valores propios de son por tanto y .
Hallemos los subespacios propios asociados a
Unas respectivas bases son y . Una base ortonormal formada por
vectores propios de es por tanto .
En consecuencia la matriz es
Los valores singulares son . Los vectores son
Extendemos a una base ortonormal de . Un vector
ortogonal a y ha de cumplir y .
Elegimos por ejemplo , que normalizndolo obtenemos
. La descomposicin pedida es por tanto
6
LA DESCOMPOSICIN EN VALORES SINGULARES SE EXTIENDE A
MATRICES COMPLEJAS
Conjugada de una matriz A : en C
mxn
es otra matriz cuyos coeficientes son los
conjugados de los coeficientes de A
=
para todo i{1m} y j{1n}
Traspuesta de la conjugada( o conjugada de la traspuesta): denotaremos A
*
= =
De lo anterior se deduce que para matrices de coeficientes reales A= , luego A
*
=A
t
Definicin: una matriz compleja A tal que A
*
=A
-1
se dice que es unitaria
Proposicin: son equivalentes las siguientes afirmaciones
i) A es unitaria
ii) Las filas de A son un conjunto ortonormal de C
m
iii) Las columnas de A forman un conjunto ortonormal de C
n
Definicin: una matriz compleja cuadrada nxn se dice hermitiana o hermitica si A
*
=A,
lo que es equivalente a afirmar que
Proposicin: La matriz es hermitica, en efecto tenemos que
.
Vale notar que si la matriz es de coeficientes reales entonces
*
A A
=A
t
A y que
esta sera una matriz simtrica y por tanto ortogonalmente diagonalizable, es en este
caso que podemos deducir que:
,
Luego los 0,
Definicin: llamaremos valores singulares de una matriz A a las races cuadradas de los
autovalores de la matriz A*A, en el caso de matrices reales los valores singulares
corresponden a las races cuadradas de autovalores de A
t
A
TEOREMA 1: DESCOMPOSICIN EN VALORES SINGULARES PARA
MATRICES DE COEFICIENTES COMPLEJOS
Sea . Existen matrices unitarias , tales que
donde S contiene una submatriz diagonal con los
elementos diagonales todos con . A los
nmeros se les llama valores singulares de .
7
Demostracin Como fue probado antes la matriz es hermtica. Como
consecuencia del teorema espectral existe una base ortonormal en
formada por los autovectores de . Sea es autovalor de asociado al
autovector e
i
es decir, e
i
= e
i
Tenemos:
Supondremos sin prdida de generalidad que
Llamemos
La familia es ortonormal. Efectivamente
Podemos por tanto extender a una base ortonormal de .
Llamando y tenemos
8
Veamos qu matriz es
1) Si , . Es decir .
2) Para todo se verifica
3) y se verifica
(pues )
En consecuencia tenemos
SEUDOINVERSA DE UNA MATRIZ DIAGONAL
Dada la matriz diagonal,
1
2
0
0
r
D

1
1
1
1
1

1
1
1
1
1
]
O
O
de m x n su
seudoinversa es la matriz diagonal
D
+
de n x m,
9

1
2
1
1
1
0
0
r
D

+

1
1
1
1
1
1
1
1
1
1
1
]
O
O
SEUDOINVERSA EN FORMA GENERAL
Matriz pseudo-inversa de Moore-Penrose: Sea A la matriz real mxn de rango r y las
matrices reales ortogonales U mxm y V nxn .La descomposicin en valores
singulares es tal que A=U.S.V
t
entonces la matriz A+ = V.S1.U
t
, donde S1 es una
matriz nxm ,en cuya diagonal principal se encuentran los recprocos de los valores
singulares de A no nulos ordenados en forma decreciente, mientras que las dems
posiciones son 0,es la seudo inversa de Moore Penrose.
Cuando una matriz tiene su rango igual al mnimo entre la cantidad de filas y la de
columnas decimos que es de rango completo, en tal caso podemos calcular A
+
de la
siguiente forma:
Si el rango de A igual al nmero de filas A
+
=A
t
(A
t
A)
-1
Mientras que si el rango de
A es igual al nmero de columnas es A
+
=(A
t
A)
-1
A
t
Propiedades de Penrose:
1. A A
+
A = A
2. A
+
A A
+
= A
+
3. (AA
+
)
*
= AA
+
4. (A
+
A)
*
= A
+
A
Teorema 2:
Sea la matriz real A mxn de rango r y cuya d.e.s A=U.S.V
*
,donde
U es una mxm matriz.unitaria.
S es una mxn matriz con coeficientes no negativos en su diagonal y 0 fuera de
ella.
V es una nxn matriz unitaria.
entonces A
+
satisface las propiedades de Penrose,
Es A
+
as V S
+
U
*
.Veamos que A
+
is a pseudoinverse of A:
1. AA
+
A = USV
*
VS
+
U
*
USV
*
= USS
+
SV
*
= USV
*
= A
10
2. A
+
AA
+
= VS
+
U
*
USV
*
VS
+
U
*
= VS
+
SS
+
U
*
= VS
+
U
*
= A
+
3. (AA
+
)
*
= (USV
*
VS
+
U
*
)
*
= (USS
+
U
*
)
*
= U(SS
+
)
*
U
*
=
U(SS
+
)U
*
= USV
*
VS
+
U
*
= AA
+
4. (A
+
A)
*
= (VS
+
U
*
USV
*
)
*
= (VS
+
SV
*
)
*
= V(S
+
S)
*
V
*
= V(S
+
S)V
*
= VS
+
U
*
USV
*
= A
+
A
Teorema 3:
Dada una matriz mxn A una nica seudoinversa.
Demostracin: supongamos que para la matriz A existen las matrices X e Y que
verifican las condiciones de Penrose, entonces
* * * *
( ) ( ) ( ) ( )
X XAX
X XAYAX
X XAYAYAYAX
X XA YA Y AY AX




* * * * * * * *
* * * *
* * * *
* *
( ) ( )
( ) ( )
X A X A Y YY A X A
X AXA Y YY AXA
X A Y YY A
X YA Y YA
X YAYAY
X YAY
X Y





ac va (YA)*Y(AY)*
Ejemplos a) Del ejemplo 1
3 4
A=I AI
se obtiene
1/ 7 0 0
0 1/ 3 0
0 0 0
0 0 0
A
+
1
1
1

1
1
]
.
b) Del ejemplo 2 se obtiene

0 1.6 0.6
0 1.2 0.8
0 0 0
0 0 0
B
+
+
1
1
1

1
1
]
=
1 0 0 0.6 0.8 0 0
0 0 1
0 1/ 2 0 0.8 0.6 0 0
0 1 0
0 0 0 0 0 1 0
1 0 0
0 0 0 0 0 0 1
1 1
1
1 1

1
1 1

1
1 1
1
1 1
]
] ]
=

B
+
=
0 0 0 0
0.4 0.3 0 0
0.6 0.8 0 0
1
1

1
1
]
.
Referencias
11
[1] ] Murray-Lasso, M. A. (2007): Linear Vector Space Derivation of New
Expressions for the Pseudo
[2] Golub, G. H. & C. Reinsch (1971): Singular Value Decomposition and Least
Square Solutions.Contribution 1/10 in Wilkinson, J. H. & C. Reinsch: Handbook for
Automatic Computation.Volume II, Linear Algebra. Springer Verlag, New York,
pp. 134 151.
[3] Noble, B. (1969): Applied Linear Algebra. Prentice Hall, Inc., Englewood Cliffs,
NJ.
[4]Lay, D.(1999).lgebra lineal y sus aplicaciones. Addison Wesley. Mxico.pp
466-486
[5] Penrose, R. (1955): A Generalized Inverse for Matrices. Proceedings of the
Cambridge Philosophical Society, Vol. 51, pp. 406 413.
[6] Hefferon,J.(2000).Linear Algebra. Vermont U.S.A, pp 159-168
12
Ejercicios:
1) Encuentre la descomposicin en valores singulares de las matrices
5
4
1
1

]
,
[ ]
2 1
,
4 0 0
0 0 0
0 0 7
0 0 0
1
1
1
1
1
]
. R.
2 1
1
[5], [5 0],
1 2 25
P D Q
1

1
]
.
Encuentre
A
+
en el caso a)
*
A A
es invertible b)
*
A A
= I c) A es
hermitiana e idempotente.(
* 2
, A A A A ).
2) Pruebe que si A es hermitiana entonces
A
+
es hermitiana.
3) Demuestre las siguientes propiedades de la seudo inversa:
i)
* *
( ) AA A A
+ + +
ii)
* *
( ) A A AA
+ +

4) Demuestre mediante un ejemplo apropiado que ( ) AB B A


+ + +
.
5) Refirase al teorema 1 y demuestre que
*
1
r
j j j
j
A v u

.
6) Sea A una matriz de m x n de rango r. Defina
,
i i
u v
y
i

como en el
teorema 1. Demuestre que
1 *
1
j
r
j j
j
A u v
+

. (Compare con el problema


anterior).
7) Demuestre que si A es hermitiana y semidefinida positiva, entonces sus
valores propios son idnticos a sus valores singulares.
8) Demuestre que si A es una matriz de m x n de rango n entonces
* 1 *
( ) A A A A
+
.
9) Demuestre que la proyeccin ortogonal de C
n
sobre el espacio columna
de A es ( ) A A A
+ +
.
10) Demuestre que si A es simtrica, tambin A
+
lo es.
11) Demuestre que si A y B son de rango completo entonces ( ) AB B A
+ + +
.
Una matriz de m x n es de rango completo si rango(A) =min(m,n).
12) Demostrar que sea la matriz real A mxn de rango r y cuya d.e.s
A=U.S.V
t
entonces A
+
satisface las siguientes propiedades:
a) (A

= A, b) AA

A = A, c) A

AA

= A
+
,
d) (A

)

t
= (A

t
)

e) A

+
= (A
t
A)
+

A
t
13

Potrebbero piacerti anche