Sei sulla pagina 1di 215

Álgebra.

Cálculo matricial

Repaso
Contenidos

 Cálculo matricial
 Definiciones; identidad, simetría, traspuesta,
inversa, etc
 Operaciones con matrices y determinantes
 Cálculo de la inversa
 Factorización
 Descomposición de valor singular, eigenvectores y
eigenvalores; Componentes principales
 Problemas mal planteados (Hadamard) y mal
condicionados

Álgebra. Cálculo matricial 2


Lecturas recomendadas

 Cálculo matricial
 Hohn, F. (1981) “Álgebra de matrices” 3ª
Impresión. (Traducido al español)
 …es el que voy a seguir más o menos para la parte del
cálculo matricial

 Gentle, J. E. (2007) “Matrix Algebra; Theory,


computations and applications in Statistics”
Springer Texts in Statistics
 …de aquí he obtenido la parte de descomposición de
valor singular.

Álgebra. Cálculo matricial 3


DEFINICIONES Y TIPOS
BÁSICOS DE MATRICES

Álgebra. Cálculo matricial 4


Array
 Array: Colección de elementos estructurados
en sólidos rectangulares* [Gentle, 2007].
 …léase en filas, columnas, rectángulos,
hiperrectángulos, etc.
 A cada una de las direcciones del array se le
conoce como una dimensión.
 Al número de dimensiones del array se le conoce
como rango (rank en inglés).
*Un sólido es una región (subconjunto) de un espacio limitada (acotado) por superficies
(subvariedad topológica) llamadas caras. Veremos el concepto de (sub-)variedad
topológica, más adelante, pero por ahora baste con la definición intuitiva; objeto
localmente Euclídeo (plano). Rectangular significa que todas sus caras tienen 4 lados
(segmento de línea en el límite de una superficie o una cara), con los lados opuestos
teniendo igual longitud (magnitud).

Álgebra. Cálculo matricial 5


Array

 Según el rango, los arrays de más baja


dimensionalidad reciben un nombre especial:
 Rango 0: Escalar
 Rango 1: Vector
 Rango 2: Matriz
 Rango n: Tensor de rango n.

 NOTA: Un tensor es un operador en un espacio n-


dimensional y que se representa por un array de dicha
dimensión.

Álgebra. Cálculo matricial 6


Matriz
 Matriz:
 Informal: Disposición
rectangular de números o
funciones [en general de
objetos].[Hohn, 1981]

 Formal: Array bidimensional


(rango 2) [Gentle, 2007]

 Normalmente la matriz se
denota con letras
mayúsculas, e.g. A.

 …y a cada uno de los


elementos se denota como aij
donde los subíndices
identifican la fila y la
columna de la matriz.

Álgebra. Cálculo matricial 7


Matriz

  NOTA: El concepto de rango es


dependiente del contexto.
 Por un lado denota simplemente la
dimensionalidad de un array.
 Aplicado a matrices, además a menudo indica el
tamaño de la mayor submatriz no singular (léase
sin relaciones linealmente dependiente entre las
filas o columnas).
 Finalmente, aplicado a una función es el
subconjunto del codominio que tiene alguna pre-
imagen.

Álgebra. Cálculo matricial 8


Matriz
 Matriz:
 La cardinalidad (número
de elementos) de cada
una de las dimensiones
de la matriz conforman
su orden.

 Ejemplo: Matriz de orden


mxn

 Si m=n entonces se dice


que la matriz es
cuadrada y simplemente
que su orden es n.

Álgebra. Cálculo matricial 9


Matriz

 Para una matriz


cuadrada:
 Los elementos aii
conforman la diagonal
principal.

 Los elementos an1,an-


1,2,…, a1n constituyen la
diagonal secundaria.

Álgebra. Cálculo matricial 10


Matriz
 ☞ Esto NO es una
diagonal aunque te
hayan enseñado a
llamarla así para
calcular
determinantes!
 Dicho eso, no hay
daño en que la utilices
como te han enseñado
como truco para
calcular determinantes

Álgebra. Cálculo matricial 11


Submatriz

 Submatriz:  Ejemplos:
 Matriz que resulta de
eliminar algunas filas
y/o columnas de una
matriz.
 Las filas y/o columnas
eliminadas no tiene por
Figura de [http://mathworld.wolfram.com/Submatrix.html]
que ser adyacentes.

* Dos filas ai* y aj* son adyacentes si |i-


j|=1. De forma análoga, dos columnas a*i y
a*j son adyacentes si |i-j|=1. Figura de [http://en.wikipedia.org/wiki/Matrix_(mathematics)]

Álgebra. Cálculo matricial 12


Matriz cero

 Matriz cero o nula


 Un matriz en la que
todos los elementos
son 0.
 No tiene por que ser
una matriz cuadrada.
 Se denota
simplemente como 0.

Álgebra. Cálculo matricial 13


Matriz diagonal

 Matriz diagonal
 Una matriz cuadrada en la que todos los elementos
fuera de la diagonal principal son 0.

Álgebra. Cálculo matricial 14


Matriz escalar
 Matriz escalar
 Una matriz cuadrada en la
que todos los elementos
fuera de la diagonal
principal son 0, y los de la
diagonal principal son
iguales al escalar a.

 Si además a=1, entonces


matriz unidad o identidad.
 ☞ Más adelante veremos
que la matriz unidad es el
elemento neutro de la
multiplicación de matrices, y
la relación de la matriz
escalar y la unidad a través
de la operación de
multiplicación por un escalar.

Álgebra. Cálculo matricial 15


Matriz Identidad

 Matriz identidad o
unidad
 Informal: Matriz en la
cual los elementos de
la diagonal principal
son 1 y el resto de los
elementos son 0.

 Formal: Matriz I tal que


para cualquier otra
matriz se cumple que*:
 AIn = ImA = A
* Aún no hemos definido el producto de matrices.
Álgebra. Cálculo matricial 16
Matriz Identidad

 Matriz identidad o


unidad
 La matriz identidad
únicamente está
definida sobre una
matriz cuadrada.


 Observa que con
matrices no cuadradas
no se cumpliría la
definición formal.
* Esta notación compacta e.g. (I 0), proviene de la partición de la matriz. La veremos un
poco más adelante, en la subsección de operaciones con matrices.
Álgebra. Cálculo matricial 17
Matriz triangular
 Matriz triangular  Triangular superior
 Un matriz cuadrada en la
que todos los elementos
por encima o por debajo
de la diagonal principal
son 0.

 En el caso de que los 0


sean los elementos por
encima se denomina  Triangular inferior
triangular inferior.

 En el caso de que los 0


sean los elementos por
debajo se denomina
triangular superior.

Álgebra. Cálculo matricial 18


Matriz simétrica
 Matriz simétrica:
 Informal: Una matriz
simétrica es aquella
cuyos elementos son
simétricos
(respectivamente
iguales) con respecto a
la diagonal principal
=
 Formal: Sea una matriz
cuadrada A=[aij] de orden
nxn. Se dice que la
matriz A es simétrica si
∀i,j : aij=aji

Álgebra. Cálculo matricial 19


Matriz simétrica

 Ejemplo:

* ¡Ojo! Aún no hemos visto la operación de trasposición de matrices.

Álgebra. Cálculo matricial 20


Matriz antisimétrica
 Matriz antisimétrica:
 Informal: Una matriz
antisimétrica es aquella
cuyos elementos son
simétricos
(respectivamente
iguales) con respecto a
la diagonal principal pero
de distinto signo

 Formal: Sea una matriz


cuadrada A=[aij] de orden
nxn. Se dice que la
matriz A es antisimétrica
si ∀i,j : aij=-aji

Álgebra. Cálculo matricial 21


Matriz antisimétrica

 Ejemplo:

* ¡Ojo! Aún no hemos visto la operación de trasposición de matrices.

Álgebra. Cálculo matricial 22


Otras matrices importantes

 Una matriz ortogonal es aquella en la que AAT=I.


 En otras palabras; si su traspuesta es igual a su inversa
AT=A-1.
 …pero aún no hemos visto la traspuesta ni la inversa.

 Una matriz idempotente es aquella en la que


A=An.
 Observa que siempre son matrices cuadradas.
 …pero aún no hemos visto la multiplicación de matrices.

 Una matriz nilpotente es aquella que para algún


entero positivo p se cumple que Ap=0.
 …pero aún no hemos visto la multiplicación de matrices.

Álgebra. Cálculo matricial 23


Otras matrices importantes

  NOTA: Otras matrices que tienen ciertas


propiedades también reciben un nombre común,
pero no podemos ver todas aquí.
 Por ejemplo en matrices complejas (aquellas cuyos
elementos son números complejos) tenemos;
 Matriz conjugada: Es la matriz complementaria a otra que
resulta de reemplazar cada elemento por su conjugado
complejo
 Matriz adjunta: La conjugada traspuesta.
 Por razones históricas, también se llama matriz adjunta a la
matriz de cofactores traspuesta. Veremos la matriz de
cofactores cuando veamos el cálculo de la inversa.
 Matriz Hermitiana: Una matriz es Hermitiana si es igual a su
conjugada

Álgebra. Cálculo matricial 24


OPERACIONES CON
MATRICES Y
DETERMINANTES

Álgebra. Cálculo matricial 25


Partición de matrices
 Partición de matrices:
 Un partición de una matriz
es un conjunto de
submatrices tal que:
 Cada submatriz está
conformada por elementos
adyacentes de la matriz
original
 Juntas conforman la matriz
original
 Todas las líneas de partición
deben atravesar
completamente la matriz.

 Esto tiene ventajas:


 En la realización de algunos
cálculos, y
 conceptualmente.

Álgebra. Cálculo matricial 26


Partición de matrices

 Ejemplos:

 Álgebra. Cálculo matricial


 27
Partición de matrices

 Ejemplo:

Álgebra. Cálculo matricial 28


Igualdad de Matrices

 Igualdad de matrices
 Dos matrices son iguales si todos sus elementos
aij y bij correspondientes son iguales
 ∀aij∈A, bij∈B : aij=bij

 La igualdad de matrices es una clase de


equivalencia:
 Reflexiva: A=A
 Simétrica: A=B ⇔ B=A
 Transitiva: A=B y B=C ⇒ A=C

Álgebra. Cálculo matricial 29


Suma de matrices

 Suma de matrices
 Sean dos matrices A=[aij]mxn y B=[bij]mxn del mismo
orden. Se define la suma de matrices A+B como:

 A+B = [(aij+bij)]mxn

 Si A y B tienen el mismo orden se dice que son


conformables para la suma.

 La suma de matrices no está definida si las matrices


no tienen el mismo orden.

Álgebra. Cálculo matricial 30


Suma de matrices

 Ejemplo:

Álgebra. Cálculo matricial 31


Suma de matrices

 Suma de matrices
 Propiedades:
 Sean A, B y C matrices conformables para la suma:
 Asociativa: A+(B+C)=(A+B)+C
 Elemento identidad: A+0 = A
 …tal que 0 representa a la matriz cero de orden mxn (el
mismo orden de A).
 Cancelación (de la adición): A+C=B+C ⇔ A=B
 Conmutativa: A+B=B+A

Álgebra. Cálculo matricial 32


Matriz negativa
 Matriz negativa:
 Informal: La matriz negativa es la que se obtiene
cambiando el signo* de todos los elementos.

 Formal: Sea una matriz A=[aij]mxn. La matriz


negativa de A, se denota por –A y se define
como: -A=[-aij]mxn

 Se cumple que: A+(-A)=0


 …en este sentido; la matriz negativa es la inversa
respecto a la adición.
* El signo es el atributo (imagen en una determinada relación) de un número de ser
positivo (mayor que 0) o negativo (menor que 0). Observa que el 0 no tiene signo, y que
el signo (una función al fin) asume una relación de orden.
Álgebra. Cálculo matricial 33
Matriz negativa

 Ejemplo:

Álgebra. Cálculo matricial 34


Substracción de matrices

 Substracción de matrices
 Sean dos matrices A=[aij]mxn y B=[bij]mxn del mismo
orden. Se define la substracción de matrices A-
B como:

 A-B =A+(-B) = [(aij+(-bij))]mxn = [(aij-bij)]mxn

 La substracción de matrices no está definida si


las matrices no tienen el mismo orden.

Álgebra. Cálculo matricial 35


Substracción de matrices

 Ejemplo:

Álgebra. Cálculo matricial 36


Substracción de matrices

 Substracción de matrices
 Propiedades:
 Sean A, B y C matrices del mismo orden:
 A-A=0
 C+A=B ⇒ C=B-A

Álgebra. Cálculo matricial 37


Multiplicación por un escalar

 Multiplicación por un escalar


 Sean una matriz A=[aij]mxn y sea un escalar c. Se
define la multiplicación por un escalar cA
como:

 cA= [caij]mxn

Álgebra. Cálculo matricial 38


Multiplicación por un escalar

 Ejemplo:

Álgebra. Cálculo matricial 39


Multiplicación por un escalar

 Multiplicación por un escalar


 Propiedades:
 Asociativa: (cd)A=c(dA)
 Elemento neutro: 1A=A
 Conmutativa: cA=Ac
 Distributiva respecto a los escalares: (c+d)A=cA+dA
 Distributiva respecto a la matriz: c(A+B)=cA+cB

Álgebra. Cálculo matricial 40


Multiplicación por un escalar

 Toda matriz escalar está relacionada con la


matriz identidad mediante la multiplicación
por un escalar:

Álgebra. Cálculo matricial 41


Multiplicación de matrices

 Multiplicación de matrices
 Sean dos matrices A=[aij]mxn y B=[bij]nxk. Se define
la multiplicación de matrices C=AB como:

 En otras palabras; se multiplican filas por


columnas

Álgebra. Cálculo matricial 42


Multiplicación de matrices

 Multiplicación de matrices
 Observa los ordenes de las matrices:

 Si el número de columnas de A es igual al número de filas


de B, entonces se dice que A es conformable con B para la
multiplicación.
 El producto de matrices no está definido en otros casos.
Figura de [www.matrix44.net]
Álgebra. Cálculo matricial 43
Multiplicación de matrices

 Ejemplo:

Álgebra. Cálculo matricial 44


Multiplicación de matrices

 Ejemplo:

Figura de [www.c-sharpcorner.com]
Álgebra. Cálculo matricial 45
Multiplicación de matrices

 Ejemplo:

Figura de [http://en.wikipedia.org/wiki/Matrix_multiplication]
Álgebra. Cálculo matricial 46
Multiplicación de matrices

 Multiplicación de matrices
 Propiedades:
 NO es conmutativa: AB≠BA
 ☞ ¡Ojo! Esto es en general, pero hay casos específicos
donde si se cumple que AB=BA
 Asociativa: (AB)C=A(BC)
 Elemento neutro o identidad: AI=IA=A
 ☞ Se cumple para matrices cuadradas. Lo vemos en un
momento
 Distributiva con respecto a la suma: (A+B)C=AC+BC
 Divisores de cero: AB=0 no implica que A=0 o B=0

Álgebra. Cálculo matricial 47


Trasposición de matrices
 Trasposición de
matrices:
 Informal: La trasposición
de matrices es la
operación que consiste en
intercambiar filas por
columnas.
 Se denota AT

 Formal: Sea una matriz


A=[aij] de orden mxn. Se
define la trasposición de
la matriz como la matriz AT
=[aTij] de orden nxm cuyos
elementos se definen como:
aTij = aji y a AT se le conoce
como la matriz traspuesta.

Álgebra. Cálculo matricial 48


Trasposición de matrices

 Ejemplo:

Figura de: [developer.amd.com]

Álgebra. Cálculo matricial 49


Trasposición de matrices

 Ejemplo:

Álgebra. Cálculo matricial 50


Trasposición de matrices

 Trasposición de matrices:
 Propiedades:
 Sean AT y BT las traspuestas de A y B respectivamente
y a un escalar. Entonces:
 (AT)T=A
 (A+B)T=AT+BT
 (aA)T=aAT
 (AB)T=BTAT

 A=AT  A es simétrica
 A=-AT  A es antisimétrica

Álgebra. Cálculo matricial 51


Transformaciones elementales de matrices

 Muchas operaciones de matrices (ej. algunas


factorizaciones, resolución de sistemas de
ecuaciones, etc) se pueden lograr aplicando una
secuencia de 3 transformaciones elementales:
 El intercambio de orden de dos filas (o columas)
 La multiplicación por un escalar de una fila (o columna), y
 El reemplazo de una determinada fila (o columna) por la
suma de esa fila (o columna) y un múltiplo escalar de otra
fila (o columna).

 A su vez, estas 3 transformaciones (que veremos


en un instante), se materializan mediante una
multiplicación de matrices.

Álgebra. Cálculo matricial 52


Transformaciones elementales de matrices

 Las transformaciones elementales sobre una


matriz se consiguen mediante una multiplicación
de matrices:

 Por un lado, la matriz que se va a transformar A.

 Por otro lado, una matriz que representa la


transformación M, llamada matriz de transformación
elemental o operador elemental.
 La matriz de transformación elemental no es otra que la
matriz identidad a la que se le ha aplicado la operación
correspondiente.

Álgebra. Cálculo matricial 53


Transformaciones elementales de matrices

 Si se van a transformar filas, entonces la matriz


de transformación elemental pre-multiplica a la
matriz a transformar.
 MA

 Si se van a transformar columnas, entonces la


matriz de transformación elemental post-
multiplica a la matriz a transformar.
 AM

 ☞ Esto no es baladí, ya que recuerda que no se


cumple la conmutativa.

Álgebra. Cálculo matricial 54


Transformaciones elementales de matrices

 Intercambio de filas (o columnas)


 En esta operación, la matriz de transformación
elemental es la matriz identidad con las filas (o
columnas) p y q intercambiadas.

 Mpq debe ser conformable para el producto con


respecto a la matriz A.

 Es posible permutar filas y columnas:


 MpqAMrs

Álgebra. Cálculo matricial 55


Transformaciones elementales de matrices

 Intercambio de filas (o columnas):


 Ejemplo: Sea la matriz de transformación
elemental para intercambiar las líneas 2 y 3.

Álgebra. Cálculo matricial 56


Transformaciones elementales de matrices

 Intercambio de filas (o columnas):


 Ejemplo: Podemos transformar filas:

 O columnas

Álgebra. Cálculo matricial 57


Transformaciones elementales de matrices

 Intercambio de filas (o columnas):


 Propiedades:
 Mpq es simétrica
 Corolario: Mpq = Mqp

 A = Mpq Mpq A = A Mpq Mpq

Álgebra. Cálculo matricial 58


Transformaciones elementales de matrices

 Multiplicación por un escalar


 En esta operación, la matriz de transformación
elemental es la matriz identidad en la que el p-
ésimo elemento de la diagonal se ha multiplicado
por el escalar a.

 Mp(a) debe ser conformable para el producto con


respecto a al matriz A.

Álgebra. Cálculo matricial 59


Transformaciones elementales de matrices

 Multiplicación por un escalar:


 Ejemplo: Sea la matriz de transformación
elemental para multiplicar por a la segunda línea.

Álgebra. Cálculo matricial 60


Transformaciones elementales de matrices
 Multiplicación por un escalar:
 Ejemplo: Podemos transformar filas:

 O columnas

Álgebra. Cálculo matricial 61


Transformaciones elementales de matrices

 Multiplicación por un escalar:


 Propiedades:
 Sea a≠0, se cumple que A=Mp(1/a)Mp(a)A

Álgebra. Cálculo matricial 62


Transformaciones elementales de matrices

 Reemplazo de filas (o columnas)


 En esta operación, la matriz de transformación
elemental es la matriz identidad donde se ha
insertado un escalar b en la posición (p,q).

 Mpq(b) debe ser conformable para el producto con


respecto a al matriz A.

 La operación de reemplazo obtenida por Mpq(b)


es ap←baq+ap
Álgebra. Cálculo matricial 63
Transformaciones elementales de matrices
 Reemplazo de filas (o columnas):
 Ejemplo: Sea la matriz de transformación
elemental para reemplazar la línea 2 con la suma
de la línea 2 y b veces la línea 3.

Álgebra. Cálculo matricial 64


Transformaciones elementales de matrices
 Reemplazo de filas (o columnas):
 Ejemplo: Podemos transformar filas:

 O columnas

Álgebra. Cálculo matricial 65


Transformaciones elementales de matrices

 Reemplazo de filas (o columnas):


 Propiedades:
 A=Mpq(-a)Mpq(a)A

Álgebra. Cálculo matricial 66


Funciones de matrices a escalares

 Existen varias funciones muy útiles que mapean


matrices a escalares. Por ejemplo:

 Norma(s)
 ☞ No es una función única, sino todo un conjunto de
funciones que cumplen con unas determinadas propiedades.
Esto se ve en la parte de espacios vectoriales, pero no aquí.

 Traza

 Determinante

Álgebra. Cálculo matricial 67


Traza

 Traza:
 Informal: La traza de una matriz es la suma de los
elementos de la diagonal principal.

 Formal: Sea ℭ el conjunto de matrices cuadradas


y ℂ el conjunto de números complejos. La traza
es la función:

Álgebra. Cálculo matricial 68


Traza

 Ejemplo:

Álgebra. Cálculo matricial 69


Traza

 Propiedades:
 tr(A) = tr(AT)

 ∀c∈ℂ : tr(cA) = c⋅tr(A)

 Sea una matriz A y su partición:


 …entonces tr(A)= tr(A11)+ tr(A22)

 tr(A+B)= tr(A)+ tr(B)

 tr(AB)= tr(BA)

Álgebra. Cálculo matricial 70


Traza

 Interpretación geométrica:
 La traza de una matriz, si la matriz es
diagonalizable, coincide con la/el suma/producto
de los valores propios* de dicha matriz.
 Ya que los eigenvalores representan una dilatación, la
traza representa con la dilatación con que la matriz
actúa sobre un determinado conjunto de eigenvectores.
 Veremos estos conceptos en un momento

* Los valores propios de una matriz representan un ratio de distorsión de la


longitud.

Álgebra. Cálculo matricial 71


DETERMINANTES

Álgebra. Cálculo matricial 72


Determinantes
 La definición “informal” del determinante de una matriz no
es sencilla. En su forma más básica, el determinante de
una matriz es…

 “un escalar asociado a una matriz cuadrada”


[Wikipedia:Determinant]
 ☞ …pero eso no dice mucho, también lo son la traza y las
normas,…salvo eso, que es un escalar.

 “Expresión que se obtiene a partir de sus elementos aplicando


ciertas reglas” [Real Academia de la lengua]
 ☞ …tampoco dice mucho más

 Otros (e.g. MathWorld o [HohnF1981]) directamente evitan dar


una definición informal.

Álgebra. Cálculo matricial 73


Determinantes

 Formal: Sea ℭ el conjunto de matrices


cuadradas y ℂ el conjunto de números
complejos. El determinante es la función
[HohnF1981, pg 67-68]:

 y se denota como det(A) o |A|.

 …falta “simplemente” indicar como calcular


det(A).

Álgebra. Cálculo matricial 74


Determinantes

 Cálculo del determinante:


 Sea una matriz de orden 1. Entonces el valor del
determinante es igual al único elemento que la
compone:

 A=(a11) ⇒ det(A)=a11

Álgebra. Cálculo matricial 75


Determinantes

 Cálculo del determinante:


 Sea una matriz de orden 2. Entonces el valor del
determinante es igual a:

 …o sea, el producto de la diagonal principal


menos el producto de la diagonal secundaria.

Álgebra. Cálculo matricial 76


Determinantes

 Cálculo del determinante:


 Sea una matriz A cuadrada de orden n. Sea la
submatriz A/(i,j)* la matriz resultante de eliminar la
fila i y la columna j en A.
 Se llama menor del elemento aij al determinante
de la submatriz A/(i,j):

*Esta notación no es estándar. Una notación más común para denotar a la submatriz
resultante de una eliminación arbitraria de filas y columnas es: A[i1 i2 … ik; j1 j2 … jr].

Álgebra. Cálculo matricial 77


Determinantes

 Cálculo del determinante:


 En general, sea una matriz A cuadrada de orden n. El
valor del determinante se puede calcular de forma
recursiva como:

 Recuerda: det(A/(i,j)) es el menor del elemento aij.


 Observa que (en el sumatorio) sólo es necesario
recorrer la primera columna o la primera fila.
 ☞ De hecho, cualquier fila o columna es válida…

Álgebra. Cálculo matricial 78


Determinantes

 Ejemplo: Para una matriz de orden 3


quedaría:

Álgebra. Cálculo matricial 79


Determinantes

 Ejemplo: Sea una matriz de orden 3

= 3[(1-2)-(3-1)]-(-1)[(1-2)-(32)]+0[(1-1)-(12)]
= 3[-2+3]+1[-2-6]+0[-1-2]
= 3[1]+1[-8]+0[-3]
= 3-8+0
= -5

Álgebra. Cálculo matricial 80


Determinantes

Pero, ¿qué significa


o qué representa el
determinante?
Álgebra. Cálculo matricial 81
Determinantes
 Interpretación geométrica del
determinante:
 Sea una matriz

 Supongamos que cada fila de la


matriz es un vector*.

 Entonces, el determinante de la
matriz es el área del rectángulo
formado por estos vectores.

Fuente y figura de:


[http://www.sharetechnote.com/html/Handbook_EngMath_Matrix_Determinent.html]

* Aún no hemos visto vectores.

Álgebra. Cálculo matricial 82


Determinantes
 Interpretación geométrica del determinante:
 Por supuesto el área puede ser 0 (det(A)=0).

Fuente y figuras de:


[http://www.sharetechnote.com/html/Handbook_EngMath_Matrix_Determinent.html]
* Aún no hemos visto vectores.

Álgebra. Cálculo matricial 83


Determinantes
 Interpretación geométrica del determinante:
 Esta interpretación es extensible a mayores, donde es
determinante sería el (hiper)volumen formado por los vectores
fila de la matriz. Por ejemplo en 3D:

Fuente y figuras de:


[http://www.sharetechnote.com/html/Handbook_EngMath_Matrix_Determinent.html]
* Aún no hemos visto vectores.

Álgebra. Cálculo matricial 84


Determinantes

 Interpretación geométrica del determinante:

Fuente y figura de:


[http://www.sharetechnote.com/html/Handbook_EngMath_Matrix_Determinent.html]

Álgebra. Cálculo matricial 85


Determinantes

 Transformación lineal: Efecto de escalado del


determinante:
 “…el valor del determinante de una matriz cuadrada
es […] el factor de escala por el que un área o
volumen (o análogo de más alta dimensión) quedaría
multiplicado bajo la transformación lineal asociada [a
la matriz], y cuyo signo representa la orientación. Por
ejemplo, una matriz 2x2 con una determinante -2, al
aplicarla a un área finita, transformaría esta área en
una región del doble de tamaño pero invirtiendo su
orientación” [Wikipedia:Determinant]

Álgebra. Cálculo matricial 86


Determinantes
 Transformación lineal: Efecto de escalado del
determinante:
 Sea la matriz A=[3]. El determinante de la matriz asociada a
det(A)=3. Supongamos que llevamos a cabo la multiplicación
T(x)=Ax entonces:

 Fuentes:
 http://mathinsight.org/determinant_geometric_properties
 Enlace activo a 1-Oct-2015.
 http://mathinsight.org/determinant_linear_transformation
 Enlace activo a 1-Oct-2015.
 En esta tienes una demo interactiva (applet) sobre las transformaciones
lineales en 2D y 3D

Álgebra. Cálculo matricial 87


Determinantes
 Transformación lineal: Efecto de escalado del determinante:
 En 2D, sea la matriz A=[-2 0; 0 -2] cuyo det(A)=(-2)(-2)-00=4. Supongamos que llevamos a
cabo la operación T(x)=Ax con x=[x1 x2]’ℝ2 entonces:

 Observa como el área se cuadruplica, y la orientación se mantiene (hemos rotado pero no


hemos “volteado”).
 Fuentes y figura:
 http://mathinsight.org/determinant_geometric_properties
 Enlace activo a 1-Oct-2015.
 http://mathinsight.org/determinant_linear_transformation
 Enlace activo a 1-Oct-2015.
 En esta tienes una demo interactiva (applet) sobre las transformaciones lineales en 2D y 3D

Álgebra. Cálculo matricial 88


Determinantes
 Transformación lineal: Efecto de escalado del determinante:
 Otro ejemplo en 2D, sea la matriz A=[-1 -1; 1 3] cuyo det(A)=(-1)3-(-1)1=-2. Supongamos
que llevamos a cabo la operación T(x)=Ax con x=[x1 x2]’ℝ2 entonces:

 Observa como el área se duplica, y la orientación se “voltea” (no hay forma que únicamente
“rotando” yo llegue a esa configuración de colores).
 Fuentes y figura:
 http://mathinsight.org/determinant_geometric_properties
 Enlace activo a 1-Oct-2015.
 http://mathinsight.org/determinant_linear_transformation
 Enlace activo a 1-Oct-2015.
 En esta tienes una demo interactiva (applet) sobre las transformaciones lineales en 2D y 3D

Álgebra. Cálculo matricial 89


Determinantes

 Una matriz A es singular si su determinante


det(A) es 0.

 Una matriz A es unimodular si su


determinante det(A) es 1.

Álgebra. Cálculo matricial 90


Determinantes

 Propiedades:
 Si se intercambian cualesquiera dos líneas paralelas
en la matriz A, el determinante de la matriz resultante
es –det(A).

 ∀A∈ℭ : det(A)=det(AT)
 Siendo ℭ el conjunto de matrices cuadradas
 …léase, el determinante de A es igual al de su traspuesta.

 Si ∃i∈ℕ : ∀i=1…n, aij = 0 ⋁ aji = 0 ⇒ det(A)=0


 …en otras palabras; Si todos los elementos de una fila o
columna son 0, entonces det(A)=0

Álgebra. Cálculo matricial 91


Determinantes

 Propiedades:
 Si A tiene dos líneas paralelas idénticas
(duplicadas), entonces det(A)=0

 Puedes encontrar la demostración en:


[https://www.khanacademy.org/math/linear-
algebra/matrix_transformations/determinant_depth/v/line
ar-algebra--duplicate-row-determinant]
 Enlace vigente a 1-Oct-2015.
 …o alternativamente en el video de la siguiente
diapositiva

Álgebra. Cálculo matricial 92


Determinantes

 Propiedades:
 Sea B una matriz cuadrada igual a A, excepto que todos
los elementos de alguna línea de B son k veces los
elementos de la correspondiente línea en A. Entonces,
det(B)=k⋅det(A).

Álgebra. Cálculo matricial 93


Determinantes

 Propiedades:
 Si en una matriz A sumamos cualquier múltiplo de
una línea a una línea paralela diferente, entonces
el determinante de la matriz resultante es igual a
det(A).

Álgebra. Cálculo matricial 94


Determinantes
 Propiedades:
 Ejemplo: Sea la matriz A:

 …sumamos a la segunda fila -2 veces la tercera para


obtener B:

Álgebra. Cálculo matricial 95


Determinantes

 Propiedades:
 Ejemplo (Cont.): Calculamos los determinantes:

 det(A) = 3⋅(2)-2⋅(3)+1⋅(5)=5

 det(B) = 3⋅(2)-0+1⋅(-1)=5

Álgebra. Cálculo matricial 96


Determinantes

 Propiedades:
 Sean dos matrices A y B de orden n. Entonces:
det(AB) = det(A)det(B)
 Puedes encontrar la demonstración en [Hohn F 1981,
pg 83-4]

Álgebra. Cálculo matricial 97


Determinantes y transformaciones
elementales
 Propiedades:
 El determinante de una transformación de intercambio
det(Mpq) = -1
 Corolario: det(MpqA) = -det(A)
 Corolario: det(MpqA) = det(Mpq) det(A)

 El determinante de una transformación de


multiplicación por un escalar det(Mp(b)) = b
 Corolario: det(Mp(b)A) = b det(A)

 El determinante de una transformación de reemplazo


det(Mpq(b)) = 1
IMPORTANTÍSIMO!!!!
 Corolario: det(Mpq(b)A) = det(A)

Álgebra. Cálculo matricial 98


Determinantes

 Ejercicio: Sea una matriz A de orden 3 cuyo


determinante det(A)=5. Calcular si es posible
el valor exacto de:
a) det(AT)
b) det(A+I)
c) det(2A)

Ejercicio obtenido de: [http://mcs205.cankaya.edu.tr/uploads/files/e1.pdf]

Álgebra. Cálculo matricial 99


Determinantes
 Ejercicio (Cont.):
 Solución:
 (a) det(AT)=det(A)=5

 (b) No hay suficiente información

 (c) det(2A)=2ndet(A) = 23det(A)=8det(A)=40


 Este último no es tan obvio hecho así “directamente”;
¿Alguien se anima a probar que efectivamente así es
haciéndolo de forma explícita?

Ejercicio obtenido de: [http://mcs205.cankaya.edu.tr/uploads/files/e1.pdf /]

Álgebra. Cálculo matricial 100


Determinantes

 Rango de una matriz:


 Informal: El número de dimensiones
independientes (ortogonales) entre si.

 Formal: Se dice que una matriz A es de rango r si


y sólo si tiene por lo menos una submatriz no
singular (det(A)≠0) de orden r y no tiene
submatrices no singulares de orden mayor que r.

Álgebra. Cálculo matricial 101


Determinantes

 Rango de una matriz:

 Cuando a una matriz se le aplica una


transformación elemental, resulta una matriz del
mismo orden y mismo rango.
 …por ende, ninguna sucesión finita de transformaciones
elementales puede alterar el rango de una matriz.

Álgebra. Cálculo matricial 102


Determinantes

 Rango de una matriz:


 Hemos dicho de manera informal que el rango es
el número de dimensiones independientes
(ortogonales) entre si.

 De forma intuitiva los vectores (1,0,0), (0,1,0) y


(0,0,1) son ortogonales entre si;
 En otras palabras; no puedo lograr obtener ninguno de
ellos a partir de una combinación de los otros dos.

Álgebra. Cálculo matricial 103


Determinantes
 Rango de una matriz:
 Con esta intuición anterior;
 Se define la forma normal o canónica de una matriz A como
otra matriz N de la forma:

 donde Ir es la matriz identidad de rango r y la matriz N tiene el


mismo rango y orden que A.

 La forma normal N de la matriz A, se puede obtener mediante


transformaciones elementales.

Álgebra. Cálculo matricial 104


Determinantes

 Equivalencia de matrices:
 Dos matrices A y B son equivalentes si y sólo si, cada una
puede transformarse en la otra por transformaciones
elementales.

 Donde L y R denotan matrices de transformaciones elementales


por la izquierda y la derecha respectivamente con i,j,m,nℕ+
(números completos) finitos pero no necesariamente iguales.
 …en otras palabras, si su forma normal es la misma.
 …en otras palabras, si tienen el mismo rango r y orden
sxs.

Álgebra. Cálculo matricial 105


Determinantes

 Equivalencia de matrices:
 Normalmente lo verás de forma “condensada”:
 Dos matrices A y B son equivalentes si y sólo si,
cada una puede transformarse en la otra:

 siendo P y Q matrices invertibles.

Álgebra. Cálculo matricial 106


CÁLCULO DE LA INVERSA

Álgebra. Cálculo matricial 107


Matriz inversa

 Matriz inversa o recíproca:


 Informal: Es como el recíproco de un número pero
para matrices

Figuras de: [http://www.mathsisfun.com/algebra/matrix-inverse.html]

Álgebra. Cálculo matricial 108


Matriz inversa

 Matriz inversa o recíproca:


 Formal: La matriz inversa o recíproca A-1 de una
matriz A es aquella que cumple que
 AA-1=A-1A=I

 ☞ Observa que no sólo se requiere que


 AA-1=I y que A-1A=I por separado;
 también se requiere que AA-1=A-1A.
 Esto se “aprovecha” para la demostración de que sólo
las matrices cuadradas tienen inversa.

Álgebra. Cálculo matricial 109


Matriz inversa

 Matriz inversa o recíproca:


 ¿Por qué es tan importante la matriz inversa?
 Observa que hemos definido el producto de matrices, pero no la
división.

 Esto no es un olvido; la división de matrices no está definida.

 De forma que para “dividir” matrices, lo que realmente hacemos


es multiplicar por la inversa.

 Ejemplo:
 Para calcular X dado XA=B no podemos calcular X=B/A
 En su lugar multiplicamos por la inversa en ambos lados:
 XAA-1=BA-1
 XI=X=BA-1
Obtenido de: [http://www.mathsisfun.com/algebra/matrix-inverse.html]

Álgebra. Cálculo matricial 110


Matriz inversa
 Matriz inversa o recíproca:
 Teorema: Solamente una matriz cuadrada puede tener inversa.
 Demostración (clásica): Supongamos la matriz A de orden nxm no
necesariamente cuadrada, es decir, podría ser que nm. Recordemos que para
que una matriz A tenga por inversa a A-1 con orden mxn se debe cumplir que AA-
1=A-1A=I.

 En la primera parte de la igualdad se requiere que A-1 tenga un tamaño mxn; AA-1=In.
 En la primera parte de la igualdad se requiere que A-1 tenga un tamaño mxn; A-
1A=I .
m
 Además se debe cumplir que AA-1=A-1A; y por ende, se requiere que In=Im, lo que
sólo puede ocurrir si n=m.

 Si quieres una demostración más elegante: http://www.quora.com/Why-does-a-


matrix-have-to-be-square-to-get-an-inverse-matrix
 El enlace sigue activo a fecha 1-Oct-2015
  NOTA: Esta demostración utiliza conceptos de espacios vectoriales y morfismos
que aún no hemos visto. Además este enlace parte de la “demostración” (clásica) de
que es la única forma de que se cumpla que AA-1=A-1A=I, pero la demostración que
ofrece usando cálculo es bastante más elegante.

Álgebra. Cálculo matricial 111


Matriz inversa

 Matriz inversa o recíproca:

 Teorema: La inversa de una matriz cuadrada, si existe, es


única.

 Demostración: Supongamos que B y C son inversas de A.


Entonces se cumple que:
 AB=BA=I
 AC=CA=I
 Simplemente multipliquemos en uno de los casos por “la otra
inversa”:
 (BA)C=IC=C
 Y apoyándonos en la asociativa, podríamos resolver de forma
diferente: (BA)C=B(AC)=BI=B
 Ya que C=(BA)C=(BA)C=B; la única forma que esto se cumpla es
que B=C y por ende implica que la inversa es única.

Álgebra. Cálculo matricial 112


Matriz inversa

  Estos dos teoremas anteriores sobre la inversa ponen de


manifiesto la importancia de las matrices cuadradas.
 Para matrices no cuadradas, existen generalizaciones que se
llaman pseudo-inversa o inversa generalizada. Quizás la más
conocida es la pseudo-inversa de Moore-Penrose. Pero no las
veremos aquí.
 Si quieres saber más sobre pseudo-inversas puedes consultar:
 R. Penrose (1955). A generalized inverse for matrices.
Mathematical Proceedings of the Cambridge Philosophical
Society, 51:406-413.
 Ben-Israel, Adi; Thomas N.E. Greville (2003). Generalized
Inverses: Theory and applications. 2nd Ed. Springer-Verlag

Álgebra. Cálculo matricial 113


Cálculo de la inversa

 El cálculo de la matriz inversa no es trivial


 …aunque hay casos sencillos; por ejemplo, para
obtener la inversa de una matriz diagonal basta
con invertir los elementos de la diagonal principal.

 Veamos el “clásico” método de la adjunta.

Álgebra. Cálculo matricial 114


Cálculo de la inversa
 Cofactor:
 En el cálculo del determinante de la matriz A,
llamamos cofactor de aij en det(A) al conjunto de
términos que tienen cómo elemento común a aij y
en los que el propio aij se ha sacado factor
común.
 A menudo se denota al cofactor como Aij.
 En otras palabras, son los términos resultantes de su
menor afectados por el signo correspondiente; de
hecho podemos reescribir el determinante como:

Observa que el sígno del término


en el cálculo del determinante
queda “absorbido” por el cofactor;
en otras palabras, el cofactor
Álgebra. Cálculo matricial incluye el signo. 115
Cálculo de la inversa
 Cofactor:
 Ejemplo: Sea la matriz A.

 Los cofactores de los elementos aij serían*:

* En azul se resaltan los “negativos” (aquellos que su signo original en el cálculo del
determinante es negativo). Observa que aquí ya están “volteados” (o sea multiplicados por
el signo negativo).
Álgebra. Cálculo matricial 116
Cálculo de la inversa

 Matriz de cofactores:
 Informal: Se llama matriz de cofactores a la que
resulta de sustituir cada elemento por su cofactor.

 Formal: Sea una matriz A=[aij]. Se llama matriz de


cofactores, y se denota cof(A), a la matriz
cof(A)=[Aij] donde Aij es el cofactor de aij en
det(A).

Álgebra. Cálculo matricial 117


Cálculo de la inversa

 Matriz de cofactores:
 Ejemplo:

Álgebra. Cálculo matricial 118


Cálculo de la inversa

 Matriz adjunta:
 Informal: La matriz de cofactores traspuesta.

 Formal: Sea una matriz A=[aij]. Se llama matriz


adjunta, y se denota adj(A), a la matriz
adj(A)=cof(A)T.

 Por extensión, se llama determinante adjunto al


det(adj(A)).

Álgebra. Cálculo matricial 119


Cálculo de la inversa

 Matriz adjunta:
 Ejemplo:

Álgebra. Cálculo matricial 120


Cálculo de la inversa

  NOTA IMPORTANTE: No confundir “esta”


adjunta definida a partir de los cofactores, con la
conjugada traspuesta, que también a veces se
denomina adjunta.

 Por razones históricas, ambas se llaman igual, lo cual


es confuso.
 De hecho, la conjugada transpuesta también se conoce al
menos como conjugada Hermitiana y transjugada.

 Hasta donde se, no hay relación directa entre ambas


“adjuntas”, salvo la confusión en el nombre.

Álgebra. Cálculo matricial 121


Cálculo de la inversa

 Teorema: La suma de los productos de los


elementos de una línea de A por los
cofactores de los elementos
correspondientes de una línea paralela
diferente, siempre es 0.
 Para filas: ai1Ak1+ ai2Ak2+…+ ai1Ak1=0 i≠k
 Para columnas: a1iA1k+ a2iA2k+…+ a1iA1k=0 i≠k

Álgebra. Cálculo matricial 122


Cálculo de la inversa

 Teniendo en cuenta el teorema anterior:

 …y de la misma forma:

 …o lo que es lo mismo:
Álgebra. Cálculo matricial 123
Cálculo de la inversa
 Recordemos que la matriz inversa de una matriz A es aquella que cumple que AA-1=I

 Y ya sabemos que adj(A)⋅A=det(A)⋅I.

 Multiplicando por A-1 en ambos lados:


 adj(A)⋅A⋅A-1=det(A)⋅I⋅A-1
  adj(A)⋅I = det(A)⋅I⋅A-1
  adj(A) = det(A)⋅A-1

 Por tanto:

 ☞ …ahora parece obvio por que la matriz debe ser no singular para tener
inversa.

Álgebra. Cálculo matricial 124


Cálculo de la inversa

 Resumen del método de la adjunta para


calcular la inversa:

1. Calcular el det(A)
2. Calcular cof(A)
3. Obtener la traspuesta de cof(A); adj(A)
4. Dividir por el det(A); adj(A)/det(A)
 Recuerda que det(A) es un escalar, no una matriz,
por lo que esta operación divisoria es por elemento.

Álgebra. Cálculo matricial 125


Cálculo de la inversa
  NOTA: Este método de la adjunta es sencillo, pero
computacionalmente costoso y muy expuesto a errores de
redondeo.

 Por supuesto hay otros métodos para calcular la inversa. Por


ejemplo:
 Por eliminación/reducción de Gauss-Jordan para transformar [ A | I
] en [ I | A-1 ].
 http://www.mathwords.com/i/inverse_of_a_matrix.htm
 http://www.purplemath.com/modules/mtrxinvr.htm
 Por partición
 [Hohn , F 1981, pg 132-136]

 Cada método, tiene sus ventajas e inconvenientes. Pero no


los veremos aquí.

Álgebra. Cálculo matricial 126


Cálculo de la inversa
 Ejemplo: Sea la matriz A.

1. Calcular el det(A)
 det(A) = a11A11+a21A21+a31A31 = 8⋅1+3⋅-14+2⋅4 = 8-
42+8=-26

Álgebra. Cálculo matricial 127


Cálculo de la inversa
 Ejemplo (Cont.):
2. Calculamos cof(A) *

3. Obtener la traspuesta de cof(A); adj(A)

* En azul se resaltan los “negativos” (aquellos que su signo original en el cálculo del
determinante es negativo). Aquí ya están “volteados” (multiplizados por el signo negativo).

Álgebra. Cálculo matricial 128


Cálculo de la inversa

 Ejemplo (Cont.):
4. Dividir por el det(A); adj(A)/det(A)

 ¿Alguien se anima a comprobar que AA-1=I?

Álgebra. Cálculo matricial 129


Matriz inversa

 Matriz inversa o recíproca:

 Teorema: Una matriz cuadrada A tiene inversa si y


solo si su determinante es distinto de 0.

 Demostración: Véase el método de calcular la inversa


mediante la adjunta, y recuerda que la inversa si existe es
única.

 Pero para una demostración más formal ver:


 Lipschutz, S. "Invertible Matrices." Schaum's Outline of Theory
and Problems of Linear Algebra, 2nd ed. New York: McGraw-
Hill, pp. 44-45, 1991

Álgebra. Cálculo matricial 130


FACTORIZACIÓN

Álgebra. Cálculo matricial 131


Factorización

 A menudo es útil representar una matriz A


como un producto de otras matrices.

 Ejemplo: A=BC

 …de tal forma que las “nuevas” matrices BC


tengan ciertas propiedades, e.g. ser
triangulares

Álgebra. Cálculo matricial 132


Factorización

 La factorización o descomposición de
matrices es el proceso o secuencia de
transformaciones que permite reexpresar una
matriz en un producto de otras matrices.

 Sea A=BC; a la nueva forma BC de la matriz


A se le llama su forma factorizada.

Álgebra. Cálculo matricial 133


Factorización
 Existen muchos tipos de factorización útiles [Gentle JA 2007, pg
185]:
 De rango completo (para cualquier matriz)
 Canónica similar o diagonal (para matrices diagonalizables)
 Ortogonal (para matrices simétricas)
 LU y LDU (para matrices definidas positivas –que por cierto no hemos
visto)
 QR (para cualquier matriz)
 SVD o Descomposición de valor singular (para cualquier matriz)
 Cholesky (para matrices definidas positivas)
 LDL (para matrices definidas positivas)
 …

 ☞ Cada descomposición tiene utilidad en un tipo particular de


problemas. NO las vamos a ver todas.

Álgebra. Cálculo matricial 134


Factorización

 Factorización LU:
 Sea un a matriz cuadrada A. La factorización LU
es una descomposición en 2 factores;

 A=LU

 …donde L (lower) es una matriz triangular inferior y U


(upper) es una matriz triangular superior.

 Para que se pueda lograr la factorización LU, A debe


ser no singular.

Álgebra. Cálculo matricial 135


Factorización

 Factorización LU:
 En general:

Álgebra. Cálculo matricial 136


Factorización

 Factorización LU:
 Existen varias formas de lograr la factorización LU (por
ejemplo, algoritmo de Doolittle, algoritmo de Crout, etc).
 Puedes encontrar el algoritmo de Crout en
 [Press et al (impresión de 1997) “Numerical Recipes in FORTRAN:
The Art of Scientific Computing”, 2nd Ed. pg 36]
 …y el de Doolittle aquí:
 http://www.engr.colostate.edu/~thompson/hPage/CourseMat/Tutorials
/CompMethods/doolittle.pdf
 Enlace activo al 11 Oct 2015.
 http://pcmap.unizar.es/~mpala/C_N_lecci/CN_1II2_SELdir.pdf (En
español)
 Enlace activo al 11 Oct 2015.

 Veamos una forma “sencilla” con un ejemplo para una


matriz de orden 2.

Álgebra. Cálculo matricial 137


Factorización

 Factorizacion LU:
 Ejemplo: Intentemos la factorización siguiente:

Ejemplo tomado de: [http://en.wikipedia.org/wiki/LU_decomposition]

Álgebra. Cálculo matricial 138


Factorización
 Factorización LU:
 Ejemplo (Cont.): Podemos establecer las
siguientes ecuaciones:

 Desafortunadamente son 4 ecuaciones y 6


incógnitas.
Ejemplo tomado de: [http://en.wikipedia.org/wiki/LU_decomposition]

Álgebra. Cálculo matricial 139


Factorización

 Factorizacion LU:
 Ejemplo (Cont.): Para resolver esta situación,
podemos de forma arbitraria asignar un valor
determinado a dos de las incógnitas. En otras
palabras, poner restricciones a las matrices L y U.

 Supongamos por ejemplo que forzamos la diagonal


principal de la matriz L a 1.

Ejemplo tomado de: [http://en.wikipedia.org/wiki/LU_decomposition]

Álgebra. Cálculo matricial 140


Factorización

 Factorización LU:
 Ejemplo (Cont.): Ahora podemos resolver:

Ejemplo tomado de: [http://en.wikipedia.org/wiki/LU_decomposition]

Álgebra. Cálculo matricial 141


Factorización
 Factorización LU:
 Ejemplo (Cont.): Ahora podemos resolver:

Ejemplo tomado de: [http://en.wikipedia.org/wiki/LU_decomposition]

Álgebra. Cálculo matricial 142


Factorización

 Factorización LU:
 Ejemplo: Finalmente obtenemos

Ejemplo tomado de: [http://en.wikipedia.org/wiki/LU_decomposition]

Álgebra. Cálculo matricial 143


Factorización

 Factorización
 Por supuesto, diferentes factorizaciones tienen
diferentes resoluciones. Pero no podemos ver
todas.

 En cualquier caso, en general, a efectos


prácticos, la “resolución” de la factorización es
irrelevante, y sólo importa el “resultado” final.

Álgebra. Cálculo matricial 144


Factorización
 Factorización LU:
 Esta factorización es útil para:
 Resolver sistemas de ecuaciones lineales
 De hecho este es una forma del método de eliminación de Gauss.
 Ejemplo: Sea el sistema de ecuaciones Ax=b, con la descomposición A=LU
podemos obtener: Ax=LUx=Ly=b y por tanto, resolvemos primero Ly=b y finalmente
Ux=y para obtener x. Observa que la resolución de un sistema de ecuaciones
“triangular” es trivial.

 Invertir una matriz


 Ejemplo: AA-1=LUA-1=I

 Calcular el determinante de una matriz


 Ejemplo: El determinante de la matriz descompuesta es simplemente el producto de
los elementos de la diagonal (que no ha sido “forzada” a ser 1).

 En álgebra “sparse” o hueca


 La idea es que, al manipular matrices huecas, deberían resultas factores L y U
también huecas. La única herramienta que permite reducir el número de ceros es la
permutación de filas y columnas.
 http://pcmap.unizar.es/~mpala/C_N_lecci/CN_1II2_SELdir.pdf

Álgebra. Cálculo matricial 145


Factorización
 Factorización LDU:
 Sea un a matriz cuadrada A. La factorización LDU es una
descomposición en 3 factores;

 A=LDU

 donde:
 L (lower) es una matriz triangular inferior con unos en la diagonal
principal,
 D (diagonal) es una matriz diagonal, y
 U (upper) es una matriz triangular superior con unos en la diagonal
principal.

 Una posible resolución se da en:


 W. Tinnney and J. Walker, “Direct solutions of sparse network equations
by optimally ordered triangular factorization”, pp 1801-1809, Proceedings
of the IEEE, Volume 55, No. 11, 1967.

Álgebra. Cálculo matricial 146


Factorización

 Factorización LDU:
 Esta factorización es útil para:

 Reducir el número de menores que se deben calcular


para decidir la singularidad de una matriz.
 [Cantó R et al (2008) SIAM. J. Matrix Anal. & Appl.,
30(2):777-782]

Álgebra. Cálculo matricial 147


Factorización

 Factorización QR:
 Sea una matriz cuadrada A. La factorización QR es
una descomposición en 2 factores;

 A=QR

 Donde
 Q es una matriz ortogonal (o sea que su traspuesta es igual a
su inversa, o de forma equivalente QTQ=I), y
 R es una matriz triangular superior (cuando A tiene rango
completo) o trapezoidal (cuando A no tiene rango completo)

 Esta descomposición si existe es única.

Álgebra. Cálculo matricial 148


Factorización
 Factorización QR:
 Esta factorización es útil para:
 Encontrar las bases ortonormales de un sistema de coordenadas o espacio.
 Un conjunto de vectores es ortonormal si es a la vez un conjunto ortogonal y la norma de cada uno
de sus vectores es igual a 1.
 La factorización QR es la versión matricial del proceso de ortonormalización de Gram-Schmidt.

 Y corolario del anterior; Determinar el rango de una matriz

 “Resolver” sistemas de ecuaciones lineales, especialmente en sistemas


sobredeterminados.
 ☞ Recuerda; un sistema de ecuaciones es:
 Indeterminado: Tiene infinitas soluciones
 Determinado: Si tiene solución y esta es única
 Sobredeterminado: Si no tiene solución

 …y en el mundo “real”, entre otras, permite mejorar el rendimiento en las


comunicaciones mediante la eliminación de ruido
 e.g. http://www.auburn.edu/~tamtiny/Xiamen%20U%202010%20Dec.pdf
 J.K. Zhang, A. Kavcic and K. M. Wong, Equal-Diagonal QR Decomposition and its Application to
Precoder Design for Successive-Cancellation Detection, IEEE Transactions on Information Theory,
51 (2005) 154–172.

Álgebra. Cálculo matricial 149


Factorización

 Factorización de Cholesky:
 Sea un a matriz cuadrada A. La factorización de
Cholesky es una descomposición en 2 factores;

 A=UTU

 Donde
 U es una matriz triangular superior cuyos elementos de la
diagonal son estrictamente positivos

Álgebra. Cálculo matricial 150


Factorización

 Factorización de Cholesky:
 Esta factorización es útil para:

 Resolver sistemas de ecuaciones lineales


 Cuando es aplicable, es el doble de eficiente que la
descomposición LU.
 Es aplicable a matrices Hermitianas.

Álgebra. Cálculo matricial 151


DESCOMPOSICIÓN DE VALOR
SINGULAR (SVD)

Álgebra. Cálculo matricial 152


Descomposición de Valor Singular (SVD)

 No es más que otra factorización, pero su relevancia es tal


que merece verla en mayor detalle.

 En particular es crítica para el Análisis de componentes


principales (PCA)
 Ver [Shlens J, (2003) A tutorial on PCA: : derivation, discussion
and singular value decomposition].
 ☞ ¡MUY RECOMENDABLE!
 “PCA is closely related to singular value decomposition (SVD). In fact,
the two are so intimately related that the names are often used
interchangeably.” [Shlens J, (2003)]

 …pero también es util en compresión de datos, filtrado de


ruido, análisis (e.g. PCA), resolución de mínimos
cuadrados, etc

Álgebra. Cálculo matricial 153


Descomposición de Valor Singular (SVD)
 Supón una matriz diagonal A. Esta representa una
transformación geométrica de forma que:
 La escala global y orientación quedan expresadas por el det(A)
 ☞ …esto ya lo hemos visto.
 y, el escalado marginal a lo largo de cada dimensión depende
del escalar asociado a cada fila.

 Ejemplo:

Figuras de: [http://www.ams.org/samplings/feature-column/fcarc-svd]

Álgebra. Cálculo matricial 154


Descomposición de Valor Singular (SVD)
 Si la matriz no es diagonal, el efecto de la
transformación es el análogo, pero no está
alineado con los ejes…
 Por lo que no es tan clara la descripción geométrica.

 Ejemplo:

Figuras de: [http://www.ams.org/samplings/feature-column/fcarc-svd]

Álgebra. Cálculo matricial 155


Descomposición de Valor Singular (SVD)
 Pero si rotamos la parrilla, la transformación vuelve
a ser tan obvia como en el caso de la matriz
diagonal.
 Rotar la parrilla es equivalente a elegir una nueva base.

 Ejemplo: En este ejemplo, la parrilla se rota 45


grados.

Figuras de: [http://www.ams.org/samplings/feature-column/fcarc-svd]

Álgebra. Cálculo matricial 156


Descomposición de Valor Singular (SVD)

 La SVD busca la nueva base donde la matriz


original A se reduce a una matriz diagonal ;

 Avi = vi

 Donde:
 vi son los vectores de la nueva base (la parrilla rotada),
y
  es matriz diagonal que representa la distorsión
marginal en los nueva base.

Álgebra. Cálculo matricial 157


Descomposición de Valor Singular (SVD)

 Intuitivo: La SVD nos dice como elegir unas


nuevas bases ortonormales de tal forma que
la transformación representada por la matriz
esté dada por su forma más sencilla posible,
una matriz diagonal.

Álgebra. Cálculo matricial 158


Descomposición de Valor Singular (SVD)

 Formal: Sea una matriz A de orden mxn. La


descomposición de valor singular SVD es
una descomposición en 3 factores;

 A=UDVT

 Donde
 U es una matriz ortogonal de orden mxm
 D es una matriz diagonal de valores singulares i, léase
distintos de 0, y del mismo tamaño que A, o sea mxn.
 V es una matriz ortogonal de orden nxn

Álgebra. Cálculo matricial 159


Descomposición de Valor Singular (SVD)

Figura de: [Press, W. H.; Flannery, B. P.; Teukolsky,


S. A.; and Vetterling, W. T. "Singular Value
Decomposition." §2.6 in Numerical Recipes in
FORTRAN: The Art of Scientific Computing, 2nd ed.
Cambridge, England: Cambridge University Press,
pp. 51-63, 1992.]

* El espacio nulo de una matriz A es el conjunto


de vectores x tales que ; A(x)=0. El producto
punto de dos vectores es 0 si ambos vectores son
perpendiculares (ortogonales). Observa que el
espacio nulo de A yace perpendicular (ortogonal)
al vector de la solución de SVD.

Álgebra. Cálculo matricial 160


Descomposición de Valor Singular (SVD)

 ☞ Si quieres saber más:


 Dan Kalman (1996) “A Singularly Valuable
Decomposition: The SVD of a Matrix”, The College
Mathematics Journal 27 (1996), 2-23
 Disponible en:
http://www.math.umn.edu/~lerman/math5467/svd.pdf

 O bien, aquí puedes encontrar una explicación


intuitiva y bastante gráfica de SVD
 http://www.ams.org/samplings/feature-column/fcarc-svd
 Enlace activo a 5-Oct-2015.
 De hecho de aquí he sacado la explicación intuitiva inicial.

Álgebra. Cálculo matricial 161


Eigen-Descomposición

 La eigen-descomposición o diagonalización
de una matriz es un tipo de factorización.
 Esta descomposición es considerada como una de las
más importantes en álgebra

 Está fuertemente relacionada con SVD


 …de hecho es el caso particular de SVD donde la matriz a
descomponer A es simétrica (y por ende cuadrada) e.g. la
matriz de covarianzas.

 Es la semilla de PCA.

Álgebra. Cálculo matricial 162


Eigen-Descomposición

 Informal: La eigen-descomposición busca


los factores latentes, o dimensiones
principales (aquellas donde hay mayor
varianza o dispersión de los datos), y
caracteriza la importancia de cada una de
estas dimensiones.
 Estos factores latentes van a ser los eigen-
vectores
 Estos “pesos” o factor de escala asociados a
cada factor latente van a ser los eigen-valores

Álgebra. Cálculo matricial 163


Eigen-Descomposición

 Eigen-Descomposición
 Sea una matriz A simétrica (y por ende cuadrada). La
eigen-descomposición es una descomposición tal
que:
 AP=PD

 Donde:
 D es una matriz diagonal de valores no singulares (matriz de
escalado –del sistema rotado), y
 P es una matriz cuadrada (matriz de rotación o cambio de
base).
 …y como veremos en un segundo además invertible; de
hecho no es infrecuente que se presente la
eigendescomposición como A=PDP-1*.
* De hecho esta es la verdadera factorización ;)

Álgebra. Cálculo matricial 164


Eigen-Descomposición

 Eigen-Descomposición
 Llamamos eigenvectores a los vectores columna
Xi∈P los y son los factores latentes en A.
 Los eigenvectores son linealmente independientes entre
si.

 Llamamos eigenvalores asociados al eigenvector


Xi a los elementos λi sobre la diagonal de D.

Álgebra. Cálculo matricial 165


Eigen-Descomposición
 Eigen-Descomposición
 Sea la matriz de eigenvectores:

Álgebra. Cálculo matricial 166


Eigen-Descomposición
 Eigen-Descomposición
 Sea la matriz de eigenvalores:

Álgebra. Cálculo matricial 167


Eigen-Descomposición
 Eigen-Descomposición
 Entonces en la eigen-descomposición tiene que
cumplir:

Álgebra. Cálculo matricial 168


Eigen-Descomposición

 Eigen-Descomposición
 Si P es invertible, entonces:

 A=PDP-1

 …que de hecho es la verdadera factorización


correspondiente a la eigen-descomposición.
 Observa que es una factorización en 3 elementos (y no 2
como hubiera podido parecer)
 Si quieres saber más sobre esta relación:
 http://www.mathworks.com/moler/eigs.pdf
 http://en.wikipedia.org/wiki/Singular_value_decomposition

Álgebra. Cálculo matricial 169


Eigen-Descomposición

 Eigen-Descomposición
 Podríamos expresar la eigen-descomposición por la
derecha (para columnas, la que hemos visto) o por la
izquierda (para filas):

 APR=PRD
 PLA=DPL

 A los eigenvectores de PR se les conoce como eigenvectores


derechos
 A los eigenvectores de PL se les conoce como eigenvectores
izquierdos
 ☞ ¡Los eigenvalores son los mismos por la izquierda y por la
derecha!
 Demonstración: [http://mathworld.wolfram.com/Eigenvector.html]

Álgebra. Cálculo matricial 170


Eigen-Descomposición

 Propiedades:

 An=PDnP-1

 Teorema de la eigen-descomposición: Siempre es posible


la eigen-descomposición de una matriz cuadrada.
 …en otras palabras, si A es cuadrada, entonces existe su eigen-
descomposición.

 Demostración: Puede encontrarse en:


 Press, W. H.; Flannery, B. P.; Teukolsky, S. A.; and Vetterling, W. T.
"Singular Value Decomposition." §2.6 in Numerical Recipes in
FORTRAN: The Art of Scientific Computing, 2nd ed. Cambridge,
England: Cambridge University Press, pp. 51-63, 1992.

Álgebra. Cálculo matricial 171


Eigen-Descomposición
 Análisis de Componentes Principales
(PCA):
 Quizás la manifestación más común de la eigen-
descomposición.

Figuras de [SmithLI2002, A tutorial on PCA]

Álgebra. Cálculo matricial 172


PROBLEMAS MAL PLANTEADOS,
MAL DEFINIDOS Y MAL
CONDICIONADOS

Álgebra. Cálculo matricial 173


Problemas mal planteados, mal
definidos y mal condicionados
 Jacques Salomon Hadamard
 Francés, 1865-1963
 Sucedió a Poincaré en la Academia de
Ciencias Francesa
 Gran premio de Matemáticas (1892),
Medalla de oro del centro nacional de
investigación científica (CNRS)
 Alumno de Hermite, y director de tesis de
Levy y Frechet

 Listado de cosas que reciben su nombre


en honor a Hadamard:
 http://en.wikipedia.org/wiki/List_of_things_
named_after_Jacques_Hadamard

Álgebra. Cálculo matricial 174


Expresiones matemáticas

 Una expresión (matemática) es un conjunto


finito de símbolos (conjuntos, variables,
relaciones, etc) bien formado sintácticamente
(es decir, con las entradas/parámetros
correctos, y en el orden adecuado) acorde a la
síntaxis.

 Ejemplo:
 2+3  es una expresión (está bien formada)
 x4)x-(y  no es una expresión (no está bien formada)

Álgebra. Cálculo matricial 175


Expresiones matemáticas

 Las expresiones pueden ser muy sencillas:


 Ejemplo: 4

 …o muy complejas:
 Ejemplo:

Álgebra. Cálculo matricial 176


Expresiones matemáticas

 Las ecuaciones son un tipo particular de


expresiones que expresan que dos o más
subexpresiones forman una igualdad.
 Ejemplo: 3+4=x

 Las inecuaciones son un tipo particular de


expresiones que expresan que dos o más
subexpresiones forman una desigualdad.
 Ejemplo:
 3+4<x
 3+4x

Álgebra. Cálculo matricial 177


Problemas matemáticos
 Un problema matemático es una expresión* del
que no se conoce su resultado a priori pero que
es susceptible de ser;
 Representada (formalizada),
 Analizada (desarrollada o probada)
 y quizás resuelta (decidida o obtenida una solución)
 …mediante métodos matemáticos.

 Definición propia a partir de varias fuentes inc. Wikipedia,


Wolfran World of Maths, etc.

* No necesariamente una ecuación o una inecuación.

Álgebra. Cálculo matricial 178


Problemas mal planteados, mal definidos y
mal condicionados
 Problema bien definido:
 Un problema bien definido o unívoco o no
ambíguo o es de valor simple (single-valued) es
aquel que su definición le asigna un valor o
interpretación única, o en otras palabras cuando
el resultado no varía aunque lo haga la
representación (no el valor) de la entrada
 Ejemplo: El producto de abc está bien definido.
 Esta expresión tiene el mismo valor sin importar como se
resuelva (ab)c o a(bc) ya que el producto cumple la
asociativa.
Definición de Wolfram World of Maths

Álgebra. Cálculo matricial 179


Problemas mal planteados, mal definidos y
mal condicionados
 Problema mal definido:
 En contraste, un problema mal definido (ill-
defined) o ambiguo es aquel que no está bien
definido, o en otras palabras, el que su definición
no le asigna un valor único.
 Ejemplo: La expresión a/bc está mal definida
 Ya que puede significar (a/b)c o bien a/(bc).

 La expresión -22 está mal definida, ya que no da el mismo


resultado si operamos (-2)2=4 que si operamos –(22)=-4.

Definición de Wolfram World of Maths

Álgebra. Cálculo matricial 180


Problemas mal planteados, mal definidos y
mal condicionados
 Problema mal definido:
 Obviamente, la buena/mala definición no sólo aparece por una
simple capacidad de decidir la precedencia de operadores.

 Ejemplos:
 Una relación donde ocurra que f(0.5) sea distinta de f(1/2) es una
relación mal definida.

 Muchos problemas de optimización multi-objetivo están mal definidos


 e.g. Eastman CM (1969) “Cognitive Processes and III-Defined Problems:
A Case Study from Design.” IJCAI pgs: 669-690

 La respuesta del cerebro (computador?) a un determinado estímulo es a


menudo mal-definida; la misma entrada puede dar lugar a 2 salidas
diferentes.

Álgebra. Cálculo matricial 181


Problemas mal planteados, mal definidos y
mal condicionados
 Problema mal definido:
 En un problema bien definido, cuando la solución
existe en un punto, esa solución es única.
 Observa que la solución podría no existir, y aún así el
problema podría estar bien definido.

 No es lo mismo estar mal definido que estar


indefinido o no definido.
 Por ejemplo: f(x)=1/x está bien definido, pero no está
definido en 0.

Álgebra. Cálculo matricial 182


Problemas mal planteados, mal definidos y
mal condicionados
 Problema bien planteado:
 Un problema bien planteado en el sentido de Hadamard es un problema
para el que:

1. Existe una solución

2. La solución es única, y

3. Su topología es estable
 …en cristiano, que el comportamiento de la solución varía “mínimamente” ante
cambios “mínimos/pequeños” en las condiciones iniciales.
 NOTA; A veces esta tercera condición se indica como que la solución depende de
forma continua de los datos (ej: http://www.math.iit.edu/~fass/477577_Chapter_6.pdf
), pero esto no es del todo correcto, ya que eso tiene que ver con que el problema
esté bien/mal condicionado.

 El artículo clave:
 Hadamard, Jacques (1902). "Sur les problèmes aux dérivées partielles et leur
signification physique". Princeton University Bulletin. pp. 49–52

Álgebra. Cálculo matricial 183


Problemas mal planteados, mal definidos y
mal condicionados
 Problema mal planteado: (ill-posed)

 Un problema mal planteado (en el sentido de


Hadamard) es aquel que no está bien planteado
(en el sentido de Hadamard).

Álgebra. Cálculo matricial 184


Problemas mal planteados, mal definidos y
mal condicionados
 Problema bien planteado:
 ¿Y esto por que debe importarme?
 Los fenómenos físicos a menudo son bien planteados
(independientemente de que el modelo matemático que lo
represente lo sea).
 Los problemas inversos (convertir observaciones en
información física) a menudo están matemáticamente mal
planteados

 Si un problema es bien planteado, entonces existe una alta


probabilidad de que se pueda resolver algorítmicamente en
una computadora.
 NOTA: No todos los problemas (bien planteados o no) pueden
ser resueltos algorítmicamente. [Penrose R. (1989), The New
Emperor’s Mind, Oxford University Press, Ch 2]

Álgebra. Cálculo matricial 185


Problemas mal planteados, mal definidos y
mal condicionados
 Problema bien condicionado:
 Un problema es bien condicionado si es bien
planteado y su solución varía de manera continua
con respecto a las condiciones iniciales.

 Incluso si un problema es bien planteado puede


ser mal condicionado

Álgebra. Cálculo matricial 186


Problemas mal planteados, mal definidos y
mal condicionados
 Problema bien condicionado:
 Formalmente se “mide” lo bien/mal condicionado
usando el número de condición que expresa lo
cercano que está una matriz a ser singular.

 El umbral que define lo bien/mal condicionado de


un problema depende del contexto del problema.

Álgebra. Cálculo matricial 187


Problemas mal planteados, mal definidos y
mal condicionados
 Problema mal condicionado:

 Un problema mal condicionado es aquel que no


está bien condicionado.

 El problema del condicionamiento de un problema


está íntimamente relacionado con la estabilidad
numérica.

Álgebra. Cálculo matricial 188


Problemas mal planteados, mal definidos y
mal condicionados
 Problema mal
condicionado:

 Los problemas mal


condicionados amplían el
error relativo de la entrada.

 Los problemas mal


condicionados son muy
sensibles a los errores de
redondeo.

Figura de: [http://www.openeering.com/sites/default/files/Numerical_Analysis_Scilab_Stability.pdf]

Álgebra. Cálculo matricial 189


Well conditioned problems
 A singular matrix A is one that its determinant det(A)=0

 Let AA be the set of all non singular matrices i.e. det(A)0.
 Let BS be the set of all singular matrices i.e. det(B)=0.

 In a space, it is possible to represent the set S as a surface; for instance


in the plane with the complement filling the plane being A

A
A
S
B

Álgebra. Cálculo matricial 190


Well conditioned problems

 Let dist(A,S) be the distance from a matrix non


singular A to the set S of singular matrices.
 We now define the condition number of the matrix
(A) as:

A
A
dist (A, S) S
B

Álgebra. Cálculo matricial 191


Well conditioned problems
 As A comes closer to S, then dist(A,S) tends to 0 and
consequently (A) increases largely.
 The condition number of a matrix expresses how close to
singularity is a matrix. This has implications for numerical
stability.
 In the yellow band, a computer lacks the ability to distinguish the value of
the det(A) from 0; it treats the matrix A as singular! A problem may be
inherently ill-conditioned or just “computationally” ill-conditioned

A
A
dist (A, S) S
B

Álgebra. Cálculo matricial 192


Well-posed and well-conditioning
 Consider a system of n linear equations for n unknowns,

 Then according to Cramer’s rule, the solution of the system


if it does exist equals:

 where Ai is the matrix formed by replacing the i-th column


of A by the column vector y.

Álgebra. Cálculo matricial 193


Well-posed and well-conditioning

 It follows that:
 If the det(A)0 then the system has a unique
solution
 If the det(A)=0 then
 There may be infinite solutions
 There may be no solutions

Álgebra. Cálculo matricial 194


Numerical stability

 To solve a given problem we use a certain


algorithm and its numerical implementation.
 Sometimes many algebraically equivalent solution
strategies are available, but numerically they can lead
to different results.
 This is due to computer’s arithmetic, which can
propagate errors in a more or less relevant way.

 Source: [Anonymous. “Numerical Analsysis


using SciLab: Numerical stability and
conditioning”]

Álgebra. Cálculo matricial 195


Numerical stability
 Algorithms that do not magnify
errors are said to be numerically
stable.
 On the other hand, if an algorithm
is numerically unstable, at a
given point, the errors do not
remain bounded and tend to grow
up in an uncontrolled way
corrupting completely the final
result.
 Even when a problem is well-
conditioned, if we try to solve it
with an unstable algorithm, the
obtained results will be
meaningless.

 Source: [Anonymous. “Numerical


Analsysis using SciLab: Numerical Figure from: [Anonymous. “Numerical Analsysis
using SciLab: Numerical stability and
stability and conditioning”]
conditioning”]

Álgebra. Cálculo matricial 196


Regularization

 If a problem is ill-posed, it needs to be re-formulated


for numerical treatment. This process is known as
regularization.

 Strictly speaking, regularization consists of adding


a small amount of noise to avoid or escape
singularity.
 Regularization improves the conditioning of the problem,
thus enabling a direct numerical solution

 Typically this involves including additional


assumptions, such as smoothness of solution.

Álgebra. Cálculo matricial 197


Regularization
 Following with the system of n linear equations for n
unknowns,

 We know that if the det(A)0 then the system has a unique


solution. When det(A)=0 or it is within the numerical
instability region around S, the most intuitive way to
regularize A is to add noise to the main diagonal.

 This is the simplest variant of the so called Tikhonov


regularization*.
* Tikhonov regularization is a bit more general; it adds a regularization term ||x||2 to
the system solution (in the ordinary least squares sense)
||Ax-b||2+||x||2 where it is customary to choose =Iλ.

Álgebra. Cálculo matricial 198


Regularization

 There exist many regularization techniques


developed to deal with different degeneracies and
anomalies in data, e.g.
 Hadamard regularization for divergent integrals
 Lattice regularization for continuous models
 Zeta function regularization for divergent sum or products
 L1- and L2-norms regularization for log-linear models (very
popular in feature selection and a common way to fight
overfitting)
 Multioutput and semiparametric regularizations for kernel
projections (yep! You guess it, popular with SVM)
 …and many more

Álgebra. Cálculo matricial 199


Regularization
 ☞ Use of regularization techniques is common is statistics,
physics, machine learning, and many other fields.
 To know more:
 Engl HW, Hanke M and Neubauer A (1996) “Regularization of Inverse
Problems” Springer Science & Business Media,, 321 pages
 Neumaier A (1998) “Solving ill-conditioned and singular linear systems:
A tutorial on regularization” SIAM review, 32pp
 >500 citations!
 Wang Y, Yagola AG and Yang C (2010) “Optimization and
Regularization for Computational Inverse Problems and Applications”
Springer
 Includes a chapter of regularization with a priori information.
 Morozov V.A. (1993) “Regularization Methods for Ill-Posed Problems”
CRC Press
 Bickel and Li (2006) “Regularization in Statistics” Test 15(2):271-344
 Gentle! Includes a formal definition of regularization from a statistical point of view.
 …also it shows subsampling as a regularization problem which can be didactic for
computer scientists

Álgebra. Cálculo matricial 200


Reconstruction in inverse problems

Figure from: [Javier Herrera Vega. Private communications.


Original source (of two left most images); Dr. Iain Styles. Private communications]

Álgebra. Cálculo matricial 201


Reconstruction in inverse problems
 In a real scenario, the form of f is unknown;
 that is, it cannot be expressed as a linear combination of known
functions.
 The different (forward) models of your phenomenon are
approximations of f.

 In this situation, the inverse problem aims at estimating an


approximation of f-1 so that we can estimate 
 The optimum approximation is one that minimizes:

Álgebra. Cálculo matricial 202


Perturbation methods

 Let’s assume f is continuous. Then, if we


have an estimate that is close to the ideal
solution , then its projection

is close to y.

Source: [Arridge and Hebden (1997) Phys. Med. Biol. 42:841–853]

Álgebra. Cálculo matricial 203


Perturbation methods

 Now, we can approximate an observation y


by expanding the Taylor series:

 f’ and f’’ are the first and second derivative


respectively, which for vector valued
functions correspond to the Jacobian J and
the Hessian H matrices.
Source: [Arridge and Hebden (1997) Phys. Med. Biol. 42:841–853]

Álgebra. Cálculo matricial 204


Jacobian

 The Jacobian matrix is the matrix of all first-


order partial derivatives of a vector-valued
function.

Álgebra. Cálculo matricial 205


Jacobian

 The Jacobian generalizes the derivative of a


function of a single variable. It thus represents a
gradient along the multiple variables

 The entries in the Jacobian represent the


sensitivity of a particular measurement at a
detector k, from a source j, to changes in the
image parameters  at a particular location (r).
 The Jacobian is sometimes referred to as the
sensitivity matrix.

Álgebra. Cálculo matricial 206


Jacobian

Figure from: [http://acko.net/blog/making-worlds-3-thats-no-moon/]

Álgebra. Cálculo matricial 207


Perturbation methods

 (Cont.) From the Taylor expansion, we can


rewrite:

 And further estimate the error of the


approximation:

Álgebra. Cálculo matricial 208


Perturbation methods

 Note how the difference in the left side is


what we aim to minimize

 Neglecting terms after the first, linear term


constitutes the perturbation approach

Source: [Arridge and Hebden (1997) Phys. Med. Biol. 42:841–853]

Álgebra. Cálculo matricial 209


Jacobian

 If det(J)0 around a
point  in parameter
space then there exist
a neighbourhood
around this point where
the function f-1 can be
approximated linearly.

Fgiure from: [http://math.stackexchange.com/questions/951917/what-do-i-do-with-these-equations-to-create-a-jacobian-matrix]

Álgebra. Cálculo matricial 210


Perturbation methods
 Within the neighborhood where the function f:I can be
approximated linearly it is possible to express the inverse
function f-1:I as [PreeceJ2004]:

 ...and therefore problem of finding an approximation of f-1


reduces to inversion of the matrix representation of J at .
 Note that this requires
 that you assume a model of radiation transport for the forward model f.
 A difference between two states;  and and thus care must be taken
such that the imaged changes between these measurements is small
[Dehghani et al (2009) Phil. Trans. R. Soc. A 367:3073–3093].

Álgebra. Cálculo matricial 211


Perturbation methods

 This is a linear problem which may well be ill


posed, and is amenable to standard matrix
inversion methods.

 Its success is largely dependent on how


closely the initial estimate is to the correct
solution, and how little effect is played by
higher-order terms in Taylor expansion.
Source: [Arridge and Hebden (1997) Phys. Med. Biol. 42:841–853]

Álgebra. Cálculo matricial 212


Inversion requires uniqueness (injection)

Álgebra. Cálculo matricial 213


Inversion

 For a function f:P→Q to be one-to-one


(injection):

 f is differentiable at every p∈P

 And, the determinant of the Jacobian det(J) is


strictly positive or strictly negative (absence of
zero derivatives) throughout the quotient space Q.

Álgebra. Cálculo matricial 214


Inversion

 To establish whether the function f is


bijective, that is f-1 exist, the determinant of
the Jacobian det(J) matrix must be analysed.
 If the det(J) is strictly positive or strictly negative
throughout the whole of parameter-space, then
the function f is one-to-one everywhere.
 This condition can be viewed as an extension of
the one-dimensional case where the absence of a
zero derivative ensures no turning points and,
thus, the uniqueness of function over a given
range.

Álgebra. Cálculo matricial 215

Potrebbero piacerti anche