Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Cálculo matricial
Repaso
Contenidos
Cálculo matricial
Definiciones; identidad, simetría, traspuesta,
inversa, etc
Operaciones con matrices y determinantes
Cálculo de la inversa
Factorización
Descomposición de valor singular, eigenvectores y
eigenvalores; Componentes principales
Problemas mal planteados (Hadamard) y mal
condicionados
Cálculo matricial
Hohn, F. (1981) “Álgebra de matrices” 3ª
Impresión. (Traducido al español)
…es el que voy a seguir más o menos para la parte del
cálculo matricial
Normalmente la matriz se
denota con letras
mayúsculas, e.g. A.
Submatriz: Ejemplos:
Matriz que resulta de
eliminar algunas filas
y/o columnas de una
matriz.
Las filas y/o columnas
eliminadas no tiene por
Figura de [http://mathworld.wolfram.com/Submatrix.html]
que ser adyacentes.
Matriz diagonal
Una matriz cuadrada en la que todos los elementos
fuera de la diagonal principal son 0.
Matriz identidad o
unidad
Informal: Matriz en la
cual los elementos de
la diagonal principal
son 1 y el resto de los
elementos son 0.
Matriz identidad o
unidad
La matriz identidad
únicamente está
definida sobre una
matriz cuadrada.
Observa que con
matrices no cuadradas
no se cumpliría la
definición formal.
* Esta notación compacta e.g. (I 0), proviene de la partición de la matriz. La veremos un
poco más adelante, en la subsección de operaciones con matrices.
Álgebra. Cálculo matricial 17
Matriz triangular
Matriz triangular Triangular superior
Un matriz cuadrada en la
que todos los elementos
por encima o por debajo
de la diagonal principal
son 0.
Ejemplo:
Ejemplo:
Ejemplos:
Ejemplo:
Igualdad de matrices
Dos matrices son iguales si todos sus elementos
aij y bij correspondientes son iguales
∀aij∈A, bij∈B : aij=bij
Suma de matrices
Sean dos matrices A=[aij]mxn y B=[bij]mxn del mismo
orden. Se define la suma de matrices A+B como:
A+B = [(aij+bij)]mxn
Ejemplo:
Suma de matrices
Propiedades:
Sean A, B y C matrices conformables para la suma:
Asociativa: A+(B+C)=(A+B)+C
Elemento identidad: A+0 = A
…tal que 0 representa a la matriz cero de orden mxn (el
mismo orden de A).
Cancelación (de la adición): A+C=B+C ⇔ A=B
Conmutativa: A+B=B+A
Ejemplo:
Substracción de matrices
Sean dos matrices A=[aij]mxn y B=[bij]mxn del mismo
orden. Se define la substracción de matrices A-
B como:
Ejemplo:
Substracción de matrices
Propiedades:
Sean A, B y C matrices del mismo orden:
A-A=0
C+A=B ⇒ C=B-A
cA= [caij]mxn
Ejemplo:
Multiplicación de matrices
Sean dos matrices A=[aij]mxn y B=[bij]nxk. Se define
la multiplicación de matrices C=AB como:
Multiplicación de matrices
Observa los ordenes de las matrices:
Ejemplo:
Ejemplo:
Figura de [www.c-sharpcorner.com]
Álgebra. Cálculo matricial 45
Multiplicación de matrices
Ejemplo:
Figura de [http://en.wikipedia.org/wiki/Matrix_multiplication]
Álgebra. Cálculo matricial 46
Multiplicación de matrices
Multiplicación de matrices
Propiedades:
NO es conmutativa: AB≠BA
☞ ¡Ojo! Esto es en general, pero hay casos específicos
donde si se cumple que AB=BA
Asociativa: (AB)C=A(BC)
Elemento neutro o identidad: AI=IA=A
☞ Se cumple para matrices cuadradas. Lo vemos en un
momento
Distributiva con respecto a la suma: (A+B)C=AC+BC
Divisores de cero: AB=0 no implica que A=0 o B=0
Ejemplo:
Ejemplo:
Trasposición de matrices:
Propiedades:
Sean AT y BT las traspuestas de A y B respectivamente
y a un escalar. Entonces:
(AT)T=A
(A+B)T=AT+BT
(aA)T=aAT
(AB)T=BTAT
A=AT A es simétrica
A=-AT A es antisimétrica
O columnas
O columnas
O columnas
Norma(s)
☞ No es una función única, sino todo un conjunto de
funciones que cumplen con unas determinadas propiedades.
Esto se ve en la parte de espacios vectoriales, pero no aquí.
Traza
Determinante
Traza:
Informal: La traza de una matriz es la suma de los
elementos de la diagonal principal.
Ejemplo:
Propiedades:
tr(A) = tr(AT)
tr(AB)= tr(BA)
Interpretación geométrica:
La traza de una matriz, si la matriz es
diagonalizable, coincide con la/el suma/producto
de los valores propios* de dicha matriz.
Ya que los eigenvalores representan una dilatación, la
traza representa con la dilatación con que la matriz
actúa sobre un determinado conjunto de eigenvectores.
Veremos estos conceptos en un momento
A=(a11) ⇒ det(A)=a11
*Esta notación no es estándar. Una notación más común para denotar a la submatriz
resultante de una eliminación arbitraria de filas y columnas es: A[i1 i2 … ik; j1 j2 … jr].
= 3[(1-2)-(3-1)]-(-1)[(1-2)-(32)]+0[(1-1)-(12)]
= 3[-2+3]+1[-2-6]+0[-1-2]
= 3[1]+1[-8]+0[-3]
= 3-8+0
= -5
Entonces, el determinante de la
matriz es el área del rectángulo
formado por estos vectores.
Fuentes:
http://mathinsight.org/determinant_geometric_properties
Enlace activo a 1-Oct-2015.
http://mathinsight.org/determinant_linear_transformation
Enlace activo a 1-Oct-2015.
En esta tienes una demo interactiva (applet) sobre las transformaciones
lineales en 2D y 3D
Observa como el área se duplica, y la orientación se “voltea” (no hay forma que únicamente
“rotando” yo llegue a esa configuración de colores).
Fuentes y figura:
http://mathinsight.org/determinant_geometric_properties
Enlace activo a 1-Oct-2015.
http://mathinsight.org/determinant_linear_transformation
Enlace activo a 1-Oct-2015.
En esta tienes una demo interactiva (applet) sobre las transformaciones lineales en 2D y 3D
Propiedades:
Si se intercambian cualesquiera dos líneas paralelas
en la matriz A, el determinante de la matriz resultante
es –det(A).
∀A∈ℭ : det(A)=det(AT)
Siendo ℭ el conjunto de matrices cuadradas
…léase, el determinante de A es igual al de su traspuesta.
Propiedades:
Si A tiene dos líneas paralelas idénticas
(duplicadas), entonces det(A)=0
Propiedades:
Sea B una matriz cuadrada igual a A, excepto que todos
los elementos de alguna línea de B son k veces los
elementos de la correspondiente línea en A. Entonces,
det(B)=k⋅det(A).
Propiedades:
Si en una matriz A sumamos cualquier múltiplo de
una línea a una línea paralela diferente, entonces
el determinante de la matriz resultante es igual a
det(A).
Propiedades:
Ejemplo (Cont.): Calculamos los determinantes:
det(A) = 3⋅(2)-2⋅(3)+1⋅(5)=5
det(B) = 3⋅(2)-0+1⋅(-1)=5
Propiedades:
Sean dos matrices A y B de orden n. Entonces:
det(AB) = det(A)det(B)
Puedes encontrar la demonstración en [Hohn F 1981,
pg 83-4]
Equivalencia de matrices:
Dos matrices A y B son equivalentes si y sólo si, cada una
puede transformarse en la otra por transformaciones
elementales.
Equivalencia de matrices:
Normalmente lo verás de forma “condensada”:
Dos matrices A y B son equivalentes si y sólo si,
cada una puede transformarse en la otra:
Ejemplo:
Para calcular X dado XA=B no podemos calcular X=B/A
En su lugar multiplicamos por la inversa en ambos lados:
XAA-1=BA-1
XI=X=BA-1
Obtenido de: [http://www.mathsisfun.com/algebra/matrix-inverse.html]
En la primera parte de la igualdad se requiere que A-1 tenga un tamaño mxn; AA-1=In.
En la primera parte de la igualdad se requiere que A-1 tenga un tamaño mxn; A-
1A=I .
m
Además se debe cumplir que AA-1=A-1A; y por ende, se requiere que In=Im, lo que
sólo puede ocurrir si n=m.
* En azul se resaltan los “negativos” (aquellos que su signo original en el cálculo del
determinante es negativo). Observa que aquí ya están “volteados” (o sea multiplicados por
el signo negativo).
Álgebra. Cálculo matricial 116
Cálculo de la inversa
Matriz de cofactores:
Informal: Se llama matriz de cofactores a la que
resulta de sustituir cada elemento por su cofactor.
Matriz de cofactores:
Ejemplo:
Matriz adjunta:
Informal: La matriz de cofactores traspuesta.
Matriz adjunta:
Ejemplo:
…y de la misma forma:
…o lo que es lo mismo:
Álgebra. Cálculo matricial 123
Cálculo de la inversa
Recordemos que la matriz inversa de una matriz A es aquella que cumple que AA-1=I
Por tanto:
☞ …ahora parece obvio por que la matriz debe ser no singular para tener
inversa.
1. Calcular el det(A)
2. Calcular cof(A)
3. Obtener la traspuesta de cof(A); adj(A)
4. Dividir por el det(A); adj(A)/det(A)
Recuerda que det(A) es un escalar, no una matriz,
por lo que esta operación divisoria es por elemento.
1. Calcular el det(A)
det(A) = a11A11+a21A21+a31A31 = 8⋅1+3⋅-14+2⋅4 = 8-
42+8=-26
* En azul se resaltan los “negativos” (aquellos que su signo original en el cálculo del
determinante es negativo). Aquí ya están “volteados” (multiplizados por el signo negativo).
Ejemplo (Cont.):
4. Dividir por el det(A); adj(A)/det(A)
Ejemplo: A=BC
La factorización o descomposición de
matrices es el proceso o secuencia de
transformaciones que permite reexpresar una
matriz en un producto de otras matrices.
Factorización LU:
Sea un a matriz cuadrada A. La factorización LU
es una descomposición en 2 factores;
A=LU
Factorización LU:
En general:
Factorización LU:
Existen varias formas de lograr la factorización LU (por
ejemplo, algoritmo de Doolittle, algoritmo de Crout, etc).
Puedes encontrar el algoritmo de Crout en
[Press et al (impresión de 1997) “Numerical Recipes in FORTRAN:
The Art of Scientific Computing”, 2nd Ed. pg 36]
…y el de Doolittle aquí:
http://www.engr.colostate.edu/~thompson/hPage/CourseMat/Tutorials
/CompMethods/doolittle.pdf
Enlace activo al 11 Oct 2015.
http://pcmap.unizar.es/~mpala/C_N_lecci/CN_1II2_SELdir.pdf (En
español)
Enlace activo al 11 Oct 2015.
Factorizacion LU:
Ejemplo: Intentemos la factorización siguiente:
Factorizacion LU:
Ejemplo (Cont.): Para resolver esta situación,
podemos de forma arbitraria asignar un valor
determinado a dos de las incógnitas. En otras
palabras, poner restricciones a las matrices L y U.
Factorización LU:
Ejemplo (Cont.): Ahora podemos resolver:
Factorización LU:
Ejemplo: Finalmente obtenemos
Factorización
Por supuesto, diferentes factorizaciones tienen
diferentes resoluciones. Pero no podemos ver
todas.
A=LDU
donde:
L (lower) es una matriz triangular inferior con unos en la diagonal
principal,
D (diagonal) es una matriz diagonal, y
U (upper) es una matriz triangular superior con unos en la diagonal
principal.
Factorización LDU:
Esta factorización es útil para:
Factorización QR:
Sea una matriz cuadrada A. La factorización QR es
una descomposición en 2 factores;
A=QR
Donde
Q es una matriz ortogonal (o sea que su traspuesta es igual a
su inversa, o de forma equivalente QTQ=I), y
R es una matriz triangular superior (cuando A tiene rango
completo) o trapezoidal (cuando A no tiene rango completo)
Factorización de Cholesky:
Sea un a matriz cuadrada A. La factorización de
Cholesky es una descomposición en 2 factores;
A=UTU
Donde
U es una matriz triangular superior cuyos elementos de la
diagonal son estrictamente positivos
Factorización de Cholesky:
Esta factorización es útil para:
Ejemplo:
Ejemplo:
Avi = vi
Donde:
vi son los vectores de la nueva base (la parrilla rotada),
y
es matriz diagonal que representa la distorsión
marginal en los nueva base.
A=UDVT
Donde
U es una matriz ortogonal de orden mxm
D es una matriz diagonal de valores singulares i, léase
distintos de 0, y del mismo tamaño que A, o sea mxn.
V es una matriz ortogonal de orden nxn
La eigen-descomposición o diagonalización
de una matriz es un tipo de factorización.
Esta descomposición es considerada como una de las
más importantes en álgebra
Es la semilla de PCA.
Eigen-Descomposición
Sea una matriz A simétrica (y por ende cuadrada). La
eigen-descomposición es una descomposición tal
que:
AP=PD
Donde:
D es una matriz diagonal de valores no singulares (matriz de
escalado –del sistema rotado), y
P es una matriz cuadrada (matriz de rotación o cambio de
base).
…y como veremos en un segundo además invertible; de
hecho no es infrecuente que se presente la
eigendescomposición como A=PDP-1*.
* De hecho esta es la verdadera factorización ;)
Eigen-Descomposición
Llamamos eigenvectores a los vectores columna
Xi∈P los y son los factores latentes en A.
Los eigenvectores son linealmente independientes entre
si.
Eigen-Descomposición
Si P es invertible, entonces:
A=PDP-1
Eigen-Descomposición
Podríamos expresar la eigen-descomposición por la
derecha (para columnas, la que hemos visto) o por la
izquierda (para filas):
APR=PRD
PLA=DPL
Propiedades:
An=PDnP-1
Ejemplo:
2+3 es una expresión (está bien formada)
x4)x-(y no es una expresión (no está bien formada)
…o muy complejas:
Ejemplo:
Ejemplos:
Una relación donde ocurra que f(0.5) sea distinta de f(1/2) es una
relación mal definida.
2. La solución es única, y
3. Su topología es estable
…en cristiano, que el comportamiento de la solución varía “mínimamente” ante
cambios “mínimos/pequeños” en las condiciones iniciales.
NOTA; A veces esta tercera condición se indica como que la solución depende de
forma continua de los datos (ej: http://www.math.iit.edu/~fass/477577_Chapter_6.pdf
), pero esto no es del todo correcto, ya que eso tiene que ver con que el problema
esté bien/mal condicionado.
El artículo clave:
Hadamard, Jacques (1902). "Sur les problèmes aux dérivées partielles et leur
signification physique". Princeton University Bulletin. pp. 49–52
Let AA be the set of all non singular matrices i.e. det(A)0.
Let BS be the set of all singular matrices i.e. det(B)=0.
A
A
S
B
A
A
dist (A, S) S
B
A
A
dist (A, S) S
B
It follows that:
If the det(A)0 then the system has a unique
solution
If the det(A)=0 then
There may be infinite solutions
There may be no solutions
is close to y.
If det(J)0 around a
point in parameter
space then there exist
a neighbourhood
around this point where
the function f-1 can be
approximated linearly.