Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Preliminares
En este capítulo se recopilan algunas definiciones y algunos resultados básicos que servirán de referencia
en el desarrollo de los capítulos posteriores. Se consideran aquí varios aspectos relacionados con matrices,
espacios vectoriales y transformaciones lineales. El orden en que se presentan los temas no corresponde al
encontrado en la mayoría de textos utilizados en un primer curso de álgebra lineal (Grossman [5], Nakos y
Yoyner [10], Strang [14] y otros).
1.1. Matrices
a1j
2 3
6 a2j 7
Aj = 6 .
ˆ ˜
Ai = ai1 ai2 ··· ain ; 7�
6 7
4 .. 5
amj
entonces el arreglo (1.1) se puede representar por filas o por columnas como sigue:
A1
2 3
6 A2 7 ˆ
A = 6 . 7 = A1 A2 · · · An .
6 7 ˜
4 .. 5
Am
Las matrices se denotan, como se ha sugerido, con letras mayúsculas A� B� C, etc. El conjunto de todas
las matrices m × n con elementos reales se denotará por �m×n �R) o simplemente �m×n . Los elementos de
�n×n se llaman matrices cuadradas de orden n; a la �diagonal� formada por los elementos a11 � a22 � . . . � ann
de una tal matriz A, se le llama diagonal principal de A.
�A no ser de que se exprese lo contrario, todos los escalares serán números reales
�
1.1. Matrices Preliminares
Toda matriz cuadrada A cuyos elementos fuera de la diagonal principal son nulos (aij = 0 para i �= j� i� j =
1� 2� . . . � n), se denomina matriz diagonal y usualmente se escribe A = diag�a11 � a22 � . . . � ann ). Una matriz
cuadrada se llamada triangular superior (inferior) si todos sus elementos abajo (arriba) de su diagonal
principal son nulos.
La matriz diagonal de orden n, cuyos elementos en su diagonal principal son todos iguales a 1, se denomina
matriz idéntica o matriz identidad de orden n; tal matriz se denota por In (o simplemente I� cuando no sea
necesario especificar el orden).
Una matriz nula es una matriz cuyos elementos son todos nulos. Una matriz nula será denotada por � (o
por �m×n cuando sea necesario especificar el tamaño de la matriz).
Dos matrices A y B de igual tamaño m × n son iguales si y sólo si sus componentes correspondientes son
iguales. Esto es,
�A�ij = �B�ij ; i = 1� 2� . . . � m� j = 1� 2� . . . � n.
La suma A + B de dos matrices A y B de tamaño m × n, es la matriz m × n tal que:
�A + B�ij = �A�ij + �B�ij ; i = 1� 2� . . . � m� j = 1� 2� . . . � n.
La multiplicación αA del número α por la matriz A de tamaño m × n, es la matriz de tamaño m × n, tal
que:
�αA�ij = α �A�ij ; i = 1� 2� . . . � m� j = 1� 2� . . . � n.
El producto AB de la matriz A ∈ �m×s por la matriz B ∈ �s×n , es la matriz de tamaño m × n, tal que:
Xs
�AB�ij = �A�ik �B�kj ≡ Ai · B j ; i = 1� 2� . . . � m� j = 1� 2� . . . � n.
k=1
1.1.1. Inversa de una matriz. Sea A ∈ �n×n . Si existe una matriz B ∈ �n×n tal que AB = I,
se puede demostrar que BA = I y que B es única. Cuando existe una matriz B tal que AB = I� a B se le
llama la matriz inversa de A y se le denota por A−1 . Es este caso se dice que A es no singular o invertible;
en caso contrario, se dice que A es no invertible o singular.
Sea A una matriz cuadrada. Si AT = A� se dice que A es una matriz simétrica, y si AT = −A� se dice que
A es una matriz antisimétrica. En particular, las matrices diagonales son simétricas.
2
Preliminares 1.1. Matrices
1.1.3. Determinantes. En este apartado se dan las definiciones de menor, cofactor, matriz de cofac-
tores, matriz adjunta y determinante de una matriz cuadrada. Además se presentan algunas propiedades
del determinante. En lo sucesivo, el determinante de una matriz A será denotado por |A| o por det�A).
Se define el determinante de una matriz de manera inductiva. Para una matriz A1×1 , que consta de un sólo
elemento; digamos A = [a], se define det�A) = a. El determinante de una matriz n × n; n ≥ 2, se define en
términos de determinantes de matrices �n − 1) × �n − 1); para ello es necesario introducir los conceptos de
menor y cofactor.
Sea A = [aij ]n×n ; el menor del elemento �A�ij se denota por mij y se define como el determinante de la
matriz que resulta al suprimir la i-ésima fila de A y la j-ésima columna de A. El cofactor del elemento �A�ij
se denota por Cij y se define como
Cij = �−1)i+j mij .
La matriz C, cuyos elementos son los cofactores Cij de A se denomina matriz de los cofactores de A. La
transpuesta de la matriz de cofactores C, se denomina adjunta de A y se denota por adj�A), es decir,
adj�A) = C T .
En el siguiente teorema se dan expresiones para calcular el determinante de una matriz (cuadrada) en
términos de sus cofactores. Además, muestra que el valor del determinante no depende de la fila o columna
a lo largo de la cual se haga la expansión. Dicho teorema presenta también una forma para calcular la
inversa de una matriz.
Las principales propiedades del determinante de una matriz se recogen en el teorema que sigue.
3
1.1. Matrices Preliminares
Una matriz elemental por filas (columnas) es aquella que resulta de efectuar una operación elemental sobre
las filas (columnas) de una matriz identidad.
1.6. Teorema (Matrices elementales).
1. Cada matriz elemental es invertible. Además, la inversa de cada matriz elemental es una matriz
elemental.
2. Sea A una matriz m × n. Si B es una matriz que resulta al efectuar una operación elemental sobre
las filas de A y si E es la matriz elemental que resulta de efectuar la misma operación elemental
sobre las filas de la matriz idéntica Im , entonces E · A = B.
3. Sea A una matriz m × n. Si B es una matriz que resulta al efectuar una operación elemental
sobre las columnas de A y si E es la matriz elemental que resulta de efectuar la misma operación
elemental sobre las columnas de la matriz idéntica In , entonces A · E = B.
1.7. Definición (Forma escalonada reducida). Se dice que una matriz R tiene la forma escalonada reducida,
si satisface las siguientes condiciones:
(i) Si una fila de R es no nula, el primer elemento no nulo de dicha fila, de izquierda a derecha, es 1.
(ii) Si las filas i e i + 1 de R son no nulas, el primer elemento no nulo de la fila i + 1 está a la derecha
del primer elemento no nulo de la fila i.
(iii) Si una columna de R contiene el primer elemento no nulo de una fila de R� los demás elementos
de dicha columna son nulos.
(iv) Si R tiene filas nulas, éstas aparecen en la parte inferior de R.
El siguiente teorema relaciona los conceptos de matrices elementales y forma escalonada reducida para una
matriz arbitraria.
4
Preliminares 1.2. Espacios vectoriales
1.8. Teorema. Para toda matriz A existe una única matriz R que tiene la forma escalonada reducida y un
número finito de matrices elementales por filas E1 � E2 � . . . � Ek tales que:
E k · · · E 2 · E1 · A = R .
Los dos últimos teoremas dan lugar a un método para decidir cuándo una matriz cuadrada A es invertible
y, simultáneamente, proveen un algoritmo para calcular su inversa.
El conjunto de matrices m×n, junto con las operaciones suma de matrices y multiplicación de un escalar por
una matriz, tiene una estructura algebraica denominada espacio vectorial. Esta estructura es importante
porque incluye otros conjuntos que se presentan frecuentemente en las matemáticas y sus aplicaciones.
1.10. Definición. Un espacio vectorial (real) es un conjunto V , cuyos elementos son llamados vectores,
junto con dos operaciones: suma de vectores �+) y multiplicación de un escalar por un vector �·), que
satisfacen las propiedades siguientes:
(i) Si u ∈ V y v ∈ V , entonces u + v ∈ V .
(ii) Si u ∈ V y v ∈ V , entonces u + v = v + u.
(iii) Si u ∈ V , v ∈ V y w ∈ V , entonces
�u + v) + w = u + �v + w) = u + v + w.
(iv) Existe un vector � ∈ V tal que para todo u ∈ V , u + � = � + u = u.
(v) Si u ∈ V , entonces existe un vector −u ∈ V tal que
u + �−u) = �−u) + u = �.
(vi) Si u ∈ V y α es un escalar, αu ∈ V .
(vii) Si u ∈ V y α� β son escalares, entonces �αβ)u = α�βu) = β�αu).
(viii) Si u ∈ V y α� β son escalares, entonces �α + β)u = αu + βu.
(ix) Si u ∈ V y v ∈ V y α es un escalar, entonces α�u + v) = αu + αv.
(x) Si u ∈ V , entonces 1u = u.
1.11. Ejemplo. Son espacios vectoriales:
5
1.2. Espacios vectoriales Preliminares
Como se establece en la definición, un espacio vectorial (real) es un tripla que consta de un conjunto V y
de dos operaciones con ciertas propiedades. Cuando no haya lugar a confusión o cuando no sea necesario
explicar las operaciones mencionadas, se hará referencia simplemente al espacio vectorial V.
1.12. Definición. Sea V un espacio vectorial y W un subconjunto no vacío de V. Se dice que un W es
subespacio de V , si W� junto con las operaciones definidas en V , es un espacio vectorial.
1.13. Definición. Sean V un espacio vectorial, v0 un elemento de V y W es un subespacio de V . El
subconjunto determinado así:
L = {v ∈ V : v = v0 + w� para w ∈ W }�
es denominado una variedad lineal de V .
El siguiente concepto es básico en el estudio de los espacios vectoriales. En particular, servirá para carac-
terizar ciertos subespacios de un espacio vectorial.
1.14. Definición. Sean v1 � v2 � . . . � vn vectores de un espacio vectorial V . Se dice que un vector v ∈ V es
combinación lineal de los vectores v1 � v2 � . . . � vn , si existen escalares α1 � α2 � . . . � αn tales que:
n
X
v = α1 v1 + α2 v2 + · · · + αn vn = αi vi .
i=1
1. Si u ∈ W y v ∈ W , entonces u + v ∈ W .
2. Si u ∈ W y α ∈ R, entonces αu ∈ W .
1.16. Teorema. Si U y W son subespacios de un espacio vectorial V , entonces:
es un subespacio de V.
6
Preliminares 1.2. Espacios vectoriales
en caso contrario, se dice que C es linealmente independiente o que los vectores v1 � v2 � . . . � vn son lineal-
Pindependientes. Es decir; C es linealmente independiente, si para todos los escalares α1 � α2 � . . . � αn ;
mente
�= n i=1 αi vi � implica
α1 = α2 = . . . � = αn = 0 .
1.19. Teorema. En un espacio vectorial V se tiene:
Se dice que un espacio vectorial V es de dimensión finita, si existe un conjunto finito C de vectores de V , tal
que el espacio generado por C en V . En caso contrario, se dice que dicho espacio tiene dimensión infinita.
Ejemplos de éstos últimos son: el conjunto de funciones de R en R� o el conjunto de todos los polinomios.
En lo que sigue, se consideran sólo espacios de dimensión finita.
1.20. Definición (Base). Sea B un conjunto de vectores de un espacio vectorial V. Se dice que B es una
base de V si se tienen las dos condiciones:
(i) El espacio generado por B es V .
(ii) El conjunto B es linealmente independiente.
Si un espacio vectorial V tiene una base B1 = {v1 � v2 � . . . � vn } compuesta por un número ninito n de
vectores, entonces se puede demostrar, que cualquier otra base B2 de V tiene exactamente n elementos. A
dicho número común se le llama dimensión del espacio V y se escribe dim V = n. El siguiente teorema resume
algunos resultados importantes sobre espacios vectoriales (bases, conjuntos lienalmente independientes,
conjuntos generadores, etc.).
1.21. Teorema. Sea V un espacio vectorial de dimensión n.
1. Si B = {v1 � v2 � . . . � vn } es un conjunto de n vectores de V� entonces:
a) B es una base de V sii B es linealmente independiente.
b) B es una base de V sii B genera a V .
7
1.2. Espacios vectoriales Preliminares
8
Preliminares 1.2. Espacios vectoriales
Si u y v son dos vectores de V y si α es un escalar, entonces [αu]B = α [u]B y [u + v]B = [u]B + [v]B .
T
De otro lado, a cada vector n × 1 (matriz
P n × 1) c = [ α1 α2 ··· αn ] le corresponde un único vector
v de V tal que [v]B = c, a saber v = n i=1 αi vi .
Así, cada base ordenada B de V determina una correspondencia biunívoca, v → [v]B , entre los espacios V y
�n×1 , que preserva las suma de vectores y la multiplicación de un escalar por un vector. Más aún, preserva
la independencia lineal; ésto es, el conjunto C = {u1 � u2 � . . . � uk } es un conjunto de vectores linealmente
independientes de V sii el conjunto C ∗ = {[u1 ]B � [u2 ]B � . . . � [ uk ]B } es un conjunto de vectores linealmente
independientes de �n×1 .
1.2.3. Producto interno. Bases ortonormales. En este apartado se consideran los conceptos de
producto interno y de bases ortonormales, lo que será particularmente útiles en el capítulo 3 al tratar la
diagonalización de matrices simétricas.
1.29. Definición (Producto interno). Sea V un espacio vectorial. Sean además u� v y w vectores arbitrarios
de V y α un escalar real. Un producto interno en V es una función �·; ·� : V × V → R que satisface las
propiedades:
En lo que sigue se considera a Rn con este producto interno (producto escalar) y a veces se escribe x · y o
xT y para indicar a �x; y�.
9
1.2. Espacios vectoriales Preliminares
1.30. Teorema (Desigualdad de Schwarz). Sea V un espacio vectorial con producto interno �·; ·�. Para cada
par de vectores u y v de V se satisface la desigualdad
Sean u y v vectores de un espacio vectorial V con producto interno �·; ·�, si u y v no son nulos, la medida
del ángulo entre ellos se define como
|�u; v�|
θ = arc cos .
�u� �v�
1.31. Definición. Sea V un espacio vectorial con producto interno �·; ·�:
4. Se dice que dos conjuntos no vacíos, C1 y C2 , de vectores son ortogonales, si para cada par de
vectores u ∈ C1 y v ∈ C2 � �u; v� = 0.
1.32. Teorema. Sea V un espacio vectorial con producto interno �·; ·�. Si C = {v1 � v2 � . . . � vn } es un
conjunto ortogonal que no contiene al vector �� entonces C es linealmente independiente.
v1 = w1
�w2 ; v1 �
v2 = w2 − v1
�v1 ; v1 �
�w3 ; v1 � �w3 ; v2 �
v3 = w3 − v1 − v2
�v1 ; v1 � �v2 ; v2 �
..
.
k−1
X �wk ; vi �
vk = wk − vi �
i=1
�vi ; vi �
vi
y donde vi∗ = para i = 1� 2� . . . � k.
�vi �
1.34. Teorema. Sean v1 � v2 � . . . � vk vectores no nulos de un espacio vectorial V de dimensión n > k, con
producto interno �·; ·�. Si C1 = {v1 � v2 � . . . � vk } es un conjunto ortogonal (respectivamente ortonormal),
entonces existe un conjunto ortogonal (respectivamente ortonormal) C2 = {w1 � w2 � . . . � wn−k } de vectores
de V tal que B = C1 ∪ C2 es una base ortogonal (ortonormal) de V. Más aún, si U = �v1 � v2 � . . . � vk � y si
W = �w1 � w2 � . . . � wn−k � entonces V = U ⊕ W y además, U y W son ortogonales.
10
Preliminares 1.3. Transformaciones lineales
En esta sección se consideran los aspectos más importantes sobre las transformaciones lineales. En lo que
sigue; U� V y W denotarán espacios vectoriales.
1.35. Definición. Una función T : U → V es una transformación lineal, si para cualquier para de vectores
u1 � u2 en U y todo escalar α� se tiene que:
(i) T �u1 + u2 ) = T �u1 ) + T �u2 )
(ii) T �αu1 ) = αT �u1 ).
1.36. Ejemplo. Algunos ejemplos de transformaciones lineales son:
1. Para cada U� la función idéntica I : U → U� u → I�u) = u.
2. Para cada matriz A ∈ �m×n � la función A : Rn → Rm � definida por x → y = Ax. �
1.37. Teorema. Sean U y V espacios vectoriales, B = {u1 � u2 � . . . � un } una base de U y T : U → V es
una transformación lineal. Entonces T queda determinada por los vectores T �u1 )� T �u2 )� . . . � T �un ).
Asociados a toda transformación lineal hay dos subespacios importantes a saber; su núcleo y su imagen.
El primero de ellos corresponde a todos lo elementos del espacio U que son transformados en el elemento
nulo del espacio V ; el segundo, corresponde a todos los elementos del espacio V que tienen al menos una
preimagen en el espacio U. En forma más precisa tenemos
1.38. Definición. Sea T : U → V es una transformación lineal.
1. El núcleo de T se denota por N �T ) y se define así:
N �T ) = {u ∈ U : T �u) = 0} .
2. La imagen de T se denota por Img�T ) y se define así:
Img�T ) = {T �u) : u ∈ U } .
1.39. Definición. Sea T : U → V una transformación lineal.
1. Se dice que T es inyectiva (biunívoca o uno a uno), si dos elementos distintos u1 � u2 ∈ U , tienen
imagen distinta. Esto es, si y sólo si
u1 �= u2 implica T �u1 ) �= T �u2 ); para todo u1 � u2 ∈ U.
2. Se dice que T es sobreyectiva (o simplemente sobre), si cada elemento del espacio V posee al menos
una preimagen en U. Esto es si y sólo si
Para todo v ∈ V existe un u ∈ U tal que T �u) = v.
11
1.3. Transformaciones lineales Preliminares
1.3.1. Matriz de una transformación lineal referida a un par de bases ordenadas. A cada
transformación lineal se le puede asignar una matriz A� la cual está determinada por las bases de los espacios
vectoriales involucrados en dicha transformación. Se verá en esta sección, que una tal asignación simplificará
muchos cálculos. Es decir, será más conveniente trabajar con la matriz asociada a una transformación lineal
(referida a ciertas bases), que con la transformación lineal misma.
ˆ ˜
[T ]B� B2 = [T �u1 )]B2 [T �u2 )]B2 ··· [T �un )]B2 .
Nota. Por el teorema anterior y por el teorema 1.37, la transformación lineal T queda completamente
determinada por el conocimiento de las bases B1 y B2 , y de la matriz [T ]B� B2 .
2. La función múltiplo escalar de T ; �αT ) : U → V� definida por �αT )�u) = αT �u) es una transfor-
mación lineal. Más aún
12
Preliminares 1.4. Espacios fundamentales de matrices
Nota. Sean U , V dos espacios vectoriales, se denota con L�U� V ) al conjunto de todas las transformaciones
lineales entonces:
1. El conjunto L�U� V ) junto con las operaciones mencionadas en el teorema anterior es un espacio
vectorial. además, si dim U = n y dim V = m entonces dim L�U� V ) = m × n.
2. De la misma forma como una base B1 de U determina la correspondencia biunívoca entre los es-
pacios vectoriales V y �m×1 , dada por, v → [v]B2 ; las bases B1 y B2 de U y V , determinan la
correspondencia biunívoca entre los espacios L�U� V ) y �m×n , la cual está dada por T → [T ]B� B2 .
Esta correspondencia preserva la suma de vectores y la multiplicación de un escalar por un vec-
tor, tal como se establece en el teorema anterior. En otras palabras, esta correspondencia es una
transformación lineal.
1.44. Teorema. Sean T : U → V y S : V → W transformaciones lineales. Entonces, la composición
S ◦ T : U → W es una transformación lineal. Si además, B1 � B2 y B3 representan bases ordenadas para los
espacios U� V y W respectivamente, entonces se tiene que:
[S ◦ T ]B� B3 = [S]B2 B3 [T ]B� B2 .
1.45. Teorema. Si T : U → V es una transformación lineal biyectiva, entonces la función inversa de T ,
T −1 : V → U es una transformación lineal y la matriz [T ]B� B2 es invertible. Además,
ˆ −1 ˜ ˆ ˜−1
T B B
= T B B .
2 � � 2
1.3.3. Matrices semejantes. Cambio de baseo por gen{v1 � v2 � . . . � vn }. Los conceptos de ma-
trices semejantes y cambio de base serán particularmente útiles en el capítulo 4 para el estudio de los valores
propios y los vectores propios de una transformación lineal.
1.46. Definición. [Matrices semejantes]Sean A y B matrices cuadradas de orden n, se dice que A y B son
semejantes, si existe una matriz invertible P tal que B = P −1 AP.
1.47. Definición. [Matriz cambio de base]Sean B1 y B2 bases ordenadas del espacio vectorial U� y sea
I : U → U la transformación lineal idéntica. La matriz P = [I]B� B2 se denomina matriz de cambio de base
de la base B1 a la base B2 , (ésto debido a lo enunciado por el teorema 1.42, [u]B2 = [I]B� B2 [u]B� ).
1.48. Teorema. Sean T : U → U una transformación lineal y B1 y B2 bases ordenadas de U .
1.4. Espacios fundamentales de una matriz. Rango de una matriz. Sistemas de ecuaciones
lineales
En esta sección se consideran los llamados espacios fundamentales de una matriz A. Dos de estos espacios
son precisamente el núcleo y la imagen de la transformación lineal x → y = Ax, los cuales están relacionados
con el conjunto solución de un sistema de ecuaciones lineales Ax = y. El lector recordará de los resultados
de un primer curso de álgebra lineal, que el espacio fila y es espacio columna de A tienen igual dimensión.
A ese número común se le denomina rango de A y se denota por ρ�A).
Sea A una matriz m × n. El subespacio de Rn generado por las filas de A se denomina espacio fila de A y lo
denotamos por F �A); esto es, F �A) = �A1 � A2 � . . . � Am �. El subespacio de Rm generado por las columnas
de A se denomina espacio columna de A y lo denotamos por C�A); esto es, C�A) = �A1 � A2 � . . . � An �. El
13
1.4. Espacios fundamentales de matrices Preliminares
1. F �A) y N �A) son ortogonales. ésto es, sus elementos son ortogonales entre si.
2. C�A) y N �At ) son ortogonales. ésto es, sus elementos son ortogonales entre si.
1.51. Teorema. Sean A y B matrices de tamaño adecuado, tales que las operaciones siguientes están
definidas.
Esto implica entonces, que cada x ∈ Rn y cada y ∈ Rm se pueden expresar en forma única así: x = f + n
y y = c + u, donde f � n� c y u pertenecen a F �A)� N �A)� C�A) y N �AT )� respectivamente (ver figura 1.1).
14
Preliminares 1.4. Espacios fundamentales de matrices
n m
IR IR
F(A) x= f+ n � (A)
Ax= Af y= c+ u
f
c
n u
T
N (A) N (A )
De otro lado, si definimos el rango de la matriz A, ρ�A), como el rango de la transformación lineal x →
y = Ax, entonces se tiene que rango de A es la dimensión del espacio columna de A.
1.53. Teorema. Sea A una matriz m × n� entonces:
El teorema siguiente recoge, teóricamente, el método de Gauss-Jordan para resolver sistemas de ecuaciones
lineales.
1.55. Teorema. Sean A una matriz m × n y y un vector n × 1. Si P es una matriz invertible m × m tal
que P A = R, donde R es la forma escalonada reducida de A� entonces Ax = y sii Rx = P y; esto es, los
sistemas de ecuaciones lineales Ax = y y Rx = P y tienen el mismo conjunto solución. En particular, si
y = �; Ax = � sii Rx = �.
1.56. Teorema (Resumen). Sea A una matriz cuadrada de orden n. Las afirmaciones siguientes son equiv-
alentes:
1. det�A) �= 0.
2. A es invertible.
3. La forma escalonada de A en In .
15
1.4. Espacios fundamentales de matrices Preliminares
Por último, consideramos un método para calcular una base de cada uno de los espacios fundamentales de
una matriz m × n arbitraria A. El método consiste en efectuar los pasos siguientes:
Paso 2 Efectúe operaciones elementales sobre las filas de la matriz anterior hasta obtener la forma
escalonada reducida. Al final se obtiene la matriz puede describir por bloques así:
2 3
Er×m Pr×n
4 5
��n−r)×m P�n−r)×n
donde r = ρ�A).
Los vectores fila de la matriz Er×m conforman una base para C�A) y los vectores fila de la
matriz P�n−r)×n conforman una base para N �A).
Al llevar a cabo el paso 2 con la matriz [A | Im ] se obtienen sendas bases para C�AT ) = F �A) y N �AT ).
16