Sei sulla pagina 1di 16

CAPÍTULO 1

Preliminares

En este capítulo se recopilan algunas definiciones y algunos resultados básicos que servirán de referencia
en el desarrollo de los capítulos posteriores. Se consideran aquí varios aspectos relacionados con matrices,
espacios vectoriales y transformaciones lineales. El orden en que se presentan los temas no corresponde al
encontrado en la mayoría de textos utilizados en un primer curso de álgebra lineal (Grossman [5], Nakos y
Yoyner [10], Strang [14] y otros).

1.1. Matrices

Una matriz A de tamaño m × n (o simplemente Am×n ) es un arreglo rectangular de escalares � dispuestos


en m filas (�líneas� horizontales) y n columnas (�líneas� verticales); el escalar que está en la i-ésima fila y
en la j-ésima columna se denota por aij o �A�ij y se llama elemento ij de la matriz A. Para indicar dicho
arreglo usualmente se escribe A = [aij ]m×n , o en forma expandida
a11 a12 · · · a1n
2 3
6 a21 a22 · · · a2n 7
(1.1) A=6 . .. .. .. 7 .
6 7
4 .. . . . 5
am1 am2 · · · amn
Si Ai denota la i-ésima fila de A y Aj la j-ésima columna de A; esto es,

a1j
2 3
6 a2j 7
Aj = 6 .
ˆ ˜
Ai = ai1 ai2 ··· ain ; 7�
6 7
4 .. 5
amj

entonces el arreglo (1.1) se puede representar por filas o por columnas como sigue:
A1
2 3
6 A2 7 ˆ
A = 6 . 7 = A1 A2 · · · An .
6 7 ˜
4 .. 5
Am
Las matrices se denotan, como se ha sugerido, con letras mayúsculas A� B� C, etc. El conjunto de todas
las matrices m × n con elementos reales se denotará por �m×n �R) o simplemente �m×n . Los elementos de
�n×n se llaman matrices cuadradas de orden n; a la �diagonal� formada por los elementos a11 � a22 � . . . � ann
de una tal matriz A, se le llama diagonal principal de A.

�A no ser de que se exprese lo contrario, todos los escalares serán números reales


1.1. Matrices Preliminares

Toda matriz cuadrada A cuyos elementos fuera de la diagonal principal son nulos (aij = 0 para i �= j� i� j =
1� 2� . . . � n), se denomina matriz diagonal y usualmente se escribe A = diag�a11 � a22 � . . . � ann ). Una matriz
cuadrada se llamada triangular superior (inferior) si todos sus elementos abajo (arriba) de su diagonal
principal son nulos.

La matriz diagonal de orden n, cuyos elementos en su diagonal principal son todos iguales a 1, se denomina
matriz idéntica o matriz identidad de orden n; tal matriz se denota por In (o simplemente I� cuando no sea
necesario especificar el orden).

Una matriz nula es una matriz cuyos elementos son todos nulos. Una matriz nula será denotada por � (o
por �m×n cuando sea necesario especificar el tamaño de la matriz).

Dos matrices A y B de igual tamaño m × n son iguales si y sólo si sus componentes correspondientes son
iguales. Esto es,
�A�ij = �B�ij ; i = 1� 2� . . . � m� j = 1� 2� . . . � n.
La suma A + B de dos matrices A y B de tamaño m × n, es la matriz m × n tal que:
�A + B�ij = �A�ij + �B�ij ; i = 1� 2� . . . � m� j = 1� 2� . . . � n.
La multiplicación αA del número α por la matriz A de tamaño m × n, es la matriz de tamaño m × n, tal
que:
�αA�ij = α �A�ij ; i = 1� 2� . . . � m� j = 1� 2� . . . � n.
El producto AB de la matriz A ∈ �m×s por la matriz B ∈ �s×n , es la matriz de tamaño m × n, tal que:
Xs
�AB�ij = �A�ik �B�kj ≡ Ai · B j ; i = 1� 2� . . . � m� j = 1� 2� . . . � n.
k=1

1.1.1. Inversa de una matriz. Sea A ∈ �n×n . Si existe una matriz B ∈ �n×n tal que AB = I,
se puede demostrar que BA = I y que B es única. Cuando existe una matriz B tal que AB = I� a B se le
llama la matriz inversa de A y se le denota por A−1 . Es este caso se dice que A es no singular o invertible;
en caso contrario, se dice que A es no invertible o singular.

En el siguiente teorema se establecen algunas propiedades de la inversa de una matriz


1.1. Teorema. Si A� B ∈ �n×n son matrices´−1invertibles y si α es un número no nulo, entonces:
1. La matriz
`
A−1 es invertible y A−1 = A.
2. La matriz AB es invertible y �AB)−1 = B −1 A−1 .
3. La matriz αA es invertible y �αA)−1 = α−1 A−1 .

1.1.2. Transpuesta de una matriz. Sea A una matriz m × n. La matriz transpuesta de A es la


matriz n × m, denotada por AT , cuya i-ésima fila corresponde a la i-ésima columna de la matriz A. Esto
es, la transpuesta de A es la matriz AT tal que �ATij � = �Aji �, para i = 1� 2� . . . m� y j = 1� 2� . . . n.

Sea A una matriz cuadrada. Si AT = A� se dice que A es una matriz simétrica, y si AT = −A� se dice que
A es una matriz antisimétrica. En particular, las matrices diagonales son simétricas.

Las propiedades más relevantes de la transpocisión se dan en el siguiente teorema.


1.2. Teorema. Si A y B son matrices tales que las operaciones siguientes están bien definidas, entonces:
1. �AT )T = A.
2. AT = B T si y sólo si A = B.
3. Si A es una matriz diagonal, entonces AT = A.
4. Si α� β son números, entonces �αA + βB)T = αAT + βB T .
5. �AB)T = B T AT .

2
Preliminares 1.1. Matrices

6. Las matrices AT A y AAT son simétricas.


7. Si A es invertible, entonces AT es invertible y �AT )−1 = �A−1 )T .

1.1.3. Determinantes. En este apartado se dan las definiciones de menor, cofactor, matriz de cofac-
tores, matriz adjunta y determinante de una matriz cuadrada. Además se presentan algunas propiedades
del determinante. En lo sucesivo, el determinante de una matriz A será denotado por |A| o por det�A).

Se define el determinante de una matriz de manera inductiva. Para una matriz A1×1 , que consta de un sólo
elemento; digamos A = [a], se define det�A) = a. El determinante de una matriz n × n; n ≥ 2, se define en
términos de determinantes de matrices �n − 1) × �n − 1); para ello es necesario introducir los conceptos de
menor y cofactor.

Sea A = [aij ]n×n ; el menor del elemento �A�ij se denota por mij y se define como el determinante de la
matriz que resulta al suprimir la i-ésima fila de A y la j-ésima columna de A. El cofactor del elemento �A�ij
se denota por Cij y se define como
Cij = �−1)i+j mij .
La matriz C, cuyos elementos son los cofactores Cij de A se denomina matriz de los cofactores de A. La
transpuesta de la matriz de cofactores C, se denomina adjunta de A y se denota por adj�A), es decir,
adj�A) = C T .

El determinante de A se define entonces como el número


Xn
det�A) = �A�1j C1j �
j=1

En particular, si A = [aij ]2×2 entonces det�A) = a11 a22 − a12 a21 .

En el siguiente teorema se dan expresiones para calcular el determinante de una matriz (cuadrada) en
términos de sus cofactores. Además, muestra que el valor del determinante no depende de la fila o columna
a lo largo de la cual se haga la expansión. Dicho teorema presenta también una forma para calcular la
inversa de una matriz.

1.3. Teorema. Sea A una matriz cuadrada de orden n.


1. Si Cij denota el cofactor del elemento �A�ij , entonces:
Xn
a) det�A) = �A�ij Cij � para cada i = 1� 2� . . . � n.
j=1
n
X
b) det�A) = �A�ij Cij � para cada j = 1� 2� . . . � n.
i=1
2. Para cualquier matriz cuadrada A, se tiene que
A · adj�A) = adj�A) · A = det�A) · I .
3. La matriz A es invertible sii |A| �= 0, en este caso se tiene que
A−1 = �det�A))−1 · adj�A) .

Las principales propiedades del determinante de una matriz se recogen en el teorema que sigue.

1.4. Teorema. Sean A� B y C matrices cuadradas de orden n� entonces:


1. |A| = |AT | .
2. Si A tiene una fila nula, entonces |A| = 0.

3
1.1. Matrices Preliminares

3. Si A y B son matrices que difieren únicamente en la k-ésima fila y si Ak = α · Bk (con α �= 0),


entonces |A| = α|B|.
4. Si α es un escalar, entonces |αA| = αn |A|.
5. Si A, B y C difieren únicamente en la k-ésima fila y si Ck = Ak + Bk , entonces |C| = |A| + |B|.
6. Si A tiene dos filas iguales, entonces |A| = 0.
7. Si B se obtiene al intercambiar dos filas de A, entonces |B| = −|A|.
8. El determinante de una matriz no cambia si los elementos de la i-ésima fila son multiplicados por
un escalar α y los resultados son sumados a los correspondientes elementos de la k-ésima fila, para
k �= i.
9. |AB| = |A||B|.
Nota. Por (1), cualquier proposición sobre |A| que sea verdadera en las filas de A es también verdadera
para las columnas de A.

1.1.4. Operaciones elementales. Matrices elementales. En este apartado se introducen las


operaciones elementales y las correspondientes matrices elementales, que constituyen la herramienta básica
para describir ciertos procesos de cálculo y para demostrar algunos resultados importantes del álgebra lineal
relacionados con los sistemas de ecuaciones lineales, con la inversa generalizada de una matriz y con diversas
descomposiciones de una matriz. Para un desarrollo detallado ver Espinosa y Marmolejo [6].
1.5. Definición (Operaciones y matrices elementales). Dada una matriz A, cada una de las siguientes
operaciones es llamada una operación elemental en las filas (columnas) de A.

(i) El intercambio de dos filas (columnas) de A.


(ii) La multiplicación de los elementos de una fila (columna) de A por un escalar no nulo.
(iii) Reemplazar una fila (columna) de A, por la suma de ella y un múltiplo escalar no nulo de otra fila
(columna) de dicha matriz.

Una matriz elemental por filas (columnas) es aquella que resulta de efectuar una operación elemental sobre
las filas (columnas) de una matriz identidad.
1.6. Teorema (Matrices elementales).
1. Cada matriz elemental es invertible. Además, la inversa de cada matriz elemental es una matriz
elemental.
2. Sea A una matriz m × n. Si B es una matriz que resulta al efectuar una operación elemental sobre
las filas de A y si E es la matriz elemental que resulta de efectuar la misma operación elemental
sobre las filas de la matriz idéntica Im , entonces E · A = B.
3. Sea A una matriz m × n. Si B es una matriz que resulta al efectuar una operación elemental
sobre las columnas de A y si E es la matriz elemental que resulta de efectuar la misma operación
elemental sobre las columnas de la matriz idéntica In , entonces A · E = B.
1.7. Definición (Forma escalonada reducida). Se dice que una matriz R tiene la forma escalonada reducida,
si satisface las siguientes condiciones:
(i) Si una fila de R es no nula, el primer elemento no nulo de dicha fila, de izquierda a derecha, es 1.
(ii) Si las filas i e i + 1 de R son no nulas, el primer elemento no nulo de la fila i + 1 está a la derecha
del primer elemento no nulo de la fila i.
(iii) Si una columna de R contiene el primer elemento no nulo de una fila de R� los demás elementos
de dicha columna son nulos.
(iv) Si R tiene filas nulas, éstas aparecen en la parte inferior de R.

El siguiente teorema relaciona los conceptos de matrices elementales y forma escalonada reducida para una
matriz arbitraria.

4
Preliminares 1.2. Espacios vectoriales

1.8. Teorema. Para toda matriz A existe una única matriz R que tiene la forma escalonada reducida y un
número finito de matrices elementales por filas E1 � E2 � . . . � Ek tales que:
E k · · · E 2 · E1 · A = R .

La matriz R mencionada en el teorema anterior se denomina la forma escalonada reducida de A.


1.9. Teorema. Sea A una matriz cuadrada de orden n.
1. A es invertible sii la forma escalonada reducida de A es In .
2. A es invertible sii A se puede expresar como el producto de un número finito de matrices elementales.

Los dos últimos teoremas dan lugar a un método para decidir cuándo una matriz cuadrada A es invertible
y, simultáneamente, proveen un algoritmo para calcular su inversa.

El método consiste en lo siguiente: Forme la matriz [A | In ]. Seguidamente efectúe operaciones elementales


sobre la filas de esta matriz hasta obtener su forma escalonada reducida; al final se obtiene una matriz
que se representa como: [R | P ]; donde R es la forma escalonada reducida de A. Ahora: A es invertible sii
R = In . Si A es invertible entonces A−1 = P .

1.2. Espacios vectoriales

El conjunto de matrices m×n, junto con las operaciones suma de matrices y multiplicación de un escalar por
una matriz, tiene una estructura algebraica denominada espacio vectorial. Esta estructura es importante
porque incluye otros conjuntos que se presentan frecuentemente en las matemáticas y sus aplicaciones.
1.10. Definición. Un espacio vectorial (real) es un conjunto V , cuyos elementos son llamados vectores,
junto con dos operaciones: suma de vectores �+) y multiplicación de un escalar por un vector �·), que
satisfacen las propiedades siguientes:

(i) Si u ∈ V y v ∈ V , entonces u + v ∈ V .
(ii) Si u ∈ V y v ∈ V , entonces u + v = v + u.
(iii) Si u ∈ V , v ∈ V y w ∈ V , entonces
�u + v) + w = u + �v + w) = u + v + w.
(iv) Existe un vector � ∈ V tal que para todo u ∈ V , u + � = � + u = u.
(v) Si u ∈ V , entonces existe un vector −u ∈ V tal que
u + �−u) = �−u) + u = �.
(vi) Si u ∈ V y α es un escalar, αu ∈ V .
(vii) Si u ∈ V y α� β son escalares, entonces �αβ)u = α�βu) = β�αu).
(viii) Si u ∈ V y α� β son escalares, entonces �α + β)u = αu + βu.
(ix) Si u ∈ V y v ∈ V y α es un escalar, entonces α�u + v) = αu + αv.
(x) Si u ∈ V , entonces 1u = u.
1.11. Ejemplo. Son espacios vectoriales:

1. V = Rn = {�x1 � x2 � . . . � xn ) : xi ∈ R� i = 1� 2� . . . � n} con las operaciones definidas así:


�x1 � x2 � . . . � xn ) + �y1 � y2 � . . . � yn ) = �x1 + y1 � x2 + y2 � . . . � xn + yn )
α · �x1 � x2 � . . . � xn ) = �αx1 � αx2 � . . . � αxn ) .
2. V = �m×n , el conjunto de matrices m × n con las operaciones definidas en la sección 1.1.

5
1.2. Espacios vectoriales Preliminares

3. V = F �R� R), el conjunto de funciones de R en R con las operaciones definidas así :


�f + g)�t) = f �t) + g�t) � t ∈ R.

�αf )�t) = αf �t) � t ∈ R.


4. V = Pn , el conjunto de los polinomios de grado menor o igual que n con las operaciones definidas
en el ejemplo anterior.

Como se establece en la definición, un espacio vectorial (real) es un tripla que consta de un conjunto V y
de dos operaciones con ciertas propiedades. Cuando no haya lugar a confusión o cuando no sea necesario
explicar las operaciones mencionadas, se hará referencia simplemente al espacio vectorial V.
1.12. Definición. Sea V un espacio vectorial y W un subconjunto no vacío de V. Se dice que un W es
subespacio de V , si W� junto con las operaciones definidas en V , es un espacio vectorial.
1.13. Definición. Sean V un espacio vectorial, v0 un elemento de V y W es un subespacio de V . El
subconjunto determinado así:
L = {v ∈ V : v = v0 + w� para w ∈ W }�
es denominado una variedad lineal de V .

El siguiente concepto es básico en el estudio de los espacios vectoriales. En particular, servirá para carac-
terizar ciertos subespacios de un espacio vectorial.
1.14. Definición. Sean v1 � v2 � . . . � vn vectores de un espacio vectorial V . Se dice que un vector v ∈ V es
combinación lineal de los vectores v1 � v2 � . . . � vn , si existen escalares α1 � α2 � . . . � αn tales que:
n
X
v = α1 v1 + α2 v2 + · · · + αn vn = αi vi .
i=1

1.15. Teorema. Sea W un subconjunto no vacío de un espacio vectorial V . Entonces, W es un subespacio


de V sii W es cerrado bajo la operación suma de vectores y la multiplicación por un escalar, es decir, sii

1. Si u ∈ W y v ∈ W , entonces u + v ∈ W .
2. Si u ∈ W y α ∈ R, entonces αu ∈ W .
1.16. Teorema. Si U y W son subespacios de un espacio vectorial V , entonces:

1. La intersección de U con W ; U ∩ W es un subespacio vectorial de V .


2. La suma de U con W ; definida por
U + W = {v ∈ V : v = u + w� con u ∈ U y w ∈ W }�
es un subespacio vectorial de V .
1.17. Teorema. Sea C un conjunto no vacío de vectores de un espacio vectorial V . El conjunto de todas
las combinaciones lineales de los vectores de C;
k
X
W = {v ∈ V : v = αi vi ; k ∈ N� vi ∈ C y αi ∈ R� i = 1� 2� . . . � k}
i=1

es un subespacio de V.

6
Preliminares 1.2. Espacios vectoriales

Sea C un conjunto no vacío de vectores de un espacio vectorial V . El subespacio de V� de todas las


combinaciones lineales de los vectores de C mencionado en el teorema anterior, es denominado el espacio
generado por los vectores de C o simplemente, espacio generado por C. Cuando C = {v1 � v2 � . . . � vn } (es
finito), este espacio será denotado por �v1 � v2 � . . . � vn � o por gen{v1 � v2 � . . . � vn }.

Cuando consideramos un conjunto C de vectores de un espacio vectorial, es a veces importante determinar


cuándo algún vector o algunos de los vectores de C se pueden expresar como combinaciones lineales de los
restantes vectores en C. Para ello, necesitamos de la definición de dependencia lineal de un conjunto de
vectores y algunos resultados sobre ella.
1.18. Definición (Independencia lineal). Sea C = {v1 � v2 � . . . � vn } un conjunto de vectores (distintos)
de un espacio vectorial V . Se dice que C es linealmente dependiente o que los vectores v1 � v2 � . . . � vn son
linealmente dependientes, si existen escalares α1 � α2 � . . . � αn no todos nulos tales que:
Xn
� = α1 v1 + α2 v2 + · · · + αn vn = αi vi �
i=1

en caso contrario, se dice que C es linealmente independiente o que los vectores v1 � v2 � . . . � vn son lineal-
Pindependientes. Es decir; C es linealmente independiente, si para todos los escalares α1 � α2 � . . . � αn ;
mente
�= n i=1 αi vi � implica
α1 = α2 = . . . � = αn = 0 .
1.19. Teorema. En un espacio vectorial V se tiene:

1. Todo conjunto que contenga el vector nulo, �� es linealmente dependiente.


2. Todo conjunto que contenga un subconjunto linealmente dependiente es linealmente dependiente.
3. Todo subconjunto de un conjunto linealmente independiente, es linealmente independiente.
4. Un conjunto de vectores C = {v1 � v2 � . . . � vn }, n ≥ 2� es linealmente dependiente sii uno de los
vectores de C es combinación lineal de los restantes vectores de C.

1.2.1. Bases y dimensión. Dado un espacio vectorial V� es útil determinar un subconjunto B de


V que sea linealmente independiente y que genere al espacio V ; un tal conjunto B se denomina base de V.

Se dice que un espacio vectorial V es de dimensión finita, si existe un conjunto finito C de vectores de V , tal
que el espacio generado por C en V . En caso contrario, se dice que dicho espacio tiene dimensión infinita.
Ejemplos de éstos últimos son: el conjunto de funciones de R en R� o el conjunto de todos los polinomios.
En lo que sigue, se consideran sólo espacios de dimensión finita.
1.20. Definición (Base). Sea B un conjunto de vectores de un espacio vectorial V. Se dice que B es una
base de V si se tienen las dos condiciones:
(i) El espacio generado por B es V .
(ii) El conjunto B es linealmente independiente.

Si un espacio vectorial V tiene una base B1 = {v1 � v2 � . . . � vn } compuesta por un número ninito n de
vectores, entonces se puede demostrar, que cualquier otra base B2 de V tiene exactamente n elementos. A
dicho número común se le llama dimensión del espacio V y se escribe dim V = n. El siguiente teorema resume
algunos resultados importantes sobre espacios vectoriales (bases, conjuntos lienalmente independientes,
conjuntos generadores, etc.).
1.21. Teorema. Sea V un espacio vectorial de dimensión n.
1. Si B = {v1 � v2 � . . . � vn } es un conjunto de n vectores de V� entonces:
a) B es una base de V sii B es linealmente independiente.
b) B es una base de V sii B genera a V .

7
1.2. Espacios vectoriales Preliminares

2. Si C = {u1 � u2 � . . . � ur } es un conjunto linealmente independiente, entonces r ≤ n.


3. Si C = {u1 � u2 � . . . � ur } es un conjunto linealmente independiente, con r < n, entonces existen
n − r vectores de V ; w1 � w2 � . . . � wn−r , tales que B = {u1 � u2 � . . . � ur � w1 � . . . � wn−r } es una
base de V.
4. Si C = {u1 � u2 � . . . � ur } genera a V entonces r ≥ n.
5. Si el conjunto C = {u1 � u2 � . . . � ur } genera a V y r > n, entonces existen n − r vectores de C;
denotados por w1 � w2 � . . . � wn−r , tales que B = C \{w1 � w2 � . . . � wn−r } es una base de V.
6. Si W es un subespacio de V entonces dim W ≤ n. Si dim W = n, entonces W = V.
1.22. Teorema. Si U y W son subespacios de un espacio vectorial V entonces
dim�U + W ) = dim U + dim V − dim�U ∩ W ) .
1.23. Nota. En el teorema anterior si U ∩ W = {�}, al espacio U + W de V se le denomina suma directa
de U con W y se escribe U ⊕ W en lugar de U + W . En este caso, cada vector v ∈ U ⊕ W se puede expresar
de manera única como suma de un vector u ∈ U y un vector w ∈ W ; es decir existen vectores únicos u ∈ U
y w ∈ W tales que v = u + w. Además se tiene que
U ∩ W = {�} sii dim�U + W ) = dim U + dim V .
1.24. Teorema. Si U es un subespacio de un espacio vectorial V , entonces existe un subespacio W de V
tal que U ⊕ W = V.

El subespacio W del teorema anterior no es necesariamente único y es llamado un complemento de U.


También se dice que U y W son subespacios complementarios.
1.25. Definición. Sea W un subespacio de un espacio vectorial V� v0 un vector en V y L la variedad
L = {v ∈ V : v = v0 + w� w ∈ W }.
Si dim W = k� entonces se dice que la variedad lineal L tiene dimensión k.

1.2.2. Coordenadas. El concepto de coordenadas de un vector respecto de una base es útil en el


estudio de las transformaciones lineales. Para introducir este concepto es necesario definir primero lo que es
una base ordenada de un espacio vectorial V. En la definición 1.20 era irrelevante en qué orden apareciera
los elementos de una base. Sin embargo, a partir de ahora el orden será importante.
1.26. Definición (Base ordenada). Si v1 � v2 � . . . � vn es una sucesión finita de vectores linealmente inde-
pendientes de un espacio vectorial V� que generan a V , entonces se dice que B = {v1 � v2 � . . . � vn } es una
base ordenada de V.
1.27. Teorema. Si B = {v1 � v2 � . . . � vn } es una base ordenada de V , entonces para cada vector v ∈ V
existen escalares α1 � α2 � . . . � αn únicos tales que
n
X
v = α1 v1 + α2 v2 + · · · + αn vn = αi vi �
i=1

1.28. Definición. Sea B = {v1 � v2 � . . . � vn } una base ordenada P


de un espacio vectorial V . Sea v un vector
de V y sean α1 � α2 � . . . � αn los escalares únicos tales que v = ni=1 αi vi , el vector (vector columna) de
coordenadas de v respecto de la base ordenada B se denota por [v]B y se define así:
α1
2 3
6 α2 7
[v]B = 6 . 7 .
6 7
4 .. 5
αn

8
Preliminares 1.2. Espacios vectoriales

Si u y v son dos vectores de V y si α es un escalar, entonces [αu]B = α [u]B y [u + v]B = [u]B + [v]B .
T
De otro lado, a cada vector n × 1 (matriz
P n × 1) c = [ α1 α2 ··· αn ] le corresponde un único vector
v de V tal que [v]B = c, a saber v = n i=1 αi vi .

Así, cada base ordenada B de V determina una correspondencia biunívoca, v → [v]B , entre los espacios V y
�n×1 , que preserva las suma de vectores y la multiplicación de un escalar por un vector. Más aún, preserva
la independencia lineal; ésto es, el conjunto C = {u1 � u2 � . . . � uk } es un conjunto de vectores linealmente
independientes de V sii el conjunto C ∗ = {[u1 ]B � [u2 ]B � . . . � [ uk ]B } es un conjunto de vectores linealmente
independientes de �n×1 .

En el caso en que V = Rn y B = {e1 � e2 � . . . � en } sea la base canónica, es decir e1 = �1� 0� 0� . . . � 0)�


e2 = �0� 1� 0� . . . � 0)�. . . � en = �0� 0� 0� . . . � 1), la mencionada correspondencia está dada por
x1
2 3
6 x2 7
x = �x1 � x2 � . . . � xn ) −→ [x]B = 6 . 7 .
6 7
4 .. 5
xn
En algunas situaciones resulta conveniente tener presente esta correspondencia, la cual se usa en este texto
identificando a x con [x]B .

1.2.3. Producto interno. Bases ortonormales. En este apartado se consideran los conceptos de
producto interno y de bases ortonormales, lo que será particularmente útiles en el capítulo 3 al tratar la
diagonalización de matrices simétricas.
1.29. Definición (Producto interno). Sea V un espacio vectorial. Sean además u� v y w vectores arbitrarios
de V y α un escalar real. Un producto interno en V es una función �·; ·� : V × V → R que satisface las
propiedades:

(i) �u; v� = �v; u�.


(ii) �u; u� ≥ 0 y �u; u� = 0 si y sólo si u = �.
(iii) �αu; v� = α �u; v�.
(iv) �u + v; w� = �u; w� + �v; w�.
Observación. Si B es una base ordenada de un espacio vectorial V , entonces la función �·; ·� : V × V → R
definida por �u; v� = [u]TB [v]B es un producto interno. En particular, si V = Rn y B es la base canónica
de Rn , se tiene que
�x; y� = [x]TB [y]B = x1 y1 + x2 y2 + · · · + xn yn �
donde x = �x1 � x2 � . . . � xn ) y y = �y1 � y2 � . . . � yn ).

En lo que sigue se considera a Rn con este producto interno (producto escalar) y a veces se escribe x · y o
xT y para indicar a �x; y�.

Si �·; ·� es un producto interno sobre un


p espacio vectorial V , la norma o longitud de un vector v de V se
denota por �v� y se define así: �v� = �v; v�. Cuando �v� = 1, se dice que v es un vector unitario.
Nota. En lo que resta de este texto, cuando se use la norma �v� de un vector v ∈ Rn se estará haciendo
referencia a la norma euclidiada, es decir, si v es el vector de componentes v = [ v1 v2 . . . vn ]T ,
entonces q
�v� = v12 + v22 + · · · + vn2 .

9
1.2. Espacios vectoriales Preliminares

1.30. Teorema (Desigualdad de Schwarz). Sea V un espacio vectorial con producto interno �·; ·�. Para cada
par de vectores u y v de V se satisface la desigualdad

|�u; v�| ≤ �u� �v� .

Sean u y v vectores de un espacio vectorial V con producto interno �·; ·�, si u y v no son nulos, la medida
del ángulo entre ellos se define como
|�u; v�|
θ = arc cos .
�u� �v�

1.31. Definición. Sea V un espacio vectorial con producto interno �·; ·�:

1. Se dice que dos vectores u y v de V son ortogonales si �u; v� = 0.


2. Se dice que un conjunto C = {v1 � v2 � . . . � vn } de vectores de V es ortogonal si �vi ; vj � = 0 para
i �= j� i� j = 1� 2� . . . � n.
3. Se dice que un conjunto C = {v1 � v2 � . . . � vn } de vectores de V es ortonormal si C es ortogonal y
cada vector de C es unitario, o sea si:
(
1 si i = j
�vi ; vj � = δij = ; i� j = 1� 2� . . . � n .
0 si i �= j

4. Se dice que dos conjuntos no vacíos, C1 y C2 , de vectores son ortogonales, si para cada par de
vectores u ∈ C1 y v ∈ C2 � �u; v� = 0.

1.32. Teorema. Sea V un espacio vectorial con producto interno �·; ·�. Si C = {v1 � v2 � . . . � vn } es un
conjunto ortogonal que no contiene al vector �� entonces C es linealmente independiente.

1.33. Teorema (Proceso de ortogonalización de Gram-Schmidt). Sea W un subespacio no nulo de un


espacio vectorial V de dimensión finita k con producto interno �·; ·� y sea B = {w1 � w2 � . . . � wk } una base
de W. Entonces C = {v1 � v2 � . . . � vk } es una base ortogonal de W y C ∗ = {v1∗ � v2∗ � . . . � vk∗ } es una base
ortonormal de W , donde:

v1 = w1
�w2 ; v1 �
v2 = w2 − v1
�v1 ; v1 �
�w3 ; v1 � �w3 ; v2 �
v3 = w3 − v1 − v2
�v1 ; v1 � �v2 ; v2 �
..
.
k−1
X �wk ; vi �
vk = wk − vi �
i=1
�vi ; vi �

vi
y donde vi∗ = para i = 1� 2� . . . � k.
�vi �
1.34. Teorema. Sean v1 � v2 � . . . � vk vectores no nulos de un espacio vectorial V de dimensión n > k, con
producto interno �·; ·�. Si C1 = {v1 � v2 � . . . � vk } es un conjunto ortogonal (respectivamente ortonormal),
entonces existe un conjunto ortogonal (respectivamente ortonormal) C2 = {w1 � w2 � . . . � wn−k } de vectores
de V tal que B = C1 ∪ C2 es una base ortogonal (ortonormal) de V. Más aún, si U = �v1 � v2 � . . . � vk � y si
W = �w1 � w2 � . . . � wn−k � entonces V = U ⊕ W y además, U y W son ortogonales.

10
Preliminares 1.3. Transformaciones lineales

1.3. Transformaciones lineales

En esta sección se consideran los aspectos más importantes sobre las transformaciones lineales. En lo que
sigue; U� V y W denotarán espacios vectoriales.
1.35. Definición. Una función T : U → V es una transformación lineal, si para cualquier para de vectores
u1 � u2 en U y todo escalar α� se tiene que:
(i) T �u1 + u2 ) = T �u1 ) + T �u2 )
(ii) T �αu1 ) = αT �u1 ).
1.36. Ejemplo. Algunos ejemplos de transformaciones lineales son:
1. Para cada U� la función idéntica I : U → U� u → I�u) = u.
2. Para cada matriz A ∈ �m×n � la función A : Rn → Rm � definida por x → y = Ax. �
1.37. Teorema. Sean U y V espacios vectoriales, B = {u1 � u2 � . . . � un } una base de U y T : U → V es
una transformación lineal. Entonces T queda determinada por los vectores T �u1 )� T �u2 )� . . . � T �un ).

Asociados a toda transformación lineal hay dos subespacios importantes a saber; su núcleo y su imagen.
El primero de ellos corresponde a todos lo elementos del espacio U que son transformados en el elemento
nulo del espacio V ; el segundo, corresponde a todos los elementos del espacio V que tienen al menos una
preimagen en el espacio U. En forma más precisa tenemos
1.38. Definición. Sea T : U → V es una transformación lineal.
1. El núcleo de T se denota por N �T ) y se define así:
N �T ) = {u ∈ U : T �u) = 0} .
2. La imagen de T se denota por Img�T ) y se define así:
Img�T ) = {T �u) : u ∈ U } .
1.39. Definición. Sea T : U → V una transformación lineal.
1. Se dice que T es inyectiva (biunívoca o uno a uno), si dos elementos distintos u1 � u2 ∈ U , tienen
imagen distinta. Esto es, si y sólo si
u1 �= u2 implica T �u1 ) �= T �u2 ); para todo u1 � u2 ∈ U.
2. Se dice que T es sobreyectiva (o simplemente sobre), si cada elemento del espacio V posee al menos
una preimagen en U. Esto es si y sólo si
Para todo v ∈ V existe un u ∈ U tal que T �u) = v.

El siguiente teorema resume algunos aspectos básicos de las transformaciones lineales.


1.40. Teorema. Sea B = {u1 � u2 � . . . � un } un subconjunto de vectores de U y sea T : U → V una
transformación lineal:
1. N �T ) es un subespacio vectorial de U.
2. T es inyectiva sii N �T ) = {�} .
3. Img�T ) es un subespacio vectorial de V.
4. Si B es una base de U , entonces {T �u1 )� T �u2 )� . . . � T �un )} genera al espacio Img�T ).
5. Si T es inyectiva y B es linealmente independiente, entonces el conjunto {T �u1 )� T �u2 )� . . . � T �un )}
es linealmente independiente en V .
6. dim N �T ) + dim Img�T ) = dim U .

A la dimensión de N �T ) se le llama nulidad de T y a la dimensión de Img�T ) se llama rango de T.

11
1.3. Transformaciones lineales Preliminares

1.3.1. Matriz de una transformación lineal referida a un par de bases ordenadas. A cada
transformación lineal se le puede asignar una matriz A� la cual está determinada por las bases de los espacios
vectoriales involucrados en dicha transformación. Se verá en esta sección, que una tal asignación simplificará
muchos cálculos. Es decir, será más conveniente trabajar con la matriz asociada a una transformación lineal
(referida a ciertas bases), que con la transformación lineal misma.

1.41. Definición. Sean U y V espacios vectoriales, T : U → V una transformación lineal y sean B1 =


{u1 � u2 � . . . � un } y B2 = {v1 � v2 � . . . � vm } bases ordenadas de U y de V respectivamente. La matriz de T
referida a las bases B1 y B2 se denotará por [T ]B� B2 y corresponde a la matriz m × n dada por:

ˆ ˜
[T ]B� B2 = [T �u1 )]B2 [T �u2 )]B2 ··· [T �un )]B2 .

1.42. Teorema. Sean U y V espacios vectoriales, T : U → V una transformación lineal y sean B1 =


{u1 � u2 � . . . � un } y B2 = {v1 � v2 � . . . � vm } bases ordenadas de U y de V respectivamente. Para cada
u ∈ U se tiene que:

[T �u)]B2 = [T ]B� B2 [u]B� .

Nota. Por el teorema anterior y por el teorema 1.37, la transformación lineal T queda completamente
determinada por el conocimiento de las bases B1 y B2 , y de la matriz [T ]B� B2 .

1.3.2. álgebra de transformaciones lineales. Inversa de una transformación lineal. En esta


sección se consideran las operaciones de suma, multiplicación por un escalar y composición entre transfor-
maciones lineales. Así mismo se abordará la relación existente entre las matrices asociadas correspondientes.
En este apartado U� V y W denotan espacios vectoriales.

1.43. Teorema. Sean T : U → V y S : U → V transformaciones lineales y α un escalar. Sean además B1


y B2 bases ordenadas de U y V� respectivamente:

1. La función suma de T y S; �T + S) : U → V� definida por �T + S)�u) = T �u) + S�u) es una


transformación lineal. Más aún

[T + S]B� B2 = [T ]B� B2 + [S]B� B2 .

2. La función múltiplo escalar de T ; �αT ) : U → V� definida por �αT )�u) = αT �u) es una transfor-
mación lineal. Más aún

[αT ]B� B2 = α [T ]B� B2 .

12
Preliminares 1.4. Espacios fundamentales de matrices

Nota. Sean U , V dos espacios vectoriales, se denota con L�U� V ) al conjunto de todas las transformaciones
lineales entonces:
1. El conjunto L�U� V ) junto con las operaciones mencionadas en el teorema anterior es un espacio
vectorial. además, si dim U = n y dim V = m entonces dim L�U� V ) = m × n.
2. De la misma forma como una base B1 de U determina la correspondencia biunívoca entre los es-
pacios vectoriales V y �m×1 , dada por, v → [v]B2 ; las bases B1 y B2 de U y V , determinan la
correspondencia biunívoca entre los espacios L�U� V ) y �m×n , la cual está dada por T → [T ]B� B2 .
Esta correspondencia preserva la suma de vectores y la multiplicación de un escalar por un vec-
tor, tal como se establece en el teorema anterior. En otras palabras, esta correspondencia es una
transformación lineal.
1.44. Teorema. Sean T : U → V y S : V → W transformaciones lineales. Entonces, la composición
S ◦ T : U → W es una transformación lineal. Si además, B1 � B2 y B3 representan bases ordenadas para los
espacios U� V y W respectivamente, entonces se tiene que:
[S ◦ T ]B� B3 = [S]B2 B3 [T ]B� B2 .
1.45. Teorema. Si T : U → V es una transformación lineal biyectiva, entonces la función inversa de T ,
T −1 : V → U es una transformación lineal y la matriz [T ]B� B2 es invertible. Además,
ˆ −1 ˜ ˆ ˜−1
T B B
= T B B .
2 � � 2

1.3.3. Matrices semejantes. Cambio de baseo por gen{v1 � v2 � . . . � vn }. Los conceptos de ma-
trices semejantes y cambio de base serán particularmente útiles en el capítulo 4 para el estudio de los valores
propios y los vectores propios de una transformación lineal.
1.46. Definición. [Matrices semejantes]Sean A y B matrices cuadradas de orden n, se dice que A y B son
semejantes, si existe una matriz invertible P tal que B = P −1 AP.
1.47. Definición. [Matriz cambio de base]Sean B1 y B2 bases ordenadas del espacio vectorial U� y sea
I : U → U la transformación lineal idéntica. La matriz P = [I]B� B2 se denomina matriz de cambio de base
de la base B1 a la base B2 , (ésto debido a lo enunciado por el teorema 1.42, [u]B2 = [I]B� B2 [u]B� ).
1.48. Teorema. Sean T : U → U una transformación lineal y B1 y B2 bases ordenadas de U .

1. La matriz de cambio de base de la base B1 a la base B2 � P = [I]B� B2 , es invertible y su inversa es


la matriz de cambio de base de la base B2 a la base B1 .
2. Las matrices A = [T ]B2 B2 y B = [T ]B� B� son matrices semejantes, además se tiene
[T ]B� B� = [I]−1
B� B2 [T ]B2 B2 [I]B� B2 = P
−1
[T ]B2 B2 P .

1.4. Espacios fundamentales de una matriz. Rango de una matriz. Sistemas de ecuaciones
lineales

En esta sección se consideran los llamados espacios fundamentales de una matriz A. Dos de estos espacios
son precisamente el núcleo y la imagen de la transformación lineal x → y = Ax, los cuales están relacionados
con el conjunto solución de un sistema de ecuaciones lineales Ax = y. El lector recordará de los resultados
de un primer curso de álgebra lineal, que el espacio fila y es espacio columna de A tienen igual dimensión.
A ese número común se le denomina rango de A y se denota por ρ�A).

Sea A una matriz m × n. El subespacio de Rn generado por las filas de A se denomina espacio fila de A y lo
denotamos por F �A); esto es, F �A) = �A1 � A2 � . . . � Am �. El subespacio de Rm generado por las columnas
de A se denomina espacio columna de A y lo denotamos por C�A); esto es, C�A) = �A1 � A2 � . . . � An �. El

13
1.4. Espacios fundamentales de matrices Preliminares

espacio formado todas soluciones de un sistema homogéneo de ecuaciones lineales Ax = � se denomina


espacio nulo de una matriz, esto es, el espacio nulo es el conjunto
N �A) = {x ∈ Rn : Ax = � }.
n
De otro lado, el subespacio de R ;
Img�A) = {Ax : x ∈ Rn }
= {y ∈ Rm : y = Ax para algún x ∈ Rn } .
se denomina imagen de A.
1.49. Teorema. Para cualquier matriz A se tiene que
dim F �A) = dim C�A) .
1.50. Teorema. Sea A una matriz arbitraria entonces:

1. F �A) y N �A) son ortogonales. ésto es, sus elementos son ortogonales entre si.
2. C�A) y N �At ) son ortogonales. ésto es, sus elementos son ortogonales entre si.
1.51. Teorema. Sean A y B matrices de tamaño adecuado, tales que las operaciones siguientes están
definidas.

1. C�AB) ⊆ C�A) y F �AB)⊆ F �B).


2. Si P y Q son matrices invertibles de tamaño apropiado
a) C�A) = C�AQ).
b) F �A) = F �P A).
3. C�A + B) ⊆ C�A) + C�B) y F �A + B) ⊆ F �A) + F �B).
4. Para cualquier matriz A se tiene que: N �A) = N �AT A).
Nota. Según el inciso 2(b) del teorema anterior y según el teorema 1.8, si R es la forma escalonada reducida
de la matriz A� entonces F �A) = F �R).
1.52. Teorema. Sea A una matriz m×n. La imagen de la transformación lineal A : Rn → Rm , x → y = Ax,
es el espacio columna de A; esto es,
Img�A) = C�A) = {Ax : x ∈ Rn } .
Nota. De acuerdo con el inciso (3) del teorema 1.40 y de acuerdo con los teoremas 1.49 y 1.52: si A es
una matriz m × n, entonces
dim N �A) + dim F �A) = n.
Análogamente, puesto que F �At ) = C�A),
dim N �AT ) + dim C�A) = m.
De otra parte, con base en la nota 1.23,
Rn = F �A) ⊕ N �A) y Rm = C�A) ⊕ N �AT )�
es decir, los subespacios F �A) y N �A) de Rn son complementarios. Así mismo, los subespacios C�A) y
N �At ) de Rm son complementarios.

Esto implica entonces, que cada x ∈ Rn y cada y ∈ Rm se pueden expresar en forma única así: x = f + n
y y = c + u, donde f � n� c y u pertenecen a F �A)� N �A)� C�A) y N �AT )� respectivamente (ver figura 1.1).

Nota. Según las definiciones, el núcleo de la transformación lineal x → y = Ax es el espacio nulo de A.

14
Preliminares 1.4. Espacios fundamentales de matrices

n m
IR IR

F(A) x= f+ n � (A)
Ax= Af y= c+ u
f
c
n u
T
N (A) N (A )

Figura 1�1� Transformación lineal

De otro lado, si definimos el rango de la matriz A, ρ�A), como el rango de la transformación lineal x →
y = Ax, entonces se tiene que rango de A es la dimensión del espacio columna de A.
1.53. Teorema. Sea A una matriz m × n� entonces:

1. ρ�A) es igual al número máximo de filas linealmente independientes de la matriz A.


2. ρ�A) es el número máximo de columnas linealmente independientes de la matriz A.
3. ρ�A) es el número de filas no nulas de la forma escalonada reducida de la matriz A.
4. Para cualquier matriz A� ρ�A) = ρ�AT ) = ρ�AAT ) = ρ�AT A).
5. Si A es una matriz m × n y B es una matriz n × k, entonces ρ�AB) ≤ ρ�A) y ρ�AB) ≤ ρ�B).
6. Si P es una matriz invertible m × m y Q es una matriz invertible n × n, entonces ρ�A) = ρ�P A) =
ρ�AQ) = ρ�P AQ).
7. Si A y B son matrices m × n, entonces ρ�A + B) ≤ ρ�A) + ρ�B).
1.54. Teorema. Sea A una matriz m × n y sea y un vector m × 1.

1. El sistema de ecuaciones Ax = y tiene solución sii y ∈ C�A).


2. El sistema de ecuaciones Ax = y tiene solución sii el rango de la matriz A es igual al rango de la
matriz aumentada del sistema [A | y], es decir sii ρ�A) = ρ�[A| y]).
3. Para el sistema de ecuaciones lineales Ax = y se da una y sólo una de las opciones siguientes:
a) El sistema no tiene solución, en cuyo caso y ∈ / C�A).
b) El sistema tiene infinitas soluciones, en cuyo caso su conjunto solución es una variedad lineal
de la forma
S = {xp + xh : xh ∈ N �A)} �
donde xp es una solución particular del sistema; ésto es, Axp = y, además, dim N �A) > 0.
c) El sistema tiene una única solución. En este caso se tiene que N �A) = {�}.

El teorema siguiente recoge, teóricamente, el método de Gauss-Jordan para resolver sistemas de ecuaciones
lineales.
1.55. Teorema. Sean A una matriz m × n y y un vector n × 1. Si P es una matriz invertible m × m tal
que P A = R, donde R es la forma escalonada reducida de A� entonces Ax = y sii Rx = P y; esto es, los
sistemas de ecuaciones lineales Ax = y y Rx = P y tienen el mismo conjunto solución. En particular, si
y = �; Ax = � sii Rx = �.
1.56. Teorema (Resumen). Sea A una matriz cuadrada de orden n. Las afirmaciones siguientes son equiv-
alentes:

1. det�A) �= 0.
2. A es invertible.
3. La forma escalonada de A en In .

15
1.4. Espacios fundamentales de matrices Preliminares

4. Los vectores fila de A son linealmente independientes.


5. El espacio fila de A es Rn , es decir, F �A) = Rn .
6. Los vectores columna de A son linealmente independientes.
7. El espacio columna de A es Rn , es decir, C�A) = Rn .
8. El rango de la matriz A es n.
9. N �A) = {�}.
10. El sistema de ecuaciones lineales Ax = � tiene la única solución x = �.
11. Para todo y ∈ Rn , El sistema de ecuaciones lineales Ax = y tiene solución.

Por último, consideramos un método para calcular una base de cada uno de los espacios fundamentales de
una matriz m × n arbitraria A. El método consiste en efectuar los pasos siguientes:

Paso 1 Forme la matriz [AT | In ].

Paso 2 Efectúe operaciones elementales sobre las filas de la matriz anterior hasta obtener la forma
escalonada reducida. Al final se obtiene la matriz puede describir por bloques así:
2 3
Er×m Pr×n
4 5
��n−r)×m P�n−r)×n
donde r = ρ�A).

Los vectores fila de la matriz Er×m conforman una base para C�A) y los vectores fila de la
matriz P�n−r)×n conforman una base para N �A).

Al llevar a cabo el paso 2 con la matriz [A | Im ] se obtienen sendas bases para C�AT ) = F �A) y N �AT ).

16

Potrebbero piacerti anche