Sei sulla pagina 1di 37

Analisis Matematico

En el espacio euclidiano
Oscar Santamaria Santisteban
5 de septiembre de 2010

UNPRG
Lambayeque-Peru

c
2009
by racso

Captulo

El Espacio Vectorial Euclidiano


El conjunto Rn es definido como el producto cartesiano
R
| R
{z R} .
nveces

Es decir Rn := R R R. El conjunto formado por el u nico punto 0 = (0, . . . , 0) se


denotara por R0 , es decir, R0 := {0}.
El conjunto Rn es llamado espacio euclidiano n-dimensional. Sus elementos son de la forma
x = (x1 , . . . , xn ), donde cada coordenada xi es un numero real.
El proposito general de estas notas es estudiar al espacio Rn como espacio vectorial y como
espacio topologico. En realidad, la estructura topologica que se definira en Rn sera inducida por
alguna norma definida en dicho espacio.
La primera estructura que daremos a Rn sera la de espacio vectorial real. Para ello recurriremos
a las operaciones usuales de suma y producto de numeros reales. Como sabemos R es con
estas operaciones un cuerpo ordenado y es tambien un espacio vectorial. Usando esto definimos
en Rn las operaciones : Rn Rn Rn y : R Rn Rn de la siguiente manera: para
x = (x1 , . . . , xn ) Rn , y = (y1 , . . . , yn ) Rn y R,
x y := (x1 + y1 , . . . , xn + yn ),
x := (x1 , . . . , xn ).
Es sencillo comprobar que con estas operaciones Rn es un espacio vectorial y sus elementos
son llamados vectores. El elemento neutro esta dado por 0 = (0, 0, . . . , 0) y el elemento inverso
de cada x = (x1 , . . . , xn ) Rn es x = (x1 , . . . , xn ) Rn .
Haremos ahora una convencion: la suma sera denotada por el smbolo clasico (+) mientras
que el producto sera denotado por (), y de esta manera nos ahorraremos algunas complicaciones de notacion. Ademas siempre usaremos en Rn estas operaciones de espacio vectorial.
Cuando esto no sea as, lo indicaremos en su momento.
1

1.1. Subespacios Vectoriales

1.1. Subespacios Vectoriales


Subconjuntos importantes dentro del Rn son los llamados subespacios vectoriales. Por definicion, un subespacio vectorial de Rn es un subconjunto no vaco (de Rn ) que es cerrado bajo la
suma de vectores y producto de vectores por escalares. Es decir, E Rn es subespacio vectorial si E es no vaco y, para cada x, y E y cada R se tiene que x + y es nuevamente
elemento de E.
Todo subespacio vectorial contiene al vector nulo. Pues si x F y = 0 R entonces
x = 0x = 0. Siendo F subespacio entonces x F , por tanto, 0 F .
E JEMPLO 1.1.
(a) En Rn hay dos subespacios que son llamados triviales: el espacio nulo {0} y el mismo Rn .
(b) En R los u nicos subespacios son {0} y R. En R2 los subespacios no triviales son las rectas
que pasan por el origen. En R3 los subespacios no triviales son las rectas y planos que pasan
por el origen.
1.1. La interseccion de una coleccion arbitraria de subespacios de Rn es un
P ROPOSICI ON
subespacio de Rn .
n
Demostracion.
T Sean {Ei }iL una coleccion arbitraria de subespacios de R y considere la interseccion S = iL Ei . Puesto que el vector nulo 0 es elemento de todo subespacio Ei entonces
0 es elemento de S, luego S es no vaco.
Si x e y son elementos en S, son tambien elementos de cada subespacio Ei , por tanto, para
cualquier real resulta que x + y es tambien elemento de cada Ei . Luego x + y esta en S.

Un conjunto X Rn es linealmente dependiente si existen vectores distintos v1 , . . . , vk en X


y escalares 1 , . . . , k R, no todos nulos, tales
1 v1 + + 2 v2 = 0.
Un conjunto que no es linealmente dependiente recibe el nombre de linealmente independiente.
E JEMPLO 1.2. Todo conjunto X Rn que contiene al vector nulo es linealmente dependiente,
pues dado cualquier x X no nulo, podemos considerar la combinacion nula 1 0 + 0 x = 0
en la que no todos los escalares son nulos.
E JEMPLO 1.3. Todo subconjunto de un conjunto linealmente independiente es tambien linealmente independiente. En un conjunto linealmente dependiente pueden existir conjuntos
linealmente independientes. Por ejemplo, el conjunto {(1, 0), (0, 1), (1, 1)} es linealmente dependiente, pues podemos tener la combinacion nula 1 (1, 0) + 1 (0, 1) 1 (1, 1) = 0, donde
los coeficientes son no nulos. Sin embargo de aqu podemos obtener el conjunto {(1, 0), (0, 1)}
que es linealmente independiente.
O. Santamaria S.

Cap. 1: El Espacio Vectorial Euclidiano

Dado cualquier conjunto no vaco X contenido en Rn , la coleccion de todas las combinaciones


lineales finitas de elementos de X es llamado espacio generado por X y se denota por S(X).
Es decir, un vector v Rn es elemento
de S(X) si existen vectores x1 , . . . , xk en X y escalares
P
1 , . . . , k R tales que v = ki=1 i xi . Es sencillo comprobar que para cada conjunto no
vaco X contenido en Rn , el conjunto S(X) es un subespacio de Rn .
Dados los subespacios vectoriales F y G del Rn , la union F G no necesariamente es un
subespacio, sin embargo este genera un subespacio S(F G). Es sencillo comprobar que este
espacio esta formado por todas las sumas de la forma v + w, donde v F y w G. Por esta
razon se usa la notacion S(F G) = F + G. Cuando F G = {0} entonces se escribe F G
en vez de F + G y se dice que F G es la suma directa de F y G.
E JEMPLO 1.4. En el espacio Rn considere el subespacio F . El objetivo en este ejemplo es
mostrar que existe un subespacio G Rn tal que Rn = F G.
En primer lugar observe que si fuera F = Rn entonces Rn = F {0} y el problema estara resuelto.
Por el contrario, supongamos que F 6= Rn y que F es generado por un conjunto X, es decir
F = S(X). En este caso considere un vector w1
/ S(X). Observe que w1 6= 0 pues 0 S(X).
Sea G1 = S({w1 }). Puesto que w1
/ S(X) entonces w1
/ S(X) para todo numero real 6=
0. En efecto, si fuera que w1 F = S(X) entonces podemos escribir w1 = a1 v1 + +ak vk
para ciertos v1 , . . . , vk X y escalares a1 , . . . , ak , luego w1 = a1 v1 + + ak vk y entonces
implicara que w1 F lo cual es una contradiccion. Por tanto F G1 = {0}. Si fuera Rn =
F + G1 el problema ya estara resuelto. De lo contrario elija un elemento w2
/ S(X {w1 })
y considere el subespacio G2 = S({w1 , w2}). Ningun vector de la forma c1 w1 + c2 w2 , tal que
c1 6= 0 o c2 6= 0, esta en F (aqu usamos el o en sentido exclusivo), pues de lo contrario
existiran vectores v1 , . . . , vk en F y escalares 1 , . . . , k R tal que
c1 w1 + c2 w2 = 1 v1 + + k vk .
Si c2 = 0 entonces c1 6= 0 y resultara que w1 F , una contradiccion. Si c2 6= 0 entonces
w2 S(X {w1 }), nuevamente una contradiccion. Continuando de esta manera hallaremos
vectores w1 , . . . , wr
/ F tales que Rn = F G, donde G = S({w1 , . . . , wr }).
Un conjunto X Rn es base de un subespacio F Rn si es linealmente independiente y
genera a F . En un curso estandar de a lgebra lineal se muestra que si Y es otra base F entonces
X e Y tienen el mismo numero de elementos. El numero de elementos de cualquier base de F
se llama dimension de F .
Es sencillo comprobar que el conjunto {e1 , e2 , . . . , en } es una base de Rn , donde ei es el vector
en Rn cuya i-esima coordenada es 1 y el resto son nulas. En particular se tiene entonces que
Rn es de dimension n. Por supuesto que esta no es la u nica base, sin embargo es la mas usual y
mas sencilla de utilizar, por lo que es llamada base canonica. Salvo que se indique lo contrario,
siempre estaremos utilizando la base canonica. Observe P
que respecto a esta base todo vector
n
x = (x1 , . . . , xn ) R puede escribirse en la forma x = ni=1 xi ei .
O. Santamaria S.

1.1. Subespacios Vectoriales

E JEMPLO 1.5. Sean u y v vectores en Rn que son linealmente independientes. Dado cualquier
numero real 6= 0, el conjunto {v, v+u} es una base del subespacio generado por los vectores
v, v + u, v + 2u, . . . , v + nu, . . .
En efecto, en primer lugar probaremos que el conjunto {v, v +u} es linealmente independiente. Considere entonces la combinacion lineal v + (v + u) = 0. De aqu se tiene la igualdad
( + ) v + u = 0 lo cual implica, por ser u y v vectores L.I., + = 0 = . Siendo
6= 0 se concluye que = = 0.
En segundo lugar considere el conjunto X = {v, v + u, v + 2u, . . . , v + nu, . . .} y F = S(X),
subespacio generado por X. Dado un vector cualquiera w F existe numeros reales 1 , . . . ,
k , y vectores v + n1 u, . . . , v + nk u en X tales que
w = 1 (v + n1 u) + + k (v + nk u),
donde suponemos 0 n1 nk . Entonces
w = (1 + + k ) v + (1 n1 + + k nk )u
(1 n1 + + k nk )
(1 n1 + + k nk )
= (1 + + k ) v +
u +
v

(1 n1 + + k nk )
v





1 n1 + + k nk
1 n1 + + k nk
= 1 + + k
v+
(v + u)

Esto significa que el subespacio F es generado por el conjunto B = {v, v + u} y como ademas
este conjunto es L.I. se concluye que es base de F .

E JEMPLO 1.6. Considere los vectores v1 = (1, 2, . . . , n), v2 = (n + 1, n + 2, . . . , 2n), . . . ,


vn = (n2 n + 1, n2 n + 2, . . . , n2 ) en Rn . Por otro lado considere los vectores w1 = (1, n +
1, 2n+1, . . . , n2 n+1), w2 = (2, n+2, 2n+2, . . . , n2 n+2), . . . , wn = (n, 2n, 3n, . . . , n2 ).
Los conjuntos V = {v1 , . . . , vn } y W = {w1 , . . . , wn } generan en Rn el mismo subespacio F .
Demostracion. En primer lugar observe que
v1 = (1, 2, . . . , n)
v2 = (n + 1, n + 2, . . . , 2n)
v3 = (2n + 1, 2n + 2, . . . , 3n)
..
.
2
2
2
vn = (n n + 1, n n + 2, . . . , n )

=
=
=
..
.
=

0 n(1, 1, . . . , 1) + v1 ,
1 n(1, 1, . . . , 1) + v1 ,
2n(1, 1, . . . , 1) + v1 ,
..
.
(n 1)n(1, 1, . . . , 1) + v1 .

Es decir, los elementos del conjunto V se escriben como combinacion lineal de los vectores
u = (1, 1, . . . , 1) Rn y v1 = (1, 2, . . . , n), por lo tanto V puede ser escrito como
V = {v1 + nu : 0 n 1}.
O. Santamaria S.

Cap. 1: El Espacio Vectorial Euclidiano

Por otro lado, de forma analoga, se tiene que


w1 = (1, n + 1, 2n + 1, . . . , n2 n + 1)
w2 = (2, n + 2, 2n + 2, . . . , n2 n + 2)
w3 = (3, n + 3, 2n + 3, . . . , n2 n + 3)
..
.
2
wn = (n, n + n, 2n + n, . . . , n n + n)

=
=
=
..
.
=

n(0, 1, 2, . . . , n 1) + u,
n(0, 1, 2, . . . , n 1) + 2u,
n(0, 1, 2, . . . , n 1) + 3u,
..
.
n(0, 1, 2, . . . , n 1) + nu.

Estas igualdades muestran que los elementos de W se escriben como combinacion lineal de los
vectores w = (0, 1, 2, . . . , n 1) y u = (1, 1, . . . , 1), es decir, W se escribe como
W = {nw + u : 1 n}.
En resumen se tienen los conjuntos
V = {v1 + nu : 0 n 1} y W = {nw + u : 1 n}.
donde v1 = (1, 2, . . . , n), u = (1, 1, . . . , 1), w = (0, 1, 2, . . . , n1). Como w = v1 u entonces
W = {nv1 u : 0 n 1}.
Considere entonces el conjunto B = {v1 , u}. Demostraremos que S(B) = S(V) = S(W).
Como para cualquier x S(V) se tiene que
x = 1 v1 + 2 (v1 + n.u) + 3 (v1 + 2n.u) + + n (v1 + (n2 n).u)
= (1 + 2 + + n )v1 + (n2 + 2n3 + + (n2 n)n )u
por tanto, x S(B). Lo cual demuestra que S(V) S(B). Analogamente se demuestra que
S(W) S(B).
Se demuestra facilmente que si B1 = {v1 , v1 + nu} entonces S(B) = S(B1 ) y como B1 V
entonces S(B1 ) S(V). Por tanto, S(B) S(V). Analogamente al considerar el conjunto
B2 = {nv1 , nv1 u} se tiene que S(B) = S(B2 ) y como B2 W se concluye que S(B)
S(W). Esto demuestra las igualdades S(B) = S(V) = S(W). En conclusion, V y W generan
el mismo subespacio F del Rn .
Por otro lado, al tomar la combinacion lineal u + v1 = 0 y debido a las coordenadas de u y
v1 se obtiene
+ = 0 = + 2 = = + n
de donde = = 0. Por tanto B es L.I. Esto quiere decir que B = {v1 , u} es base del
subespacio F . En particular dim F = 2.

O. Santamaria S.

1.2. Transformaciones Lineales

1.2. Transformaciones Lineales


Una transformacion lineal es una aplicacion entre espacios euclidianos que de alguna manera
conserva las operaciones de suma de vectores y multiplicacion de vectores por escalares. Mas
precisamente,
Una transformacion lineal es una aplicacion T : Rm Rn que cumple con las igualdades
T (x + y) = T (x) + T (y)
T ( x) = T (x)
para todo x, y Rm y todo R.
Es sencillo ver que si T : Rm Rn es una transformacion lineal entonces T (0) = 0. La version
contra-recproca de esta afirmacion nos permite decir que dada una aplicacion T : Rm Rn ,
si T (0) 6= 0 entonces dicha aplicacion no es transformacion lineal.
Dada una transformacion lineal T : Rm Rn , aparecen en escena dos conjuntos especiales:
El primero de ellos es el conjunto de vectores en Rm cuya imagen es el vector nulo de Rn .
Este conjunto es llamado nucleo de T y usaremos la notacion ker T cada vez que queramos
referirnos a este. En smbolos
ker(T ) := {x Rm : T (x) = 0}.
El otro conjunto especial es formado por la imagen de Rm mediante T . Como es natural, este
conjunto se llama imagen de T y se denota por Imag T . En smbolos:
Imag(T ) = {T (x) : x Rm }.
El nucleo de T : Rm Rn es subespacio de Rm y la imagen Imag(T ) es subespacio de Rn .
Asimismo, el ker(T ) arroja informacion sobre la inyectividad de T como veremos a continuacion.
1.2. Una transformacion lineal T : Rm Rn es inyectiva si y solo si
P ROPOSICI ON
ker T = {0}.
Demostracion. Si T es inyectiva y x ker T entonces T (x) = 0 = T (0), luego x = 0 {0}.
Recprocamente, si ker T = {0} y x, y Rm son tales que T (x) = T (y) entonces T (xy) = 0,
lo cual implica que x y ker T = {0}. Es decir, x y = 0 y, por tanto, x = y.

E JEMPLO 1.7. Sea A una matriz real de orden n n. La aplicacion T : Rn Rn definida por
T x = Ax es una transformacion lineal. En el caso de ser A una matriz invertible, ker T = {0}
y, por tanto, T es inyectiva. Si A es la matriz nula, Imag T = {0}. Si A es la matriz identidad
entonces Imag T = Rn .
Dada una transformacion lineal T : Rm Rn , la dimension del nucleo es llamada nulidad
de T mientras que la dimension de la imagen de T se denomina rango de T . Al respecto se
tiene el siguiente resultado.
O. Santamaria S.

Cap. 1: El Espacio Vectorial Euclidiano

1.3. Sea T : Rm Rn una transformacion lineal. Entonces


P ROPOSICI ON
nulidad(T ) + rango(T ) = m.
Demostracion. Elija una base {v1 , . . . , vk } para ker T y extienda esta a una base {v1 , . . . , vm }
m
m
de
PmR . En particular se tiene k = nulidad(T ). Cualquier vector x R es de la forma x =
i=1 i vi , as que
!
m
m
m
X
X
X
T (x) = T
i vi =
i T (vi ) =
i T (vi ),
i=1

i=1

i=k+1

donde la u ltima igualdad es debido a que T (v1 ) = = T (v


Pkm) = 0. Luego los vectores
T (vk+1 ), . . . , T (vm ) generan la imagen de T . Por otro lado si i=k+1 i T (vi ) = 0 entonces
Pm
Pm
T
i=k+1 i vi = 0 y asi
i=k+1 i vi ker T y por tanto existen escalares j tales que
m
X

i vi =

k
X

i vi .

i=1

i=k+1

Como el conjunto {v1 , . . . , vm } es linealmente independiente y


m
X

i vi

k
X

i vi = 0

i=1

i=k+1

se tendra que i = 0 para todo i, luego el conjunto {T (vk+1 ), . . . , T (vm )} es linealmente independiente y, por tanto, una base de Imag T . Siendo as,
rango T = m k = m nulidad T,

como lo afirma la proposicion.

Sea L(Rm ; Rn ) el conjunto de transformaciones lineales de Rm en Rn . Con la suma usual de


aplicaciones y el producto usual de un escalar por una aplicacion, el conjunto L(Rm ; Rn ) es
un espacio vectorial. Podemos incluso exhibir una base para este espacio. Para ello considere
las bases canonicas {e1 , . . . , em } y {
e1 , . . . , en } de Rm y Rn respectivamente. Para cada i =
m
n
1,
P.m. . , m y cada j = 1, . . . , n considere las aplicaciones Tij : R R tales que si x =
i=1 xi ei entonces
Tij (x) := xi ej .
En particular,
Tij (ek ) =

0,
ej ,

si k =
6 i
si k = i.

(1.1)

Es claro que cada una de las aplicaciones Tij es lineal. Pero aun mas,
O. Santamaria S.

1.2. Transformaciones Lineales

1.4. El conjunto B = {Tij : i = 1, . . . , m, j = 1, . . . , n} es una base de


P ROPOSICI ON
m
n
L(R ; R ). En particular L(Rm ; Rn ) tiene dimension mn.
Demostracion. Para mostrar la independencia lineal de B considere la combinacion lineal
m X
n
X

ij Tij = 0.

i=1 j=1

Entonces en cada vector basico ek se tiene


n
m X
X

ij Tij (ek ) = 0,

i=1 j=1

de donde

n
X

kj ej = 0.

j=1

Como {
e1 , . . . , en } es base de Rn entonces k1 = = kn = 0 y siendo k arbitrario concluimos que ij = 0 para todo i = 1, . . . , m y todo j = 1, . . . , n.
Por otro lado, para mostrar que B genera a L(Rm ; Rn ), considere una transformacion lineal
arbitraria T : Rm Rn . Considere los escalares ij = hT (ei ), ej i y la aplicacion
S=

n
m X
X

ij Tij .

i=1 j=1

Entonces
S(ek ) =

m X
n
X
i=1 j=1

ij Tij (ek ) =

n
X
j=1

kj ej =

n
X

hT (ek ), ej i ej = T (ek ).

j=1

ComoPestoPes valido para todo k = 1, . . . , m se concluye que S = T . Es decir,


n
m
n
T = m
j=1 ij Tij . Esto muestra que B genera L(R ; R ).
i=1
Finalmente como B tiene mn elementos concluimos que L(Rm ; Rn ) tiene dimension mn.

Por otro lado el conjunto M(n m), formado por matrices reales de orden n m, es tambien
un espacio vectorial con las operaciones usuales de suma de matrices y multiplicacion de una
matriz por un escalar. Tiene ademas la misma dimension nm que L(Rm ; Rn ) y un resultado del
a lgebra lineal (ver [3], pag. 141, corolario 4) nos permite concluir entonces que dichos espacios
son isomorfos.
Aun cuando ya sabemos que M(n m) y L(Rm ; Rn ) son isomorfos, sera bueno mostrar
un isomorfismo entre estos espacios. Considere entonces las bases canonicas {e1 , . . . , em } y
O. Santamaria S.

Cap. 1: El Espacio Vectorial Euclidiano

{
e1 , . . . , en } de Rm y Rn respectivamente y considere tambien la transformacion lineal
T : Rm Rn . Entonces las igualdades
T (ej ) =

n
X

ij ei , j = 1, . . . , m,

i=1

permiten construir la matriz

[T ] =

11 12 1m
21 22 2m
..
..
..
..
.
.
.
.
n1 n2 nm

la misma que es llamada matriz asociada a T . Observe que

ij = h
ei , T (ej )i ,
donde h , i indica producto interno canonico.
Se tiene entonces que cada transformacion lineal se encuentra asociada a una matriz y en realidad veremos en breve que cada matriz real de orden n m se encuentra asociada a alguna
transformacion lineal T : Rm Rn .
1.5. La aplicacion : L(Rm ; Rn ) M(nm, R) que a cada T L(Rm ; Rn )
P ROPOSICI ON
le hace corresponder la matriz
(T ) := [h
ei , T (ej )i]
es un isomorfismo de espacios vectoriales.
Demostracion. En primer lugar observe que para cada T, S L(Rm ; Rn ) y cada c R,
(cT + S) = [h
ei , (cT + S)(ej )i] = c [h
ei , T (ej )i] + [h
ei , S(ej )i]
= c(T ) + (S).
Luego es transformacion lineal.
Para mostrar la inyectividad de considere T, S L(Rm ; Rn ) tales que (T ) = (S). Entonces
[h
ei , T (ej )i] = [h
ei , S(ej )i]
y de la definicion de igualdad de matrices se tienePh
ei , T (ej )i = h
ei , S(ej )i, de donde
n
n
h
ei , (T S)(ej )i = 0. Esto implica que para cada y = i=1 yi ei R ,
hy, (T S)(ej )i =

n
X

yi h
ei , (T S)(ej )i = 0

i=1

O. Santamaria S.

10

1.2. Transformaciones Lineales

y por tanto (T S)(ej ) = 0 para cada j = 1, . . . , m. Luego para todo x =


tiene
m
X
(T S)(x) =
xj (T S)(ej ) = 0

Pm

j=1 xj ej

Rm se

j=1

de donde T = S. Entonces es inyectiva.


Finalmente a fin de mostrar la sobreyectiva de considere la matriz real [ij ], elemento de
M(nm; R). Usando cada columna de esta matriz, considere los vectores w1 , . . . , wm Rn
tales que
m
X
wj :=
ij ei .
i=1

Considere la aplicacion T : R R definida por


T (x) =

m
X

xj wj ,

j=1

para cada x =
wj , luego

Pm

j=1 xj ej

Rm . Es sencillo mostrar que T es lineal. Ademas de esto T (ej ) =


ij = h
ei , wj i = h
ei , T (ej )i

y entonces (T ) = [h
ei , T (ej )i] = [ij ].

Se denomina funcional lineal a toda transformacion lineal f : Rn R. De acuerdo a la


proposicion 1.4, el espacio vectorial L(Rn ; R) es de dimension n. Las igualdades que definen a
las transformaciones Tij , de la proposicion 1.4, aplicadas a este caso particular se convierten en
los funcionales lineales f1 , . . . , fn : Rn R tales que

1, si i = j,
fi (ej ) =
0, si i 6= j,
para todo i, j = 1, . . . , n.
Se deduce de la proposicion 1.4 que {f1 , . . . , fn } es una base de L(Rn ; R). Esta es llamada base
dual de la base canonica de Rn . Ademas L(Rn ; R) es llamado espacio dual de Rn y es comun
usar la notacion (Rn ) para este espacio. Siendo (Rn ) y Rn de la misma dimension deducimos
que ellos son isomorfos.
E JEMPLO 1.8. Sea E un subespacio m-dimensional de Rn (m n) y F un subespacio de Rn
tal que E F = Rn . En particular F es de dimension n m y si {v1 , . . . , vnm } es una base
de F , esta puede ser extendida a una base
B = {u1 , . . . , um , v1 , . . . , vnm }
de Rn de tal forma que {u1 , . . . , um } es base de E. Considere los funcionales lineales
g1 , . . . , gn : Rn R con la condicion que {g1 , . . . , gn } sea base (dual de B) de L(Rn ; R).
O. Santamaria S.

Cap. 1: El Espacio Vectorial Euclidiano

11

A partir de esto considere los funcionales f1 = gm+1 , f2 = gm+2 , . . . , fnm = gn . Es claro


entonces que si x E entonces f1 (x) = = fnm (x) = 0. Recprocamente si x Rn es tal
que f1 (x) = = fnm (x) = 0 y escribimos
x=

m
X
i=1

i u i +

nm
X

i vi

i=1

entonces lasPigualdades f1 (x) = = fnm (x) = 0 implican i = 0. Esto muestra que el


on
vector x = m
i=1 i ui es elemento de E. En conclusi
E = {x Rn : f1 (x) = = fnm (x) = 0} .

Adicional a esto, considere la aplicacion T : Rn = E F F definida por


T (x) = f1 (x)v1 + + fnm (x)vnm .
Es claro que T es lineal y E = T 1 (0). Ademas de esto T es sobreyectiva, pues si y F
entonces existen escalares
Pnm y1 , . . . , ynnm tales que y = y1 v1 + + ynm vnm . Si consideramos
el vector v = 0 + i=1 yi vi R se tiene entonces T (v) = y. Por otro lado F es isomorfo
a Rnm y si h : F Rnm es tal isomorfismo concluimos que existe una aplicacion lineal
sobreyectiva A : Rn Rnm tal que E = A1 (0). Esta aplicacion es dada por A = h T .
Una funcion : Rm Rn R es bilineal si para todo x, y Rm , z, w Rn y todo R, se
satisfacen las igualdades:
1. (x + y, z) = (x, z) + (y, z)
2. (x, z + w) = (x, z) + (x, w).
Estamos interesados principalmente en el caso m = n. Una aplicacion bilineal : Rn Rn R
es simetrica si (x, y) = (y, x) para todo (x, y) Rn Rn .
Denote por B(Rn Rn ; R) a la coleccion todas las funciones bilineales : Rn Rn R
y considere en Rn la base canonica {e1 , . . . , en }. A cada B(Rn Rn ; R) se encuentra
asociada la matriz [aij ]nn cuyas entradas son dadas por
aij := (ei , ej ).
1.6. La aplicacion : B(Rn Rn ; R) M(n n; R) definida por
P ROPOSICI ON
() = [(ei , ej )]nn
es un isomorfismo de espacios vectoriales. En particular B(Rn Rn ; R) es de dimension n2 .
Observe que si B(Rn Rn ; R) es simetrica entonces
aij = (ei , ej ) = (ej , ei ) = aji .
Es decir si es funcion bilineal simetrica, la respectiva matriz () = [aij ] es tambien simetrica.
Una funcion bilineal : Rn Rn R es no degenerada si la igualdad (x, y) = 0, para todo
y Rn , implica que x = 0.
O. Santamaria S.

12

1.2. Transformaciones Lineales

1.7. Sea : Rn Rn R una funcion bilineal. La matriz () = [(ei , ej )]


P ROPOSICI ON
es invertible si y solo si es no degenerada.
Demostracion. En primer lugar observe que dados x, y Rn ,
(x, y) =

n X
n
X

xi yj (ei , ej ) = x()y T .

i=1 j=1

Aqu hacemos la identificacion x = (x1 , . . . , xn ) con la matriz [ x1 xn ] y algo similar


para y = (y1 , . . . , yn ).
Suponga entonces que () es invertible. Si fuera (x, y) = 0 para todo y Rn entonces
x()y T = 0 para todo y Rn y, por tanto, x() = 0. Como () es invertible resulta
x = 0. Luego es no degenerada.
Recprocamente, si la matriz () es no invertible entonces existe una solucion no trivial al
sistema Ax = 0. Es decir, existe un x 6= 0 en Rn tal que xA = 0 y, por tanto, para todo y Rn
se tiene xAy T = 0. Luego existe x 6= 0 tal que (x, y) = 0 para todo y Rn . Luego es
degenerada.

Finalmente consideremos mas generalmente el conjunto B(Rm Rn ; Rp ) formado por aplicaciones bilineales : Rm Rn Rp , esto es, aplicaciones que satisfacen las igualdades
1. (x + y, z) = (x, z) + (y, z)
2. (x, z + w) = (x, z) + (x, w).
para todo x, y Rm , z, w Rn y todo R. Es sencillo comprobar que B(Rm Rn ; Rp )
es un espacio vectorial con las operaciones usuales. Pero ademas de esto, este espacio es de dimension mnp. Para mostrar esta u ltima afirmacion considere las bases canonicas {e1 , . . . , em },
{
e1 , . . . , en } y {u1 , . . . , up } de Rm , Rn y Rp , respectivamente. Hecho esto, consideremos aplicaciones
ijk : Rm Rn Rp
definidas por
ijk (x, y) = xi yj uk .
En particular
ijk (er , es ) =

uk ,
0,

si (i, j) = (r, s);


si (i, j) 6= (r, s).

No es complicado mostrar que estas aplicaciones son bilineales. Para ver que forman un conjunto linealmente independiente considere la combinacion nula
X
ijk ijk = 0.
i,j,k

Entonces para cada 1 r m y 1 s n,


X
ijk ijk (er , es ) = 0,
i,j,k

O. Santamaria S.

Cap. 1: El Espacio Vectorial Euclidiano


de donde

p
X

13

rsk uk = 0.

k=1

La independencia lineal de los vectores uk implica


rs1 = rs2 = = rsp = 0,
y como esto es valido para cada r, s, concluimos que ijk = 0 para todo i, j, k.
Solo resta ver que los ijk forman un conjunto generador de B(Rm Rn ; Rp ). Para ello sea
T : Rm Rn Rp una aplicacion bilineal arbitraria y considere los escalares
ijk = hT (ei , ej ), uk i ,
donde h , i denota el producto escalar en Rp . Entonces
X

ijk ijk (er , es ) =

p
X

rsk uk

k=1
p

i,j,k

hT (er , es ), uk i uk

k=1

= T (er , es ).
P
Es decir, T (er , es ) = i,j,k ijk ijk (er ,P
es ). Como esto es valido para todos los vectores basicos
er y es concluimos en la igualdad T = i,j,k ijk ijk .

1.3. Productos Internos


A estas alturas el estudiante ha tomado ya conocimiento de los productos
(x1 , x2 ) (y1 , y2) = x1 y1 + x2 y2
(x1 , x2 , x3 ) (y1 , y2 , y3) = x1 y1 + x2 y2 + x3 y3 .
mas conocidos con el nombre de producto escalar en R2 y R3 respectivamente. Veremos en
breve que estos son casos particulares del concepto general de producto interno. En un espacio general Rn , a ngulos entre vectores cobran sentido con la nocion de producto escalar. El
producto escalar origina tambien una norma particular que a su vez es muy utilizada en geometra euclidiana. En la definicion que sigue por tradicion agregamos el axioma de bilinealidad.
Aunque un producto interno en Rn es, por definicion, bilineal esta condicion puede verificarse
mostrando linealidad solamente en un argumento. Explicaremos esto luego de la definicion.

O. Santamaria S.

14

1.3. Productos Internos

Una funcion : Rn Rn R se llama producto interno en Rn si es simetrico, bilineal y


definido positivo.
En esta definicion de producto interno, la condicion de simetra significa que
(x, y) = (y, x) para todo x, y Rn . La condicion de bilinealidad indica que deben verificarse las igualdades
(x + y, z) = (x, z) + (y, z) y (x, y + z) = (x, y) + (x, z)
para todo x, y, z Rn y todo R. Sin embargo, la simetra de nos permite la libertad de
comprobar solo la primera de estas dos igualdades: la segunda se obtiene como consecuencia
de la primera, pues (x, y + z) = (y + z, x). Finalmente la condicion definido positivo
significa que debe verificarse la desigualdad (x, x) > 0 siempre que x Rn \ {0}.
P
E JEMPLO 1.9. La funcion : Rn Rn R definida por (x, y) = ni=1 xi yi es un producto
interno. Por ser el mas natural de definir, es usualmente llamado producto interno canonico y
es comun denotarlo por el smbolo h , i.
E JEMPLO 1.10. Sea A = [aij ]nn una matriz real simetrica con la propiedad de que para todo
P
P
x 6= 0 se tiene ni,j=1 aij xi xj > 0. Observe que ni,j=1 aij xi xj = xAxT . Entonces la funcion
: Rn Rn R definida por
(x, y) =

n
X

aij xi yj = xAy T

i,j=1

es un producto interno en Rn .
Observe que si A es la matriz identidad entoncesP
aii = 1 y aij = 0 para i 6= j. Luego la
funcion del ejemplo 1.10 se reduce a (x, y) = ni=1 xi yi . Es decir, obtenemos nuevamente
el producto interno canonico.
1.1. Sea un producto interno en Rn y v Rn . Si (x, v) = 0 para todo
O BSERVACI ON
x Rn entonces v = 0. Pues si fuera v 6= 0 entonces en particular para x = v se tendra
(v, v) > 0.
Esta observacion dice que todo producto interno es una forma bilineal no degenerada.
n
E JEMPLO 1.11. Sea h , i el producto interno canonico. Para
Pn cada f (R ) existe un u nico
n
vector v R tal que f (x) = hx, vi. En efecto, si x = i=1 xi ei entonces considerando el
vector v = (f (e1 ), . . . , f (en )) se tiene
!
n
n
X
X
f (x) = f
xi ei =
xi f (ei ) = hx, vi .
i=1

i=1

Para ver que v es u nico considere otro vector w Rn tal que hx, vi = hx, wi. Entonces para
todo x Rn se tiene que hx, v wi = 0. Luego, por la observacion 1.1, resulta v w = 0.
O. Santamaria S.

Cap. 1: El Espacio Vectorial Euclidiano

15

E JEMPLO 1.12. Sean a, b y c numeros reales cualesquiera. Supongamos que en R2 existe un


producto interno tal que (e1 , e1 ) = a, (e1 , e2 ) = (e2 , e1 ) = b y (e2 , e2 ) = c, donde
e1 = (1, 0) y e2 = (0, 1).
Observe que como e1 6= 0 entonces a = (e1 , e1 ) > 0. Es decir, a > 0. Analogamente se
demuestra que c > 0.
Como es un producto interno entonces para todo x = (x1 , x2 ) e y = (y1 , y2 ) se tiene
(x, y) = (x1 e1 + x2 e2 , y1 e1 + y2 e2 )
= x1 y1 (e1 , e1 ) + (x1 y2 + x2 y1 )(e1 , e2 ) + x2 y2 (e2 , e2 ).
En particular, para x = (x1 , x2 ) se obtiene, de la u ltima de las igualdades anteriores, que
(x, x) = ax21 + 2bx2 x1 + cx22 .

(*)

Como es un producto interno entonces para x = (x1 , x2 ) 6= 0 se tiene en la ecuacion (*) que
(x, x) > 0. Es decir ax21 + 2bx2 x1 + cx22 > 0. Siendo a > 0 y suponiendo x2 6= 0 esto implica
que 4x22 b2 4acx22 < 0, de lo cual obtenemos b2 < ac.
Analogamente si suponemos x1 6= 0. Como c > 0 entonces de la ecuacion (*) se obtiene
cx22 + 2bx2 x1 + ax21 > 0, de lo cual resulta 4x21 b2 4acx21 < 0 y por tanto nuevamente b2 < ac.
En conclusion, dado un producto interno en R2 tal que (e1 , e1 ) = a, (e1 , e2 ) = (e2 , e1 ) =
b y (e2 , e2 ) = c, donde e1 = (1, 0) y e2 = (0, 1), entonces b2 < ac.
Recprocamente, sea : R2 R2 R una funcion definida por
(x, y) = ax1 y1 + b(x1 y2 + x2 y1 ) + cx2 y2 .
y suponga que a > 0 y b2 < ac. Es claro que es bilineal, simetrico y ademas (e1 , e1 ) = a,
(e1 , e2 ) = (e2 , e1 ) = b y (e2 , e2 ) = c. Ademas de esto, si x = (x1 , x2 ) 6= 0 entonces
(x, x) = ax21 + 2bx1 x2 + cx22 > 0.
Dos vectores x, y Rm son ortogonales respecto a un producto interno en Rm si (x, y) = 0.
El vector 0 Rn es ortogonal a todo vector x Rn , cualquiera sea el producto interno que se
considere. De esto y de la observacion 1.1 se deduce que para un producto interno en Rn se
tiene que (x, y) = 0, para todo y Rn , si y solo si x = 0.
E JEMPLO 1.13. En R2 considere los productos internos
(x, y) = x1 y1 + x2 y2 ,
(x, y) = 3x1 y1 + 4(x1 y2 + x2 y1 ) + 3x2 y2
donde x = (x1 , x2 ) y y = (y1 , y2 ). La funcion es el producto interno canonico y respecto a
el lector debera mostrar que realmente es un producto interno en R2 .
Considere los vectores e1 = (1, 0) y e2 = (0, 1). Entonces
(e1 , e2 ) = 0 y (e1 , e2 ) = 4.
Por tanto e1 y e2 son ortogonales respecto al producto interno canonico pero no respecto al
producto .
O. Santamaria S.

16

1.3. Productos Internos

E JEMPLO 1.14 (Adjunta de una transformacion lineal). Considere Rm y Rn con su respectivo


producto interno canonico. Denotaremos a ambos productos por el mismo smbolo h,i. Sea
T : Rm Rn una transformacion lineal y (aij )nm la matriz asociada a T respecto a las bases
canonicas {e1 , . . . , eP
e1 , . . . , en } de Rm y Rn , respectivamente. Se tienen entonces las
m } y {
igualdades T (ej ) = ni=1 aij ei para todo j = 1, . . . , m. Considere los vectores
vi =

m
X

aij ej ,

j=1

donde i = 1, . . . , n, y defina la aplicacion T : Rn Rm por medio de la regla


n
X

T (y) =

yi vi .

i=1

En particular T (
ei ) =

Pm

j=1 aij ej .

Es claro que T es lineal y ademas

hT ej , ek i =

* n
X

aij ei , ek

i=1

mientras que
hej , T ek i =

ej ,

n
X
j=1

akj ej

= akj ,

= akj .

Pm
m

y todo y =
Es
decir
hT
e

,
e
i
=
h
e
,
T
e
i.
Por
tanto,
para
todo
x
=
j
k
j
k
j=1 xj ej R
Pn
m
k R se cumple que
k=1 yk e
X
X
hT x, yi =
xj yk hT ej , ek i =
xj yk hej , T ek i = hx, T yi .
j,k

j,k

Esto muestra que dada una transformacion lineal T : Rm Rn , existe una transformacion
lineal T : Rn Rm , llamada adjunta de T , tal que hT x, yi = hx, T yi para todo x Rm
y todo y Rn . La transformacion lineal T es u nica, pues si S es otra transformacion tal que
hT x, yi = hx, Syi para todo x Rm y todo y Rn entonces en particular se tiene
hx, (S T )(
ej )i = hx, S
ej i hx, T ej i = hT x, ej i hT x, ej i = 0.
Es decir (S T )(
ej ) = 0. Como esto es valido para cada vector basico ej se concluye facil
mente que S T = 0.

E JEMPLO 1.15. Respecto al ejemplo anterior, considere la transformacion lineal A : Rm Rn


y su transpuesta A : Rn Rm . La ecuacion Ax = b, cuando b = 0, admite como solucion
por lo menos a x = 0 Rm . Como b = 0 es ortogonal a todo Rn , en particular es ortogonal a
O. Santamaria S.

Cap. 1: El Espacio Vectorial Euclidiano

17

todo elemento del nucleo de A . Dado b Rn , analizamos a continuacion la ecuacion Ax = b


cuando b 6= 0.
Suponga que existe x Rm tal que b = Ax. Entonces para todo elemento y ker A se tiene
hb, yi = hAx, yi = hx, A yi = hx, 0i = 0.
Es decir, si la ecuacion b = Ax tiene alguna solucion x Rm entonces b es ortogonal a todo
elemento del nucleo de A .
Recprocamente, si b es ortogonal a todo elemento de ker A entonces b no puede ser elemento
del nucleo de A (de lo contrario b tendra que ser ortogonal a si mismo, lo cual no es posible
por ser b 6= 0). Observe que si b fuera ortogonal a todo elemento a la imagen de A entonces
para todo x Rm se tendra 0 = hb, Axi = hA b, xi lo cual implica que A b = 0, es decir
b es elemento del nucleo de A , una contradiccion. Por tanto b no puede ser ortogonal a todo
elemento de la imagen de A y esto a su vez implica que b esta en la imagen de A. Es decir existe
x Rm tal que b = Ax.
En conclusion: dado b Rn , la ecuacion Ax = b admite solucion x Rm si y solo si b es
ortogonal a todo elemento del nucleo de A . Dicho de otra manera, b esta en la imagen de A
si y solo si es ortogonal a todo elemento de ker A . Denotando por (ker A ) al conjunto de
vectores que son ortogonales a todo elemento de ker A , lo que acabamos de demostrar indica
que Imag(A) = (ker A ) . En particular (ker A ) es subespacio de Rn . De la proposicion 1.3
deducimos entonces que
n = dim(img A ) + dim(kerA ) = dim(kerA ) + dim(kerA ).
Por tanto
dim(img A ) = dim(kerA ) = dim(img A).

E JEMPLO 1.16. Una aplicacion lineal T : Rn Rn es simetrica si T = T . Sea S


S(Rn ; Rn ) la coleccion de transformaciones lineales simetricas T : Rn Rn . Observe que las
transformaciones identidad y nula son elementos de S. Ademas de esto si T, S S y R
entonces
(T + S) = T + S = T + S,
es decir T + S S, lo cual demuestra que S es un subespacio vectorial de L(Rn ; Rn ).
Podemos incluso exhibir una base para S. Para ello recordemos las transformaciones lineales
Tij dadas en las igualdades (1.1). Estas son definidas como Tij (x) = xi ej , de modo que

0, si k 6= i,
Tij (ek ) =
ej , si k = i.
La aplicacion transpuesta Tij : Rn Rn es tal que

0, si l 6= j,

Tij (el ) =
ei , si l = j.
O. Santamaria S.

18

1.3. Productos Internos

Observe que Tij = Tji . Considere las aplicaciones Sij : Rn Rn , con i j, dadas por
Sii = Tii y Sij = Tij + Tji para i < j. Observe que Sii = Tii = Tii = Sii y tambien para i < j,
Sij = Tij + Tji = Tji + Tij = Sij . Esto muestra que cada Sij es una aplicacion lineal simetrica.
Pero ademas de esto, la coleccion {Sij : i, j = 1, . . . , n, i j} es una base del espacio S. Es
claro que dicha coleccion es linealmente independiente. Para mostrar que genera a S considere
un elemento arbitrario T : Rn Rn en S. Puesto que la coleccionP
{Tij : i, j = 1, . . . , n}
n
n

es
base
de
L(R
;
R
)
entonces
existen
escalares

tales
que
T
=
ij
ij ij Tij . Luego T =
P

onicos ek se tiene
ij ij Tij . Evaluando T y T en los vectores can
X
X
T (ek ) =
ij Tij (ek ) =
kj ej ,
ij

T (ek ) =

ij Tij (ek )

ij

ik ei .

Siendo T simetrica, la igualdad T (ek ) = T (ek ) nos muestra que ij = ji . Por tanto,
X
X
X
X
ii Tii +
ij Tij +
ij Tij
ij Tij =
ij

i>j

i<j

y cambiando los ndices en la u ltima sumatoria resulta


X
X
X
T =
ii Tii +
ij Tij +
ji Tji .
i

i<j

j>i

Como ij = ji entonces
X
X
X
X
T =
ii Tii +
ij (Tij + Tji ) =
ii Sii +
ij Sij .
i

i<j

i<j

Como la coleccion {Sij : i, j = 1, . . . , n, i j} tiene 1 + 2 + + n = n(n + 1)/2


elementos concluimos que el espacio S de transformaciones lineales simetricas es de dimension
n(n + 1)/2.
E JEMPLO 1.17. Una transformacion lineal T : Rn Rn es antisimetrica si T = T . Sea
A A(Rn ; Rn ) la coleccion de todas las transformaciones lineales T : Rn Rn que son
antisimetricas. Si S, T : Rn Rn son elementos de A entonces para cada R,
(S + T ) = S + T = (S) + (T ) = (S + T ).
Es decir S + T A y por tanto A es subespacio vectorial de L(Rn ; Rn ). Considerando
nuevamente la coleccion {Tij } como en el ejemplo anterior, construimos las funciones Aij =
Tij Tji para i < j, con i, j = 1, . . . , n. Observe que Aij = Tij Tji = Tji Tij = Aij ,
luego cada Aij es antisimetrica. Procediendo como en el ejemplo anterior se comprueba que
{Aij : i, j = 1, . . . , n, i < j} es base de A. En particular A es de dimension n(n 1)/2.
O. Santamaria S.

Cap. 1: El Espacio Vectorial Euclidiano

19

Adicionalmente podemos ver que si T : Rn Rn es cualquier transformacion lineal entonces


T T
T + T
y
A
=
son simetrica y antisimetrica, reslas transformaciones lineales S =
2
2
pectivamente. Ademas T = S + A y como la transformacion lineal nula es la u nica simetrica y
antisimetrica a la vez, concluimos que L(Rn ; Rn ) = S A. Esto es, el espacio de transformaciones lineales es la suma directa del espacio de transformaciones simetricas con el espacio de
transformaciones antisimetricas.
Un conjunto no vaco X Rn es ortogonal respecto a un producto interno si todo par de
vectores distintos en X son ortogonales.
E JEMPLO 1.18. Todo conjunto ortogonal X Rn que no contiene al vector nulo es linealmente independiente. Pues si v1 , . . . , vk son vectores distintos en X y formamos la combinacion
lineal nula 1 v1 + + k vk = 0 entonces
0 = (0, vj ) = (1 v1 + + k vk , vj ) = j (vj , vj )
y por ser (vj , vj ) > 0, pues vj 6= 0, entonces j = 0. Como esto sucede para cada j concluimos
que 1 = = k = 0.

Un conjunto no vaco X Rn es ortonormal, respecto a un producto interno , si para todo


x, y X se tiene

1, si x = y,
(x, y) =
0, si x 6= y.
E JEMPLO 1.19. Todo conjunto ortonormal es parte de una base ortonormal.
En efecto, sea B = {v1 , . . . , vk } un conjunto ortonormal en Rn , con k n. Si k = n tendramos
del ejemplo 1.18 que B es un conjunto linealmente independiente con n elementos y por tanto
una base P
de Rn . Si k < n entonces elegimos un vector no nulo w Rn y formamos el vector
v = w ki=1 (w, vi )vi . Entonces
!
k
X
(v, vj ) = w
(w, vi )vi , vj = (w, vj ) (w, vj ) = 0.
i=1

p
Es decir, v es ortogonal a todos los vectores v1 , . . . , vk . Considerando vk+1 = v/ (v, v)
construimos el conjunto {v1 , . . . , vk+1 }. Continuando de esta manera extendemos B a una base
ortonormal.
Por ejemplo, respecto al producto interno canonico, la base canonica es base ortonormal.
Por otro lado si {u1, . . . , un } es una base ortonormal y x Rn entonces existen escalares
n
P
1 , . . . , n R tales que x =
i ui . Debido a la ortonormalidad de los ui resulta
i=1

(x, uj ) =

n
X
i=1

i u i , u j

= j .
O. Santamaria S.

20
Luego x =

1.3. Productos Internos


n
P

(x, ui )ui .

i=1

1.8. Todo subespacio E de Rn admite una base ortonormal.


P ROPOSICI ON
Demostracion. Consideramos Rn con producto interno . Suponemos que E es de dimension
k y sea {v1 , . . . , vk } una base de E. Elija un vector w1 = v1 . Observe que por ser v1 6= 0 (pues
pertenece a una base) entonces w1 6= 0. A continuacion construimos el vector
w2 = v2

(v2 , w1 )
w1 .
(w1 , w1 )

Observe que w1 y w2 son ortogonales, pues




(v2 , w1 )
(w1 , w2 ) = w1 , v2
w1
(w1 , w1 )


(v2 , w1 )
= (w1 , v2 ) w1 ,
w1
(w1 , w1 )
(v2 , w1 )
= (w1 , v2 )
(w1 , w1 ) = 0
(w1 , w1 )
Ademas de esto observe que, por ser v1 y v2 linealmente independientes, el vector w2 es no
nulo.
Suponga que hemos construido vectores w1 , . . . , wm1 tal que ellos constituyen un conjunto
ortogonal, entonces el siguiente vector wm es dado por
wm = vm

m1
X
`=1

(vm , w` )
w` .
(w` , w` )

Entonces para todo r = 1, . . . , m 1,


(wm , wr ) = vm

m1
X

(vm , w` )
w` , wr
(w` , w` )

`=1
m1
X

= (vm , wr )

`=1

(vm , w` )
(w` , wr )
(w` , w` )

= (vm , wr ) (vm , wr ) = 0.
Es claro que cada wi es combinacion lineal de los vectores vi y como estos son linealmente independientes entonces wi es vector no nulo. Continuando de esta manera construimos el conjunto
ortogonal {w1 , . . . , wk }, donde
w1 = v1 , wm = vm

m1
X
`=1

O. Santamaria S.

(vm , w` )
w` , m = 2, . . . , k.
(w` , w` )

Cap. 1: El Espacio Vectorial Euclidiano

21

La base ortonormal buscada es entonces




w1
w2
wk
.
,
,...,
(w1 , w1 ) (w2 , w2 )
(wk , wk )

El ejemplo 1.11 puede ser generalizado de la siguiente manera.


1.9. Considere Rn con producto interno . Dado un funcional f (Rn ) ,
P ROPOSICI ON
existe un u nico vector w Rn tal que f (x) = (x, w) para todo x Rn .
Demostracion. Sea {e1 , . . . , en } una base ortonormal de Rn y elija el vector w =

n
P

f (ei )ei .

i=1

Por otro lado considere la aplicacion fw : Rn R definida por fw (x) = (x, w). Es sencillo
comprobar que fw (Rn ) y ademas fw (ei ) = f (ei ) para todo i = 1, . . . , n, lo cual implica
que fw = f . Finalmente, si existiera algun otro vector u tal que (x, w) = (x, u) para todo
x Rn entonces (x, w u) = 0 de donde w = u.

Considere Rn provisto de algun producto interno . Dado un subconjunto X de Rn , se llama


complemento ortogonal de X (respecto a ) al conjunto
X = {y Rn : (x, y) = 0 para todo x X}.
1.10. Para todo conjunto X contenido en Rn , el complemento ortogonal X
P ROPOSICI ON
es subespacio de Rn . Ademas, si X Y entonces Y X .
Demostracion. Como (x, 0) = 0 para todo x Rn entonces el vector nulo 0 es ortogonal a
todo elemento de Rn , en particular es ortogonal a todo elemento de X, luego X es no vaco.
Ademas si y y z son elementos de X y es cualquier real entonces para todo x X se tiene
(y + z, x) = (y, x) + (z, x) = 0 + 0 = 0,
luego y + z X . Esto muestra que X es subespacio de Rn .
Para demostrar la segunda afirmacion, sea v Y un elemento arbitrario entonces (y, v) = 0
para todo y Y . Como Y X entonces tambien se tiene (y, v) = 0 para todo y X, luego
v X .

1.11. Si E es un subespacio vectorial de Rn entonces


P ROPOSICI ON
1. dim E = n dim E.
2. E = E.
3. E E = {0}.
O. Santamaria S.

22

1.3. Productos Internos

Demostracion. Para demostrar (1) elija una base {u1 , . . . , uk } de E y elija vectores v1 , . . . , vm
tales que {u1, . . . , uk , v1 , . . . , vm } es base de Rn (luego k + m = n). Considere la base dual
{f1 , . . . , fk , g1, . . . , gm } en (Rn ) . De acuerdo a la proposicion 1.9, para cada gi podemos encontrar un wi tal que gi = (wi , ). Afirmamos que {w1 , . . . , wm } es base de E . Observe que
(wi , uj ) = gi (uj ) = 0 para todo j = 1, . . . , k, es decir, cada wi es ortogonal a todo elemento de la base de E y por tanto ortogonal a todo E. Luego cada vector wi es elemento de E .
Los vectores w1 , . . . , wm son linealmente independientes pues si consideramos la combinacion
lineal
1 w1 + 2 w2 + + m wm = 0
entonces

k
X

i (wi , ) =

i=1

m
X

i wi ,

i=1

Pm

= (0, ) = 0,

lo cual equivale a la igualdad i=1 i gi = 0 y como los funcionales gi forman un conjunto


linealmente independiente entonces cada i = 0. Pero ademas de esto, los vectores w1 , . . . , wm
generan a E . Para sustentar esta afirmacion considere un vector no nulo w E . Entonces el
funcional g = (w, ) puede escribirse en la forma
g=

k
X

i fi +

i=1

m
X

j gj .

j=1

Para todo vector ul en la base de E,


0 = (w, ul) = g(ul ) =

k
X

i fi (ul ) +

Pm

j=1 j gj .

j gj (ul ) = l

j=1

i=1

entonces g =

m
X

Por tanto para todo x Rn ,

(w, x) = g(x) =

m
X
j=1

j gj (x) =

m
X
j=1

j (wj , x) =

m
X
j=1

j wj , x

on
de donde w = m
j=1 j wj . Podemos en particular concluir que el espacio E es de dimensi

m = n k. Es decir dim E = n dim E.


Ahora procedemos a demostrar (2), es decir, la igualdad E = E. En primer lugar mostraremos que E E. Si fuera que E 6 E entonces existe algun x E tal que x
/ E.

Siendo x elemento de E
entonces (x, u) = 0 para todo u E . Esto significa que cada
elemento u E es ortogonal a todo E y a x, es decir, al subespacio W = S(E {x}),
luego E W . Pero como E W entonces W E , luego debe ser E = W . La
parte (1) implica la igualdad dim E = dim W y por tanto E = W ; en particular x E. Una
contradiccion.
O. Santamaria S.

Cap. 1: El Espacio Vectorial Euclidiano

23

Recprocamente, si x E entonces x es ortogonal a todo elemento de E . Pero nuevamente


por definicion, si x es ortogonal a E entonces x E .
Finalmente, para mostrar (3) observe que si x E E entonces (x, x) = 0. Luego x = 0.
Es decir, E E {0} y como es evidente que {0} E E , se concluye en la igualdad.

1.4. Normas
Una funcion N : Rn R se llama norma en Rn si para todo x, y Rn y todo R:
N1. N(x + y) N(x) + N(y),
N2. N(x) = || N(x),
N3. Si x 6= 0 entonces N(x) > 0.
En la definicion de norma, si en el item (N2) hacemos = 0 obtenemos N(0) = 0. Si = 1
entonces N(x) = N(x). Si x = y entonces reemplazando en (N1) resulta,
0 = N(x + y) N(x) + N(y) = N(x) + N(x) = 2N(x),
de donde N(x) 0 para todo x Rn . De esto deducimos que (N3) equivale a mostrar que la
igualdad N(x) = 0 implica x = 0.
E JEMPLO 1.20. Considere la funcion N : Rn R definida por
N(x) =

n
X

an |xi |

i=1

para todo x = (x1 , . . . , xn ). Entonces N es una norma en Rn si y solo si a1 > 0, . . . , an > 0.


En efecto, si N es una norma entonces para cada vector ej , de la base canonica del Rn , se tiene
0 < N(ej ) = a1 |0| + + aj |1| + + an |1| = aj .
Recprocamente, si a1 > 0, . . . , an > 0 es un buen ejercicio comprobar que N cumple con los
axiomas requeridos para ser una norma.
1.2. En lo que sigue usaremos la notacion tradicional kk en vez de N y h , i
O BSERVACI ON
en vez de . Es decir N(x) kxk y (x, y) hx, yi.
Una norma kk en Rn proviene de un producto interno h, i en Rn si para todo x Rn se tiene
p
kxk = hx, xi.

Una desigualdad importante que involucra norma y producto interno sera dada en breve. Antes
necesitamos del siguiente:
O. Santamaria S.

24

1.4. Normas

L EMA 1.1. Si a, b, c R son tales que a > 0 y a2 + 2b + c 0 para todo R entonces


b2 ac.
Demostracion. Basta observar que


b2
1
2
0 a + 2b + c = (a + b) + c
a
a
2

y como esta desigualdad es verdadera para todo R, en particular es verdadera para = ab .


2

Por tanto c ba 0 de donde b2 ac.


Veremos dentro de poco que no todas las normas en Rn provienen de un producto interno.
Mientras tanto daremos una desigualdad muy importante.
T EOREMA 1.1 (Desigualdad de Cauchy-Schwartz). Si kk es una norma en Rn que proviene
de un producto interno h, i entonces para todo x, y Rn ,
|hx, yi| kxk kyk .
La igualdad ocurre si y solo si uno de ellos es multiplo del otro.
Demostracion. Si suponemos que x = 0 (o y = 0) es claro que la desigualdad es verdadera.
Por otro lado, si x 6= 0 entonces para todo R se tiene se tiene
0 hx + y, x + yi = a2 + 2b + c,
donde a = hx, xi, b = hx, yi = hy, xi y c = hy, yi. Del lema 1.1 se tiene entonces
hx, yi2 hx, xi hy, yi ,
lo cual muestra la desigualdad enunciada.
Ahora mostraremos que la igualdad ocurre si y solo si uno es multiplo del otro. Si fuera y = x
para algun real entonces
kxk kyk = || kxk2 = || hx, xi = |hx, xi| = |hx, yi| .
Recprocamente, suponga que |hx, yi| = kxk kyk. Para vectores x e y tales que kxk = kyk = 1
se tiene |hx, yi| = 1, es decir, hx, yi = 1 o hx, yi = 1. Si hx, yi = 1 entonces
0 hx y, x yi = kxk2 + kyk2 2 hx, yi = 0.
Analogamente, si hx, yi = 1 entonces
0 hx + y, x + yi = kxk2 + kyk2 + 2 hx, yi = 0.
Es decir, en el caso de ser kxk = kyk = 1, si |hx, yi| = 1 = kxk kyk entonces y = x.
Finalmente para vectores x e y arbitrarios no nulos (en el caso de que un vector sea nulo la
situacion es trivial)
los vectores x/ kxk e y/ kyk. De lo demostrado previamente
D consideramos
E
x y
kyk
y
x
= kxk
, luego y = kxk
x. Es decir, y es multiplo
se tiene que si kxk , kyk = 1 entonces kyk
escalar de x.

O. Santamaria S.

Cap. 1: El Espacio Vectorial Euclidiano

25

Veamos ahora algunos ejemplos donde usaremos el teorema 1.1.


E JEMPLO 1.21. Dados a, b Rn , se llama segmento de extremos a y b al conjunto
[a, b] := {(1 t)a + tb : 0 t 1}.
1. Suponga que c [a, b] entonces existe algun t [0, 1] tal que c = (1 t)a + tb. Si kk es
una norma arbitraria en Rn entonces
kb ck + kc ak = kb (1 t)a tbk + k(1 t)a + tb ak
= (1 t) kb ak + t kb ak = kb ak .
2. Recprocamente, suponga que para una norma kk, que proviene de un producto interno, se
tiene la igualdad
kb ak = kb ck + kc ak .
Entonces al elevar al cuadrado y hacer las simplificaciones correspondientes se obtiene
hb c, a ci = kb ck ka ck
lo cual, segun la desigualdad de Cauchy-Schwartz, implica que los vectores b c y a c
son paralelos y del mismo sentido. Es decir, existe 0 tal que b c = (c a) de donde

1
b + 1+
a. Por tanto c [a, b].
c = 1+
3. Cuando la norma no proviene de un producto interno bien podra suceder que kb ak =
kb ck + kc ak y sin embargo c
/ [a, b]. Para ver esto basta considerar en R2 la norma de
la suma y los puntos a = (1, 0), b = (0, 1) y c = (0, 0).
n
n
E JEMPLO
p 1.22. Dado un producton interno h, i en R , la funcion kk : R R definida por
kxk = hx, xi es una norma en R .
En efecto,

1. Usando la desigualdad de Cauchy-Schwartz se tiene


q
p
kx + yk = hx + y, x + yi = kxk2 + 2 hx, yi + kyk2
q
kxk2 + 2 kxk kyk + kyk2 = kxk + kyk .
Es decir, kx + yk kxk + kyk.
p
2. kxk = 2 hx, xi = || kxk.

3. Si x 6= 0 entonces hx, xi > 0 y por tanto kxk > 0.


E JEMPLO 1.23. Las siguientes funciones son normas en Rn : para cada x = (x1 , . . . , xn ) Rn ,
O. Santamaria S.

26

1.4. Normas

1. kxk :=

2. kxkS :=

n
P

i=1

n
P

x2i .

|xi |.

i=1

3. kxkM := max{|x1 | , . . . , |xn |}.


La primera de ellas, kk, es llamada norma euclidiana. Asimismo kkS se denomina norma de
la suma o norma de Minkowski o `1 -norma y, kkM recibe el nombre de norma del maximo o
norma uniforme. Observe que la norma de la suma, kkS , aparece como caso particular de la
norma definida en el ejemplo 1.20, pues basta hacer a1 = = an = 1.
Observe que si h , i es el producto internopcanonico en Rn , entonces la norma euclidiana de
un vector x puede escribirse como kxk = hx, xi. Es decir, la norma euclidiana proviene del
producto interno canonico.
No todas las normas provienen de un producto interno. Un criterio para determinar cuando
sucede esto se da en el resultado que sigue.
1.12 (Identidad del paralelogramo). Si una norma kk proviene de un producto
P ROPOSICI ON
interno entonces satisface la igualdad
kx + yk2 + kx yk2 = 2(kxk2 + kyk2 ).
Usando este resultado es sencillo comprobar que las normas de la suma y del maximo no provienen de ningun producto interno. Por ejemplo si x = e1 , y = e2 entonces kx + yk2S +kx yk2S =
22 + 22 mientras que 2(kxk2S + kyk2S ) = 2(1 + 1). Es decir, kkS no satisface la identidad del
paralelogramo.
E JEMPLO 1.24. Fije numeros reales y con < . Para cada x = (x1 , . . . , xn ) en Rn , con
n 2, ponga


kxk = sup x1 + x2 t + + xn tn1 .
t

En primer lugar observe que esto define una norma en Rn : es sencillo comprobar que kx + yk
kxk + kyk y kcxk = |c| kxk para todo x, y Rn y todo c R. Ademas, si x = (x1 , . . . , xn ) es
tal que kxk = 0 entonces


sup x1 + x2 t + + xn tn1 = 0
t

lo cual implica que |x1 + x2 t + + xn tn1 | = 0 para todo t [, ] y si esto ocurre entonces
x1 + x2 t + + xn tn1 = 0 para todo t [, ]. De aqu resulta x1 = = xn = 0, es decir,
x = 0.

O. Santamaria S.

Cap. 1: El Espacio Vectorial Euclidiano

27

En segundo lugar, afirmamos que esta norma no proviene de ningun producto interno. Para
sustentar esta afirmacion considere los vectores
x = (, 1, 0, . . . , 0)

y = (, 1, 0, . . . , 0).

Entonces
x + y = ( , 2, 0, . . . , 0)

x y = ( , 0, 0, . . . , 0).

Puesto que t entonces 0 t y t 0. Luego


kxk =

sup | + t| = ,
t

kyk =

sup | + t| = .
t

Ademas de esto, nuevamente por ser t entonces 2 2t 2 lo que a su vez nos


lleva a que + 2t . Luego
kx + yk =

sup | + 2t| = ,
t

kx yk =

sup | | = .
t

Obviamente no se cumple la identidad del paralelogramo y por tanto la norma no proviene de


un producto interno.

E JEMPLO 1.25. Para cada 1 p < , la funcion kkp : Rn R definida por


kxkp =

n
X

|xi |p

i=1

!1/p

es una norma en Rn . Esta norma proviene de un producto interno si y solo si p = 2.


Demostrar que kk es una norma, se hara en tres pasos:
(1) En primer lugar demostraremos la desigualdad
m
X
i=1

|xi yi |

m
X
i=1

|xi |p

!1/p

m
X
i=1

|yi |q

!1/q

(1.2)

1 1
+ = 1. La desigualdad (1.2) es conocida
p q
como desigualdad de Holder. Para demostrar esta relacion considere la funcion f : R+ R
up p v q q
t + t , donde u, v 0 y p, q 1. Esta tiene como derivada a
definida por f (t) =
p
q

donde p > 1 y q > 1 son numeros reales tales que

O. Santamaria S.

28

1.4. Normas

v 1/p
f 0 (t) = up tp1 v q tq1 y entonces f 0 (t) = 0 si y solo si t = 1/q (aqu usamos el hecho de
u
1 1
que + = 1 y, por lo tanto, p + q = pq). Por lo tanto f podra tener un mnimo o un maximo
p q
en este valor de t. Para averiguarlo calculamos la segunda derivada de f . Esta es
f 00 (t) = (p 1)v p tp2 + (q + 1)v q tq2
y entonces

00

v 1/p
u1/q

= (p 1)v

v 1/p
u1/q

p2

+ (q + 1)v

v 1/p
u1/q

q2

0,

pues p, q 1. Por el criterio de la segunda derivada se concluye que f asume un mnimo en


t = v 1/p /u1/q .
Este valor mnimo es

Luego uv

v 1/p
u1/q

up
=
p

v 1/p
u1/q

p

vq
+
q

v 1/p
u1/q
p

q

vq u
vup q
uv q p
up v
+
=
+
= uv.
=
pup/q qv q/p
p
q

up p v q q
t + t para todo t > 0. En particular, si t = 1, resulta
p
q
up v q
+ .
uv
p
q

Usando
|xk |
u = Pm
1/p
( i=1 |xi |p )

se concluye rapidamente en la desigualdad de Holder.


(2) Considere la identidad

|yk |
v = Pm
1/q
( i=1 |yi |q )

(|a| + |b|)p = (|a| + |b|)p1 |a| + (|a| + |b|)p1 |b| ,


O. Santamaria S.

Cap. 1: El Espacio Vectorial Euclidiano

29

entonces, usando Holder en la primera desigualdad que aparece a continuacion,


m
X

(|ai | + |bi |)

i=1

m
X

|ai | (|ai | + |bi |)

p1

i=1

m
X

|ai |p

!1/p

m
X

(|ai | + |bi |)q(p1)

i=1

m
X

|bi |p

i=1

m
X
i=1

1
p

m
X

1
q

|bi | (|ai | + |bi |)p1

i=1

i=1

Como

m
X

!1/p

m
X

!1/q

(|ai | + |bi |)q(p1)

i=1

!1/q m
!1/p
X

|ai |p
(|ai | + |bi |)q(p1)
+

!1/q

m
X

i=1

i=1

!1/p

|bi |p

= 1 entonces q(p 1) = p. Luego la u ltima desigualdad se convierte en

(|ai | + |bi |)p

i=1

m
X

(|ai | + |bi |)p

i=1

!1/q

m
X

|ai |p

i=1

!1/p

m
X

|bi |p

i=1

!1/p

de donde
m
X

(|ai | + |bi |)p

i=1

! p1

m
X

|ai |

i=1

!1/p

m
X

i=1

|bi |

!1/p

(*)

(3) Nuestro tercer paso consiste es probar de lleno que la funcion kkp es una norma: sean
x = (x1 , . . . , xn ), y = (y1, . . . , yn ) elementos arbitrarios en Rn y R, entonces
N1. De la desigualdad (*),
kx + ykp =

n
X

|xi + yi |p

i=1

m
X
i=1

N2. kxkp = (

Pn

i=1

|xi |p )

1/p

|xi |p

!1/p

!1/p
+

n
X

(|xi | + |yi |)p

i=1

m
X
i=1

|yi |p

!1/p

!1/p

= kxkp + kykp .

= || kxkp .

N3. Si x 6= 0 entonces al menos una coordenada xi es no nula, luego |xi |p > 0. Se tiene
entonces en este caso que kxkp > 0.
O. Santamaria S.

30

1.4. Normas

Finalmente probaremos que la norma kxkp proviene de un producto interno si y solo si p =


2. En efecto, si p = 2 entonces kxkp es la norma euclidiana, la cual proviene del producto
interno canonico. Recprocamente, supongamos que kxkp proviene de algun producto interno.
En particular satisface la identidad del paralelogramo y entonces para x = e1 = (1, 0, . . . , 0) y
y = (0, 1, 0, . . . , 0) se tiene
ke1 + e2 k2p + ke1 e2 k2p = 2(ke1 k2p + ke2 k2p ).
Esto equivale a la igualdad 22/p + 22/p = 2(1 + 1), de donde p = 2.
E JEMPLO 1.26. Sea Cp
Rn un conjunto convexo, p Rn y : C R la funcion definida
por (x) = kx pk = hx p, x pi. Existe como maximo un punto a C tal que (a) =
nf{(x) : x C}.
Supongamos que existen puntos a, b C tal que (a) = nf{(x) : x C} = (b). Como la
norma considerada proviene de un producto interno entonces por la identidad del paralelogramo
se tiene
ka bk2 = k(a p) (b p)k2
= 2 ka pk2 + 2 kb pk2 k(a p) + (b p)k2
2


1
2
2
.
(a
+
b)

p
= 2 ka pk + 2 kb pk 4

2

(a) (x) = kx pk
Como C es convexo y a, b C entonces 21 (a +
1b) C. Siendo



para todo x C entonces en particular (a) 2 (a + b) p y, por tanto, de las igualdades
anteriores se obtiene
0 ka bk2 2(a) + 2(b) 4(a) = 0.

Luego a = b.
Observe la importancia que tiene el hecho de que C sea convexo. En la figura 1.1 se ilustra el
caso no convexo, donde podran existir infinitos a C tales que (a) = nf{(x) : x C}.
Se ilustra tambien el caso convexo.

Figura 1.1:

O. Santamaria S.

Cap. 1: El Espacio Vectorial Euclidiano

31

1.13. Considere en Rm y Rn la norma euclidiana. Las siguientes afirmaciones


P ROPOSICI ON
respecto de una aplicacion lineal T : Rm Rn son equivalentes:
1. kT xk = kxk.
2. kT x T yk = kx yk.
3. hT x, T yi = hx, yi.
4. Todo conjunto ortonormal en Rm es transformado por T en un conjunto ortonormal en
Rn .
5. T T = Im (aplicacion identidad en Rm ).
6. Las columnas de la matriz de T forman un conjunto ortonormal en Rn .
Demostracion. Puesto que se estan considerando las normas euclidianas, las cuales provienen
del respectivo producto interno canonico, entonces
ku + vk2 = hu + v, u + vi = kuk2 + kvk2 + 2 hu, vi .
Suponiendo (1) entonces
kT (x) T (y)k = kT (x y)k = kx yk ,
luego (1) implica (2).
Suponiendo (2), se tiene en particular
kT x + T yk = kT (x + y) T (0)k = kx + y 0k = kx + yk .
Luego

1
kT x + T yk2 kT x T yk2
4

1
kx + yk2 kx yk2
=
4
= hx, yi .

hT x, T yi =

Luego (2) implica (3).


Suponiendo (3) y si X es un conjunto ortonormal en Rm entonces para u, v T (X) existen
x, y X tales que u = T x y v = T y. Luego
hu, vi = hT x, T yi = hx, yi = ij ,
donde la u ltima igualdad es debido a que X es ortonormal. Luego T (X) es ortonormal y por
tanto (3) implica (4).
O. Santamaria S.

32

1.4. Normas

Suponga la validez de (4). Considere las bases canonicas


Pn {e1 , . . . , em } y
m
n
i entonces
{
e1 , . . . , eP
}
en
R
y
R
respectivamente.
Si
T
(e
)
=
n
j
i=1 aij e
m

T (
ei ) = j=1 aij ej (ver ejemplo 1.14). Luego para cada j = 1, 2, . . . , m,
T T (ej ) = T

n
X

aij ei

i=1

= a1j

m
X

a1j ej

j=1

n
X

= a1j T (
e1 ) + a2j T (
e2 ) + + anj T (
en )

+ a2j

akj ak1 e1 +

k=1

m
X

a2j ej

j=1

n
X

+ + anj

anj ej

j=1

akj ak2 e2 + +

k=1

m
X

n
X

akj akm

k=1

em

= hT ej , T e1 i e1 + hT ej , T e2 i e2 + + hT ej , T em i em .
Como la base canonica {e1 , . . . , em } es ortogonal y T transforma conjuntos ortonormales en
conjuntos ortonormales entonces {T e1 , . . . , T em } es tambien ortonormal, es decir hT ej , T ek i =
0 cuando k 6= j y hT ej , T ek i = 1 cuando k = j, luego
T T (ej ) = ej .
Como esto vale para cada j = 1, . . . , m, resulta finalmente T T = Im . Luego (4) implica (5).
Suponga la validez de (5). Si A = (aij )nm es la matriz asociada a T entonces A = (aji )mn
es la matriz asociada a T . Luego T T tiene como matriz asociada al producto A A, cuyos
elementos son
n
X
aki akj = hT ei , T ej i .
cij =
k=1

Pero como T T = Im entonces A A es la matriz identidad, luego cij = 1 para i = j y cij = 0


para i 6= j. Esto se traduce en las igualdades hT ei , T ej i = 1 para i = j y hT ei , T ej i = 0
para i 6= j. Pero como los vectores T (ej ) son precisamente las columnas de A, se obtiene lo
afirmado en (6).
Finalmente suponga la validez de (6), es decir, hT ei , T ej i = ij . Entonces
kT xk2 = hT x, T xi =

* m
X

xi T ei ,

i=1

xi xj hT ei , T ej i =

ij

de donde kT xk = kxk, que es lo afirmado en (1).


O. Santamaria S.

m
X
j=1

m
X

xj T ej

x2i = kxk2 ,

i=1

Cap. 1: El Espacio Vectorial Euclidiano

33

E JEMPLO 1.27. Una transformacion lineal T : Rm Rm es ortogonal si


T T = In = T T . Como la matriz asociada a T T es la matriz identidad entonces
det(T T ) = 1. Luego
(det T )2 = det T det T = det T det T = det(T T ) = det In = 1,
de donde det T = 1.
Observe que una aplicacion T : Rm Rm es ortogonal si y solo si cumple una (y por tanto
todas) de las condiciones de la proposicion 1.13.
Una transformacion lineal A : Rn Rn se llama semejanza si existe un real > 0 tal que para
todo x, y Rn ,
hAx, Ayi = 2 hx, yi .
1.14. Sea A : Rn Rn una transformacion lineal. Las siguientes afirmaciones
P ROPOSICI ON
son equivalentes:
1. A es una semejanza.
2. kAxk = kxk para todo x Rn .
3. Si {e1 , . . . , en } es una base ortonormal entonces hAei , Aej i = 0 para i 6= j y kAei k =
para cualesquiera i, j = 1, . . . , n.
Demostracion. Suponga que A es una semejanza. Existe un numero real > 0 tal que hAx, Ayi =
2 hx, yi para todo x, y Rn . En particular, para x = y, hAx, Axi = 2 hx, xi. Luego (1) implica (2).
Suponga que se cumple (2) y sea {e1 , . . . , en } una base ortonormal. Entonces
hAei , Aej i =
=
=
=
=


1
kAei + Aej k2 kAei Aej k2
4

1
kA(ei + ej )k2 kA(ei ej )k2
4

2
kei + ej k2 kei ej k2
4
2
(2 + 2 hei , ej i 2 + 2 hei , ej i)
4
2 hei , ej i .

Usando la ortonormalidad de los vectores ei se obtiene lo que afirma (3).


O. Santamaria S.

34

1.4. Normas

Finalmente, suponga que se cumple (3)Py considere x e P


y, elementos arbitrarios en Rn . Entonces
en terminos de la base canonica, x = ni=1 xi ei e y = ni=1 yi ei , luego
* n
+
n
X
X
hAx, Ayi =
xi Aei ,
yj Aej
=

i=1
n
X

j=1

xi yj hAei , Aej i

i,j=1

n
X

xi yi 2 = 2 hx, yi .

i=1

Y as, (3) implica (1).

1.15 (Proyeccion Ortogonal). Sea E un subespacio vectorial de Rn , {e1 , . . . , ek }


P ROPOSICI ON
P
una base ortonormal de E y : Rn E definida por (a) = ki=1 ha, ei i ei . Entonces

a) Para cada a Rn , el vector a (a) es elemento de E ;


b) La aplicacion es lineal y ker() = E ;

c) Para cada a Rn , la funcion fa : E R, definida por fa (y) = ka yk, alcanza su valor


mnimo solamente en (a);
d) Rn = E E .
Demostracion.
a) Para cada elemento ej de la base ortonormal dada, se tiene
ha (a), ej i = ha, ej i h(a), ej i
* k
+
X
= ha, ej i
ha, ei i ei , ej
i=1

= ha, ej i

k
X

ha, ei i hei , ej i

i=1

= ha, ej i ha, ej i = 0.
Luego dado cualquier v =

Pk

i=1

vi ei , vector en E,

ha (a), vi =

k
X
j=1

Es decir a (a) esta en E .


O. Santamaria S.

vj ha (a)ej i = 0.

Cap. 1: El Espacio Vectorial Euclidiano

35

b) P
Es sencillo mostrar que es lineal. Ademas si a ker() entonces (a) = 0, es decir,
k
ltima igualdad
i=1 ha, ei i ei = 0. Debido a la independencia lineal de los vectores ei , la u
implica que ha, ei i = 0 para todo i = 1, . . . , n, luego a es ortogonal al espacio E, es
decir, a E . Recprocamente, si a E entonces, en particular, ha, ej i = 0 para todo
j = 1, . . . , k. De la definicion de resulta (a) = 0 y, por tanto, a debe ser elemento del
ker().
c) Sea a Rn y considere la funcion fa : Rn R definida por fa (y) = ka yk. Como
(a) E entonces (a) y es elemento del subespacio E, para todo y en E. De item (a)
sabemos que a (a) esta en E y por tanto ha (a), (a) yi = 0. Luego,
[fa ((a))]2 = ka (a)k2 ka (a)k2 + k(a) yk2
= ka (a) + (a) yk2 = ka yk2 = [fa (y)]2 .
Es decir, fa ((a)) fa (y) para todo y E y, por tanto, f tiene un mnimo en (a). Siendo
E convexo, del ejemplo 1.26 deducimos que (a) es el u nico punto donde fa asume su valor
mnimo.
d) Finalmente, de la proposicion 1.11 sabemos que E E = {0}, as que solo queda mostrar
la igualdad Rn = E + E . Para ello sera suficiente probar que Rn E + E . Si a Rn , de
lo demostrado en (a) y (c) deducimos que (a) es el u nico elemento de E tal que a (a)
es ortogonal a E, es decir, tal que a (a) E . Si y = a (a) y x = (a), deducimos
que a = x + y. Esto muestra que cada a Rn se escribe de modo u nico como la suma de
dos elementos: uno x en E y otro y en E , luego Rn E + E .

Dos normas kk1 y kk2 en Rn son equivalentes si existen constantes a > 0 y b > 0 tales que
kxk1 a kxk2 y kxk2 b kxk1 .
E JEMPLO 1.28. Las normas euclidiana y de la suma son equivalentes. En efecto, si x =
(x1 , . . . , xn ) Rn entonces
sX
Xq
X
kxk =
x2i
x2i =
|xi | = kxkS .
i=1

kxkS =

X
i=1

i=1

i=1

sX
x2i = n kxk .
|xi | n
i=1

Es decir, kxk kxkS y kxkS n kxk.


De manera analoga se comprueba la equivalencia entre kkS y kkM y tambien la equivalencia
entre kk y kkM .
Mas adelante comprobaremos que todas las normas en Rn son equivalentes. Como veremos,
algunos conceptos permanecen invariantes bajo normas equivalentes.
O. Santamaria S.

1.5. Distancias en Rn

36

1.5. Distancias en Rn
Una distancia en Rn es una funcion d : Rn Rn R que satisface, para todo x, y, z Rn , las
siguientes propiedades:
1. d(x, y) = 0 si y solo si x = y;
2. d(x, y) d(z, x) + d(z, y).
1.16. Una funcion d : Rn Rn R es una metrica si y solo si para todo
P ROPOSICI ON
x, y, z Rn ,
1. d(x, z) d(x, y) + d(y, z);
2. d(x, y) = d(y, x);
3. Si x 6= y entonces d(x, y) > 0.
Demostracion. Suponga que d es una metrica.

Considere Rn provisto de alguna norma kk. La funcion d : Rn Rn R definida por d(x, y) =


kx yk

1.6. Ejercicios
1. Determine si las siguientes funciones kk : Rn R son normas en Rn :
a) kxk = max{|x1 | , 2 |x2 | , . . . , n |xn |}.
b) kxk = |x1 | + 2 |x2 | + . . . + n |xn |.
donde x = (x1 , . . . , xn ).

O. Santamaria S.

Potrebbero piacerti anche