Sei sulla pagina 1di 31

Indice general

7. El espacio vectorial eucldeo. Aplicaciones ortogonales

7.1. Producto escalar eucldeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7.1.1. Expresi
on matricial del producto escalar . . . . . . . . . . . . . . . . . . .

7.2. Norma eucldea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7.3. Distancia eucldea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7.3.1. Medida de
angulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7.4. Ortogonalidad. Bases ortogonales y ortonormales . . . . . . . . . . . . . . . . . .

7.5. Metodo de ortogonalizaci


on de GrandSchmidt . . . . . . . . . . . . . . . . . . .

7.6. Proyecci
on ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7.7. Transformaciones ortogonales. Matrices ortogonales . . . . . . . . . . . . . . . . .

10

7.8. Diagonalizaci
on de matrices cuadradas simetricas . . . . . . . . . . . . . . . . . .

13

7.9. Formas Bilineales y Cuadr


aticas

. . . . . . . . . . . . . . . . . . . . . . . . . . .

15

7.9.1. Expresi
on matricial de un cambio de base . . . . . . . . . . . . . . . . . .

16

7.9.2. Clasificaci
on de las formas cuadraticas . . . . . . . . . . . . . . . . . . . .

19

7.9.3. Reducci
on de formas cuadraticas . . . . . . . . . . . . . . . . . . . . . . .

21

7.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

ii

Indice general

Tema 7

El espacio vectorial eucldeo.


Aplicaciones ortogonales

7.1.

Producto escalar eucldeo

Sea (V, +, ) un espacio vectorial real.


Definici
on 7.1. Llamamos producto escalar en V a cualquier aplicacion
h, i :

V V
R
(v1 , v2 )
hv1 , v2 i

que satisfaga las siguientes propiedades, donde v1 , v2 , v3 , v V son vectores arbitrarios de V y


R es un n
umero real cualquiera:
hv1 , v2 i = hv2 , v1 i.
hv1 + v2 , v3 i = hv1 , v3 i + hv2 , v3 i.
hv1 , v2 i = hv1 , v2 i.
hv, vi 0.
hv, vi = 0 v = 0.
Definici
on 7.2. Llamamos espacio vectorial eucldeo a todo espacio vectorial dotado de un
producto escalar.
Para indicar que (V, +, ) es un espacio vectorial eucldeo dotado del producto escalar h, i,
escribiremos (V, h, i).

El espacio eucldeo

Ejemplos 7.1.
1. En el espacio vectorial real Rn , dados dos elementos cualesquiera,
x = (x1 , x2 , . . . , xn ), y = (y1 , y2 , . . . , yn ),
la aplicaci
on
hx, yi = x1 y1 + x2 y2 + + xn yn
es un producto escalar, llamado producto escalar usual, can
onico o estandar.
2. En R2 , adem
as del producto escalar anterior (definido como hx, yi = x1 y1 + x2 y2 ), es
producto escalar la aplicaci
on
hx, yi = 3x1 y1 x1 y2 x2 y1 + 4x2 y2
siendo x = (x1 , x2 ), y = (y1 , y2 ) dos elementos cualesquiera de R2 .
3. Sin embargo, con la misma notacion, la aplicacion
hx, yi = x1 y1 x2 y2
no es producto escalar.
En efecto, entre otros fallos de las propiedades tenemos que
h(2, 2), (2, 2)i = 4 4 = 0,
h(2, 3), (2, 3)i = 4 9 < 0.

con (2, 2) 6= (0, 0)

4. Si consideramos el espacio vectorial

la aplicaci
on

V = C([0, 1]) = {f : [0, 1] R : f es continua}


Z 1
hf, gi =
f (x) g(x) dx con f, g C([0, 1]) es un producto escalar.
0

5. El producto escalar can


onico en el espacio vectorial de los polinomios de grado menor o
igual que n, Rn [x], es
hp(x), q(x)i = a0 b0 + a1 b1 + + an1 bn1 + an bn
siendo p(x) = a0 + a1 x + + an xn , q(x) = b0 + b1 x + + bn xn polinomios tales que
ai , bj R.
Proposici
on 7.1. Sea (V, h, i) un espacio vectorial eucldeo.
Se verifican las siguientes propiedades, donde vi V , i , i R:
hv1 , v2 + v3 i = hv1 , v2 i + hv1 , v3 i
hv1 , v2 i = hv1 , v2 i
*
+
n
m
n P
m
P
P
P
i vi ,
j v j =
i j hvi , vj i
i=1

j=1

i=1 j=1

hv, 0i = 0
Si hv, wi = 0 para todo w V entonces v = 0.
Observaci
on 7.1. En todo espacio vectorial (V, +, ) de dimension finita se puede definir un
producto escalar.
En efecto, si dim(V ) = n y B = {e1 , e2 , . . . , en } es base de V , dados x, y V tales que
x = x1 e1 + x2 e2 + + xn en , y = y1 e1 + y2 e2 + + yn en , el producto escalar se define por
hx, yi = x1 y1 + x2 y2 + + xn yn .

7.1 Producto escalar eucldeo

7.1.1.

Expresi
on matricial del producto escalar

Sea (V, h, i) un espacio vectorial eucldeo de dimension n y B = {e1 , e2 , . . . , en } una base de


V.
Si x, y V , x = x1 e1 + x2 e2 + + xn en , y = y1 e1 + y2 e2 + + yn en entonces
hx, yi =

* n
X

xi ei ,

i=1

n
X

+
=

yj ej

xi yj hei , ej i.

i,j

j=1

Por tanto, el producto escalar queda perfectamente determinado con solo conocer los productos escalares de los vectores de una base.
Si llamamos gij = hei , ej i con i, j = 1, . . . , n y consideramos la matriz G = (gij )nn se
puede escribir

y1

hx, yi = (x1 , . . . , xn ) G ... = X t G Y.


yn
Por ser hx, yi = hy, xi se verifica la igualdad
X t G Y = Y t G X.
Definici
on 7.3. La matriz G anterior
G = (gij ) = (hei , ej i)

con i, j = 1, . . . , n

se llama matriz de Gram, matriz metrica o matriz coordenada del producto escalar en la
base dada.
Notese que dicha matriz depende de la base elegida, aunque las matrices de Gram de un
producto escalar en distintas bases estan relacionadas.
Definici
on 7.4. Dos matrices A y B cuadradas de orden n son congruentes si existe una
matriz regular P de orden n tal que
P t A P = B.
Puede comprobarse que las matrices de Gram de un producto escalar en bases
distintas son congruentes.
Ademas, la matriz G es siempre simetrica, ya que
gij = hei , ej i = hej , ei i = gji ,
y es regular o invertible, pues verifica que
|G| =
6 0.

7.2.

El espacio eucldeo

Norma eucldea

Sea (V, h, i) un espacio vectorial eucldeo.


Definici
on 7.5. Llamamos norma, m
odulo o longitud de un vector v V al n
umero
p
kvk = + hv, vi
Dicho n
umero est
a bien definido pues, como sabemos, hv, vi 0 para cualquier v V .
Proposici
on 7.2. Se verifican las siguientes propiedades, donde v, v 0 V , R.
kvk 0 para todo v V
kvk = 0 v = 0
k vk = || kvk
Desigualdad triangular: kv + v 0 k kvk + kv 0 k
Desigualdad de Cauchy-Schwartz: |hv, v 0 i| kvk kv 0 k




kvk kv 0 k kv v 0 k
Definici
on 7.6. Sea V un espacio vectorial eucldeo y v V .
Diremos que v es un vector unitario o normalizado si verifica que kvk = 1.
Ejemplo 7.2. Dado un vector v V cualquiera, los vectores
v1 =

1
v
kvk

v2 =

1
v
kvk

son unitarios.
Aunque hemos definido la norma a partir del producto escalar, puede definirse una norma
en un espacio vectorial cualquiera, sin necesidad de recurrir a este.
As, todo espacio vectorial eucldeo es un espacio vectorial normado con la norma que se
deriva del producto escalar. Sin embargo, el enunciado recproco no es cierto: Podemos disponer
de una norma en el espacio vectorial sin que en dicho espacio vectorial exista una producto
escalar del cual se derive dicha norma.

7.3.

Distancia eucldea

La norma de un espacio vectorial normado permite definir una distancia en V y por tanto
permite medir distancias y
angulos entre vectores.
Definici
on 7.7 (Distancia). Sea (V, +, ) un espacio vectorial normado.
Dados v1 , v2 V , llamamos distancia de v1 a v2 al n
umero real
d(v1 , v2 ) = kv1 v2 k

7.3 Distancia eucldea

Propiedades
Si v1 , v2 , v3 V , se verifican las propiedades siguientes:
d(v1 , v2 ) 0 para todo v1 , v2 V .
d(v1 , v2 ) = 0 v1 = v2 .
d(v1 , v2 ) = d(v2 , v1 ).
d(v1 , v2 ) d(v1 , v3 ) + d(v3 , v2 ), para cualquier v3 V .
Podemos definir un espacio metrico sin necesidad de recurrir a una norma.
Definici
on 7.8. Llamaremos espacio m
etrico a todo espacio vectorial real en el que este definida una distancia.
A partir de un espacio vectorial normado siempre se puede obtener un espacio metrico, pero
no todo espacio metrico se obtiene necesariamente a partir de una norma.
Un espacio metrico obtenido a partir de una norma verifica la siguiente propiedad, que no
posee en general un espacio metrico cualquiera:
Proposici
on 7.3. En un espacio normado V (y en particular en un espacio vectorial eucldeo)
la distancia es invariante frente a traslaciones, es decir, si v1 , v2 , v3 V se verifica que
d(v1 , v2 ) = d(v1 + v3 , v2 + v3 ).

7.3.1.

Medida de
angulos

Recordemos que la funci


on y = cos(x) es biyectiva en el intervalo [0, ] y su rango es [1, 1],
como se deduce de la conocida expresion
1 cos(x) 1,

x [0, ].

Por otra parte, si v1 , v2 V siendo V un espacio vectorial eucldeo, la desigualdad de


Cauchy-Schwartz establece que
|hv1 , v2 i| kv1 k kv2 k,
de donde

|hv1 , v2 i|
hv1 , v2 i
1 1
1
kv1 k kv2 k
kv1 k kv2 k

Ello da pie a la siguiente definici


on:
Definici
on 7.9. Si v1 , v2 son dos vectores no nulos de un espacio vectorial eucldeo (V, h, i), se
llama
angulo entre v1 y v2 al n
umero


hv1 , v2 i
= arc cos
kv1 k kv2 k
As pues,
cos() =

hv1 , v2 i
.
kv1 k kv2 k

Notese que 0 .
No esta definido el
angulo entre dos vectores cuando alguno de ellos es nulo.

7.4.

El espacio eucldeo

Ortogonalidad. Bases ortogonales y ortonormales

Definici
on 7.10. Sea (V, h, i) un espacio vectorial eucldeo y sean v1 , v2 V .
Diremos que v1 es ortogonal a v2 si hv1 , v2 i = 0.
Por la conmutatividad del producto escalar, si v1 es ortogonal a v2 , v2 sera ortogonal a v1 .
Diremos entonces que v1 y v2 son ortogonales y lo representaremos por
v1 v2 .
Como curiosidad, comentemos que es de aplicacion tambien en este ambito un conocido
teorema:
Teorema 7.4 (de Pit
agoras.). Sean v1 , v2 V dos elementos de un espacio vectorial eucldeo
(V, h, i). Entonces se verifica
v1 v2 kv1 + v2 k2 = kv1 k2 + kv2 k2
Definici
on 7.11. Sea (V, h, i) un espacio vectorial eucldeo y sean C y D dos subconjuntos de
vectores de V .
Diremos que C y D son ortogonales (y escribiremos CD) si se verifica cd para cualesquiera c C, d D.
Como caso particular, si v V verifica que vc, c C, se dice que v es perpendicular u
ortogonal a C y se escribe vC en vez de poner {v}C.
Proposici
on 7.5. Sea (V, h, i) un espacio vectorial eucldeo.
Si C = {c1 , . . . , cn } y D = {d1 , . . . , dm } son subconjuntos de vectores de V ortogonales,
entonces los subespacios generados por C y D son ortogonales, es decir
CD hCihDi
Proposici
on 7.6. Sea (V, h, i) un espacio vectorial eucldeo.
Si W1 , W2 son subespacios ortogonales de V entonces W1 W2 = {0}.
Esta proposici
on no significa que dos subespacios W1 , W2 ortogonales sean suplementarios,
ya que aunque su suma es directa no tiene por que ocurrir que W1 W2 = V .
Subespacios ortogonales
Sea C un subconjunto de vectores de un espacio vectorial eucldeo V . Se denota por C el
conjunto de vectores de V que son ortogonales a C; por tanto,
C = {v V : cv c C}
Proposici
on 7.7. El conjunto C es subespacio vectorial.
Definici
on 7.12. Si W es subespacio vectorial de un espacio vectorial eucldeo (V, h, i), el
conjunto W se llama subespacio ortogonal de W .
El conjunto W es subespacio vectorial de V en virtud de la proposicion anterior.

7.5 M
etodo de ortogonalizaci
on de GrandSchmidt

Proposici
on 7.8. Si W es subespacio vectorial de un espacio vectorial eucldeo V entonces la
suma W + W es directa.
Sea (V, h, i) un espacio vectorial eucldeo y W un subespacio vectorial de V .
Si W y W son suplementarios, al subespacio W se le llama suplementario ortogonal
o suplemento ortogonal de W .
Sistemas ortogonales y ortonormales
Definici
on 7.13. Sea (V, h, i) un espacio vectorial eucldeo y S = {v1 , . . . , vp } un sistema de
vectores de V .
El sistema S es ortogonal si vi vj , i 6= j.
El sistema S es ortonormal si es ortogonal y ademas kvi k = 1, i.
Seg
un la definici
on precedente, el vector 0 puede formar parte de un sistema ortogonal,
aunque no de un sistema ortonormal.
Proposici
on 7.9. Sea
sistema ortogonal de vectores no nulos. Entonces S
 S = {v1 , . . . , vp } un 
vp
v2
v1
,
,...,
es ortonormal.
es libre y el sistema
kv1 k kv2 k
kvp k
As pues, todo sistema ortonormal es libre (lo es cualquier sistema ortogonal de vectores
no nulos).
Sea (V, h, i) un espacio vectorial eucldeo de dimension finita.
A una base de V que sea un sistema ortogonal u ortonormal la llamaremos, respectivamente,
base ortogonal o base ortonormal de V .
La siguiente proposici
on ayuda a determinar cuando una base es ortogonal u ortonormal.
Proposici
on 7.10. Sea (V, h, i) un espacio vectorial eucldeo tal que dim(V ) = n.
B = {v1 , v2 , . . . , vn } es una base ortogonal de V si, y s
olo si, la matriz de Gram en dicha
base es diagonal.
B = {v1 , v2 , . . . , vn } es una base ortonormal de V si, y s
olo si, la matriz de Gram en dicha
base es la identidad.
Nos interesa saber si pueden encontrarse bases ortogonales u ortonormales en cualquier
espacio vectorial eucldeo V de dimension finita, dada la simplicidad de la matriz de Gram en
dichas bases.
Este interes justifica la siguiente seccion.

7.5.

M
etodo de ortogonalizaci
on de GrandSchmidt

Teorema 7.11 (de Ortogonalizaci


on de GrandSchmidt). Sea (V, h, i) un espacio vectorial eucldeo (no necesariamente de dimensi
on finita). Sea {u1 , u2 , . . . , up } un sistema libre de vectores
de V . Existe un sistema ortogonal {v1 , v2 , . . . , vp } tal que
hu1 , u2 , . . . , up i = hv1 , v2 , . . . , vp i

El espacio eucldeo

A partir del sistema inicial, {u1 , u2 , . . . , up }, los vectores ortogonales son


v1

= u1

v2

= u2 + v1 ,

con =

hv1 , u2 i
hv1 , v1 i

...
...
vp = up + 1p v1 + 2p v2 + + p1,p vp1
...
...
siendo ip =

hvi , up i
.
hvi , vi i

Corolario 7.1 (de Ortonormalizaci


on de GrandSchmidt). Sea (V, h, i) un espacio vectorial eucldeo (no necesariamente de dimensi
on finita). Sea {u1 , u2 , . . . , up } un sistema libre de vectores
de V .
Entonces existe un sistema ortonormal {v1 , v2 , . . . , vp } tal que
hu1 , u2 , . . . , up i = hv1 , v2 , . . . , vp i
Para obtenerlo, basta con normalizar cada vector del sistema ortogonal correspondiente.
Corolario 7.2. Sea (V, h, i) un espacio vectorial eucldeo de dimensi
on finita n. Entonces podemos encontrar en V una base ortogonal (y tambien una base ortonormal).
Teorema 7.12 (de la Base Ortonormal incompleta). Sea (V, h, i) un espacio vectorial eucldeo
de dimensi
on finita n. Sea S = {v1 , v2 , . . . , vp } un sistema ortonormal de vectores de V , con
p < n. Entonces existe alg
un sistema S 0 = {vp+1 , . . . , vn } tal que el sistema {v1 , v2 , . . . , vn } es
base ortonormal de V .
Recordemos que se mencion
o con anterioridad el hecho de que si V es un espacio vectorial
eucldeo de dimensi
on finita y W es un subespacio de V , entonces el subespacio ortogonal W es
suplementario de W (es decir, W W = V ). Ahora estaramos en condiciones de demostrarlo.
Proposici
on 7.13. Sea V un espacio vectorial eucldeo de dimensi
on finita n y sea W un

subespacio de V . Entonces W W = V .

Consecuencias
Si (V, h, i) un espacio vectorial eucldeo de dimension finita n, se verifica:
Si {v1 , . . . , vp , vp+1 , . . . , vn } es una base ortonormal de V entonces los subespacios hv1 , . . . , vp i
y hvp+1 , . . . , vn i son ortogonales y suplementarios.
Si {v1 , . . . , vp } es una base ortonormal de W y {vp+1 , . . . , vn } es una base ortonormal de
W entonces el sistema {v1 , . . . , vp , vp+1 , . . . , vn } es una base ortonormal de V .
El interes de las bases ortonormales radica en el hecho de que en ellas, la expresion del
producto escalar se simplifica al m
aximo, pues la matriz de Gram es la matriz identidad I. Se
verifica por tanto el siguiente teorema:

7.6 Proyecci
on ortogonal

Teorema 7.14. Sea (V, h, i) un espacio vectorial eucldeo de dimensi


on finita n y sea
B = {v1 , v2 , . . . , vn } una base ortonormal de V .
Si x, y son dos vectores de V cuyas coordenadas en la base B son, respectivamente,
(x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ), es decir, tales que
x = x1 v1 + x2 v2 + + xn vn ,

y = y1 v1 + y2 v2 + + yn vn ,

entonces,
hx, yi = x1 y1 + x2 y2 + + xn yn ,
p
kxk = x21 + x22 + + x2n ,
xi = hx, vi i = kxk cos(x, vi ).

7.6.

Proyecci
on ortogonal

Figura 7.1: Proyecci


on ortogonal de v

Si en el espacio vectorial eucldeo R3 consideramos


un subespacio vectorial cualquiera W (puede ser una
recta o un plano que contengan al origen de coordenadas; en la figura, es el plano horizontal) y un vector cualquiera v, siempre puede encontrarse el vector
proyeccion de v sobre W .
Dicha proyeccion es un vector w tal que v w es
prependicular a W . Ademas w cumple que kv wk
es menor o igual que kv uk para cualquier u W .
Esto puede generalizarse a un espacio vectorial
cualquiera.

Definici
on 7.14. Sea (V, h, i) un espacio vectorial eucldeo y W un subespacio de V . Sea v V .
Diremos que un vector w W es la proyecci
on ortogonal de v sobre W si el vector v w
es ortogonal a W , es decir, si v w W .
Se escribe w = proyW (v).
Si w = proyW (v), el n
umero kv wk proporciona la mnima distancia del vector v al subespacio W , es decir, kv wk es la menor de todas las normas kv uk siendo u W . Eso justifica
la siguiente definici
on.
Definici
on 7.15. Llamamos distancia del vector v al subespacio W al n
umero kv wk,
que se denota por d(v, W ).
Por tanto,
d(v, W ) = d(v, proyW (v)) = d(v, w).
Veamos cu
ando existe la proyecci
on ortogonal de un vector cualquiera de V sobre un subespacio dado W .
Recordemos, antes, que la suma W + W es directa, pero en general, los subespacios W y
no son suplementarios. Ahora veremos que la condicion necesaria y suficiente para que todo
vector de V tenga proyecci
on ortogonal sobre W es justamente esa: que W W = V .
W

10

El espacio eucldeo

Teorema 7.15. Sea V un espacio vectorial eucldeo y W un subespacio de V .


Existe la proyecci
on ortogonal de cualquier v V sobre W si, y s
olo si,
W W = V.
Consideremos ahora el caso particular de un espacio vectorial eucldeo (V, h, i) donde W V
es un subespacio de dimensi
on finita.
Se verifica la siguiente
Proposici
on 7.16. Sea V un espacio vectorial eucldeo y sea W un subespacio de V . Supongamos que W tiene dimensi
on finita p y que B = {w1 , w2 , . . . , wp } es una base ortogonal de W .
Entonces, v V existe proyW (v) y es
proyW (v) = 1 w1 + 2 w2 + + p wp
donde
i =

hv, wi i
,
kwi k2

i = 1, 2, . . . , p.

Los escalares i se llaman coeficientes de Fourier de v respecto de B.


Proposici
on 7.17. Sea V un espacio vectorial eucldeo y sea W un subespacio de V . Supongamos que W tiene dimensi
on finita p y que B = {w1 , w2 , . . . , wp } es una base ortogonal de W .
Entonces, para cualquier vector v V ,
d(v, W ) =

kvk2

p
X
hv, wi i2
i=1

7.7.

kwi k2

!1/2
.

Transformaciones ortogonales. Matrices ortogonales

Una aplicaci
on entre dos espacios vectoriales eucldeos que conserva el producto escalar de
ambos se llama transformaci
on ortogonal. En concreto,
Definici
on 7.16. Dados dos espacios vectoriales eucldeos (V, h, i) y (W, (|)) sobre un mismo
cuerpo K, una aplicaci
on f : V W se dice ortogonal si
Es lineal: x, y V, , K,
f ( x + y) = f (x) + f (y)
Conserva el producto escalar : x, y V ,
hx, yi = (f (x)|f (y))
Si f : (V, h, i) (W, (|)) es una aplicacion ortogonal se verifican las siguientes propiedades:



kf (x)k = kxk, para todo x V , donde k k y k k son las normas eucldeas en V y W .
Si C y D son subconjuntos ortogonales de V entonces f (C), f (D) son subconjuntos ortogonales de W .

7.7 Transformaciones ortogonales. Matrices ortogonales

11

Si {u1 , u2 , . . . , up } es un sistema ortogonal (resp. ortonormal) de vectores de V entonces


{f (u1 ), . . . , f (up )} es un sistema ortogonal (resp. ortonormal) de vectores de W .
La aplicaci
on f es inyectiva.
La aplicaci
on f conserva la distancia: Si d y son metricas subordinadas por las normas
k k y k k de V y W respectivamente, entonces x, y V se verifica que
d(x, y) = (f (x), f (y))
Definici
on 7.17. Se llama transformaci
on ortogonal de un espacio vectorial eucldeo (V, h, i)
a todo endomorfismo f : V V tal que hf (x), f (y)i = hx, yi para todo x, y V .
Una transformaci
on ortogonal es, pues, una aplicacion ortogonal de un espacio vectorial
eucldeo en s mismo.
Como consecuencia de la definici
on de aplicacion ortogonal, se verifican las siguientes
Propiedades
kf (x)k = kxk, para todo x V .
Si CD entonces f (C)f (D).
Si {u1 , . . . , up } es un sistema ortogonal (resp. ortonormal) de vectores de V , tambien lo es
{f (u1 ), . . . , f (up )}.
f es monomorfismo y por tanto, isomorfismo.
La composici
on de transformaciones ortogonales es una transformacion ortogonal.
Estudiemos el caso particular de dim(V ) = n.
Si f : V V es una transformacion ortogonal de (V, h, i) y B = {e1 , e2 , . . . , en } es una
base de V , la igualdad y = f (x) se puede expresar matricialmente, llamando A a la matriz de f
respecto de B, como Y = A X es decir, como

y1
a11 a1n
x1
.. ..
.. ..
..
. = .
.
. .
yn

an1 ann

xn

La matriz A es regular, ya que f es un automorfismo.


Puede comprobarse que A es la matriz de una transformacion ortogonal f respecto de la
base B si, y s
olo si,
G = At G A,
siendo G la matriz del producto escalar de V respecto de dicha base B.
Veamos otras caracterizaciones.
Definici
on 7.18. Sea V un espacio vectorial eucldeo y f : V V .
f es una transformaci
on ortogonal si, y solo si, su matriz asociada Af en una base
ortonormal es tal que I = Atf Af (es decir, si su inversa coincide con su traspuesta,
Atf = A1
f ).

12

El espacio eucldeo

Una matriz A Mn (R) es ortogonal si, y solo si, At = A1 .


Por tanto, si una matriz cuadrada de tama
no n es ortogonal se puede interpretar como la
matriz asociada a una transformaci
on ortogonal en un espacio vectorial eucldeo de dimensi
on
n respecto de una base ortonormal.
Si A es ortogonal verifica que A1 = At , de modo que At A = I y tomando determinantes,
|At A| = |A|2 = 1 |A| = 1
Este hecho permite definir, si (V, h, i) es un espacio vectorial eucldeo y f : V V una
transformaci
on ortogonal cuya matriz ortogonal asociada es Af ,
f es una transformaci
on ortogonal directa o rotacion directa si
|Af | = 1.
f es una transformaci
on ortogonal inversa si
|Af | = 1.
Ejemplos 7.3.
1. Dado R, las matrices




cos()
sen()
cos() sen()
yB=
A=
sen() cos()
sen()
cos()
son ortogonales, pues verifican At A = I, B t B = I, como se comprueba sin dificultad.
Adem
as, como |A| = 1, |B| = 1, resulta que A es matriz ortogonal directa y B es matriz
ortogonal inversa.
De hecho, puede comprobarse que cualquier matriz ortogonal de M2 (R) es de uno de los
dos tipos anteriores, para un valor de adecuado.
2. Sea R2 con el producto escalar eucldeo usual y consideremos la aplicacion T : R2 R2
dada por T (x, y) = (x, y). Entonces T es una transformacion ortogonal.
Soluci
on:
que

En efecto, T es lineal. Ademas conserva la longitud, pues verifica, (x, y) R2 ,


kT (x, y)k = k(x, y)k =

p
p
x2 + (y)2 = x2 + y 2 = k(x, y)k.

Tambien conserva el producto escalar, pues si v1 = (x1 , y1 ), v2 = (x2 , y2 ), se tiene


hT (v1 ), T (v2 )i = h(x1 , y1 ), (x2 , y2 )i = x1 x2 + (y1 )(y2 ) = hv1 , v2 i.
Si consideramos

 la base ortonormal B = {(1, 0), (0, 1)}, la matriz de T en dicha base es
1
0
A=
y verifica la igualdad
0 1

 
 

1
0
1
0
1 0
t
A A=

=
= I.
0 1
0 1
0 1
La aplicaci
on T es una transformacion ortogonal inversa, pues |A| = 1. Ademas, como
vimos en el ejemplo anterior, es

 

1
0
cos()
sen()
A=
=
con = 0.
0 1
sen() cos()

7.8 Diagonalizaci
on de matrices cuadradas sim
etricas

7.8.

13

Diagonalizaci
on de matrices cuadradas sim
etricas

Definici
on 7.19. Dadas A, B Mn (R), matrices cuadradas de orden n, se dice que A y B son

semejantes, si existe una matriz invertible P tal que P 1 A P = B.


congruentes, si existe una matriz regular P tal que P t A P = B.
ortogonalmente semejantes, si existe una matriz ortogonal P tal que P 1 A P =
P t A P = B.
Llamemos End(V ) al conjunto de los endomorfismos de V , donde (V, h, i) es un espacio
vectorial eucldeo.
Definici
on 7.20. Si f End(V ), se dice que f es un endomorfismo sim
etrico si verifica la
relacion
hx1 , f (x2 )i = hf (x1 ), x2 i, x1 , x2 V.
Proposici
on 7.18. Sea (V, h, i) un espacio vectorial eucldeo de dimensi
on finita y f End(V ).
Sea B una base ortonormal de V y sea A la matriz de f en dicha base. Entonces f es simetrico
s, y s
olo si, A es una matriz simetrica.
Sea (V, h, i) un espacio vectorial eucldeo de dimension finita y f End(V ).
Definici
on 7.21. Se dice que f es ortogonalmente diagonalizable si existe una base ortonormal de V en la que la matriz de f es diagonal (es decir, si existe una base ortonormal de V
formada por vectores propios).
Como siempre, hay una definici
on analoga para matrices.
Definici
on 7.22. Sea A Mn (R). Se dice que A es ortogonalmente diagonalizable si existe
una matriz P ortogonal tal que
P 1 A P = P t A P = D,
siendo D una matriz diagonal.
As pues, diagonalizar ortogonalmente un endomorfismo es equivalente a diagonalizar ortogonalmente su matriz en una base ortonormal.
Todo endomorfismo simetrico (respectivamente, toda matriz simetrica real) es ortogonalmente diagonalizable, pues
Proposici
on 7.19. Sea A Mn (R). Si A es simetrica entonces sus n valores propios son
reales.
Proposici
on 7.20. Sea A una matriz simetrica y sean 1 , 2 dos valores propios de A. Si X1
es un vector propio del valor propio 1 y X2 es un vector propio del valor propio 2 entonces
(1 2 )X2t X1 = 0.
Corolario 7.3. Sea A Mn (R) una matriz simetrica. Dados dos valores propios distintos 1 y
2 , si X1 es vector propio del valor propio 1 y X2 es vector propio del valor propio 2 entonces
X1 X2 .

14

El espacio eucldeo

Por tanto, si A es simetrica se verifica que V (1 )V (2 ), es decir, los subespacios propios


asociados a distintos valores propios son ortogonales.
Esto da lugar a un resultado especialmente importante.
Proposici
on 7.21. Sea A Mn (R) una matriz simetrica.
Si A es diagonalizable, entonces es ortogonalmente diagonalizable.
Para comprobarlo, y de hecho para hacer la diagonalizacion ortogonal en la practica, basta
tomar cada subespacio V (i ) y ortonormalizar la base formada por los vectores propios. Esto
siempre puede hacerse, pue se verifican los siguientes teoremas.
Teorema 7.22 (teorema Espectral). Sea (V, h, i) un espacio vectorial eucldeo de dimensi
on
finita n y sea f un endomorfismo simetrico.
Entonces f es ortogonalmente diagonalizable (es decir, existe una base ortonormal de V
formada por vectores propios de f ).
Teorema 7.23 (teorema Espectral para matrices). Sea A Mn (R) una matriz simetrica.
Entonces A es ortogonalmente diagonalizable (es decir, existe una matriz P ortogonal tal que
P 1 A P = P t A P = D,
siendo D una matriz diagonal).
Ejercicio 7.1. Consideremos el espacio vectorial eucldeo usual R3 . Vamos a diagonalizar ortogonalmente el endomorfismo simetrico f : R3 R3 definido por
f (x, y, z) = (7x y 2z, x + 7y + 2z, 2x + 2y + 10z).
Soluci
on:
usual) es

La matriz de f en la base canonica de R3 (base ortonormal para el producto escalar

7 1 2
7
2
A = 1
2
2 10
Su polinomio caracterstico es |A I| = (6 )2 (12 ), por lo que los valores propios
de A (y de f ) son 1 = 6 (doble) y 2 = 12 (simple).
Una base de V (6) es B1 = {(1, 1, 0), (2, 0, 1)}, que podemos ortonormalizar, usando el proceso
de Gram-Schmidt, obteniendo la base ortonormal
(
!

!)
2
2
3
3 3
B1 =
,
,0 ,
,
,
.
2 2
3
3 3
Procediendo de manera similar obtenemos una base ortonormal de V (12) = h(1, 1, 2)i, que
es
(
!)
6 6 6

B2 =

,
,
.
6 6 3
Entonces, en la base ortonormal
(
!
2 2
B=
,
,0 ,
2 2

!
!)
3
3 3
6 6 6
,
,
,
,
,
3
3 3
6 6 3

7.9 Formas Bilineales y Cuadr


aticas

15

la matriz de f es la matriz diagonal

6 0 0
D= 0 6 0
0 0 12
Se verifica que P 1 A P = P t A P = D, siendo P la matriz ortogonal


2
3
6

3
6
2

6
P = 22 33

3
6
0
3
3

7.9.

Formas Bilineales y Cuadr


aticas

Sean (U, +, ), (V, +, ), (W, +, ) espacios vectoriales sobre R.


Definici
on 7.23.
Se dice que la aplicaci
on
f : U V
(x, y)

W
f (x, y)

es bilineal si para cualesquiera x, x0 U , y, y 0 V , , 0 R, se verifica


f ( x + 0 x0 , y) = f (x, y) + 0 f (x0 , y)
f (x, y + 0 y 0 ) = f (x, y) + 0 f (x, y 0 )
Se dice que la aplicaci
on
f : V V
(x, y)

R
f (x, y)

que a cada par de vectores de (x, y) V V le asigna un escalar es una forma bilineal sobre V si se verifican las igualdades siguientes, donde x, x0 , y, y 0 V son vectores
cualesquiera, y , 0 R.
f ( x + 0 x0 , y) = f (x, y) + 0 f (x0 , y)
f (x, y + 0 y 0 ) = f (x, y) + 0 f (x, y 0 )
Ejemplo 7.4. La aplicaci
on f : R2 R2 R dada por
f (x, y) = 3x1 y1 6x1 y2 + 5x2 y1 + 4x2 y2
donde x = (x1 , x2 ), y = (y1 , y2 ) son dos elementos de R2 , es una forma bilineal sobre R, como
se comprueba sin dificultad.
Si (V, +, ) es un espacio vectorial tal que dim(V ) = n y B = {e1 , e2 , . . . , en } es una base de
V , toda forma bilineal f : V V R se puede escribir como
f (x, y) =

n
X
i,j=1

aij xi yj

16

El espacio eucldeo

siendo aij = f (ei , ej ), (x1 , . . . , xn ) las coordenadas de x en B, (y1 , . . . , yn ) las coordenadas de y


en B. Eso nos lleva a la expresi
on matricial de f .
En efecto, la expresi
on anterior de f puede expresarse matricialmente por la igualdad

y1
a11 a12 a1n
a21 a22 a2n y2

f (x, y) = (x1 , x2 , . . . , xn ) .
..
.. ..
.
.
.
.
.
.
. .
an1 an2 ann

yn

o, abreviadamente,
f (x, y) = X t A Y
donde X e Y son, respectivamente, las matrices columna de las coordenadas de x e y en la base
B.
Observaci
on 7.2. En la igualdad f (x, y) = X t A Y cometemos un abuso de notacion al
igualar un escalar f (x, y) y una matriz de orden 1 1, X t A Y ; lo hacemos puesto que no hay
confusion en la escritura y adem
as porque R y M11 (R) son cuerpos isomorfos.
Ejemplo 7.5. La forma bilineal del ejemplo anterior,
f (x, y) = 3x1 y1 6x1 y2 + 5x2 y1 + 4x2 y2 ,
se puede expresar, considerando en R2 la base canonica {(1, 0), (0, 1)}, como
  

y
3 6
1
f (x, y) = (x1 , x2 )
5
4
y2
Observese que los elementos de la matriz son
a11 = f ((1, 0), (1, 0)) = 3,

7.9.1.

a12 = f ((1, 0), (0, 1)) = 6,

...

Expresi
on matricial de un cambio de base

Sea (V, +, ) un espacio vectorial de dimension finita n y f una forma bilineal sobre V ,
f : V V R. Sea B = {e1 , e2 , . . . , en } una base de V y llamemos A a la matriz de f en
dicha base B. Dicha matriz permite expresar f como f (x, y) = X t A Y , donde X, Y son las
matrices columna de las coordenadas de los vectores x, y en B.
Si consideramos otra base B 0 = {e01 , e02 , . . . , e0n } de V , la matriz de f en dicha base sera otra
matriz A0 distinta de A. Para dicha matriz debera verificarse
f (x, y) = (X 0 )t A0 Y 0

(7.1)

Veamos que relaci


on existe entre ambas matrices.
Para ello, consideremos la matriz P del cambio de la base B 0 a la base B. Si X es la
matriz columna de las coordenadas de un vector en la base B y X 0 es la matriz columna de las
coordenadas de ese mismo vector en la base B 0 se tiene X = P X 0 . Analogamente, Y = P Y 0
siendo Y , Y 0 las matrices columna de las coordenadas de un mismo vector en las bases B y B 0
respectivamente.
Entonces
f (x, y) = X t A Y = (P X 0 )t A (P Y 0 ) = (X 0 )t P t A P Y 0

(7.2)

7.9 Formas Bilineales y Cuadr


aticas

17

Si comparamos esa u
ltima expresi
on con la igualdad (7.1) se deduce que
A0 = P t A P
Esta es la expresi
on matricial del cambio de base de una forma bilineal.
Definici
on 7.24. Dos matrices A y A0 cuadradas del mismo orden se dicen matrices congruentes si existe una matriz regular P del mismo orden tal que A0 = P t A P
Las matrices asociadas a una forma bilineal f en distintas bases son congruentes.
Sea (V, +, ) un espacio vectorial real y sea f una forma bilineal definida sobre V . Se llama
forma cuadr
atica sobre V asociada a f a la aplicacion
w : V R

dada por w(x) = f (x, x).

En lo sucesivo trabajaremos en el espacio vectorial (Rn , +, ). Por tanto, teniendo en cuenta


la expresion matricial de una forma bilineal, ya conocida, podemos dar una definicion alternativa
de forma cuadr
atica en Rn :
Definici
on 7.25. Dada una matriz M Mn (R), se llama forma cuadr
atica definida en el
espacio vectorial Rn a una aplicaci
on w : Rn R tal que w(x) = X t M X.
Veamos unos ejemplos.
Ejemplos 7.6.
1. Si consideramos la siguiente forma bilineal simetrica f : R2 R2 R definida sobre R2
por
f (x, y) = 8x1 y1 3x1 y2 3x2 y1 + 5x2 y2
 


y1
8 3

= (x1 , x2 )
= Xt A Y
3
5
y2
entonces la forma cuadr
atica asociada es w : R2 R definida por
w(x) = 8x21 6x1 x2 + 5x22

 

8 3
x1
= (x1 , x2 )

= Xt A X
3
5
x2

2. La matriz M =

5 1
2 3


define la forma cuadratica


w(x) = w(x1 , x2 ) = (x1 , x2 )

5 1
2 3

 

x1

= 5x21 + x1 x2 3y22
x2

Sin embargo, la expresi


on matricial de esta forma cuadratica no es la anterior, sino la
siguiente expresi
on del tipo w(x) = X t A X con A matriz simetrica:

 

5 1/2
x1
2
2
w(x) = 5x1 + x1 x2 3y2 = (x1 , x2 )

1/2 3
x2

18

El espacio eucldeo

Observaci
on 7.3.
La matriz de una forma cuadr
atica es siempre simetrica. La expresion matricial en una
base B = {e1 , e2 , . . . , en } es
w(x) =

n
X

aij xi xj

i,j=1

= (x1 , x2 , . . . , xn )

a11
a21
..
.

a12
a22
..
.

an1 an2

. . . a1n
. . . a2n
..
..
.
.
. . . ann

x1
x2
..
.

= Xt A X

xn

con A matriz simetrica, aij = f (ei , ej ), siendo f la forma polar de w.


Si se ha definido la forma cuadratica a partir de una matriz A cualquiera, entonces la
matriz de la forma cuadr
atica es S = 1/2(At + A), que es precisamente la matriz de la
forma polar f de w. A partir de ahora denotaremos por S la matriz de una forma cuadratica
para poner de manifiesto el hecho de que es simetrica.
Si S 0 es la matriz de w respecto de una nueva base B 0 , se verifica que S 0 = P t S P ,
siendo P la matriz (regular) del cambio de base de B 0 a B. Por tanto, S y S 0 son matrices
congruentes.
Todas las matrices asociadas a una misma forma cuadratica w en las distintas bases de V
tienen el mismo rango, que recibe el nombre de rango de la forma cuadr
atica w. Por
tanto, rang(w) = rang(S).
Si desarrollamos la expresi
on analtica de w, se tiene
w(x) =

n
X
i,j=1

aij xi xj =

n
X

aii x2i + 2

i=j=1

aij xi xj

i<j

Por tanto, la expresi


on analtica de una forma cuadratica es un polinomio homogeneo de
segundo grado.
Ejercicio 7.2. Halla la expresi
on analtica de la forma cuadratica w : R3 R sabiendo que
w(e1 ) = 1;
w(e1 + e2 ) = 1;
Soluci
on:

w(e2 ) = 3;
w(e1 + e3 ) = 5;

w(e3 ) = 0;
w(e2 + e3 ) = 2.

Consideramos la forma polar f asociada a w. Es f (x, y) = 12 (w(x+y)w(x)w(y)).

Entonces, f (e1 , e1 ) = 12 (w(e1 + e1 ) w(e1 ) w(e1 )) = w(e1 ) = 1, pues w(2e1 ) = 4 w(e1 ).


Analogamente,
f (e2 , e2 ) = w(e2 ) = 3
f (e3 , e3 ) = w(e3 ) = 0
f (e1 , e2 ) = 21 (w(e1 + e2 ) w(e1 ) w(e2 )) = 3
2
f (e1 , e3 ) = 21 (w(e1 + e3 ) w(e1 ) w(e3 )) = 2
f (e2 , e3 ) = 21 (w(e2 + e3 ) w(e2 ) w(e3 )) = 5
2

7.9 Formas Bilineales y Cuadr


aticas

19

Por tanto, w viene dada por

1
3/2
2
x1
3
5/2 x2
w(x) = w(x1 , x2 , x3 ) = (x1 , x2 , x3 ) 3/2
2
5/2
0
x3
2
2
= x1 + 3x2 3x1 x2 + 4x1 x3 5x2 x3

Se puede demostrar el siguiente teorema:


Teorema 7.24. Dada una forma cuadr
atica w definida en Rn , existe una base B = {e1 , e2 , . . . , en }
n
de R en la que la matriz de w es diagonal.
Por tanto, en dicha base B se verifica la igualdad
w(x) = X t D X

= (x1 , x2 , . . . , xn )

d1 0 0
0 d2 0
..
.. . .
.
. ..
.
.
0 0 dn

x1
x2
..
.

= d1 x21 + d2 x22 + + dn x2n

xn

Las matrices S (inicial de w) y D son congruentes, D = P t S P , siendo P la matriz del


cambio de base.

7.9.2.

Clasificaci
on de las formas cuadr
aticas

Dada una forma cuadr


atica w de Rn expresada en forma diagonal, si r es el rango de w,
el n
umero de sumandos positivos, p, negativos, q = r p y nulos n r de esta, es siempre el
mismo. El par (p, q) recibe el nombre de signatura de la forma cuadratica.
Sea w una forma cuadr
atica definida en Rn . Atendiendo a los valores w(x) para x Rn ,
consideraremos los siguientes casos:
Se dice que w es definida positiva si w(x) > 0 para todo x 6= 0.
Se dice que w es definida negativa si w(x) < 0 para todo x 6= 0.
Se dice que w es semidefinida positiva si w(x) 0 para todo x 6= 0 y existe alg
un
elemento x 6= 0 tal que w(x) = 0.
Se dice que w es semidefinida negativa si w(x) 0 para todo x 6= 0 y existe alg
un
elemento x 6= 0 tal que w(x) = 0.
Se dice que w es indefinida en cualquier otro caso.
Sea w(x) = X t S X una forma cuadratica, con

a11 . . . a1n

.. .
..
S = ...
.
.
an1 . . . ann

20

El espacio eucldeo

Para clasificarla utilizaremos el siguiente metodo, llamado


Consiste en calcular los n
umeros

a11



a
a11 a12
, . . . Ai = 21
A1 = a11 , A2 =
.
a21 a22
..

ai1

...

An1


a11
a12
. . . a1,n1

a21
a22
. . . a2,n1

=
..
..
..
..

.
.
.
.

an1,1 an1,2 . . . an1,n1

de los menores principales.


a12 . . . a1i
a22 . . . a2i
..
.
..
. ..
.
ai2 . . . aii

An = |S|

que denominaremos menores principales. Entonces,


Una condici
on necesaria y suficiente para que w sea definida positiva, es que Ak > 0 para
todo k, con 1 k n.
Una condici
on necesaria y suficiente para que w sea definida negativa es que (1)k Ak > 0
para todo k, con 1 k n.
Por tanto, w es definida negativa si y solo si A1 < 0, A2 > 0, A3 < 0, . . . , es decir, si son
positivos los menores principales de orden par y negativos los de orden impar.
Una condici
on suficiente para que w sea semidefinida positiva es que se verifique Ak > 0
para todo k, con 1 k n 1 y An = 0.
As, si todos los menores principales son positivos salvo el u
ltimo, que es nulo, entonces
w es semidefinida positiva. Sin embargo, la condicion no es necesaria: puede que w sea
semidefinida positiva y no se verifique la anterior condicion.
Una condici
on suficiente para que w sea semidefinida negativa es que (1)k Ak > 0 para
todo k, con 1 k n 1 y An = 0.
Eso significa que si los signos de los menores principales se van alternando, A1 < 0, A2 > 0,
A3 < 0, . . . y An = 0 entonces w es semidefinida negativa, pero no recprocamente.
Si existe un menor principal de orden par que es negativo (A2 < 0, A4 < 0, . . . ) entonces
w es indefinida.
Si tenemos la expresi
on diagonal de la forma cuadratica, la clasificacion de esta es inmediata.
De hecho, se comprueba sin dificultad que
Si w es definida positiva su signatura es (n, 0).
Si w es definida negativa su signatura es (0, n).
Si w es semidefinida positiva su signatura es (r, 0) con r < n.
Si w es semidefinida negativa su signatura es (0, r) con r < n.
Ejemplos 7.7.
1. Tiene soluci
on no nula en R la ecuacion x2 + y 2 + z 2 + 2xy = 0?

7.9 Formas Bilineales y Cuadr


aticas

Soluci
on:

21

Para responder esta pregunta consideramos la forma cuadratica


w1 (x, y, z) = x2 + y 2 + z 2 + 2xy

que tiene por matriz asociada en la base canonica

1 1
M1 = 1 1
0 0

de R3 la matriz

0
0
1

cuyos valores propios son, como se comprueba sin dificultad, 0, 1 y 2.


Por tanto, la signatura de w1 es (2, 0) y w1 no es definida, de modo que existe al menos
un elemento (x, y, z) R3 , (x, y, z) 6= (0, 0, 0) tal que w1 (x, y, z) = 0, esto es, la ecuaci
on
propuesta tiene soluci
on no nula.
2. Tiene soluci
on no nula en R la ecuacion 2x2 + 2y 2 + z 2 + 2xy = 0?
Soluci
on:

Ahora, la matriz de forma cuadratica


w2 (x, y, z) = 2x2 + 2y 2 + z 2 + 2xy

en la base can
onica de R3 es

2 1 0
M2 = 1 2 0
0 0 1

En este caso, es f
acil ver que la signatura de w2 es (3, 0), por lo que w2 es definida positiva
y w2 (x, y, z) > 0 para cualquier elemento no nulo (x, y, z) R3 , de modo que la segunda
ecuaci
on no tiene soluci
on no nula.

7.9.3.

Reducci
on de formas cuadr
aticas

Un primer metodo de reducci


on de una forma cuadratica se basa en la diagonalizacion de
matrices reales simetricas, que ya conocemos. Con la expresion diagonal de f basta analizar su
signatura y clasificarla como ya hemos indicado antes.
Como alternativa, veremos el metodo de la derivada o m
etodo de Lagrange y el m
etodo
de Jacobi.
M
etodo de la derivada o de Lagrange
Sea
w(x) =

n X
n
X

aij xi xj

i=1 j=1

una forma cuadr


atica sobre Rn , con a11 6= 0. Entonces, hallamos la expresion
 
2
1 w
2 x1
para igualar
 
2
1 1 w
= A(x1 , x2 , . . . , xn )
a11 2 x1

22

El espacio eucldeo

De esa manera podemos escribir w(x) = A(x1 , x2 , . . . , xn ) + G(x2 , . . . , xn ).


Se puede repetir el proceso para la forma cuadratica G, que ahora tiene una variable menos.
Ejemplo 7.8. Consideremos la forma cuadratica

1 1 0
x1
w(x1 , x2 , x3 ) = x21 + 2x1 x2 + 6x22 + 4x2 x3 + x23 = (x1 , x2 , x3 ) 1 6 2 x2
0 2 1
x3
Como a11 = 1 6= 0 hacemos:
w
= 2x1 + 2x2
x1

luego

 
2
1 1 w
= (x1 + x2 )2
a11 2 x1

Entonces, w(x) = (x1 + x2 )2 + 5x22 + 4x2 x3 + x23 .


La forma cuadr
atica G(x2 , x3 ) = 5x22 + 4x2 x3 + x23 verifica que b11 = 5 6= 0, luego puede
reducirse por el mismo procedimiento. As,
G
= 10x2 + 4x3
x2
de modo que
 

4
1 1 G 2 1
= (5x2 + 2x3 )2 = 5x22 + 4x2 x3 + x23
b11 2 x2
5
5
1
1
Por tanto, w(x) = (x1 + x2 )2 + (5x2 + 2x3 )2 + x23 .
5
5

y1 = x 1 + x 2
y2 = 5x2 + 2x3
Ahora, haciendo el cambio

y3 = x 3
1
1
w(y1 , y2 , y3 ) = y12 + y22 + y32 .
5
5

1 1

0 5
Ademas, tomando la matriz P =
0 0


1 0 0
1 0
0
1 5 0 0 1/5 0
0 2 1
0 0 1/5

resulta

0
2 resulta
1

1 1
0 5
0 0

que P t D P = A, es decir

0
1 1 0
2 = 1 6 2
1
0 2 1

M
etodo de Jacobi
Este metodo se utiliza cuando la matriz S de la forma cuadratica w tiene todos sus menores
principales no nulos. Entonces llamamos A0 = 1 y se puede probar que existe una factorizaci
on
de la matriz S tal que S = T t D T , donde

A0
A1
0 ...
0
p1n
A1
A0 p12 . . .

A1
2
...
0
. . . p2n
0 A
0 A
A
2
1
D=
T =
.. . .
..
.. . .
..
..
,
..

.
.
.
.
.
.
.
.
0

...

An1
An

...

An
An1

7.9 Formas Bilineales y Cuadr


aticas

23

Si realizamos el correspondiente cambio de base, se tiene


t
w(x) = XCt S XC = XCt T t D T XC = XB
D XB
An1 2
A0 2 A1 2
x +
x + +
x
=
A1 1 A2 2
An n

Ejemplo 7.9. Consideremos la forma cuadratica del ejemplo anterior,


w(x1 , x2 , x3 ) = x21 + 2x1 x2 + 6x22 + 4x2 x3 + x23


1 1 0
x1
= (x1 , x2 , x3 ) 1 6 2 x2
0 2 1
x3
Ahora se tiene que
A0 = 1,

A1 = 1,


1 1
A2 =
1 6


1 1 0

A3 = 1 6 2
0 2 1



= 5,




= 1.

Por tanto, se tendr


a que en una cierta base B la forma cuadratica se expresa por
w(x01 , x02 , x03 ) =

A0 02 A1 02 A2 02
1 02
02
x +
x +
x = x02
1 + x2 + 5x3
A1 1
A2 2
A3 3
5

El paso a esa cierta base se hace con la matriz


A1
a
b
1 a b
A0

2
c = 0 5 c
T = 0 A
A1
3
0 0 1/5
0
0 A
A2

tal que

S = Tt D T

Por tanto

1 1 0
1 0 0
1 0 0
1 a b
1 6 2 = a 5 0 0 5 0 0 5 c
0 2 1
b c 1/5
0 0 5
0 0 1/5
Efectuando el producto

1
1
0

se obtiene

1 0
1
a
b

6 2 = a a2 + 5
ab + c
2
2
2 1
b ab + c b + c /5 + 1/5

de donde resulta un sistema que, una vez resuelto, da la solucion

a=1
b=0

c=2
y por tanto

1 1 0
T = 0 5 2
0 0 1/5

1 0 0
D = 0 1/5 0
0 0 5

24

7.10.

El espacio eucldeo

Ejercicios

1. Estudiar si la siguiente aplicaci


on puede ser un producto escalar en R3 :
f : R3 R3 R
f (x, y) = x1 y1 + 21 x1 y2 + 12 x2 y1 + 21 x1 y3 + 12 x3 y1 + 21 x2 y3 + 12 x3 y2
x = (x1 , x2 , x3 ) y = (y1 , y2 , y3 ) R3
2. En espacio vectorial eucldeo R3 con el producto escalar usual, se considera la base siguiente:
B = {e1 e2 , e2 e3 , 3e1 + e2 e3 }
donde {e1 , e2 , e3 } es la base canonica. Se pide obtener una base ortonormal a partir de la
base B.
3. Consideremos en R4 el producto escalar usual. Se pide:
a) Determinar un vector unitario ortogonal a (1, 2, 1, 0), (0, 1, 1, 0), (1, 1, 2, 1).
b) Obtener, usando el metodo de Gram-Schmidt, una base de vectores ortonormales
para el subespacio V = h(1, 2, 1, 0), (0, 1, 1, 0), (1, 0, 2, 1)i.
4. En R3 se considera el producto escalar dado por
hx, yi = x1 y1 + 2x2 y2 + 4x3 y3

x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ) R3

Utilizando el proceso de ortonormalizacion de Gram-Schmidt, ortonormalizar la base


{(1, 0, 1), (0, 1, 1), (0, 1, 2)}.
5. En R4 con el producto escalar usual, obtener el subespacio ortogonal a V , siendo este:
V = {(x, y, z, t) R4 : x + y z + t = 0, 2x + y z + 3t = 0}
6. En R3 se considera el producto escalar cuya representacion respecto de la base canonica
es:
hx, yi = x1 y1 + 4x2 y2 + 9x3 y3
Hallar el subespacio ortogonal a V = {(x1 , x2 , x3 ) R3 : x1 + x2 x3 = 0}.
7. Considerese R3 con el producto escalar usual. Hallese la proyeccion ortogonal del vector
(1, 2, 1) sobre el subespacio H engendrado por los vectores (0, 1, 2) y (1, 2, 3).
8. Sea R1 [x] = {a + bx : a, b R} el espacio vectorial de los polinomios de grado menor o
igual que 1. En el se define el siguiente producto escalar:
Z 1
hp(x), q(x)i =
p(x)q(x) dx
0

Hallar:

7.10 Ejercicios

25

a) La matriz del producto escalar en la base {1, x}.


b) El
angulo formado por los polinomios x + 3 y 2x + 4.
c) La proyecci
on ortogonal de x + 3 sobre x + 2.
d ) Una base ortonormal a partir de la base {1, x}.

9. Sea V un espacio vectorial eucldeo de dimension n. Si W y U son subespacios de V ,


demostrar:
a) (U + W ) = U W .
b) (U ) = U .
c) Si U W entonces W U .
d ) (U W ) = U + W .

10. Sea V un espacio vectorial eucldeo de dimension finita. Sea U un subespacio de V . Supongamos que existe la aplicaci
on proyeccion ortogonal sobre U , p : V V . Demostrar que
p es lineal.
11. En R3 con el producto escalar usual, hallar el subespacio ortogonal del plano generado por
los vectores (1, 1, 2) y (1, 2, 3).
Encontrar la matriz de la proyeccion ortogonal en la base canonica.
12. Sea S el espacio vectorial de las matrices simetricas de orden 2 con coeficientes en R:



a b
: a, b, c R
S=
b c
Se considera en S la aplicaci
on
h, i : S S R
hA, Bi = tr(AB),

A, B S

a) Es h, i un producto escalar?
b) En caso de serlo, hallar el subespacio ortogonal del subespacio V , generado por la
matriz


1 1
A=
1
0
13. Sea V un espacio vectorial de dimension 3 y h, i un producto escalar en V . Sea B =
{e1 , e2 , e3 } una base de V en la cual la matriz de Gram del producto escalar es:

1 1 1
G= 1 2 2
1 2 3
a) Hallar el subespacio ortogonal a H = {x1 e1 + x2 e2 + x3 e3 : 2x1 x2 3x3 = 0}.

26

El espacio eucldeo

b) Hallar la matriz de Gram en la base {u1 , u2 , u3 }, siendo


u1 = e2 + e3 ,

u2 = e1 + e3 ,

u3 = e1 + e2 .

c) Obtener una base ortonormal de V .


14. Sea (V, h, i) un espacio vectorial eucldeo de dimension 3 y B = {e1 , e2 , e3 } una base de V
tal que:
he1 , e1 i = 1,
he2 , e2 i = 1,
he1 , e2 i = 0,
he3 , e3 i = 2.
Supongamos que sabemos ademas que el vector 2e2 e3 es ortogonal a e1 y a e3 .
a) Calcular la matriz de Gram en la base B.
b) Encontrar una base ortonormal de V .
c) Hallar una base del subespacio ortogonal a S, siendo S el subespacio generado por el
vector e1 + e2 .
15. Sea (V, h, i) un espacio vectorial eucldeo de dimension n. Sea w V un vector tal que
1
kwk2 = .
2
Llamemos L al subespacio generado por w.
Se considera la aplicaci
on
f : V V
f (u) = u 2hu, wiw,

u V

a) Demostrar que f es lineal.


b) Probar que Im(f ) = L y Ker(f ) = L.
c) Sea B = {w, u2 , u3 , . . . , un } una base ortogonal de V . Hallar la matriz de f respecto
de la base B y calcular su rango.
16. Sea V un espacio vectorial de dimension finita n y f un endomorfismo de V tal que verifica
hf (x), yi = hx, f (y)i

x, y V

Demostrar que:
a) Ker(f ) e Im(f ) son subespacios ortogonales de V .
b) V = Ker(f ) Im(f ).
c) Si A = (aij )nn es la matriz de f en una base ortonormal, entonces aij = aji, i, j.
C
omo se llama una matriz de este tipo?
17. Sea (R2 [x], h, i) el espacio vectorial eucldeo de los polinomios de grado menor o igual que
2, con coeficientes reales y h, i el producto escalar definido por
ha + bx + cx2 , a0 + b0 x + c0 x2 i = aa0 + bb0 + cc0

a + bx + cx2 , a0 + b0 x + c0 x2 R2 [x]

Sea B = {1, x, x2 } una base de R2 [x]. Sea f : R2 [x]R2 [x] el endomorfismo definido por
f (a + bx + cx2 ) = c + bx + ax2 y A = (f )B y sea M = {X : X = An , con n N}.

7.10 Ejercicios

27

a) Estudiar que estructura presenta M con el producto usual de matrices.


b) Clasificar razonadamente f .
c) Es f diagonalizable? En caso afirmativo, hallar una base B 0 en la que se consiga
dicha diagonalizaci
on.
d ) Hallar la matriz del cambio de base de B a B 0 .
e) Hallar el polinomio mnimo de A y a partir de el obtener (A1 )2 , si existe.
f ) Hallar la distancia del vector 1 + x + x2 al subespacio H = hf (1 + x), f (x)i.
g) Hallar el subespacio ortogonal de H.
18. Razonar si algunas de las siguientes aplicaciones f : R2 R2 R definen un producto
escalar en R2
(x1 , x2 ), (y1 , y2 ) R2

a) f ((x1 , x2 ), (y1 , y2 )) = x1 y1 x2 y2

b) f ((x1 , x2 ), (y1 , y2 )) = 2x1 y2 + 3x2 y1 + x1 y1 + x2 y2 (x1 , x2 ), (y1 , y2 ) R2


c)

f ((x1 , x2 ), (y1 , y2 )) = x1 y1 + x2 y2 + x1 y2 + x2 y1

d) f ((x1 , x2 ), (y1 , y2 )) = x1 y1 + 2x2 y2 + x1 y2 + x2 y1

(x1 , x2 ), (y1 , y2 ) R2
(x1 , x2 ), (y1 , y2 ) R2

19. Consideremos el espacio vectorial R2 dotado de un producto escalar h, i. Fijemos un vector


t R2 , t 6= 0 y denotemos por W al subespacio generado por el vector t. Sea f la siguiente
aplicaci
on:
f : R2 R2
hv, ti
f (v) =
t
v R2
ktk2
a) Comprobar que f es lineal.
b) Demostrar que Ker(f ) = W y que Im(f ) = W .
c) Demostrar que v R2 se verifica (v f (v))W .
d ) Concluir de (c) que v R2 , f (v) es la proyeccion ortogonal del vector v sobre el
subespacio W .
e) Sea t0 R2 un vector tal que ktk = kt0 k y (t, t0 ) = /3, donde (t, t0 ) es el angulo
determinado por t y t0 . Sabiendo que B = {t, t0 } es una base de R2 , hallar la matriz
de f en esta base.
20. Sea (V, h, i) un espacio vectorial eucldeo de dimension 3 y sea B = {e1 , e2 , e3 } una base
de V tal que
ke1 k2 = 1,

ke3 k2 = 2ke2 k2 = 4

ke2 + e3 k2 = 5

Sabiendo adem
as que el vector e1 es ortogonal a los vectores e2 y e1 + e3 , se pide:
a) Hallar la matriz del producto escalar respecto de la base B y dar la expresion matricial
del producto escalar en dicha base.
b) Hallar una base ortonormal de V .
c) Sea W el subespacio generado por los vectores e2 + e3 y e1 + e3 . Hallar W . Son
suplementarios los subespacios W y W ?

28

El espacio eucldeo

21. Sea V un espacio vectorial de dimension 3 y sea B = {e1 , e2 , e3 } una base de V . Definimos
en V el siguiente producto escalar, donde v = x1 e1 +x2 e2 +x3 e3 , w = y1 e1 +y2 e2 +y3 e3 R3 :
hv, wi = 2x1 y1 + x2 y2 + 12x3 y3 x1 y2 x2 y1 + 3x1 y3 + 3x3 y1
a) Hallar la matriz de Gram en la base B y dar la expresion matricial correspondiente.
b) Sea W el subespacio de V siguiente:
W = {( + )e1 + (2 4)e2 + 2e3 : , R}.
1) Hallar una base ortogonal de W .
2) Hallar el subespacio W . Son suplementarios W y W ? Son ortogonales?
c) Haciendo uso de b), dar una base ortogonal de V . Hallar la matriz de Gram en esta
base. Que relaci
on hay entre esta matriz y la obtenida en el apartado a)?
22. Diagonalizar ortogonalmente el endomorfismo simetrico de R3 definido por
f (x, y, z) = (3x + y + z, x + 3y + z, x + y + 3z)
considerando en R3 el producto escalar usual.
23. En el espacio vectorial eucldeo canonico R3 y respecto de una base ortonormal B =
{e1 , e2 , e3 } se considera un endomorfismo f del que se sabe
f (e1 ) = 3e1 + 2e2 + 2e3 .
f (e2 ) = 2e1 + 2e2 .
La matriz A de f en la base B es simetrica.
v = 2e1 2e2 e3 es un vector propio de f .
a) Hallar A, as como los autovalores y autovectores de f .
b) Diagonalizar ortogonalmente f , determinando una base en la que se obtenga dicha
diagonalizaci
on.
24. Consideremos el espacio vectorial eucldeo canonico R3 y
R3 R3 el endomorfismo definido por

3x0 = x
0 0 0
3y 0 = 2x
f (x, y, z) = (x , y , z ) siendo

3z 0 = 2x

la base canonica, y sea f :


+ 2y + 2z
y + 2z
+ 2y z

a) Razonar si f es ortogonalmente diagonalizable.


b) Razonar si f es una transformacion ortogonal.
c) Hallar los valores propios y los subespacios propios de f .
d ) Hallar la forma diagonal de f y una base ortonormal correspondiente.
25. Consideremos el espacio vectorial eucldeo canonico R3 y un endomorfismo f : R3 R3
del que se sabe

7.10 Ejercicios

29

La matriz de f en la base canonica es simetrica.


El subespacio h(2, 2, 1)i es un subespacio propio de f .
Los vectores (1, 0, 0) y (0, 1, 0) se transforman, respectivamente, en los vectores (3, 2, 2)
y (2, 2, 0).
a) Razonar si f es ortogonalmente diagonalizable y si es una transformacion ortogonal.
b) Hallar los autovalores y los subespacios propios.
c) Hallar la forma diagonal de f y obtener, si es posible, una base ortonormal de R3 en
la que f tome dicha forma.

26. De la siguiente matriz A se sabe que 1 = 1 es uno de sus autovalores y que (1, 1, 1) es un
vector propio de A asociado al autovalor 1 .

1 2
A= 2 1
2 2
a) Hallar , y .
b) Hallar los autovalores y subespacios propios de A.
c) Comprobar que A es diagonalizable y hallar su matriz diagonal D.
d ) Analizar si A es ortogonalmente diagonalizable y, en caso afirmativo, hallar una matriz
ortogonal P tal que P 1 A P = D.

Potrebbero piacerti anche