Sei sulla pagina 1di 24

Parte 8.

Prodotto scalare, teorema spettrale


A. Savo − Appunti del Corso di Geometria 2013-14

Indice delle sezioni


1 Prodotto scalare in Rn , 1
2 Basi ortonormali, 4
3 Algoritmo di Gram-Schmidt, 7
4 Matrici ortogonali, 12
5 Complemento ortogonale di un sottospazio, 13
6 Endomorfismi simmetrici, 17
7 Teorema spettrale, 20

1 Prodotto scalare in Rn
1.1 Definizione
   
x1 y1
 ..   .. 
Dati i vettori u =  .  e v =  .  di Rn , definiamo prodotto scalare di u e v il numero
xn yn
reale:
hu, vi = x1 y1 + · · · + xn yn .
Il risultato del prodotto scalare è dunque un numero.
   
1 2
Esempio Se u = 2 e v = −1 allora hu, vi = 3.
3 1
Notiamo che il prodotto scalare di due vettori può risultare nullo anche se nessuno dei due
fattori è il vettore nullo.
   
1 −1
Esempio Se u = 2 e v = −1 allora hu, vi = 0.
  
3 1

1
• I vettori u e v si dicono ortogonali se il loro prodotto scalare è nullo: hu, vi = 0.
Notazione:
u ⊥ v.

Dunque i vettori dell’esempio precedente sono ortogonali. È evidente che, se O è il vettore


nullo, si ha hv, Oi = 0 per ogni v ∈ Rn : dunque il vettore nullo è ortogonale a tutti i
vettori.
La denominazione di vettori ortogonali legata alla condizione hu, vi = 0 (che è puramente
algebrica) sarà giustificata quando studieremo la geometria analitica, e introdurremo i
vettori geometrici del piano e dello spazio. Infatti, l’introduzione del prodotto scalare per-
mette di definire, in modo puramente algebrico, la norma di un vettore (che va intepretata
come la distanza del vettore stesso dal vettore nullo) e l’angolo fra due vettori non nulli.
Per il momento, ci proponiamo di studiare le proprietà algebriche dell’operazione di
prodotto scalare.

Proposizione Siano u, v, w vettori arbitrari di Rn e sia k ∈ R un qualunque scalare.


Allora si hanno le seguenti proprietà.
1) hu, vi = hv, ui.
2) hu + v, wi = hu, wi + hv, wi.
3) hku, vi = khu, vi.
4) hu, ui ≥ 0.
5) hu, ui = 0 se e solo se u = O.
La 1) dice che il prodotto scalare è commutativo. Le proprietà 2), 3) esprimono la
cosiddetta proprietà di bilinearità. Le proprietà 4) e 5) esprimono il fatto che il prodotto
scalare è definito positivo.

Dimostrazione.
 La  dimostrazione di 1),2),3) si riduce a una semplice verifica. Osserviamo
x1
 .. 
che, se u =  .  allora
xn
hu, ui = x21 + · · · + x2n ,
che è un numero sempre positivo o nullo: questo dimostra la 4). Se hu, ui = 0 evidente-
mente x1 = · · · = xn = 0, e quindi u = O. 
Dalle proprietà di bilinearità osserviamo che il prodotto scalare si comporta in modo
naturale rispetto alle combinazioni lineari. Per ogni scelta dei vettori v1 , . . . , vk , u, w ∈ Rn
e degli scalari a1 , . . . , ak ∈ R si ha:

ha1 v1 + · · · + ak vk , wi = a1 hv1 , wi + · · · + ak hvk , wi.

2
Di conseguenza, poiché il prodotto scalare è commutativo, si ha anche

hu, a1 v1 + · · · + ak vk i = a1 hu, v1 i + · · · + ak hu, vk i

1.2 Norma e disuguaglianza di Schwarz


Per definizione, la norma di un vettore u ∈ Rn è il numero positivo o nullo
p
kuk = hu, ui.
p
Esplicitamente kuk = x21 + · · · + x2n ovvero

kuk2 = x21 + · · · + x2n .

In particolare, kuk ≥ 0 e si ha l’uguaglianza solo quando u = O: la norma di un vettore


non nullo è sempre positiva.
 
1 √ √
Esempio Se u =  3  allora kuk = 1 + 9 + 4 = 14.
−2

Teorema (Disuguaglianza di Schwarz). Dati u, v ∈ Rn si ha sempre:

|hu, vi| ≤ kukkvk.

Inoltre, vale l’uguaglianza se e solo se u e v sono linearmente dipendenti.

Dimostrazione. Omessa. 

Esempio Dati n numeri reali a1 , . . . , an si ha sempre:

(a1 + · · · + an )2 ≤ n(a21 + · · · + a2n ).


   
a1 1
 ..   .. 
Infatti, basta applicare la disuguaglianza di Schwarz ai vettori u =  .  e v =  . .
an 1
Notiamo che si ha l’uguaglianza solo quando a1 , . . . , an sono tutti uguali tra loro.

3
1.3 Angolo tra due vettori
Supponiamo che u e v siano due vettori non nulli. Per la disuguaglianza di Schwarz, si ha

|hu, vi|
≤ 1,
kukkvk

dunque esiste un unico valore di θ ∈ [0, π] tale che

hu, vi
cos θ = .
kukkvk

Per definizione, θ è detto l’angolo tra u e v.


   
1 1
2 0
Esempio Dati u =  1 , v = 2 si ha:
  

0 1
√ √
kuk = 6, kvk = 6, hu, vi = 3.
1
Dunque cos θ = 2 cioè θ = π3 .

2 Basi ortonormali
2.1 Ortogonalità e indipendenza lineare

Proposizione Siano v1 , . . . , vk vettori non nulli di Rn , a due a due ortogonali. Allora


v1 , . . . , vk sono linearmente indipendenti. In particolare, k ≤ n.

Dimostrazione. Supponiamo che

a1 v1 + · · · + ak vk = O. (1)

Prendendo il prodotto scalare dei due membri della (1) per v1 otteniamo

0 = ha1 v1 + a2 v2 + · · · + ak vk , v1 i
= a1 hv1 , v1 i + a2 hv2 , v1 i + · · · + ak hvk , v1 i
= a1 kv1 k2

perché per ipotesi hvj , v1 i = 0 per ogni j = 2, . . . , k. Per ipotesi, v1 è non nullo, dunque
kv1 k2 > 0 e ne segue che a1 = 0. Prendendo successivamente il prodotto scalare dei due

4
membri della (1), ordinatamente per v2 , . . . , vk , si dimostra in modo analogo che aj = 0
per ogni j. 
• n vettori non nulli, a due a due ortogonali formano una base di Rn (che sarà chiamata
base ortogonale).
   
1 2
Esempio I vettori v1 = , v2 = formano una base ortogonale di R2 perchè
−2 1
hv1 , v2 i = 0.
     
1 1 1
I vettori w1 = 1 , w2 = −1 , w3 =  1  sono non nulli e a due a due ortogonali:
1 0 −2

hw1 , w2 i = hw1 , w3 i = hw2 , w3 i = 0.

Dunque (w1 , w2 , w3 ) è una base ortogonale di R3 .

Esempio La matrice  
1 1 1 −1
1 1 −1 1 
A=
1 −1 1

1
1 −1 −1 −1
ha rango 4. Infatti i suoi vettori colonna sono a due a due ortogonali, e quindi sono
linearmente indipendenti.
• Il numero massimo di vettori di Rn , non nulli e ortogonali a due a due, è n.
In modo analogo, possiamo definire la nozione di base ortogonale di un qualunque sot-
tospazio E di Rn : se dim E = k allora i vettori v1 , . . . , vk formano una base ortogonale di
E se sono non nulli e hvi , vj i = 0 per ogni i 6= j.

Esempio
  Il sottospazio
  E : x + y + z = 0 di R3 ha dimensione 2. I due vettori v1 =
1 1
−1 , v2 =  1  appartengono a E e sono ortogonali tra loro, dunque formano una
0 −2
base ortogonale di E.

2.2 Basi ortonormali


Diremo che una base (v1 , . . . , vk ) di un sottospazio E di Rn è una base ortonormale di E
se: (
0 se i 6= j,
hvi , vj i =
1 se i = j.

5
Dunque una base ortonormale è formata da vettori a due a due ortogonali, tutti di norma
unitaria. Una base ortonormale è, in particolare, anche ortogonale.

Esempio La base canonica di Rn è una base ortonormale.


Fare i conti con le basi ortonormali è più semplice. Ad esempio, trovare le coordinate di
un vettore rispetto a una base implica, normalmente, la risoluzione di un certo numero di
sistemi lineari. Se la base è ortonormale, è sufficiente calcolare un certo numero di prodotti
scalari.

Proposizione Sia B = (v1 , . . . , vk ) una base ortonormale di un sottospazio E di Rn .


Allora le coordinate del vettore v ∈ E rispetto a B sono date da
 
hv, v1 i
 .. 
 . ,
hv, vk i
e sono dette coefficienti di Fourier di v.

Dimostrazione. Se v ∈ E possiamo scrivere


v = a1 v1 + · · · + ak vk
e per definizione le coordinate di v sono a1 , . . . , ak . Ora, prendendo il prodotto scalare dei
due membri successivamente per v1 , . . . , vk , otteniamo facilmente
aj = hv, vj i
per ogni j = 1, . . . , k. 

Esempio I vettori:
       
1 1 1 −1
1 1  1 1 1 −1 1 1
v1 =   , v2 =   , v3 =   , v4 =   ,
2 1 2 −1 2 1  2 1 
1 −1 −1 −1
sono a due a due ortogonali e hanno tutti norma 1. Dunque tali vettori
  formano una
1
2
base ortonormale B di R4 . Calcoliamo le coordinate del vettore v = 
3 rispetto a B. I

4
coefficienti di Fourier sono
hv, v1 i = 5, hv, v2 i = −2, hv, v3 i = −1, hv, v4 i = 0.

6
Dunque v ha coordinate  
5
−2
 ,
−1
0
rispetto a B. In altre parole v = 5v1 − 2v2 − v3 . 

3 Algoritmo di Gram-Schmidt
Lo scopo di questa sezione è quello di dimostrare che ogni sottospazio di Rn ammette
almeno una base ortonormale.

3.1 Vettore normalizzato

Proposizione 1) Dato un vettore v e uno scalare a ∈ R si ha: kavk = |a|kvk.


2) Se v 6= O il vettore
1
u= v
kvk
ha norma 1.

Dimostrazione. Si ha, dalle proprietà del prodotto scalare:

kavk2 = hav, avi = a2 hv, vi = a2 kvk2 ,

e la 1) segue prendendo la radice quadrata ad ambo i membri. La 2) segue immediatamente


1
dalla 1) prendendo a = . 
kvk
1
Il vettore u = v si dice normalizzato di v. Normalizzare un vettore significa semplice-
kvk
mente dividere il vettore per la propria norma.
 
1 √
Esempio Il vettore v = 2 ha norma 14. Il suo normalizzato è dunque

3
 
1
1 1
u= v = √ 2
kvk 14 3

7
e ha norma 1.

Corollario Se (v1 , . . . , vk ) è una base ortogonale del sottospazio E, allora i vettori nor-
malizzati
1 1
u1 = v1 , . . . , uk = vk
kv1 k kvk k
formano una base ortonormale di E.

Dimostrazione. I vettori u1 , . . . , uk hanno tutti norma 1, ed evidentemente appartengono


a E. Essi sono a due a due ortogonali, poiché
1 1
hui , uj i = hvi , vj i = 0
kvi k kvj k
per ogni i 6= j. 

Esempio Il sottospazio di R3 definito dall’equazione E : x + y + z = 0 ha dimensione 2 e


ha una base ortogonale formata dai vettori
   
1 1
v1 = −1 , v2 =
   1 .
0 −2
Per ottenere una base ortonormale di E è sufficiente normalizzare i vettori v1 , v2 . Si ottiene
la base ortonormale    
1 1
1   1  
u1 = √ −1 , u2 = √ 1 .
2 0 6 −2

3.2 Procedimento di ortonormalizzazione


L’algoritmo di Gram-Schmidt è un procedimento che, applicato ad una base di un sot-
tospazio di Rn , permette di ottenere una base ortogonale del sottospazio stesso; normal-
izzando i vettori di tale base, otterremo una base ortonormale. Descriviamo l’algoritmo
in dettaglio.
Sia E un sottospazio di Rn e sia (v1 , . . . , vk ) una sua base. Dunque dim E = k.
Notiamo che se k = 1 la base è formata dal solo vettore v1 . È sufficiente dunque normal-
izzare v1 per ottenere la base ortonormale cercata.
1) Supponiamo che la dimensione di E sia 2, e sia (v1 , v2 ) una base di E. Introduciamo
nuovi vettori (w1 , w2 ) nel modo seguente:
(
w1 = v 1
w2 = v2 − aw1

8
con a ∈ R da determinare in modo opportuno. Notiamo che i vettori w1 , w2 appartengono
a E; inoltre w2 non è nullo (altrimenti v1 e v2 sarebbero linearmente dipendenti ). Ora
scegliamo il coefficiente a in modo tale che w2 risulti ortogonale a w1 . È facile vedere che
cio’ accade se solo se:
hv2 , w1 i
a= .
hw1 , w1 i
Dunque, con tale scelta, otteniamo la base ortogonale (w1 , w2 ) di E.

2) Supponiamo ora che dim E = 3, con base (v1 , v2 , v3 ) e poniamo:



 w1 = v 1

w2 = v2 − aw1

w3 = v3 − bw1 − cw2

hv2 , w1 i
dove a = è stato già determinato, cosicché hw1 , w2 i = 0. Imponendo le condizioni
hw1 , w1 i

hw3 , w1 i = hw3 , w2 i = 0,

otteniamo:
hv3 , w1 i hv3 , w2 i
b= , c= .
hw1 , w1 i hw2 , w2 i
Con tali scelte di a, b, c otteniamo quindi la base ortogonale (w1 , w2 , w3 ) di E e quindi,
normalizzando, una base ortonormale (notiamo che w3 non è nullo, altrimenti v1 , v2 , v3
sarebbero linearmente dipendenti ).
Procedendo per induzione, possiamo enunciare il seguente teorema.

Teorema (Algoritmo di Gram-Schmidt) Sia (v1 , . . . , vk ) una base del sottospazio E di


Rn . Si introducano i vettori:


 w1 = v1

 w2 = v2 − a21 w1



w3 = v3 − a31 w1 − a32 w2

...





wk = vk − ak1 w1 − ak2 w2 − · · · − ak,k−1 wk−1

dove si è posto:
hvi , wj i
aij = .
hwj , wj i

9
Allora (w1 , . . . , wk ) è una base ortogonale di E, e quindi i vettori normalizzati:
1 1
u1 = w1 , . . . , u k = wk ,
kw1 k kwk k

formano una base ortonormale di E.

Esempio Trovare una base ortonormale del sottospazio E di R3 di equazione:

E : x − y − 2z = 0.

Soluzione. Determiniamo una base di E, e poi applichiamo l’algoritmo di Gram-Schmidt


per ottenere una base ortonormale. Base di E:
   
1 2
v1 = 1 , v2 = 0 .
  
0 1

L’algoritmo consiste di due passi:


(
w1 = v 1
.
w2 = v2 − a21 w1
 
1
Si ha w1 = 1, dunque:
0
hv2 , w1 i 2
a21 = = = 1.
hw1 , w1 i 2
Allora:   

 1
w = 1

1

 

0


     .


 2 1 1
 w
 2

 = 0  − 1  = −1 
1 0 1

Si verifica che in effetti hw1 , w2 i = 0. Una base ortonormale di E è dunque:


   
1 1
1   1  
u1 = √ 1 , u2 = √ −1 .
2 0 3 1

10
• Ovviamente la base ortonormale ottenuta dipende dalla base di partenza. Per eser-
cizio, vedere quale base ortonormale si ottiene scambiando i vettori della base di partenza.

Esempio Trovare una base ortonormale del sottospazio di R4 generato dai vettori:
     
1 2 1
1 0 3
v1 = 0 , v2 = 1 , v3 = −1 .
    

0 0 2

Soluzione. I tre vettori formano una base di E. Applichiamo l’algoritmo di Gram-Schmidt


alla terna v1 , v2 , v3 : 
 w1 = v1

w2 = v2 − a21 w1

w3 = v3 − a31 w2 − a32 w2

 
1
1
0, e quindi a21 = 1. Dunque
Abbiamo w1 =  

0
     
2 1 1
0 1 −1
w2 = 1 − 0 =  1  .
    

0 0 0
Ora:
hv3 , w1 i 4

 a31 = hw , w i = 2 = 2


1 1
hv , w i −3
 a32 = 3 2 =

 = −1
hw2 , w2 i 3
dunque:        
1 1 1 0
3 1 −1 0
−1 − 2 0 +  1  = 0 .
w3 =        

2 0 0 2
Otteniamo la base ortogonale:
     
1 1 0
1 −1 0
0 , w2 =  1  , w3 = 0 ,
w1 =      

0 0 2

11
e, normalizzando, la base ortonormale:
     
1 1 0
1  1
 1 −1 0
u1 = √  , u2 = √  , u3 =  .
2 0
  3  1  0
0 0 1

4 Matrici ortogonali
Abbiamo visto che la matrice M di passaggio fra due basi B, B 0 di uno spazio vettoriale è
invertibile. Se le basi B, B 0 sono ortonormali, la matrice di passaggio avrà delle proprietà
particolari.

Definizione Una matrice quadrata M si dice ortogonale se verifica M M t = I. Quindi


una matrice ortogonale M è invertibile e

M −1 = M t ,

cioè l’inversa coincide con la trasposta.


 1 −2 

 √ √
1 1 −2
Esempio La matrice M = √ =  25 5 è ortogonale.

5 2 1 1
√ √
5 5
 √ √ √ 
1/ √2 1/√3 1/√6
Esempio La matrice M = −1/ 2 1/√3 1/ √6  è ortogonale.
0 1/ 3 −2/ 6
In entrambi i casi si verifica infatti che M M t = I.
Osserviamo che, se M M t = I allora, prendendo il determinante di ambo i membri e
applicando il teorema di Binet, si ha (det M )2 = 1. Dunque
• se M è una matrice ortogonale allora det M = 1 oppure det M = −1.
Il teorema seguente fornisce le proprietà importanti di una matrice ortogonale.

Teorema a) La matrice di passaggio fra due basi ortonormali di Rn (o di un suo sot-


tospazio) è ortogonale.
b) Una matrice A ∈ Mat(n × n) è ortogonale se e solo se le colonne di A formano una
base ortonormale di Rn .

Dimostrazione. La dimostrazione si riduce a una verifica, che omettiamo. 

12
Osserviamo che le colonne delle matrici ortogonali dei due esempi precedenti formano,
effettivamente, una base ortonormale di R2 (primo esempio), e di R3 (secondo esempio).
Dalla parte b) del teorema abbiamo anche
• Incolonnando i vettori di una base ortonormale di Rn otteniamo una matrice ortog-
onale n × n.
Infine, si può dimostrare che le matrici ortogonali di R2 sono di due tipi:
 
cos θ − sin θ
sin θ cos θ

con θ ∈ R, oppure  
cos α sin α
,
sin α − cos α
con α ∈ R. Le matrici del primo tipo hanno determinante 1, mentre quelle del secondo
tipo hanno determinante −1.

5 Complemento ortogonale di un sottospazio


Sia u1 un vettore fissato di Rn e si consideri il sottoinsieme

E = {v ∈ Rn : hv, u1 i = 0},

formato da tutti i vettori ortogonali a u1 . Per le proprietà di bilinearità del prodotto


scalare, E risulta allora un sottospazio di Rn . Più in generale, fissati k vettori di Rn ,
diciamo u1 , . . . , uk , l’insieme:

E = {v ∈ Rn : hv, u1 i = · · · = hv, uk i = 0},

formato dai vettori di Rn ortogonali a u1 , . . . , uk è un sottospazio di Rn .


 
1
Esempio Sia u1 =  1 . Trovare una base di E = {v ∈ R3 : hv, u1 i = 0}.
−1
 
x
Soluzione. Sia v = y  il vettore generico di R3 . Imponendo l’ortogonalità al vettore u1

z
otteniamo l’unica condizione
x + y − z = 0.

13
Dunque
 Eè  il 
sottospazio delle soluzioni dell’equazione, e una sua base è, ad esempio,
1 0
−1 , 1. E ha dimensione 2. 
0 1

  
1 0
Esempio Dati i vettori u1 =  1  , u2 =  1  si consideri il sottospazio
−1 −2

F = {v ∈ R3 : hv, u1 i = hv, u2 i = 0}.


a) Trovare una base di F e calcolare la sua dimensione.
b) Trovare un vettore di F avente norma 1.
 
x
Soluzione. a) Imponendo al vettore generico v = y  l’ortogonalità a u1 e u2 vediamo

z
che F è descritto dalle equazioni
(
x+y−z =0
F : .
y − 2z = 0
 
1 1 −1
La matrice dei coefficienti del sistema che definisce F è A = . Notiamo che
0 1 −2
le righe di A sono proprio i vettori u1 , u2 (piú precisamente, ut1 , ut2 ): siccome u1 , u2 sono
linearmente indipendenti il rango vale 2 e l’insieme delle soluzioni F ha dimensione:
dim F = 3 − rkA = 1.
 
−1
Una base si ottiene risolvendo il sistema. Si ottiene ad esempio la base  2 .
1
b) Un vettore diE di  norma 1 si ottiene normalizzando il vettore della
 base trovata,
−1 1
1 1
dunque w = √  2 . Un altro vettore possibile è −w = √ −2. Verificare che
6 1 6 −1
non ce ne sono altri. 
Generalizzando, otteniamo il seguente risultato.

Proposizione Se i vettori u1 , . . . , uk ∈ Rn sono linearmente indipendenti, allora


E = {v ∈ Rn : hv, u1 i = · · · = hv, uk i = 0},

14
è un sottospazio di Rn di dimensione n − k.

Dimostrazione. Abbiamo già osservato che E è un sottospazio. Sia v = (x1 , . . . , xn )t il


vettore generico di Rn . Imponendo l’ortogonalità di v a ciascuno dei vettori u1 , . . . , uk
otteniamo un sistema lineare omogeneo di k equazioni nelle n incognite x1 , . . . , xn . Dunque
E ha dimensione n − rkA, dove A è la matrice dei coefficienti. Ora, si verifica che le righe
di A sono i vettori trasposti di u1 , . . . , uk . Poiché per ipotesi u1 , . . . , uk sono linearmente
indipendenti il rango di A vale k e dunque

dim E = n − k.

5.1 Complemento ortogonale di un sottospazio


Sia E un sottospazio di Rn . Definiamo complemento ortogonale di E l’insieme E ⊥ costi-
tuito dai vettori di Rn ortogonali a tutti i vettori di E:

E ⊥ = {v ∈ Rn : hv, wi = 0 per ogni w ∈ E}.

Dalle proprietà del prodotto scalare risulta che E ⊥ è chiuso rispetto alla somma e al
prodotto per uno scalare, dunque è un sottospazio di Rn .

Risulta che v ∈ E ⊥ se e solo se v è ortogonale a tutti i vettori di una base di E. Infatti:

Proposizione Sia (v1 , . . . , vk ) una base di E. Allora v ∈ E ⊥ se e solo se hv, vi i = 0 per


ogni i = 1, . . . , k.

Dimostrazione. Supponiamo che hv, vi i = 0 per ogni i = 1, . . . , k. Se w è un qualunque


vettore di E, allora w è combinazione lineare dei vettori della base: w = a1 v1 + · · · + ak vk .
Quindi
hv, wi = a1 hv, v1 i + · · · + ah hv, vk i = 0,
che dimostra che v è ortogonale a w. Siccome w ∈ E è arbitrario, v ∈ E ⊥ . Il viceversa è
immediato. 

Esempio Determinare una ⊥ ortogonale del sottospazio E di R4


 base
 di E, complemento

1 1
1 0
generato dai vettori v1 = 
1 , v2 = 1.
  

1 0

15
Soluzione. Imponiamo al vettore generico v = (x, y, z, w)t ∈ R4 l’ortogonalità ai vettori
della base (v1 , v2 ) di E, ottenendo il sistema omogeneo:
(
x+y+z+w =0
.
x+z =0
   
1 0
0  ,  1 . 
Risolvendo il sistema, otteniamo la base di E ⊥ : 
   
−1  0 
0 −1
Le proprietà importanti del complemento ortogonale sono espresse nel seguente teorema.

Teorema Sia E un sottospazio di Rn e E ⊥ il suo complemento ortogonale. Allora


a) E ∩ E ⊥ = {O}.
b) dim E ⊥ = n − dim E.
c) Rn = E ⊕ E ⊥ .

Dimostrazione. a) Se v ∈ E ∩E ⊥ allora v è ortogonale a tutti i vettori di E; in particolare


v è ortogonale a sé stesso, e dunque hv, vi = 0. Ma l’unico vettore con tale proprietà è il
vettore nullo.
b) Sia dim E = k e sia (u1 , . . . , uk ) una base di E. Sappiamo che v ∈ E ⊥ se e solo se v è
ortogonale ai vettori di una base di E: dunque

E ⊥ = {v ∈ Rn : hv, u1 i = · · · = hv, uk i = 0}.

Siccome u1 , . . . , uk sono linearmente indipendenti, dalla proposizione del paragrafo prece-


dente otteniamo che dim E ⊥ = n − k = n − dim E.
c) Applichiamo la formula di Grassmann ai sottospazi E, E ⊥ :

dim(E + E ⊥ ) + dim(E ∩ E ⊥ ) = dim E + dim E ⊥ .

Da a) e b) concludiamo che dim(E+E ⊥ ) = n. Dunque E+E ⊥ = Rn . Poiché E∩E ⊥ = {O}


la somma è diretta: Rn = E ⊕ E ⊥ . 

5.2 Proiezione ortogonale su un sottospazio


Dal teorema precedente abbiamo che un vettore v ∈ Rn si spezza, in modo unico, come
somma di un vettore w ∈ E e di un vettore w⊥ ∈ E ⊥ :

v = w + w⊥ .

16
In particolare, w e w⊥ sono ortogonali.
• Il vettore w è detto la proiezione ortogonale di v sul sottospazio E. Denoteremo w
con il simbolo PE (v).
3
  È dato il sottospazio di R descritto dall’equazione x + y − 2z = 0. Il vettore
Esempio
1
v = 2 ∈ R3 si spezza
0
     
1 1/2 1/2
2 = 3/2 + 1/2 ,
0 1 −1
 
1/2

dove il primo vettore appartiene a E e il secondo a E . Quindi PE (v) = 3/2.

1
In generale, se (u1 . . . , uk ) è una base ortonormale di E allora la proiezione ortogonale si
calcola con la formula
PE (v) = hv, u1 iu1 + · · · + hv, uk iuk .

6 Endomorfismi simmetrici
In questa sezione studieremo una classe importante di endomorfismi di Rn : gli endomor-
fismi detti simmetrici. Tali endomorfismi sono caratterizzati dalla proprietà di ammettere
una base ortonormale di autovettori, e sono legati in modo naturale alle matrici simmet-
riche. In particolare, risulterà che ogni matrice simmetrica è diagonalizzabile.

Definizione Un endomorfismo di Rn si dice simmetrico se la sua matrice associata


rispetto alla base canonica è simmetrica.
   
2 2 x −3x + 3y
Esempio Sia f : R → R definito da f = . La matrice canonica di f
y 3x + 5y
è:  
−3 3
A= .
3 5
Siccome A è simmetrica, f è simmetrico.
     
x x + 2y 1 2
Esempio L’endomorfismo f = ha matrice canonica dunque non
y 3y 0 3
è simmetrico.

17
Teorema Le seguenti condizioni sono equivalenti.
a) f è un endomorfismo simmetrico di Rn .
b) La matrice associata a f rispetto ad una qualunque base ortonormale di Rn è simmet-
rica.
c) Per ogni coppia di vettori u, v ∈ Rn si ha

hf (u), vi = hu, f (v)i.

Dimostrazione. a) =⇒ b) Supponiamo che f sia simmetrico, e sia A la sua matrice


canonica. Per definizione, A è simmetrica. Se B è una base ortonormale di Rn , e A0 è la
matrice associata a f rispetto a tale base, allora sappiamo che

A0 = M −1 AM,

dove M è la matrice di passaggio dalla base canonica BC alla base B. Poichè tali basi sono
entrambe ortonormali, si ha che M è ortogonale, quindi M −1 = M t . Dunque A0 = M t AM ,
ed è sufficiente dimostrare che M t AM è simmetrica. Ma questo è immediato:

(M t AM )t = M t A(M t )t = M t AM.

b) =⇒ c) Si ha la seguente identità, valida per ogni matrice A e per ogni scelta di u, v,


vettori colonna di Rn :
hAu, vi = hu, At vi.
L’identità si verifica con un calcolo diretto, e fornisce un legame tra il prodotto scalare e
la trasposta di una matrice. Supponiamo che la matrice A, associata ad f rispetto alla
base canonica, sia simmetrica. Ora sappiamo che f si scrive

f (v) = Av.

Poichè A è simmetrica, si ha A = At e dall’identità precedente:

hf (u), vi = hAu, vi = hu, Avi = hu, f (v)i.

c) =⇒ a) Premettiamo che, se A è una matrice n × n e e1 , . . . , en sono i vettori della


base canonica di Rn , un calcolo mostra che

hAei , ej i = aji ,

dove aji è l’elemento di posto (j, i) della matrice A.

18
Per ipotesi, si ha la proprietà c). Dunque, se A è la matrice canonica di f , l’identità
hAu, vi = hu, Avi
risulta vera per ogni scelta dei vettori colonna u, v. Prendendo u = ei e v = ej otteniamo
aji = aij
per ogni i, j, dunque la matrice canonica di f è simmetrica e f risulta simmetrico. 

Isoliamo la seguente proprietà degli autospazi di un endomorfismo simmetrico.

Proposizione Gli autospazi di un endomorfismo simmetrico sono ortogonali fra loro. In


altre parole, se λ1 e λ2 sono autovalori distinti di f , e se u ∈ E(λ1 ) e v ∈ E(λ2 ) allora:
hu, vi = 0.

Dimostrazione. Per ipotesi f (u) = λ1 u; dunque


hf (u), vi = λ1 hu, vi.
D’altra parte, per la c) del teorema, poiché f (v) = λ2 v:
hf (u), vi = hu, f (v)i = λ2 hu, vi.
Uguagliando otteniamo λ1 hu, vi = λ2 hu, vi cioè
(λ1 − λ2 )hu, vi = 0,
e poiché λ1 − λ2 6= 0 si ha necessariamente hu, vi = 0. 
   
x −3x + 3y
Esempio Sia f : R2 → R2 definito da f = . Verifichiamo che gli au-
y 3x + 5y
 
−3 3
tospazi di f sono ortogonali. Matrice canonica A = con polinomio caratteristico
3 5
x2 − 2x − 24. e abbiamo due autovalori distinti: λ1 = −4 e λ2 = 6 e due autospazi
E(−4),
 E(6),
 entrambi di dimensione 1. Si trova che E(−4)
  ha equazione x + 3y = 0 con
3 1
base , e E(6) ha equazione 3x − y = 0 con base .
−1 3
   
3 1
Effettivamente, gli autospazi sono ortogonali tra loro, la coppia , è una base
−1 3
ortogonale di autovettori, e la coppia
   
1 3 1 1
√ ,√
10 −1 10 3

19
è una base ortonormale di R2 formata da autovettori di f . 

     
x x + 2y 1 2
Esempio L’endomorfismo f = ha matrice canonica dunque non
y 3y 0 3
è simmetrico. Si osserva che f ha autovalori λ1 = 1, λ2 = 3 e autospazi:

E(1) : y = 0, E(3) : x − y = 0.

Si vede subito che gli autospazi


    non sono ortogonali. Risulta che f è diagonalizzabile,
1 1
con base di autovettori , ma non è possibile trovare una base ortonormale di
0 1
autovettori (se ortonormalizziamo la base, non otteniamo piú autovettori).

Esempio Sia E un sottospazio di Rn . L’endomorfismo PE che associa al vettore v ∈ Rn


la sua proiezione ortogonale sul sottospazio E è simmetrico.
Infatti, se fissiamo una base ortonormale (u1 . . . , uk ) di E allora la proiezione ortogonale
è data da
PE (v) = hv, u1 iu1 + · · · + hv, uk iuk .
Se w è un secondo vettore di Rn si ha

hPE (v), wi = hv, u1 ihu1 , wi + · · · + hv, uk ihuk , wi.

Poiché il secondo membro rimane uguale scambiando v con w, si ha hPE (v), wi = hPE (w), vi =
hv, PE (w)i e PE è simmetrico.

7 Teorema spettrale
Veniamo al seguente importante teorema, di cui omettiamo la dimostrazione.

Teorema spettrale. Sia f un endomorfismo simmetrico di Rn . Allora f è diagonaliz-


zabile; inoltre esiste una base ortonormale di Rn costituita da autovettori di f .

Anche il viceversa è vero, ed è facile da dimostrare:

Teorema Sia f un endomorfismo di Rn , e supponiamo che esista una base ortonormale


di Rn formata da autovettori di f . Allora f è simmetrico.

Dimostrazione. La matrice associata alla base di autovettori (che è ortonormale per ipotesi)
è diagonale, dunque simmetrica, e quindi f è simmetrico per il teorema della sezione prece-
dente. 

20
Dunque, la classe degli endomorfismi di Rn che ammettono una base ortonormale di
autovettori coincide con la classe degli endomorfismi simmetrici.
Notiamo anche il fatto seguente.

Corollario Ogni matrice simmetrica è diagonalizzabile, ed è ortogonalmente simile ad


una matrice diagonale. Cioè, possiamo trovare una matrice diagonale D e una matrice
ortogonale M tali che:
D = M −1 AM = M t AM.

Dimostrazione. Sia f l’endomorfismo di Rn rappresentato da A rispetto alla base canonica.


Poiche’ A è simmetrica, anche f è simmetrico. Per il teorema spettrale, possiamo trovare
una base ortonormale B formata da autovettori di f . In questa base, f si rappresenta con
una matrice diagonale D; inoltre si ha
D = M −1 AM,
dove M è la matrice di passaggio dalla base canonica alla base B. Poiche’ tali basi sono
entrambe ortonormali, la matrice M è ortogonale, quindi M −1 = M t . 

Diamo ora il procedimento per determinare una base ortonormale di autovettori di un


endomorfismo simmetrico.
1. Calcoliamo il polinomio caratteristico e quindi troviamo gli autovalori di f , diciamo
λ1 , . . . , λ k .
2. Con l’algoritmo di Gram-Schmidt, troviamo una base ortonormale di ciascun au-
tospazio, diciamo B1 , . . . , Bk .
3. Uniamo le basi ortonormali cosi’ trovate per ottenere la base B = B1 ∪ · · · ∪ Bk di Rn .
L’insieme di vettori cosi’ ottenuto formera’ una base ortonormale di autovettori.
Infatti, ogni vettore di B ha chiaramente norma 1. Inoltre, se prendiamo due vettori
appartenenti alla stessa base Bi questi sono ortogonali per costruzione; se prendiamo due
vettori appartenenti a basi diverse, questi appartengono ad autospazi diversi e quindi sono
ortogonali grazie alla proposizione della sezione precedente. I vettori di B sono a due a
due ortogonali e di norma 1, dunque B è una base ortonormale.
Infine, per diagonalizzare una matrice simmetrica A, procediamo cosi’:
1. Troviamo una base ortonormale B formata da autovettori dell’endomorfismo di Rn
rappresentato da A rispetto alla base canonica.
2. Incolonniamo la base B per ottenere una matrice ortogonale M .
3. Scriviamo la matrice diagonale D, i cui elementi diagonali sono gli autovalori di f ,
presi nello stesso ordine dei corrispondenti autovettori di B.
4. Risultera’ allora D = M t AM .

21
7.1 Esempio
 
−3 3
Sia f l’operatore di R2 rappresentato da rispetto alla base canonica. Abbiamo
3 5
già trovato una base ortonormale di autovettori:
   
1 3 1 1
√ ,√ ,
10 −1 10 3
associati rispettivamente a −4 e 6. Quindi se prendiamo
   
1 3 1 −4 0
M=√ , D= .
10 −1 3 0 6

si avrà D = M t AM .

7.2 Esempio
 
1 1 1
Sia f l’operatore di R3 rappresentato da 1 1 1 rispetto alla base canonica. f è
1 1 1
simmetrico. Il polinomio caratteristico è −x3 + 3x2 e gli autovalori sono 0, 3. E(0) è
  
1 1
il nucleo, di equazione x + y + z = 0 e base −1 ,  0 . Applicando l’algoritmo di
0 −1
Gram-Schmidt, otteniamo la base ortonormale di E(0):
   
1 1
1   1  
w1 = √ −1 , w2 = √ 1 .
2 0 6 −2
 
1
E(3) ha base 1; si osserva che E(3) è ortogonale a E(0). Otteniamo la base ortonormale
1
di E(3):  
1
1  
w3 = √ 1 .
3 1

Ne segue che una base ortonormale di autovettori è (w1 , w2 , w3 ) cioè:


     
1 1 1
1   1   1  
√ −1 , √ 1 ,√ 1 .
2 0 6 −2 3 1

22
Ponendo
1 1 1
 
√ √ √
 2 6 3
 
 1 0 0 0
1 1 
M = − √ √ √  , D = 0 0 0 ,

 2 6 3 0 0 3
 2 1 
0 −√ √
6 3
si ha D = M t AM .

7.3 Esempio
Sia f l’endomorfismo di R4 rappresentato, rispetto alla base canonica, dalla matrice
 
2 0 1 0
0 2 0 −1
A= 1 0 2 0  .

0 −1 0 2

Poiché A è simmetrica, f è un endomorfismo simmetrico. Un calcolo mostra che pA (x) =


(x − 1)2 (x − 3)2 , dunque f ammette due autovalori distinti: λ1 = 1 e λ2 = 3, entrambi
di molteplicità algebrica 2. Già sappiamo che f è diagonalizzabile, dunque la molteplicità
geometrica di entrambi gli autovalorisarà 2. 
1 0 1 0
0 1 0 −1
Descriviamo gli autospazi. A − I =  1 0 1 0  dunque E(1) ha equazioni:

0 −1 0 1
(
x1 + x3 = 0
x2 − x4 = 0

e quindi  
t
s 4
E(1) = {
−t ∈ R : t, s ∈ R}.

s
Procedendo in modo analogo, si ha:

t0
 
 s0  4 0 0
E(3) = {
 t0  ∈ R : t , s ∈ R}.

−s0

23
Osserviamo che i due autospazi sono fra loro ortogonali, nel senso che:
   0 
t t
 s   s0  0 0 0 0
h
−t ,  t0 i = tt + ss − tt − ss = 0
  

s −s0

per ogni t, s, t0 , s0 ∈ R.
Passiamo ora a costruire una base ortonormale di autovettori di f . Una base di E(1)
è data dalla coppia ((1, 0, −1, 0)t , (0, 1, 0, 1)t ): i due vettori sono ortogonali, dunque una
base ortonormale di V (1) è:
   
1 0
1  0  1 1
w1 = √   , w2 = √   ,
2 −1 2 0
0 1

In modo analogo, dalla base ((1, 0, 1, 0)t , (0, 1, 0, −1)t ) di E(3) otteniamo la base ortonor-
male di E(3):    
1 0
1  0  1 1
w3 = √   , w4 = √  
2 1 2 0 
0 −1
Dunque
B = B1 ∪ B2 = (w1 , w2 , w3 , w4 )
è una base ortonormale di R4 , costituita da autovettori di f .
La matrice A è diagonalizzabile; se M è la matrice ottenuta incolonnando la base ortonor-
male di autovettori descritta in precedenza, cioè
 
1 0 1 0
1 0 1 0 1
M=√  
2 −1 0 1 0 
0 1 0 −1

allora M è una matrice ortogonale che diagonalizza A, nel senso che


 
1 0 0 0
0 1 0 0
M t AM =  0 0 3 0 .

0 0 0 3

24

Potrebbero piacerti anche