Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1 Prodotto scalare in Rn
1.1 Definizione
x1 y1
.. ..
Dati i vettori u = . e v = . di Rn , definiamo prodotto scalare di u e v il numero
xn yn
reale:
hu, vi = x1 y1 + · · · + xn yn .
Il risultato del prodotto scalare è dunque un numero.
1 2
Esempio Se u = 2 e v = −1 allora hu, vi = 3.
3 1
Notiamo che il prodotto scalare di due vettori può risultare nullo anche se nessuno dei due
fattori è il vettore nullo.
1 −1
Esempio Se u = 2 e v = −1 allora hu, vi = 0.
3 1
1
• I vettori u e v si dicono ortogonali se il loro prodotto scalare è nullo: hu, vi = 0.
Notazione:
u ⊥ v.
Dimostrazione.
La dimostrazione di 1),2),3) si riduce a una semplice verifica. Osserviamo
x1
..
che, se u = . allora
xn
hu, ui = x21 + · · · + x2n ,
che è un numero sempre positivo o nullo: questo dimostra la 4). Se hu, ui = 0 evidente-
mente x1 = · · · = xn = 0, e quindi u = O.
Dalle proprietà di bilinearità osserviamo che il prodotto scalare si comporta in modo
naturale rispetto alle combinazioni lineari. Per ogni scelta dei vettori v1 , . . . , vk , u, w ∈ Rn
e degli scalari a1 , . . . , ak ∈ R si ha:
2
Di conseguenza, poiché il prodotto scalare è commutativo, si ha anche
Dimostrazione. Omessa.
3
1.3 Angolo tra due vettori
Supponiamo che u e v siano due vettori non nulli. Per la disuguaglianza di Schwarz, si ha
|hu, vi|
≤ 1,
kukkvk
hu, vi
cos θ = .
kukkvk
0 1
√ √
kuk = 6, kvk = 6, hu, vi = 3.
1
Dunque cos θ = 2 cioè θ = π3 .
2 Basi ortonormali
2.1 Ortogonalità e indipendenza lineare
a1 v1 + · · · + ak vk = O. (1)
Prendendo il prodotto scalare dei due membri della (1) per v1 otteniamo
0 = ha1 v1 + a2 v2 + · · · + ak vk , v1 i
= a1 hv1 , v1 i + a2 hv2 , v1 i + · · · + ak hvk , v1 i
= a1 kv1 k2
perché per ipotesi hvj , v1 i = 0 per ogni j = 2, . . . , k. Per ipotesi, v1 è non nullo, dunque
kv1 k2 > 0 e ne segue che a1 = 0. Prendendo successivamente il prodotto scalare dei due
4
membri della (1), ordinatamente per v2 , . . . , vk , si dimostra in modo analogo che aj = 0
per ogni j.
• n vettori non nulli, a due a due ortogonali formano una base di Rn (che sarà chiamata
base ortogonale).
1 2
Esempio I vettori v1 = , v2 = formano una base ortogonale di R2 perchè
−2 1
hv1 , v2 i = 0.
1 1 1
I vettori w1 = 1 , w2 = −1 , w3 = 1 sono non nulli e a due a due ortogonali:
1 0 −2
Esempio La matrice
1 1 1 −1
1 1 −1 1
A=
1 −1 1
1
1 −1 −1 −1
ha rango 4. Infatti i suoi vettori colonna sono a due a due ortogonali, e quindi sono
linearmente indipendenti.
• Il numero massimo di vettori di Rn , non nulli e ortogonali a due a due, è n.
In modo analogo, possiamo definire la nozione di base ortogonale di un qualunque sot-
tospazio E di Rn : se dim E = k allora i vettori v1 , . . . , vk formano una base ortogonale di
E se sono non nulli e hvi , vj i = 0 per ogni i 6= j.
Esempio
Il sottospazio
E : x + y + z = 0 di R3 ha dimensione 2. I due vettori v1 =
1 1
−1 , v2 = 1 appartengono a E e sono ortogonali tra loro, dunque formano una
0 −2
base ortogonale di E.
5
Dunque una base ortonormale è formata da vettori a due a due ortogonali, tutti di norma
unitaria. Una base ortonormale è, in particolare, anche ortogonale.
Esempio I vettori:
1 1 1 −1
1 1 1 1 1 −1 1 1
v1 = , v2 = , v3 = , v4 = ,
2 1 2 −1 2 1 2 1
1 −1 −1 −1
sono a due a due ortogonali e hanno tutti norma 1. Dunque tali vettori
formano una
1
2
base ortonormale B di R4 . Calcoliamo le coordinate del vettore v =
3 rispetto a B. I
4
coefficienti di Fourier sono
hv, v1 i = 5, hv, v2 i = −2, hv, v3 i = −1, hv, v4 i = 0.
6
Dunque v ha coordinate
5
−2
,
−1
0
rispetto a B. In altre parole v = 5v1 − 2v2 − v3 .
3 Algoritmo di Gram-Schmidt
Lo scopo di questa sezione è quello di dimostrare che ogni sottospazio di Rn ammette
almeno una base ortonormale.
7
e ha norma 1.
Corollario Se (v1 , . . . , vk ) è una base ortogonale del sottospazio E, allora i vettori nor-
malizzati
1 1
u1 = v1 , . . . , uk = vk
kv1 k kvk k
formano una base ortonormale di E.
8
con a ∈ R da determinare in modo opportuno. Notiamo che i vettori w1 , w2 appartengono
a E; inoltre w2 non è nullo (altrimenti v1 e v2 sarebbero linearmente dipendenti ). Ora
scegliamo il coefficiente a in modo tale che w2 risulti ortogonale a w1 . È facile vedere che
cio’ accade se solo se:
hv2 , w1 i
a= .
hw1 , w1 i
Dunque, con tale scelta, otteniamo la base ortogonale (w1 , w2 ) di E.
hv2 , w1 i
dove a = è stato già determinato, cosicché hw1 , w2 i = 0. Imponendo le condizioni
hw1 , w1 i
hw3 , w1 i = hw3 , w2 i = 0,
otteniamo:
hv3 , w1 i hv3 , w2 i
b= , c= .
hw1 , w1 i hw2 , w2 i
Con tali scelte di a, b, c otteniamo quindi la base ortogonale (w1 , w2 , w3 ) di E e quindi,
normalizzando, una base ortonormale (notiamo che w3 non è nullo, altrimenti v1 , v2 , v3
sarebbero linearmente dipendenti ).
Procedendo per induzione, possiamo enunciare il seguente teorema.
dove si è posto:
hvi , wj i
aij = .
hwj , wj i
9
Allora (w1 , . . . , wk ) è una base ortogonale di E, e quindi i vettori normalizzati:
1 1
u1 = w1 , . . . , u k = wk ,
kw1 k kwk k
E : x − y − 2z = 0.
10
• Ovviamente la base ortonormale ottenuta dipende dalla base di partenza. Per eser-
cizio, vedere quale base ortonormale si ottiene scambiando i vettori della base di partenza.
Esempio Trovare una base ortonormale del sottospazio di R4 generato dai vettori:
1 2 1
1 0 3
v1 = 0 , v2 = 1 , v3 = −1 .
0 0 2
0
2 1 1
0 1 −1
w2 = 1 − 0 = 1 .
0 0 0
Ora:
hv3 , w1 i 4
a31 = hw , w i = 2 = 2
1 1
hv , w i −3
a32 = 3 2 =
= −1
hw2 , w2 i 3
dunque:
1 1 1 0
3 1 −1 0
−1 − 2 0 + 1 = 0 .
w3 =
2 0 0 2
Otteniamo la base ortogonale:
1 1 0
1 −1 0
0 , w2 = 1 , w3 = 0 ,
w1 =
0 0 2
11
e, normalizzando, la base ortonormale:
1 1 0
1 1
1 −1 0
u1 = √ , u2 = √ , u3 = .
2 0
3 1 0
0 0 1
4 Matrici ortogonali
Abbiamo visto che la matrice M di passaggio fra due basi B, B 0 di uno spazio vettoriale è
invertibile. Se le basi B, B 0 sono ortonormali, la matrice di passaggio avrà delle proprietà
particolari.
M −1 = M t ,
12
Osserviamo che le colonne delle matrici ortogonali dei due esempi precedenti formano,
effettivamente, una base ortonormale di R2 (primo esempio), e di R3 (secondo esempio).
Dalla parte b) del teorema abbiamo anche
• Incolonnando i vettori di una base ortonormale di Rn otteniamo una matrice ortog-
onale n × n.
Infine, si può dimostrare che le matrici ortogonali di R2 sono di due tipi:
cos θ − sin θ
sin θ cos θ
con θ ∈ R, oppure
cos α sin α
,
sin α − cos α
con α ∈ R. Le matrici del primo tipo hanno determinante 1, mentre quelle del secondo
tipo hanno determinante −1.
E = {v ∈ Rn : hv, u1 i = 0},
13
Dunque
Eè il
sottospazio delle soluzioni dell’equazione, e una sua base è, ad esempio,
1 0
−1 , 1. E ha dimensione 2.
0 1
1 0
Esempio Dati i vettori u1 = 1 , u2 = 1 si consideri il sottospazio
−1 −2
14
è un sottospazio di Rn di dimensione n − k.
dim E = n − k.
Dalle proprietà del prodotto scalare risulta che E ⊥ è chiuso rispetto alla somma e al
prodotto per uno scalare, dunque è un sottospazio di Rn .
1 0
15
Soluzione. Imponiamo al vettore generico v = (x, y, z, w)t ∈ R4 l’ortogonalità ai vettori
della base (v1 , v2 ) di E, ottenendo il sistema omogeneo:
(
x+y+z+w =0
.
x+z =0
1 0
0 , 1 .
Risolvendo il sistema, otteniamo la base di E ⊥ :
−1 0
0 −1
Le proprietà importanti del complemento ortogonale sono espresse nel seguente teorema.
v = w + w⊥ .
16
In particolare, w e w⊥ sono ortogonali.
• Il vettore w è detto la proiezione ortogonale di v sul sottospazio E. Denoteremo w
con il simbolo PE (v).
3
È dato il sottospazio di R descritto dall’equazione x + y − 2z = 0. Il vettore
Esempio
1
v = 2 ∈ R3 si spezza
0
1 1/2 1/2
2 = 3/2 + 1/2 ,
0 1 −1
1/2
⊥
dove il primo vettore appartiene a E e il secondo a E . Quindi PE (v) = 3/2.
1
In generale, se (u1 . . . , uk ) è una base ortonormale di E allora la proiezione ortogonale si
calcola con la formula
PE (v) = hv, u1 iu1 + · · · + hv, uk iuk .
6 Endomorfismi simmetrici
In questa sezione studieremo una classe importante di endomorfismi di Rn : gli endomor-
fismi detti simmetrici. Tali endomorfismi sono caratterizzati dalla proprietà di ammettere
una base ortonormale di autovettori, e sono legati in modo naturale alle matrici simmet-
riche. In particolare, risulterà che ogni matrice simmetrica è diagonalizzabile.
17
Teorema Le seguenti condizioni sono equivalenti.
a) f è un endomorfismo simmetrico di Rn .
b) La matrice associata a f rispetto ad una qualunque base ortonormale di Rn è simmet-
rica.
c) Per ogni coppia di vettori u, v ∈ Rn si ha
A0 = M −1 AM,
dove M è la matrice di passaggio dalla base canonica BC alla base B. Poichè tali basi sono
entrambe ortonormali, si ha che M è ortogonale, quindi M −1 = M t . Dunque A0 = M t AM ,
ed è sufficiente dimostrare che M t AM è simmetrica. Ma questo è immediato:
(M t AM )t = M t A(M t )t = M t AM.
f (v) = Av.
hAei , ej i = aji ,
18
Per ipotesi, si ha la proprietà c). Dunque, se A è la matrice canonica di f , l’identità
hAu, vi = hu, Avi
risulta vera per ogni scelta dei vettori colonna u, v. Prendendo u = ei e v = ej otteniamo
aji = aij
per ogni i, j, dunque la matrice canonica di f è simmetrica e f risulta simmetrico.
19
è una base ortonormale di R2 formata da autovettori di f .
x x + 2y 1 2
Esempio L’endomorfismo f = ha matrice canonica dunque non
y 3y 0 3
è simmetrico. Si osserva che f ha autovalori λ1 = 1, λ2 = 3 e autospazi:
E(1) : y = 0, E(3) : x − y = 0.
Poiché il secondo membro rimane uguale scambiando v con w, si ha hPE (v), wi = hPE (w), vi =
hv, PE (w)i e PE è simmetrico.
7 Teorema spettrale
Veniamo al seguente importante teorema, di cui omettiamo la dimostrazione.
Dimostrazione. La matrice associata alla base di autovettori (che è ortonormale per ipotesi)
è diagonale, dunque simmetrica, e quindi f è simmetrico per il teorema della sezione prece-
dente.
20
Dunque, la classe degli endomorfismi di Rn che ammettono una base ortonormale di
autovettori coincide con la classe degli endomorfismi simmetrici.
Notiamo anche il fatto seguente.
21
7.1 Esempio
−3 3
Sia f l’operatore di R2 rappresentato da rispetto alla base canonica. Abbiamo
3 5
già trovato una base ortonormale di autovettori:
1 3 1 1
√ ,√ ,
10 −1 10 3
associati rispettivamente a −4 e 6. Quindi se prendiamo
1 3 1 −4 0
M=√ , D= .
10 −1 3 0 6
si avrà D = M t AM .
7.2 Esempio
1 1 1
Sia f l’operatore di R3 rappresentato da 1 1 1 rispetto alla base canonica. f è
1 1 1
simmetrico. Il polinomio caratteristico è −x3 + 3x2 e gli autovalori sono 0, 3. E(0) è
1 1
il nucleo, di equazione x + y + z = 0 e base −1 , 0 . Applicando l’algoritmo di
0 −1
Gram-Schmidt, otteniamo la base ortonormale di E(0):
1 1
1 1
w1 = √ −1 , w2 = √ 1 .
2 0 6 −2
1
E(3) ha base 1; si osserva che E(3) è ortogonale a E(0). Otteniamo la base ortonormale
1
di E(3):
1
1
w3 = √ 1 .
3 1
22
Ponendo
1 1 1
√ √ √
2 6 3
1 0 0 0
1 1
M = − √ √ √ , D = 0 0 0 ,
2 6 3 0 0 3
2 1
0 −√ √
6 3
si ha D = M t AM .
7.3 Esempio
Sia f l’endomorfismo di R4 rappresentato, rispetto alla base canonica, dalla matrice
2 0 1 0
0 2 0 −1
A= 1 0 2 0 .
0 −1 0 2
0 −1 0 1
(
x1 + x3 = 0
x2 − x4 = 0
e quindi
t
s 4
E(1) = {
−t ∈ R : t, s ∈ R}.
s
Procedendo in modo analogo, si ha:
t0
s0 4 0 0
E(3) = {
t0 ∈ R : t , s ∈ R}.
−s0
23
Osserviamo che i due autospazi sono fra loro ortogonali, nel senso che:
0
t t
s s0 0 0 0 0
h
−t , t0 i = tt + ss − tt − ss = 0
s −s0
per ogni t, s, t0 , s0 ∈ R.
Passiamo ora a costruire una base ortonormale di autovettori di f . Una base di E(1)
è data dalla coppia ((1, 0, −1, 0)t , (0, 1, 0, 1)t ): i due vettori sono ortogonali, dunque una
base ortonormale di V (1) è:
1 0
1 0 1 1
w1 = √ , w2 = √ ,
2 −1 2 0
0 1
In modo analogo, dalla base ((1, 0, 1, 0)t , (0, 1, 0, −1)t ) di E(3) otteniamo la base ortonor-
male di E(3):
1 0
1 0 1 1
w3 = √ , w4 = √
2 1 2 0
0 −1
Dunque
B = B1 ∪ B2 = (w1 , w2 , w3 , w4 )
è una base ortonormale di R4 , costituita da autovettori di f .
La matrice A è diagonalizzabile; se M è la matrice ottenuta incolonnando la base ortonor-
male di autovettori descritta in precedenza, cioè
1 0 1 0
1 0 1 0 1
M=√
2 −1 0 1 0
0 1 0 −1
0 0 0 3
24