Spazio euclideo
allora l’applicazione
x(P )
F : Σ −→ R3 P →
7 y(P )
z(P )
1
z
z(P)
y(P)
y
x(P)
Figura 1.1.1. x
x1 y1
Se X = x2 , Y = y2 , allora X = Y se x1 = y1 , x2 = y2 , x3 = y3 .
x3 y3
Possiamo definire due operazioni su R3 :
x1 + y1
a) somma: R3 × R3 −→ R3 (X, Y ) 7→ X + Y = x2 + y2 ;
x3 + y3
λx1
b) moltiplicazione per scalare R×R3 −→ R3 (λ, Y ) 7→ λX = λx2 .
λx3
La somma si interpreta geometricamente con la regola del parallelogramma,
ovvero se X e Y sono vettori di R3 , considero il parallelogramma di lati X
e Y . Allora il vettore X + Y è la diagonale principale del parallelogramma
di lati X e Y come nella seguente figura. La moltiplicazione per scalare,
Y X +Y
2
λX
Figura 1.1.2. λX
e) (λ + µ)X = λX + µX;
f ) λ(X + Y ) = λX + λY ;
3
• X1 , . . . Xk si dicono linearmente dipendenti se esistono λ1 , . . . , λk non
tutti nulli, tali che
λ1 X1 + · · · + λk Xk = 0R3 ;
λ1 X1 + · · · + λk Xk 6= 0R3 ;
ovvero
λ1 X1 + · · · + λk Xk = 0R3 ;
se e solamente se λ1 = · · · = λk = 0.
1 1 1
Esempio 1.5. Siano Z = 2 , X1 = 1 , X2 = 2 , X3 =
−1 −1 1
1
0 . Stabilire se Z è combinazione lineare di X1 , X2 , X3 significa veri-
−1
ficare se esistono λ1 , λ2 , λ3 ∈ R tale che
1 1 1 1
2 = λ1 1 + λ2 2 + λ3 0 ,
−1 −1 1 −1
ovvero
1 λ1 + λ2 + λ3
2 = λ1 + 2λ2 .
−1 −λ1 + λ2 − λ3
Quindi Z è combinazione lineare dei vettori X1 , X2 , X3 se e solamente se il
sistema lineare
λ1 + λ2 + λ3 = 1
λ1 + 2λ2 = 2
−λ1 + λ2 − λ3 = −1
ammette soluzioni.
1 0 0
Esempio 1.6. Siano e1 = 0 , e2 = 1 , e3 = 0 . Ogni vettore
0 0 1
3
di R si scrive come combinazioni lineare dei vettori e1 , e2 , e3 .
4
z
X
e3
e2 y
e1
Figura 1.6.1. x
x1
Infatti, se X = x2 ∈ R3 , allora
x3
x1 1 0 0
x2 = x1 0 + x2 1 + x3 0 = x1 e1 + x2 e2 + x3 e3 .
x3 0 0 1
α1 e1 + α2 e2 + α3 e3 = 0R3
implica
α1 0
α2 = 0 ,
α3 0
ovvero α1 = α2 = α3 = 0.
1 2 1
Esempio 1.7. Siano 1 , 3 , 0 . Stabilire se i vettori sono li-
2 1 5
nearmente dipendenti, rispettivamente indipendenti, equivale a studiare una
combinazioni lineare
1 2 1 0
α1 1 + α2 3 + α3 0 = 0 ,
2 1 5 0
5
1 2 1
Quindi stabilire se i vettori 1 , 3 , 0 sono linearmente indipen-
2 1 5
denti, rispettivamente dipendenti, equivale a stabilire se il seguente sistema
lineare
α1 + 2α2 + α3 = 0
α1 + 3α2 = 0
2α1 + α2 + 5α3 = 0.
αX + βY = 0R3 .
Se α 6= 0, allora X = − αβ Y . Analogamente se β 6= 0, si ha Y = − αβ X.
Osservazione 1.9.
6
1.10 R3 : struttura metrica
In questa sezione investigheremo la struttura metrica dello spazio eucli-
deo.
R3 × R3 −→ R (X, Y ) 7→ hX, Y i = x1 y1 + x2 y2 + x3 y3 ,
x1 y1
per ogni X = x2 , Y = y2 ∈ R3
x3 y3
Il prodotto scalare canonico soddisifa alle seguenti proprietà:
7
Y
θ
X
Y X +Y
θ
X
0
k X + Y k2 =k X k2 + k Y k2 +2 k X kk Y k cos θ.
k X + Y k2 = hX + Y, X + Y i
= hX, X + Y i + hY, X + Y i
= hX, Xi + hX, Y i + hY, Xi + hY, Y i
=k X k2 +2hX, Y i+ k Y k2
da cui segue
hX, Y i = cos θ k X kk Y k .
Poiché X e Y sono entrambi non nulli, abbiamo dimostrato la seguente
formula:
hX, Y i
cos θ = .
k X kk Y k
Vediamo alcune conseguenze della formula anteriore.
8
b) X e Y sono ortogonali se e solamente se hX, Y i = 0;
c) (Disuguaglianza di Cauchy-Schwartz)
|hX, Y i| ≤k X kk Y k .
S ⊥ := {X ∈ R3 : hX, si = 0 ∀s ∈ S}.
hv + w, si = 0,
e
hλv, si = 0
per ogni s ∈ S. Sia s ∈ S. Per le proprietà del prodotto scalare si ha
hv + w, si = hv, si + hw, si
=0+0
= 0.
Analogamente
hλv, si = λhv, si
= 0.
9
Teorema 1.16. Siano X, Y ∈ R3 . Allora k X k2 + k Y k2 =k X + Y k2 se
e solamente se X, Y sono ortogonali.
Dimostrazione. Per le proprietà del prodotto scalare si ha:
k X + Y k2 = hX + Y, X + Y i = hX, X + Y i + hY, X + Y i
= hX, Xi + hX, Y i + hY, Xi + hY, Y i
=k X k2 +2hX, Y i+ k Y k2 .
10
Dimostrazione. Dimostreremo solamente le ultime 3 proprietà lasciando per
esercizio la verifiche delle altre.
hX, X × Y i = x1 (x2 y3 − x3 y2 ) + x2 (−y3 x1 + x3 y1 ) + x3 (x1 y2 − y1 x2 )
= x1 x2 y3 + x2 x3 y1 + x3 x1 y2
− (x1 x2 y3 + x2 x3 y1 + x3 x1 y2 )
= 0.
Analogamente
è possibile
che hY, X × Y i = 0.
dimostrare
x1 y1
Siano X = x2 , Y = y2 ∈ R3 tali che X × Y = 0. Allora
x3 y3
x2 y3 − x3 y2 = 0
−y3 x1 + x3 y1 = 0
x1 y2 − y1 x2 = 0
y1
ovvero Y = x1 X.
Analogamente gli altri casi.
x1 y1
Siano X = x2 , Y = y2 ∈ R3 . Allora
x3 y3
11
Geometricamente, se X e Y sono vettori linearmente indipendenti, allora
la seguente figura
X ×Y
r : X = P + tA,
Figura 1.19.1.
Come insieme
r = {X ∈ R3 : X = P + tA, t ∈ R}.
12
se Q = P + to A, allora
(t − t0 )
P + tA = Q − to A + tA = Q + (t − to )A = Q + B,
k
da cui segue
Dato un punto P , le rette che passano per P sono tutte e sole le rette che
hanno equazioni parametriche
X = P + tA, t ∈ R,
dove A ∈ R3 non nullo. L’insieme delle rette passanti per P si chiama stella
di rette di centro P. Per due punti distinti P1 e P2 passa una ed una sola
retta. Le equazioni parametriche sono date da
r = P1 + t(P1 − P2 ), t ∈ R.
Figura 1.19.2.
13
Quindi i vettori direttori delle rette r1 e r2 sono proporzionali, ovvero A1
e A2 sono linearmente dipendenti. Quindi se due rette sono parallele allora
A1 × A2 = 0R3 . Se r1 ed r2 , hanno vettori direttori linearmente dipendenti
ed hanno un punto in comune, allora esse sono coincidenti. Quindi, due
rette r1 = P1 + tA1 ed r2 = P2 + tA2 sono coincidenti se e solo se P1 ∈ r2 e
i vettori direttori dir1 ed r2 rispettivamente sono linearmente dipendenti.
Le rette r1 e r2 sono incidenti se hanno esattamente un punto in comune.
r2
r1
Figura 1.19.3.
Figura 1.19.4. x r
14
ortogonale alla direzione n è
x x
{n}⊥ = y ∈ R3 : hX, ni = 0 = y ∈ R3 : ax + by + cz = 0 .
z z
π : = X ∈ R3 : hX − P, ni = 0
x
= y ∈ R3 : ax + bx + cx + d = 0 ,
z
dove d = −hP, ni. Quindi un’equazione cartesiane per un piano nello spazio
è
π : ax + by + cz + d = 0,
dove a, b, c ∈ R sono numeri reali non tutti nulli.
Il piano π passa per l’origine se e solamente se d = 0. Osserviamo che
il piano π con vettore normale n e passante per P non è altro che il piano
passante l’origine, ortogonale a n e traslato lungo il vettore P .
xo
Esistono infiniti piani passanti per un punto. Infatti, se P = yo ,
zo
a
allora per ogni b 6= 0R3 , il piano ax + by + cz = axo + byo + czo è un
c
piano passante per P .
15
Se P1 , P2 ∈ π, sono due punti distinti, allora se un piano π contiene i
punti P1 e P2 , allora π contiene la retta passante per P1 e P2 , i.e., r = {P1 +
t(P2 − P1 ), t ∈ R}. È facile convincersi, provare per esercizio, che esistono
infiniti piani che contengono una retta r. Se invece consideriamo tre punti
non allineati, allora esiste un unico piano che li contiene. Ricordiamo che P1 ,
P2 e P3 vettori di R3 si dicono allineati se non appartengono ad una retta.
Questa condizione è equivalente alla condizione che i vettori P2 −P1 e P3 −P1
sono linearmente indipendenti. Se indichiamo con n = (P2 − P1 ) × (P3 − P1 )
allora il piano
π := X ∈ R3 : hX − P1 , ni = 0 .
n2
n1
π2
π1
16
• incidenti se si intersecano lungo una retta. Questo succede se e so-
lamente se n1 e n2 sono vettori linearmente indipendenti, ovvero se e
solamente se n1 × n2 6= 0R3 .
Figura 1.19.5.
r
π1
π2
a
Sia r : P + tA, t ∈ R e π : ax + by + cz + d = 0. Indichiamo con n = b
c
il vettore normale al piano. Allora:
• r ⊂ π se e solamente se P ∈ π e hA, ni = 0;
Figura 1.19.6.
n
r
π
17
Figura 1.19.7.
n
Figura 1.19.8.
n
r
Q
π
18
• Se a 6= 0, allora x = − ad − ab y − ac z, da cui segue
d b
− a − a y − ac z
π= y : y, z ∈ R
z
−d/a −b/a −c/a
= 0 +y 1 +z 0 ;
0 0 1
Quindi
π ha π : P + yv + zw, y, z ∈ R, dove
equazioniparamentriche:
0 1 0
P = −4 ∈ π, v = 2 , w = 1 .
0 0 1
19
Abbiamo dimostrato che ogni piano π : ax + by + cz = d ha equazioni
paramentriche π : P + tv + sw, t,s ∈ R,
dove v, w sono vettori linearmente
a
indipendenti ed ortogonali a n = b e P ∈ π. Viceversa, sia
c
π : P + tV + sW, s, t ∈ R,
π = {X ∈ R3 : hX − P, ni = 0},
a xo
sono equazioni cartesiane di π. Quindi se n = b e P = yo , allora
c zo
Quindi
π : 2x + y + z = d.
1
Imponendo il passaggio per 2 si ha
−1
2x + y + z = 3.
20
Esempio 1.22. Determinare equazioni parametrica e una equazione carte-
siane del piano π contenente la retta
1 −4
r : 2 + t 3
−2 2
3
e passante per P = 3 .
−3
1 2
Sia Q = 2 ∈ r. Poiché P ∈/ r, allora P − Q = 1 e Ar =
−2 −1
−4
3 sono linearmente indipendenti. Quindi il piano cercato ha equazioni
2
parametriche
3 −4 2
π : 3 + t 3 + s 1 .
−3 2 −1
Per determinare un’equazione cartesiane basta osservare che un vettore nor-
male al piano è dato da
5
n = (P − Q) × A = 0 .
10
5x + 10z = −15.
Due piani non paralleli si intersecano lungo una retta. Vogliamo provare
il viceversa, ovvero che ogni retta è intersezione
di due
piani
non paralleli.
xo a1
Sia r : P + tA una retta. Se P = yo e A = a2 allora
z0 a3
x = xo + ta1
y = yo + ta2
z = zo + ta3
21
Se a1 fosse differente da zero, allora potremmo ricavare t, i.e.,
x − xo
t= ,
a1
e sostituendo nelle altre due equazioni, si ha:
x a2 (x − xo ) a3 (x − xo )
r = y ∈ R 3 : y − yo = , z − zo = , .
a1 a1
z
ed se a3 6= 0, allora
x a2 (z − zo ) a3 (z − zo )
r = y ∈ R3 : y − yo = , y − yo = , .
a3 a1
z
Esempio 1.23.
x=1+t
r: y = 2 + 2t
z = 3t
22
Se la retta r ha equazioni cartesiane
ax + by + cz + d = 0
r := ,
a0 x + b0 y + c0 z + d0 = 0
Esempio 1.24.
x−y+z =1
r:
y − 2z = 2
Dalla seconda equazione ricaviamo y = 2 + 2z e poi x = 3 + z. Quindi
x=3+z 3 1
r := y = 2 + 2z = 2 + z 2 , z ∈ R
z=z 0 1
L’insieme dei piani passanti per una retta r si chiama fascio di piani di
asse r. Se la retta r ha equazioni cartesiane
ax + by + cz + d = 0
,
a0 x + b0 y + c0 z + d0 = 0
λ(ax + by + cz + d) + µ(a0 x + b0 y + c0 z + d0 ) = 0
Il fascio dei piani di asse r può essere utilizzato per risolvere alcuni esercizi.
23
3
e passante per P = 1 .
0
Un piano contenente r ha equazione cartesiana
α(x − y − z − 1) + β(x + y + z − 2) = 0,
α + 2β = 0,
α(x + z) + β(2x − y) = 0.
2α + 4β = 0,
α(x − y − 1) + β(y − z − 3) = 0.
2α − 6β = 0,
24
Esempio 1.27. Determinare un’equazione cartesiana della retta r incidente
ed ortogonale alle rette
x−z =0 x+y =2
s1 : s2 :
2x − y = 2 y+z =4
α(x − z) + β(2x − y − 2) = 0.
Imponendo la condizione
hnα,β , Ai = 0 ⇐⇒ α + 2β + α = 2(α + β) = 0,
α(x + y − 2) + β(y + z − 4) = 0.
hnα,β , Ai = 0 ⇐⇒ α − β = 0,
25
Poiché la retta passa per P ed è parallela al piano x + y − z = 6, la retta
cercata è contenuta nel piano π : x + y − z = 2. L’intersezione del piano π
e l’asse delle x è il vettore
2
π ∩ {asse x} = 0 = Q.
0
Quindi
r : P + t(P − Q),
ovvero
x=1−t
r: y = 2 + 2t
z =1+t
αy + βz = 0.
26
Capitolo 2
Matrici
x1 y1
Se X = ... , Y = ... , allora X = Y se solamente se x1 =
xn yn
y1 , . . . , xn = yn . Dati X, Y ∈ Kn e λ ∈ K si pone:
x1 + y1
a) X + Y = ..
;
.
xn + yn
λx1
b) λX =
.. ,
.
λxn
ovvero somma e moltiplicazione per scalare sono definite componente per
componente. La somma e moltiplicazioni per scalari godono di importanti
proprietà.
27
a) X + (Y + Z) = (X + Y ) + Z: proprierà associativa della somma;
e) (λ + µ)X = λX + µX;
f ) λ(X + Y ) = λX + λY ;
0
Notazione: porremo X − Y := X + (−1)Y .
Definizione 2.3.
λ1 X1 + · · · + λk Xk = 0Kn ;
28
1 1
1 1
Esempio 2.4. Stabilire se
0 è combinazione lineare dei vettori 1 ,
1 1
2 0
1 1
, ∈ R4 . Questo significa studiare l’esistenza α1 , α2 , α3 ∈ R
0 −1
5 3
tali che
1 2 0 1
1 1 1 1
α1
1 + α2 0 + α3 −1 = 0 ,
1 5 3 1
ovvero
α1 + 2α2 1
α1 + α2 + α3 1
= ,
α1 − α3 0
α1 + 5α2 + 3α3 1
da cui segue che
α1 + 2α2 = 1
α1 + α2 + α3 = 1
α1 − α3 = 0
α1 + 5α2 + 3α3 = 1.
1 1 2
1 1 1
0 è combinazione lineare dei vettori 1 , 0 ,
Quindi stabilire se
1 1 5
0
1
−1 è equivalente a stabilire se il sistema lineare anteriore ammet-
3
te soluzioni (combinazione lineare) oppure non ammette soluzioni (non è
combinazione lineare).
1 0 2
1 1 1 4
Esempio 2.5. Stabilire se i vettori −1 , 2 , −5 di R so-
1 1 0
no linearmenti indipendenti oppure linermente dipendenti. Per definizio-
ne di vettori linearmente indipendenti e dipendenti, dobbiamo studiare le
29
combinazioni lineari
1 0 2 0
1 1 1 0
α1
−1 + α2
+ α3 = ,
2 −5 0
1 1 0 0
ovvero
α1 + 2α3 = 0
α1 + α2 + α3 = 0
−α1 + 2α2 − 5α3 = 0
α1 + α2 + 5 = 0.
1 0 2
1 1 1 4
Quindi stabilire se i vettori −1 , 2 , −5 ∈ R sono linear-
1 1 0
menti indipendenti, rispettivamente linearmente dipendenti, equivalente a
stabilire se il sistema lineare ottenuto ammette una ed una sola soluzione,
ripettivamente ammette più di una soluzione.
1 0
.. ..
Esempio 2.6. Siano e1 = . , · · · , en = . vettori di Kn . Ogni
0 1
x1
..
vettore X = . ∈ Kn è combinazione lineare di e1 , . . . , en . Infatti
xn
x1 1 0
X = ... = x1 .. + · · · + x .. = x e + · · · + x e .
. n . 1 1 n n
xn 0 1
α1 e1 + · · · + αn en = 0Kn ,
allora
α1 0
.. .. ,
. = .
αn 0
ovvero α1 = · · · = αn .
30
Osservazione 2.7.
2.8 Matrici
Definizione 2.9. Una matrice, reale o complessa, di formato m×n è una ta-
bella rettangolare di numeri reali oppure complessi con m righe e n colonne.
Quindi mn elementi del tipo:
a11 · · · a1n
.. .. = (a )
. . ij 1 ≤ i ≤ m ,
1≤j ≤n
am1 · · · amn
Esempio 2.10.
1 0 3
A= ∈ M2×3 (R)
0 1 3
a11 = 1, a12 = 0, a13 = 3, a21 = 0, a22 = 1, a23 = 3
31
Sia A ∈ Mm×n (K). Allora
a11 a1n
A1 = ... , . . . , An = ...
am1 amn
Esempio 2.12.
1 −56 3
A = 5 11 3 ∈ M3×3 (R).
2 1 −99
λA := (λaij ) 1≤i≤m
1≤j ≤n
32
1 0 3 2 1 3
Se A = ,B = ∈ M2×3 (R), allora
0 1 3 9 0 −3
1+2 0+1 3+3 3 1 6 −3 0 −9
A+B = = , −3A = .
0+9 1+0 3−3 9 1 0 0 −3 −9
0 ··· 0
A;
e) (λ + µ)A = λA + µA;
f ) λ(A + B) = λA + λB;
Notazione: A − B := A + (−1)B.
Sia A ∈ Mm×n (K). La trasposta di A è una matrice AT ∈ Mn×m (K)
cosı̀ definita:
AT = (aji ) 1 ≤ j ≤ n ,
1≤i≤m
33
a) (A + B)T = AT + B T ;
b) (λA)T = λAT ;
c) (AT )T = A.
A = (aij ) 1≤i≤m ,
1≤j ≤n
L’aggiunto di A è data da
1 − i −i
A∗ = −i 1 .
3 + i −i
a) (A + B) = A + B;
b) (λA) = λA;
c) A = A;
d) (A + B)∗ = A∗ + B ∗ ;
e) (λA)∗ = λA∗ ;
f ) (A∗ )∗ = A;
34
Sia A = (aij ) 1≤i≤n ∈ Mn×n (K). Gli elementi a11 , · · · , ann si dicono
1≤j ≤n
elementi sulla diagonale principale.
a11 ∗ · · · ∗
.. ..
. a22 .
.. ..
..
. . .
∗ ··· ··· ann
35
(aij ) 1≤i≤n , è triangolare superiore, i.e.,
1≤j ≤n
∗ ∗ ··· ∗
0 ∗ ··· ∗
,
.. .. ..
. . .
0 ··· 0 ∗
Sia λ ∈ K. Allora
∗ 0 ··· 0 λ∗ 0 ··· 0
∗ ∗ ··· 0 λ∗ λ∗ ··· 0
λ . = .
.. .. .. .. ..
.. . . . . .
∗ ··· ∗ ∗ λ∗ · · · λ∗ λ∗
36
allora
∗ ∗ ··· ∗
∗ ∗ ··· ∗
AT = .. ..
.
. .
· ∗
∗ ··· ∗ ∗
Quindi la diagonale principale di A coincide con la diagonale principale di
AT .
Sia A ∈ Mn×n (R). Diremo che A è simmetrica se A = AT . Diremo
che A è antisimmetrica se A = −AT . Se A = (aij ) 1 ≤ i ≤ n , allora A è
1≤j ≤n
simmetrica, rispettivamente antisimmetrica, se e solamente se aij = aji ,
rispettivamente aij = −aji , per ogni 1 ≤ i, j ≤ n. Poiché la diagonale
principale di A coincide con la diagonale principale di AT , si ha che gli
elementi sulla diagonale principale di una matrice antisimmetrica sono tutti
nulli.
1 1 0 1
Esempio 2.18. La matrice è simmetrica mentre è
1 2 −1 0
antisimmetrica.
L’insieme delle matrici simmetriche, rispettivamente antisimmetriche, è
chiuso rispetto alla somma e moltiplicazione per scalare. Vediamo, per esem-
pio che la somma di due matrici simmetriche è ancora una matrice simmetri-
ca e che moltiplicando una matrice antisimmetrica per uno scalare ottengo
ancora una matrice antisimmetriche.
Siano A, B ∈ Mn×n (R) tali che A = AT e B = B T . La tesi è che
(A + B)T = A + B. Applicando le proprietà della trasposta si ha
(A + B)T = AT + B T = A + B.
Sia A ∈ Mn×n (R) antisimmetrica e sia λ ∈ R. L’ipotesi è A = −AT mentre
la la tesi è (λA)T = −λA.
(λA)T = λAT = −λA.
Diremo che una matrice a coefficienti complessi A ∈ Mn×n (C) è Hermitiana
(auto-aggiunta), rispettivamente anti-Hermitiana (anti-autoggiunta) se A =
A∗ , rispettivamente A = −A∗ . Quindi se A = (aij ) 1 ≤ i ≤ n è Hermitiana,
1≤j ≤n
rispetteviamente anti-Hermitiana, allora aij = aji , rispettivamente aij =
−aji . In particolare se A è Hermitiana, rispettivamente anti-Hermitiana,
gli elementi sulla diagonaole principale sono numeri reali, rispettivamente
immaginari puri.
37
1 1+i
Esempio 2.19. La matrice è Hermitiana mentre la ma-
1 − i −4
−i 1 − 3i
trice è anti-Hermitiana.
−1 − 3i 7i
La somma di matrici Hermitiane, rispettivamente anti-Hermitiane, è an-
cora una matrice Hermitiana, rispettivamente anti-Hermitiana. Tuttavia,
l’insieme delle metrici Hermitiane (anti-Hermitiane) non è chiuso rispet-
to alla moltiplicazione per scalare. Infatti è possibile dimostrare che una
matrice A è Hermitiana se e solamente se iA è anti-Hermitiana.
Definizione 2.20. Sia A ∈ Mn×n (K). La traccia di A è la somma degli
elementi sulla diagonale principale. Se A = (aij ) 1 ≤ i ≤ n , allora Tr(A)=
1≤j ≤n
Pn
i=1 aii ∈ K.
p
X
cij = aim bmj .
m=1
Esempio 2.22.
−1 2
1 0 2 2 −3 −6
0 = .
0 2 −3 7 12
−1 −4
38
Il prodotto definisce un’applicazione
Può succedere che la matrice AB sia definita mentre BA non sia definita.
Per esempio se A ∈ M3×4 (R) e B ∈ M4×2 (R), allora AB è definita mentre
BA no. Se A ∈ Mn×m (K) e B ∈ Mm×n (K), con n 6= m, allora le matrici
AB e BA non sono confrontabili. La domanda se il produtto di due matrici
è commutativo ha senso solo se consideriamo matrici quadrate dello stes-
so ordine. Il prossimo esempio dimostra che il prodotto di matrici non è
commutativo.
0 1 1 0
Esempio 2.23. Siano A = ,C= . Allora:
0 0 0 0
0 1
• CA = = A;
0 0
0 0
• AC = ;
0 0
0 0
• AA = ;
0 0
• CC = C;
a) A Idn = A e Idn B = B;
b) A(BD) = (AB)D;
c) A(B + C) = AB + AC;
d) (B + C)D = BD + CD;
39
f ) (AB)T = B T AT ;
g) se K = C, allora (AB)∗ = B ∗ A∗ .
n
X
(AB)ij = ail blj ,
l=1
dove (AB)ij indica l’elemente che sta sulla i-esima riga e la j-esima colonna
della matrice AB, si ha
n
X n
X
cij = (AB)ji = ajl bli = bTil aTlj = (B T AT )ij ,
l=1 l=1
dove (B T AT )ij indica l’elemento della matrice AB che si trova sulla j riga
e i colonna, rispettivamente la i riga e la j esima colonna. Quindi (AB)T =
B T AT .
(AB)k = AB k .
Infatti
Pp
l=1 a1l blk
.. a11 · · · ··· a1p b1k
. .. .. .. ..
p . . . .
(AB)k = = AB k
P
l=1 ail blk
=
.. ..
.. ..
.. . . . .
Pp .
am1 · · · ··· amp bpk
l=1 aml blk
40
Analogamente, se 1 ≤ k ≤ m, si ha
(AB)k = Ak B.
Infatti
Pp Pp Pp
(AB)k = l=1 akl bl1 ··· l=1 akl bli ··· l=1 akl bln
b11 · · · ··· b1n
.. . . ..
. . .
= ak1 · · · ··· akp
.. .. ..
= Ak B
. . .
bp1 · · · ··· bpn
1 0
.. ..
Siano e1 = . , . . . , en = . ∈ Kn e sia A ∈ Mm×n (K). Allora
0 1
a11 · · · a1i · · · a1n
a21 · · · a2i · · · a2n a1i
..
.. .. .. .. .. . i
Aei = .
. . . . = .. = A
.. .. .. .. .. .
. . . . .
ami
am1 · · · ami · · · amn
1 0
.. ..
Siano e1 = . , . . . , em = . ∈ Km . Allora
0 1
eTi A = Ai ,
per i = 1, . . . , m.
Proposizione 2.27. Sia A ∈ Mm×p (K) e B ∈ Mp×m (K). Allora Tr(AB) =
Tr(BA).
Dimostrazione.
X p
m X p X
X m
Tr(AB) = akj bjk = bkj ajk
k=1 j=1 j=1 k=1
= Tr(BA).
41
2.28 Matrici invertibili
Definizione 2.29. Una matrice A quadrata di ordine n si dice invertibile
se esiste un matrice B quadrata di ordine n tale che AB = BA = Idn .
Proposizione 2.30.
c) (A−1 )−1 = A
AB = BA = AB 0 = B 0 A = Idn .
Allora
B = BIdn = B(AB 0 ) = (BA)B 0 = B 0 .
Le rimanenti proprietà sono lasciate per esercizio.
42
Se A è una matrice invertibile, e n ∈ Z negativo, definiamo
An := (A−1 )−n .
È facile verificare che per ogni n, m ∈ Z si ha An+m = An Am = Am An .
Definizione 2.32. Una matrice A ∈ Mn×n (R) si dice ortogonale se AT =
A−1 ,ovvero AAT = AT A = Idn
Definizione 2.33. Una matrice A ∈ Mn×n (C) si dice unitaria se AA∗ =
A∗ A = Idn .
Il prodotto di matrici ortogonali, rispettivamente unitarie, è ancora una
matrice ortogonale, rispettivamente una matrice unitaria. L’inversa di una
matrice ortogonale, rispettivamente unitaria, è ancora una matrice ortogona-
le, rispettivamente unitaria. Invece la somma di matrici ortogonali, rispetti-
vamente unitarie, non è un generale una matrice ortogonale, rispettivamente
unitaria.
2.34 Determinante
Ad ogni matrice quadrata A ∈ Mn×n (K), dove K = R oppure C, possia-
mo associare un scalare, chiamato il determinante di A, definito come segue:
se A = (a) ∈ M1×1 (K), allora det(A) = a. Supponiamo di averlo definito
per matrici di ordine n − 1. Definiamo
n
X
det(A) = (−1)j+1 aj1 det(Aj1 ) ∈ K,
j=1
43
c) Se
a11 ∗ · · · ∗
0 a22 · · · ∗
A= ,
.. .. ..
. . .
0 ··· 0 ann
è triangolare superiore, allora det A = a11 · · · · · · ann .
1 det(A) = det(AT );
3
det(A1 , . . . , Ai + B i , . . . , An ) = det(A1 , . . . , Ai , . . . An )
+ det(A1 , . . . , B i , . . . , An ),
7 [3] e [2] implicano che il valore del determinante non cambia sommando
ad una colonna un multiplo di un altra colonna. Ovvero, se A =
(A1 , . . . , An ) allora per ogni 1 ≤ i, j ≤ n, i 6= j e λ ∈ K si ha
Osservazione 2.36.
• det(Idn ) = 1;
44
• si può dimostrare che le proprietà [1], . . . , [7] valgano anche per le
righe;
• da [1] segue che il determinante si può sviluppare rispetto alla 1 riga.
Si può dimostrare che il determinante si può sviluppare rispetto alla
k−esima colonna, i.e.,
n
X
det(A) = (−1)j+k ajk det(Ajk ),
j=1
45
Corollario 2.40. Se A è una matrice unitaria, allora | det(A)| = 1.
Dimostrazione.
46
Proposizione 2.45. Il rango di una matrice non cambia se si effetuano
operazioni elementari di righe, rispettivamente colonne.
Idea. Sia A ∈ Mn×m (K) e sia à la matrice ottenuta attraverso una operazio-
ne elementare sulle righe, rispettivamente colonne, di A. Sia M un minore
di Ã. Allora M è anche un minore di A oppure è un minore di A sul quale è
stato effettuata una operazione elementare di riga, rispettiavemente colon-
na. Quindi il valore del determinante o rimane inalterato oppure cambia di
segno. Quindi il rango per minore non cambia.
47
si dice una matrice ridotta a scala. I numeri s1j1 , . . . , sr,jr sono non nulli
e si chiamano perni, pivot, oppure elementi di testa. Il numero dei perni
coincide con il numero di righe differenti di zero.
Esempio 2.49.
0 1 2 3 4 5
0 0 0 1 −1 1
S=
0 0 0 0 1 1 ∈ M5×6 (R)
0 0 0 0 0 0
0 0 0 0 0 0
Proposizione 2.50. Sia S ∈ Mm×n (K) una matrice ridotta a scala. Allora
rg(S) è uguale al numero di righe differenti da zero o equivalentemente al
numero di perni. Inoltre le colonne corrispondenti ai perni sono vettori
linearmente indipendenti.
48
Sia, nuovamente, M il minore formato di formato r × r ottenunto da A
eliminando le ultime m − r righe, ovvero
s1j1 ∗ ··· ··· ∗
0 s2j
2 ∗ ··· ∗
.. . .. ..
M = . 0 . .
.. .. .. .. ..
. . . . .
0 ··· ··· ··· srjr
Poiché srjr , . . . , s1j1 sono tutti non nulli si ha che det M 6= 0, ovvero rg(A) ≥
r. Poiché A ∈ Mm×r (K), si ha che rg(A) = r e quindi S j1 , . . . , S jr sono
linearmente indipendenti.
Teorema 2.51. Ogni matrice A può essere ridotta in forma a scala me-
diante operazioni elementari di righe.
49
Quindi
0 ··· 0 a1j1 ∗ ··· ∗
.. ..
. . 0
A=
.. .. ..
. . . B
..
. ··· 0 0
dove B ∈ Mm−1×(n−(j1 +1)) (R). Se B è la matrice nulla oppure A ∈ M1×n (R),
allora ho finito. Altrimenti ripeto lo stesso procedimento per la matrice B.
Dopo un numero finito di passi, arriviamo ad una matrice le cui ultime ri-
ghe sono nulle; oppure in cui l’ultimo elemento di testa appartiene all’ultima
riga. In entrambi i casi abbiamo ridotto a scala la matrice di partenza A.
Corollario 2.52. Sia A una matrice ed S una sua riduzione a scala. Allora
rg(A) = rg(S), ovvero è uguale al numero di elementi di testa di una sua
riduzione a scala; è uguale al numero di righe non nulle di una sua riduzione
a scala.
50
Capitolo 3
Spazi Vettoriali
V × V −→ V K × V −→ V
a) u + (v + w) = (u + v) + w;
b) v + w = w + v;
c) ∃0 ∈ V tale che 0 + v = v + 0 = v;
d) ∀v ∈ V , ∃v 0 ∈ V tale che v + v 0 = v 0 + v = 0;
e) λ(v + w) = λv + λw;
f ) (λ + µ)v = λv + µv;
h) 1v = v, per ogni v ∈ V ;
51
Proposizione 3.3. Sia V uno spazio vettoriale su K. Allora:
• ∃!0 ∈ V tale che per ogni v ∈ V si ha v + 0 = 0 + v = v;
• per ogni λ ∈ K si ha λ0 = 0;
0 = 0 + 00 = 00 .
0v = (0 + 0)v = 0v + 0v.
0v = 0.
52
x1 y1
Ricordiamo che se X = ... , Y =
..
. , allora X = Y se x1 =
xn yn
y1 , . . . , xn = yn . È possibile definire una somma e una moltiplicazione per
scalare come segue:
x1 + y1
a) X + Y = ..
;
.
xn + yn
λx1
b) λX =
.. ,
.
λxn
n
Nelle sezioni precedenti abbiamo provato che (R ·) è uno spazio vetto-
, +,
0
riale su R. Il vettore nullo di Rn è il vettore ... . In maniera analoga,
0
sia
x1
n ..
C = . x1 , . . . , x n ∈ K ,
xn
x1
i.e., l’insieme delle n-ple ordinate di numeri complessi. Se X = ... , Y =
xn
y1
..
. ∈ Cn , allora X = Y se x1 = y1 , . . . , xn = yn . Definiamo:
yn
x1 + y1
a) X + Y = ..
;
.
xn + yn
λx1
b) λX = ... ,
λxn
53
ovvero una somma e una moltiplicazione per scalare. Nelle sezioni precedenti
abbiamo visto che (Cn , +, ·) è uno spazio vettoriale su C.
Sia Mm×n (K) l’insieme delle matrici di formato
m×n a coefficien-
a11 · · · a1n
.. .. e B =
ti in K. Siano A, B ∈ Mm×n (K). Se A = . .
am1 · · · amn
b11 ··· b1n
.. .. , diremo che A = B se a = b per ogni 1 ≤ i ≤ m, e
. . ij ij
bm1 · · · bmn
1 ≤ j ≤ n.
Abbiamo visto che è possibile definire su Mm×n (K) una somma e una
moltiplicazione per scalare come segue.
Se A = (aij ) 1 ≤ i ≤ m , B = (bij ) 1 ≤ i ≤ m e λ ∈ K, allora
1≤j ≤n 1≤j ≤n
λA := (λaij ) 1≤i≤m
1≤j ≤n
K[x] := {a0 + a1 x + · · · + an xn : a0 , . . . , an ∈ K, n ∈ N}
Siano v, w ∈ K[x]. Se v = a0 + a1 x + · · · + an xn e w = b0 + b1 x + · · · + bm xm ,
allora diremo che v = w se e solamente se n = m e a0 = b0 , . . . , an = bn .
Somma e moltiplicazione per scalare sono cosı̀ definite.
Se m > n, allora possiamo scrivere v = a0 + a1 x + · · · + an xn + 0xn+1 +
· · · + 0xm . Analogamente se m < n, allora possiamo scrivere w = a0 +
a1 x + · · · am xm + 0xm+1 + · · · + 0xn . Quindi possiamo supporre che n = m
e definire
Per esempio,
(x+2x3 +x4 +5x5 )+(1−3x+2x2 −x3 +x4 +x6 ) = 1−2x+2x2 +x3 +2x4 +5x5 +x6 ,
54
Sia Kn [x] = {a0 + a1 x + · · · + an xn : a0 , . . . , an ∈ K} l’insieme dei
polinomi di grado minore oppure uguale a n. Le operazione
55
Esempio 3.7.
p : K −→ K α 7→ p(α) = a0 + a1 α + · · · + an αn .
w = λ 1 v1 + · · · + λ s vs .
π : X = tv + sw, s, t ∈ R, v × w 6= 0,
56
Osservazione 3.10. Siano w, w1 , . . . , wk ∈ V . Allora w è combinazione
lineare di w1 , . . . , wk se e solamente se w ∈ L(w1 , . . . , wk ).
v + w = α1 v1 + · · · + αs vs + β1 v1 + · · · + βs vs
= (α1 + β1 )v1 + · · · + (αs + βs )vs ∈ L(v1 , . . . , vs )
e
λv = λα1 v1 + · · · + λαs vs ∈ L(v1 , . . . , vs ).
L(w1 , . . . , wk ) = {α1 w1 + · · · + αk wk : α1 , . . . , αk ∈ K} ⊆ W,
α1 w1 + · · · + αk wk ∈ W.
57
b) v1 , . . . , vs linearmente indipendenti se non sono linearmente dipenden-
ti, ovvero se
α1 v1 + · · · + αs vs = 0,
allora necessariamente α1 = · · · = αs = 0;
c) v1 , . . . , vs formano un sistema di generatori se L(v1 , . . . , vs ) = V . Se V
è generato da un numero finito di elementi, diremo che V è finitamente
generato.
1 1 0 2
0 1 1 1
Esempio 3.14. Sia V = R4 e siano 0 , −1 , −3 , −1 ∈
1 0 1 1
4
R . I vettori sono linearmente dipendenti se esistono α1 , . . . , α4 ∈ R non
tutti nulli tali che
1 1 0 2 0
0 1 1 1 0
α1 0 + α2 −1 + α3 −3 + α4 −1 = 0 ,
1 0 1 1 0
ovvero se e solamente se esistono α1 , α2 , α3 , α4 non tutti nulli tali che
α1 + α2 + 2α4 = 0
α2 + α3 + α4 = 0
.
−α2 − 3α3 − α4 = 0
α1 + α3 + α4 = 0
58
Esempio 3.16. Siano 1, x, . . . , xn ∈ Kn [x]. È facile verificare che L(1, x, . . . , xn ) =
Kn [x] e che 1, x, . . . , xn sono linearmente indipendenti, ovvero formano una
base di Kn [x].
59
Capitolo 4
(4.2) AX = b,
60
dove A ∈ Mm×n (K) è chiamata matrice incompleta oppure matrice dei coef-
ficienti, b vettore dei termini noti ed infine X vettore delle incognite. La
matrice (A|b) ∈ Mm×(n+1) (K) che si ottiene aggiungendo ad A il vetto-
re dei termini noti, si chiama la matrice completa. In questo linguaggio
Sol(A|b) = {X ∈ Kn : AX = b} è l’insieme delle soluzione del sistema
lineare AX = b.
Un sistema lineare AX = b si dice compatibile oppure risolubile se
x1
Sol(A|b) 6= ∅; incompatibile altrimenti. Sia X = ... e siano e1 =
xn
1 0
.. .. ∈ Kn . Poiché
. , . . . , en =
.
0 1
X = x1 e 1 + · · · + xn e n ,
si ha
AX = A(x1 e1 + · · · + xn en )
= x1 Ae1 + · · · + xn Aen
= x 1 A1 + · · · + x n An ,
L(A1 , . . . , An , b) = L(A1 , . . . , An ).
L(A1 , . . . , An , b) ⊇ L(A1 , . . . , An ).
61
Proposizione 4.3. Sia AX = 0 un sistema lineare omogeneo. Allora
Sol(A|0) = {X ∈ Kn : AX = 0} è un sottospazio vettoriale di Kn .
A(X + Y ) = AX + AY = 0,
rispettivamente
A(λX) = λAX = 0.
Quindi X +Y, λX ∈ Sol(A|0) per ogni X, Y ∈ Sol(A|0) e per ogni λ ∈ K.
A(Xo + W ) = AXo + AW = b + 0 = b,
62
Osservazione 4.7. Sia AX = b un sistema lineare. Se scambio due righe
alla matrice (A|b) ottengo una matrice (A0 |b0 ) ed il sistema A0 X = b0 è
equivalente al sistema AX = b.
Definizione 4.8. Date due equazioni a1 x1 + · · · + an xn = a e b1 x1 + · · · +
bn xn = b, si dice combinazione lineare delle due equazioni a coefficienti
h, k ∈ K, l’equazione
a1 x1 + · · · + an xn = a
.
b1 x1 + · · · + bn xn = b
h(a1 x1 + · · · + an xn ) + k(b1 x1 + · · · + bn xn ) = ha + kb
al posto dell’equazione
b1 x1 + · · · + bn xn = b ,
a1 x1 + · · · + an xn = a
.
b1 x1 + · · · + bn xn = b
xn
le equazioni del sistema BX = d˜ poiché l’unica equazione differente è una
63
x1
combinazione delle prime due. Viceversa, se ... è soluzione del sistema
xn
x1
˜ allora ..
BX = d, . soddisfa sicuramente tutte le equazioni di AX = d
xn
tranne la seconda. Poiché vale
a1 x1 + · · · + an xn = a
ha + k(b1 x1 + · · · + bn xn ) = ha + kb.
Essendo k 6= 0 si ha b1 x1 + · · · + bn xn = b.
Esempio 4.12.
x1 + x2 − x3 = 2
x2 − x4 = 0
x3 + x4 = 8
64
è un sistema ridotto a scala poiché la matrice incompleta ha la forma
1 1 −1 0
S= 0 1 0 −1
0 0 1 1
Proposizione 4.13. Sia SX = c un sistema ridotto a scala, dove S ∈
Mm×n (K), con rg(S) = r. Il sistema SX = c è compatibile se e solamente
se m = r, oppure le ultime m−r coordinante del vettore c sono nulle. Inoltre
le soluzioni, se esistono, dipendono da n − rg(S) parametri.
Dimostrazione. Sia SX = c un sistema ridotto a scala. La matrice completa
ha la forma
0 ··· 0 s1j1 ∗ ∗ ··· ··· ∗ ··· ··· ··· ∗ ∗ c1
0 ··· ··· ··· 0 s2j2 ∗ ∗ ∗ ··· ··· ··· ∗ ∗ c2
0 ··· ··· ··· ··· ··· 0 s3j3 ∗ ∗ ··· ··· ··· ∗ c3
.. .. ..
. ··· ···
··· ··· ··· ··· 0 . ··· ··· ··· ··· ∗ .
.. .. ..
. ··· ···
··· ··· ··· ··· ··· 0 . ··· ··· ∗ ∗ .
0 ··· ··· ··· ··· ··· ··· ··· ··· 0 srjr ··· ··· ∗ cr
0 ··· ··· ··· ··· ··· ··· ··· ··· ··· 0 0 ··· 0 cr+1
. .. .. .. ..
..
. . . .
.. .. ..
. ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· . .
0 ··· ··· ··· ··· ··· ··· ··· ··· 0 0 ··· ··· 0 cm
La condizione, m = r oppure le ultime m − r coordinante del vettore c sono
nulle è sicuramente necessaria. Dobbiamo dimostrare che questa condizione
è anche sufficiente. Supponiamo che le ultime m − r coordinate siano nulle.
L’altro caso è analogo. Allora la matrice completa è cosı̀ siffatta.
0 · · · 0 s1j1 ∗ ∗ ··· ··· ∗ · · · · · · · · · ∗ ∗ c1
0 ··· ··· ··· 0 s2j2 ∗ ∗ ∗ · · · · · · · · · ∗ ∗ c2
0 ··· ··· ··· ··· ··· 0 s3j3 ∗ ∗ · · · · · · · · · ∗ c3
.. . . . · · · · · · · · · · · · ∗ ...
. ··· ··· ··· ··· ··· ··· 0
.. .. .
. · · · · · · ∗ ∗ ..
. ··· ··· ··· ··· ··· ··· ··· 0
0 · · · · · · · · · · · · · · · · · · · · · · · · 0 srjr · · · · · · ∗ cr
0 ··· ··· ··· ··· ··· ··· ··· ··· ··· 0 0 ··· 0 0
. . .. .. ..
.. ..
. . .
.. . .
. · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · .. ..
0 ··· ··· ··· ··· ··· ··· ··· ··· 0 0 ··· ··· 0 0
65
L’elemento srjr è differente di zero. Quindi possiamo scrivere la variabile
xjr = s−1
rjr (cr − srjr +1 xjr +1 − · · · − srn xn )
66
Corollario 4.16. Sia A ∈ Mm×n (K) e sia AX = b un sistema lineare. Se
il sistema AX = b è compatibile, allora Il sistema AX = b ammette una ed
una sola soluzione se e solamente se rg(A) = n.
xn
per i = 1, . . . , n.
67
Se A è invertibile allora rg(A) = n. Poiché (A|b) ∈ Mn×(n+1) (K), si ha
n = rg(A) ≤ rg(A|b) ≤ n,
ovvero rg(A) = rg(A|b) = n. Applicando il Teorema di Rouché-Capelli, il
sistema è compatibile
ed ammette una ed una sola soluzione.
x1
Sia X = ... l’unica soluzione del sistema AX = b. Poiché
xn
x1 A1 + . . . + xn An = b,
si ha
n
X
det(A1 , . . . , Ai−1 , b, Ai+1 , . . . , An ) = det(A1 , . . . , Ai−1 , xm Am , Ai+1 , . . . , An )
m=1
n
X
= xm det (A1 , . . . , Ai−1 , Am , Ai+1 , . . . , An )
| {z }
m=1
i
= xi det A.
Poiché det A 6= 0 si ha la tesi.
αs
68
Quindi il vettore Z è combinazione lineare di X1 , . . . Xs se e solamente se il
sistema lineare AX = Z è compatibile, ovvero se e solamente se
rg(A) = rg(A|Z).
69
d
d0
e con h = d00 , allora i punti di r ∩ s soddisfano il seguente sistema
d000
lineare
AX = h,
x
dove X = y . Poiché una retta è intersezioni di due piano non paralleli,
z
il rango della matrice A può essere 2 oppure 3. Applicando il Teorema di
Rouché-Capelli, otteniamo
det(A|h) 6= 0.
e sia
a b c d
(A|d) = ∈ M2×4 (R)
a0 b0 c0 d0
Quindi π ∩ π 0 = Sol(A|d). Poiché A ∈ M2×3 (R), la matrice A può avere
rango 1 oppure 2. Applicando il teorema di Roucyhé-Capelli si ha i seguenti
casi:
70
Siano π : ax + by + cz = d un piano e
0
a x + b0 y + c0 z = d0
r= ,
a00 x + b00 y + c00 z = d00
una retta nello spazio. Un vettore P ∈ r ∩ π se e solamente se il sistema
AX = h
dove
a b c
A = a0 b0 c0 ∈ M3×3 (R)
a00 b00 c00
e
d
h = d0 ,
d00
è compatibile. Il rango della matrice A può essere 2 oppure 3. Applicando
Rouché-Capelli, si ha:
a) rg(A) = 2. Se rg(A|h) = 2, allora il sistema è compatibile e la retta
è contenuta nel piano; se rg(A|h) = 3, allora le retta è parallela al
piano;
b) rg(A) = 3, allora anche rg(A|h) = 3 e quindi il piano π e la retta r
sono incidenti.
Utilizzando la notazione anteriore, proviamo i seguenti risultati.
Corollario 4.22. r ⊂ π se e solamente se π : α(a0 x + b0 y + c0 z − d0 ) +
β(a00 x + b00 y + c00 z − d00 ) = 0 con α, β ∈ R non entrambi nulli.
Dimostrazione. La retta r è contenuta nel piano π se e solamente se il siste-
ma ammette soluzione e le soluzioni dipendono da un parametro, quindi se e
solamente se rg(A) = rg(A|h) = 2. Poiché le ultime due righe della matrice
(A|h) sono linearmente indipendenti, si ha che la prima riga è combinazione
lineare della seconda e della terza, da cui segue la tesi.
71
Capitolo 5
0 1
base C = {e1 , . . . , en } è chiamata la base canonica;
1 0 0 1 0 0 0 0
b) siano , , , ∈ M2×2 (R). Poiché
0 0 0 0 1 0 0 1
a b 1 0 0 1 0 0 0 0
=a +b +c +d
c d 0 0 0 0 1 0 0 1
1 0 0 1 0 0 0 0
si ha che i vettori , , , formano
0 0 0 0 1 0 0 1
una base di M2×2 (R);
c) sia Eij ∈ Mm×n (K) la matrice i cui elementi sono tutti nulli tranne
l’elemento aij = 1. È facile provare che B = {Eij , 1 ≤ i ≤ m, 1 ≤ j ≤
n} è una base di Mm×n (K);
72
d) i polinomi {1, x, . . . , xn } formano una base di Kn [x];
1 1 1
e) i vettori 0 , 1 , 1 , formano una base di R3 . Infatti, sia
0 0 1
x
y ∈ R3 . Allora
z
x 1 1 1
y = α 0 + β 1 + γ 1 ,
z 0 0 1
se il sistema
1 1 1 x
0 1 1 y ,
0 0 1 z
1 1 1
è compatibile. Poiché la matrice 0 1 1 è inveritible, applicando
0 0 1
il Teorema di Cramer si ha che il sistema è compatibile
ed ammette
1 1 1
una ed una sola soluzione. Quindi i vettori 0 , 1 , 1 sono
0 0 1
linearmente indipendenti e formano un sistema di generatori.
1 0 0 1 0 1 0 0
f) i vettori , , , formano una base
0 0 1 0 −1 0 0 1
di M2×2 (R). Infatti,
a b 1 0 0 1 0 1 0 0
=α +β +γ +δ
c d 0 0 1 0 −1 0 0 1
se e solamente se il sistema
α = a
β+γ = b
,
β−γ = c
δ = d
73
quindi invertible, applicando Il Teorema di Cramer si ha che
il sistema
1 0 0 1
ammette una ed una soluzione. Quindi i vettori , ,
0 0 1 0
0 1 0 0
, formano una base di M2×2 (R).
−1 0 0 1
v = λ1 v1 + · · · + λn vn = α1 v1 + · · · + αn vn .
Allora
0 = (λ1 − α1 )v1 + · · · + (λn − αn )vn .
Essendo B = {v1 , . . . , vn } un insieme di vettori linearmente indipendenti, ne
segue che
α1 = λ1 , . . . , αk = λk .
Viceversa, supponiamo che ogni elemento si scrive in maniera unica co-
me combinazione lineare dei vettori v1 , . . . , vn . Vogliamo provare che B =
{v1 , . . . , vn } è una base di V , ovvero i vettori v1 , . . . , vn formano un sistema
di generatori e sono vettori linearmente indipendenti.
Sia v ∈ V . Poiché ogni elemento si scrive come combinazione lineare dei
vettori v1 , . . . , vn , esistono α1 , . . . , αn ∈ K tali che v = α1 v1 + · · · + αn vn .
Quindi v ∈ L(v1 , . . . , vn ) da cui segue che
L(v1 , . . . , vn ) = V.
74
Definizione 5.4. Sia v ∈ V e sia B = {v1 , . . . , vn } una base di V . Le
coordinate di v rispetto a B sono gli unici scalari x1 , . . . , xn ∈ K tali che
v = x1 v1 + · · · + xn vn .
x1
Indicheremo con [v]B = ... ∈ Kn le coordinate di v rispetto a B.
xn
1 1 1
Esempio 5.5. I vettori B = 0 , 1 , 1 , formano una base
0 0 1
di R3 . Vogliamo calcolare le coordinate di un vettore rispetto alla base B.
Quindi dobbiamo calcolare α, β, γ ∈ R tali che
x 1 1 1
y = α 0 + β 1 + γ 1 ,
z 0 0 1
ovvero risolvere il sistema
1 1 1 x
0 1 1 y .
0 0 1 z
Il sistema è già ridotto a scala. Applicando il metodo della risoluzione
all’indietro si ha
γ=z
β =y−z ,
α=x−y
ovvero
x 1 1 1
y = (x − y) 0 + (y − z) 1 + z 1 .
z 0 0 1
x x−y
Quindi y = y − z .
z B z
Sia B = {v1 , . . . , vn } una base di V . Indicheremo con
FB : V −→ Kn v 7→ [v]B
l’applicazione che associa ad ogni vettore le sue coordinate rispetto alla
base B. Tale applicazione è iniettiva e suriettiva, ovvero una trasformazione
biunivoca che soddisfa alle seguenti proprietà:
75
• se v, w ∈ V , allora v = w se e solamente se [v]B = [w]B ;
0
..
• [0V ]B = . ;
0
• [v + w]B = [v]B + [w]B ;
• [λv]B = λ[v]B ;
• Sia {e1 , . . . , en } la base canonica di Kn . Allora [vj ]B = ej , per j =
1, . . . , n.
La prima proprietà è una diretta conseguenza dell’iniettività dell’applica-
zione FB . Infatti, v = w se e solamente se FB (v) = FB (w) quindi se e
solamente se [v]B = [w]B .
0
..
Poiché 0V = 0v1 + · · · + 0vn , si ha [0V ]B = . .
0
Siano v, w ∈ V . Allora
v = x1 v1 + · · · + xn vn ,
rispettivamente
w = y1 v 1 + · · · + yn v n .
Quindi
v + w = (x1 + y1 )v1 + · · · + (xn + yn )vn ,
ovvero
(x1 + y1 ) x1 y1
[v + w]B = .. .. + .. = [v] + [w] .
=
. . . B B
(xn + yn ) xn yn
Se
v = x1 v1 + · · · + xn vn ,
allora
λv = λx1 v1 + · · · + λxn vn .
Quindi
λx1 x1
[λv]B = ... = λ .. = λ[v] .
. B
λxn xn
76
Sia v1 ∈ V . Allora
v1 = 1v1 + 0v2 + · · · + 0vn .
1
..
Quindi [v1 ]B = . = e1 . In maniera analoga,
0
77
Dimostrazione. Siano w1 , . . . , wk linearmente dipendenti. Allora esistono
α1 , . . . , αk ∈ K non tutti nulli tali che α1 w1 + · · · + αk wk = 0V . Quindi
0Kn = FB (0V )
= FB (α1 w1 + · · · + αk wk )
= α1 FB (w1 ) + · · · + αk FB (wk )
= α1 [w1 ]B + · · · + αk [wk ]B ,
Quindi
Poiché FB è biunivoca, si ha
α1 w1 + · · · + αk wk = 0V .
v = β1 w1 + · · · + βk wk .
78
1 1 1 2 0 −3
Esempio 5.7. Vogliamo stabilire se i vettori , , ∈
0 1 0 −1 1 2
M2×2 (R) sono linearmente indipendenti. Abbiamo dimostrato che
1 0 0 1 0 0 0 0
B= , , ,
0 0 0 0 1 0 0 1
79
lineare degli altri, ovvero, esiste 1 ≤ j ≤ n tale che
vj ∈ L(v1 , . . . , vj−1 , vj+1 , . . . , vn ).
Inoltre
L(v1 , . . . , vn ) = L(v1 , . . . , vj−1 , vj+1 , . . . , vn ).
Dimostrazione. Supponiamo che v1 , . . . , vn siano linearmente dipendenti.
Esistono λ1 , . . . , λn ∈ K non tutti nulli, tali che λ1 v1 + · · · + λn vn = 0.
Supponiamo che λj 6= 0. Allora dall’equazione
λ1 v1 + · · · λj vj + · · · + λn vn = 0
|{z}
posso portare al secondo membro tutti i termini, tranne λj vj , e poi dividire
per λj , ottenedo
vj = (−λ−1 −1 −1 −1
j λ1 )v1 +· · ·+(−λj λj−1 )vj−1 +(−λj λj+1 )vj+1 +· · ·+(−λj λn )vn .
80
Proposizione 5.9. Sia V uno spazio vettoriale che ammette un numero
finito di generatori. Allora V ammette una base.
Quindi
0 = α1 w1 + · · · + αm wm
Xm
= αj wj
j=1
m X
X n
= αj akj vk
j=1 k=1
n
X Xm
= akj αj vk .
k=1 j=1
81
Consideriamo il seguente sistema lineare:
Pm
j=1 a1j αj = 0
..
Pm .
a αj = 0
j=1 nj
Adesso,
m m n
!
X X X
α j wj = αj akj vk
j=1 j=1 k=1
n
X m
X
= akj αj vk
k=1 j=1
= 0,
82
Definizione 5.13. Sia V uno spazio vettoriale generato da un numero fi-
nito di elementi. Il numero dei vettori di una qualsiasi base di V si dice
dimensione di V .
Osservazione 5.14. Sia V uno spazio vettoriale su K di dimensione n.
Allora:
• n è il massimo numero di vettori di V linearmente indipendenti;
• se v1 , . . . , vm formano un sistema di generatori di V , allora n ≤ m.
Infine, se V = {0V }, ovvero uno spazio vettoriale formato solamente dal
vettore nullo, la sua dimensione è per definizione 0.
Esempio 5.15.
1 0
.. ..
a) i vettori e1 = . , . . . , en = . formano una base di Rn . Quindi
0 1
dim Rn = n;
1 0
.. ..
b) i vettori e1 = . , . . . , en = . formano una base di Cn . Quindi
0 1
n
dim C = n;
c) Sia Eij ∈ Mm×n (K) la matrice i cui elementi sono tutti nulli tranne
l’elemento aij = 1. È facile provare che B = {Eij , 1 ≤ i ≤ m, 1 ≤ j ≤
n} è una base di Mm×n (K). Quindi dim Mm×n (K) = mn.
d) i polinomi {1, x, . . . , xn } formano una base di Kn [x]. Quindi dim Kn [x] =
n + 1;
e) Sia V = A ∈ M2×2 (R) : A = AT , i.e., l’insieme delle matrici sim-
83
formano una base di V . Quindi dim V = 3.
Proposizione 5.16. Sia V uno spazoio vettoriale su K. Siano w1 , . . . , wm ∈
V e sia W = L(w1 , . . . , wm ). Indichiamo con k il massimo numero dei
vettori {w1 , . . . , wm } linearmente indipendenti. Allora dim W = k
Dimostrazione. Poiché k è il massimo numero dei vettori {w1 , . . . , wm } li-
nearmente indipendenti, esistono 1 ≤ j1 < · · · < jk ≤ m tali che i vettori i
vettori wj1 , . . . , wjk sono linearmente indipendenti. Vogliamo dimostrare che
W = L(wj1 , . . . , wjk ). Una inclusione è immediate, ovvero L(wj1 , . . . , wjk ) ⊆
W (perché?). Per dimostrare che W ⊆ L(wj1 , . . . , wjk ) è sufficiente dimo-
strare che wj ∈ L(wj1 , . . . , wjk ) per j = 1, . . . , n.
Se j = ji per un certo 1 ≤ i ≤ k, allora wj ∈ L(wj1 , . . . , wjk ). Supponia-
mo che j 6= ji . I vettori wj , wj1 , . . . , wjk sono linearmente dipendenti, poiché
sono k + 1 e k è il massimo numero dei vettori {w1 , . . . , wm } linearmente
indipendenti. Quindi esistono αj , αj1 , . . . , αjk ∈ K non tutti nulli tali che
Se αj = 0, allora
αj1 wj1 + · · · + αjk wjk = 0,
ovvero esisterebbe una combinazione lineare non banale dei vettori wj1 , . . . , wjk
uguale al vettore nullo. Assurdo perché i vettori wj1 , . . . , wjk sono linear-
mente indipendenti. Quindi αj 6= 0 da cui segue che
w1 , . . . , wn ∈ L(wj1 , . . . , wjk ),
ovvero
W = L(w1 , . . . , wn ) ⊆ L(wj1 , . . . , wjk ).
84
Facoltativa. Nella proposizione anteriore abbiamo dimostrato che la dimen-
sione del sottospazio L(v1 , . . . , vn ) è il massimo numero dei vettori {v1 , . . . , vn }
linearmente indipendenti.
Sia A = (v1 , . . . , vn ) ∈ Mm×n (K). Per definizione di rango di una matrice
si ha
dim L(v1 , . . . , vn ) = rg(A).
Adesso dimostreremo che il rango di una matrice non cambia se effettuo
operazioni elementari di colonna. La dimostrazione che il rango di una
matrice non cambia se effettuo operazioni elementari di riga è analogo.
Poiché rg(A) = dim (A1 , . . . , An ), è semplice dimostrare che il rango di
una matrice non cambia se scambio due colonne oppure se moltiplico una
colonna per un multiplo non nullo. Proviamo che il rango rimane invariato se
sommiamo ad una colonna un multiplo di una altro. Dobbiamo dimostrare
che per ogni 1 ≤ i 6= j ≤ n, e per ogni λ ∈ K, si ha L(A1 , . . . , An ) =
L(A1 , . . . , Ai + λAj , . . . , An ).
Poiché
A1 , . . . , Ai + λAj , . . . , An ∈ L(A1 , . . . , An ),
ne segue che
Viceversa, A1 , . . . , A
ci , . . . , An ∈ L(A1 , . . . , Ai + λAj , . . . , An ). Inoltre Ai =
(Ai + λAj ) − λAj ∈ L(A1 , . . . , Ai + λAj , . . . , An ) da cui segue che
85
Poiché n è il massimo numero di vettori linearmente indipendenti di V ,
allora v, v1 , . . . , vn sono linearmente dipendenti. Quindi esistono α, λ1 , . . . , λn
non tutti nulli tali che
αv + λ1 v1 + · · · + λn vn = 0.
86
Facoltativa. Poiché n = dim V è il massimo numero di vettori linearmente
indipendenti allora m ≤ n. Poiché B = {v1 , . . . , vn } è una base di V , si ha
L(v1 , . . . , vn ) = V da cui segue che
L(w1 , . . . , wm ) ⊆ L(v1 , . . . , vn ).
L(vj1 , w1 , . . . , wm ) = L(v1 , . . . , vn ),
87
Facoltativa. Abbiamo visto che Il sistema lineare AX = b è compatibile se
e solamente se b ∈ L(A1 , . . . , An ). Poiché L(A1 , . . . , An ) ⊆ L(A1 , . . . , An , b),
si ha b ∈ L(A1 , . . . , An ) se e solamente se L(A1 , . . . , An ) = L(A1 , . . . , An , b).
Riassumendo, abbiamo dimostrato che il sistema AX = b è compatibile se
e solamente se L(A1 , . . . , An ) = L(A1 , . . . , An , b) Applicando il corollario
anteriore, si ha che il sistema lineare AX = b è combatibile se e solamente
se dim L(A1 , . . . , An ) = dim L(A1 , . . . , An , b). Applicando il corollario 5.17
si ha che il sistema AX = b è compatibile se e solamente se rg(A) = rg(A|b).
α1 w1 + · · · + αk wk = w,
AX = w,
cr+1 = 0, . . . , cn = 0,
88
le quali definiscono equazioni cartesiane. Quindi,
1 −1 0
1 0 1 x1 A3 − A1 1 0 1 x1
0
1 1 x2 −→ 0
1 1 x2
1 1 2 x 3 A4 − A1 0 1 1 x3 − x1
1 −1 0 x4 −→ 0 −1 −1 x4 − x1
1 0 1 x1 A3 − A2 1 0 1 x1
0
1 1 x2
−→ 0 1 1
x2
0 1 1 x 3 − x 1 A4 + A2 0 0 0 x3 − x1 − x2
0 −1 −1 x4 − x1 −→ 0 0 0 x4 − x1 + x2
Il sistema lineare è compatibile se e solamente se x3 − x1 − x2 = 0 e
x4 − x1 + x2 = 0, ovvero
x1
x
2 4
W = ∈ R : x 3 − x 1 − x 2 = 0, x4 − x 1 + x2 = 0 .
x3
x4
89
Applicando l’algoritmo di Gauss alla matrice A = (X1 , . . . , Xk ) ∈
Mm×k (K) otteniamo una matrice S ∈ Mm×k (K) ridotta a scala. Siano
1 ≤ j1 < . . . < jk ≤ n tali che le colonne S j1 , . . . , S jk corrispondono
ai perni di S. Si può dimostrare che Xj1 , . . . , Xjk sono linearmente
indipendenti. Poiché k = rg(A), allora (Xj1 , . . . , Xjk ) formano una
base di W .
c) Siano X1 , . . . , Xk ∈ Kn linearmente indipendenti. Abbiamo dimostra-
to che possiamo completarli a base di Kn . Una possibilità è di trovare
n − k vettori Yk+1 , . . . , Yn ∈ Kn tali che
det(X1 , . . . , Xk , Yk+1 , . . . , Yn ) 6= 0.
Non abbiamo un algoritmo che ci guida nella scelta dei vettori da ag-
giungere. Tuttavia, il Teorema di completamento a base afferma che
possiamo completare a base i vettori indipendenti X1 , . . . , Xk aggiun-
gendo, per esempio, n − k vettori della base canonica.
Il metodo di Gauss, ci fornisce un algoritmo per completare a base i
vettori X1 , . . . , Xk linermente indipendenti.
Sia C = {e1 , . . . en } la base canonica di Kn e sia
v = x1 v1 + · · · + xn vn .
90
x1
Sia A = (v1 , . . . , vn ) ∈ Mn×n (K) e sia X = ... . Poiché
xn
v = x1 v1 + · · · + xn vn ⇐⇒ AX = v,
xn
Siano w1 , . . . , wk ∈ V . Allora:
91
li posso completare a base aggiungendo n − k vettori della base canonica
{e1 , . . . , en }. Quindi esistono ≤ j1 < . . . < jn−k ≤ n tale che
[w1 ], . . . , [wk ]B , ej1 , . . . , ejn−k ,
formano una base di Kn .
Tenendo in mente che FB (vj ) = ej per j = 1, . . . , n,
e che FB è biunivoca, non è difficile dimostrare che i vettori
w1 , . . . , wk , vj1 , . . . , vjn−k ,
formano una base di V .
Sia W = L(w1 , . . . , wk ) ⊆ V . Per calcolare una base possiamo seguire il
seguente procedimento.
Sia W 0 = L([w1 ]B , . . . , [wk ]B ). Noi sappiamo che dim W = dim W 0 =
rg([w1 ]B , . . . , [wk ]B ). Siano 1 ≤ j1 < · · · < jk ≤ n tale che i vettori
[wj1 ]B , . . . , [wjk ]B ) formano una base di W 0 . Non è difficile dimostrare che i
vettori wj1 , . . . , wjk formano una base di W .
Sia C = {w1 , . . . , wn } una base di V . Le coordinate di un vettore v
rispetto alla base C sono gli unici scalari y1 , . . . , yn ∈ K tali che
v = y1 w1 + · · · + yn wn .
Poiché FB è biunivoca e trasforma combinazioni lineari in combinazioni
lineari si ha
[v]B = y1 [w1 ]B + · · · + yn [wn ]B .
Tenendo in mente che C 0 = {[w1 ]B , . . . , [wn ]B } è una base di Kn , si ha che
le coordinate di v rispetto alla base C sono le coordinate del vettore [v]B
rispetto alla base C 0 .
Figura 5.24.1.
92
è l’unione degli assi, il quale non è un sottospazio vettoriale poiché non è
chiuso rispetto alla somma (ma è chiuso rispetto alla moltiplicazione per
scalare).
Definiamo
U + W := {u + w : u ∈ U w ∈ W }.
Proposizione 5.25. U + W è un sottospazio vettoriale di V .
Dimostrazione. Dobbiamo dimostrare che U + W è chiuso rispetto alla som-
ma e la moltiplicazione per scalare. Ovvero, se z, h ∈ U + W e λ ∈ K, allora
z + h ∈ U + W e λz ∈ U + W .
Siano z, h ∈ U + W . Per definizione di U + W , esitono u1 , u2 ∈ U e
w1 , w2 ∈ W tale che z = u1 + w1 e h = u2 + w2 rispettivamente. La tesi è
che anche z + h e λz li posso scrivere come una somma di un elemento di U
e di un elemento di W . Infatti,
z + h = u1 + w1 + u2 + w2 = u1 + u2 + w1 + w2 ∈ U + W.
| {z } | {z }
U W
Analogamente
λz = λu1 + λw1 ∈ U + W,
poiché λu1 ∈ U e λw1 ∈ W
L(u1 , . . . , un , w1 , . . . , wm ) ⊆ U + W.
93
rispettivamente
w = β1 w1 + · · · + βm wm .
Quindi
u + w = α1 u1 + · · · + αn un + β1 w1 + · · · + βm wm ∈ L(u1 , . . . , un , w1 , . . . , wm ),
ovvero U + W ⊆ L(u1 , . . . , un , w1 , . . . , wm ).
di R3 . Allora
1 0 1
U +W =L 1 , 1 , 1 ,
2 1 1
e
1 0 1
dim(U + W ) = rg 1 1 1 = 3 verificare!.
2 1 1
Quindi U + W = R3 .
α s + · · · + αk sk + β1 u1 + · · · + βp up + γ1 w1 + · · · + γq wq = 0,
| 1 1 {z } | {z } | {z }
s u w
94
ovvero
s + u + w = 0,
dove s ∈ U ∩ W , u ∈ U e w ∈ W . Quindi u = −s − w ∈ W , rispettivamente
w = −s − u ∈ U , da cui segue che u, w ∈ U ∩ W . In particolare esistono
λ1 , . . . , λk , rispettivamente µ1 , . . . , µk , tali che
u = λ1 s1 + · · · + λk sk = β1 u1 + · · · + βp up ,
rispettivamente
w = µ1 s1 + · · · + µk sk = γ1 w1 + · · · + γq wq ,
ovvero
λ1 s1 + · · · + λk sk − β1 u1 − · · · − βp up = 0,
rispettivamente
µ1 s1 + · · · + µk sk − γ1 w1 − · · · − γq wq = 0.
β1 = · · · = βp = 0, rispettivamente γ1 = · · · = γq = 0.
dim(U + W ) = k + p + q
= (k + p) + (k + q) − k
= dim U + dim W − dim(U ∩ W ).
• U ∩ W = {0};
• U +W =V.
95
Esempio 5.30. Si considerino i sottospazi U = L(e1 ) e W = L(e2 ) di R2 .
È facile verificare che U ∩ W = {0}.
W
Figura 5.30.1.
Quindi U e W sono in somma diretta. Inoltre, U + W = R2 , poiché
U + W = L(e1 , e2 ) = R2 , ovvero R2 = U ⊕ W .
Applicando la formula di Grassman si ha il seguente risultato.
Corollario 5.31. Siano U e W due sottospazi vettoriali di V . Allora:
a) U e W sono in somma diretta se e solamente se dim(U +W ) = dim U +
dim W ;
b) V è somma diretta di U e W se e solamente se dim V = dim(U + W )
e dim(U + W ) = dim U + dim W .
Dimostrazione. Tenendo in mente che U ∩ W = {0} è equivalente a dim(U ∩
W ) = 0, applicando la formula di Grassmann
dim(U + W ) + dim(U ∩ W ) = dim U + dim W,
si ha che U ∩ W = {0} se e solamente se dim(U + W ) = dim U + dim W .
Se V è somma diretta di U e W , allora U ∩ W = {0} ed V = U + W .
Quindi dim V = dim(U + W ). Applicando la formula di Grassmann si
ha dim(U + W ) = dim U + dim W . Viceversa, supponiamo che dim V =
dim(U + W ) = dim U + dim W . Poiché U + W ⊆ V , applicando il Corollario
5.21 si ha V = U + W . Applicando nuovamente la formula di Grassman,
se dim(U + W ) = dim U + dim W , allora U ∩ W = {0} concludendo la
dimostrazione.
96
Facoltattiva. Se V è somma diretta di U e W , allora U ∩ W = {0} e V =
U + W . La seconda proprietà implica che ogni vettore v ∈ V si scrive come
somma v = u + w, dove u ∈ U e w ∈ W . Se v = u + w = u0 + w0 , allora
u − u0 = w − w0 ∈ U ∩ W.
Quindi u = u0 e w = w0 . Viceversa, supponiamo che ogni elemento di
V si scriva, in maniera unica, come somma di un elemento di U e di un
elemento di W . Allora V = U + W (Perché?). Se z ∈ U ∩ W , allora
z = 43 z + 14 z = 21 z + 12 z. Quindi se z 6= 0, allora potrei scrivere z come
somma di un elemento di U e di un elemento di W in almento due maniere
distinte. Assurdo. Quindi U ∩ W = {0}.
Esempio 5.33. Sia V = Mn×n (R) e siano U = {A ∈ V : A = AT } e W =
{A ∈ V : A = −AT }. Ogni matrice A ∈ V si scrive in maniera unica come
combinazione lineare di una matrice simmetrica ed una antisimmetrica:
1 1
A = (A + AT ) + (A − AT ).
2 2
Quindi V è somma diretta di U e W .
Sia V uno spazio vettoriale su K e sia W un sottospazio vettoriale di
V . Una domanda naturale è se esiste W 0 sottospazio di V tale che V =
U ⊕ W . La risposta è affermativa ed una diretta conseguenza del Teorema
di completamento a base.
Corollario 5.34. Sia V uno spazio vettoriale su K e sia W un sottospazio
vettoriale di V . Esistono (infiniti) W 0 tali che V = W ⊕ W 0 .
Facoltativa. Sia C = {w1 , . . . , wk } una base di W . Possiamo completar-
la a basa di V . Siano v1 , . . . , vs tale che i vettori w1 , . . . , wk , v1 , . . . , vs
formano una base di V . Affermiamo che V è in somma diretta di W e
W 0 = L(v1 , . . . , vs ).
Poiché W + W 0 = L(w1 , . . . , wk , v1 , . . . , vs ) ed w1 , . . . , ws , v1 , . . . , vs for-
mano una base di V si ha W + W 0 = V .
Sia z ∈ W ∩ W 0 . Allora
z = α 1 w1 + · · · + α k wk = β 1 v 1 + · · · + β s v s ,
da cui segue
α1 w1 + · · · + αk wk + (−β1 )v1 + · · · + (−βs )vs = 0.
Poiché i vettori w1 , . . . , wk , v1 , . . . , vs sono linearmente indipendenti i coeffi-
cienti
α1 = · · · = αk = β1 = · · · = βs = 0,
ovvero z = 0.
97
5.34.1 Metodi di Calcolo
Siano U = L(X1 , . . . , Xk ) e W = L(Y1 , . . . , Ys ) sottospazi vettoriale di
Kn . Siano A = (X1 , . . . , Xk ) ∈ Mn×k (K), B = (Y1 , . . . , Ys ) ∈ Mn×s (K) e
C = (X1 , . . . , Xk , Y1 , . . . , Ys ) ∈ Mn×(k+s) (K). Allora
• dim U = rg(A);
• dim W = rg(B);
• dim(U + W ) = rg(C);
98
Capitolo 6
• T (0V ) = 0W ;
• T (−v) = −T (v);
99
Vediamo alcuni esempi di applicazioni lineari.
Esempio 6.4.
a) T : V −→ W , v 7→ 0W è lineare;
b) IdV : V −→ V , v 7→ v è una applicazione lineare;
c) L’applicazione
FB : V −→ Kn , v 7→ [v]B ,
e
Mn×q (K) −→ Mm×q (K), X 7→ AX,
sono applicazioni lineari.
f ) Sia A ∈ Mm×n (K). Allora
LA : Kn −→ Km , X 7→ AX,
100
Siano V, W spazi vettoriali su K. Indichiamo con Lin(V, W ) oppu-
re Hom(V, W ) l’insieme di tutte le applicazioni lineari fra V e W . Se
T, L ∈ Lin(V, W ), diremo che T = L se per ogni v ∈ V si ha T (v) = L(v).
Lin(V, W ) ammette una struttura di spazio vettoriale su K.
Siano T, L ∈ Lin(V, W ) e λ ∈ K. Definiamo
a) (T + H) ◦ L = T ◦ L + H ◦ L;
b) T ◦ (S + Q) = T ◦ S + T ◦ Q;
Analogamente se λ ∈ K e v ∈ V si ha
101
Per definizione di T −1 si ha
T −1 (λw) = λT −1 (w).
T (v) = T (x1 v1 + · · · + xn vn )
= x1 T (v1 ) + · · · + xn T (vn )
= x1 L(v1 ) + · · · + xn L(vn )
= L(x1 v1 + · · · + xn vn )
= L(v).
Quindi se esite una tale applicazione è unica. Adesso dimostriamo che esiste
una applicazione lineare T : V −→ W tale che T (v1 ) = w1 , . . . , T (vn ) = wn .
Sia v ∈ V . Allora esistono, e sono unici, x1 , . . . , xn ∈ K tale che
v = x1 v1 + · · · + xn vn .
Definiamo
T (v) = x1 w1 + · · · + xn wn .
La definizione è ben posta poiché le coordinate sono univocamente deter-
minate. Inoltre, tenendo in mente che [v1 ]B = e1 , . . . , [vn ]B = en , si ha
T (v1 ) = w1 , . . . , T (vn ) = wn . Rimane quindi da dimostrare che T è lineare.
102
Siano v, w ∈ V . Allora
v = x1 v1 + · · · + xn vn
w = y1 v 1 + · · · + yn v n .
v + w = (x1 + y1 )v1 + · · · + (xn + yn )vn
Quindi
v = x1 v1 + · · · + xn vn λv = λx1 v1 + · · · + λxn vn .
Quindi
103
x
sono le coordinate del vettore y rispetto alla base B, allora
z
1 0 2
x 1 −3
−1
T y = α
2
+β +γ .
1 5
z
−1 1 −1
x
Le coordinate del vettore y rispetto alla base B è l’unica soluzione del
z
sistema lineare
1 0 1 α x
0 2 1 β = y ,
1 1 1 γ z
ovvero
α = −x − y + 2z
β = −x + z
γ = 2x + y − 2z
Infatti
x 1 0 1
y = (−x − y + 2z) 0 + (−x + z) 2 + (2x + y − 2z) 1 .
z 1 1 1
Quindi
1 0
x 1 −3
T y = (−x − y + 2z) 2 + (−x + z)
1
z
−1 1
2
−1
+ (2x + y − 2z)
5
−1
3x + y − 2z
−2y + z
= 7x + 3y − 5z .
−2x + z
104
Corollario 6.10. Siano T, L : V −→ W due applicazioni lineari e sia
B = {v1 , . . . , vn } una base di V . Allora T = L, se e solamente se T (v1 ) =
L(v1 ), . . . , T (vn ) = L(vn ).
Dimostrazione. Se T = L, allora T (v) = L(v) per ogni v ∈ V . In particolare
vale per ogni elemento della base B = {v1 , . . . , vn }. Viceversa, supponiamo
che T (vi ) = L(vi ) per i = 1, . . . , n. Applicando la proposizione anteriore si
ha T = L.
• Im T è un sottospazio vettoriale di W .
T (v + z) = 0W .
Poiché T è lineare, si ha
T (v + z) = T (v) + T (z) = 0W ,
quindi v + z ∈ Ker T .
Siano v ∈ Ker T e sia λ ∈ K. Dobbiamo dimostrare che λv ∈ Ker T ,
cioè T (λv) = 0W . Poiché T è lineare e v ∈ Ker T si ha
T (λv) = λT (v) = 0W .
105
• Siano w1 , w2 ∈ Im T e λ ∈ K. Dobbiamo dimostrare che w1 + w2 ∈
Im T e λw1 ∈ Im T , ovvero che esistono v, z ∈ V tali che T (v) = w1 +w2
e T (z) = λw1 , rispettivamente. Per ipotesi esistono v1 , v2 ∈ V tali che
T (v1 ) = w1 e T (v2 ) = w2 . Quindi
T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2 ∈ Im T,
rispettivamente
T (λv1 ) = λT (v1 ) = λw1 ∈ Im T.
w
x
y x − 2z + 2w 0
T = x + 2y + 4w = 0 .
z
y+z+w 0
w
106
x
y
z ∈ Ker T se e solamente se
Quindi
w
x − 2z + 2w = 0
x + 2y + 4w = 0
y + z + w = 0.
2 −2
−1 −1
Quindi Ker T ha dimensione 2 ed una base è formata dai vettori 1 , 0
.
0 1
Adesso vogliamo calcolare
l’immagine di T .
1
0 0 0
0 1 0 0
Sia C = , , , = {e1 , e2 , e3 , e4 }, la base ca-
0 0 1 0
0 0 0 1
nonica di R4 . Per la Proposizione 6.12, si ha
1 0 −2 2
Im T = L (T (e1 ), T (e2 ), T (e3 ), T (e4 )) = L 1 , 2 , 0 , 4 .
1 1 1 1
107
Esempio 6.14. Si consideri l’applicazione lineare T : R3 −→ R3 definita
da:
1 1 0 3 1 2
T 0 = 1 , T 2 = −2 , T 1 = 3 .
1 2 1 1 1 5
Per la Proposizione 6.12, si ha
1 3 2
Im T = L 1 , −2 , 3 .
2 1 5
Infatti
x 1 0 1
y = (−x − y + 2z) 0 + (−x + z) 2 + (2x + y − 2z) 1 .
z 1 1 1
108
Quindi
x 1 3
T y = (−x − y + 2z) 1 + (−x + z) −2
z 2 1
2
+ (2x + y − 2z) 3
5
y+z
= 7x + 2y − 6z .
7x + 3y − 5z
x
Quindi y ∈ Ker T se e solamente se
z
x y+z 0
T y = 7x + 2y − 6z = 0 ,
z 7x + 3y − 5z 0
x
ovvero y ∈ Ker T se e solamente se
z
y+z =0
7x + 2y − 6z = 0
7x + 3y − 5z = 0.
109
Se Z è un sottospazio vettoriale, allora si può dimostrare che T −1 (Z) è un
sottospazio vettoriale di V . Osserviamo che Ker T = T −1 (0W ).
Se L ⊆ V , allora l’immagine di L rispetto a T è il sottoinsieme di W
cosı̀ definito:
T (L) = {T (s) : s ∈ L}
Se L è un sottospazio vettoriale di V , allora si può dimostrare che T (L) è
un sottospazio vettoriale di W . Inoltre, se L = L(v1 , . . . , vk ), allora
Facoltativa. Sia {v1 , . . . , vk } una base di Ker T . Per il Teorema del comple-
mento della base, esistono vk+1 , . . . , vn tale che {v1 , . . . , vn } è una base di
V . Poiché T (v1 ) = · · · = T (vk ) = 0, applicando la Proposizione 6.12, si ha
110
Siano αk+1 , . . . , αn ∈ K tali che
Per la linearità di T si ha
T (αk+1 vk+1 + · · · + αn vn ) = 0,
α1 v1 + · · · + αk vk = αk+1 vk+1 + · · · + αn vn ,
ovvero
α1 v1 + · · · + αk vk − αk+1 vk+1 − · · · − αn vn = 0.
Poiché i vettori v1 , . . . , vn formano una base di V , si ha α1 = · · · = αn = 0,
ed in particolare αk+1 = · · · = αn = 0, ovvero i vettori T (vr+1 ), . . . , T (vn )
sono linearmenti indipendenti.
Quindi
1 2 0
1 0 2
Im T = L
1 , −1
,
3
−1 3 −5
111
e
1 2 0
1 0 2
dim Im T = rg
1 −1 3 = 2 verificare!.
−1 3 −5
Quindi T non è iniettiva.
a) T è iniettiva;
b) T è suriettiva;
c) T è biunivoca.
112
Proposizione 6.23. Due spazi vettoriali sono isomorfi se e solamente se
dim V = dim W .
113
Capitolo 7
Allora:
LA (ei ) = Aei = Ai ,
per i = 1, . . . , n, si ha
114
−1
d) sia b ∈ Km . Allora LA (b) = {X ∈ Kn : AX = b} = Sol(A|b). Quindi
b ∈ Im LA se e solamente se il sistema lineare AX = b è compatibile e
quindi se e solamente se rg(A) = rg(A|b).
Applicando il Teorema della dimensione, otteniamo il seguente risultato.
Teorema 7.2 (Teorema di nullità più rango). Sia A ∈ Mm×n (K) e sia
LA : Kn −→ Km l’applicazione lineare associata ad A. Allora
.
Il risultato anteriore ci permette di calcolare la dimensione dell’insieme
delle soluzioni di un sistema lineare omogeneo.
Corollario 7.3. Sia A ∈ Mm×n (K). Allora dim Sol(A|0K m ) = n − rg(A).
Dimostrazione. Sia LA : Kn −→ Km , l’applicazione lineare LA (X) = AX.
Per Il Teorema anteriore si ha
115
Infine, LIdn : Kn −→ Kn è l’applicazione lineare,
1 1 2 1
Esempio 7.5. Sia A = −1 2 3 2 . Allora LA : R4 −→ R3 ,
4 1 3 1
x1
x2 x1 + x2 + 2x3 + x4
x3 = −x1 + 2x2 + 3x3 + 2x2
LA
4x1 + x2 + 3x3 + x4
x4
AX = 0R3 .
LA : Kn −→ Km ,
rispettivamente
LB : Kp −→ Kn .
L’applicazione
LA ◦ LB : Kp −→ Km ,
è lineare.
116
Proposizione 7.6. LA ◦ LB = LAB . In particolare, se A ∈ Mn×n (K) è una
matrice invertibile, allora LA è biunivoca e L−1
A = LA−1
Dimostrazione.
Sia A ∈ Mn×n (K) una matrice invertibile. Abbiamo già visto che LA è
biunivoca e viceversa. Inoltre, tenendo in mente che LIdn = IdKn , si ha
LA ◦ LA−1 = LAA−1 = LIdn = IdKn e LA−1 ◦ LA = LA−1 A = LId = IdKn ,
ovvero
(LA )−1 = LA−1
1 1
1 1 2
Esempio 7.7. Sia A = ∈ M2×3 (R) e sia B = 0 1 ∈
1 −1 1
1 −1
M3×2 (R). Allora:
x
3 2 x + y + 2z
LA : R −→ R , LA y = ,
x−y+z
z
x+y
x
LB : R2 −→ R3 , LB = y ,
y
x−y
LA ◦ LB : R2 −→ R2 ,
x x 3 0 x 3x
LA ◦ LB = LAB = = ,
y y 2 −1 y 2x − y
LB ◦ LA : R3 −→ R3 ,
x x 2 0 3 x 2x + 3z
LB ◦LA y = LBA y = 1 −1 1 y = x − y + z ,
z z 0 2 1 z 2y + z
Sia
K : Mm×n (K) −→ Lin(Kn , Km ) A 7→ LA .
L’applicazione K è lineare. Infatti
117
per ogni v ∈ Kn . Quindi K(A + B) = LA+B = LA + LB = K(A) + K(B).
Se λ ∈ K e A ∈ Mm×n (K), allora per ogni v ∈ Kn si ha
xn
T (X) = T (x1 e1 + · · · + xn en )
= x1 T (e1 ) + · · · + xn T (en )
x1
= MT ... .
xn
118
Corollario 7.9. Sia T : Kn −→ Km una applicazione lineare e sia MT =
(T (e1 ), . . . , T (en )) ∈ Mm×n (K), dove {e1 , . . . , en } è la base canonica di Kn .
Allora
1 1 0 1 0 2
T 0 = 2 , T 1 = 1 , T 0 = 3 ,
0 1 0 2 1 3
e quindi
1 1 2
MT = 2 1 3 .
1 2 3
Poiché rg(MT ) = 2, (verificare!) T non è iniettiva, rispettivamente suriet-
tiva, rispettivamente biunivoca. Inoltre,
1
Ker T = Sol(MT |0) = L 1 .
−1
119
2
Sia b = −1 ∈ R3 . Stabilire se b ∈ Im T è equivalente a stabilire se il
7
sistema
MT X = b,
è compatibile. Poiché rg(MT ) = rg(MT |b) (verificare!), b ∈ Im T .
Il prossimo risultato riguarda la corrispondenza T 7→ MT .
Proposizione 7.11. L’applicazione
H : Lin(Kn , Km ) 7→ Mm×n (K) T 7→ MT ,
è una applicazione lineare, i.e.,
a) MT +L = MT + ML ;
b) MλT = λMT ;
biunivoca la cui inversa è K. Inoltre:
• se T : Kn −→ Kp e G : Kp −→ Km , allora MG◦T = MG MT ;
• se MIdKn = Idn ;
• se T : Kn −→ Kn è invertibile, allora MT −1 = MT−1 .
Facoltativa. Abbiamo dimostrato che
K : Mm×n (K) −→ Lin(Kn , Km ) A 7→ LA .
è un isomorfismo. È facile verifivare che l’applicazione
H : Lin(Kn , Km ) −→ Mm×n (K) T 7→ MT ,
è l’inversa di K e quindi è lineare.
Siano T : Kn −→ Kp e G : Kp −→ Km lineari. Allora G ◦ T : Kn −→ Km
è lineare. Vogliamo dimostrare che MG◦T = MG MT . Poiché T = LMT e
G = LMG , allora
G ◦ T = LMG ◦ LMT = LMG MT .
Quindi, tenendo in mente che l’applicazione T 7→ MT è biunivoca, si ha
MG◦T = MG MT .
Infine, sia T : Kn −→ Kn invertibile. Quindi MT è invertibile. Inoltre
LMT ◦ LM −1 = LMT (MT )−1 = IdKn ,
T
ovvero T −1 = LM −1 .
T
120
7.12 Matrice associata ad una applicazione lineare
In questa sezione vogliamo associare ad una applicazione lineare una
matrice generalizzando la costruzione che abbiamo introdotto nelle sezioni
anteriori.
Sia T : V −→ W una applicazione lineare. Siano B = {v1 , . . . , vn }
e C = {w1 , . . . , wm } basi di V e W rispettivamente. Se v ∈ V , allora
x1
..
v = x1 v1 + · · · + xn vn e [v]B = . sono le coordinate di v rispetto a B.
xn
y1
Analogamente se w ∈ W , allora w = y1 w1 + . . . + ym wm e [w]C = ...
ym
sono le coordinate di w rispetto alla base C. Vogliamo calcolare le coordinate
di T (v) rispetto alla base C. Poiché FC : W −→ Kn è lineare, si ha
dove MC,B (T ) = ([T (v1 )]C , . . . , [T (vn )]C ) ∈ Mm×n (K). MC,B (T ) è chiamata
la matrice associata a T rispetto alla basi B in partenza e C in arrivo. La
matrice MC,B (T ) è l’unica matrice di ordine m × n, dove m = dim W e
n = dim V , a coefficienti in K che verifica
V
T /W
FB FC
n m
K /K
LMC,B (T )
121
Proposizione 7.14. Sia T : V −→ W e siano B e C basi di V e W
rispettivamente. Allora dim ImT = rg(MC,B (T )) e quindi dim KerT =
dim V − rg(MC,B (T )). Inoltre
• FC (Im T ) = Im LMC,B (T ) ;
122
0 1
Esempio 7.16. Sia A = e sia Sia T : M2×2 (R) −→ M2×2 (R) cosı̀
1 1
definita:
T (X) = X − Tr(X)A.
L’applicazione T è lineare (verificare). Sia
1 0 0 1 0 0 0 0
B= , , , ,
0 0 0 0 1 0 0 1
123
1 0 1
è la matrice associata a T rispetto alle basi B = 0 , 2 , 1
1 1 1
in partenza e la base canonica C in arrivo. Poiché MC,B (T ) ha rango 2,
allora T non è iniettiva. Per calcolare il nucleo possiamo procedere come
segue. Poiché
T (X) = MC,B (T )[X]B ,
si ha X ∈ Ker T se e solamente se T (X) = MC,B (T )[X]B = 0. Quindi
Sol(MC,B (T )|0) descrive le coordinate dei vettori X ∈ R3 rispetto alla base
B tali che T (X) = 0. Applicando il metodo di Gauss e il metodo della
risoluzione all’indietro, si ha
1
Sol((MC,B (T )|0)) = L 1 .
−2
124
Proposizione 7.18. Siano V e W spazi vettoriali su K e siano B = {v1 , . . . , vn }
e C = {w1 , . . . , wm } basi di V e W rispettivamente. L’applicazione
Quindi
la i-esima colonna della matrice MC,B (T ) è, per definizione, [T (vi )]C =
a1i
..
. , per i = 1, . . . , n, ovvero la i-esima colonna della matrice A, da cui
ami
segue che MC,B (T ) = A, dimostrando che M è suriettiva.
Poiché T = 0 se e solamente se T (v) = 0 per ogni v ∈ V , quindi se e
solamente se
[T (v)]C = MC,B (T )[v]B = 0
per ogni v ∈ V . Quindi se e solamente se MC,B (T ) = 0.
125
a) MC,X (T ◦ G) = MC,B (T )MB,X (G);
da cui segue
MC,X (T ◦ G) = MC,B (T )MB,X (G).
dove
M(B, C) = ([w1 ]B , . . . , [wn ]B ) ∈ Mn×n (K),
si chiama matrice del cambiamento di base da B a C. La matrice del cam-
biamento di base è l’unica matrice M(B, C) tale che per ogni v ∈ V , si
ha
[v]B = M(B, C)[v]C .
È facile verificare che M(B, C) = MB,C (IdV ) da cui segue che la matrice
del cambiamento di base è invertibile. Un altra maniera per provare cje
M(B, C) è invertibile è la seguente. Poiché w1 , . . . , wn formano una base di
V , anche i vettori [w1 ]B , . . . , [wn ]B formano una base di Kn . Quindi M(B, C)
è invertibile. Vediamo altre proprietà della matrice di cambiamento di base.
126
Proposizione 7.21. Siano B, C e D basi di V . Allora
• M(B, B) = Idn ;
basi di R3 . Allora
1 1 1
0
M(B, B ) = 0 1 1 .
0 B 0 B 1 B
Poiché
x 1 0 1 x
y = Sol 0 2 1 y
z B 1 1 1 z
−x − y + 2z
= −x + z ,
2x + y − 2z
si ha
−1 −2 0
M(B, B 0 ) = −1 −1 0 .
2 3 1
127
Analogamente
1 0 1
M(B 0 , B) = 0 2 1 .
1 B0 1 B0 1 B0
Poiché
x 1 1 1 x
y = Sol 0 1 1 y
z B0 0 0 1 z
x−y
= y − z ,
z
si ha
1 −2 0
M(B 0 , B) = −1 1 0 .
1 1 1
1 0 1
Esempio 7.23. Sia B = 0 , 2 , 1 una base di R3 e sia C
1 1 1
la base canonica di R3 . Allora
1 0 1 1 0 1
M(C, B) = 0 2 1 = 0 2 1
1 C 1 C 1 C 1 1 1
Invece, poiché
x 1 0 1 x
y = Sol 0 2 1 y
z B 1 1 1 z
−x − y + 2z
= −x + z ,
2x + y − 2z
si ha
−1 −1 2
M(B, C) = −1 0 1 = M(C, B)−1 .
2 1 −2
128
Teorema 7.24. Sia T : V −→ W una applicazione lineare. Siano B, B 0 e
C e C 0 basi di V e W rispettivamente. Allora
Adesso, [T (v)]C = MC,B (T )[v]B , e [v]B = M(B, B 0 )[v]B0 , da cui segue che
per ogni v ∈ V si ha
concludendo la dimostrazione.
MC 0 ,B (T ) = M(C 0 , C)MC,B (T ),
rispettivamente,
MC,B0 (T ) = MC,B (T )M(B, B 0 ).
Dimostrazione. Per il Teorema anteriore si ha
rispettivamente,
129
Esempio 7.26. Sia T : R3 −→ R3 l’applicazione lineare definita da:
1 1 0 0 1 −2
T 0 = 1 , T 2 = 2 , T 1 = 0 .
1 0 1 1 1 1
Allora
1 0 −2
MC,B (T ) = 1 2 0 ,
0 1 1
1 0 1
è la matrice associata a T rispetto alle basi B = 0 , 2 , 1
1 1 1
in partenza e la base canonica C in arrivo. Poiché
quindi
x −5 −3 6 x −5x − 3y + 6z
T y = −3 −1 4 y = −3x − y + 4z .
z 1 1 −1 z x+y−z
130
Esempio 7.27. Sia T : R3 −→ R3 l’applicazione lineare definita da:
1 1 1 1 1 −2
T 0 = 0 , T 1 = 1 , T 1 = 5 .
0 −1 0 −1 1 2
Allora
1 1 −2
MB,B (T ) = 0 1 5 .
−1 B −1 B 2 B
Poiché
x x−y
y = y − z ,
z B z
si ha
1 0 −7
MB,B (T ) = 1 2 3 .
−1 −1 2
Applicando il Teorema 7.24, si ha
Poiché
1 1 1 1 −1 0
M(C, B) = 0 1 1 , M(B, C) = 0 1 −1 ,
0 0 1 0 0 1
si ha
1 1 1 1 0 −7 1 −1 0
MC,C (T ) = 0 1 1 −1 2 3 0 1 −1
0 0 1 1 −1 2 0 0 1
1 0 −3
= 0 1 4 .
−1 0 3
Quindi
x 1 0 −3 x x − 3z
T y = 0 1 4 y = y + 4z .
z −1 0 3 z −x + 3z
131
Corollario 7.28. Sia T : V −→ V una applicazione lineare. Siano B e C
basi di V . Allora
ani
ovvero MB,B (T )k =Ak . Quindi MB,BP (T ) = A.
Sia C = {w1 , . . . , wn } dove wi = nm=1 pmi vm , i = 1, . . . , n, per i =
1, . . . , n. L’insieme C = {w1 , . . . , wn } è una base di V poiché la matrice
([w1 ]B , . . . , [wn ]B ) = P,
132
Capitolo 8
Struttura Metrica
hX, Y i = x1 y1 + · · · + xn yn = X T Y.
Rn × Rn −→ R (X, Y ) 7→ hX, Y i.
133
Dimostrazione. Verifichiamo solamente la prima proprietà. Le altre sono
conseguenza delle proprietà del prodotto di matrici.
hX, Xi = x21 + · · · + x2n ≥ 0. Inoltre hX, Xi = 0 se e solamente se
X = 0Rn .
Definizione 8.4. Siano X, Y due vettori non nulli. Definiamo l’angolo fra
X e Y come l’unico valore θ ∈ [0, π] tale che
hX, Y i
cos θ = .
k X kk Y k
134
Proposizione 8.5. Siano X, Y ∈ Rn vettori non nulli. L’angolo fra X e Y è
acuto, rispettivamente ottuso, se e solamente se hX, Y i > 0. rispettivamente
hX, Y i < 0.
Definizione 8.6. Diremo che due vettori X, Y sono ortogonali se il loro
prodotto scalare è nullo.
Teorema 8.7. Siano X, Y ∈ Rn . Allora k X k2 + k Y k2 =k X + Y k2 se e
solamente se X, Y sono ortogonali.
Dimostrazione. Siano X, Y ∈ Rn . Utilizzando le proprietà del prodotto
scalare si ha
xn
135
Poiché xi = hX, ei i per i = 1, . . . , n, si ha
x1
X = ... = hX, e1 ie1 + · · · + hX, en ien .
xn
Il prossimo risultato mostra che la formula precedente vale per ogni base
ortonormale.
Poiché vj 6= 0Rn si ha
hv, vj i
xj = ,
hvj , vj i
da cui segue la tesi.
Sia B = {v1 , . . . , vn } una base ortonormale. Applicando il risultato
anteriore si ha v = hv, v1 iv1 + · · · + hv, vn ivn .
Siano v, w ∈ V e sia B = {v1 , . . . , vn } una base ortonormale. Allora
n
X n
X
hv, wi = h hv, vm ivm , hw, vl ivl i
m=1 l=1
Xn
= hv, vm ihw, vl ihvm , vl i.
m,l=1
136
Adesso, tenendo in mente che hvm , vl i = 0 se m 6= l e 1 se l = m si ha
n
X
hv, wi = hv, vm ihw, vm i = [v]TB [w]B .
m=1
Pn 2
p particolare, se v = w, allora hv, vi =
In m=1 hv, vm i e quindi k v k=
hv, v1 i2 + · · · + hv, vn i2 .
1
0 0
√1 √1
Esempio 8.11. Sia B = 0 , 2 2 una base ortonormale
0
√1 −1
√
2 2
di R3 . Allora
0 0
x 1
+ z √1 y − z √1
y = x 0 + y√ 2 + √ 2 ,
z 0 2 √1 2 −1
√
2 2
ovvero
x
x
y+z
√2 .
y =
y−z
z B √
2
137
e per ogni 1 ≤ j ≤ k − 1, si ha L(v1 , . . . , vj ) = L(w1 , . . . , wj ). Dobbiamo
dimostrare che wk è non nullo, ortogonale a w1 , . . . , wk−1 e L(v1 , . . . , vk ) =
L(w1 , . . . , wk ). Se wk = 0Rn allora
k−1
X hwj , vk i
vk = wj .
hwj , wj i
i=1
hwk , ws i = 0,
per s = 1, . . . , k − 1. Infatti
k−1
X hvk , wj i
hwk , ws i = hvk − wj , ws i
hwj , wj i
j=1
k−1
X
hvk , wj i
= hvk , ws i − wj , ws
hwj , wj i
j=1
k−1
X hvk , wj i
= hvk , ws i − hwj , ws i
hwj , wj i
j=1
hvk , ws i
= hvk , ws i − hws , ws i
hws , ws i
= hvk , ws i − hvk , ws i
= 0.
138
1 1 1
Esempio 8.13. Siano v1 = 0 , v2 = 1 , v3 = −1 ∈ R3 . Allora
1 2 −3
1
w1 = 0 ,
1
1
1 1 −
3 2
w2 = 1 −
0 = 1 ,
2 1
2 1 2
1
1 1 −2 1
w3 = −1 + 0 + 2 1 = 1
1
−3 1 2 −1
Corollario 8.14. Esistono basi ortonormali differenti dalla base canonica.
Dimostrazione. Sia {v1 , . . . , vn } una base di Rn . Applicando il procedimento
di ortogonalizzazione di Gram-Schimdt ottengo una base C = {w1 , . . . , wn }
ortogonale. Dividendo ciascun vettore per la sua norma, i.e.,
w1 wn
,...,
k w1 k k wn k
ottengo una base ortonormale.
Corollario 8.15. Siano v1 , . . . , vk ∈ Rn vettori non nulli e a due a due
ortogonali. Allora è possibile completare v1 , . . . , vk a base ortogonale di Rn .
Dimostrazione. Applicando il teorema di completamento a base è possibi-
le completare i vettori v1 , . . . , vk a una base di Rn , che indicheremo con
v1 , . . . , vk , vk+1 , . . . , vn . Applicando il procedimento di Gram-Schimdt alla
base {v1 , . . . , vn } troviamo una base ortogonale di Rn i cui primi k vettori
sono v1 , . . . , vk (perché?).
1 2
Esempio 8.16. Siano 1 , 0 ∈ R3 . Possiamo completarli a base
2 −1
0
aggiungendo 0 . Quindi
1
1 2 0
1 , 0 , 0
2 −1 1
139
è una base di R3 . Applicando il procedimento di Gram-Scmidt, si ottiene
1 2 1/15
1 , 0 , −1/3 ,
2 −1 2/15
W ⊥ := {X ∈ Rn : hX, si = 0 ∀s ∈ W },
140
Poiché hu, si = hv, si = 0, si ha
hu + v, si = hu, si + hv, si = 0.
hλv, si = λhv, si = 0,
ovvero λv ∈ W ⊥ .
hu, si = 0, ∀s ∈ W.
s = α1 v1 + · · · + αk vk .
Quindi
hu, si = hw, α1 v1 + · · · + αk vk i
= α1 hu, v1 i + · · · + αk hu, vk i
= 0 (essendo u ∈ U )
141
1 −1
0 2 4
Esempio 8.21. Sia dato W = L 1 , 1 sottospazio di R .
1 3
Allora
x1
x
⊥ 2 4
W = ∈ R : x 1 + x 3 + x4 = 0, −x 1 + 2x 2 + x 3 + 3x 4 = 0
x3
x4
1 1
1 2
= L
−1 , 0
0 −1
L(v1 , . . . , vk ) = L(w1 , . . . , wk ),
142
ad una base di W . Applicando la Proposizione 8.20 si ha wk+1 , . . . , wn ∈
W ⊥ . Affermiamo che i vettori wk+1 , . . . , wn formano una base ortogonale
di W ⊥ . Poiché sono linearmente indipendenti, è sufficiente dimostrare che
formano un sistema di generatori di W ⊥ .
Sia z ∈ W ⊥ . Poiché C = {w1 , . . . , wn } è una base ortogonale di Rn , si
ha
hz, w1 i hz, wn i
z= w1 + · · · + wn .
hw1 , w1 i hwn , wn i
Poiché z ∈ W ⊥ e W = L(w1 , . . . , wk ), si ha
hz, vj i
= 0, per j = 1, . . . , k,
hvj , vj i
ovvero
hz, wk+1 i hz, wn i
z= wk+1 + · · · + wn ∈ L(vk+1 , . . . , vn ).
hwk+1 , wk+1 i hwn , wn i
W + W ⊥ = L(w1 , . . . , wn ) = Rn .
1 1 2
1 0 1
Esempio 8.24. Sia dato W = L 0 ,
, sottospazio di
1 1
1 −1 0
4
R . La dimensione di W è due (verificare!) e equazioni cartesiane per il
143
sottospazio W ⊥ sono:
x1 + x2 + x4 = 0
W⊥ = x1 + x3 − x4 = 0
2x1 + x2 + x3 = 0
0 −1
Il prossimo risultato garantisce che PW (v) non dipende dalla base orto-
normale scelta di W .
144
Proposizione 8.29. Sia v ∈ Rn . Allora esiste un unico w ∈ W tale che
v − w ∈ W ⊥ . Inoltre, se C = {w1 , . . . , wk } è una base ortonormale di W ,
allora u = PW (v) = hv, w1 iw1 + · · · + hv, wk iwk .
0 1 1
di R4 . Vogliamo calcolare la proiezione ortogonale su W . Per definizione di
proiezione ortogonale, bisogna calcolare una base ortonornale di W . Poiché
la matrice
1 2 2
1 0 1
1 1 2 ,
0 1 1
ha rango 2 (verificare!) la dimensione di W è 2 ed una base di W è formata
da
1 2
1 0
, .
1 1
0 1
Applicando il procedimento di Gram-schimdt e poi dividendo ciascun vettore
per la sua norma ottengo una base ortonormale cosı̀ fatta:
√ √
1/√3 1/ √3
1/ 3 −1/ 3
√ , .
1/ 3 0√
0 1/ 3
145
Quindi
√ √
x1 x1 1/√3 1/√3
x2 x2 1/√3 1/√3
PW = h , i
x3 x3 1/ 3 1/ 3
x4 x4 0 0
√ √
x1 1/ √3 1/ √3
x2 −1/ 3 −1/ 3
+ h
x3 ,
i
0√ 0√
x4 1/ 3 1/ 3
√ √
1/√3 1/ √3
(x1 + x2 + x3 ) 1/ 3 + (x1 − √x2 + x4 )
−1/ 3
= √
3 0√ 3 0√
1/ 3 1/ 3
2x1 + x3 + x4 /3
2x2 + x3 − x4 /3
= x1 + x2 + x3 /3
x1 − x2 + x4 /3
zn wn
canonico:
hZ, W i = z1 w1 + · · · + zn wn = Z T W .
Il prodotto Hermitiano canonica è una applicazione
Cn × Cn −→ C (Z, W ) 7→ hZ, W i
c) hZ + W, U i = hZ, U i + hW, U i;
146
e) hλZ, W i = λhZ, W i;
f ) hZ, λW i = λhZ, W i.
Dimostrazione. Esercizio.
|hZ, W i| ≤k Z kk W k,
p
dove k Z k:= hZ, Zi, e l’uguaglianza vale se e solamente se Z e W sono
linearemente dipendenti.
Facoltativa. Siano α, β ∈ C. Se Z = 0Cn , allora la disuguaglianza è banal-
mente verificata. Supponiamo che Z 6= 0Cn . Allora
0 ≤ hαZ + βW, αZ + βW i
≤ |α|2 hZ, Zi + |β|2 hW, W i + αβhZ, W i + αβhW, Zi
.
147
Una base B = {v1 , . . . , vn } si dice ortogonale, rispettivamente ortonor-
male, se i vettori v1 , . . . , vn sono a due a due ortogonali, rispettivamente se
i vettori sono a due a due ortogonali ed hanno norma unitaria. L’esistenza
di basi ortogonali è conseguenza del seguente risultato.
Sia S ⊂ Cn . Definiamo
S ⊥ := {X ∈ Cn : hX, si = 0 ∀s ∈ S}.
148
Capitolo 9
Endomorfismi
Diagonalizzabili e Teorema
spettrale
149
Proposizione 9.4. Sia T : V −→ V un endomorfismo. Uno scalare λ ∈ K è
un autovalore di T se e solamente se T −λIdV non è iniettivo. In particolare
T è iniettiva, e quindi biunivoca, se e solamente se 0 non è un autovalore
di T
Dimostrazione. λ ∈ K è una autovalore se e solamente se Vλ 6= {0V }. Poiché
Vλ = Ker (T − λIdV ), e T − λIdV è un operatore, applicando il Corollario
6.16 si ha che λ ∈ K è un autovalore se e solamente se T − λIdV non è
iniettivo e quindi non è biunivoca.
150
diagonale. Allora
[T (vi )]B = MB,B (T )[vi ]B
= MB,B (T )ei
= λi ei
= λi [vi ]B
= [λi vi ]B .
Tendendo in mente che v = w se e solamente se [v]B = [w]B , si ha che
T (vi ) = λi vi per i = 1, . . . , n da cui segue che vi è autovettore relativo
all’autovalore λi . Quindi {v1 , . . . , vn } è una base di V formata da autovettori
di T .
Proposizione 9.6. Sia T : V −→ V un endomorfismo. Allora T è diago-
nalizzabile se e solamente se esiste una base B di V tale che MB,B (T ) è una
matrice diagonale.
Sia C una base di V . Poiché MC,C (T ) è simile alla matrice MB,B (T ) si
ha il seguente risultato.
Proposizione 9.7. Sia T : V −→ V un endomorfismo e sia C una base di
V . T è diagonalizzabile se e solamente se MC,C (T ) è simile a una matrice
diagonale.
Il prossimo risultato prova che autovettori corrispondenti ad autovalori
distinti sono linearmente indipendenti.
Proposizione 9.8. Sia T : V −→ V una applicazione lineare e siano
v1 , . . . , vm autovettori di T corrispondenti agli autovalori λ1 , . . . , λm . Se
λ1 , . . . , λm sono distinti, i.e., λi 6= λj se i 6= j, allora gli autovettori v1 , . . . , vm
di T sono linearmente indipendenti.
Facoltativa. la dimostrazione sarà fatta per induzione sul numero di auto-
vettori.
Se m = 1 la proposizione è banalmente verificata poiché un autovettore
è un vettore non nullo e quindi linearmente indipendente.
Supponiamo che la proposizione sia vera per m autovettori di T cor-
rispondenti a m autovalori distinti e dimostriamolo per m + 1 autovalori
distinti.
Siano v1 , . . . , vm+1 autovettori corrispondenti ad autovalori λ1 , . . . , λm+1
distinti. Per ipotesi induttiva i vettori v1 , . . . , vm sono linearmente indipen-
denti. Supponiamo per assurdo che v1 , . . . , vm+1 fossero linearmente di-
pendenti. Poiché v1 , . . . , vm sono linearmente indipendenti, il vettore vm+1
151
sarebbe combinazione lineare di v1 , . . . , vm (perché?). Quindi esistono degli
scalari α1 , . . . , αm ∈ K tale che
vm+1 = α1 v1 + · · · + αm vm .
Applicando T si ha
Dall’altro lato
Quindi
λm+1 α1 v1 + · · · + λm+1 αm vm = λ1 α1 v1 + · · · + λm αm vm ,
ovvero
(λm+1 − λ1 )α1 v1 + · · · + (λm+1 − λm )αm vm = 0.
Poiché i vettori v1 , . . . , vm sono linearmente indipendenti, ne segue che i
coefficienti sono tutti nulli:
α1 (λm+1 − λ1 ) = · · · = αm (λm+1 − λm ) = 0
152
9.10 Polinomio caratteristico
Sia V uno spazio vettoriale su K di dimensione n. Vogliamo calcolare gli
autovalori di un endomorfismo T : V −→ V .
Sia B una base di V . Uno scalare λ ∈ K è un autovalore di T se e
solamente se T − λIdV non è iniettiva ovvero se e solamente se la matrice
MB,B (T − λIdV ) non è invertibile . Poiché MB,B (T − λIdV ) = MB,B (T ) −
λIdn , si ha che λ ∈ K è un autovalore di T se e solamente se
det(MB,B (T ) − λIdn ) = 0.
Definiamo
da cui segue
pC (t) = det(MC,C (T ) − tIdn )
= det M(B, C)−1 MB,B (T )M(B, C) − tIdn
153
Corollario 9.13. Sia V uno spazio vettoriale su K di dimensione n e sia
T : V −→ V un endomorfismo. Sia λ ∈ K. Allora λ è un autovalore di
T se e solamente se λ è una radice del polinomio caratteristico di T . In
particolare T ha al massimo n autovalori.
1 1 0 1 0 2
T 0 = 2 ,T
1 = 1 ,T
0 = 3 ,
0 1 0 2 1 3
e quindi
1 1 2
MT = MC,C (T ) = 2 1 3 .
1 2 3
Il polinomio caratteristico di T è dato da
1−t 1 2
pT (t) = det(MC,C (T ) − tId3 ) = det 2 1−t 3 .
1 2 3−t
154
0 1
Esempio 9.15. Sia A = e sia Sia T : M2×2 (R) −→ M2×2 (R)
1 1
l’applicazione lineare cosı̀ definita:
T (X) = X − Tr(X)A.
Sia
1 0 0 1 0 0 0 0
B= , , , ,
0 0 0 0 1 0 0 1
Nell’esempio 7.16 abbiamo visto che
1 0 0 0
−1 1 0 −1
MB,B (T ) =
−1
.
0 1 −1
−1 0 0 0
Quindi
1−t 0 0 0
−1 1 − t 0 −1
pT (t) = det(MB,B (T )−tId4 ) = det = −t(1−t)3 ,
−1 0 1 − t −1
−1 0 0 −t
155
Proposizione 9.18. Sia V uno spazio vettoriale su K di dimensione n e
sia T : V −→ V un endomorfismo. Sia λ ∈ K un autovalore. Se B è una
base di V , allora
Quindi
156
Dimostrazione. Poiché mg (λ) ≥ 1 (perché ?), si ha
1 ≤ mg (λ) ≤ ma (λ) = 1,
1 2 0 −1 0 3
T 0 = 1 , T 1 = 0 , T 0 = 3 ,
0 2 0 −2 1 7
e quindi
2 −1 3
MT = MC,C (T ) = 1 0 3 .
2 −2 7
Il polinomio caratteristico di T è dato da
2 − t −1 3
pT (t) = det(MC,C (T ) − tId3 ) = det 1 −t 3 = −(t − 1)2 (t − 7).
2 −2 7 − t
157
Teorema 9.22. Sia V uno spazio vettoriale su K e sia T : V −→ V un
endomorfismo. Le seguenti condizioni sono equivalenti:
a) T è diagonalizzabile.
e quindi
da cui segue che tutti gli autovalori stanno in K ed ma (λj ) = mg (λj ) per
j = 1, . . . , k.
Viceversa, supponiamo che tutti gli autovalori di T stanno in K, ovvero T
ha n autovalori non necessariamente distinti, e che la molteplicità algebrica
e geometrica coincidono per ogni autovalore.
Siano λ1 , . . . , λk ∈ K gli autovalori distinti di T . Sia BVλj una base
S S
di Vλj per j = 1, . . . , k. L’insieme B = BVλ1 · · · BVλk è formato da
n = dim V autovettori. Infatti poiché il polinomio caratteristico ha n radici,
non necessariamente distinte, allora
k
X k
X
n= ma (λm ) = mg (λm )
i=m i=m
158
di V se e solamente se sono linearmente indipendenti, è suffciente dimostra-
re che i vettori di B sono linearmente indipendenti. A meno di riordinare i
vettori di B, esistono 1 ≤ j1 < j2 < · · · < jk ≤ n = tale che
Quindi
w1 + · · · + wk = 0
Per la Proposizione 9.8, si ha w1 = · · · = wk = 0 e quindi
0 = α1 v1 + · · · + αj1 vj1
0 = αj1 +1 vj1 +1 + · · · + αj2 vj2
..
.
0 = αjk +1 vjk +1 + · · · + αn vn .
si ha α1 = · · · = αn = 0.
159
Osservazione 9.23. Sia V uno spazio vettoriale su K e sia T : V −→ V un
endomorfismo. Siano λ1 , . . . , λk ∈ K gli autovalori distinti di T . Indichiamo
con BVλj una base dell’autospazio Vλj per j = 1, . . . , k. Nella proposizione
S S
anteriore abbiamo dimostrato che B = BVλ1 · · · BVλk è un insieme for-
mato da vettori linearmente indipendenti. Inoltre, se T è diagonalizzabile
allora B è una base di V formata da autovettori di T . La matrice associata
a T rispetto alla base B in partenza ed in arrivo è una matrice diagonale
cosı̀ siffatta:
λ1 Idmg (λ1 )×mg (λ1 )
MB,B (T ) =
..
.
λk Idmg (λk )×mg (λk )
Esempio 9.24. Sia T : M2×2 (R) −→ M2×2 (R) l’applicazione lineare cosı̀
definita:
a11 a12 a11 + a12 a12
T = .
a21 a22 a11 + a21 + a22 a11 + a21 + a22
Sia
1 0 0 1 0 0 0 0
B= , , , ,
0 0 0 0 1 0 0 1
Poiché
1 1 0 0
0 1 0 0
MB,B (T ) =
1
,
0 1 1
1 1 1 1
si ha
1−t 1 0 0
0 1−t 0 0 = t(t−2)(t−1)2 .
PT (t) = det(MB,B (T )−tId4 ) = det
1 0 1−t 1
1 1 1 1−t
Quindi gli autovalori si T sono 0, 1, 2. La molteplicità algebrica di 0 e 2 è
uno mentre la molteplicità algebrica di 1 è due. Poiché
0 1 0 0
0 0 0 0
mg (1) = 4 − rg(MB,B (T ) − Id4 ) = 4 − rg 1 0 0 1 = 1,
1 1 1 0
T non è diagonalizzabile.
160
Esempio 9.25. Sia T : R3 −→ R3 l’applicazione lineare definita da:
1 0 1 −1 0 −1
T 0 = −2 , T 1 = −3 , T −1 = −3 .
1 2 1 3 1 −4
Allora
0 −1 −1
MC,B (T ) = −2 −3 −3 ,
2 3 −4
1 1 0
è la matrice associata a T rispetto alle basi B = 0 , 1 , −1
1 1 1
in partenza e la base canonica C in arrivo. Per stabilire se T è diagonaliz-
zabile non posso utilizzare la matrice MC,B (T ) (perché?). Svolgeremo due
procedimenti.
I metodo. Il polinomio caratteristico di T è
La matrice
MC,C (T ) = MC,B (T )M(B, C).
Poiché
x 1 1 0 x 2x − y − z
y = Sol 0 1 −1 y = −x + y + z
z B 1 1 1 z −x + z
si ha
2 1 −1
M(B, C) = −1 1 1
−1 0 1
e quindi
0 −1 −1 2 −1 −1 2 −1 −2
MC,C (T ) = −2 −3 −3 −1 1 1 = 2 −1 −4 .
2 3 −4 −1 0 1 −1 1 3
Il polinomio caratteristico di T è dato da
2−t −1 −2
pT (t) = det(MC,C (T )−tId3 ) = det 2 −1 − t −4 = −(t−1)2 (t−2),
−1 1 3−t
161
per cui gli autovalori di T sono 1 con molteplicità algebrica due e 2 con
molteplicità algebrica uno, e quindi anche geometrica uno. Poiché
l’endomorfismo T è diagonalizzabile.
II metodo. Vogliamo calcolare il polinomio caratteristico pT (t) = det(MB,B (T )−
tId3 ). Poiché
1 0 1 −1 0 −1
T 0 = −2 , T 1 = −3 , T −1 = −3 ,
1 2 1 3 1 −4
si ha
0 −1 −1
MB,B (T ) = −2 , −3 , −3 .
−2 B 3 B
2 B
Le coordinate di un vettore rispetto alla base B è l’unica soluzione del se-
guente sistema lineare
x 1 1 0 x 2x − y − z
y = Sol 0 1 −1 y = −x + y + z
z B 1 1 1 z −x + z
per cui gli autovalori di T sono 2 con molteplicità algebrica uno, e quindi
anche la molteplicità geometrica è uno, ed 1 con molteplicità algebrica 2.
162
Inoltre,
quindi T è diagonalizzabile.
LA (X) = AX.
(A − λIdn )v = 0.
LA (ei ) = Aei = Ai ,
163
La dimensione di Vλ è la molteplicità geometrica di λ. Applicando il Teorema
di Rouché-Capelli, si ha
164
Viceversa supponiamo che LA sia diagonalizzabile. Sia B = {v1 , . . . , vn }
una base di Kn formata da autovettori di LA . La matrice P = (v1 , . . . , vn ) è
invertibile poiché B = {v1 , . . . , vn } è una base di Kn . Vogliamo dimostrare
che P −1 AP è una matrice diagonale. Infatti
Quindi P è una matrice invertibile le cui colonne formano una base di au-
tovettori di LA e D è una matrice diagonale i cui elementi sulla diagonale
principale sono gli autovalori di LA e quindi di A.
a) A è diagonalizzabile su K;
Osservazione 9.31.
165
c) Sia A ∈ Mn×n (R) e sia pA (t) il suo polinomio caratteristico e sia
λ ∈ C un autovalore complesso. Allora anche λ è una radice di pA (t).
Quindi il numero delle radici complesse di un polinomio a coefficienti
reali è pari. Infatti, poiché pA (t) è un polinomio a coefficienti reali, si
ha pA (t) = pA (t) da cui segue
pA (λ) = pA (λ) = 0.
det(A) = λ1 · · · λn Tr(A) = λ1 + · · · + λn .
Bλ1 ∪ · · · ∪ Bλs ,
166
Supponiamo che A sia diagonalizzabile. Siano λ1 , . . . , λs ∈ K autovalori
distinti di A. Allora
Per provare che le due matrici sono uguali, dimostreremo che le due matrici
hanno le stesse colonne.
Siano e1 , . . . , en la base canonica di Kn . Ricordiamo che la i-esima
colanna della matrice P −1 AP è
(P −1 AP )i = P −1 AP ei ,
per i = 1, . . . , n.
Per definizione di P si ha P ei = vi per i = 1, . . . , n. Moltiplicando a
destra e sinistra per P −1 , si ha P −1 vi = ei per i = 1, . . . , n. Quindi
(P −1 AP )i = P −1 AP ei
= P −1 Avi
= µi P −1 vi
= µi ei ,
ovvero P −1 AP = D.
167
Gli autovalori di A sono −5 con molteplicità algebrica uno, e quindi anche
la molteplicità geometrica è 1, e −1 con molteplicità algebrica due. Poiché
1 −2 1
A + Id3 = 2 −4 2
−1 2 −1
La molteplicità geometrica dell’autovalore 1 è
mg (−1) = 3 − rg(A + Id3 ) = 2
e quindi A è diagonalizzabile. Una base per l’autospazio relativo a −5 è
1
V−5 = Sol(A + 5Id|0R3 ) = L 2
−1
mentre
2 1
V−1 = Sol(A + Id3 |0R3 ) = L 1 , 0 .
0 −1
2 1 1 −1 0 0
Quindi se P = 1 0 2 eD= 0 −1 0 , allora si ha
0 −1 −1 0 0 −5
P −1 AP = D.
Esempio 9.34. Sia
1 −1 0
A = −1 0 −1 .
0 1 1
Il polinomio caratteristico di A è
pA (t) = det(A − tId3 )
1 − t −1 0
= det −1 −t −1
0 1 1−t
= (1 − t)(t2 + t + 1) + (t − 1) = −t(t − 1)2 ,
e quindi gli autovalori di A sono 0 con molteplicità algebrica uno e 1 con
molteplicità algebrica due. Poiché
0 −1 0
A − Id3 = −1 −1 −1 ,
0 1 0
168
si ha
mg (1) = 3 − rg(A − Id3 ) = 1,
ovvero la molteplicità geometrica dell’autovalore 1 è uno e quindi A non è
diagonalizzabile. Una base per l’autospazio relativo a 0 è
1
V0 = Sol(A|0R3 ) = L 1
−1
mentre
1
V1 = Sol(A − Id3 |0R3 ) = L 0 .
−1
Esempio 9.35. Sia
−2 −1 3
A = −5 −2 5 .
−4 −2 5
−2 − t −1 3
pA (t) = det −5 −2 − t 5 = (1 − t)(t2 + 1)
−4 −2 5−t
Gli autovalori di A sono 0 con molteplicità algebrica uno e gli autovalori
i, −i con molteplicità algebrica uno rispettivamente. Quindi A non è diago-
nalizzabile su R ma è diagonalizzabile su C. Gli autospazi della matrice A,
pensata come matrice a coefficienti complessi, sono:
1
V1 = Sol(A − Id3 |0R3 ) = L 0 ,
1
−i
Vi = Sol(A − iId3 |0R3 ) = L 2 − i .
1−i
i
V−i = Sol(A + iId3 |0R3 ) = L 2 + i .
1+i
Se indichiamo con
1 −i i 1 0 0
P = 0 2 − i 2 + i , D = 0 i 0 ,
1 1−i 1+i 0 0 −i
169
si ha
P −1 AP = D.
an1 ann
allora una base di V formata da autovettori di T è
−1
FB (w1 ) =, . . . , FB−1 (wn ) = {a11 v1 + · · · + an1 vn , . . . , a1n v1 + · · · + ann vn } .
170
1 con molteplicità algebrica e geometrica due e 2 con molteplicità algebrica
e geometrica uno. Sia C la base canonica e sia B la base su cui è definita T .
I metodo. Poiché
rispettivamente
si ha
V2 = Sol(MC,C (T ) − 2Id3 |0R3 )
0 −1 −2 0
= Sol 2 −3 −4 0
−1 1 1 0
1
= L 2 ,
−1
rispettivamente
Quindi
1 0 1
1 , 2 , 2
0 −1 −1
171
Primo passo, calcoliamo gli autospazi della matrice MB,B (T ).
−1 −2 −1 0
Sol(MB,B (T ) − Id3 |0R3 ) = Sol 0 0 0 0
2 4 2 0
1 1
= L 0 , −1
−1 1
e quindi
1 0 1 1 0
V1 = L 0 − −1 , 0 − 1 + −1
1 1 1 1 1
1 0
= L 1 , −2 .
0 1
Analogamente
−2 −2 −1 0
Sol(MB,B (T ) − 2Id3 |0R3 ) = Sol 0 −1 0 0
2 4 1 0
1
=L 0 ,
−2
da cui segue
1 0
V2 = L 0 − 2 −1
1 1
1
=L 2
−1
Riassumendo,
1 0 1
B 0 = 1 , −2 , 2
0 1 −1
172
è una base di R3 formata da autovettori di T e
1 0 0
MB0 ,B0 (T ) = 0 1 0 .
0 0 2
hX, Y i = X T Y .
hAX, Y i = hX, AY i.
173
Quindi
hAX, Xi = hX, AXi
hλX, Xi = hX, λXi
λhX, Xi = λhX, Xi
Poiché hX, Xi =
6 0 si ha λ = λ, ovvero λ ∈ R.
hAX, Y i = hX, AY i.
Infatti
hAX, Y i = (AX)T Y
= X T AT Y
= X T (AY ) essendo A simmetrica)
= hX, AY i.
Teorema 9.40 (Teorema spettrale). Sia A ∈ Mn×n (R) una matrice sim-
metrica. Allora esiste una matrice ortogonale P tale che P T AP è diagonale.
Ovvero esiste una base ortonormale di Rn formata da autovettori di A.
174
Facoltativa. Per induzione su n. Se n = 1 è vero. Supponiamo di aver
dimostrato il teorema per n e proviamolo per n + 1. Per il lemma anteriore
una matrice simmetrica ha tutti gli autovalori reali. Sia λ ∈ R un autovalore.
v
Allora esiste v ∈ Rn non nullo tale che Av = λ1 v. Denotiamo con v1 = kvk .
n
Completiamo v1 ad una base ortonormale di R che denotiamo con B =
{v1 , . . . , vn+1 }. Allora
• P = M(C, B) = (v1 , . . . , vn+1 ) è una matrice ortogonale;
λ1 0 · · · 0
• P T AP = ...
B
0
dove B ∈ Mn×n (R) è una matrice simmetrica. Per ipotesi induttiva esiste
una matrice ortogonale Q di ordine n tale che
λ2
QT BQ =
.. .
.
λn+1
1 0 ··· 0
Sia Q̃ = ... ∈ Mn+1×n+1 (R). Q̃ è una matrice ortogonale
Q
0
da cui segue che anche P Q̃ è una matrice ortogonale. Inoltre
λ1
(P Q̃)T A(P Q̃) =
.. = D.
.
λn+1
175
Osservazione 9.42. Eistono matrici A ∈ Mn×n (C) tali che A = AT non
diagonalizzabile. Infatti
1 i
A= .
i −1
verifica A = AT . pA (t) = t2 quindi ha un autovalore λ = 0 con molteplicità
algebrica 2 e geometrica 1 da cui segue che A non è diagonalizzabile. Quindi
il Teorema spettrale non vale per matrici complesse.
176
Gli autovalori di A sono 4 con molteplicità algebrica uno e 1 con molteplicità
algebrica due. Una base per l’autospazio relativo a 1 è
1 0
V1 = Sol(A − Id|0R3 ) = L −1 , 1
0 −1
mentre
1
V4 = Sol(A − 4Id3 |0R3 ) = L 1 .
1
1 0 1 1 0 0
Quindi se P = −1 1 1 e D = 0 1 0 , allora
0 −1 1 0 0 4
P −1 AP = D.
La matrice √ √ √
1/ √2 1/√6 1/√3
U = −1/ 2 1/ √6 1/√3
0 −2/ 6 1/ 3
è ortogonale, le colonne formano una base ortonormale di autovettori di A
e verifica
U T AU = D.
177
Capitolo 10
Matrici ortogonali
Corollario 10.3. Sia A ∈ Mn×n (R) una matrice ortogonale. Allora l’en-
domorfimo LA : Rn −→ Rn preserva la lunghezza di un vettore, l’angolo fra
due vettori non nulli e infine la distanza fra due vettori.
si ha k LA (X) k=k X k ed
178
Poiché la distanza fra X e Y è per definizione d(X, Y ) =k X − Y k, si ha
che LA preserva la distanza.
Siano X e Y vettori non nulli. Allora
hLA (X), LA (Y )i hX, Y i
= ,
k LA (X) kk LA (Y ) k k X kk Y k
hAZ, AW i = hZ, W i,
ovvero
|λ|2 hZ, Zi = hZ, Zi.
6 0, si ha |λ|2 = 1.
Poiché hZ, Zi =
179
Corollario 10.5. Sia A una matrice ortogonale. Allora det(A) = ±1.
a = cos θ c = sin θ
.
b = cos ψ d = sin ψ
180
Inoltre dalla secondo equazione si deduce che cos θ cos ψ + sin θ sin ψ =
cos(ψ − θ) = 0, ovvero
π
ψ = θ + + kπ.
2
Se k è pari allora cos ψ = cos(θ + 2 ) = − sin(θ) e sin ψ = sin(θ + π2 ) = cos(θ),
π
ovvero
cos θ − sin θ
A= ,
sin θ cos θ
3π
e det(A) = 1. Se invece k è dispari, allora cos ψ = cos(θ + 2 ) = sin(θ) e
sin ψ = sin(θ + 3π
2 ) = − cos(θ), ovvero
cos θ sin θ
A= ,
sin θ − cos θ
181
Tenendo in mente che cos θ − 1 = −2 sin2 ( 2θ ) e sin θ = 2 sin 2θ cos 2θ , l’equa-
zione diventa
θ θ θ
−2 sin2 x + 2 sin cos y = 0,
2 2 2
e quindi
cos 2θ
V1 = L .
sin 2θ
Poiché V−1 = V1⊥ , si ha
− sin 2θ
V−1 = L .
cos 2θ
cos 2θ − sin 2θ
La base B = θ , è una base ortonormale formata da
sin 2 cos 2θ
autovettori di A. Quindi
1 0
MB,B (LA ) = ,
0 −1
i.e., LA è la riflessione rispetto alla retta passante per l’origine e che ha
cos 2θ
. come vettore direttore.
sin 2θ
θ
2
x
Se det(A) = 1, allora
cos θ − sin θ
A=
sin θ cos θ
per un certo θ ∈ [0, 2π]. Poiché pA (t) = t2 − 2 cos θ + 1, LA non è diagona-
lizzabile se θ 6= 0, −π, che corrispondono a Id2 e −Id2 . Vogliamo dimostrare
che LA è un rotazione di angole θ. È facile verificare che
hAe1 , e1 i = hAe2 , e2 i = cos θ,
182
x
dove h·, ·i è il prodotto scalare standard di R2 . Quindi, se v = =
y
xe1 + ye2 ∈ R3 , si ha
Quindi
hAv, vi
= cos θ,
k v kk Av k
ovvero l’endomorfismo LA è una rotazione attorno all’origine di angolo θ.
θ
x
183