Sei sulla pagina 1di 183

Capitolo 1

Spazio euclideo

1.1 R3 : Struttura lineare


Sia Σ lo spazio euclideo. Se fissiamo un sistema di riferimento ortogonale,
ad ogni puno P ∈ Σ possiamo associare, in maniera univoca, 3 numeri reali
ovvero le proiezioni lungo gli assi x, y e z (Figura 1.1.1) Se indichiamo con
R3 l’insieme ordinato di terne di numeri reali, i.e,
  
 x1 
R3 =  x2  x1 , x2 , x3 ∈ R ,
x3
 

allora l’applicazione
 
x(P )
F : Σ −→ R3 P →
7  y(P ) 
z(P )

è una corrispondenza biunivoca. Quindi possiamo identificare lo spazio


euclideo con R3 .

1
z

z(P)

y(P)
y
x(P)

Figura 1.1.1. x

   
x1 y1
Se X =  x2  , Y =  y2 , allora X = Y se x1 = y1 , x2 = y2 , x3 = y3 .
x3 y3
Possiamo definire due operazioni su R3 :
 
x1 + y1
a) somma: R3 × R3 −→ R3 (X, Y ) 7→ X + Y =  x2 + y2 ;
x3 + y3
 
λx1
b) moltiplicazione per scalare R×R3 −→ R3 (λ, Y ) 7→ λX =  λx2 .
λx3
La somma si interpreta geometricamente con la regola del parallelogramma,
ovvero se X e Y sono vettori di R3 , considero il parallelogramma di lati X
e Y . Allora il vettore X + Y è la diagonale principale del parallelogramma
di lati X e Y come nella seguente figura. La moltiplicazione per scalare,

Y X +Y

invece, è rappresentata nella prossima figura.

2
λX

Figura 1.1.2. λX

La somma e la moltiplicazione per scalari godono di importanti proprietà.

Proposizione 1.2. Dati X, Y, Z ∈ R3 , λ, µ ∈ R allora

a) X + (Y + Z) = (X + Y ) + Z: proprierà associativa della somma;

b) X + Y = Y + X: proprietà commutativa della somma;


 
0
c) posto 0R3 = 0 , allora 0R3 + X = X + 0R3 = X;

0

d) se X ∈ R3 , allora X + (−1)X = (−1)X + X = 0R3 . −X := (−1)X è


detto opposto di X;

e) (λ + µ)X = λX + µX;

f ) λ(X + Y ) = λX + λY ;

g) (λµ)X = λ(µX) = µ(λX).

Un elemento X ∈ R3 si dice punto o vettore. 0R3 si chiama il vettore


nullo. Notazione: X − Y := X + (−1)Y .

Osservazione 1.3. Siano X, Y, Z ∈ R3 . Se X + Y = X + Z allora Y = Z.


Infatti sommanda a destra e sinistra per l’opposto di X rispetto alla somma
si ha la tesi.

Definizione 1.4. Siano X1 , . . . , Xk ∈ R3

• Si dice combinazione lineare di X1 , . . . , Xk ogni elemento Z ∈ R3 per


cui esistano λ1 , . . . , λk ∈ R tali che Z = λ1 X1 + · · · + λk Xk . I numeri
reali λ1 , . . . , λk si chiamano i coefficienti della combinazione lineare.

3
• X1 , . . . Xk si dicono linearmente dipendenti se esistono λ1 , . . . , λk non
tutti nulli, tali che

λ1 X1 + · · · + λk Xk = 0R3 ;

• X1 , . . . Xk si dicono linearmente indipendenti se non sono linearmente


dipendenti, ovvero se, comunque scelti λ1 , . . . , λk non tutti nulli, si ha

λ1 X1 + · · · + λk Xk 6= 0R3 ;

ovvero
λ1 X1 + · · · + λk Xk = 0R3 ;
se e solamente se λ1 = · · · = λk = 0.
     
1 1 1
Esempio 1.5. Siano Z =  2 , X1 =  1 , X2 =  2 , X3 =
−1 −1 1
 
1
 0 . Stabilire se Z è combinazione lineare di X1 , X2 , X3 significa veri-
−1
ficare se esistono λ1 , λ2 , λ3 ∈ R tale che
       
1 1 1 1
 2  = λ1  1  + λ2  2  + λ3  0  ,
−1 −1 1 −1
ovvero    
1 λ1 + λ2 + λ3
 2 = λ1 + 2λ2 .
−1 −λ1 + λ2 − λ3
Quindi Z è combinazione lineare dei vettori X1 , X2 , X3 se e solamente se il
sistema lineare 
 λ1 + λ2 + λ3 = 1
λ1 + 2λ2 = 2
−λ1 + λ2 − λ3 = −1

ammette soluzioni.

    
1 0 0
Esempio 1.6. Siano e1 =  0 , e2 =  1 , e3 =  0 . Ogni vettore
0 0 1
3
di R si scrive come combinazioni lineare dei vettori e1 , e2 , e3 .

4
z

X
e3
e2 y
e1

Figura 1.6.1. x
 
x1
Infatti, se X =  x2  ∈ R3 , allora
x3
       
x1 1 0 0
 x2  = x1  0  + x2  1  + x3  0  = x1 e1 + x2 e2 + x3 e3 .
x3 0 0 1

I vettori e1 , e2 , e3 sono anche linearmente indipendenti poiché

α1 e1 + α2 e2 + α3 e3 = 0R3

implica    
α1 0
 α2  =  0  ,
α3 0
ovvero α1 = α2 = α3 = 0.
     
1 2 1
Esempio 1.7. Siano  1 ,  3 ,  0 . Stabilire se i vettori sono li-
2 1 5
nearmente dipendenti, rispettivamente indipendenti, equivale a studiare una
combinazioni lineare
       
1 2 1 0
α1 1 + α2 3 + α3 0 = 0  ,
      
2 1 5 0

uguale al vettore nullo. Sviluppando il termine di sinistra, si ha


   
α1 + 2α2 + α3 0
 α1 + 3α2  = 0 .

2α1 + α2 + 5α3 0

5
     
1 2 1
Quindi stabilire se i vettori 1 , 3 , 0  sono linearmente indipen-
    
2 1 5
denti, rispettivamente dipendenti, equivale a stabilire se il seguente sistema
lineare 
 α1 + 2α2 + α3 = 0
α1 + 3α2 = 0
2α1 + α2 + 5α3 = 0.

ammette una unica soluzione data da α1 = α2 = α3 = 0, rispettivamente


ammette soluzioni con α1 , α2 , α3 ∈ R non tutti nulli.

Proposizione 1.8. Siano X, Y ∈ R3 . I vettori X e Y sono vettori linear-


mente dipendenti se e solo se uno è multiplo dell’altro ovvero esiste λ ∈ R
tale che X = λY oppure Y = λX.

Dimostrazione. Se X = λY allora X −λY = 0R3 , ovvero 0R3 è combinazione


lineare non banale dei vettori X e Y . Analogamente se Y = λX. Viceversa,
supponiamo che X e Y sono linearmente dipendenti. Allora esistono α e β
non entrambi nulli, tali che

αX + βY = 0R3 .

Se α 6= 0, allora X = − αβ Y . Analogamente se β 6= 0, si ha Y = − αβ X.

Diremo che due vettori X e Y sono proporzionali se esiste λ ∈ R tali


X = λY oppure Y = λX.

Osservazione 1.9.

• X ∈ R3 è linearmente indipendente se e solamente se X 6= 0R3 ;

• 0R3 , X1 , . . . , Xk sono linearmente dipendenti;

• Se B è un insieme di elementi di R3 linearmente indipendenti, allora


ogni sottoinsieme di B è costituito da elementi linearmente indipen-
denti;

• se B è un insieme costituito di elementi di R3 linearmente dipenden-


ti, allora ogni sovrainsieme di B è costituito da elementi linearmente
dipendenti.

6
1.10 R3 : struttura metrica
In questa sezione investigheremo la struttura metrica dello spazio eucli-
deo.

Definizione 1.11. Il prodotto scalare canonico è una funzione che associa


ad ogni coppia di vettori un numero reale come segue:

R3 × R3 −→ R (X, Y ) 7→ hX, Y i = x1 y1 + x2 y2 + x3 y3 ,
   
x1 y1
per ogni X =  x2 , Y =  y2  ∈ R3
x3 y3
Il prodotto scalare canonico soddisifa alle seguenti proprietà:

Proposizione 1.12. Se X, Y, Z ∈ R3 e λ, µ ∈ R, allora

(a) hX, Xi = x21 + x22 + x23 ≥ 0 e hX, Xi = 0 se e solamente se X = 0R3 ;

(b) hX, Y i = hY, Xi;

(c) hX + Z, Y i = hX, Y i + hZ, Y i;

(d) hλX, Y i = λhX, Y i;

(e) hX, Y + Zi = hX, Y i + hX, Zi;

(e) hX, λY i = λhX, Y i.


 
x1
Sia X =  x2 . La norma o lunghezza di X è il numero reale non
x3
p p
negativo k X k:= hX, Xi = x21 + x22 + x23 . Definiamo la distanza fra
due vettori X, Y il numero reale non negativo d(X, Y ) =k X − Y k. In
particolare la lunghezza di un vettore X ∈ R3 è la distanza di X dal vettore
nullo. Osserviamo infine che h0R3 , Xi = 0 per ogni X ∈ R3 .
Siano X, Y ∈ R3 non entrambi nulli. I vettori X e Y dividono un piano
in quattro regioni e due angoli. L’angolo fra X e Y e per definizione l’angolo
minore o uguale a π che nella prossima figura è stato indicato con θ. Voglia-
mo dimostrare che il prodotto scalare hX, Y i descrive, in maniera algebrica,
il cos θ, dove θ è l’angolo fra X e Y . Calcoliamo la norma del vettore X + Y :

7
Y

θ
X

Y X +Y

θ
X
0

applicando il teorema di Carnot al triangolo di vertici 0, X, X + Y , si ha


k X + Y k2 =k X k2 + k Y k2 −2 k X kk Y k cos ψ, dove ψ è l’angolo
opposto al lato X + Y . Poiché θ + ψ = π, si ha

k X + Y k2 =k X k2 + k Y k2 +2 k X kk Y k cos θ.

Per le proprietà del prodotto scalare, si ha

k X + Y k2 = hX + Y, X + Y i
= hX, X + Y i + hY, X + Y i
= hX, Xi + hX, Y i + hY, Xi + hY, Y i
=k X k2 +2hX, Y i+ k Y k2

da cui segue
hX, Y i = cos θ k X kk Y k .
Poiché X e Y sono entrambi non nulli, abbiamo dimostrato la seguente
formula:
hX, Y i
cos θ = .
k X kk Y k
Vediamo alcune conseguenze della formula anteriore.

Corollario 1.13. Siano X, Y ∈ R3 vettori non nulli. Allora

a) L’angolo fra X e Y è acuto, rispettivamente ottuso, se e solamente se


hX, Y i > 0, rispettivamente hX, Y i < 0;

8
b) X e Y sono ortogonali se e solamente se hX, Y i = 0;

c) (Disuguaglianza di Cauchy-Schwartz)

|hX, Y i| ≤k X kk Y k .

L’uguaglianza vale se e solamente se X e Y sono linearmente dipen-


denti.

La discussione anteriore suggerisce la seguente definizione.

Definizione 1.14. Diremo che due vettori X, Y ∈ R3 sono ortogonali,


oppure perpendicolari, se il loro prodotto scalare è nullo, i.e., hX, Y i = 0.

Sia S un sottoinsieme di R3 . Indicheremo con S ⊥ l’insieme dei vettori


di R3 ortogonali ad ogni vettore di S. Quindi

S ⊥ := {X ∈ R3 : hX, si = 0 ∀s ∈ S}.

S ⊥ non è mai l’insieme vuoto poiché 0R3 ∈ S ⊥ .

Proposizione 1.15. Siano v, w ∈ S ⊥ e λ ∈ R. Allora v + w ∈ S ⊥ e


λv ∈ S ⊥ .

Dimostrazione. Poiché v, w ∈ S ⊥ , si ha hv, si = hw, si = 0 per ogni s ∈ S.


Noi dobbiamo dimostrare che

hv + w, si = 0,

e
hλv, si = 0
per ogni s ∈ S. Sia s ∈ S. Per le proprietà del prodotto scalare si ha

hv + w, si = hv, si + hw, si
=0+0
= 0.

Analogamente

hλv, si = λhv, si
= 0.

9
Teorema 1.16. Siano X, Y ∈ R3 . Allora k X k2 + k Y k2 =k X + Y k2 se
e solamente se X, Y sono ortogonali.
Dimostrazione. Per le proprietà del prodotto scalare si ha:
k X + Y k2 = hX + Y, X + Y i = hX, X + Y i + hY, X + Y i
= hX, Xi + hX, Y i + hY, Xi + hY, Y i
=k X k2 +2hX, Y i+ k Y k2 .

Quindi k X + Y k2 =k X k2 + k Y k2 se e solamente se hX, Y i = 0 se e


solamente se X, Y sono vettori perpendicolari.

1.17 R3 : prodotto vettoriale


   
x1 y1
Siano X, Y ∈ R3 con X =  x2  e Y =  y2 . Definiamo il loro
x3 y3
prodotto vettoriale, che indicheremo con X × Y , come il vettore
 
x 2 y3 − x 3 y2
X × Y =  −y3 x1 + x3 y1  .
x 1 y2 − y1 x 2

Il prodotto vettoriale definisce una applicazione R3 ×R3 −→ R3 che soddisfa


alle seguente proprietà:
Proposizione 1.18. Siano X, Y, Z ∈ R3 e λ, µ ∈ R. Allora
• X × Y = −(Y × X), i.e., il prodotto vettoriale è antisimmetrico;
• (X + Y ) × Z = (X × Z) + (Y × Z);
• (λX) × Z = λ(X × Z);
• X × (Y + Z) = (X × Y ) + (X × Y );
• X × (λY ) = λ(X × Y );
• X × Y è ortogonale sia al vettore X sia al vettore Y ;
• X × Y = 0R3 se e solamente se X e Y sono linearmente dipendenti;
• k X × Y k=k X kk Y k sin θ, dove θ è l’angolo fra X e Y . Quindi la
norma del prodotto vettoriale è l’area del parallelogramma di lati X e
Y ;

10
Dimostrazione. Dimostreremo solamente le ultime 3 proprietà lasciando per
esercizio la verifiche delle altre.
hX, X × Y i = x1 (x2 y3 − x3 y2 ) + x2 (−y3 x1 + x3 y1 ) + x3 (x1 y2 − y1 x2 )
= x1 x2 y3 + x2 x3 y1 + x3 x1 y2
− (x1 x2 y3 + x2 x3 y1 + x3 x1 y2 )
= 0.

Analogamente 
è possibile
  che hY, X × Y i = 0.
dimostrare

x1 y1
Siano X =  x2  , Y =  y2  ∈ R3 tali che X × Y = 0. Allora
x3 y3

 x2 y3 − x3 y2 = 0
−y3 x1 + x3 y1 = 0
x1 y2 − y1 x2 = 0

Se X = 0 allora ho finito. Supponiamo quindi X 6= 0. Se x1 6= 0, allora


 y1
 y3 = x1 x3
y2 = xy11 x2
y1 = xy11 x1

y1
ovvero Y = x1 X.
Analogamente gli altri casi.
   
x1 y1
Siano X =  x2  , Y =  y2  ∈ R3 . Allora
x3 y3

k X × Y k2 =(x2 y3 − x3 y2 )2 + (−y3 x1 + x3 y1 )2 + (x1 y2 − y1 x2 )2


=(x2 y3 )2 + (x3 y2 )2 + (y3 x1 )2 + (x3 y1 )2 + (x1 y2 )2 + (y1 x2 )2

−2 x2 y3 x3 y2 + y3 x1 x3 y1 + x1 y2 y1 x2
=x21 (y12 + y22 + y32 ) − x21 y12 + x22 (y12 + y22 + y32 ) − x22 y22
+x23 (y12 + y22 + y32 ) − x23 y32 − 2 x2 y3 x3 y2 + y3 x1 x3 y1 + x1 y2 y1 x2


= k X k2 k Y k2 − (x1 y1 )(x1 y1 + x2 y2 + x3 y3 ) + (x2 y2 )((x1 y1 + x2 y2 + x3 y3 )



+(x3 y3 )(x1 y1 + x2 y2 + x3 y3 )
= k X k2 k Y k2 −hX, Y i2
= k X k2 k Y k2 (1 − cos2 (θ)) =k X k2 k Y k2 sin2 θ.

11
Geometricamente, se X e Y sono vettori linearmente indipendenti, allora
la seguente figura
X ×Y

descrive il prodotto vettoriale.

1.19 Rette e piani


Possiamo pensare ad una retta nello spazio come ad una particolare
traiettora di un punto che si muove, sempre secondo una certa direzione (e
verso). Quindi, se pensiamo al parametro t come al tempo, i punti di una
retta sono descritti da una equazione parametrica

r : X = P + tA,

dove t ∈ R è il parametro, P è un punto delle retta ed infine A è un


vettore non nullo, chiamato vettore direttore, che ne indica la direzione
(Figura 1.19.1).

Figura 1.19.1.

Come insieme

r = {X ∈ R3 : X = P + tA, t ∈ R}.

Una retta ha molte possibili equazioni parametriche. Possiamo scegliere un


qualsiasi punto Q ∈ r ed come vettore direttore B = kA con k 6= 0. Infatti

12
se Q = P + to A, allora

(t − t0 )
P + tA = Q − to A + tA = Q + (t − to )A = Q + B,
k
da cui segue

r = {X ∈ R3 : X = P + tA, t ∈ R} = {X ∈ R3 : X = Q + sB, s ∈ R}.

Dato un punto P , le rette che passano per P sono tutte e sole le rette che
hanno equazioni parametriche

X = P + tA, t ∈ R,

dove A ∈ R3 non nullo. L’insieme delle rette passanti per P si chiama stella
di rette di centro P. Per due punti distinti P1 e P2 passa una ed una sola
retta. Le equazioni parametriche sono date da

r = P1 + t(P1 − P2 ), t ∈ R.

Proviamo che effettivamente tale retta è unica.


Sia r : Q + tA una retta passante per P1 e P2 . Allora P1 = Q + t1 A e
P2 = Q + t2 A. Poiché P1 6= P2 , ne segue che t1 6= t2 . Quindi P1 − P2 =
(t1 − t2 )A e
t − t1
Q + tA = P1 + (t − t1 )A = P1 + (P1 − P2 ).
t1 − t2
Siano r1 = P1 +tA1 e r2 = P2 +tA2 due rette nello spazio. Diremo che le due
rette sono ortogonali o perpendicolari se hA1 , A2 i = 0. Le mutue posizione
di due rette nello spazio sono le seguenti:
Le rette r1 e r2 sono parallele se non hanno punti in comune ed hanno
la stessa direzione.
r2
r1

Figura 1.19.2.

13
Quindi i vettori direttori delle rette r1 e r2 sono proporzionali, ovvero A1
e A2 sono linearmente dipendenti. Quindi se due rette sono parallele allora
A1 × A2 = 0R3 . Se r1 ed r2 , hanno vettori direttori linearmente dipendenti
ed hanno un punto in comune, allora esse sono coincidenti. Quindi, due
rette r1 = P1 + tA1 ed r2 = P2 + tA2 sono coincidenti se e solo se P1 ∈ r2 e
i vettori direttori dir1 ed r2 rispettivamente sono linearmente dipendenti.
Le rette r1 e r2 sono incidenti se hanno esattamente un punto in comune.
r2
r1

Figura 1.19.3.

Se r1 e r2 sono incidenti, allora A1 × A2 6= 0R3 . Altrimenti sarebbero


coincidenti. Infine, due rette si dicono sghembe se non sono ne incidenti ne
parallele, ovvero r1 e r2 sono sghembe se e solamente se non hanno punti in
comune ed i vettori direttori sono linearmente indipendenti.
z

Figura 1.19.4. x r

Possiamo pensare ad un piano


 come all’insieme ortogonale ad una di-
a
rezione fissata. Sia n =  b  6= 0R3 . Il piano passante per l’origine ed
c

14
ortogonale alla direzione n è
     
 x   x 
{n}⊥ =  y  ∈ R3 : hX, ni = 0 =  y  ∈ R3 : ax + by + cz = 0 .
z z
   

Il vettore n si chiama vettore normale al piano. Il piano passante per il

punto P e ortogonale alla direzione n è invece descritto dall’insieme

π : = X ∈ R3 : hX − P, ni = 0

  
 x 
=  y  ∈ R3 : ax + bx + cx + d = 0 ,
z
 

dove d = −hP, ni. Quindi un’equazione cartesiane per un piano nello spazio

π : ax + by + cz + d = 0,
dove a, b, c ∈ R sono numeri reali non tutti nulli.
Il piano π passa per l’origine se e solamente se d = 0. Osserviamo che
il piano π con vettore normale n e passante per P non è altro che il piano
passante l’origine, ortogonale a n e traslato lungo il vettore P .  
xo
Esistono infiniti piani passanti per un punto. Infatti, se P =  yo ,
zo
 
a
allora per ogni  b  6= 0R3 , il piano ax + by + cz = axo + byo + czo è un
c
piano passante per P .

15
Se P1 , P2 ∈ π, sono due punti distinti, allora se un piano π contiene i
punti P1 e P2 , allora π contiene la retta passante per P1 e P2 , i.e., r = {P1 +
t(P2 − P1 ), t ∈ R}. È facile convincersi, provare per esercizio, che esistono
infiniti piani che contengono una retta r. Se invece consideriamo tre punti
non allineati, allora esiste un unico piano che li contiene. Ricordiamo che P1 ,
P2 e P3 vettori di R3 si dicono allineati se non appartengono ad una retta.
Questa condizione è equivalente alla condizione che i vettori P2 −P1 e P3 −P1
sono linearmente indipendenti. Se indichiamo con n = (P2 − P1 ) × (P3 − P1 )
allora il piano
π := X ∈ R3 : hX − P1 , ni = 0 .


passa per i punti P1 , P2 , P3 .


Siano π1 : a1 x+b1 y+c
 1 z+d1 = 0 eπ2 : a2 x+b2 y+c2 z +d2 = 0 due piani.
a1 a2
Indichiamo con n1 = b1   e n2 = b2  i loro vettori normali. Diremo

c1 c2
che π1 e π2 sono ortogonali se n1 e n2 sono ortogonali, ovvero hn1 , n2 i = 0.
Adesso studiamo la mutua posizione di due piani nello spazio.
Diremo che i piani π1 e π2 sono:

• coincidenti se π1 = π2 , e quindi se e solamente se esiste k ∈ R non


nullo tale che

n1 = kn2 (linearmente dipendenti) e d1 = kd2 ;

• paralleli se π1 e π2 non si intersecano. In questo caso si ha n1 × n2 =


0R3 , ovvero n1 e n2 sono linearmente dipendenti;

n2

n1

π2

π1

16
• incidenti se si intersecano lungo una retta. Questo succede se e so-
lamente se n1 e n2 sono vettori linearmente indipendenti, ovvero se e
solamente se n1 × n2 6= 0R3 .
Figura 1.19.5.

r
π1

π2


a
Sia r : P + tA, t ∈ R e π : ax + by + cz + d = 0. Indichiamo con n =  b 
c
il vettore normale al piano. Allora:
• r ⊂ π se e solamente se P ∈ π e hA, ni = 0;
Figura 1.19.6.
n

r
π

• la retta r è parallela a π se non hanno punti in comune.Se r è parallela


a π, allora hA, ni = 0;

17
Figura 1.19.7.
n

• infine se r ∩ π = {Q}, si dice che r e π sono incidenti. r e π sono


incidenti se e solamente se hA, ni =
6 0;

Figura 1.19.8.
n
r

Q
π

Calcolare equazioni parametriche di un piano significa descrive gli elementi


che appartengono al piano.
Sia
 π : ax + by + cz + d = 0 un piano nello spazio. Poiché il vettore
a
n = b  è non nullo, allora a, b, c non sono tutti nulli.

c

18
• Se a 6= 0, allora x = − ad − ab y − ac z, da cui segue
 d b
 − a − a y − ac z
 

π=  y  : y, z ∈ R
z
 
     
 −d/a −b/a −c/a 
=  0 +y 1 +z 0  ;
0 0 1
 

Quindi π ha equazioni


 paramentriche:
  y, z ∈ R,
 π : P + yv + zw,
−d/a −b/a −c/a
dove P =  0  ∈ π, v =  1  , w =  0  sono vettori
0 0 1
linearmenti indipendenti e ortogonali a n;

• se b 6= 0, allora y = − db − ab x − cb z, da cui segue


     
 0 1 0 
π =  −d/b  + x  −a/b  + z  −c/b 
0 0 1
 

• se c 6= 0, allora z = − dc − ac x − cb y, da cui segue


     
 0 1 0 
π =  0  + x 0  + y 1  .
−d/c −a/c −b/c
 

Esempio 1.20. Determinare un’equazione parametrica per il piano π : 2x −


y + z = 4. Poiché y = 2x + z − 4 si ha
  
 x 
π =  2x + z − 4  : x, z ∈ R
z
 
     
 0 1 0 
=  −4  + x  2  + z  1  ;
0 0 1
 

Quindi
 π ha  π : P + yv + zw, y, z ∈ R, dove
 equazioniparamentriche:

0 1 0
P = −4 ∈ π, v = 2 , w = 1 .
    
0 0 1

19
Abbiamo dimostrato che ogni piano π : ax + by + cz = d ha equazioni
paramentriche π : P + tv + sw, t,s ∈ R,
 dove v, w sono vettori linearmente
a
indipendenti ed ortogonali a n =  b  e P ∈ π. Viceversa, sia
c

π : P + tV + sW, s, t ∈ R,

dove V e W sono vettori linearmente indipendenti. Se n = V × W , allora

π = {X ∈ R3 : hX − P, ni = 0},
   
a xo
sono equazioni cartesiane di π. Quindi se n =  b  e P =  yo , allora
c zo

ax + by + cz = axo + byo + czo ,

è una equazione cartesiane per il piano π.


Siano P1 , P2 , P3 ∈ R3 tre punti non allineati, ovvero (P2 − P1 ) × (P3 −
P1 ) 6= 0. Allora l’unico piano passante per P1 , P2 , P3 ha equazioni parame-
triche
π : P1 + t(P2 − P1 ) + s(P3 − P1 ).
 
1
Esempio 1.21. Determinare un’equazione cartesiana per il piano π :  2 +
−1
   
−1 0
t  1  + s  −1  , s, t ∈ R.
1 1
     
−1 0 2
n=  1  × −1 = 1 
  
1 1 1

Quindi
π : 2x + y + z = d.
 
1
Imponendo il passaggio per  2  si ha
−1

2x + y + z = 3.

20
Esempio 1.22. Determinare equazioni parametrica e una equazione carte-
siane del piano π contenente la retta
   
1 −4
r :  2  + t 3 
−2 2
 
3
e passante per P =  3 .
−3
   
1 2
Sia Q =  2  ∈ r. Poiché P ∈/ r, allora P − Q =  1  e Ar =
−2 −1
 
−4
 3  sono linearmente indipendenti. Quindi il piano cercato ha equazioni
2
parametriche      
3 −4 2
π :  3  + t 3  + s 1 .
−3 2 −1
Per determinare un’equazione cartesiane basta osservare che un vettore nor-
male al piano è dato da
 
5
n = (P − Q) × A =  0  .
10

Imponendo il passaggio per P si ha

5x + 10z = −15.

Due piani non paralleli si intersecano lungo una retta. Vogliamo provare
il viceversa, ovvero che ogni retta è intersezione
  di due
 piani
 non paralleli.
xo a1
Sia r : P + tA una retta. Se P =  yo  e A =  a2  allora
z0 a3

 x = xo + ta1
y = yo + ta2
z = zo + ta3

21
Se a1 fosse differente da zero, allora potremmo ricavare t, i.e.,
x − xo
t= ,
a1
e sostituendo nelle altre due equazioni, si ha:
  
 x a2 (x − xo ) a3 (x − xo ) 
r =  y  ∈ R 3 : y − yo = , z − zo = , .
a1 a1
z
 

Osserviamo che i piani π1 : a1 (y − yo ) − a2 (x − xo ) = 0 e π2 : a1 (z − zo ) −


a3 (x − xo ) = 0 sono non paralleli, e la loro intersezione è la retta r. Le
equazioni 
a1 (y − yo ) − a2 (x − xo ) = 0
r= ,
a1 (z − zo ) − a3 (x − xo ) = 0
sono chiamate equazioni cartesiane. Analogamente se a2 6= 0, allora
  
 x a1 (y − yo ) a3 (y − yo ) 
r =  y  ∈ R3 : x − xo = , z − zo = ,
a2 a2
z
 

ed se a3 6= 0, allora
  
 x a2 (z − zo ) a3 (z − zo ) 
r =  y  ∈ R3 : y − yo = , y − yo = , .
a3 a1
z
 

Quindi scrivere equazioni cartesiane per una retta r equivale, geometrica-


mente, a determinare due piani non paralleli, π1 e π2 , tali che r = π1 ∩ π2 . È
facile convincersi che una stessa retta ha infinite possibili equazioni cartesia-
ne, nonché ci sono infinite coppie di piani che, intersecandosi, individuano
la stessa retta.

Esempio 1.23. 
 x=1+t
r: y = 2 + 2t
z = 3t

Posso ricavare t = x − 1 e quindi


  
 x 
r =  y  ∈ R3 : y − 2x = 0, z − 3x = −3 .
z
 

22
Se la retta r ha equazioni cartesiane

ax + by + cz + d = 0
r := ,
a0 x + b0 y + c0 z + d0 = 0

allora determinare equazioni parametriche di r equivale a risolvere un siste-


ma di 2 equazioni in 3 incognite. Svilupperemo più avanti una tecnica che
ci permetterà di risolvere i sistemi lineari. Poiché un vettore direttore della
retta r è ortogonale ai vettori normali dei due piani, può essere calcolato
facendo il prodotto vettoriale dei vettori normali ai piani:
   0 
a a
A = b × b0  .
  
c c0

Esempio 1.24. 
x−y+z =1
r:
y − 2z = 2
Dalla seconda equazione ricaviamo y = 2 + 2z e poi x = 3 + z. Quindi
    
 x=3+z 3 1
r := y = 2 + 2z = 2 + z 2  , z ∈ R
  
z=z 0 1

L’insieme dei piani passanti per una retta r si chiama fascio di piani di
asse r. Se la retta r ha equazioni cartesiane

ax + by + cz + d = 0
,
a0 x + b0 y + c0 z + d0 = 0

allora si può dimostrare che un piano π appartiene al fascio di piani di asse r


se e solamete se esistano λ, µ ∈ R, non entrambi nulli, tali che π ha equazioni
cartesiane

λ(ax + by + cz + d) + µ(a0 x + b0 y + c0 z + d0 ) = 0

Il fascio dei piani di asse r può essere utilizzato per risolvere alcuni esercizi.

Esempio 1.25. Determinare un’equazione cartesiana del piano π contenen-


te la retta 
x−y−z =1
r:
x+y+z =2

23
 
3
e passante per P =  1 .
0
Un piano contenente r ha equazione cartesiana

α(x − y − z − 1) + β(x + y + z − 2) = 0,

al variare di α, β ∈ R non entrambi nulli- Imponedo il passaggio per P si ha

α + 2β = 0,

ovvero α = −2β. Quindi se scelgo β = 1, allora α = −2 ed il piano cercato


ha equazione cartesiana
−x + 3y + 3z = 0.
 
1
Esempio 1.26. Determinare la retta r passante per P =  −2  ed inci-
1
dente alle rette
 
x+z =0 x−y =1
s1 : s2 :
2x − y = 0 y−z =3
L’obbiettivo è determinare due piani non paralleli che contengono la retta
cercata.
Un’equazione cartesian per un piano contenente s1 è:

α(x + z) + β(2x − y) = 0.

Imponendo il passaggio per P si ha:

2α + 4β = 0,

ovvero α = −2β. Se β = −1, allora α = 2 il piano π1 : y + 2z = 0 contiene


la retta r. Analogamente il fascio di piani di asse s2 è dato da

α(x − y − 1) + β(y − z − 3) = 0.

al variare di α, β ∈ R non tutti nulli. Imponendo il passaggio per P si ha

2α − 6β = 0,

otteniamo il piano π2 : 3x−2y−z = 6. Quindi la retta la retta r ha equazioni


cartesiane 
y + 2z = 0
r: .
3x − 2y − z = 6

24
Esempio 1.27. Determinare un’equazione cartesiana della retta r incidente
ed ortogonale alle rette
 
x−z =0 x+y =2
s1 : s2 :
2x − y = 2 y+z =4

Poiché la retta r è ortogonale sia a s1 e sia s2 , un vettore direttore della


retta r è dato dal prodotto
 vettoriale
 dei vettori direttori di s1 e s2 , rispet-
1
tivamente, ovvero A =  0  è un vettore direttore di r. L’obbiettivo è
−1
determinare due piani non paralleli che contengono la retta cercata.
Il piano contenente s1 il cui vettore normale è ortogonale ad A contiene
la retta r. Per determinare tale piano applichiamo il metodo del fascio:

α(x − z) + β(2x − y − 2) = 0.

Il vettore normale al piano è il vettore:


 
α + 2β
nα,β =  −β  .
−α

Imponendo la condizione

hnα,β , Ai = 0 ⇐⇒ α + 2β + α = 2(α + β) = 0,

otteniamo il piano π1 : x − y + z = 2. Analogamente il fascio di piani di


asse s2 è dato da

α(x + y − 2) + β(y + z − 4) = 0.

al variare di α, β ∈ R non tutti nulli. Imponendo la condizione

hnα,β , Ai = 0 ⇐⇒ α − β = 0,

otteniamo il piano π2 : x + 2y + z = 6, ovvero la retta cercata ha equazione


cartesiane 
x−y+z =2
r: .
x + 2y + z = 6
Esempio
 1.28. Determinare equazioni cartesiane della retta r passante per
1
P = 2 , parallela al piano x + y − z = 6 ed incidente l’asse delle x.

1

25
Poiché la retta passa per P ed è parallela al piano x + y − z = 6, la retta
cercata è contenuta nel piano π : x + y − z = 2. L’intersezione del piano π
e l’asse delle x è il vettore
 
2
π ∩ {asse x} =  0  = Q.
0

Quindi
r : P + t(P − Q),
ovvero 
 x=1−t
r: y = 2 + 2t
z =1+t

Possiamo ricavare t, per esempio, dalla 1 equazione ed ottenere equazioni


cartesiane 
2x + y = 4
r: .
x+z =2
Vediamo un altro metodo. Determiniamo due piani π1 e π2 non paralleli
che contengono la retta r. Un piano parallelo a x + y − z = 6 ha equazioni
cartesiane
x + y − z = d.
Imponendo il passaggio per P troviamo il piano che contiene la retta cercata,
ovvero x + y − z = 2. Applicando il medoto del fascio troviamo che un piano
che contiene l’asse delle x ha equzioni cartesiane

αy + βz = 0.

Imponendo il passaggio per P , troviamo il piano contenente sia l’asse delle


x e la retta r, ovvero −y + 2z = 0. Quindi

x+y−z =2
r: .
−y + 2z = 0

Due rette r1 ed r2 si dicono complanari se esiste un piano π che le


contiene entrambe. È possibile dimostrare il seguente risultato.

Proposizione 1.29. Due rette sono complanari se e solamente se sono


parallele oppure incidenti.

26
Capitolo 2

Matrici

2.1 Rn , Cn : Struttura lineare


Sia K = R oppure C. Il simbolo Kn è l’insieme delle colonne ordinate di
n numeri, ovvero
  

 x 1 

n  .. 
K =  .  x1 , . . . , x n ∈ K .
 
xn
 

   
x1 y1
Se X =  ...  , Y =  ... , allora X = Y se solamente se x1 =
   

xn yn
y1 , . . . , xn = yn . Dati X, Y ∈ Kn e λ ∈ K si pone:
 
x1 + y1
a) X + Y =  ..
;
 
.
xn + yn
 
λx1
b) λX = 
 .. ,
. 
λxn
ovvero somma e moltiplicazione per scalare sono definite componente per
componente. La somma e moltiplicazioni per scalari godono di importanti
proprietà.

Proposizione 2.2. Dati X, Y, Z ∈ Kn , λ, µ ∈ K allora

27
a) X + (Y + Z) = (X + Y ) + Z: proprierà associativa della somma;

b) X + Y = Y + X: proprietà commutativa della somma;


 
0
 .. 
c) posto 0Kn =  . , allora 0Kn + X = X + 0Kn = X;
0

d) se X ∈ Kn , allora X + (−1)X = (−1)X + X = 0Kn ; (−1)X è detto


opposto di X;

e) (λ + µ)X = λX + µX;

f ) λ(X + Y ) = λX + λY ;

g) (λµ)X = λ(µX) = µ(λX).


 
0
X ∈ Kn si chiama punto o vettore. 0Kn =  ...  si chiama vettore nullo
 

0
Notazione: porremo X − Y := X + (−1)Y .

Definizione 2.3.

• Dati X1 , . . . Xk ∈ Kn si dice combinazione lineare di X1 , . . . , Xk ogni


elemento Z ∈ Kn per cui esistano λ1 , . . . , λk ∈ K tali che Z =
λ1 X1 + · · · + λk Xk . I numeri λ1 , . . . , λk si chiamano i coefficienti
della combinazione lineare.

• X1 , . . . Xk ∈ Kn si dicono linearmente dipendenti se esistono λ1 , . . . , λk


non tutti nulli, tali che

λ1 X1 + · · · + λk Xk = 0Kn ;

X1 , . . . Xk ∈ Kn si dicono linermente indipendenti se non sono linear-


mente dipendenti, ovvero se, comunque scelti λ1 , . . . , λk non tutti nulli,
si ha
λ1 X1 + · · · + λk Xk 6= 0Kn ;
ovvero
λ1 X1 + · · · + λk Xk = 0Kn ;
se e solamente se λ1 = · · · = λk = 0.

28
   
1 1
 1   1 
Esempio 2.4. Stabilire se 
 0  è combinazione lineare dei vettori  1 ,
  

1 1
   
2 0
 1   1 
 ,   ∈ R4 . Questo significa studiare l’esistenza α1 , α2 , α3 ∈ R
 0   −1 
5 3
tali che        
1 2 0 1
 1   1   1   1 
α1 
 1  + α2  0  + α3  −1  =  0  ,
      

1 5 3 1
ovvero    
α1 + 2α2 1
 α1 + α2 + α3   1 
 = ,
 α1 − α3   0 
α1 + 5α2 + 3α3 1
da cui segue che 

 α1 + 2α2 = 1
α1 + α2 + α3 = 1

 α1 − α3 = 0

α1 + 5α2 + 3α3 = 1.

     
1 1 2
 1   1   1 
 0  è combinazione lineare dei vettori  1 ,  0 ,
Quindi stabilire se      

1 1 5
 
0
 1 
 −1  è equivalente a stabilire se il sistema lineare anteriore ammet-
 

3
te soluzioni (combinazione lineare) oppure non ammette soluzioni (non è
combinazione lineare).
     
1 0 2
 1   1   1  4
Esempio 2.5. Stabilire se i vettori   −1 ,  2 ,  −5  di R so-
    

1 1 0
no linearmenti indipendenti oppure linermente dipendenti. Per definizio-
ne di vettori linearmente indipendenti e dipendenti, dobbiamo studiare le

29
combinazioni lineari
       
1 0 2 0
 1   1   1   0 
α1 
 −1  + α2 
   + α3  = ,
2   −5   0 
1 1 0 0
ovvero 

 α1 + 2α3 = 0
α1 + α2 + α3 = 0


 −α1 + 2α2 − 5α3 = 0
α1 + α2 + 5 = 0.

     
1 0 2
 1   1   1  4
Quindi stabilire se i vettori   −1 ,  2 ,  −5  ∈ R sono linear-
    

1 1 0
menti indipendenti, rispettivamente linearmente dipendenti, equivalente a
stabilire se il sistema lineare ottenuto ammette una ed una sola soluzione,
ripettivamente ammette più di una soluzione.
   
1 0
 ..   .. 
Esempio 2.6. Siano e1 =  . , · · · , en =  .  vettori di Kn . Ogni
0 1
 
x1
 .. 
vettore X =  .  ∈ Kn è combinazione lineare di e1 , . . . , en . Infatti
xn
     
x1 1 0
X =  ...  = x1  ..  + · · · + x  ..  = x e + · · · + x e .
  
.  n .  1 1 n n
xn 0 1

Inoltre i vettori, e1 , . . . , en sono linearmente indipendenti. Infatti, se

α1 e1 + · · · + αn en = 0Kn ,

allora    
α1 0
 ..   ..  ,
 . = . 
αn 0
ovvero α1 = · · · = αn .

30
Osservazione 2.7.

• X ∈ Kn è linearmente indipendente se e solamente se X 6= 0Kn .

• Due vettori X e Y di Kn sono linearmente dipendenti se e solamente se


sono proporzionali, ovvero X = λY oppure Y = λX per un opportuno
λ ∈ K;

• 0Kn , X1 , . . . , Xk sono linearmente dipendenti;

• Se B è un insieme di elementi di Kn linearmente indipendenti, allora


ogni sottoinsieme di B è costituito da elementi linearmente indipen-
denti;

• se B è un insieme costituito di elementi di Kn linearmente dipenden-


ti, allora ogni sovrainsieme di B è costituito da elementi linearmente
dipendenti.

2.8 Matrici
Definizione 2.9. Una matrice, reale o complessa, di formato m×n è una ta-
bella rettangolare di numeri reali oppure complessi con m righe e n colonne.
Quindi mn elementi del tipo:
 
a11 · · · a1n
 .. ..  = (a )
 . .  ij 1 ≤ i ≤ m ,
1≤j ≤n
am1 · · · amn

dove aij ∈ R oppure aij ∈ C.

Esempio 2.10.  
1 0 3
A= ∈ M2×3 (R)
0 1 3
a11 = 1, a12 = 0, a13 = 3, a21 = 0, a22 = 1, a23 = 3

Sia K = R oppure K = C. L’insieme delle matrici di formato m × n a


coefficienti in K verrà indicato con M
m×n (K).   
a11 · · · a1n b11 · · · b1n
 .. .
.  .. .. ,
Siano A, B ∈ Mm×n (K). Se A =  . . eB = .

. 
am1 · · · amn bm1 · · · bmn
diremo che A = B se aij = bij per ogni 1 ≤ i ≤ m, e 1 ≤ j ≤ n.

31
Sia A ∈ Mm×n (K). Allora
   
a11 a1n
A1 =  ...  , . . . , An =  ... 
   

am1 amn

sono le colonne di A; analogamente

A1 = [a11 , · · · , a1n ], . . . , Am = [am1 , . . . , amn ],

sono le righe di A. Si osservi che Aj ∈ Km . Possimo quindi pensare ad una


matrice A ∈ Mm×n (K) come formata da 1 n
  n colonne A = (A , . . . , A ) oppure
A1
 .. 
come formata da m righe A =  . .
Am
Esempio 2.11.  
1 0 3
A= .
0 1 3
     
1 1 2 0 3 3
A = ,A = ,A = .
0 1 3
   
A1 = 1 0 3 , A 2 = 0 1 3

Se n = m, allora la matrice A si dirà matrice quatrata di ordine n.

Esempio 2.12.
 
1 −56 3
A =  5 11 3  ∈ M3×3 (R).
2 1 −99

2.12.1 Struttura Lineare


Possiamo definire su Mm×n (K) una somma e una moltiplicazione per
scalare come segue.
Se A = (aij ) 1 ≤ i ≤ m , B = (bij ) 1 ≤ i ≤ m e λ ∈ K, allora
1≤j ≤n 1≤j ≤n

A + B := (aij + bij ) 1≤i≤m


1≤j ≤n

λA := (λaij ) 1≤i≤m
1≤j ≤n

32
   
1 0 3 2 1 3
Se A = ,B = ∈ M2×3 (R), allora
0 1 3 9 0 −3
     
1+2 0+1 3+3 3 1 6 −3 0 −9
A+B = = , −3A = .
0+9 1+0 3−3 9 1 0 0 −3 −9

Proposizione 2.13. Dati A, B, C ∈ Mm×n (K), λ, µ ∈ K allora

a) A + (B + C) = (A + B) + C: proprierà associativa della somma;

b) A + B = B + A: proprietà commutativa della somma;


 
0 ··· 0
c) posto 0Mm×n (K) =  ... . . . ... , allora 0Mm×n (K) +A = A+0Mm×n (K) =
 

0 ··· 0
A;

d) se A ∈ Mm×n (K), allora A + (−1)A = (−1)A + A = 0Mm×n (K) ; −A :=


(−1)A è detto opposto di A;

e) (λ + µ)A = λA + µA;

f ) λ(A + B) = λA + λB;

g) (λµ)A = λ(µA) = µ(λA).

Notazione: A − B := A + (−1)B.
Sia A ∈ Mm×n (K). La trasposta di A è una matrice AT ∈ Mn×m (K)
cosı̀ definita:
AT = (aji ) 1 ≤ j ≤ n ,
1≤i≤m

ovvero AT si ottiene a partire da A scambiando le righe con le colonne;


rispettivamente le colonne con le righe.
     
1 0 3 1 1 2 0
Esempio 2.14. Sia A = . Poiché A = ,A = , A3 =
0 1 3 0 1
 
3
, si ha
3
 
1 0
AT =  0 1  .
3 3

Proposizione 2.15. Siano A, B ∈ Mm×n (K) e sia λ ∈ K. Allora

33
a) (A + B)T = AT + B T ;

b) (λA)T = λAT ;

c) (AT )T = A.

Se A = (aij ) 1≤i≤m ∈ Mm×n (C), definiamo:


1≤j ≤n

A = (aij ) 1≤i≤m ,
1≤j ≤n

A∗ = (aji ) 1≤i≤m = (A)T = (AT )


1≤j ≤n

La matrice A∗ si chiama l’aggiunta di A.


 
1+i i 3−i
Esempio 2.16. Sia A = . Allora
i 1 i
 
1 − i −i 3 + i
A= .
−i 1 −i

L’aggiunto di A è data da
 
1 − i −i
A∗ =  −i 1 .
3 + i −i

Proposizione 2.17. Siano A, B ∈ Mm×n (C) e λ ∈ C . Allora

a) (A + B) = A + B;

b) (λA) = λA;

c) A = A;

d) (A + B)∗ = A∗ + B ∗ ;

e) (λA)∗ = λA∗ ;

f ) (A∗ )∗ = A;

34
Sia A = (aij ) 1≤i≤n ∈ Mn×n (K). Gli elementi a11 , · · · , ann si dicono
1≤j ≤n
elementi sulla diagonale principale.
 
a11 ∗ · · · ∗
 .. .. 
 . a22 . 

 .. ..

.. 
 . . . 
∗ ··· ··· ann

Una matrice A si dice diagonale se tutti i coefficienti al di fuori dalla


diagonale principale sono nulli: ovvero A = (aij ) 1 ≤ i ≤ n e aij = 0 se
1≤j ≤n
i 6= j.  
∗ 0 ··· 0

 0 ∗ 0 

 .. .. .. 
 . . . 
0 ··· ··· ∗
La matrice nulla è una matrice diagonale. La matrice identità di ordine n,
che indicheremo con Idn oppure Id ove fosse chiaro il formato, è la matrice
diagonale che ha tutti gli elementi uguali ad 1 sulla diagonale principale.
 
1 0 ··· 0
 0 1 0 
 
 .. .. . 
 . . .. 
0 ··· ··· 1

La somma di due matrici diagonali è ancora una matrice diagonale. Questo


significa che l’insieme delle matrici diagonali è chiuso rispetto alla somma.
Infatti,
     
∗ 0 ··· 0 ∗ 0 ··· 0 ∗ 0 ··· 0
 0 ∗ 0   0 ∗ 0   0 ∗ 0 
 
..  +  .. ..  =  .. ..  .
 
 .. .. .. ..
 . . .   . . .   . . . 
0 ··· ··· ∗ 0 ··· ··· ∗ 0 ··· ··· ∗

Analogomente se moltiplichiamo una matrice diagonale per uno scalare il


risultato è ancora una matrice diagonale, ovvero l’insieme delle matrici
diagonali è chiuso rispetto alla moltipliazione per scalare.
Una matrice A si dice triangolare superiore, rispettivamente triango-
lare inferiore, se tutti gli elementi sotto la diagonale principale sono nul-
li, rispettivamente sopra la diagonale principale sono nulli. Quindi A =

35
(aij ) 1≤i≤n , è triangolare superiore, i.e.,
1≤j ≤n

 
∗ ∗ ··· ∗
 0 ∗ ··· ∗ 
,
 
 .. .. ..
 . . . 
0 ··· 0 ∗

se aij = 0 quando i > j, rispettivamente triangolare inferiore, i.e.,


 
∗ 0 ··· 0
 ∗ ∗ ··· 0 
..  ,
 
 .. ..
 . . . 
∗ ··· ∗ ∗

se aij = 0 quando i < j. L’insieme della matrici triangolari superiori, rispet-


tivamente triangolari inferiori, è chiuso rispetto alla somma e rispetto alla
moltiplicazione per scalare Mn×n (K). Verifichiamo che le matrici traingolari
superiori sono chiuse rispetto alla somma e che l’insieme delle matrici trian-
golari inferiore sono chiuse rispetto alla moltiplicazione per scalare lasciando
le altre verifiche per esercizio.
     
∗ ∗ ··· ∗ ∗ ∗ ··· ∗ ∗ ∗ ··· ∗
 0 ∗ ··· ∗   0 ∗ ··· ∗   0 ∗ ··· ∗ 
..  +  .. ..  =  .. ..  .
     
 .. . . . . . .
 . . .   . . .   . . . 
0 ··· 0 ∗ 0 ··· 0 ∗ 0 ··· 0 ∗

Sia λ ∈ K. Allora
   
∗ 0 ··· 0 λ∗ 0 ··· 0
 ∗ ∗ ··· 0   λ∗ λ∗ ··· 0 
λ . = .
   
.. .. .. .. ..
 .. . .   . . . 
∗ ··· ∗ ∗ λ∗ · · · λ∗ λ∗

Sia A ∈ Mn×n (K). Allora AT ∈ Mn×n (K). In dettaglio, se


 
∗ ∗ ··· ∗
 ∗ ∗ ··· ∗ 
 
A =  ... ..  ,

 . 

 · ∗ 
∗ ··· ∗ ∗

36
allora  
∗ ∗ ··· ∗

 ∗ ∗ ··· ∗ 

AT =  .. ..
.
 
 . .
 · ∗ 
∗ ··· ∗ ∗
Quindi la diagonale principale di A coincide con la diagonale principale di
AT .
Sia A ∈ Mn×n (R). Diremo che A è simmetrica se A = AT . Diremo
che A è antisimmetrica se A = −AT . Se A = (aij ) 1 ≤ i ≤ n , allora A è
1≤j ≤n
simmetrica, rispettivamente antisimmetrica, se e solamente se aij = aji ,
rispettivamente aij = −aji , per ogni 1 ≤ i, j ≤ n. Poiché la diagonale
principale di A coincide con la diagonale principale di AT , si ha che gli
elementi sulla diagonale principale di una matrice antisimmetrica sono tutti
nulli.
   
1 1 0 1
Esempio 2.18. La matrice è simmetrica mentre è
1 2 −1 0
antisimmetrica.
L’insieme delle matrici simmetriche, rispettivamente antisimmetriche, è
chiuso rispetto alla somma e moltiplicazione per scalare. Vediamo, per esem-
pio che la somma di due matrici simmetriche è ancora una matrice simmetri-
ca e che moltiplicando una matrice antisimmetrica per uno scalare ottengo
ancora una matrice antisimmetriche.
Siano A, B ∈ Mn×n (R) tali che A = AT e B = B T . La tesi è che
(A + B)T = A + B. Applicando le proprietà della trasposta si ha
(A + B)T = AT + B T = A + B.
Sia A ∈ Mn×n (R) antisimmetrica e sia λ ∈ R. L’ipotesi è A = −AT mentre
la la tesi è (λA)T = −λA.
(λA)T = λAT = −λA.
Diremo che una matrice a coefficienti complessi A ∈ Mn×n (C) è Hermitiana
(auto-aggiunta), rispettivamente anti-Hermitiana (anti-autoggiunta) se A =
A∗ , rispettivamente A = −A∗ . Quindi se A = (aij ) 1 ≤ i ≤ n è Hermitiana,
1≤j ≤n
rispetteviamente anti-Hermitiana, allora aij = aji , rispettivamente aij =
−aji . In particolare se A è Hermitiana, rispettivamente anti-Hermitiana,
gli elementi sulla diagonaole principale sono numeri reali, rispettivamente
immaginari puri.

37
 
1 1+i
Esempio 2.19. La matrice è Hermitiana mentre la ma-
1 − i −4
 
−i 1 − 3i
trice è anti-Hermitiana.
−1 − 3i 7i
La somma di matrici Hermitiane, rispettivamente anti-Hermitiane, è an-
cora una matrice Hermitiana, rispettivamente anti-Hermitiana. Tuttavia,
l’insieme delle metrici Hermitiane (anti-Hermitiane) non è chiuso rispet-
to alla moltiplicazione per scalare. Infatti è possibile dimostrare che una
matrice A è Hermitiana se e solamente se iA è anti-Hermitiana.
Definizione 2.20. Sia A ∈ Mn×n (K). La traccia di A è la somma degli
elementi sulla diagonale principale. Se A = (aij ) 1 ≤ i ≤ n , allora Tr(A)=
1≤j ≤n
Pn
i=1 aii ∈ K.

Proposizione 2.21. Siano A, B matrici quadrate di ordine n e sia λ ∈ K.


Allora
a) Tr(A + B) = Tr(A) + Tr(B);
b) Tr(λA) = λTr(A);
c) Tr(A) = Tr(AT );
d) se A ∈ Mn×n (C), allora Tr(A∗ ) = Tr(A).

2.21.1 Prodotto di matrici


Sia K = R oppure C. Date le matrici A ∈ Mm×p (K) e B ∈ Mp×n (K),
dove il numero delle colonne di A è uguale al numero delle righe di B,
il prodotto AB ∈ Mm×n (K), chiamato prodotto righe per colonna è cosı̀
definito: se
A = (aij ) 1 ≤ j ≤ m , B = (bij ) 1 ≤ i ≤ p
1≤j ≤p 1≤j ≤m

allora AB = C = (cij ) 1≤i≤m ∈ Mm×n (K), dove


1≤j ≤n

p
X
cij = aim bmj .
m=1

Esempio 2.22.
 
  −1 2  
1 0 2  2 −3 −6
0  = .
0 2 −3 7 12
−1 −4

38
Il prodotto definisce un’applicazione

Mm×p (K) × Mp×n (K) −→ Mm×n (K) (A, B) 7→ AB

Può succedere che la matrice AB sia definita mentre BA non sia definita.
Per esempio se A ∈ M3×4 (R) e B ∈ M4×2 (R), allora AB è definita mentre
BA no. Se A ∈ Mn×m (K) e B ∈ Mm×n (K), con n 6= m, allora le matrici
AB e BA non sono confrontabili. La domanda se il produtto di due matrici
è commutativo ha senso solo se consideriamo matrici quadrate dello stes-
so ordine. Il prossimo esempio dimostra che il prodotto di matrici non è
commutativo.
   
0 1 1 0
Esempio 2.23. Siano A = ,C= . Allora:
0 0 0 0
 
0 1
• CA = = A;
0 0
 
0 0
• AC = ;
0 0
 
0 0
• AA = ;
0 0
• CC = C;

Quindi il prodotto non è commutativo. Inoltre è possibile che AC = 0


benché A e C non siano la matrice nulla.
Se A = (aij ) 1 ≤ i ≤ n . Se p ∈ N, allora definiamo Ap = A
| ·{z
· · A} se p > 0.
1≤j ≤n
p
Il prodotto di matrici gode delle seguenti proprietà.

Proposizione 2.24. Sia A ∈ Mm×n (K), B, C ∈ Mn×p (K), D ∈ Mp×q (K)


e λ ∈ K. Allora

a) A Idn = A e Idn B = B;

b) A(BD) = (AB)D;

c) A(B + C) = AB + AC;

d) (B + C)D = BD + CD;

e) A(λB) = (λA)B = λ(AB);

39
f ) (AB)T = B T AT ;

g) se K = C, allora (AB)∗ = B ∗ A∗ .

Dimostrazione. Dimostriamo solamente che (AB)T = B T AT . Poiché B T ∈


Mp×n (K) e AT ∈ Mn×m (K) il prodotto B T AT è ben definito ed il risultato è
una matrice di formato p × m come (AB)T . Poniamo B T = (bT ij ) 1 ≤ i ≤ p
1≤j ≤n

e AT = (aT ij ) 1≤i≤n . Sia C = (AB)T . Poiché


1≤j ≤m

n
X
(AB)ij = ail blj ,
l=1

dove (AB)ij indica l’elemente che sta sulla i-esima riga e la j-esima colonna
della matrice AB, si ha
n
X n
X
cij = (AB)ji = ajl bli = bTil aTlj = (B T AT )ij ,
l=1 l=1

dove (B T AT )ij indica l’elemento della matrice AB che si trova sulla j riga
e i colonna, rispettivamente la i riga e la j esima colonna. Quindi (AB)T =
B T AT .

Osservazione 2.25. Molti studenti confondono la proprietà (f ), scrivendo


(AB)T = AT B T . Vorrei porre all’attenzione che in generale la matrice
AT B T non è nemmeno definita. Infatti, se A ∈ M4×2 (K) e B ∈ M2×3 (K),
allora AT B T non è definito poiché il numero di colonne di AT è 2 mentre il
numero di righe di B T è 3.

Osservazione 2.26. Sia A ∈ Mm×p (K) e sia B ∈ Mp×n (K). Allora AB ∈


Mm×n (K). Sia 1 ≤ k ≤ n. Allora

(AB)k = AB k .

Infatti
 Pp 
l=1 a1l blk
  
 ..  a11 · · · ··· a1p b1k
 .   .. .. ..  .. 
p   . . . .
(AB)k =   = AB k
 P  
l=1 ail blk
=
  .. ..

 ..  .. 
 ..   . . .  . 
Pp .
 
am1 · · · ··· amp bpk
l=1 aml blk

40
Analogamente, se 1 ≤ k ≤ m, si ha

(AB)k = Ak B.

Infatti
 Pp Pp Pp 
(AB)k = l=1 akl bl1 ··· l=1 akl bli ··· l=1 akl bln
 
b11 · · · ··· b1n
 .. . . .. 
  . . . 
= ak1 · · · ··· akp 
 .. .. ..
 = Ak B

 . . . 
bp1 · · · ··· bpn

  
1 0
 ..   .. 
Siano e1 =  .  , . . . , en =  .  ∈ Kn e sia A ∈ Mm×n (K). Allora
0 1
 
a11 · · · a1i · · · a1n  
 a21 · · · a2i · · · a2n  a1i
   .. 
 .. .. .. .. ..   .  i
Aei =  .
 . . . .  =  ..  = A
 
 .. .. .. .. ..   . 
 . . . . . 
ami
am1 · · · ami · · · amn
   
1 0
 ..   .. 
Siano e1 =  .  , . . . , em =  .  ∈ Km . Allora
0 1

eTi A = Ai ,

per i = 1, . . . , m.
Proposizione 2.27. Sia A ∈ Mm×p (K) e B ∈ Mp×m (K). Allora Tr(AB) =
Tr(BA).
Dimostrazione.
X p
m X p X
X m
Tr(AB) = akj bjk = bkj ajk
k=1 j=1 j=1 k=1

= Tr(BA).

41
2.28 Matrici invertibili
Definizione 2.29. Una matrice A quadrata di ordine n si dice invertibile
se esiste un matrice B quadrata di ordine n tale che AB = BA = Idn .

Proposizione 2.30.

a) esistono matrici diverse da zero che non sono invertibili;

b) se A è invertibile, allora esiste una unica B tale che AB = BA = Idn .


B si dice l’inversa di A e si pone B = A−1 ;

c) (A−1 )−1 = A

d) se A, B sono matrici invertibili, tali sono AB e BA e (AB)−1 =


B −1 A−1 , (BA)−1 = A−1 B −1 .

e) se A è invertibile, allora AT è invertibile e la sua iversa è (AT )−1 =


(A−1 )T ;

f ) se A ∈ Mn×n (C) è invertibile, allora A∗ è invertibile e (A∗ )−1 =


(A−1 )∗ .
 
0 1
Dimostrazione. Sia A = . Allora A2 = 0. Se esistesse B tale che
0 0
AB = Idn , allora
0 = A2 B = A(AB) = A,
assurdo.
Sia A ∈ Mn×n (K) e siano B, B 0 ∈ Mn×n (K) tali che

AB = BA = AB 0 = B 0 A = Idn .

Allora
B = BIdn = B(AB 0 ) = (BA)B 0 = B 0 .
Le rimanenti proprietà sono lasciate per esercizio.

Osservazione 2.31. Si può dimostrare che se A, B sono matrici quadrate


tale che AB = Idn , allora A è invertibile e B è l’inversa di A.

La proposizione anteriore afferma che il prodotto di matrici invertibili è


invertibile. Quindi l’insieme GL(n, R) = {A ∈ Mn×n (R) : A è invertibile }
rispettivamente GL(n, C) = {A ∈ Mn×n (R) : A è invertibile} è un gruppo
non commutativo, detto gruppo lineare generale.

42
Se A è una matrice invertibile, e n ∈ Z negativo, definiamo
An := (A−1 )−n .
È facile verificare che per ogni n, m ∈ Z si ha An+m = An Am = Am An .
Definizione 2.32. Una matrice A ∈ Mn×n (R) si dice ortogonale se AT =
A−1 ,ovvero AAT = AT A = Idn
Definizione 2.33. Una matrice A ∈ Mn×n (C) si dice unitaria se AA∗ =
A∗ A = Idn .
Il prodotto di matrici ortogonali, rispettivamente unitarie, è ancora una
matrice ortogonale, rispettivamente una matrice unitaria. L’inversa di una
matrice ortogonale, rispettivamente unitaria, è ancora una matrice ortogona-
le, rispettivamente unitaria. Invece la somma di matrici ortogonali, rispetti-
vamente unitarie, non è un generale una matrice ortogonale, rispettivamente
unitaria.

2.34 Determinante
Ad ogni matrice quadrata A ∈ Mn×n (K), dove K = R oppure C, possia-
mo associare un scalare, chiamato il determinante di A, definito come segue:
se A = (a) ∈ M1×1 (K), allora det(A) = a. Supponiamo di averlo definito
per matrici di ordine n − 1. Definiamo
n
X
det(A) = (−1)j+1 aj1 det(Aj1 ) ∈ K,
j=1

dove Aj1 è una matrice di ordine n − 1 × n − 1 che si ottiene da A eliminando


la j−esima riga e la 1 colonna. Questa formula è detta lo sviluppo di Laplace
secondo la prima colonna.
Esempio 2.35.
 
a11 a12
a) Se A = , allora det A = a11 a22 − a12 a21 ;
a21 a22
 
a11 a12 a13
b) se  a21 a22 a23 , allora
a31 a32 a33
det A = a11 a22 a33 − a11 a23 a32
− a21 a12 a33 + a21 a13 a32
+ a31 a12 a23 − a31 a13 a22 .

43
c) Se  
a11 ∗ · · · ∗
 0 a22 · · · ∗ 
A= ,
 
.. .. ..
 . . . 
0 ··· 0 ann
è triangolare superiore, allora det A = a11 · · · · · · ann .

Proprietà del Determinante

1 det(A) = det(AT );

2 A = (A1 , . . . , An ). Allora det(A1 , . . . , λAi , . . . , An ) = λ det(A1 , . . . , An ),


per ogni 1 ≤ i ≤ n e per ogni λ ∈ K;

3
det(A1 , . . . , Ai + B i , . . . , An ) = det(A1 , . . . , Ai , . . . An )
+ det(A1 , . . . , B i , . . . , An ),

per ogni 1 ≤ i ≤ n, i.e., è additivo su ogni colonna;

4 det(A) = 0 se la matrice A ha due colonne uguali;

5 dalla [2] segue che det(A) = 0 se la matrice A ha una colonna fatta


tutta da zeri;

6 [3] e [4] implicano che il determinante di una matrice cambia di segno


se si scambiano due colonne;

7 [3] e [2] implicano che il valore del determinante non cambia sommando
ad una colonna un multiplo di un altra colonna. Ovvero, se A =
(A1 , . . . , An ) allora per ogni 1 ≤ i, j ≤ n, i 6= j e λ ∈ K si ha

det(A) = det(A1 , . . . , Ai + λAj , . . . , An );

8 det(AB) = det(A) det(B) (Formula di Binet).

Osservazione 2.36.

• da [1] segue che il determinante di una matrice triangolare inferiore è


il prodotto degli elementi sulla diagonale principale,

• det(Idn ) = 1;

44
• si può dimostrare che le proprietà [1], . . . , [7] valgano anche per le
righe;
• da [1] segue che il determinante si può sviluppare rispetto alla 1 riga.
Si può dimostrare che il determinante si può sviluppare rispetto alla
k−esima colonna, i.e.,
n
X
det(A) = (−1)j+k ajk det(Ajk ),
j=1

oppure rispetto alla k−esima riga


n
X
det(A) = (−1)j+k akj det(Akj ),
j=1

dove Aαβ è una matrice di ordine n − 1 × n − 1 che si ottiene da A


eliminando la α−esima riga e la β-esima colonna.
Definizione 2.37. Una matrice A ∈ Mn×n (K) si dice singolare, rispettiva-
mente non singolare, se det(A) = 0, rispettivamente det(A) 6= 0.
Proposizione 2.38. Una matrice A è invertibile se e solamente se det(A) 6=
0 ovvero se e solamente se A è non singolare. Inoltre det(A−1 ) = det(A)
1
.

Dimostrazione. Se A è invertibile, allora esiste A−1 tale che AA−1 = Idn .


Applicando la formula di Binet si ottiene che
det(A) det(A−1 ) = 1,
da cui segue det(A) 6= 0 e det(A−1 ) = det(A)
1
. Viceversa, supponiamo che
det(A) 6= 0. Definiamo la matrice B di ordine n come segue:
bij = (−1)i+j det(Aji )/ det(A),
dove, nuovamente, Aji è la matrice che ottengo da A eliminando la j-esima
riga e le i-esima colonna. Si può dimostrare che AB = BA = Idn , ovvero
B = A−1 .

Corollario 2.39. Se A è una matrice ortogonale, allora | det(A)| = 1


Dimostrazione. Sia A ∈ Mn×n (R) una matrice ortogonale. Allora AAT = 1.
Applicando il teorema di Binet, otteniamo
1 = det(A) det(AT ) = [det(A)]2 ,
poiché det(A) = det(AT ), da cui segue la tesi.

45
Corollario 2.40. Se A è una matrice unitaria, allora | det(A)| = 1.
Dimostrazione.

1 = det(A) det(A∗ ) = det(A)det(A) = | det(A)|2

2.41 Rango di una matrice


Sia A ∈ Mm×n (K) dove K = R oppure K = C. Un minore di ordine p di
A è una matrice di formato p×p che si ottiene cancellando m−p righe e n−p
colonne dalla matrice A. Diremo che il rango per minori, che indicheremo
con rg(A), è r se:
a) ∃ un minore di A di ordine r con determinante 6= 0;

b) r = m o r = n oppure tutti i minori di ordine r + 1 sono singolari;


Dalla definizione di rango per minori segue che rg(A) ≤ min(m, n). Se A è
una matrice quadrata, allora vale il seguente risultato.
Proposizione 2.42. A ∈ Mn×n (K) è non singolare se e solamente se
rg(A) = n.
Sia A0 una minore di A ottenuta cancellando m − p righe e n − p colonne
dalla matrice A. Se ad A0 aggiungiamo un altra riga ed un altra colonna di
A diremo che stiamo orlando A0 . È possibile dimostrare il seguente fatto.
Teorema 2.43 (orlati). Il rango per minori della matrice A è uguale ad
r se e solamente se esiste una minore M di ordine r non singolare ed r =
min(m, n) oppure tutti minori di A di ordine r+1 che contengono M , ovvero
tutti i minori di A che ottengo orlando M , sono singolari.
Come per il determinate, possiamo effettuare delle operazioni di righe,
rispettivamente colonne, senza alterare il rango di una matrice.
Definizione 2.44. Sia A ∈ Mm×n (K). Si chiamano operazione elementari
di riga (colonna):
a) scambiare di posto due righe (colonna);

b) sommare ad una riga (colonna) un multiplo di un altra;

c) moltiplicare una riga (colonna) per uno scalare non nullo.

46
Proposizione 2.45. Il rango di una matrice non cambia se si effetuano
operazioni elementari di righe, rispettivamente colonne.

Idea. Sia A ∈ Mn×m (K) e sia à la matrice ottenuta attraverso una operazio-
ne elementare sulle righe, rispettivamente colonne, di A. Sia M un minore
di Ã. Allora M è anche un minore di A oppure è un minore di A sul quale è
stato effettuata una operazione elementare di riga, rispettiavemente colon-
na. Quindi il valore del determinante o rimane inalterato oppure cambia di
segno. Quindi il rango per minore non cambia.

Il prossimo risultato caratterizza il rango per minori di una matrice A


in termini delle righe, rispettivamente colonne, della matrice A.

Teorema 2.46. Sia A ∈ Mm×n (K) dove K = R oppure K = C. Il rango per


minori di A coincide con il massimo numero di colonne linearmente indipen-
denti, rispettivamente massimo numero di righe linearmente indipendenti.
In particolare rg(A) = rg(AT ).

Possiamo, quindi, dare la seguente definizione.

Definizione 2.47. Sia A ∈ Mm×n (K). Il rango di A, che indicheremo


con rg(A), è il rango per minori di A, ovvero il massimo numero di co-
lonne linearmente indipendenti, rispettivamente massimo numero di righe
linearmente indipendenti

2.48 Riduzione a scala di Gauss


Una matrice di ordine m × n siffatta
 
0 ··· 0 s1j1 ∗ ∗ ∗ ··· ··· ∗ ··· ··· ··· ∗

 0 ··· ··· 0 ··· 0 s2j2 ∗ ∗ ··· ··· ··· ∗ ∗ 


 0 ··· ··· ··· ··· ··· 0 ··· s3j3 ∗ ··· ··· ··· ∗ 

 .. .. 

 . ··· ··· ··· ··· ··· ··· 0 0 . ··· ··· ··· ∗ 

 .. .. 

 . ··· ··· ··· ··· ··· ··· ··· ··· 0 . ··· ∗ ∗ 


 0 ··· ··· ··· ··· ··· ··· ··· ··· ··· 0 srjr ··· ∗ 


 0 ··· ··· ··· ··· ··· ··· ··· ··· ··· 0 0 ··· 0 

 .. .. .. .. .. .. .. .. .. .. .. .. .. .. 

 . . . . . . . . . . . . . . 

 .. .. .. .. .. .. .. .. .. .. .. .. .. .. 
 . . . . . . . . . . . . . . 
0 ··· ··· ··· ··· ··· ··· ··· ··· ··· 0 ··· ··· 0

47
si dice una matrice ridotta a scala. I numeri s1j1 , . . . , sr,jr sono non nulli
e si chiamano perni, pivot, oppure elementi di testa. Il numero dei perni
coincide con il numero di righe differenti di zero.

Esempio 2.49.
 
0 1 2 3 4 5

 0 0 0 1 −1 1 

S=
 0 0 0 0 1 1  ∈ M5×6 (R)
 0 0 0 0 0 0 
0 0 0 0 0 0

I perni sono: s12 = 1, s24 = 1 ed s3,5 = 4.

Proposizione 2.50. Sia S ∈ Mm×n (K) una matrice ridotta a scala. Allora
rg(S) è uguale al numero di righe differenti da zero o equivalentemente al
numero di perni. Inoltre le colonne corrispondenti ai perni sono vettori
linearmente indipendenti.

Dimostrazione. Una matrice ridotta a scala ha r righe differenti da zero.


Quindi rg(S) ≤ r. Sia M il minore di S di ordine r formato dalle colonne
S j1 , . . . , S jr e dalle righe S1 , . . . , Sr , ovvero
 
s1j1 ∗ ··· ··· ∗
 0 s2j
 2 ∗ ··· ∗  
 .. .. .. 
M = . 0 . . 
 .. .. .. .. 
 . . . . 
0 · · · · · · · · · srjr

Poiché det M = s1j1 · · · srjr 6= 0 si ha r ≤ rg(S). Quindi rg(S) = r.


Siano S j1 , . . . , S jr le colonne corrispondenti ai perni. Sia A = (S j1 , . . . , S jr ) ∈
Mm×r (K)  
s1j1 ∗ ··· ··· ∗
 0 s2j
 2 ∗ ··· ∗  
 .. . . .. 
 .
 0 . . 
 .. .. .. .. 

. .
 . . . . . 
 .
 0
 · · · · · · · · · srjr  
 0
 · · · · · · · · · 0 

 .. .. .. .. .. 
 . . . . . 
0 ··· ··· ··· 0

48
Sia, nuovamente, M il minore formato di formato r × r ottenunto da A
eliminando le ultime m − r righe, ovvero
 
s1j1 ∗ ··· ··· ∗
 0 s2j
 2 ∗ ··· ∗ 

 .. . .. .. 
M = . 0 . .

 .. .. .. .. .. 
 . . . . . 
0 ··· ··· ··· srjr

Poiché srjr , . . . , s1j1 sono tutti non nulli si ha che det M 6= 0, ovvero rg(A) ≥
r. Poiché A ∈ Mm×r (K), si ha che rg(A) = r e quindi S j1 , . . . , S jr sono
linearmente indipendenti.

Teorema 2.51. Ogni matrice A può essere ridotta in forma a scala me-
diante operazioni elementari di righe.

Dimostrazione. Sia A = (A1 , . . . , An ).


Passo 1
sia 1 ≤ j1 ≤ n il più piccolo intero affinché Aj1 6= 0.
Passo 2
Se a1j1 6= 0 bene. Altrimenti scambio due righe in modo che a1j1 6= 0. Quindi
la matrice A, dopo le precedenti operazioni elementari, ha la seguente forma:
 
0 · · · 0 a1j1 · · ·
 .. .. .. .. .. 
 . . . . . 

 .. .. .. .. .. 

 . . . . . 
0 · · · 0 amjk · · ·

Il mio obbiettivo è quello di arrivare ad una matrice i cui elementi sulla


colonna Aj1 sono tutti nulli tranne il primo. Se alla k-riga Ak , k ≥ 2,
sottraggo −akj1 /a1,j1 A1 , allora, attraverso operazioni elementari di righe,
ottengo la matrice:
 
  0 · · · 0 a1j1 ∗ ··· ··· ∗
A1  0 ··· 0 0 a2,j1 +1 · · · · · · a2n 
 A2 − a2j /a1j A1   
k 1   ..  .. .. .. .. .. .. 
  . . . . . . . 

 ..
. = . 

  . .. .. .. .. .. .. 
  . . . . . . . 

 ..
.

   .. .. .. .. 
 0 ··· 0 0 . . . .
Am − amj1 /a1j1 A1

0 · · · 0 0 amj1 +1 · · · · · · amn

49
Quindi  
0 ··· 0 a1j1 ∗ ··· ∗
 .. .. 
 . . 0 
A=
 
.. .. .. 
 . . . B 
..
 
. ··· 0 0
dove B ∈ Mm−1×(n−(j1 +1)) (R). Se B è la matrice nulla oppure A ∈ M1×n (R),
allora ho finito. Altrimenti ripeto lo stesso procedimento per la matrice B.
Dopo un numero finito di passi, arriviamo ad una matrice le cui ultime ri-
ghe sono nulle; oppure in cui l’ultimo elemento di testa appartiene all’ultima
riga. In entrambi i casi abbiamo ridotto a scala la matrice di partenza A.

Il metodo anteriore è chiamato metodo di Gauss oppure metodo di eli-


minazione di Gauss e permette di ridurre una matrice a scala attraverso
operazioni elementari di riga.

Corollario 2.52. Sia A una matrice ed S una sua riduzione a scala. Allora
rg(A) = rg(S), ovvero è uguale al numero di elementi di testa di una sua
riduzione a scala; è uguale al numero di righe non nulle di una sua riduzione
a scala.

Dimostrazione. Poiché S è ottenuta da A attraverso operazioni elementari


di righe si ha rg(A) = rg(S).

50
Capitolo 3

Spazi Vettoriali

3.1 Spazi vettoriali, sottospazi vettoriali ed esem-


pi
Definizione 3.2. Uno spazio vettoriale V su un campo K, per noi K = R
oppure K = C, è un insieme su cui sono definite due operazioni: una di
somma e un prodotto per scalare

V × V −→ V K × V −→ V

(v, w) 7→ v + w (λ, v) 7→ λv,


che soddifano alle seguenti proprietà: se u, v, w ∈ V e λ, µ ∈ K, allora

a) u + (v + w) = (u + v) + w;

b) v + w = w + v;

c) ∃0 ∈ V tale che 0 + v = v + 0 = v;

d) ∀v ∈ V , ∃v 0 ∈ V tale che v + v 0 = v 0 + v = 0;

e) λ(v + w) = λv + λw;

f ) (λ + µ)v = λv + µv;

g) λ(µv) = µ(λv) = (λµ)v;

h) 1v = v, per ogni v ∈ V ;

Gli elementi di V si chiamano vettori.

51
Proposizione 3.3. Sia V uno spazio vettoriale su K. Allora:
• ∃!0 ∈ V tale che per ogni v ∈ V si ha v + 0 = 0 + v = v;

• sia 0 ∈ K. Allora 0v = 0 per ogni v ∈ V ;

• ∀v ∈ V esiste un unico v 0 ∈ V : v +v 0 = v 0 +v = 0. Inoltre v 0 = (−1)v;

• per ogni λ ∈ K si ha λ0 = 0;

• sia v 6= 0. Allora λv = 0 se e solamente se λ = 0.


Facoltativa. Supponiamo che esistano 0, 00 tale che x + 0 = 0 + x = x + 00 =
00 + x = x per ogni x ∈ V . Allora

0 = 0 + 00 = 00 .

Sia 0 ∈ K e sia v ∈ V . Allora

0v = (0 + 0)v = 0v + 0v.

Poiché 0v ammette un inverso rispetto alla somma si ha

0v = 0.

Poiché v + (−1)v = (1 − 1)v = 0v = 0, (−1)v è un inverso rispetto alla


somma. Vediamo l’unicità. Siano v 0 , v 00 ∈ V tale che v 0 + v = v 00 + v = 0.
Allora
v 0 = v 0 + (v + v 00 ) = (v 0 + v) + v 00 = 0 + v 00 = v 00 .
Sia λ ∈ K. Allora
λ0 = λ(0 + 0) = λ0 + λ0,
ovvero λ0 = 0. Infine sia v 6= 0. Sia λ 6= 0 e supponiamo che λv = 0.
Moltiplicando per λ−1 a destra e sinistra si ha v = 0. Assurdo. Quindi
λv = 0 se e solamente se λ = 0.

In seguito, denoteremo v − w := v + (−1)w. Il vettore 0 si chiama vettore


nullo.
Molti degli insiemi che abbiamo descritto fino ad adesso sono esempi di
spazi vettoriali su R oppure se C.
Sia Rn l’insieme delle n-ple ordinare di numero reali, ovvero
  
 x1
 

n  .. 
R =  .  x1 , . . . , x n ∈ R .
 
xn
 

52
   
x1 y1
Ricordiamo che se X =  ...  , Y =
 .. 
 . , allora X = Y se x1 =
 

xn yn
y1 , . . . , xn = yn . È possibile definire una somma e una moltiplicazione per
scalare come segue:
 
x1 + y1
a) X + Y =  ..
;
 
.
xn + yn
 
λx1
b) λX = 
 .. ,
. 
λxn
n
Nelle sezioni precedenti abbiamo provato che (R  ·) è uno spazio vetto-
 , +,
0
riale su R. Il vettore nullo di Rn è il vettore  ... . In maniera analoga,
 

0
sia   
 x1
 

n  .. 
C =  .  x1 , . . . , x n ∈ K ,
 
xn
 
 
x1
i.e., l’insieme delle n-ple ordinate di numeri complessi. Se X =  ...  , Y =
 

xn
 
y1
 .. 
 .  ∈ Cn , allora X = Y se x1 = y1 , . . . , xn = yn . Definiamo:
yn
 
x1 + y1
a) X + Y =  ..
;
 
.
xn + yn
 
λx1
b) λX =  ... ,
 

λxn

53
ovvero una somma e una moltiplicazione per scalare. Nelle sezioni precedenti
abbiamo visto che (Cn , +, ·) è uno spazio vettoriale su C.
Sia Mm×n (K) l’insieme delle matrici di formato
 m×n a  coefficien-
a11 · · · a1n
 .. ..  e B =
ti in K. Siano A, B ∈ Mm×n (K). Se A =  . . 
am1 · · · amn
 
b11 ··· b1n
 .. .. , diremo che A = B se a = b per ogni 1 ≤ i ≤ m, e
 . .  ij ij
bm1 · · · bmn
1 ≤ j ≤ n.
Abbiamo visto che è possibile definire su Mm×n (K) una somma e una
moltiplicazione per scalare come segue.
Se A = (aij ) 1 ≤ i ≤ m , B = (bij ) 1 ≤ i ≤ m e λ ∈ K, allora
1≤j ≤n 1≤j ≤n

A + B := (aij + bij ) 1≤i≤m


1≤j ≤n

λA := (λaij ) 1≤i≤m
1≤j ≤n

(Mm×n (K), +, ·) è uno spazio vettoriale su K.


Sia K = R oppure C. Definiamo

K[x] := {a0 + a1 x + · · · + an xn : a0 , . . . , an ∈ K, n ∈ N}

Siano v, w ∈ K[x]. Se v = a0 + a1 x + · · · + an xn e w = b0 + b1 x + · · · + bm xm ,
allora diremo che v = w se e solamente se n = m e a0 = b0 , . . . , an = bn .
Somma e moltiplicazione per scalare sono cosı̀ definite.
Se m > n, allora possiamo scrivere v = a0 + a1 x + · · · + an xn + 0xn+1 +
· · · + 0xm . Analogamente se m < n, allora possiamo scrivere w = a0 +
a1 x + · · · am xm + 0xm+1 + · · · + 0xn . Quindi possiamo supporre che n = m
e definire

v + w := (a0 + b0 ) + · · · + (an + bn )xn λv := λa0 + · · · + λan xn .

Per esempio,

(x+2x3 +x4 +5x5 )+(1−3x+2x2 −x3 +x4 +x6 ) = 1−2x+2x2 +x3 +2x4 +5x5 +x6 ,

3(1 − x + 2x2 − 3x3 ) = 3 − 3x + 6x2 − 9x3 .


Si può dimostrare che K[x] con le operazioni di somma e moltiplicazione
per scalare definite sopra è uno spazio vettoriale su K. Il vettore nullo è il
polinomio nullo.

54
Sia Kn [x] = {a0 + a1 x + · · · + an xn : a0 , . . . , an ∈ K} l’insieme dei
polinomi di grado minore oppure uguale a n. Le operazione

v + w := (a0 + b0 ) + · · · + (an + bn )xn λv := λa0 + · · · + λan xn .

definiscono una struttura di spazio vettoriale su K.


Se X un insieme e sia V = {f : V −→ K} ovvero l’insieme di tutte le
applicazioni a valori in un campo K. V ammette una struttura di spazio
vettoriale come segue:

(f + g)(p) := f (p) + g(p) (λf )(p) := λf (p).

Il vettore nullo è l’applicazione che associa ad ogni elemento di V l’elemento


0 ∈ K, ovvera l’applicazione che vale costantemente 0 ∈ K.

Definizione 3.4. Un sottoinsieme W ⊂ V non vuoto si dice un sottospazio


vettoriale di V se

• ∀v, w ∈ W , allora v + w ∈ W (chiuso rispetto alla somma);

• λ ∈ K e w ∈ W , allora λw ∈ W (chiuso rispetto alla moltiplicazione


per scalare).

Osservazione 3.5. Se W è un sottospazio vettoriale di V , allora 0 ∈ W .

Esistono sottoinsiemi di uno spazio vettoriale che verificano la prima


condizione ma non la seconda e viceversa. Per esempio, sia
  
x
W1 = : x ≥ 0, y ≥ 0 .
y

W1 verifica la prima proprietà ma non è chiuso rispetto alla moltiplicazione


per scalara.
Sia   
x
W2 = : x = 0 oppure y = 0 .
y
W2 è chiuso rispetto la moltiplicazione per scalare ma non è chiuso rispetto
alla somma. La prossima proposizione è una condizione equivalente affinché
un sottoinsieme è un sottospazio vettoriale ed è lasciata per esercizio.

Proposizione 3.6. Sia W ⊂ V . W è un sottospazio vettoriale se e sola-


mente se per ogni w1 , w2 ∈ W e per ogni α1 , α2 ∈ K, allora α1 w1 + α2 w2 ∈
W.

55
Esempio 3.7.

a) sia S ⊂ R3 . Allora S ⊥ è un sottospazio vettoriale di R3 ;


  
x
b) W = ∈ R : x + y = 0 è un sottospazio vettoriale di R2 ;
2
y
  
 x 
c) W =  y  ∈ R3 : x + y + z = 1 non è un sottospazio vettoriale
z
 
di R3 ;

d) sia V = K[x] e sia p = a0 + a1 x + · · · + an xn ∈ K[x]. Possiamo pensare


a p come una funzione

p : K −→ K α 7→ p(α) = a0 + a1 α + · · · + an αn .

È facile verificare che (p + q)(α) = p(α) + q(α) ed (λp)(α) = λp(α).


Sia β ∈ K. Allora W = {p ∈ K[x] : p(β) = 0} è un sottospazio vetto-
riale di K[x];

Definizione 3.8. Siano v1 , . . . , vs ∈ V . Si dice combinazione lineare di


v1 , . . . , vs ∈ V ogni elemento w ∈ V esprimibile nella forma

w = λ 1 v1 + · · · + λ s vs .

I numeri λ1 , . . . , λs si dicono i coefficienti della combinazione lineare. L’in-


sieme di tutte le combinazioni lineari di v1 , . . . , vs verrà indicato con

L(v1 , . . . , vs ) := {λ1 v1 + · · · + λs vs : λ1 , . . . , λs ∈ K}.

L(v1 , . . . , vs ) si chiama lo spazio generato da v1 , . . . , vs .

Esempio 3.9. Sia V = R3 . Un retta passante per l’origine ha equazione


parametrica
r : X = tA, t ∈ R, A 6= 0,
ovvero r = L(A).
Un piano passante per l’origine ha equazioni parametriche:

π : X = tv + sw, s, t ∈ R, v × w 6= 0,

ovvero π = L(v, w).

56
Osservazione 3.10. Siano w, w1 , . . . , wk ∈ V . Allora w è combinazione
lineare di w1 , . . . , wk se e solamente se w ∈ L(w1 , . . . , wk ).

Proposizione 3.11. Siano v1 , . . . , vs ∈ V . Allora L(v1 , . . . , vs ) è un sotto-


spazio vettoriale di V .

Dimostrazione. Dobbiamo dimostrare che se v, w ∈ L(v1 , . . . , vs ) e λ ∈ K,


allora v + w ∈ L(v1 , . . . , vs ) e λv ∈ L(v1 , . . . , vs ).
Se v, w ∈ L(v1 , . . . , vs ), allora esistono α1 , . . . αs , rispettivamente β1 , . . . , βs ,
tali che v = α1 v1 + . . . + αs vs , rispettivamente w = β1 v1 + · · · + βs vs . Allora

v + w = α1 v1 + · · · + αs vs + β1 v1 + · · · + βs vs
= (α1 + β1 )v1 + · · · + (αs + βs )vs ∈ L(v1 , . . . , vs )
e
λv = λα1 v1 + · · · + λαs vs ∈ L(v1 , . . . , vs ).

Dalla proposizione anteriore si ha che le rette ed i piani passanti per


l’origine sono sottospazi vettoriale di R3 . Non è difficile convincersi che
i sottospazi vettoriali di R3 sono: {0}, rette passanti per l’origine, piani
passanti per l’origine e R3 stesso.

Proposizione 3.12. Sia W un sottospazio vettoriale di V e siano w1 , . . . wk ∈


W . Allora L(w1 , . . . , wk ) ⊆ W.

Dimostrazione. Siano w1 , . . . , wk ∈ W . Vogliamo dimostrare che

L(w1 , . . . , wk ) = {α1 w1 + · · · + αk wk : α1 , . . . , αk ∈ K} ⊆ W,

ovvero che ogni combinazione lineare di w1 , . . . , wk appartiene ancora a W .


Siano α1 , . . . , αk ∈ K. Poiché W è un sottospazio vettoriale, si ha che
α1 w1 , · · · , αk wk ∈ W ed anche la somma

α1 w1 + · · · + αk wk ∈ W.

Definizione 3.13. Siano v1 , . . . , vs ∈ V . Diremo che:

a) v1 , . . . , vs sono linearmente dipendenti se esistono α1 , . . . , αs non tutti


nulli tali che
α1 v1 + · · · + αs vs = 0;

57
b) v1 , . . . , vs linearmente indipendenti se non sono linearmente dipenden-
ti, ovvero se
α1 v1 + · · · + αs vs = 0,
allora necessariamente α1 = · · · = αs = 0;
c) v1 , . . . , vs formano un sistema di generatori se L(v1 , . . . , vs ) = V . Se V
è generato da un numero finito di elementi, diremo che V è finitamente
generato.
       
1 1 0 2
 0   1   1   1 
Esempio 3.14. Sia V = R4 e siano   0  ,  −1  ,  −3  ,  −1  ∈
      

1 0 1 1
4
R . I vettori sono linearmente dipendenti se esistono α1 , . . . , α4 ∈ R non
tutti nulli tali che
         
1 1 0 2 0
 0   1   1   1   0 
α1   0  + α2  −1  + α3  −3  + α4  −1  =  0  ,
        

1 0 1 1 0
ovvero se e solamente se esistono α1 , α2 , α3 , α4 non tutti nulli tali che


 α1 + α2 + 2α4 = 0
α2 + α3 + α4 = 0

.

 −α2 − 3α3 − α4 = 0
α1 + α3 + α4 = 0

Quindi se il sistema anteriore ammette soluzioni ”non banali”, allora i vet-


tori sono linearmente dipendenti. Altrimenti i vettori sono linearmente
indipendenti.
   
1 0
 ..   .. 
Esempio 3.15. Siano e1 =  .  , . . . , en =  .  ∈ Kn . Ogni vettore
0 1
X ∈ Kn è combinazione lineare di e1 , . . . , en . Infatti
 
x1
 .. 
 .  = x1 e1 + · · · + xn en .
xn

Quindi L(e1 , . . . , en ) = Kn . Si osservi inoltre che i vettori e1 , . . . , en sono


linearmente indipendenti.

58
Esempio 3.16. Siano 1, x, . . . , xn ∈ Kn [x]. È facile verificare che L(1, x, . . . , xn ) =
Kn [x] e che 1, x, . . . , xn sono linearmente indipendenti, ovvero formano una
base di Kn [x].

Osservazione 3.17. Sia V uno spazio vettoriale su K. Allora

• v ∈ V è linearmente indipendente se e solamente se v 6= 0;

• v, w ∈ V sono linearmenti dipendenti se e solamente se v = λw oppure


w = λv per un certo λ ∈ K;

• sia B = {v1 , . . . , vn }. Allora:

– se v1 , . . . vn sono linearmente indipendenti, allora ogni sottoinsie-


me di B è costituito da vettori linearmente indipendenti;
– se B è un insieme formato da vettori linearmente dipendenti, al-
lora ogni sovrainsieme di B è costituito da vettori linearmente
dipendenti;

59
Capitolo 4

Matrici e sistemi lineari

4.1 Sistemi lineari


Studiando i sistemi lineari, i problemi principali che vogliamo risolvere
sono: quando un sistema ammette soluzioni; se lo ammette, quante sono;
come si trovano. In questa sezione con K intendiamo R oppure C. La forma
generale di un sistema di m equazioni in n-incognite:

 a11 x1 + · · · + a1n xn = b1

(4.1) .. ..
 . .
am1 x1 + · · · + amn xn = bm

I termini b1 , . . . bm sono i termini noti, (aij ) 1≤i≤m i coefficienti del sistema,


1≤j ≤n
x1 , . . . xn le incognite, o variabili, del sistema lineare. Se tutti i termnini noti
sono uguali a zero, il sistema si dice omogeneo.
Definizione 4.2. Una soluzione del sistema (4.1 ) è una n−pla di numeri
v1 , . . . vn che sostituiti ordinatamente alle incognite x1 , . . . , xn soddisfano le
equazioni del sistema.
Scriviamo un sistema lineare in forma matriciale. Sia
   
b1 x1
A = (aij ) 1 ≤ i ≤ m , b =  ...  , X= ..  .
  
1≤j ≤n
. 
bm xn

Allora un sistema lineare ha la forma

(4.2) AX = b,

60
dove A ∈ Mm×n (K) è chiamata matrice incompleta oppure matrice dei coef-
ficienti, b vettore dei termini noti ed infine X vettore delle incognite. La
matrice (A|b) ∈ Mm×(n+1) (K) che si ottiene aggiungendo ad A il vetto-
re dei termini noti, si chiama la matrice completa. In questo linguaggio
Sol(A|b) = {X ∈ Kn : AX = b} è l’insieme delle soluzione del sistema
lineare AX = b.
Un sistema lineare AX = b si dice compatibile oppure  risolubile se
x1
Sol(A|b) 6= ∅; incompatibile altrimenti. Sia X =  ...  e siano e1 =
 

xn
   
1 0
 ..  ..  ∈ Kn . Poiché
 .  , . . . , en = 

. 
0 1
X = x1 e 1 + · · · + xn e n ,

si ha
AX = A(x1 e1 + · · · + xn en )
= x1 Ae1 + · · · + xn Aen
= x 1 A1 + · · · + x n An ,

il sistema AX = b è compatibile se e solamente se b ∈ L(A1 , . . . , An ). Inoltre,


AX = b è compatibile se se e solamente se

L(A1 , . . . , An , b) = L(A1 , . . . , An ).

Poiché L(A1 , . . . , An , b) ⊆ L(A1 , . . . , An ) è sufficiente dimostrare che la con-


dizione L(A1 , . . . , An , b) ⊆ L(A1 , . . . , An ) è equivalente alla compatibilità
del sistema lineare AX = b.
Se L(A1 , . . . , An , b) ⊆ L(A1 , . . . , An ), allora b ∈ L(A1 , . . . , An ) e quindi
il sistema è compatibile. Viceversa, se il sistema AX = b è compatibile,
allora b ∈ L(A1 , . . . , An ). Quindi b, A1 , . . . , An ∈ L(A1 , . . . , An ). Poiché
L(A1 , . . . , An ) è un sottospazio vettoriale di Kn , si ha

L(A1 , . . . , An , b) ⊇ L(A1 , . . . , An ).

Osserviamo, infine, che L(A1 , . . . , An ) è l’insieme di tutti termini noti b ∈


Km tali che il sistema AX = b ammette soluzioni.
Un sistema lineare omogeneo è sempre compatibile o risolubile poiché
ammette come soluzione il vettore nullo 0 ∈ Kn . Inoltre vale il seguente
risultato.

61
Proposizione 4.3. Sia AX = 0 un sistema lineare omogeneo. Allora
Sol(A|0) = {X ∈ Kn : AX = 0} è un sottospazio vettoriale di Kn .

Dimostrazione. Siano X, Y ∈ Sol(A|0) e sia λ ∈ K. Allora

A(X + Y ) = AX + AY = 0,

rispettivamente
A(λX) = λAX = 0.
Quindi X +Y, λX ∈ Sol(A|0) per ogni X, Y ∈ Sol(A|0) e per ogni λ ∈ K.

Osservazione 4.4. Sia AX = b un sistema lineare di m equazioni in n


incognite. Allora Sol(A|b) è un sottospazio vettoriale di Kn se e solamente
se b = 0.

Sia AX = b un sistema lineare. Diremo che il sistema omogeneo AX = 0


è il sistema lineare omogeneo associato a AX = b.

Teorema 4.5 (teorema di struttura). Sia AX = b un sistema lineare com-


patibile. Sia Xo una soluzione particolare del sistema AX = b. Allora ogni
altra soluzione del sistema lineare AX = b è della forma Xo + W , dove W
è una soluzione del sistema lineare omogeneo associato AX = 0; Quindi

Sol(A|b) = {Xo + W, W ∈ Sol(A|0)}.

Dimostrazione. Indichiamo con E = {Xo + W, X ∈ Sol(A|0)}. Vogliamo


dimostrare che E = Sol(A|b). Sia Y ∈ Sol(A|b). Allora A(Y − Xo ) =
AX − AXo = b − b = 0, ovvero Y − Xo è soluzione del sistema lineare
omogeneo associato, da cui segue che Y − Xo ∈ Sol(A|0), cioé Y = Xo + W
per un certo W ∈ Sol(A|0). Quindi Sol(A|b) ⊆ E. Viceversa, ogni elemento
di E è della forma Xo + W , dove W è una soluzione del sistema lineare
omogeneo associato. Allora

A(Xo + W ) = AXo + AW = b + 0 = b,

da cui segue che E ⊆ Sol(A|b). Quindi Sol(A|b) = {Xo +X, X ∈ Sol(A|0)}.

Definizione 4.6. Siano A ∈ Mm×n (K), B ∈ Mm0 ×n (K). Diremo che i


due sistemi lineari AX = b e A0 X = c si dicono equivalenti se Sol(A|b) =
Sol(A0 |c), i.e., se hanno le stesse soluzioni.

62
Osservazione 4.7. Sia AX = b un sistema lineare. Se scambio due righe
alla matrice (A|b) ottengo una matrice (A0 |b0 ) ed il sistema A0 X = b0 è
equivalente al sistema AX = b.
Definizione 4.8. Date due equazioni a1 x1 + · · · + an xn = a e b1 x1 + · · · +
bn xn = b, si dice combinazione lineare delle due equazioni a coefficienti
h, k ∈ K, l’equazione

h(a1 x1 + · · · + an xn ) + k(b1 x1 + · · · + bn xn ) = ha + kb.

Lemma 4.9. Sia AX = d un sistema lineare contenente le equazioni

a1 x1 + · · · + an xn = a
.
b1 x1 + · · · + bn xn = b

Sia BX = d˜ il sistema lineare ottenuto sostituendo in AX = d l’equazione

h(a1 x1 + · · · + an xn ) + k(b1 x1 + · · · + bn xn ) = ha + kb

al posto dell’equazione

b1 x1 + · · · + bn xn = b ,

dove h, k ∈ K con k 6= 0. Allora i sistemi AX = d e BX = d˜ sono


equivalenti.
Facoltativa. Sia (A|d) ∈ Mm×(n+1) (K) la matrice completa. A meno di
scambiare delle righe possiamo supporre che le equazioni

a1 x1 + · · · + an xn = a
.
b1 x1 + · · · + bn xn = b

siano la 1 e la 2 equazione del sistema lineare AX = d, ovvero


 
a1 · · · an a
 b1 · · · bn b 
(A|d) =  .
 
. .
. .
. .. 
 . . . . 
··· ··· ··· ···
 
x1
Se  ...  è soluzione del sistema AX = d, allora soddisfa sicuramente tutte
 

xn
le equazioni del sistema BX = d˜ poiché l’unica equazione differente è una

63


x1
combinazione delle prime due. Viceversa, se  ...  è soluzione del sistema
 

xn
 
x1
˜ allora  .. 
BX = d, .  soddisfa sicuramente tutte le equazioni di AX = d

xn
tranne la seconda. Poiché vale

a1 x1 + · · · + an xn = a

allora la seconda equazione di BX = d˜ diventa

ha + k(b1 x1 + · · · + bn xn ) = ha + kb.

Essendo k 6= 0 si ha b1 x1 + · · · + bn xn = b.

Sia AX = b un sistema lineare. Osserviamo che scambiare due equa-


zioni del sistema AX = b è equivalente a scambiare due righe della matrice
(A|b). Analogamente moltiplicare una equazione per uno scalare non nullo,
sommare ad una equazione un multiplo di un’altra, è equivalente a moltipli-
care una riga della matric (A|b) per uno scalare non nullo, rispettivamente
sommare ad una riga di (A|b) un multiplo di un’altra. Quindi, il lemma
anteriore prova il seguente risultato.

Corollario 4.10. Sia AX = b un sistema lineare ed indichiamo con (A|b)


la matrice completa. Sia (C|d) la matrice ottenuta attraverso operazioni
elementari di riga sulla matrice completa (A|b). I sistemi lineari AX = b
e CX = d sono equivalenti ovvero l’insieme delle soluzioni di un sistema
lineare non cambia quando si effettuano operazioni elementari di riga sulle
riche della matrice completa.

4.10.1 Sistemi ridotti a scala


Definizione 4.11. Un sistema SX = c si dice ridotto a scala se la matrice
S è ridotta a scala.

Esempio 4.12. 
 x1 + x2 − x3 = 2
x2 − x4 = 0
x3 + x4 = 8

64
è un sistema ridotto a scala poiché la matrice incompleta ha la forma
 
1 1 −1 0
S= 0 1 0 −1 
0 0 1 1
Proposizione 4.13. Sia SX = c un sistema ridotto a scala, dove S ∈
Mm×n (K), con rg(S) = r. Il sistema SX = c è compatibile se e solamente
se m = r, oppure le ultime m−r coordinante del vettore c sono nulle. Inoltre
le soluzioni, se esistono, dipendono da n − rg(S) parametri.
Dimostrazione. Sia SX = c un sistema ridotto a scala. La matrice completa
ha la forma
 
0 ··· 0 s1j1 ∗ ∗ ··· ··· ∗ ··· ··· ··· ∗ ∗ c1
 0 ··· ··· ··· 0 s2j2 ∗ ∗ ∗ ··· ··· ··· ∗ ∗ c2 
 
 0 ··· ··· ··· ··· ··· 0 s3j3 ∗ ∗ ··· ··· ··· ∗ c3 
 
 .. .. .. 
 . ··· ···
 ··· ··· ··· ··· 0 . ··· ··· ··· ··· ∗ . 

 .. .. .. 
 . ··· ···
 ··· ··· ··· ··· ··· 0 . ··· ··· ∗ ∗ . 

 0 ··· ··· ··· ··· ··· ··· ··· ··· 0 srjr ··· ··· ∗ cr 
 
 0 ··· ··· ··· ··· ··· ··· ··· ··· ··· 0 0 ··· 0 cr+1 
 
 . .. .. .. ..
 ..

 . . . . 

 .. .. .. 
 . ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· . . 
0 ··· ··· ··· ··· ··· ··· ··· ··· 0 0 ··· ··· 0 cm
La condizione, m = r oppure le ultime m − r coordinante del vettore c sono
nulle è sicuramente necessaria. Dobbiamo dimostrare che questa condizione
è anche sufficiente. Supponiamo che le ultime m − r coordinate siano nulle.
L’altro caso è analogo. Allora la matrice completa è cosı̀ siffatta.
 
0 · · · 0 s1j1 ∗ ∗ ··· ··· ∗ · · · · · · · · · ∗ ∗ c1
 0 ··· ··· ··· 0 s2j2 ∗ ∗ ∗ · · · · · · · · · ∗ ∗ c2 
 
 0 ··· ··· ··· ··· ··· 0 s3j3 ∗ ∗ · · · · · · · · · ∗ c3 
 
 .. . . . · · · · · · · · · · · · ∗ ... 
 . ··· ··· ··· ··· ··· ··· 0 
 
 .. .. .
. · · · · · · ∗ ∗ ..

 . ··· ··· ··· ··· ··· ··· ··· 0 
 
 0 · · · · · · · · · · · · · · · · · · · · · · · · 0 srjr · · · · · · ∗ cr 
 
 0 ··· ··· ··· ··· ··· ··· ··· ··· ··· 0 0 ··· 0 0 
 
 . . .. .. ..
 .. ..

 . . . 

 .. . .
 . · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · .. ..


0 ··· ··· ··· ··· ··· ··· ··· ··· 0 0 ··· ··· 0 0

65
L’elemento srjr è differente di zero. Quindi possiamo scrivere la variabile
xjr = s−1
rjr (cr − srjr +1 xjr +1 − · · · − srn xn )

in funzione delle variabili xjr +1 , . . . , xn . Analogamente,


xjr−1 = s−1
r−1jr−1 (cr−1 − sr−1jr−1 +1 xjr−1 +1 − · · · − sr−1n xn )

e sostituendo ad xjr il valore precedente, possiamo scrivere xjr−1 in funzione


delle variabili xjr−1 +1 , . . . xjr −1 , xjr +1 , . . . , xn ; e cosı̀ via. Quindi le soluzioni
esistono. Inoltre abbiamo rappresentato le variabili corrispondenti ai perni,
che sono rg(S), in funzioni delle rimanenti, ovvero le soluzioni dipendono da
n − rg(S) parametri.

Questo metodo si chiama metodo della risoluzione all’indietro. Le va-


riabili corrispondenti agli elementi di testa, xj1 , . . . , xjr , che chiameremo
variabili basiche si scrivono in funzione delle altre, che chiameremo variabili
libere. Questo significa che le soluzioni dipendono da esattamente n − r,
ovvero una volta che abbiamo assegnato un valore alle variabili libere, le
variabili basiche sono univocamente determinate.
Proposizione 4.14. Sia SX = c un sistema ridotto a scala, dove S ∈
Mm×n (K), con rg(S) = r. Il sistema SX = c è compatibile se e solamente
se rg(S) = rg(S|c). Inoltre le soluzioni, se esistono, dipendono da n − rg(S)
parametri.
Dimostrazione. Utilizzando la notazione anteriore, abbiamo visto che il si-
stema SX = c è compatibile se e solamente se m = rg(S) oppure le ultime
m − rg(S) coordinate di c sono nulle. Questo è equivalente alla condizione
che la matrice completa (S|c) è ridotta a scala e rg(S) = rg(S|c).

Teorema 4.15 (Rouché-Capelli). Sia AX = b, un sistema lineare con A ∈


Mm×n (K). Il sistema è compatibile se e solamente se rg(A) = rg(A|b). In
tal caso, le soluzioni dipendono da n − rg(A) parametri.
Dimostrazione. Sia (A|b) la matrice completa. Indichiamo con (S|c) una sua
riduzione a scala ottenuta attraverso il metodo di Gauss. La matrice S è una
riduzione a scala di A ed il sistema lineare SX = c è equivalente al sistema
AX = b. Quindi il sistema lineare AX = b è compatibile se e solamente se
SX = c è compatibile se solamente se se m = r, oppure le ultime m − r
coordinante del vettore c sono nulle, dove r = rg(S). Questa condizione è
equivalente a rg(S) = rg(S|c), ovvero il sistema AX = b è compatibile se
e solamente se rg(A) = r(S) = rg(S|b) = rg(A|b). La secondo parte del
Teorema segue dal procedimento della risoluzione all’indietro.

66
Corollario 4.16. Sia A ∈ Mm×n (K) e sia AX = b un sistema lineare. Se
il sistema AX = b è compatibile, allora Il sistema AX = b ammette una ed
una sola soluzione se e solamente se rg(A) = n.

Dimostrazione. Poiché il sistema è compatibile, applicando il Teorema di


Rouché-Capelli, le soluzioni dipendono da n − rg(A) parametri. Quindi
AX = b ammette una ed una sola soluzione se e solamente se il numero dei
parametri è zero e quindi se e solamente se rg(A) = n.

Osservazione 4.17. rg(A) ≤ rg(A|b). Inoltre



 rg(A)
rg(A|b) = oppure
rg(A) + 1

Corollario 4.18. Un sistema lineare omogeneo AX = 0 di m equazioni in


n incognite ammette soluzioni non banali, se e solamente se rg(A) < n. In
particolare se m < n, allora il sistema lineare AX = 0 ammette sempre
soluzioni non banali.

Dimostrazione. Applicando il Teorema di Rouché-Capelli, le soluzione del


sistema lineare omogeneo dipendono da n − rg(A) parametri. Quindi il
sistema omogeneo AX = 0 ammette soluzioni non banali se e solamente se
rg(A) < n. Se A ∈ Mm×n (R) con m < n, tenendo in mente che rg(A) ≤ m,
si ha
n − rg(A) ≥ n − m > 0,
ovvero ammette sempre soluzioni non banali.

Corollario 4.19 (Teorema di Cramer). Sia A = (A1 , . . . , An ) ∈ Mn×n (K).


Il sistema AX = b ammette una ed una soluzione se e solamente se A è
x1
invertibile. Se X =  ...  è l’unica soluzione, allora
 

xn

det(A1 , . . . , Ai−1 , b, Ai+1 , . . . , An )


xi =
det(A)

per i = 1, . . . , n.

Dimostrazione. Se il sistema ammette una ed una soluzione, per il Teorema


di Rouché-Capelli, rg(A) = n, ovvero A è invertibile.

67
Se A è invertibile allora rg(A) = n. Poiché (A|b) ∈ Mn×(n+1) (K), si ha
n = rg(A) ≤ rg(A|b) ≤ n,
ovvero rg(A) = rg(A|b) = n. Applicando il Teorema di Rouché-Capelli, il
sistema è compatibile
  ed ammette una ed una sola soluzione.
x1
Sia X =  ...  l’unica soluzione del sistema AX = b. Poiché
 

xn

x1 A1 + . . . + xn An = b,
si ha
n
X
det(A1 , . . . , Ai−1 , b, Ai+1 , . . . , An ) = det(A1 , . . . , Ai−1 , xm Am , Ai+1 , . . . , An )
m=1
n
X
= xm det (A1 , . . . , Ai−1 , Am , Ai+1 , . . . , An )
| {z }
m=1
i
= xi det A.
Poiché det A 6= 0 si ha la tesi.

4.19.1 Metodi di Calcolo


Siano X1 , . . . , Xs ∈ Kn . Sia A = (X1 , . . . , Xs ) ∈ Mn×s (K). Poiché rg(A)
è il massimo numero dei vettori X1 , . . . , Xs linearmente indipendenti, si ha
che X1 , . . . , Xs sono linearmente dipendenti ⇐⇒ rg(A) < s, rispettiva-
mente X1 , . . . , Xs sono linearmente indipendenti ⇐⇒ rg(A) = s. Se s = n,
allora X1 , . . . Xn sono linearmente indipendenti se e solamente se rg(A) = n
ovvero se e solamente se det(A) 6= 0. Se s > n, tenendo in mente che
A ∈ Mn×s (K) e quindi rg(A) ≤ n < s, si ha che i vettori X1 , . . . , Xs sono
linearmente dipendenti.
Una combinazione lineare di X1 , . . . , Xs è un vettore Z per il quale
esistono α1 , . . . , αs ∈ K tali che
α1 X1 + · · · + αs Xs = Z.
Se indichiamo con A = (X1 , . . . , Xs ) ∈ Mn×s (K), si ha
 
α1
A  ...  = Z.
 

αs

68
Quindi il vettore Z è combinazione lineare di X1 , . . . Xs se e solamente se il
sistema lineare AX = Z è compatibile, ovvero se e solamente se
rg(A) = rg(A|Z).

4.19.2 Mutua posizione di rette e piani


Siano date r1 : X = P1 + tA1 e r2 : X = P2 + tA2 rette nello spazio.
Vogliamo studiare la mutua posizione di r1 e r2 nello spazio.
Le due rette hanno punti in comune se e solo se esistono s1 , t1 ∈ R tali
che
P1 + t1 A1 = P2 + s1 A2 ,
ovvero se e solamente se
 
−t1
P1 − P2 = (−t1 )A1 + s1 A2 = (A1 , A2 ) .
s1
Quindi r1 e r2 si intersecanose e solamente se il sistema lineare AX = P1 −P2 ,
dove A = (A1 , A2 ), è compatibile. Poiché i vettori direttori di una retta sono
non nulli, la matrice A può avere rango 1 oppure 2. Applicando il Teorema
di Rouché-Capelli, si ha:
a) rg(A) = 1, allora se rg(A|P1 − P2 ) = 1 le due rette sono coincidenti;
se rg(A|P1 − P2 ) = 2 le due rette sono parallele;
b) rg(A) = 2, allora se rg(A|P1 − P2 ) = 2, allora le due rette sono
incidenti; se rg(A|P1 − P2 ) = 3, allora le due rette sono sghembe.
Corollario 4.20. Le due rette r ed s sono sghembe se e solamente se
det(A1 , A2 , P1 − P2 ) 6= 0.
Consideriamo le due rette in forma cartesiana:

ax + by + cz = d
r= ,
a0 x + b0 y + c0 z+ = d0
 00
a x + b00 y + c00 z = d00
s=
a000 x + b000 y + c000 z+ = d000
Se indichiamo con
 
a b c
 a0 b0 c0 
 a00 b00 c00  ∈ M4×3 (R)
A= 

a000 b000 c000

69
 
d
 d0 
e con h =   d00 , allora i punti di r ∩ s soddisfano il seguente sistema

d000
lineare
AX = h,
 
x
dove X =  y . Poiché una retta è intersezioni di due piano non paralleli,
z
il rango della matrice A può essere 2 oppure 3. Applicando il Teorema di
Rouché-Capelli, otteniamo

a) rg(A) = 2. Se rg(A|h) = 2 il sistema è compatibile e le due rette sono


coincidenti; se rg(A|h) = 3, allora il sistema è incompatibile e le due
rette sono parallele;

b) rg(A) = 3. Se rg(A|h) = 3 il sistema è compatibile e le due rette sono


incidenti; se rg(A|h) = 4, allora il sistema è incompatibile e le due
rette sono sghembe;

Corollario 4.21. Le due rette r ed s sono sghembe se e solamente se

det(A|h) 6= 0.

Siano π : ax + bx + cz = d e π 0 : a0 x + b0 y + c0 z = d0 piani nello spazio. Sia


 
a b c
A= ∈ M2×3 (R)
a0 b0 c0

e sia  
a b c d
(A|d) = ∈ M2×4 (R)
a0 b0 c0 d0
Quindi π ∩ π 0 = Sol(A|d). Poiché A ∈ M2×3 (R), la matrice A può avere
rango 1 oppure 2. Applicando il teorema di Roucyhé-Capelli si ha i seguenti
casi:

a) rg(A) = 1. Se anche rg(A|d) = 1 allora i due piani sono coincidenti.


Invece se rg(A|d) = 2 i due piani sono paralleli;

b) rg(A) = 2, allora anche rg(A|d) = 2. Applicando il Teorema di


Rouché-Capelli le soluzioni dipendendono da un parametro, ovvero
due piani non paralleli e non coincidenti si intersecano lungo una retta.

70
Siano π : ax + by + cz = d un piano e
 0
a x + b0 y + c0 z = d0
r= ,
a00 x + b00 y + c00 z = d00
una retta nello spazio. Un vettore P ∈ r ∩ π se e solamente se il sistema

AX = h

dove  
a b c
A =  a0 b0 c0  ∈ M3×3 (R)
a00 b00 c00
e  
d
h =  d0  ,
d00
è compatibile. Il rango della matrice A può essere 2 oppure 3. Applicando
Rouché-Capelli, si ha:
a) rg(A) = 2. Se rg(A|h) = 2, allora il sistema è compatibile e la retta
è contenuta nel piano; se rg(A|h) = 3, allora le retta è parallela al
piano;
b) rg(A) = 3, allora anche rg(A|h) = 3 e quindi il piano π e la retta r
sono incidenti.
Utilizzando la notazione anteriore, proviamo i seguenti risultati.
Corollario 4.22. r ⊂ π se e solamente se π : α(a0 x + b0 y + c0 z − d0 ) +
β(a00 x + b00 y + c00 z − d00 ) = 0 con α, β ∈ R non entrambi nulli.
Dimostrazione. La retta r è contenuta nel piano π se e solamente se il siste-
ma ammette soluzione e le soluzioni dipendono da un parametro, quindi se e
solamente se rg(A) = rg(A|h) = 2. Poiché le ultime due righe della matrice
(A|h) sono linearmente indipendenti, si ha che la prima riga è combinazione
lineare della seconda e della terza, da cui segue la tesi.

Corollario 4.23. La retta r ed il piano π sono incidenti se e solamente se


det(A) 6= 0
Dimostrazione. La retta r ed il piano π sono incidenti se e solamente se
rg(A|h) = 3. Poiché (A|h) ∈ M3×3 (R) si ha che r ed π sono incidenti se e
solamente se det(A) 6= 0.

71
Capitolo 5

Basi e dimensione di uno


spazio vettoriale

5.1 Basi di uno spazio vettoriale


Sia V uno spazio vettoriale su K.
Definizione 5.2. Un insieme B = {v1 , . . . , vn } si dice una base di V se:
• v1 , . . . , vn sono linearmente indipendenti:
• v1 , . . . , vn formano un sistema di generatori, i.e., L(v1 , . . . , vn ) = V .
   
1 0
 ..  .. 
a) i vettori e1 =  .  , . . . , en =  .  formano una base di Kn . La

0 1
base C = {e1 , . . . , en } è chiamata la base canonica;
       
1 0 0 1 0 0 0 0
b) siano , , , ∈ M2×2 (R). Poiché
0 0 0 0 1 0 0 1
         
a b 1 0 0 1 0 0 0 0
=a +b +c +d
c d 0 0 0 0 1 0 0 1
       
1 0 0 1 0 0 0 0
si ha che i vettori , , , formano
0 0 0 0 1 0 0 1
una base di M2×2 (R);
c) sia Eij ∈ Mm×n (K) la matrice i cui elementi sono tutti nulli tranne
l’elemento aij = 1. È facile provare che B = {Eij , 1 ≤ i ≤ m, 1 ≤ j ≤
n} è una base di Mm×n (K);

72
d) i polinomi {1, x, . . . , xn } formano una base di Kn [x];
     
1 1 1
e) i vettori  0  ,  1  ,  1 , formano una base di R3 . Infatti, sia
0 0 1
 
x
 y  ∈ R3 . Allora
z
       
x 1 1 1
 y  = α 0  + β  1  + γ  1 ,
z 0 0 1
se il sistema  
1 1 1 x
 0 1 1 y ,
0 0 1 z
 
1 1 1
è compatibile. Poiché la matrice  0 1 1  è inveritible, applicando
0 0 1
il Teorema di Cramer si ha che il sistema è compatibile
   ed  ammette

1 1 1
una ed una sola soluzione. Quindi i vettori  0  ,  1  ,  1  sono
0 0 1
linearmente indipendenti e formano un sistema di generatori.
       
1 0 0 1 0 1 0 0
f) i vettori , , , formano una base
0 0 1 0 −1 0 0 1
di M2×2 (R). Infatti,
         
a b 1 0 0 1 0 1 0 0
=α +β +γ +δ
c d 0 0 1 0 −1 0 0 1
se e solamente se il sistema


 α = a
β+γ = b

,

 β−γ = c
δ = d

è compatibile. La matrice dei coefficienti è


 
1 0 0 0
 0 1 1 0 
 ,
 0 1 −1 0 
0 0 0 1

73
quindi invertible, applicando Il Teorema di Cramer si ha che
 il sistema

1 0 0 1
ammette una ed una soluzione. Quindi i vettori , ,
0 0 1 0
   
0 1 0 0
, formano una base di M2×2 (R).
−1 0 0 1

Proposizione 5.3. Sia V uno spazio vettoriale su K e sia B = {v1 , . . . , vn }


una base di V . Allora ogni vettore v ∈ V si può scrivere in maniera unica
come combinazione lineare dei vettori v1 , . . . vn . Viceversa, se ogni elemento
si può scrive in maniera unica come combinazione lineare di v1 , . . . vn , allora
B = {v1 , . . . , vn } è una base di V .
Dimostrazione. Sia v ∈ V . Poiché B = {v1 , . . . , vn } è un sistema di ge-
neratori si ha V = L(v1 , . . . , vn ). Quindi esistono λ1 , . . . , λn ∈ K tale
che
v = λ1 v1 + · · · + λn vn .
Supponiamo che

v = λ1 v1 + · · · + λn vn = α1 v1 + · · · + αn vn .

Allora
0 = (λ1 − α1 )v1 + · · · + (λn − αn )vn .
Essendo B = {v1 , . . . , vn } un insieme di vettori linearmente indipendenti, ne
segue che
α1 = λ1 , . . . , αk = λk .
Viceversa, supponiamo che ogni elemento si scrive in maniera unica co-
me combinazione lineare dei vettori v1 , . . . , vn . Vogliamo provare che B =
{v1 , . . . , vn } è una base di V , ovvero i vettori v1 , . . . , vn formano un sistema
di generatori e sono vettori linearmente indipendenti.
Sia v ∈ V . Poiché ogni elemento si scrive come combinazione lineare dei
vettori v1 , . . . , vn , esistono α1 , . . . , αn ∈ K tali che v = α1 v1 + · · · + αn vn .
Quindi v ∈ L(v1 , . . . , vn ) da cui segue che

L(v1 , . . . , vn ) = V.

ovvero v1 , . . . , vn formano un sistema di generatori. Adesso proviamo che


sono linearmente indipendenti.
Siano α1 , . . . , αn ∈ K tali che α1 v1 + · · · + αn vn = 0. Dall’unicità, segue
che α1 = · · · = αn = 0, poiché il vettore nullo si può scrivere come combi-
nazione lineare dei vettori v1 , . . . , vn con tutti i coefficienti nulli. Quindi i
vettori v1 , . . . vn sono linearmente indipendenti.

74
Definizione 5.4. Sia v ∈ V e sia B = {v1 , . . . , vn } una base di V . Le
coordinate di v rispetto a B sono gli unici scalari x1 , . . . , xn ∈ K tali che
v = x1 v1 + · · · + xn vn .
 
x1
Indicheremo con [v]B =  ...  ∈ Kn le coordinate di v rispetto a B.
 

xn
     
 1 1 1 
Esempio 5.5. I vettori B =  0 , 1 , 1  , formano una base
   
0 0 1
 
di R3 . Vogliamo calcolare le coordinate di un vettore rispetto alla base B.
Quindi dobbiamo calcolare α, β, γ ∈ R tali che
       
x 1 1 1
 y  = α 0  + β  1  + γ  1 ,
z 0 0 1
ovvero risolvere il sistema
 
1 1 1 x
 0 1 1 y .
0 0 1 z
Il sistema è già ridotto a scala. Applicando il metodo della risoluzione
all’indietro si ha 
 γ=z
β =y−z ,
α=x−y

ovvero        
x 1 1 1
 y  = (x − y)  0  + (y − z)  1  + z 1 .
z 0 0 1
   
x x−y
Quindi  y  =  y − z .
z B z
Sia B = {v1 , . . . , vn } una base di V . Indicheremo con
FB : V −→ Kn v 7→ [v]B
l’applicazione che associa ad ogni vettore le sue coordinate rispetto alla
base B. Tale applicazione è iniettiva e suriettiva, ovvero una trasformazione
biunivoca che soddisfa alle seguenti proprietà:

75
• se v, w ∈ V , allora v = w se e solamente se [v]B = [w]B ;
 
0
 .. 
• [0V ]B =  . ;
0
• [v + w]B = [v]B + [w]B ;
• [λv]B = λ[v]B ;
• Sia {e1 , . . . , en } la base canonica di Kn . Allora [vj ]B = ej , per j =
1, . . . , n.
La prima proprietà è una diretta conseguenza dell’iniettività dell’applica-
zione FB . Infatti, v = w se e solamente se FB (v) = FB (w) quindi se e
solamente se [v]B = [w]B .  
0
 .. 
Poiché 0V = 0v1 + · · · + 0vn , si ha [0V ]B =  . .
0
Siano v, w ∈ V . Allora

v = x1 v1 + · · · + xn vn ,

rispettivamente
w = y1 v 1 + · · · + yn v n .
Quindi
v + w = (x1 + y1 )v1 + · · · + (xn + yn )vn ,
ovvero
     
(x1 + y1 ) x1 y1
[v + w]B =  .. ..  +  ..  = [v] + [w] .
=
  
. .   .  B B
(xn + yn ) xn yn
Se
v = x1 v1 + · · · + xn vn ,
allora
λv = λx1 v1 + · · · + λxn vn .
Quindi    
λx1 x1
[λv]B =  ...  = λ  ..  = λ[v] .
  
.  B
λxn xn

76
Sia v1 ∈ V . Allora
v1 = 1v1 + 0v2 + · · · + 0vn .
 
1
 .. 
Quindi [v1 ]B =  .  = e1 . In maniera analoga,
0

vj = 0v1 + · · · + 0vj−1 + 1vj + 0vj+1 + · · · + 0vn ,


 
0
 .. 
 . 
 
ovvero [vj ]B =   1  = ej .

 .. 
 . 
0
Osserviamo inoltre l’applicazione FB trasforma combinazioni lineari in
combinazioni lineari.
Siano w1 , . . . , wk ∈ V e sia α1 w1 + · · · + αk wk una combinazione lineare
dei vettori w1 , . . . , wk a coefficienti α1 , . . . , αk ∈ K. Quindi

FB (α1 w1 + · · · + αk wk ) = FB (α1 w1 ) + FB (α2 w2 + · · · + αk wk )


= FB (α1 w1 ) + · · · + FB (αk wk )
= α1 FB (w1 ) + · · · + αk FB (wk ),
ovvero
[α1 w1 + · · · + αk wk ]B = α1 [w1 ]B + · · · + αk [wk ]B .
Quindi, FB trasforma una combinazione lineare dei vettori w1 , . . . , wk a coef-
ficienti α1 , . . . , αk ∈ K in una combinazione lineare dei vettori [w1 ]B , . . . , [wk ]B
a coefficienti α1 , . . . , αk ∈ K.

Proposizione 5.6. Siano w1 , . . . , wk ∈ V e sia B = {v1 , . . . , vn } una base


di V . Allora:

a) w1 , . . . , wk sono linearmente dipendenti, rispettivamente linearmente


indipendenti, se e solamente se [w1 ]B , . . . , [wk ]B ∈ Kn sono linearmen-
te dipendenti, rispettivamente linearmente indipendenti;

b) v ∈ V è combinazione lineare dei vettori w1 , . . . , wk se e solamente se


[v]B ∈ Kn è combinazione lineare dei vettori [w1 ]B , . . . , [wk ]B ∈ Kn ;

c) FB (L(w1 , . . . , wk )) = L([w1 ]B , . . . , [wk ]B ).

77
Dimostrazione. Siano w1 , . . . , wk linearmente dipendenti. Allora esistono
α1 , . . . , αk ∈ K non tutti nulli tali che α1 w1 + · · · + αk wk = 0V . Quindi
0Kn = FB (0V )
= FB (α1 w1 + · · · + αk wk )
= α1 FB (w1 ) + · · · + αk FB (wk )
= α1 [w1 ]B + · · · + αk [wk ]B ,

ovvero i vettori [w1 ]B , . . . , [wk ]B sono linearmente dipendenti. Viceversa,


se i vettori [w1 ]B , . . . , [wk ]B sono linearmente dipendenti, allora esistono
α1 , . . . , αk ∈ K non tutti nulli tali che

α1 [w1 ]B + · · · + αk [wk ]B = 0Kn .

Quindi

FB (α1 w1 + · · · + αk wk ) = α1 [w1 ]B + · · · + αk [wk ]B = 0Kn .

Poiché FB è biunivoca, si ha

α1 w1 + · · · + αk wk = 0V .

Quindi i vettori w1 , . . . , wk ∈ V sono linearmente dipendenti. In maniera


analoga è possibile dimostrare lo stesso risultato per la lineare indipendenza.
Sia v ∈ V . Il vettore v è combinazione lineare dei vettori w1 , . . . , wk ∈ V
se esistono β1 , . . . , βk ∈ K tale che

v = β1 w1 + · · · + βk wk .

Poiché FB è biunivoca, v = β1 w1 + · · · + βk wk se e solamente se FB (v) =


FB (β1 w1 + · · · + βk wk ), quindi se e solamente se

[v]B = FB (v) = FB (β1 w1 + · · · + βk wk ) = β1 [w1 ]B + · · · + βk [wk ]B .

Quindi v ∈ V è combinazione lineare dei vettori w1 , . . . , wk se e solamente


se [v]B è combinazione lineare dei vettori [w1 ]B , . . . , [wk ]B .
Sia w ∈ L(w1 , . . . , wk ). Esistono α1 , . . . , αk ∈ K tali che w = α1 w1 +
· · · + αk wk . Applicando FB si ha
FB (w) = FB (α1 w1 + · · · + αk wk )
= α1 FB (w1 ) + · · · + αk FB (wk )
= α1 [w1 ]B + · · · + αk [wk ]B .

Quindi, verificare!, FB (L(w1 , . . . , wk )) = L([w1 ]B , . . . , [wk ]B ).

78
     
1 1 1 2 0 −3
Esempio 5.7. Vogliamo stabilire se i vettori , , ∈
0 1 0 −1 1 2
M2×2 (R) sono linearmente indipendenti. Abbiamo dimostrato che
       
1 0 0 1 0 0 0 0
B= , , ,
0 0 0 0 1 0 0 1

è una base di M2×2 (R) e



  x
x y  y 
=
 z .

z t B
t
     
1 1 1 2 0 −3
Quindi stibilire se , , sono linearmente indi-
0 1 0 −1 1 2
 
  1  
1 1  1  1 2
pendent è equivalente a stabilire se i vettori = , =
0 1 B  0  0 −1 B
1
   
1   0
 2  0 −3  −3  4
 0 , 1 2 = 1  ∈ R sono linearmente indipendenti. Poiché
  
B
−1 2
la matrice  
1 1 0
 1 2 −3 
 ,
 0 0 1 
1 −1 2
     
1 1 1 2 0 −3
ha rango 3, verificare!, si ha che i vettori , ,
0 1 0 −1 1 2
sono linearmente indipendent

5.7.1 Dimensione di uno spazio vettoriale


Sia V uno spazio finitamente generato. L’obiettivo di questa sezione
è quello di dimostrare che due basi hanno lo stesso numero di elementi.
Cominciamo con il seguente Lemma.

Lemma 5.8. Siano v1 , . . . , vn vettori di V . I vettori v1 , . . . , vn sono linear-


mente dipendenti se e solamente se uno di essi si scrive come combinazione

79
lineare degli altri, ovvero, esiste 1 ≤ j ≤ n tale che
vj ∈ L(v1 , . . . , vj−1 , vj+1 , . . . , vn ).
Inoltre
L(v1 , . . . , vn ) = L(v1 , . . . , vj−1 , vj+1 , . . . , vn ).
Dimostrazione. Supponiamo che v1 , . . . , vn siano linearmente dipendenti.
Esistono λ1 , . . . , λn ∈ K non tutti nulli, tali che λ1 v1 + · · · + λn vn = 0.
Supponiamo che λj 6= 0. Allora dall’equazione
λ1 v1 + · · · λj vj + · · · + λn vn = 0
|{z}
posso portare al secondo membro tutti i termini, tranne λj vj , e poi dividire
per λj , ottenedo
vj = (−λ−1 −1 −1 −1
j λ1 )v1 +· · ·+(−λj λj−1 )vj−1 +(−λj λj+1 )vj+1 +· · ·+(−λj λn )vn .

Quindi vj è combinazione lineare dei rimanenti, ovvero


vj ∈ L(v1 , . . . , vj−1 , vj+1 , . . . , vn ).
Viceversa supponiamo che esista j ∈ {1, . . . , n}, tale che vj è combinazione
lineare dei rimanenti, ovvero
vj = λ1 v1 + · · · + λj−1 vj−1 + λj+1 vj+1 + · · · + λn vn .
Allora
λ1 v1 + · · · + λj−1 vj−1 − vj + λj+1 vj+1 + · · · + λn vn = 0,
e quindi i vettori sono linearmente dipendenti poiché il coefficiente che
moltiplica vj è −1.
Adesso, proviamo che L(v1 , . . . , vj−1 , vj+1 , . . . , vn ) = L(v1 , . . . , vn ) se vj
è combinazione lineare dei vettori v1 , . . . , vj−1 , vj+1 , . . . , vn .
Poiché L(v1 , . . . , vn ) è un sottospazio vettoriale di V e i vettori
v1 , . . . , vj−1 , vj+1 , . . . , vn ∈ L(v1 , . . . , vn ),
si ha L(v1 , . . . , vj−1 , vj+1 , . . . , vn ) ⊆ L(v1 , . . . , vn ).
Viceversa, poiché vj è combinazione lineare di v1 , . . . , vj−1 , vj+1 , . . . vn ,
si ha
vj = λ1 v1 + · · · + λj−1 vj−1 + λj+1 vj+1 + · · · + λn vn
ovvero
vj ∈ L(v1 , . . . , vj−1 , vj+1 , . . . , vn ).
Quindi v1 , . . . , vn ∈ L(v1 , . . . , vj−1 , vj+1 , . . . , vn ) da cui segue L(v1 , . . . , vn ) ⊆
L(v1 , . . . , vj−1 , vj+1 , . . . , vn ) concludendo la dimostrazione.

80
Proposizione 5.9. Sia V uno spazio vettoriale che ammette un numero
finito di generatori. Allora V ammette una base.

Facoltativa. Siano v1 , . . . , vn un sistema di generatori dello spazio vettoriale


V . Quindi V = L(v1 , . . . , vn ). Se v1 , . . . , vn sono linearmente indipendenti
allora formano una base. Altrimenti i vettori v1 , . . . , vn sono linearmente
dipendenti. Applicando il Lemma 5.8, esiste 1 ≤ j1 ≤ n tale che vj1 è
combinazione lineare dei rimanenti. Inoltre

V = L(v1 , . . . , vn ) = L(v1 , . . . , vj1 −1 , vj1 +1 , . . . , vn ),

ovvero v1 , . . . , vj1 −1 , vj1 +1 , . . . , vn formano un sistema di generatori. Se i


vettori v1 , . . . , vj1 −1 , vj1 +1 , . . . , vn non fossero linearmente indipendenti allo-
ra potrei iterare questo procedimento, al massimo un numero finito di volte,
fino ad ottenere una base di V .

Vogliamo dimostrare che due basi hanno lo stesso numero di vettori.


Cominciamo con il seguente risultato.

Lemma 5.10 (Steinitz). Sia V uno spazio vettoriale su K generato da n


vettori v1 , . . . , vn . Siano w1 , . . . , wm ∈ V con m > n. Allora w1 , . . . , wm
sono vettori linearmente dipendenti.

Dimostrazione. Vogliamo dimostrare che esistono α1 , . . . , αm non tutti nulli


tali che α1 w1 + · · · + αm wm = 0. Poiché V = L(v1 , . . . , vn ), ogni vettore wj ,
per j = 1, . . . , m, si scrive come combinazione lineare dei vettori v1 , . . . , vn :
n
X
wj = a1j v1 + · · · + anj vn = akj vk .
k=1

Quindi

0 = α1 w1 + · · · + αm wm
Xm
= αj wj
j=1
m X
X n
= αj akj vk
j=1 k=1
 
n
X Xm
=  akj αj  vk .
k=1 j=1

81
Consideriamo il seguente sistema lineare:
 Pm

 j=1 a1j αj = 0
..
 Pm .
a αj = 0

j=1 nj

È un sistema lineare omogeneo di n equazioni in m incognite, con n < m.


Per il corollario 4.18 (del Teorema di Rouché-Capelli) il sistema ammette
soluzioni non banali. Quindi esistono α1 , . . . αm ∈ K non tutti nulli tali che
 Pm

 j=1 a1j αj = 0
..
.
 Pm

j=1 anj αj = 0

Adesso,
m m n
!
X X X
α j wj = αj akj vk
j=1 j=1 k=1
 
n
X m
X
=  akj αj  vk
k=1 j=1

= 0,

ovvero i vettori C = {w1 , . . . , wm } sono linearmente dipendenti.

Corollario 5.11. Sia V uno spazio vettoriale su K generato da n vettori.


Siano w1 , . . . , wm ∈ V linearmente indipendenti. Allora m ≤ n.

Dimostrazione. Se m > n, allora per il Lemma di Steinitz sarebbero linear-


mente dipendenti. Assurdo. Quindi m ≤ n.

Corollario 5.12. Siano B = {v1 , . . . , vn }, C = {w1 , . . . , wm } due basi di V .


Allora m = n.

Dimostrazione. Poiché V = L(v1 , . . . , vn ) e w1 , . . . , wm sono linearmente


indipendenti, applicando il corollario anteriore ottengo che m ≤ n. Scam-
biando il ruolo delle due basi, i.e., V = L(w1 , . . . , wm ) e v1 , . . . , vn linear-
mente indipendenti, sempre per il corollario anteriore si ha n ≤ m. Quindi
n = m.

82
Definizione 5.13. Sia V uno spazio vettoriale generato da un numero fi-
nito di elementi. Il numero dei vettori di una qualsiasi base di V si dice
dimensione di V .
Osservazione 5.14. Sia V uno spazio vettoriale su K di dimensione n.
Allora:
• n è il massimo numero di vettori di V linearmente indipendenti;
• se v1 , . . . , vm formano un sistema di generatori di V , allora n ≤ m.
Infine, se V = {0V }, ovvero uno spazio vettoriale formato solamente dal
vettore nullo, la sua dimensione è per definizione 0.
Esempio 5.15.
   
1 0
 ..   .. 
a) i vettori e1 =  .  , . . . , en =  .  formano una base di Rn . Quindi
0 1
dim Rn = n;
   
1 0
 ..   .. 
b) i vettori e1 =  .  , . . . , en =  .  formano una base di Cn . Quindi
0 1
n
dim C = n;
c) Sia Eij ∈ Mm×n (K) la matrice i cui elementi sono tutti nulli tranne
l’elemento aij = 1. È facile provare che B = {Eij , 1 ≤ i ≤ m, 1 ≤ j ≤
n} è una base di Mm×n (K). Quindi dim Mm×n (K) = mn.
d) i polinomi {1, x, . . . , xn } formano una base di Kn [x]. Quindi dim Kn [x] =
n + 1;
e) Sia V = A ∈ M2×2 (R) : A = AT , i.e., l’insieme delle matrici sim-


metriche. Si può dimostrare che i vettori


     
1 0 0 1 0 0
, , ,
0 0 1 0 0 1
formano una base di V . Quindi dim V = 3.
f ) Sia V = A ∈ M3×3 (R) : A = −AT , i.e., l’insieme

delle matrici an-
tisimmetriche. Si può dimostrare che le matrici
     
0 1 0 0 0 1 0 0 0
 −1 0 0  ,  0 0 0  ,  0 0 1 ,
0 0 0 −1 0 0 0 −1 0

83
formano una base di V . Quindi dim V = 3.
Proposizione 5.16. Sia V uno spazoio vettoriale su K. Siano w1 , . . . , wm ∈
V e sia W = L(w1 , . . . , wm ). Indichiamo con k il massimo numero dei
vettori {w1 , . . . , wm } linearmente indipendenti. Allora dim W = k
Dimostrazione. Poiché k è il massimo numero dei vettori {w1 , . . . , wm } li-
nearmente indipendenti, esistono 1 ≤ j1 < · · · < jk ≤ m tali che i vettori i
vettori wj1 , . . . , wjk sono linearmente indipendenti. Vogliamo dimostrare che
W = L(wj1 , . . . , wjk ). Una inclusione è immediate, ovvero L(wj1 , . . . , wjk ) ⊆
W (perché?). Per dimostrare che W ⊆ L(wj1 , . . . , wjk ) è sufficiente dimo-
strare che wj ∈ L(wj1 , . . . , wjk ) per j = 1, . . . , n.
Se j = ji per un certo 1 ≤ i ≤ k, allora wj ∈ L(wj1 , . . . , wjk ). Supponia-
mo che j 6= ji . I vettori wj , wj1 , . . . , wjk sono linearmente dipendenti, poiché
sono k + 1 e k è il massimo numero dei vettori {w1 , . . . , wm } linearmente
indipendenti. Quindi esistono αj , αj1 , . . . , αjk ∈ K non tutti nulli tali che

αj wj + αj1 wj1 + · · · + αjk wjk = 0.

Se αj = 0, allora
αj1 wj1 + · · · + αjk wjk = 0,
ovvero esisterebbe una combinazione lineare non banale dei vettori wj1 , . . . , wjk
uguale al vettore nullo. Assurdo perché i vettori wj1 , . . . , wjk sono linear-
mente indipendenti. Quindi αj 6= 0 da cui segue che

wj = (−αj1 /αj )wj1 + · · · + (−αjk /αj )wjk ∈ L(wj1 , . . . , wjk ).

Quindi abbiamo dimostrato che

w1 , . . . , wn ∈ L(wj1 , . . . , wjk ),

ovvero
W = L(w1 , . . . , wn ) ⊆ L(wj1 , . . . , wjk ).

Corollario 5.17. Siano v1 , . . . , vn ∈ Km e sia A = (v1 , . . . , vn ) ∈ Mm×n (K).


Allora
 dim L(v1 , . . . , vn ) = rg(A). In particolare se A = (A1 , . . . , An ) =

A1
 .. 
 .  ∈ Mm×n (K), allora rg(A) = dim (A1 , . . . , An ) = dim(AT1 , . . . , ATm ).
Am
Infine il rango di una matrice non cambia se effettuo operazioni elementari
di colonna, rispettivamente di righe, sulla matrice A.

84
Facoltativa. Nella proposizione anteriore abbiamo dimostrato che la dimen-
sione del sottospazio L(v1 , . . . , vn ) è il massimo numero dei vettori {v1 , . . . , vn }
linearmente indipendenti.
Sia A = (v1 , . . . , vn ) ∈ Mm×n (K). Per definizione di rango di una matrice
si ha
dim L(v1 , . . . , vn ) = rg(A).
Adesso dimostreremo che il rango di una matrice non cambia se effettuo
operazioni elementari di colonna. La dimostrazione che il rango di una
matrice non cambia se effettuo operazioni elementari di riga è analogo.
Poiché rg(A) = dim (A1 , . . . , An ), è semplice dimostrare che il rango di
una matrice non cambia se scambio due colonne oppure se moltiplico una
colonna per un multiplo non nullo. Proviamo che il rango rimane invariato se
sommiamo ad una colonna un multiplo di una altro. Dobbiamo dimostrare
che per ogni 1 ≤ i 6= j ≤ n, e per ogni λ ∈ K, si ha L(A1 , . . . , An ) =
L(A1 , . . . , Ai + λAj , . . . , An ).
Poiché
A1 , . . . , Ai + λAj , . . . , An ∈ L(A1 , . . . , An ),
ne segue che

L(A1 , . . . , Ai + λAj , . . . , An ) ⊆ L(A1 , . . . , An ).

Viceversa, A1 , . . . , A
ci , . . . , An ∈ L(A1 , . . . , Ai + λAj , . . . , An ). Inoltre Ai =
(Ai + λAj ) − λAj ∈ L(A1 , . . . , Ai + λAj , . . . , An ) da cui segue che

L(A1 , . . . , An ) ⊆ L(A1 , . . . , Ai + λAj , . . . , An ).

Proposizione 5.18. Sia V uno spazio vettoriale di dimensione n. Sia B =


{v1 , . . . , vn } un insieme formata da n vettori di V . Le seguenti condizioni
sono equivalenti:

a) B = {v1 , . . . , vn } è costituito da vettori linearmente indipendenti;

b) B = {v1 , . . . , vn } formano un sistema di generatori;

c) B = {v1 , . . . , vn } è una base di V .

Dimostrazione. (a) ⇒ (b). Sia v ∈ V . Devo dimostrare che v ∈ L(v1 , . . . , vn ),


ovvero che v è combinazione lineare di v1 , . . . , vn .

85
Poiché n è il massimo numero di vettori linearmente indipendenti di V ,
allora v, v1 , . . . , vn sono linearmente dipendenti. Quindi esistono α, λ1 , . . . , λn
non tutti nulli tali che

αv + λ1 v1 + · · · + λn vn = 0.

Se α = 0, allora i vettori v1 , . . . , vn sarebbero linearmente dipendenti. Quin-


di, α 6= 0 e v = − λα1 v1 − · · · − λαn vn , ovvero v ∈ L(v1 , . . . , vn ).
(b) ⇒ (c). Poiché v1 , . . . , vn formano un sistema di generatori, allora
V = L(v1 , . . . , vn ). Se v1 , . . . , vn fossero linearmente dipendenti, esistereb-
be 1 ≤ j ≤ n tale che vj è combinazione linare dei rimanenti. Inoltre
V = L(v1 , . . . , vn ) = L(v1 , . . . vj−1 , vj+1 , . . . , vn ). Applicando il Lemma di
Steinitz si ha che una base di V sarebbe formata da al massimo n − 1
elementi. Assurdo. (c) ⇒ (a) è immediata dalla definizione di base.

Una base è un insieme formato da vettori linearmente indipendenti e


generatori. Se dim V = n e C = {w1 , . . . , wm } è un insieme di vettori
linearmente indipendenti, quindi m ≤ n, è possibile completare C a base di
V ?La risposta è si. Cominciamo con il seguente Lemma.

Lemma 5.19. Siano v1 , . . . vn vettori linearmente indipedenti di V e sia


v ∈ V . I vettori v, v1 , . . . vn sono linearmente indipendenti se e solamente
se v ∈
/ L(v1 , . . . , vn ).

Dimostrazione. Supponiamo che v, v1 , . . . vn sono linearmente indipendenti.


Per il Lemma 5.8 v non appartiene a L(v1 , . . . , vn ) poiché altrimenti i vettori
v, v1 , . . . , vn sarebbero linearmente dipendenti. Viceversa, supponiamo che
v non appartenga a L(v1 , . . . , vn ) e sia αv + β1 v1 + · · · + βn vn = 0 una
combinazione lineare uguale al vettore nullo. Se α fosse differente da zero,
allora
v = −(β1 /α)v1 − · · · − (βn /α)vn ,
ovvero v ∈ L(v1 , . . . , vn ) che non è possibile per ipotesi. Quindi necessaria-
mente α = 0 . Se α = 0, allora necessariamente β1 = · · · = βn = 0 poiché i
vettori v1 , . . . , vn sono linearmente indipendenti.

Teorema 5.20 (Teorema di completamento a base). Sia V uno spazio vet-


toriale su K di dimensione n. Sia C = {w1 , . . . , wm } un insieme formato
da vettori linearmente indipendenti e sia B = {v1 , . . . , vn } una base di V .
Allora esistono n − m vettori di B che insieme a C = {w1 , . . . , wm } formano
una base di V .

86
Facoltativa. Poiché n = dim V è il massimo numero di vettori linearmente
indipendenti allora m ≤ n. Poiché B = {v1 , . . . , vn } è una base di V , si ha
L(v1 , . . . , vn ) = V da cui segue che

L(w1 , . . . , wm ) ⊆ L(v1 , . . . , vn ).

Se L(w1 , . . . , wm ) = L(v1 , . . . vn ), allora {w1 , . . . , wm } è una base di V .


Quindi m = n e la dimostrazione è finita. Altrimenti L(w1 , . . . , wm ) (
L(v1 , . . . vn ). Affermiamo che esiste 1 ≤ j1 ≤ n tale che vj1 ∈ / L(w1 , . . . , wm ).
Infatti, se v1 , . . . , vn ∈ L(w1 , . . . , wm ), allora L(v1 , . . . , vn ) ⊆ L(w1 , . . . , wm )
e quindi
L(w1 , . . . , wm ) = L(v1 , . . . , vn ).
Assurdo perché per ipotesi L(w1 , . . . , wm ) ( L(v1 , . . . vn ). Applicando il
Lemma 5.19, i vettori vj1 , w1 , . . . , wm sono linearmente indipendenti. Se

L(vj1 , w1 , . . . , wm ) = L(v1 , . . . , vn ),

allora m + 1 = n ed il Teorema sarebbe dimostrato. Altrimenti esiste-


rebbe 1 ≤ j2 ≤ n, j2 6= j1 , tale che vj2 non apparterrebbe al sottospazio
L(vj1 , w1 . . . , wm ) e quindi i vettori vj2 , vj1 , w1 , . . . wm sarebbero linearmente
indipendenti. Se

L(vj1 , vj2 , w1 , . . . , wm ) = L(v1 , . . . , vn ),

allora m + 2 = n ed il Teorema sarebbe dimostrato. Altrimenti posso iterare


questo procedimento per un numero finito di volte: esattamente n−m volte,
concludendo la dimostrazione del Teorema.

Corollario 5.21. Sia V uno spazio vettoriale su K e sia W un sottospazio


di V . Allora dim W ≤ dim V . Inoltre dim W = dim V se e solamente se
V = W.
Dimostrazione. Sia C = {w1 , . . . , wm } una base di W e sia B = {v1 , . . . , vn }
una base di V . Poiché i vettori w1 , . . . , wm sono linearmente indipendenti,
applicando il Lemma di Steinitz si ha m ≤ n, ovvero dim W ≤ dim V .
Se dim W = dim V , m = n e C = {w1 , . . . , wm } è anche una base di V ,
da cui segue che V = L(w1 , . . . , wm ) = W .

Diamo una prova alternativa della I parte del Teorema di Rouché-Capelli


utilizzando i risultati anteriori.
Corollario 5.22. Sia A ∈ Mm×n (K). Il sistema AX = b è compatibile se e
solamente se rg(A) = rg(A|b).

87
Facoltativa. Abbiamo visto che Il sistema lineare AX = b è compatibile se
e solamente se b ∈ L(A1 , . . . , An ). Poiché L(A1 , . . . , An ) ⊆ L(A1 , . . . , An , b),
si ha b ∈ L(A1 , . . . , An ) se e solamente se L(A1 , . . . , An ) = L(A1 , . . . , An , b).
Riassumendo, abbiamo dimostrato che il sistema AX = b è compatibile se
e solamente se L(A1 , . . . , An ) = L(A1 , . . . , An , b) Applicando il corollario
anteriore, si ha che il sistema lineare AX = b è combatibile se e solamente
se dim L(A1 , . . . , An ) = dim L(A1 , . . . , An , b). Applicando il corollario 5.17
si ha che il sistema AX = b è compatibile se e solamente se rg(A) = rg(A|b).

5.22.1 Equazioni cartesiane di un sottospazio di Kn


Sia W ⊂ Kn un sottospazio vettoriale generato dai vettori w1 , . . . , wk ,
ovvero W = L(w1 , . . . , wk ). Il vetore w ∈ W se e solamente se esistono degli
scalari α1 , . . . , αk ∈ K tali che

α1 w1 + · · · + αk wk = w,

ovvero se e solamente se il sistema lineare

AX = w,

è compatibile, dove A = (w1 , . . . , wk ) ∈ Mn×k (K). Applicando il metodo di


Gauss alla matrice (A|w) ottengo un sistema lineare SX = c ridotto a scala
e equivalente al sistema lineare AX = w. Il sistema lineare SX = c ha la
forma:
· · · s1j1 ∗ ∗ ··· ··· ∗ ··· ··· · ∗ c1
 
 ··· ··· 0 s2j2 ∗ ∗ ∗ ··· ··· · ∗ c2 
 
 ··· ··· ··· ··· 0 s3j3 ∗ ∗ · · · · · · ∗ c3 
 .. .. 
 
..
 . ··· ··· ··· ··· 0 . ··· ··· ··· ∗ . 
 
 0 ··· ··· ··· ··· ··· 0 s(r−1)jr−1 ∗ ∗ ∗ cr−1 
 
 0 ··· ··· ··· ··· ··· ··· ··· srjr ∗ ∗ cr 
 
 0 ··· ··· ··· ··· ··· ··· · · · 0 · · · 0 c 
 r+1 
 . .. .. .. 
 .. . . . 
0 ··· ··· ··· ··· ··· ··· 0 · · · 0 cn

Quindi il sistema SX = c è compatibile se e solamente se le ultime n − rg(S)


coordinate di c sono nulle, ovvero se e solamente se

cr+1 = 0, . . . , cn = 0,

88
le quali definiscono equazioni cartesiane. Quindi,

W = L(w1 , . . . , wk ) = Sol(A|w) = Sol(S|c) = {cr+1 = 0, . . . , cn = 0} .

Queste equazioni sono chiamate equazioni cartesiane di W .


     
1 0 1
 0   1   1 
Esempio 5.23. Sia W = L   1  ,  1  ,  2 .
     

1 −1 0
   
1 0 1 x1 A3 − A1 1 0 1 x1
 0
 1 1 x2  −→  0
 1 1 x2 

 1 1 2 x 3  A4 − A1  0 1 1 x3 − x1 
1 −1 0 x4 −→ 0 −1 −1 x4 − x1
   
1 0 1 x1 A3 − A2 1 0 1 x1
 0
 1 1 x2 
 −→  0 1 1
 x2 

 0 1 1 x 3 − x 1  A4 + A2  0 0 0 x3 − x1 − x2 
0 −1 −1 x4 − x1 −→ 0 0 0 x4 − x1 + x2
Il sistema lineare è compatibile se e solamente se x3 − x1 − x2 = 0 e
x4 − x1 + x2 = 0, ovvero
  

 x1 

x
 
2  4

W =   ∈ R : x 3 − x 1 − x 2 = 0, x4 − x 1 + x2 = 0 .

 x3  

x4
 

5.23.1 Metodi di Calcolo


Siano X1 , . . . , Xk vettori di Kn , dove K = R oppure K = C.

a) Affinché i vettori X1 , . . . , Xk formino una base è necessario che n = k


essendo n = dim K n . Sia (X1 , . . . , Xn ) ∈ Mn×n (K), ovvero la matrice
le cui colonne sono i vettori X1 , . . . , Xn . Applicando la Proposizio-
ne 5.18 si ha che i vettori X1 , . . . , Xn ∈ Kn formano una base se e
solamente se X1 , . . . , Xn sono linearmente indipendenti, quindi se e
solamente se det(X1 , . . . , Xn ) 6= 0 (rg(X1 , . . . , Xn ) = n);

b) Sia W = L(X1 , . . . , Xk ) dove X1 , . . . Xk ∈ Kn . Allora dim W =


rg((X1 , . . . , Xk )). Per determinare una base possiamo seguire il se-
guente procedimento.

89
Applicando l’algoritmo di Gauss alla matrice A = (X1 , . . . , Xk ) ∈
Mm×k (K) otteniamo una matrice S ∈ Mm×k (K) ridotta a scala. Siano
1 ≤ j1 < . . . < jk ≤ n tali che le colonne S j1 , . . . , S jk corrispondono
ai perni di S. Si può dimostrare che Xj1 , . . . , Xjk sono linearmente
indipendenti. Poiché k = rg(A), allora (Xj1 , . . . , Xjk ) formano una
base di W .
c) Siano X1 , . . . , Xk ∈ Kn linearmente indipendenti. Abbiamo dimostra-
to che possiamo completarli a base di Kn . Una possibilità è di trovare
n − k vettori Yk+1 , . . . , Yn ∈ Kn tali che

det(X1 , . . . , Xk , Yk+1 , . . . , Yn ) 6= 0.

Non abbiamo un algoritmo che ci guida nella scelta dei vettori da ag-
giungere. Tuttavia, il Teorema di completamento a base afferma che
possiamo completare a base i vettori indipendenti X1 , . . . , Xk aggiun-
gendo, per esempio, n − k vettori della base canonica.
Il metodo di Gauss, ci fornisce un algoritmo per completare a base i
vettori X1 , . . . , Xk linermente indipendenti.
Sia C = {e1 , . . . en } la base canonica di Kn e sia

A = (X1 , . . . Xk , e1 , . . . , en ) ∈ Mn×(n+k) (K).

Si osservi che rg(A) = n. Infatti rg(A) ≤ n poiché la matrice A ha n


righe. Dall’altro lato, i vettori e1 , . . . , en sono linearmente indipendenti
e quindi esistono almento n colonne linearmente indipendenti, ovvero
rg(A) ≥ n. Quindi rg(A) = n. Applicando l’algoritmo di Gauss alla
matrice A otteniamo una matrice ridotta a scala che indichiamo con
S = (S 1 , . . . , S k , B 1 , . . . , B n ). Poiché i vettori X1 , . . . , Xk sono linear-
mente indipendenti, si può dimostrare che le prime k colonne della
matrice S contengono perni (perché?). Inoltre, se i perni della ma-
trice S sono contenuti nelle colonne S 1 , . . . , S k , B j1 , . . . , B jn−k , allora
i vettori X1 , . . . Xk , ej1 , . . . ejn−k sono linearmente indipenti e quindi
formano un base di Kn . Questo procedimento può essere lungo poiché
se dovessi completare a base X1 , X2 ∈ R4 , dovrei ridurre a scala una
matrice di formato 4 × 6.
d) sia B = {v1 , . . . , vn } una base di Kn . Vogliamo calcolare le coordinate
di un vettore v rispetto alla base B. Le coordinate di un vettore v
rispetto alla base B sono gli unici scalari x1 , . . . , xn ∈ K tale che

v = x1 v1 + · · · + xn vn .

90


x1
Sia A = (v1 , . . . , vn ) ∈ Mn×n (K) e sia X =  ... . Poiché
 

xn

v = x1 v1 + · · · + xn vn ⇐⇒ AX = v,

le coordinare di v rispetto alla base B è l’unica soluzione del sistema


lineare AX = v. Quindi calcolare le coordinate di un vettore rispetto
ad una base è equivalente a risolvere un sistema lineare di n equazioni
in n incognite.

Sia V uno spazio vettoriale su K di dimensione n e sia B = {v1 , . . . , vn } una


base di V . Sia FB : V −→ Kn l’applicazione biunivoca che associa a v le
sue coordinate rispetto a B. Ricordiamo che dalla definizione di coordinate
si ha che FB (vi ) = ei , per i = 1, . . . , n, dove {e1 , . . . , en } è la base canonica
di Kn . Inoltre  
x1
FB−1  ...  = x1 v1 + · · · + xn vn .
 

xn
Siano w1 , . . . , wk ∈ V . Allora:

a) w1 , . . . , wk ∈ V sono linearmente indipendenti se e solamente se i vetto-


ri [w1 ]B , . . . , [wk ]B ∈ Kn sono linearmente indipendenti se e solamente
se rg([w1 ]B , . . . , [wk ]B ) = k.

b) w1 , . . . , wk ∈ V sono linearmente dipendenti se e solamente se i vettori


[w1 ]B , . . . , [wk ]B ∈ Kn sono linearmente dipendenti se e solamente se
rg([w1 ]B , . . . , [wk ]B ) < k.

c) w1 , . . . , wk ∈ V formano una base di V se e solamente se k = n ed


i vettori [w1 ]B , . . . , [wn ]B formano una base di Kn se e solamente se
det([w1 ]B , . . . , [wn ]B ) 6= 0;

d) siano v, w1 , . . . , wk ∈ V . v è combinazione lineare di w1 , . . . , wk se e


solamente se [v]B è combinazione lineare dei vettori [w1 ]B , . . . , [wk ]B ∈
Kn se e solamente se rg([w1 ]B , . . . , [wk ]B ) = rg([w1 ]B , . . . , [wk ]B , [v]B );

Siano w1 , . . . , wk vettori linearmente indipendenti di V . Possiamo comple-


tarli a base di V . Una maniera può essere la seguente.
Siano [w1 ]B , . . . , [wk ]B ∈ Kn . Poiché i vettori [w1 ]B , . . . , [wk ]B sono li-
nearmente indipendenti applicando il Teorema del completamento a base,

91
li posso completare a base aggiungendo n − k vettori della base canonica
{e1 , . . . , en }. Quindi esistono ≤ j1 < . . . < jn−k ≤ n tale che
[w1 ], . . . , [wk ]B , ej1 , . . . , ejn−k ,
formano una base di Kn .
Tenendo in mente che FB (vj ) = ej per j = 1, . . . , n,
e che FB è biunivoca, non è difficile dimostrare che i vettori
w1 , . . . , wk , vj1 , . . . , vjn−k ,
formano una base di V .
Sia W = L(w1 , . . . , wk ) ⊆ V . Per calcolare una base possiamo seguire il
seguente procedimento.
Sia W 0 = L([w1 ]B , . . . , [wk ]B ). Noi sappiamo che dim W = dim W 0 =
rg([w1 ]B , . . . , [wk ]B ). Siano 1 ≤ j1 < · · · < jk ≤ n tale che i vettori
[wj1 ]B , . . . , [wjk ]B ) formano una base di W 0 . Non è difficile dimostrare che i
vettori wj1 , . . . , wjk formano una base di W .
Sia C = {w1 , . . . , wn } una base di V . Le coordinate di un vettore v
rispetto alla base C sono gli unici scalari y1 , . . . , yn ∈ K tali che
v = y1 w1 + · · · + yn wn .
Poiché FB è biunivoca e trasforma combinazioni lineari in combinazioni
lineari si ha
[v]B = y1 [w1 ]B + · · · + yn [wn ]B .
Tenendo in mente che C 0 = {[w1 ]B , . . . , [wn ]B } è una base di Kn , si ha che
le coordinate di v rispetto alla base C sono le coordinate del vettore [v]B
rispetto alla base C 0 .

5.24 Formula di Grassman


Sia V uno spazio vettoriale su K e siano U, W ⊆ V sottospazi vettoriali
di V . Non è difficile verificare che U ∩ W è un sottospazio vettoriale di V
(esercizio). Invece, in generale, U ∪ W non è un sottospazio vettoriale. Per
esempio, sia V = R2 e sia U = L(e1 ) and W = L(e2 ). Allora U ∪ W ,
W

Figura 5.24.1.

92
è l’unione degli assi, il quale non è un sottospazio vettoriale poiché non è
chiuso rispetto alla somma (ma è chiuso rispetto alla moltiplicazione per
scalare).
Definiamo
U + W := {u + w : u ∈ U w ∈ W }.
Proposizione 5.25. U + W è un sottospazio vettoriale di V .
Dimostrazione. Dobbiamo dimostrare che U + W è chiuso rispetto alla som-
ma e la moltiplicazione per scalare. Ovvero, se z, h ∈ U + W e λ ∈ K, allora
z + h ∈ U + W e λz ∈ U + W .
Siano z, h ∈ U + W . Per definizione di U + W , esitono u1 , u2 ∈ U e
w1 , w2 ∈ W tale che z = u1 + w1 e h = u2 + w2 rispettivamente. La tesi è
che anche z + h e λz li posso scrivere come una somma di un elemento di U
e di un elemento di W . Infatti,

z + h = u1 + w1 + u2 + w2 = u1 + u2 + w1 + w2 ∈ U + W.
| {z } | {z }
U W

Analogamente
λz = λu1 + λw1 ∈ U + W,
poiché λu1 ∈ U e λw1 ∈ W

È facile verificare che U + W contiene sia U e sia W . Se volessimo


essere rigorosi dovremmo affermare che U + W è il più piccolo sottospazio
vettoriale di V che contiene U ∪ W . Il prossimo risultato fornisce un criterio
per determinare un sistema di generatori di U + W .
Lemma 5.26. Sia D = {u1 , . . . , un } un sistema di generatori di U e C =
{w1 , . . . , wm } un sistema di generatori di W . Allora D ∪ C è un sistema di
generatori di U + W .
Dimostrazione. I vettori u1 , . . . , un , w1 , . . . wm ∈ U + W . Quindi, tenendo
in mente che U + W è un sottospazio di V , si ha

L(u1 , . . . , un , w1 , . . . , wm ) ⊆ U + W.

Dimostriamo l’inclusione opposta.


Sia z ∈ U + W . Il vettore z = u + w per un certo u ∈ U e w ∈ W .
Poiché D = {u1 , . . . , un }, rispettivamente C = {w1 , . . . , wm }, è un sistema
di generatori di U , rispettivamente W , esistono α1 , . . . , αn , rispettivamente
β1 , . . . , βm , tale che
u = α1 u1 + · · · + αn un ,

93
rispettivamente
w = β1 w1 + · · · + βm wm .
Quindi

u + w = α1 u1 + · · · + αn un + β1 w1 + · · · + βm wm ∈ L(u1 , . . . , un , w1 , . . . , wm ),

ovvero U + W ⊆ L(u1 , . . . , un , w1 , . . . , wm ).

Esempio 5.27. Si considerino i sottospazi


     
1 0 1
U = L  1  , W = L  1  ,  1 
2 1 1

di R3 . Allora     

1 0 1
U +W =L  1 , 1 , 1  ,
   
2 1 1
e  
1 0 1
dim(U + W ) = rg  1 1 1  = 3 verificare!.
2 1 1
Quindi U + W = R3 .

Teorema 5.28 (Formula di Grassman). Sia V uno spazio vettoriale su K.


Siano U e W sottospazi vettoriali di V . Allora

dim(U + W ) + dim(U ∩ W ) = dim U + dim W

Facoltativa. Sia {s1 , . . . , sk } una base di U ∩ W . Per il Teorema di comple-


tamento a base, possiamo completarla a base di U , {s1 , . . . , sk , u1 , . . . , up },
rispettivamente a una base di W , {s1 , . . . , sk , w1 , . . . , wq }. Quindi dim(U ∩
W ) = k, dim U = k + p ed infine dim W = k + q. Per il Lemma anteriore, i
vettori
{s1 , . . . , sk , u1 , . . . , up , w1 , . . . , wq },
formano un sistema di generatori di U + W . Vogliamo dimostrare che sono
linearmente indipendenti e quindi formano una base di U +W . Consideriamo
una combinazione lineare:

α s + · · · + αk sk + β1 u1 + · · · + βp up + γ1 w1 + · · · + γq wq = 0,
| 1 1 {z } | {z } | {z }
s u w

94
ovvero
s + u + w = 0,
dove s ∈ U ∩ W , u ∈ U e w ∈ W . Quindi u = −s − w ∈ W , rispettivamente
w = −s − u ∈ U , da cui segue che u, w ∈ U ∩ W . In particolare esistono
λ1 , . . . , λk , rispettivamente µ1 , . . . , µk , tali che

u = λ1 s1 + · · · + λk sk = β1 u1 + · · · + βp up ,

rispettivamente

w = µ1 s1 + · · · + µk sk = γ1 w1 + · · · + γq wq ,

ovvero
λ1 s1 + · · · + λk sk − β1 u1 − · · · − βp up = 0,
rispettivamente

µ1 s1 + · · · + µk sk − γ1 w1 − · · · − γq wq = 0.

Poiché {s1 , . . . , sk , u1 , . . . , up } è una base di U , rispettivamente {s1 , . . . , sk , w1 , . . . , wq }


è una base di W , ne segue che

β1 = · · · = βp = 0, rispettivamente γ1 = · · · = γq = 0.

Quindi u = w = 0 ed α1 s1 + · · · + αk sk = 0, Poiché i vettori s1 , . . . , sk


sono linearmente indipendenti si ha α1 = · · · = αk = 0, ovvero i vettori
s1 , . . . , sk , u1 , . . . , up , w1 , . . . , wq sono linearmente indipendenti. Quindi,

dim(U + W ) = k + p + q
= (k + p) + (k + q) − k
= dim U + dim W − dim(U ∩ W ).

Definizione 5.29. Sia V uno spazio vettoriale su K. Siano U e W sotto-


spazi vettoriali di V . Diremo U e W sono in somma diretta se U ∩W = {0}.
Diremo inoltre che V è in somma diretta di U e W se:

• U ∩ W = {0};

• U +W =V.

Se V è in soma diretta di U e W scriveremo V = U ⊕ W .

95
Esempio 5.30. Si considerino i sottospazi U = L(e1 ) e W = L(e2 ) di R2 .
È facile verificare che U ∩ W = {0}.
W

Figura 5.30.1.
Quindi U e W sono in somma diretta. Inoltre, U + W = R2 , poiché
U + W = L(e1 , e2 ) = R2 , ovvero R2 = U ⊕ W .
Applicando la formula di Grassman si ha il seguente risultato.
Corollario 5.31. Siano U e W due sottospazi vettoriali di V . Allora:
a) U e W sono in somma diretta se e solamente se dim(U +W ) = dim U +
dim W ;
b) V è somma diretta di U e W se e solamente se dim V = dim(U + W )
e dim(U + W ) = dim U + dim W .
Dimostrazione. Tenendo in mente che U ∩ W = {0} è equivalente a dim(U ∩
W ) = 0, applicando la formula di Grassmann
dim(U + W ) + dim(U ∩ W ) = dim U + dim W,
si ha che U ∩ W = {0} se e solamente se dim(U + W ) = dim U + dim W .
Se V è somma diretta di U e W , allora U ∩ W = {0} ed V = U + W .
Quindi dim V = dim(U + W ). Applicando la formula di Grassmann si
ha dim(U + W ) = dim U + dim W . Viceversa, supponiamo che dim V =
dim(U + W ) = dim U + dim W . Poiché U + W ⊆ V , applicando il Corollario
5.21 si ha V = U + W . Applicando nuovamente la formula di Grassman,
se dim(U + W ) = dim U + dim W , allora U ∩ W = {0} concludendo la
dimostrazione.

Il seguente risultato descrive in maniere equivalente cosa significa che V


è somma diretta di U e W .
Corollario 5.32. Sia V uno spazio vettoriale su K e siano U e W sottospazi
di V . Allora V è somma diretta di U e W se e solamente se ogni elemento
di V si scrive in maniera unica come somma di un vettore di U ed un vettore
di W .

96
Facoltattiva. Se V è somma diretta di U e W , allora U ∩ W = {0} e V =
U + W . La seconda proprietà implica che ogni vettore v ∈ V si scrive come
somma v = u + w, dove u ∈ U e w ∈ W . Se v = u + w = u0 + w0 , allora
u − u0 = w − w0 ∈ U ∩ W.
Quindi u = u0 e w = w0 . Viceversa, supponiamo che ogni elemento di
V si scriva, in maniera unica, come somma di un elemento di U e di un
elemento di W . Allora V = U + W (Perché?). Se z ∈ U ∩ W , allora
z = 43 z + 14 z = 21 z + 12 z. Quindi se z 6= 0, allora potrei scrivere z come
somma di un elemento di U e di un elemento di W in almento due maniere
distinte. Assurdo. Quindi U ∩ W = {0}.
Esempio 5.33. Sia V = Mn×n (R) e siano U = {A ∈ V : A = AT } e W =
{A ∈ V : A = −AT }. Ogni matrice A ∈ V si scrive in maniera unica come
combinazione lineare di una matrice simmetrica ed una antisimmetrica:
1 1
A = (A + AT ) + (A − AT ).
2 2
Quindi V è somma diretta di U e W .
Sia V uno spazio vettoriale su K e sia W un sottospazio vettoriale di
V . Una domanda naturale è se esiste W 0 sottospazio di V tale che V =
U ⊕ W . La risposta è affermativa ed una diretta conseguenza del Teorema
di completamento a base.
Corollario 5.34. Sia V uno spazio vettoriale su K e sia W un sottospazio
vettoriale di V . Esistono (infiniti) W 0 tali che V = W ⊕ W 0 .
Facoltativa. Sia C = {w1 , . . . , wk } una base di W . Possiamo completar-
la a basa di V . Siano v1 , . . . , vs tale che i vettori w1 , . . . , wk , v1 , . . . , vs
formano una base di V . Affermiamo che V è in somma diretta di W e
W 0 = L(v1 , . . . , vs ).
Poiché W + W 0 = L(w1 , . . . , wk , v1 , . . . , vs ) ed w1 , . . . , ws , v1 , . . . , vs for-
mano una base di V si ha W + W 0 = V .
Sia z ∈ W ∩ W 0 . Allora
z = α 1 w1 + · · · + α k wk = β 1 v 1 + · · · + β s v s ,
da cui segue
α1 w1 + · · · + αk wk + (−β1 )v1 + · · · + (−βs )vs = 0.
Poiché i vettori w1 , . . . , wk , v1 , . . . , vs sono linearmente indipendenti i coeffi-
cienti
α1 = · · · = αk = β1 = · · · = βs = 0,
ovvero z = 0.

97
5.34.1 Metodi di Calcolo
Siano U = L(X1 , . . . , Xk ) e W = L(Y1 , . . . , Ys ) sottospazi vettoriale di
Kn . Siano A = (X1 , . . . , Xk ) ∈ Mn×k (K), B = (Y1 , . . . , Ys ) ∈ Mn×s (K) e
C = (X1 , . . . , Xk , Y1 , . . . , Ys ) ∈ Mn×(k+s) (K). Allora

• dim U = rg(A);

• dim W = rg(B);

• dim(U + W ) = rg(C);

• dim(U ∩ W ) possiamo calcolarla applicando la formula di Grassman;

• U e W sono in somma diretta se e solamente se rg(C) = rg(A)+rg(B);

• Kn è in somma ditretta di U e W se e solamente se n = rg(C) =


rg(A) + rg(B).

Per quanto rigurda l’intersezione possiamo procedere coı̀. U e W , rispetti-


vamente, possono essere descritti da equazioni cartesiane. Allora, verifica-
re, l’unione di queste equazioni sono equazioni cartesiane per l’intersezione
U ∩ W.
Sia V uno spazio vettoriale su K. Siano U = L(u1 , . . . , up ), W =
L(w1 , . . . , wq ) sottospazi vettoriali di V . Sia infine B una base di V . Allora:

• dim U = rg(([u1 ]B , . . . , [up ]B );

• dim W = rg(([w1 ]B , . . . , [wq ]B );

• dim U + W = rg(([u1 ]B , . . . , [up ]B , [w1 ]B , . . . , [wq ]B )).

• la dim(U ∩W ) possiamo ricavarla utilizzando la formula di Grassmann.

98
Capitolo 6

Applicazioni lineari e matrici

6.1 Applicazioni lineari


Definizione 6.2. Siano V, W spazi vettoriali su K. Una applicazione T :
V −→ W si dice lineare se:

a) ∀v1 , v2 ∈ V , T (v1 + v2 ) = T (v1 ) + T (v2 ) (additiva);

b) ∀v ∈ V e λ ∈ K, T (λv) = λT (v) (omogenea).

Proposizione 6.3. Sia T : V −→ W una applicazione lineare. Allora

• T (0V ) = 0W ;

• T (−v) = −T (v);

• siano v1 , . . . , vn ∈ V e siano α1 , . . . , αn ∈ K. Allora

T (α1 v1 + · · · + αn vn ) = α1 T (v1 ) + · · · + αn T (vn ).

Dimostrazione. Dimostreremo solamente l’ultima proprietà lasciando le al-


tre due per esercizo.

T (α1 v1 + · · · + αn vn ) = T (α1 v1 ) + T (α2 v2 + · · · + αn vn )


= T (α1 v1 ) + T (α2 v1 ) + · · · + T (αn vn )
= α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn )
= α1 T (v1 ) + · · · + αn T (vn ).

99
Vediamo alcuni esempi di applicazioni lineari.
Esempio 6.4.
a) T : V −→ W , v 7→ 0W è lineare;
b) IdV : V −→ V , v 7→ v è una applicazione lineare;
c) L’applicazione

Mm×n (R) −→ Mn×m (R), A 7→ AT

è una applicazione lineare;


d) sia V uno spazio vettoriale su K e sia B una base di V . Allora

FB : V −→ Kn , v 7→ [v]B ,

è una applicazione lineare;


e) sia A ∈ Mm×n (K). Le applicazioni

Mp×m (K) −→ Mp×n (K), X 7→ XA,

e
Mn×q (K) −→ Mm×q (K), X 7→ AX,
sono applicazioni lineari.
f ) Sia A ∈ Mm×n (K). Allora

LA : Kn −→ Km , X 7→ AX,

è una applicazione lineare.


g) L’applicazione

Mn×n (K) −→ K A 7→ Tr(A)

è una applicazione lineare.


Osservazione 6.5. L’applicazione T : R −→ R, T (x) = x + 1 non è una
applicazione lineare poiché T (0) = 1 6= 0. Lo stesso vale per l’applicazione
T : R −→ R, T (x) = x2 poiché T (−x) = T (x) per ogni x ∈ R. Un altro
esempio di applicazione che non è lineare è l’applicazione

Mm×n (C) −→ Mn×m (C), A ∈ Mm×n (C) 7→ A∗ ∈ Mn×m (C).

Infatti (λA)∗ = λA, ovvero non è omogenea (ma è additiva).

100
Siano V, W spazi vettoriali su K. Indichiamo con Lin(V, W ) oppu-
re Hom(V, W ) l’insieme di tutte le applicazioni lineari fra V e W . Se
T, L ∈ Lin(V, W ), diremo che T = L se per ogni v ∈ V si ha T (v) = L(v).
Lin(V, W ) ammette una struttura di spazio vettoriale su K.
Siano T, L ∈ Lin(V, W ) e λ ∈ K. Definiamo

(T + L)(v) := T (v) + L(v), (λT )(v) = λT (v).

Proposizione 6.6. Se V, W sono spazi vettoriali su K, allora Lin(V, W )


con le operazioni di somma e moltiplicazione per scalare definite come sopra
è uno spazio vettoriale su K.

Proposizione 6.7. Siano f ∈ Lin(V, W ) e g ∈ Lin(W, Z). Allora g ◦


f ∈ Lin(V, Z) è ancora una applicazione lineare, ovvero la composizione
di applicazioni lineari è ancora una applicazione lineare. L’inversa, quando
esiste, di una applicazione lineare è ancora lineare. Inoltre: siano L : V −→
W , T, H : W −→ Z e S, Q : D −→ W . Allora

a) (T + H) ◦ L = T ◦ L + H ◦ L;

b) T ◦ (S + Q) = T ◦ S + T ◦ Q;

c) λ(H ◦ L) = (λH) ◦ L = H ◦ (λL).

Facoltativa. Siano v1 , v2 ∈ V . Allora

(g ◦ f )(v1 + v2 ) = g(f (v1 + v2 )) = g(f (v1 ) + f (v2 ))


= g(f (v1 )) + g(f (v2 )) = (g ◦ f )(v1 ) + (g ◦ f )(v2 ).

Analogamente se λ ∈ K e v ∈ V si ha

(g ◦ f )(λv) = g(f (λv)) = g(λf (v))


= λg(f (v)) = λ(g ◦ f )(v).

Sia T : V −→ W lineare e biunivoca. Dalla teoria degli insieme sappiamo


che esiste T −1 : W −→ V tale che T ◦ T −1 = IdW e T −1 ◦ T = IdV .
L’applicazione T −1 : W −→ V è cosı̀ definta: T −1 (w) = v, dove v è l’unico
elemento di V tale che T (v) = w. Vogliamo dimostrare che T −1 è lineare.
Siano w1 , w2 ∈ W e siano v1 , rispettivamente v2 ∈ V , tali che T (v1 ) =
w1 , rispettivamente T (v2 ) = w2 . Poiché T è lineare si ha

T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2 .

101
Per definizione di T −1 si ha

T −1 (w1 + w2 ) = v1 + v2 = T −1 (w1 ) + T −1 (w2 ).

Siano λ ∈ K e w ∈ W . Sia v ∈ V tale che T (v) = w. Poiché T è lineare si


ha T (λv) = λT (v) = λw, ovvero

T −1 (λw) = λT −1 (w).

Le rimanenti proprietà sono lasciate per esercizio.

Il prossimo risultato garantisce che una applicazione lineare è completa-


mente determinate dai valori che assume su una base di V .

Proposizione 6.8. Siano V e W spazi vettoriali su K. Sia B = {v1 , . . . , vn }


una base di V e siano w1 , . . . , wn ∈ W . Esiste una unica applicazione lineare
T : V −→ W , tale che T (v1 ) = w1 , . . . , T (vn ) = wn .

Dimostrazione. Supponiamo che esistono T, L : V −→ W lineari tali che


T (v1 ) = L(v1 ), . . . , T (vn ) = L(vn ) e dimostriamo che T = L.
Sia v ∈ V . Poiché B = {v1 , . . . , vn } è una base di V esistono, e sono
unici, x1 , . . . , xn ∈ K, tale che v = x1 v1 + · · · + xn vn . Quindi

T (v) = T (x1 v1 + · · · + xn vn )
= x1 T (v1 ) + · · · + xn T (vn )
= x1 L(v1 ) + · · · + xn L(vn )
= L(x1 v1 + · · · + xn vn )
= L(v).

Quindi se esite una tale applicazione è unica. Adesso dimostriamo che esiste
una applicazione lineare T : V −→ W tale che T (v1 ) = w1 , . . . , T (vn ) = wn .
Sia v ∈ V . Allora esistono, e sono unici, x1 , . . . , xn ∈ K tale che

v = x1 v1 + · · · + xn vn .

Definiamo
T (v) = x1 w1 + · · · + xn wn .
La definizione è ben posta poiché le coordinate sono univocamente deter-
minate. Inoltre, tenendo in mente che [v1 ]B = e1 , . . . , [vn ]B = en , si ha
T (v1 ) = w1 , . . . , T (vn ) = wn . Rimane quindi da dimostrare che T è lineare.

102
Siano v, w ∈ V . Allora

v = x1 v1 + · · · + xn vn
w = y1 v 1 + · · · + yn v n .
v + w = (x1 + y1 )v1 + · · · + (xn + yn )vn

Quindi

T (v + w) = (x1 + y1 )w1 + · · · + (xn + yn )wn


= x1 w1 + · · · + xn wn + y1 w1 + · · · + yn wn
| {z } | {z }
= T (v) + T (w).

Sia v ∈ V e sia λ ∈ K. Allora

v = x1 v1 + · · · + xn vn λv = λx1 v1 + · · · + λxn vn .

Quindi

T (λv) = (λx1 )w1 + · · · + (λxn )wn


= λ(x1 w1 + · · · + xn wn )
= λT (v).

Esempio 6.9. Sia T : R3 −→ R4 l’applicazione lineare definita da:


     
  1   0   2
1 0 1
 , T  2  =  −3  , T  1  =  −1 
 1    
T  0  =  2   1 
.
 5 
1 1 1
−1 1 −1
 
x
Vogliamo calcolare T  y .
z
     
 1 0 1 
Sia B =  0  ,  2  ,  1  , la base di R3 sulla quale conosciamo
1 1 1
 
l’applicazione lineare T . Se
   
x α
 y  = β 
z B γ

103
 
x
sono le coordinate del vettore  y  rispetto alla base B, allora
z
    
  1 0 2
x  1   −3 
  −1 
T  y  = α 
 2 
+β +γ .
 1   5 
z
−1 1 −1
 
x
Le coordinate del vettore  y  rispetto alla base B è l’unica soluzione del
z
sistema lineare     
1 0 1 α x
 0 2 1  β  =  y ,
1 1 1 γ z
ovvero 
 α = −x − y + 2z
β = −x + z
γ = 2x + y − 2z

Infatti
       
x 1 0 1
 y  = (−x − y + 2z)  0  + (−x + z)  2  + (2x + y − 2z)  1  .
z 1 1 1

Quindi
   
  1 0
x  1   −3 
T  y  = (−x − y + 2z)  2  + (−x + z) 
  
1 
z
−1 1
 
2
 −1 
+ (2x + y − 2z) 
 5 

−1
 
3x + y − 2z
 −2y + z 
= 7x + 3y − 5z  .

−2x + z

104
Corollario 6.10. Siano T, L : V −→ W due applicazioni lineari e sia
B = {v1 , . . . , vn } una base di V . Allora T = L, se e solamente se T (v1 ) =
L(v1 ), . . . , T (vn ) = L(vn ).
Dimostrazione. Se T = L, allora T (v) = L(v) per ogni v ∈ V . In particolare
vale per ogni elemento della base B = {v1 , . . . , vn }. Viceversa, supponiamo
che T (vi ) = L(vi ) per i = 1, . . . , n. Applicando la proposizione anteriore si
ha T = L.

Definizione 6.11. Sia T : V −→ W una applicazione lineare. Si pone


• Ker T = {v ∈ V : T (v) = 0W } (nucleo di T ).

• Im T = {T (v) : v ∈ V } = {w ∈ W : ∃v ∈ V per cui T (v) = w}


(Immagine di T ).
Proposizione 6.12. Sia T : V −→ W una applicazione lineare. Allora
• Ker T è un sottospazio vettoriale di V .

• Im T è un sottospazio vettoriale di W .

• Se B = {v1 , . . . , vn } è una base di V , allora

Im T = L(T (v1 ), . . . , T (vn )).

Quindi dim Im T ≤ dim V .


Dimostrazione.
• Dobbiamo dimostrare che Ker T è chiuso rispetto alla somma e la
moltiplicazione per scalare.
Siano v, z ∈ Ker T . Allora T (v) = T (z) = 0W . Dobbiamo dimostrare
che v + z ∈ Ker T , ovvero

T (v + z) = 0W .

Poiché T è lineare, si ha

T (v + z) = T (v) + T (z) = 0W ,

quindi v + z ∈ Ker T .
Siano v ∈ Ker T e sia λ ∈ K. Dobbiamo dimostrare che λv ∈ Ker T ,
cioè T (λv) = 0W . Poiché T è lineare e v ∈ Ker T si ha

T (λv) = λT (v) = 0W .

105
• Siano w1 , w2 ∈ Im T e λ ∈ K. Dobbiamo dimostrare che w1 + w2 ∈
Im T e λw1 ∈ Im T , ovvero che esistono v, z ∈ V tali che T (v) = w1 +w2
e T (z) = λw1 , rispettivamente. Per ipotesi esistono v1 , v2 ∈ V tali che
T (v1 ) = w1 e T (v2 ) = w2 . Quindi
T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2 ∈ Im T,
rispettivamente
T (λv1 ) = λT (v1 ) = λw1 ∈ Im T.

• Sia B = {v1 , . . . , vn } una base di V e sia w ∈ Im T . Allora w = T (v)


per un certo v ∈ V . Poiché B = {v1 , . . . , vn } è una base di V si ha
v = x1 v1 + · · · + xn vn . Per la linearità di T , si ha
w = T (v) = T (x1 v1 + · · · + xn vn )
= x1 T (v1 ) + · · · + xn T (vn ) ∈ L(T (v1 ), . . . , T (vn )).
Quindi Im T ⊆ L(T (v1 ), . . . , T (vn )). Poiché T (v1 ), . . . , T (vn ) ∈ Im T ,
tenendo in mente che Im T è un sottospazio vettoriale di W , si ha
L(T (v1 ), . . . , T (vn )) ⊆ Im T.
Quindi
Im T = L(T (v1 ), . . . , T (vn )).
Infine, applicando il Lemma di Steintz si ha dim Im T ≤ dim V .

Esempio 6.13. Si consideri l’applicazione lineare T : R4 −→ R3 definita


da  
x  
 y  x − 2z + 2w
T z  = x + 2y + 4w ,
   
y+z+w
w
 
x
 y  4
 z  ∈ R tali che
Vogliamo calcolare Ker T , ovvero i vettori  

w
 
x    
 y  x − 2z + 2w 0
T   =  x + 2y + 4w  =  0  .
 z 
y+z+w 0
w

106
 
x
 y 
 z  ∈ Ker T se e solamente se
Quindi  

w

 x − 2z + 2w = 0
x + 2y + 4w = 0
y + z + w = 0.

Applicando l’algoirtmo di Gauss e il metodo della risoluzione all’indietro, si


ha
        

 2z − 2w 
  2 −2 
  
−z − w −1  −1 
     
Ker T =    : z, w ∈ R = z   + w   : z, w ∈ R .

 z  
   1   0  
  
w 0 1
  

   

 2 −2 

−1   −1
 
Quindi Ker T ha dimensione 2 ed una base è formata dai vettori   1 , 0
   .


 
0 1
 
Adesso vogliamo calcolare
        l’immagine di T .
 1
 0 0 0  
  0   1   0   0 
Sia C =   ,   ,   ,   = {e1 , e2 , e3 , e4 }, la base ca-
       

 0 0 1 0  
0 0 0 1
 
nonica di R4 . Per la Proposizione 6.12, si ha
       
1 0 −2 2
Im T = L (T (e1 ), T (e2 ), T (e3 ), T (e4 )) = L  1  ,  2  ,  0  ,  4  .
1 1 1 1

Poiché la matrice (verificare)


 
1 0 −2 2
 1 2 0 4 
0 1 1 1

ha rango 2, si ha che dim Im T = 2 ed una base è formata dai vettori


   
 1 0 
 1 , 2  .
0 1
 

107
Esempio 6.14. Si consideri l’applicazione lineare T : R3 −→ R3 definita
da:
           
1 1 0 3 1 2
T  0  =  1  , T  2  =  −2  , T  1  =  3  .
1 2 1 1 1 5
Per la Proposizione 6.12, si ha
     
1 3 2
Im T = L  1  ,  −2  ,  3  .
2 1 5

Poiché la matrice (verificare)


 
1 3 2
 1 −2 3 
2 1 5
ha
rango  2 si hache dim Im T = 2 ed una base è formata dai  vettori

 1 3  x
 1  ,  −2  . Per calcolare il nucleo, dobbiamo calcolare T  y .
2 1 z
 
     
 1 0 1 
Sia B =  0  ,  2  ,  1  , la base di R3 sulla quale conosciamo
1 1 1
 
 
x
l’applicazione lineare T . Le coordinate del vettore  y  rispetto alla base
z
B è l’unica soluzione del sistema lineare
    
1 0 1 α x
 0 2 1  β  =  y ,
1 1 1 γ z
ovvero 
 α = −x − y + 2z
β = −x + z
γ = 2x + y − 2z

Infatti
       
x 1 0 1
 y  = (−x − y + 2z)  0  + (−x + z)  2  + (2x + y − 2z)  1  .
z 1 1 1

108
Quindi
     
x 1 3
T  y  = (−x − y + 2z)  1  + (−x + z)  −2 
z 2 1
 
2
+ (2x + y − 2z) 3 

5
 
y+z
=  7x + 2y − 6z  .
7x + 3y − 5z
 
x
Quindi  y  ∈ Ker T se e solamente se
z
     
x y+z 0
T  y  =  7x + 2y − 6z  =  0  ,
z 7x + 3y − 5z 0
 
x
ovvero  y  ∈ Ker T se e solamente se
z

 y+z =0
7x + 2y − 6z = 0
7x + 3y − 5z = 0.

Applicando l’algoirtmo di Gauss e il metodo della risoluzione all’indietro, si


ha       
 8/7z   8/7 
Ker T =  −z  : z ∈ R = z  −1  : z ∈ R .
z 1
   
 
 8/7 
Quindi Ker T ha dimensione 1 ed una base è formata dal vettore  −1  .
1
 

Osservazione 6.15. Sia T : V −→ W una applicazione lineare. Ricor-


diamo che se Z ⊆ W , allora la controimmagine di Z rispetto a T , che
indicheremo con T −l (Z), è sottoinsieme di V cosı̀ definito:

T −1 (Z) = {v ∈ V : T (v) ∈ Z}.

109
Se Z è un sottospazio vettoriale, allora si può dimostrare che T −1 (Z) è un
sottospazio vettoriale di V . Osserviamo che Ker T = T −1 (0W ).
Se L ⊆ V , allora l’immagine di L rispetto a T è il sottoinsieme di W
cosı̀ definito:
T (L) = {T (s) : s ∈ L}
Se L è un sottospazio vettoriale di V , allora si può dimostrare che T (L) è
un sottospazio vettoriale di W . Inoltre, se L = L(v1 , . . . , vk ), allora

T (L) = L(T (v1 ), . . . , T (vk )).

Proposizione 6.16. Sia T : V −→ W una applicazione lineare. Allora:


• T è iniettiva se e solamente se Ker T = {0V };

• T è suriettiva se e solamente se dim Im T = dim W .


Dimostrazione. Una applicazione T è iniettiva se T (v) 6= T (w) ogni volta
che v 6= w. Poiché T è lineare, si ha T (0V ) = 0W . Quindi se v 6= 0V , allora
T (v) 6= T (0V ) = 0W , ovvero Ker T = {0V }.
Viceversa, supponiamo che Ker T = {0V }. Vogliamo dimostrare che se
T (v) = T (w), allora v = w.
Se T (v) = T (w), allora per la linearità di T si ha T (v − w) = 0. Quindi
v − w ∈ Ker T = {0V } da cui segue v = w.
Un’applicazione T è suriettiva se Im T = W . Poiché Im T ⊆ W , per il
Corollario 5.21, la condizione Im T = W è equivalente a dim W = dim Im T .

Teorema 6.17 (Teorema della dimensione). Sia T : V −→ W una applica-


zione lineare. Allora

dim V = dim Ker T + dim Im T.

Facoltativa. Sia {v1 , . . . , vk } una base di Ker T . Per il Teorema del comple-
mento della base, esistono vk+1 , . . . , vn tale che {v1 , . . . , vn } è una base di
V . Poiché T (v1 ) = · · · = T (vk ) = 0, applicando la Proposizione 6.12, si ha

Im T = L(T (v1 ), . . . , T (vn )) = L(T (vk+1 ), . . . , T (vn )).

Quindi dim V = n, dim Ker T = k e Im T è generata da n − k vettori. Il


Teorema sarà dimostrato se proveremo che i vettori T (vk+1 ), . . . , T (vn ) sono
linearmente indipendenti e quindi una base di Im T . In tal caso avrei

dim V = n = k + (n − k) = dim dim Ker T + dim Im T.

110
Siano αk+1 , . . . , αn ∈ K tali che

αk+1 T (vk+1 ) + · · · + αn T (vn ) = 0.

Per la linearità di T si ha

T (αk+1 vk+1 + · · · + αn vn ) = 0,

ovvero αk+1 vk+1 + · · · + αn vn ∈ Ker T . Poiché {v1 , . . . , vk } formano una


base di Ker T esistono α1 , . . . , αk ∈ K tali che

α1 v1 + · · · + αk vk = αk+1 vk+1 + · · · + αn vn ,

ovvero
α1 v1 + · · · + αk vk − αk+1 vk+1 − · · · − αn vn = 0.
Poiché i vettori v1 , . . . , vn formano una base di V , si ha α1 = · · · = αn = 0,
ed in particolare αk+1 = · · · = αn = 0, ovvero i vettori T (vr+1 ), . . . , T (vn )
sono linearmenti indipendenti.

Vediamo alcune conseguenze del Teorema della dimensione.

Corollario 6.18. Sia T : V −→ W una applicazione lineare. Allora T è


iniettiva se e solamente se dim Im T = dim V .

Dimostrazione. Per la Proposizione 6.16, T è iniettiva se e solamente se


Ker T = {0}. Applicando il Teorema della dimensione, i.e.,

dim V = dim Ker T + Im T,

si ha che T è iniettiva se e solamente se dim Im T = dim V .

Esempio 6.19. Sia T : R3 −→ R4 l’applicazione lineare definita da:


     
  1   2   0
1  1  0  0  1  2 
T  0  =  1 ,T
  2  = 
 −1  , T
  1  = 
 3
.

1 1 1
−1 3 −5

Quindi      
1 2 0
 1   0   2 
Im T = L 
 1  ,  −1
   , 
  3 
−1 3 −5

111
e  
1 2 0
 1 0 2 
dim Im T = rg 
 1 −1 3  = 2 verificare!.

−1 3 −5
Quindi T non è iniettiva.

Corollario 6.20. Sia T : V −→ W una applicazione lineare. Allora:

• se T è iniettiva, allora dim V ≤ dim W ;

• se T è suriettiva, allora dim V ≥ dim W ;

• se T è biunivoca, allora dim V = dim W .

Dimostrazione. Dimostriamo solamente la seconda affermazione poiché le


altre sono analoghe. Se T è suriettiva, allora per la Proposizione 6.16, si ha
dim W = dim Im T . Per il Teorema della dimensione si ha

dim V = dim Ker T + dim Im T = dim Ker T + dim W ≥ dim W.

Corollario 6.21. Sia T : V −→ W lineare. Supponiamo che dim V =


dim W . Le seguenti condizioni sono equivalenti:

a) T è iniettiva;

b) T è suriettiva;

c) T è biunivoca.

Dimostrazione. Proveremo solamente (b) ⇒ (c).


Se T è suriettiva, allora dim Im T = dim W , applicando il Teorema della
dimensione si ha

dim V = dim Ker T + dim Im T = dim Ker T + dim W.

Poiché dim V = dim W si ha dim Ker T = 0, ovvero T è iniettiva.

Definizione 6.22. Due spazi vettoriali V, W sono isomorfi se esiste una


applicazione lineare T : V −→ W iniettiva e suriettiva, ovvero biunivoca.
Un’applicazione lineare e biunivoca si chiama isomorfismo.

112
Proposizione 6.23. Due spazi vettoriali sono isomorfi se e solamente se
dim V = dim W .

Facoltativa. Applicando il Corollario 6.20 si ha che due spazi vettoriali iso-


morfi hanno la stessa dimensione . Viceversa, supponiamo che dim V =
dim W = n. Sia B = {v1 , . . . , vn }, rispettivamente C = {w1 , . . . , wn }, una
base di V , rispettivamente W . Sia T : V −→ W l’unica applicazione lineare
tale che T (v1 ) = w1 , . . . , T (vn ) = wn (Proposizione 6.8). Poiché l’immagine
contiene una base di W è suriettiva. Per il corollario anteriore T è biunivoca
e quindi V e W sono isomorfi.

113
Capitolo 7

Matrici e applicazioni lineari

7.1 Applicazioni lineari da Kn a Km


Sia A ∈ Mm×n (K) e sia LA : Kn −→ Km l’applicazione
  lineare cosı̀
1 2 3
definita: LA (X) = AX. Per esempio, se A = ∈ M2×3 (R),
0 1 3
allora
   
x   x  
3 2 1 2 3   x + 2y + 3z
LA : R −→ R , LA   y   = y = .
0 1 3 y + 3z
z z

Allora:

a) Ker LA = {X ∈ Kn : LA (X) = 0Km } = {X ∈ Kn : AX = 0Km } = Sol(A|0Km );

b) Im LA = {b ∈ Km : ∃X ∈ Kn per cui AX = b} = {b ∈ Km : Sol(A|b) 6= ∅}


ovvero l’immagine di LA è l’insieme dei vettori di Km per i quali il
sistema AX = b è compatibile;

c) sia e1 , . . . , en la base canonica di Kn . Poiché

LA (ei ) = Aei = Ai ,

per i = 1, . . . , n, si ha

Im LA = L (LA (e1 ), . . . , LA (en )) = L(A1 , . . . , An ),

da cui segue che dim Im LA = rg(A);

114
−1
d) sia b ∈ Km . Allora LA (b) = {X ∈ Kn : AX = b} = Sol(A|b). Quindi
b ∈ Im LA se e solamente se il sistema lineare AX = b è compatibile e
quindi se e solamente se rg(A) = rg(A|b).
Applicando il Teorema della dimensione, otteniamo il seguente risultato.
Teorema 7.2 (Teorema di nullità più rango). Sia A ∈ Mm×n (K) e sia
LA : Kn −→ Km l’applicazione lineare associata ad A. Allora

n = dim Ker LA + rg(A)

.
Il risultato anteriore ci permette di calcolare la dimensione dell’insieme
delle soluzioni di un sistema lineare omogeneo.
Corollario 7.3. Sia A ∈ Mm×n (K). Allora dim Sol(A|0K m ) = n − rg(A).
Dimostrazione. Sia LA : Kn −→ Km , l’applicazione lineare LA (X) = AX.
Per Il Teorema anteriore si ha

dim Sol(A|0Km ) = dim Ker LA = n − rg(A).

Applicando il Teorema della dimensione, ed i suoi corollari, si ha il


seguente risultato.
Corollario 7.4. Sia A ∈ Mm×n (K) e sia LA : Kn −→ Km . Allora
• LA è suriettiva se e solamente se rg(A) = m;

• LA è iniettiva se e solamente se rg(A) = n;

• LA è biunivoca se e solamente se A ∈ Mn×n (K) e rg(A) = n se e


solamente se A ∈ Mn×n (K) e det(A) 6= 0.
Infine, LIdn = IdKn .
Dimostrazione. LA è suriettiva se e solamente se dim Im LA = dim Km se e
solamente se rg(A) = m.
LA è iniettiva se e solamente dim Im LA = dim Kn se e solamente se
rg(A) = n.
LA è biunivoca se e solamente se A è una matrice quadrata e dim Im LA =
dim Kn = n quindi se e solamente se A è una matrice quadrata di formato
n × n e rg(A) = n, ovvero se e solamente se A è una matrice invertbile.

115
Infine, LIdn : Kn −→ Kn è l’applicazione lineare,

LIdn (X) = Idn X = X = IdKn (X).

 
1 1 2 1
Esempio 7.5. Sia A =  −1 2 3 2 . Allora LA : R4 −→ R3 ,
4 1 3 1
 
x1  
 x2  x1 + x2 + 2x3 + x4
 x3  = −x1 + 2x2 + 3x3 + 2x2
LA     
4x1 + x2 + 3x3 + x4
x4

La matrice matrice A ha rango 2 (verificare!). Quindi dim Im LA = 2 e


dim Ker LA = 2. Una base per l’immagine di LA è formata dai vettori
   
 1 1 
 −1  ,  2  .
4 1
 

Il nucleo di LA è l’insieme delle soluzione del sistema lineare omogeneo

AX = 0R3 .

Una base per il nucleo di LA è formata dai vettori


   

 0 1 

−1   5 

 , 


 0   −3  
1 0
 

Sia A ∈ Mm×n (K) e sia B ∈ Mn×p (K). Allora

LA : Kn −→ Km ,

rispettivamente
LB : Kp −→ Kn .
L’applicazione
LA ◦ LB : Kp −→ Km ,
è lineare.

116
Proposizione 7.6. LA ◦ LB = LAB . In particolare, se A ∈ Mn×n (K) è una
matrice invertibile, allora LA è biunivoca e L−1
A = LA−1

Dimostrazione.

(LA ◦ LB )(X) = LA (LB (X)) = LA (BX) = ABX = (AB)(X) = LAB (X).

Sia A ∈ Mn×n (K) una matrice invertibile. Abbiamo già visto che LA è
biunivoca e viceversa. Inoltre, tenendo in mente che LIdn = IdKn , si ha
LA ◦ LA−1 = LAA−1 = LIdn = IdKn e LA−1 ◦ LA = LA−1 A = LId = IdKn ,
ovvero
(LA )−1 = LA−1

 
  1 1
1 1 2
Esempio 7.7. Sia A = ∈ M2×3 (R) e sia B =  0 1  ∈
1 −1 1
1 −1
M3×2 (R). Allora:


x  
3 2 x + y + 2z
LA : R −→ R , LA   y   = ,
x−y+z
z
 
  x+y
x
LB : R2 −→ R3 , LB =  y ,
y
x−y
LA ◦ LB : R2 −→ R2 ,
        
x x 3 0 x 3x
LA ◦ LB = LAB = = ,
y y 2 −1 y 2x − y

LB ◦ LA : R3 −→ R3 ,
        
x x 2 0 3 x 2x + 3z
LB ◦LA  y  = LBA  y  =  1 −1 1   y  =  x − y + z  ,
z z 0 2 1 z 2y + z

Sia
K : Mm×n (K) −→ Lin(Kn , Km ) A 7→ LA .
L’applicazione K è lineare. Infatti

LA+B (v) = (A + B)(v) = Av + Bv = LA (v) + LB (v),

117
per ogni v ∈ Kn . Quindi K(A + B) = LA+B = LA + LB = K(A) + K(B).
Se λ ∈ K e A ∈ Mm×n (K), allora per ogni v ∈ Kn si ha

LλA (v) = (λA)v = λ(Av) = λ(LA )(v),

ovvero K(λA) = λK(A). Tale applicazione è anche iniettiva, poiché K(A) =


LA è l’applicazione lineare nulla se e solamente se Im LA = {0K m } se e
solamente se
L(A1 , . . . , An ) = {0},
quindi se e solamente se A = 0.
Vogliamo dimostrare che ogni applicazione lineare è della forma LA ,
ovvero che K è suriettiva e quindi K è un isomorfismo fra l’insieme delle
matrici Mm×n (K) e Lin(Kn , Km ) .
Sia T : Kn −→ Km  una applicazione
 lineare. Sia (e1 , . . . , en ) la base
x1
canonica di Kn . Se X =  ...  ∈ Kn , allora X = x1 e1 + · · · + xn en , e
 

xn

T (X) = T (x1 e1 + · · · + xn en )
= x1 T (e1 ) + · · · + xn T (en )
 
x1
= MT  ...  .
 

xn

dove MT = (T (e1 ), . . . , T (en )) ∈ Mm×n (K). Quindi

T (X) = MT X = LMT (X).

In particolare Ker T = Sol(MT |0) e dim Im T = rg(MT ) Riassumento abbia-


mo dimostrato il seguente risultato.

Proposizione 7.8. Sia T : Kn −→ Km una applicazione lineare e sia


{e1 , . . . , en } la base canonica di Kn . Allora T = LMT dove

MT = (T (e1 ), . . . , T (en )) ∈ Mm×n (K).

Inoltre, valgono le seguenti proprietà:

• KerT = Sol(MT |0);

• ImT = L(MT1 , . . . , MTn ) e dim Im T = rg(MT ).

118
Corollario 7.9. Sia T : Kn −→ Km una applicazione lineare e sia MT =
(T (e1 ), . . . , T (en )) ∈ Mm×n (K), dove {e1 , . . . , en } è la base canonica di Kn .
Allora

a) T è iniettiva se e solamente se rg(MT ) = n;

b) T è suriettiva se e solamente se rg(MT ) = m;

c) T è biunivoca se e solamente se MT è invertibile;

d) b ∈ Im T se e solamente se il sistema lineare MT X = b è compatibile.

Dimostrazione. Poiché T = LMT , applicando il Corolario 7.4, le prima tre


proprietà sono di verifica immediata.
Sia b ∈ Km . b ∈ Im T se esiste Y ∈ Kn tale che T (Y ) = b. Poiché
T (Y ) = LMT (Y ) = MT Y = b, si ha b ∈ Im T se e solamente se il sistema
lineare MT X = b è compatibile.

Esempio 7.10. Si consideri l’applicazione lineare T : R3 −→ R3 definita


da    
x x + y + 2z
T  y  =  2x + y + 3z  ,
z x + 2y + 3z
     
 1 0 0 
Sia  0  ,  1  ,  0  la base canonica di R3 . Allora
0 0 1
 

           
1 1 0 1 0 2
T  0  =  2  , T  1  =  1  , T  0  =  3  ,
0 1 0 2 1 3

e quindi  
1 1 2
MT =  2 1 3  .
1 2 3
Poiché rg(MT ) = 2, (verificare!) T non è iniettiva, rispettivamente suriet-
tiva, rispettivamente biunivoca. Inoltre,
 
1
Ker T = Sol(MT |0) = L  1  .
−1

119
 
2
Sia b =  −1  ∈ R3 . Stabilire se b ∈ Im T è equivalente a stabilire se il
7
sistema
MT X = b,
è compatibile. Poiché rg(MT ) = rg(MT |b) (verificare!), b ∈ Im T .
Il prossimo risultato riguarda la corrispondenza T 7→ MT .
Proposizione 7.11. L’applicazione
H : Lin(Kn , Km ) 7→ Mm×n (K) T 7→ MT ,
è una applicazione lineare, i.e.,
a) MT +L = MT + ML ;
b) MλT = λMT ;
biunivoca la cui inversa è K. Inoltre:
• se T : Kn −→ Kp e G : Kp −→ Km , allora MG◦T = MG MT ;
• se MIdKn = Idn ;
• se T : Kn −→ Kn è invertibile, allora MT −1 = MT−1 .
Facoltativa. Abbiamo dimostrato che
K : Mm×n (K) −→ Lin(Kn , Km ) A 7→ LA .
è un isomorfismo. È facile verifivare che l’applicazione
H : Lin(Kn , Km ) −→ Mm×n (K) T 7→ MT ,
è l’inversa di K e quindi è lineare.
Siano T : Kn −→ Kp e G : Kp −→ Km lineari. Allora G ◦ T : Kn −→ Km
è lineare. Vogliamo dimostrare che MG◦T = MG MT . Poiché T = LMT e
G = LMG , allora
G ◦ T = LMG ◦ LMT = LMG MT .
Quindi, tenendo in mente che l’applicazione T 7→ MT è biunivoca, si ha
MG◦T = MG MT .
Infine, sia T : Kn −→ Kn invertibile. Quindi MT è invertibile. Inoltre
LMT ◦ LM −1 = LMT (MT )−1 = IdKn ,
T

ovvero T −1 = LM −1 .
T

120
7.12 Matrice associata ad una applicazione lineare
In questa sezione vogliamo associare ad una applicazione lineare una
matrice generalizzando la costruzione che abbiamo introdotto nelle sezioni
anteriori.
Sia T : V −→ W una applicazione lineare. Siano B = {v1 , . . . , vn }
e C = {w1 , . . . , wm } basi di V e W rispettivamente. Se v ∈ V , allora
x1
 .. 
v = x1 v1 + · · · + xn vn e [v]B =  .  sono le coordinate di v rispetto a B.
xn


y1
Analogamente se w ∈ W , allora w = y1 w1 + . . . + ym wm e [w]C =  ... 
 

ym
sono le coordinate di w rispetto alla base C. Vogliamo calcolare le coordinate
di T (v) rispetto alla base C. Poiché FC : W −→ Kn è lineare, si ha

[T (v)]C = [T (x1 v1 + · · · + xn vn )]C


= [x1 T (v1 ) + · · · + xn T (vn )]C
= x1 [T (v1 )]C + · · · + xn [T (vn )]C
= MC,B (T )[v]B ,

dove MC,B (T ) = ([T (v1 )]C , . . . , [T (vn )]C ) ∈ Mm×n (K). MC,B (T ) è chiamata
la matrice associata a T rispetto alla basi B in partenza e C in arrivo. La
matrice MC,B (T ) è l’unica matrice di ordine m × n, dove m = dim W e
n = dim V , a coefficienti in K che verifica

[T (v)]C = MC,B (T )[v]B ,

per ogni v ∈ V . In maniera equivalente, il seguente diagramma

V
T /W
FB FC
n m
K /K
LMC,B (T )

è commutativo, i.e., FC ◦ T = LMC,B (T ) ◦ FB .

Osservazione 7.13. Sia T : Kn −→ Km . Sia C la base canonica di Kn e


C 0 la base canonica di Km . Allora MT = (T (e1 ), . . . , T (en )) = MC 0 ,C (T )

121
Proposizione 7.14. Sia T : V −→ W e siano B e C basi di V e W
rispettivamente. Allora dim ImT = rg(MC,B (T )) e quindi dim KerT =
dim V − rg(MC,B (T )). Inoltre

• FC (Im T ) = Im LMC,B (T ) ;

• FB (Ker T ) = Ker LMC,B (T ) ;

Facoltativa. Sia v ∈ V . T (v) = 0 se e solamente se [T (v)]C = 0. Poiché

[T (v)]C = MC,B (T )[v]B ,

si ha T (v) = 0 se e solamente se MC,B (T )[v]B = 0. Quindi abbiamo


dimostrato che

Ker T = {v ∈ V : T (v) = 0} = {v ∈ V : [v]B ∈ Sol(MC,B (T )|0)} .

In particolare FB (Ker T ) = Sol(MC,B (T )|0). Poiché FB è un isomorfismo si


ha dim Ker T = dim Sol(MC,B (T )|0) = dim V − rg(MC,B (T )). Applicando
il Teorema della dimensione si ha dim ImT = rg(MC,B (T )).
Per la seconda parte osserviamo che

Ker LMC,B (T ) = Sol(MC,B (T )|0),

quindi FB (Ker T ) = Ker LMC,B (T ) .


Sia w ∈ W . w ∈ Im T se e solamente se esiste v ∈ V tale che T (v) = w.
Quindi se e solamente se [T (v)]C = [w]C . Poiché

[T (v)]C = MC,B (T )[v]B ,

si ha w ∈ Im T se e solamente se [w]C ∈ Im LMC,B (T ) , ovvero FC (Im T ) =


Im LMC,B (T ) .

Applicando il risultato anteriore ed il Corollario 6.16 si ha il seguente


risultato.

Corollario 7.15. Sia T : V −→ W e siano B e C basi di V e W rispettiva-


mente. Allora:

• T è iniettiva se e solamente se rg(MC,B (T )) = dim V ;

• T è suriettiva se e solamente se rg(MC,B (T )) = dim W ;

• T è biunivoca se e solamente se MC,B (T ) è invertibile.

122
 
0 1
Esempio 7.16. Sia A = e sia Sia T : M2×2 (R) −→ M2×2 (R) cosı̀
1 1
definita:
T (X) = X − Tr(X)A.
L’applicazione T è lineare (verificare). Sia
       
1 0 0 1 0 0 0 0
B= , , , ,
0 0 0 0 1 0 0 1

una base di M2×2 (R). Allora


       
1 0 1 −1 0 1 0 1
T = ,T =
0 0 −1 −1 0 0 0 0
       
0 0 0 0 0 0 0 −1
T = ,T = .
1 0 1 0 0 1 −1 0
Poiché
         
a b 1 0 0 1 0 0 0 0
=a +b +c +d ,
c d 0 0 0 0 1 0 0 1
si ha  
  a
a b  b 
FB : M2×2 (R) −→ R4 7→ 
 c ,

c d
d
e quindi  
1 0 0 0
 −1 1 0 −1 
MB,B (T ) = 
 −1
.
0 1 −1 
−1 0 0 0
Poiché rg(MB,B (T )) = 3, allora dim Im T = 3 e dim Ker T = 1
Esempio 7.17. Sia T : R3 −→ R3 l’applicazione lineare definita da:
           
1 1 0 1 1 1
T  0  =  0  , T  2  =  2  , T  1  =  1  .
1 2 1 4 1 3
Allora  
1 1 1
MC,B (T ) =  0 2 1  ,
2 4 3

123
     
 1 0 1 
è la matrice associata a T rispetto alle basi B =  0 , 2 , 1 
   
1 1 1
 
in partenza e la base canonica C in arrivo. Poiché MC,B (T ) ha rango 2,
allora T non è iniettiva. Per calcolare il nucleo possiamo procedere come
segue. Poiché
T (X) = MC,B (T )[X]B ,
si ha X ∈ Ker T se e solamente se T (X) = MC,B (T )[X]B = 0. Quindi
Sol(MC,B (T )|0) descrive le coordinate dei vettori X ∈ R3 rispetto alla base
B tali che T (X) = 0. Applicando il metodo di Gauss e il metodo della
risoluzione all’indietro, si ha
 
1
Sol((MC,B (T )|0)) = L  1  .
−2

Quindi una base per il Ker T è dato dal vettore


       
1 0 1 −1
1 0  + 1 2  − 2 1  =  0 .
1 1 1 0

Un’altro metodo per calcolare il nucelo è ricavare


   
x x
T  y  = MC,B (T )  y 
z z
  B 
1 1 1 −x − y + 2z
=  0 2 1  −x + z 
2 4 3 2x + y − 2z
 
z
=  y ,
y + 2z

1
da cui segue facilmente che Ker T = L  0 .
0

È possibile raffinare i risultati anteriori provando il seguente risultato.

124
Proposizione 7.18. Siano V e W spazi vettoriali su K e siano B = {v1 , . . . , vn }
e C = {w1 , . . . , wm } basi di V e W rispettivamente. L’applicazione

M : Lin(V, W ) −→ Mm×n (K), T 7→ MC,B (T ),

è un isomorfismo di spazi vettoriali.


Facoltativa. Dimostriamo che M è lineare. Siano T, L ∈ Lin(V, W ). La
matrice MC,B (T ), rispettivamente MC,B (L), è l’unica matrice di formato
m × n tale che
[T (v)]C = MC,B (T )[v]B ,
rispettivamente
[L(v)]C = MC,B (L)[v]B ,
per ogni v ∈ V . Quindi

[(T + L)(v)]C = [T (v)]C + [L(v)]C = MC,B (T )[v]B + MC,B (L)[v]B


= (MC,B (T ) + MC,B (L))[v]B ,

ovvero M(T + L) = M(T ) + M(L). Analogamente vale M(λT ) = λM(T ).


La suriettività può essere dimostrata come segue. Sia A ∈ Mm×n (K) e sia
T : V −→ W l’unica applicazione lineare definita da
m
X m
X
T (v1 ) = ai1 wi , . . . , T (vn ) = ain wi .
i=1 i=1

Quindi
 la i-esima colonna della matrice MC,B (T ) è, per definizione, [T (vi )]C =

a1i
 .. 
 . , per i = 1, . . . , n, ovvero la i-esima colonna della matrice A, da cui
ami
segue che MC,B (T ) = A, dimostrando che M è suriettiva.
Poiché T = 0 se e solamente se T (v) = 0 per ogni v ∈ V , quindi se e
solamente se
[T (v)]C = MC,B (T )[v]B = 0
per ogni v ∈ V . Quindi se e solamente se MC,B (T ) = 0.

Come nel caso di Lin(Kn , Km ), la corrispondenza biunivoca sopra defi-


nita verifica altre proprietà.
Proposizione 7.19. Siano L, T : V −→ W , H : W −→ Z e G : N −→ V .
Siano B una base di V , C una base di W , H una base di Z ed infine X una
base di N . Allora:

125
a) MC,X (T ◦ G) = MC,B (T )MB,X (G);

b) MH,B (H ◦ (L + T )) = MH,C (H)(MC,B (L) + MC,B (T ));

c) MC,X ((L + T ) ◦ G) = (MC,B (L) + MC,B (T ))MB,X (G);

d) sia IdV : V −→ V . Allora MB,B (IdV ) = Iddim V ;

e) se T : V −→ W è invertibile, allora MB,C (T −1 ) = MC,B (T )−1 .

Facoltativa. Dimostriamo solo il punto a). Sia n ∈ N . Allora

[T (G(n))]C = MC,B (T )[G(n)]B


= MC,B (T )MB,X (G)[n]X

da cui segue
MC,X (T ◦ G) = MC,B (T )MB,X (G).

7.20 Matrice del cambiamento di base


Sia V uno spazio vettoriale su K. Se B = {v1 , . . . , vn } è una base di V ,
allora v = x1 v1 +· · ·+xn vn . Se C = {w1 , . . . , wn } è un altra base di V , allora
v = x01 w1 + · · · + x0n wn . Mi domando se esiste una relazione fra i vettori [v]B
e [v]C .
Poiché FB è un isomorfismo lineare si ha

[v]B = [x0 1 w1 + · · · + x0 n wn ]B = x01 [w1 ]B + · · · + x0n [wn ]B = M(B, C)[v]C ,

dove
M(B, C) = ([w1 ]B , . . . , [wn ]B ) ∈ Mn×n (K),
si chiama matrice del cambiamento di base da B a C. La matrice del cam-
biamento di base è l’unica matrice M(B, C) tale che per ogni v ∈ V , si
ha
[v]B = M(B, C)[v]C .
È facile verificare che M(B, C) = MB,C (IdV ) da cui segue che la matrice
del cambiamento di base è invertibile. Un altra maniera per provare cje
M(B, C) è invertibile è la seguente. Poiché w1 , . . . , wn formano una base di
V , anche i vettori [w1 ]B , . . . , [wn ]B formano una base di Kn . Quindi M(B, C)
è invertibile. Vediamo altre proprietà della matrice di cambiamento di base.

126
Proposizione 7.21. Siano B, C e D basi di V . Allora
• M(B, B) = Idn ;

• M(B, C)M(C, D) = M(B, D);

• M(B, C) è invertibile e la sua inversa (M(B, C))−1 = M(C, B).


Facoltativa. Sia B una base poiché [v1 ]B = e1 , . . . , [vn ]B = en , la matrice
M(B, B) = Idn .
Sia v ∈ V . Allora
[v]B = M(B, C)[v]C = M(B, C)M(C, D)[v]D
= M(B, D)[v]D .

Poiché vale per ogni v ∈ V , si ha M(B, D) = M(B, C)M(C, D). In partico-


lare
M(B, C)M(C, B) = M(B, B) = Idn .

Esempio 7.22. Siano


           
 1 0 1   1 1 1 
B =  0  ,  2  ,  1  , B0 =  0  ,  1  ,  1 
1 1 1 0 0 1
   

basi di R3 . Allora
     
1 1 1
0
M(B, B ) =  0   1   1  .
0 B 0 B 1 B

Poiché
   
x 1 0 1 x
 y  = Sol  0 2 1 y 
z B 1 1 1 z
 
−x − y + 2z
= −x + z ,
2x + y − 2z
si ha  
−1 −2 0
M(B, B 0 ) =  −1 −1 0  .
2 3 1

127
Analogamente
      
1 0 1
M(B 0 , B) =  0   2   1   .
1 B0 1 B0 1 B0

Poiché
   
x 1 1 1 x
 y  = Sol  0 1 1 y 
z B0 0 0 1 z
 
x−y
=  y − z ,
z

si ha  
1 −2 0
M(B 0 , B) =  −1 1 0  .
1 1 1
     
 1 0 1 
Esempio 7.23. Sia B =  0  ,  2  ,  1  una base di R3 e sia C
1 1 1
 
la base canonica di R3 . Allora
        
1 0 1 1 0 1
M(C, B) =  0   2   1   =  0 2 1 
1 C 1 C 1 C 1 1 1

Invece, poiché
   
x 1 0 1 x
 y  = Sol  0 2 1 y 
z B 1 1 1 z
 
−x − y + 2z
= −x + z ,
2x + y − 2z

si ha  
−1 −1 2
M(B, C) =  −1 0 1  = M(C, B)−1 .
2 1 −2

128
Teorema 7.24. Sia T : V −→ W una applicazione lineare. Siano B, B 0 e
C e C 0 basi di V e W rispettivamente. Allora

MC 0 ,B0 (T ) = M(C 0 , C)MC,B (T )M(B, B 0 ).

Facoltativa. Sia v ∈ V . Allora

[T (v)]C 0 = M(C 0 , C)[T (v)]C

Adesso, [T (v)]C = MC,B (T )[v]B , e [v]B = M(B, B 0 )[v]B0 , da cui segue che
per ogni v ∈ V si ha

[T (v)]C 0 = M(C 0 , C)[T (v)]C


= M(C 0 , C)MC,B (T )M(B, B 0 ) [v]B0 .


Per definizione di matrice associata a T rispetto alle basi B 0 in partenza e


C 0 in arrivo, si ha

[T (v)]C 0 = MC 0 ,B0 (T )[v]B0


= M(C 0 , C)MC,B (T )M(B, B 0 ) [v]B0 .


per ogni v ∈ V . Quindi

MC 0 ,B0 (T ) = M(C 0 , C)MC,B (T )M(B, B 0 ),

concludendo la dimostrazione.

Corollario 7.25. Sia T : V −→ W una applicazione lineare. Siano B e B 0


basi di V , rispettivamente C e C 0 basi di W . Allora

MC 0 ,B (T ) = M(C 0 , C)MC,B (T ),

rispettivamente,
MC,B0 (T ) = MC,B (T )M(B, B 0 ).
Dimostrazione. Per il Teorema anteriore si ha

MC 0 ,B (T ) = M(C 0 , C)MC,B (T )M(B, B),

rispettivamente,

MC,B0 (T ) = M(C, C)MC,B (T )M(B, B 0 ).

Tenendo in mente che M(B, B) = Iddim V , rispettivamente M(C, C) = Iddim W ,


si ha la tesi.

129
Esempio 7.26. Sia T : R3 −→ R3 l’applicazione lineare definita da:
           
1 1 0 0 1 −2
T  0  =  1  , T  2  =  2  , T  1  =  0  .
1 0 1 1 1 1

Allora  
1 0 −2
MC,B (T ) =  1 2 0  ,
0 1 1
     
 1 0 1 
è la matrice associata a T rispetto alle basi B =  0  ,  2  ,  1 
1 1 1
 
in partenza e la base canonica C in arrivo. Poiché

T (X) = MC,C (T )X,

calcolare T (X) è la stessa cosa che calcolare MC,C (T ). Applicando il corol-


lario anteriore, si ha

MC,C (T ) = MC,B (T )M(B, C).

Nell’esempio 7.23 abbiamo calcolato


 
−1 −1 2
M(B, C) =  −1 0 1 ,
2 1 −2

da cui segue che


  
1 0 −2 −1 −1 2
MC,C (T ) =  1 2 0   −1 0 1 
0 1 1 2 1 −2
 
−5 −3 6
= −3 −1 4  ,

1 1 −1

quindi
      
x −5 −3 6 x −5x − 3y + 6z
T  y  =  −3 −1 4   y  =  −3x − y + 4z  .
z 1 1 −1 z x+y−z

130
Esempio 7.27. Sia T : R3 −→ R3 l’applicazione lineare definita da:
           
1 1 1 1 1 −2
T  0  =  0  , T  1  =  1  , T  1  =  5  .
0 −1 0 −1 1 2

Allora       
1 1 −2
MB,B (T ) =  0   1   5   .
−1 B −1 B 2 B
Poiché    
x x−y
 y  =  y − z ,
z B z
si ha  
1 0 −7
MB,B (T ) =  1 2 3 .
−1 −1 2
Applicando il Teorema 7.24, si ha

MC,C (T ) = M(C, B)MB,B (T )M(B, C).

Poiché
   
1 1 1 1 −1 0
M(C, B) =  0 1 1  , M(B, C) =  0 1 −1  ,
0 0 1 0 0 1

si ha
   
1 1 1 1 0 −7 1 −1 0
MC,C (T ) =  0 1 1   −1 2 3   0 1 −1 
0 0 1 1 −1 2 0 0 1
 
1 0 −3
=  0 1 4 .
−1 0 3

Quindi
      
x 1 0 −3 x x − 3z
T  y  =  0 1 4   y  =  y + 4z  .
z −1 0 3 z −x + 3z

131
Corollario 7.28. Sia T : V −→ V una applicazione lineare. Siano B e C
basi di V . Allora

MC,C (T ) = (M(B, C))−1 MB,B (T )M(B, C),

Dimostrazione. Applicando il Teorema anteriore si ha

MC,C (T ) = M(C, B)MB,B (T )M(B, C).

Poiché M(C, B) = M(B, C)−1 , si ha la tesi.

Il risultato anteriore suggerisce la seguente definizione.

Definizione 7.29. Siano A, B ∈ Mn×n (K). Diremo che A e B sono simili


se esiste una matrice P ∈ Mn×n (K) invertibile, tale che A = P −1 BP .

La relazione A ∼ B, i.e., A e B sono matrici simili, è una relazione


di equivalenza. Quindi A ∼ A; A ∼ B allora B ∼ A; infine se A ∼ B e
B ∼ C, allora A ∼ C. Se A ∼ B, allora Tr(A) = Tr(B), det A = det B e
rg(A) = rg(B). Tali condizioni sono necessarie ma non suffcienti.
Il corollario anteriore dimostra che se T : V −→ V è una applicazione
lineare, B e C basi di V , allora le matrici MC,C (T ) e MB,B (T ) sono matrici
simili. Viceversa, due matrici simili A e B simili sono matrici associate ad
una applicazione lineare T : V −→ V rispetto a due basi di V .
Infatti, siano A = (aij ) 1 ≤ i ≤ n e B = (bij ) 1 ≤ i ≤ n matrici simili.
1≤j ≤n 1≤j ≤n

Esiste P ∈ Mn×n (K) invertibile tale che A = P −1 BP. Sia B = {v1 , . . . , vn }


Pn base di V . Sia T : V −→ V l’unico endomorfimo che verifica T (vi ) =
una
m=1 ami vm , per i = 1, . . . , n. Vogliamo dimostrare che MB,B (T  ) = A.

a1i
Infatti la k−esima colonna di MB,B (T ) è per definizione [T (vi )]B =  ... ,
 

ani
ovvero MB,B (T )k =Ak . Quindi MB,BP (T ) = A.
Sia C = {w1 , . . . , wn } dove wi = nm=1 pmi vm , i = 1, . . . , n, per i =
1, . . . , n. L’insieme C = {w1 , . . . , wn } è una base di V poiché la matrice

([w1 ]B , . . . , [wn ]B ) = P,

è inveritibile. Inoltre M(B, C) = P . Applicando il teorema anteriore otte-


niamo che

MC,C (T ) = M(C, B)MB,B (T )M(B, C) = P −1 AP = B.

132
Capitolo 8

Struttura Metrica

8.1 Prodotto scalare canonica di Rn


   
x1 y1
Dati X, Y ∈ Rn con X =  ...  e Y =  .. , definiamo lo scalare:
  
. 
xn yn

hX, Y i = x1 y1 + · · · + xn yn = X T Y.

hX, Y i è detto prodotto scalare standard oppure prodotto scalare canonico.


Il prodotto scalare canonico è una applicazione

Rn × Rn −→ R (X, Y ) 7→ hX, Y i.

che gode delle seguenti proprietà.

Proposizione 8.2. Se X, Y, Z ∈ Rn e λ ∈ R, allora

a) hX, Xi ≥ 0 con uguaglianza se e solamente se X = 0Rn (definito


positivo);

b) hX, Y i = hY, Xi (simmetrico);

c) hX + Y, Zi = hX, Zi + hY, Zi;

d) hλX, Zi = λhX, Zi;

e) hZ, X + Y i = hZ, Xi + hZ, Y i;

f ) hZ, λXi = λhZ, Xi.

133
Dimostrazione. Verifichiamo solamente la prima proprietà. Le altre sono
conseguenza delle proprietà del prodotto di matrici.
hX, Xi = x21 + · · · + x2n ≥ 0. Inoltre hX, Xi = 0 se e solamente se
X = 0Rn .

Sia Xpun vettore. Chiameremo norma o lunghezza di X il numero reale


k X k= hX, Xi. Dunque se X 6= 0Rn , allora k X k> 0. La distanza fra
due vettori X, Y è definita come il numero non negativo k X − Y k. Quindi
la lunghezza di un vettore è la distanza dall’origine 0.
Siano v, w ∈ Rn , w 6= 0. Diremo proiezione ortogonale di v su w è il
vettore
hv, wi
prw (v) = w.
k w k2
Proposizione 8.3. (Disuguaglianza di Cauchy-Schwartz) Siano X, Y ∈ Rn .
Allora
|hX, Y i ≤k X kk Y k,
e l’uguaglianza vale se e solamente se X e Y sono linearmente dipendenti.
Dimostrazione. Se Y = 0Rn , la disuguaglianza è vera. Supponiamo che
Y 6= 0Rn . Allora per ogni t ∈ R si ha
0 ≤ hX + tY, X + tY i = hX, X + tY i + htY, X + tY i
| {z } | {z }
= hX, Xi + hX, tY i + htY, Xi + htY, tY i
| {z } | {z }
= hX, Xi + thX, Y i + thY, Xi + t2 hY, Y i
= hX, Xi + 2hX, Y it + hY, Y it2 .
L’equazione anteriore definisce una parabola il cui disciminante
0 ≥ ∆ = b2 − 4ac = 4hX, Y i2 − 4hX, XihY, Y i,
è non negativo. Quindi
|hX, Y i| ≤k X kk Y k .
Se |hX, Y i| =k X kk Y k, allora ∆ = 0. Quindi esiste to ∈ R tale che 0 =
hX +to Y, X +to Y i. Per le proprietà del prodotto scalare si ha X +to Y = 0Rn ,
ovvero X e Y sono linearmente dipendenti.

Definizione 8.4. Siano X, Y due vettori non nulli. Definiamo l’angolo fra
X e Y come l’unico valore θ ∈ [0, π] tale che
hX, Y i
cos θ = .
k X kk Y k

134
Proposizione 8.5. Siano X, Y ∈ Rn vettori non nulli. L’angolo fra X e Y è
acuto, rispettivamente ottuso, se e solamente se hX, Y i > 0. rispettivamente
hX, Y i < 0.
Definizione 8.6. Diremo che due vettori X, Y sono ortogonali se il loro
prodotto scalare è nullo.
Teorema 8.7. Siano X, Y ∈ Rn . Allora k X k2 + k Y k2 =k X + Y k2 se e
solamente se X, Y sono ortogonali.
Dimostrazione. Siano X, Y ∈ Rn . Utilizzando le proprietà del prodotto
scalare si ha

k X + Y k2 = hX + Y, X + Y i = hX, Xi + 2hX, Y i + hY, Y i,

dalla quale segue la tesi.

Proposizione 8.8. Siano v1 , . . . , vk ∈ Rn non nulli e ortogonali a due a


due. Allora v1 , . . . , vk sono linearmente indipendenti.
Dimostrazione. Sia α1 v1 + · · · + αk vk = 0Rn una combinazione lineare dei
vettori v1 , . . . , vk a coefficienti α1 , . . . , αk uguale al vettore nullo. Fissiamo
1 ≤ j ≤ k. Allora
0 = h0Rn , vj i
= hα1 v1 + · · · + αk vk , vj i
= α1 hv1 , vj i + · · · + αk hvk , vj i
= αj hvj , vj i (essendo v1 , . . . , vk ortogonali a due a due)

Poiché vj 6= 0Rn , hvj , vj i > 0 da cui segue αj = 0. Questo vale per j =


1, . . . , k, ovvero i vettori v1 , . . . , vk sono linearmente indipendenti.

Definizione 8.9. Una base B = {v1 , . . . , vn } si dice ortogonale se i vettori


v1 , . . . , vn sono a due a due ortogonali. Diremo che B = {v1 , . . . , vn } è una
base ortonormale se B = {v1 , . . . , vn } è una base ortogonale e i vettori hanno
norma unitaria.
È facile vericare che la base canonica è una base ortonormale di Rn . Le
coordinate di un vettore rispetto alla base canonica sono molto semplici da
determinare. Infatti
 
x1
X =  ...  = x1 e1 + · · · + xn en .
 

xn

135
Poiché xi = hX, ei i per i = 1, . . . , n, si ha
 
x1
X =  ...  = hX, e1 ie1 + · · · + hX, en ien .
 

xn

Il prossimo risultato mostra che la formula precedente vale per ogni base
ortonormale.

Proposizione 8.10. Sia B = {v1 , . . . , vn } una base ortogonale di Rn . Sia


v ∈ Rn . Allora
hv, v1 i hv, vn i
v= v1 + · · · + vn .
hv1 , v1 i hvn , vn i
In particolare se B = {v1 , . . . , vn } è un base ortonormale, allora:
 
hv, v1 i
• v = hv, v1 iv1 + · · · + hv, vn ivn , ovvero [v]B =  ..
;
 
.
hv, vn i
p
• k v k= hv, v1 i2 + · · · + hv, vn i2 .

• hv, wi = [v]TB [w]B .

Facoltativa. Sia v = x1 v1 + · · · + xn vn e sia 1 ≤ j ≤ n. Allora


n
X n
X
hv, vj i = h xm vm , vj i = xm hvm , vj i = xj hvj , vj i.
m=1 m=1

Poiché vj 6= 0Rn si ha
hv, vj i
xj = ,
hvj , vj i
da cui segue la tesi.
Sia B = {v1 , . . . , vn } una base ortonormale. Applicando il risultato
anteriore si ha v = hv, v1 iv1 + · · · + hv, vn ivn .
Siano v, w ∈ V e sia B = {v1 , . . . , vn } una base ortonormale. Allora
n
X n
X
hv, wi = h hv, vm ivm , hw, vl ivl i
m=1 l=1
Xn
= hv, vm ihw, vl ihvm , vl i.
m,l=1

136
Adesso, tenendo in mente che hvm , vl i = 0 se m 6= l e 1 se l = m si ha
n
X
hv, wi = hv, vm ihw, vm i = [v]TB [w]B .
m=1
Pn 2
p particolare, se v = w, allora hv, vi =
In m=1 hv, vm i e quindi k v k=
hv, v1 i2 + · · · + hv, vn i2 .
    
 1
 0 0 

√1   √1 
Esempio 8.11. Sia B =  0  ,  2   2  una base ortonormale

 0
 √1 −1



2 2
di R3 . Allora
   
0 0
   
x 1
+ z  √1  y − z  √1 
 y  = x  0  + y√  2  + √  2 ,
z 0 2 √1 2 −1

2 2

ovvero  
x
 
x
y+z 
 √2  .
 y  =
y−z
z B √
2

Il prossimo risultato fornisce un algoritmo per costruire basi ortogonali,


e ortonormali, di sottospazi vettoriali di Rn .

Proposizione 8.12 (Procedimento di ortogonalizzazione di Gram-Schmidt).


Siano v1 , . . . , vk ∈ Rn vettori linearmente indipendenti. I vettori


 w1 = v 1
 hv2 ,w1 i



 w2 = v2 − hw 1 ,w1 i
w1
 hv3 ,w1 i hv3 ,w2 i
w3 = v3 − hw1 ,w1 i w1 − hw 2 ,w2 i
w2
 ..



 .
 wk = vk − Pk−1 hvk ,wj i wj


j=1 hwj ,wj i

sono non nulli, a due a due ortogonali, quindi linearmente indipendenti, e


verificano L(w1 , . . . , wj ) = L(v1 , . . . , vj ) per j = 1, . . . , k.

Facoltativa. Dimostreremo il risultato per induzione su k.


Se k = 1 non c’è niente da dimostrare. Supponiamo vero per k−1 e dimo-
striamolo per k. I vettori v1 , . . . , vk−1 sono linearemente indipendenti. Per
ipotesi induttiva i vettori w1 , . . . , wk−1 sono non nulli, a due a due ortogonali

137
e per ogni 1 ≤ j ≤ k − 1, si ha L(v1 , . . . , vj ) = L(w1 , . . . , wj ). Dobbiamo
dimostrare che wk è non nullo, ortogonale a w1 , . . . , wk−1 e L(v1 , . . . , vk ) =
L(w1 , . . . , wk ). Se wk = 0Rn allora
k−1
X hwj , vk i
vk = wj .
hwj , wj i
i=1

Poiché L(w1 , . . . , wk−1 ) = L(v1 , . . . , vk−1 ), i vettori v1 , . . . , vk sarebbero li-


nearmente dipendenti. Quindi wk 6= 0Rn . Adesso, dimostriamo che i vettori
w1 , . . . , wk sono ortogonali. Poiché i vettori w1 , . . . , wk−1 sono a due a due
ortogonali, è sufficiente dimostrare che

hwk , ws i = 0,

per s = 1, . . . , k − 1. Infatti
k−1
X hvk , wj i
hwk , ws i = hvk − wj , ws i
hwj , wj i
j=1
k−1
X
hvk , wj i
= hvk , ws i − wj , ws
hwj , wj i
j=1
k−1
X hvk , wj i
= hvk , ws i − hwj , ws i
hwj , wj i
j=1
hvk , ws i
= hvk , ws i − hws , ws i
hws , ws i
= hvk , ws i − hvk , ws i
= 0.

Poiché i vettori w1 , . . . , wk sono a due a due ortogonali, sono linearmente


indipendenti. Dimostriamo che L(v1 , . . . , vk ) = L(w1 , . . . , wk ). Per ipotesi
induttiva w1 , . . . , wk−1 ∈ L(v1 , . . . , vk−1 ) ⊆ L(v1 , . . . , vk ). Inoltre
k−1
X hvk , wj i
wk = v k − wj ∈ L(w1 , . . . , wk−1 , vk ) = L(v1 , . . . , vk ).
hwj , wj i
j=1

da cui segue che i vettori w1 , . . . , wk ∈ L(v1 , . . . , vk ). Quindi L(w1 , . . . , wk ) ⊆


L(v1 , . . . , vk ). Poiché dim L(w1 , . . . , wk ) = dim L(v1 , . . . , vk ) = k si ha
L(w1 , . . . , wk ) = L(v1 , . . . , vk )

138
     
1 1 1
Esempio 8.13. Siano v1 =  0  , v2 =  1  , v3 =  −1  ∈ R3 . Allora
1 2 −3
 
1
w1 = 0  ,

1
     1 
1 1 −
3   2 
w2 = 1 −
  0 = 1 ,
2 1
2 1 2
     1   
1 1 −2 1
w3 =  −1  +  0  + 2  1  =  1 
1
−3 1 2 −1
Corollario 8.14. Esistono basi ortonormali differenti dalla base canonica.
Dimostrazione. Sia {v1 , . . . , vn } una base di Rn . Applicando il procedimento
di ortogonalizzazione di Gram-Schimdt ottengo una base C = {w1 , . . . , wn }
ortogonale. Dividendo ciascun vettore per la sua norma, i.e.,
 
w1 wn
,...,
k w1 k k wn k
ottengo una base ortonormale.
Corollario 8.15. Siano v1 , . . . , vk ∈ Rn vettori non nulli e a due a due
ortogonali. Allora è possibile completare v1 , . . . , vk a base ortogonale di Rn .
Dimostrazione. Applicando il teorema di completamento a base è possibi-
le completare i vettori v1 , . . . , vk a una base di Rn , che indicheremo con
v1 , . . . , vk , vk+1 , . . . , vn . Applicando il procedimento di Gram-Schimdt alla
base {v1 , . . . , vn } troviamo una base ortogonale di Rn i cui primi k vettori
sono v1 , . . . , vk (perché?).
   
1 2
Esempio 8.16. Siano  1  ,  0  ∈ R3 . Possiamo completarli a base
2 −1
 
0
aggiungendo  0 . Quindi
1
     
 1 2 0 
 1 , 0 , 0 
2 −1 1
 

139
è una base di R3 . Applicando il procedimento di Gram-Scmidt, si ottiene
     
 1 2 1/15 
 1  ,  0  ,  −1/3  ,
2 −1 2/15
 

ovvero una base ortogonale di R3 .


Vediamo infine un legame fra matrici ortogonali e basi ortonormali.
Proposizione 8.17. Sia A = (A1 , . . . , An ) ∈ Mn×n (R). A è una matrice
ortogonale se e solamente se A1 , . . . , An formano una base ortonormale.
Dimostrazione. La matrice A è ortogonale se e solamente se AAT = AT A =
Idn . Ricordiamo che se AT A = Idn , rispettivamente AAT = Idn , allora
AAT = Idn , rispettivamente AT A = Idn . Sia A = (aij ) 1 ≤ i ≤ n e sia
1≤j ≤n

AT = (aT ij ) 1≤i≤n . Infine, sia C = AT A = (cij ) 1≤i≤n . Tenendo in


1≤j ≤n 1≤j ≤n

mente che aTij = aji , si ha


n
X n
X
cij = aTim amj = ami amj = hAi , Aj i.
m=1 m=1

Quindi, la matrice A è ortogonale se e solamente se C = Idn , ovvero se e


i j i = 0 se i 6= j e hAi , Ai i = 1, quindi se e solamente se i
 1se hA , A
solamente
vettori A , . . . , An formano una base ortonormale.

8.18 Sottospazio Ortogonale


Sia W ⊆ Rn . Porremo

W ⊥ := {X ∈ Rn : hX, si = 0 ∀s ∈ W },

ovvero l’insieme dei vettori di Rn che sono ortogonali a ogni elemento di S.


Proposizione 8.19. Se W ⊆ Rn , allora W ⊥ è un sottospazio vettoriale di
Rn .
Dimostrazione. Dobbiamo dimostrare che W ⊥ è chiuso rispetto alla somma
e la moltiplicazione per scalare.
Siano u, v ∈ W ⊥ . Vogliamo dimostrare che u + v ∈ W ⊥ , ovvero che per
ogni s ∈ W , si ha
hu + v, si = 0.

140
Poiché hu, si = hv, si = 0, si ha

hu + v, si = hu, si + hv, si = 0.

Analogamente, si dimostra che W ⊥ è chiuso rispetto alla moltiplicazione per


scalare. Infatti, sia v ∈ W ⊥ e sia λ ∈ R. Se s ∈ W , si ha

hλv, si = λhv, si = 0,

ovvero λv ∈ W ⊥ .

Proposizione 8.20. Sia W = L(v1 , . . . , vk ) un sottospazio vettoriale di Rn .


Allora
W ⊥ = {v ∈ Rn : hv, v1 i = · · · = hv, vk i = 0}.

Dimostrazione. Sia W = L(v1 , . . . , vk ) e sia

U = {v ∈ Rn : hv, v1 i = · · · = hv, vk i = 0}.

Ricordiamo che W ⊥ = {X ∈ Rn : hX, si = 0, ∀s ∈ W }. Vogliamo dimostra-


re che W ⊥ = U .
L’inclusione W ⊥ ⊆ U è immediata poiché se v ∈ W ⊥ , allora v è ortogo-
nale ai vettori v1 , . . . , vk ∈ W e quindi v ∈ U .
Sia u ∈ U . Vogliamo dimostrare che u ∈ W ⊥ , ovvero che

hu, si = 0, ∀s ∈ W.

Poiché s ∈ W = L(v1 , . . . , vk ), esistono α1 , . . . , αk ∈ R tali che

s = α1 v1 + · · · + αk vk .

Quindi

hu, si = hw, α1 v1 + · · · + αk vk i
= α1 hu, v1 i + · · · + αk hu, vk i
= 0 (essendo u ∈ U )

da cui segue che u ∈ W ⊥ , ovvero U ⊆ W ⊥ concludendo la dimostrazione

141

  
1 −1
 0   2  4
Esempio 8.21. Sia dato W = L   1  ,  1  sottospazio di R .
   

1 3
Allora
  

 x1 

x
 
⊥ 2  4

W =   ∈ R : x 1 + x 3 + x4 = 0, −x 1 + 2x 2 + x 3 + 3x 4 = 0

 x3  

x4
 
   
1 1
 1   2 
= L
 −1  ,  0 
   

0 −1

Sia W ⊆ Rn un sottospazio vettoriale.

Proposizione 8.22. Rn è in somma diretta di W e W ⊥ .

Dimostrazione. Daremo due dimostrazioni differenti.


Sia u ∈ W ∩ W ⊥ . Allora hu, ui = 0 da cui segue u = 0Rn . Quindi
W ∩ W ⊥ = {0Rn }.
Sia B = {v1 , . . . , vk } una base di W e sia A = (v1 , . . . , vk ) ∈ Mn×k (R).
Osserviamo che dim W = rg(A) = k. Applicando la Proposizione anteriore,
si ha
W ⊥ = {X ∈ Rn : hX, v1 i = · · · = hX, vk i = 0},
ovvero W ⊥ = Sol(AT |0Rk ). Applicando il Corollario 7.3 si ha dim W ⊥ =
n − rg(AT ) = n − rg(A) = n − dim W . Quindi

dim(W + W ⊥ ) = dim W + dim W ⊥ = n.

Applicando il Corollario 5.31 si ha che Rn è in somma diretta di W e W ⊥ .


Un’altra dimostrazione è la seguente.
Sia {v1 , . . . , vk } una base di W . Per il Teorema di completamente a
base, possiamo completarla a base B = {v1 , . . . , vn } di Rn . Applicando il
procedimento di Gram-Schimdt alla base B = {v1 , . . . , vn }, ottengo una base
ortogonale di Rn che indicheremo con C = {w1 , . . . , wn }. Poiché

L(v1 , . . . , vk ) = L(w1 , . . . , wk ),

i vettori w1 , . . . , wk formano una base ortogonale di W (Perché?). Inoltre, i


vettori wk+1 , . . . , wn sono non nulli, a due a due ortogonali, e sono ortogonali

142
ad una base di W . Applicando la Proposizione 8.20 si ha wk+1 , . . . , wn ∈
W ⊥ . Affermiamo che i vettori wk+1 , . . . , wn formano una base ortogonale
di W ⊥ . Poiché sono linearmente indipendenti, è sufficiente dimostrare che
formano un sistema di generatori di W ⊥ .
Sia z ∈ W ⊥ . Poiché C = {w1 , . . . , wn } è una base ortogonale di Rn , si
ha
hz, w1 i hz, wn i
z= w1 + · · · + wn .
hw1 , w1 i hwn , wn i
Poiché z ∈ W ⊥ e W = L(w1 , . . . , wk ), si ha

hz, vj i
= 0, per j = 1, . . . , k,
hvj , vj i
ovvero
hz, wk+1 i hz, wn i
z= wk+1 + · · · + wn ∈ L(vk+1 , . . . , vn ).
hwk+1 , wk+1 i hwn , wn i

Quindi W ⊥ = L(vw+1 , . . . , wn ), In particolare, dim W ⊥ = n − k = n −


dim W , ovvero dim W + dim W ⊥ = n. Inoltre

W + W ⊥ = L(w1 , . . . , wn ) = Rn .

Riassumendo, abbiamo provato che

n = dim(W + W ⊥ ) = dim W + dim W ⊥ .

Applicando il Corollario 5.31 si ha Rn è in somma diretta di W e W ⊥ .


   
1 −1
Esempio 8.23. Sia dato W = L  0  ,  2  sottospazio di R3 .
1 1
Poiché dim W = 2, dim W ⊥ = 1. Inoltre,
    
 x  1
W ⊥ =  y  ∈ R3 : x + z = 0, −x + 2y + z = 0 = L  1 
z −1
 

    
1 1 2
 1   0   1 
Esempio 8.24. Sia dato W = L  0  , 
    ,   sottospazio di
1   1 
1 −1 0
4
R . La dimensione di W è due (verificare!) e equazioni cartesiane per il

143
sottospazio W ⊥ sono:

 x1 + x2 + x4 = 0
W⊥ = x1 + x3 − x4 = 0
2x1 + x2 + x3 = 0

Applicando il metodo di Gauss ed il metodo della risoluzione all’indietro si


ha    
1 0
 −1   1 
W⊥ = L  −1  ,  −1 
   

0 −1

8.25 Proiezione Ortogonale


Definizione 8.26. Sia W un sottospazio vettoriale dello spazio vettoriale
Rn . Sia C = {w1 , . . . , wk } una base ortonormale di W . Si dice proiezione
ortogonale di Rn su W l’applicazione lineare PW : Rn −→ Rn cosı̀ definita:

PW (v) = hv, w1 iw1 + · · · + hv, wk iwk .

Esempio 8.27. Sia W = L(w), w 6= 0Rn . Una base ortonormale di W è il


w
vettore . La proiezione ortogonale di Rn su W è l’applicazione
kwk
w w hv, wi
PW : Rn −→ Rn , v 7→ hv, i = w
kwk kwk hw, wi
Proposizione 8.28. Sia PW : Rn −→ Rn la proiezione ortogonale di Rn su
W . Allora Ker PW = W ⊥ e Im PW = W .
Dimostrazione. Un vettore v ∈ Ker PW se e solamente se PW (v) = 0Rn ,
ovvero se e solamente se

PW (v) = hv, w1 iw1 + · · · + hv, wk iwk = 0Rn .

Poiché i vettori w1 , . . . , wk ∈ Rn sono linearmente indipendenti, si ha che


v ∈ Ker PW se e solamente se hv, w1 i = · · · = hv, wk i = 0. Applicando la
Proposizione 8.20, si ha che v ∈ Ker PW se e solamente se v ∈ W ⊥ .
L’immagine di PW è contenuta in W (perché?). Poiché dim Im PW =
n − dim W ⊥ = dim W si ha Im PW = W .

Il prossimo risultato garantisce che PW (v) non dipende dalla base orto-
normale scelta di W .

144
Proposizione 8.29. Sia v ∈ Rn . Allora esiste un unico w ∈ W tale che
v − w ∈ W ⊥ . Inoltre, se C = {w1 , . . . , wk } è una base ortonormale di W ,
allora u = PW (v) = hv, w1 iw1 + · · · + hv, wk iwk .

Facoltativa. Sia C = {w1 , . . . , wk } una base ortonormale di W e sia w ∈ W .


Possiamo scrivere w = α1 w1 + · · · + αk wk . Il vettore v − w ∈ W ⊥ se
e solamente se hv − w, wj i = 0 per ogni j = 1, . . . , k, se e solamente se
αj = hv, wj i. Quindi w = hv, w1 iw1 + · · · + hv, wk i da cui segue l’esistenza e
l’unicità.
     
1 2 2
 1   0   1 
Esempio 8.30. Sia dato W = L   1  ,  1  ,  2  un sottospazio
     

0 1 1
di R4 . Vogliamo calcolare la proiezione ortogonale su W . Per definizione di
proiezione ortogonale, bisogna calcolare una base ortonornale di W . Poiché
la matrice  
1 2 2
 1 0 1 
 1 1 2 ,
 

0 1 1
ha rango 2 (verificare!) la dimensione di W è 2 ed una base di W è formata
da    
1 2
 1   0 
 , .
 1   1 
0 1
Applicando il procedimento di Gram-schimdt e poi dividendo ciascun vettore
per la sua norma ottengo una base ortonormale cosı̀ fatta:
 √   √ 
1/√3 1/ √3
 1/ 3   −1/ 3 
 √ , .
 1/ 3   0√ 
0 1/ 3

145
Quindi
     √   √ 
x1 x1 1/√3 1/√3
 x2   x2   1/√3   1/√3 
   
PW   = h , i 
 x3   x3   1/ 3   1/ 3 
x4 x4 0 0
   √   √ 
x1 1/ √3 1/ √3
 x2   −1/ 3   −1/ 3 
+ h
 x3  , 
  i  
0√   0√ 
x4 1/ 3 1/ 3
 √   √ 
1/√3 1/ √3
(x1 + x2 + x3 )  1/ 3  + (x1 − √x2 + x4 ) 
 −1/ 3 
 
= √
3  0√  3  0√ 
1/ 3 1/ 3
 
2x1 + x3 + x4 /3
 2x2 + x3 − x4 /3 
= x1 + x2 + x3 /3 

x1 − x2 + x4 /3

8.31 Prodotto Hermitiano canonico di Cn


   
z1 w1
Dati Z =  ...  e W =  ...  in Cn definiamo il prodotto Hermitiano
   

zn wn
canonico:
hZ, W i = z1 w1 + · · · + zn wn = Z T W .
Il prodotto Hermitiano canonica è una applicazione

Cn × Cn −→ C (Z, W ) 7→ hZ, W i

che soddisfa alle seguenti proprietà:


Proposizione 8.32. Siano Z, W, U ∈ Cn e λ ∈ C. Allora
a) hZ, W i = hW, Zi.

b) hZ, Zi ≥ 0 e l’uguaglianza vale se e solamente se Z = 0Cn ;

c) hZ + W, U i = hZ, U i + hW, U i;

d) hU, Z + W i = hU, Zi + hU, W i;

146
e) hλZ, W i = λhZ, W i;

f ) hZ, λW i = λhZ, W i.
Dimostrazione. Esercizio.

Sia Xpun vettore. Chiameremo norma o lunghezza di X il numero reale


k X k= hX, Xi. Dunque se X 6= 0Cn , allora k X k> 0. Chiamaremo
distanza fra due vettori X, Y il numero non negativo k X − Y k. Quindi la
lunghezza di un vettore è la distanza dall’origine 0. Inoltre vale la seguente
disuguaglianza.
Teorema 8.33 (Disuguaglianza di Cauchy-Schwartz).

|hZ, W i| ≤k Z kk W k,
p
dove k Z k:= hZ, Zi, e l’uguaglianza vale se e solamente se Z e W sono
linearemente dipendenti.
Facoltativa. Siano α, β ∈ C. Se Z = 0Cn , allora la disuguaglianza è banal-
mente verificata. Supponiamo che Z 6= 0Cn . Allora

0 ≤ hαZ + βW, αZ + βW i
≤ |α|2 hZ, Zi + |β|2 hW, W i + αβhZ, W i + αβhW, Zi
.

Se poniamo α = −hW, Zi e β = hZ, Zi, otteniamo

|hZ, W i|2 hZ, Zi + |hZ, Zi|2 hW, W i − 2hZ, Zi|hZ, W i|2 ≥ 0,

ovvero, dividendo per hZ, Zi, si ha

|hZ, W i|2 ≤ hZ, ZihW, W i.

Se |hZ, W i|2 = hZ, ZihW, W i, allora se poniamo α = −hW, Zi e β = hZ, Zi,


si ha hαZ + βW, αZ + βW i = 0 da cui segue αZ + βW = 0Cn .

Definizione 8.34. Siano X, Y ∈ Cn . Diremo che X e Y sono vettori


ortogonali se hX, Y i = 0.
Come per il prodotto scalare standard, possiamo dimostrare il seguente
risultato.
Proposizione 8.35. Siano v1 , . . . , vk ∈ Cn non nulli e ortogonali a due a
due. Allora v1 , . . . , vk sono linearmente indipendenti.

147
Una base B = {v1 , . . . , vn } si dice ortogonale, rispettivamente ortonor-
male, se i vettori v1 , . . . , vn sono a due a due ortogonali, rispettivamente se
i vettori sono a due a due ortogonali ed hanno norma unitaria. L’esistenza
di basi ortogonali è conseguenza del seguente risultato.

Proposizione 8.36 (Procedimento di ortogonalizzazione di Gram-Schmidt).


Siano v1 , . . . , vk ∈ V vettori linearmente indipendenti. I vettori


 w1 = v 1
 hv2 ,w1 i



 w2 = v2 − hw 1 ,w1 i
w1
 hv3 ,w1 i hv3 ,w2 i
w3 = v3 − hw1 ,w1 i w1 − hw 2 ,w2 i
w2


 .
..


 wk = vk − Pk−1 hvk ,wj i wj


j=1 hwj ,wj i

sono non nulli, a due a due ortogonali, quindi linearmente indipendenti, e


verificano L(w1 , . . . , wj ) = L(v1 , . . . , vj ) per j = 1, . . . , k.

Proposizione 8.37. Sia A = (A1 , . . . , An ) ∈ Mn×n (C). La matrice A è


unitaria se e solamente se {A1 , . . . , An } è una base ortonormale.

Sia S ⊂ Cn . Definiamo

S ⊥ := {X ∈ Cn : hX, si = 0 ∀s ∈ S}.

Proposizione 8.38. S ⊥ è un sottospazio vettoriale di Cn . Se S = L(v1 , . . . , vk ),


allora
S ⊥ = {v ∈ Cn : hv, v1 i = · · · = hv, vk i = 0}

148
Capitolo 9

Endomorfismi
Diagonalizzabili e Teorema
spettrale

9.1 Autovalori e autovettori


Sia V uno spazio vettoriale su K.
Definizione 9.2. Un endomorfismo, o operatore, di V è una applicazione
lineare T : V −→ V , ovvero una applicazione lineare di V in se stesso.
Definizione 9.3. Sia T : V −→ V un endomorfismo. Diremo che un
vettore v ∈ V non nullo è un autovettore di T se T (v) = λv per un certo
λ ∈ K. Un autovalore di T è uno scalare λ ∈ K tale che esiste un vettore
non nullo v ∈ V tale che T (v) = λv.
Se v ∈ V è un vettore non nullo tale che T (v) = λv, allora diremo che v
è un autovettore di T relativo, o corrispondente, all’autovalore λ. L’insieme
degli autovalori di T si chiama lo spettro di T . Dato λ ∈ K definiamo

Vλ = {v ∈ V : T (v) = λv} = {v ∈ V : (T − λIdV )(v) = 0V }.

Poiché Vλ = Ker (T −λIdV ), Vλ è un sottospazio vettoriale di V . Osserviamo


che V0 = Ker T . Dalla definizione di autovalore segue che Vλ 6= {0V } se e
solamente se λ è un autovalore. In tal caso

Vλ = v ∈ V : v è un autovettore di T relativo a λ ∪ {0V }.
che chiameremo autospazio relativo a λ.

149
Proposizione 9.4. Sia T : V −→ V un endomorfismo. Uno scalare λ ∈ K è
un autovalore di T se e solamente se T −λIdV non è iniettivo. In particolare
T è iniettiva, e quindi biunivoca, se e solamente se 0 non è un autovalore
di T
Dimostrazione. λ ∈ K è una autovalore se e solamente se Vλ 6= {0V }. Poiché
Vλ = Ker (T − λIdV ), e T − λIdV è un operatore, applicando il Corollario
6.16 si ha che λ ∈ K è un autovalore se e solamente se T − λIdV non è
iniettivo e quindi non è biunivoca.

Definizione 9.5. Sia T : V −→ V un endomorfismo. Diremo che T è


diagonalizzabile se esiste una base di V formata da autovettori di T .
Sia T : V −→ V un endomorfismo di V diagonalizzabile. Esiste una
base B = {v1 , . . . , vn } di V formata da autovettori di T , ovvero T (v1 ) =
λ1 v1 , . . . , T (vn ) = λn vn . Ricordiamo che {e1 , . . . , en } è la base canonica di
Kn , allora [vi ]B = ei , per i = 1, . . . , n. Calcoliamo le coordinate di T (v1 )
rispetto alla base B = {v1 , . . . , vn }.
 
λ1
 0 
[T (v1 )]B = [λ1 v1 ]B = λ1 [v1 ]B =  .  = λ1 e1 .
 
.
 . 
0
Analogomanete,
[T (vi )]B = λi [vi ]B = λi ei ,
per i = 1, . . . , n. Quindi la matrice associata a T rispetto alla base B, in
partenza e in arrivo, è una matrice diagonale
 
λ1
 .. 
 . 
MB,B (T ) = 

.
,
 . .


λn
dove gli elementi sulla diagonale principale sono gli autovalori di T . Vice-
versa, supponiamo che la matrice associata a T rispetto a una base B =
{v1 , . . . , vn } in partenza ed in arrivo sia una matrice
 
λ1
 .. 
 . 
MB,B (T ) = 
..
,

 . 
λn

150
diagonale. Allora
[T (vi )]B = MB,B (T )[vi ]B
= MB,B (T )ei
= λi ei
= λi [vi ]B
= [λi vi ]B .
Tendendo in mente che v = w se e solamente se [v]B = [w]B , si ha che
T (vi ) = λi vi per i = 1, . . . , n da cui segue che vi è autovettore relativo
all’autovalore λi . Quindi {v1 , . . . , vn } è una base di V formata da autovettori
di T .
Proposizione 9.6. Sia T : V −→ V un endomorfismo. Allora T è diago-
nalizzabile se e solamente se esiste una base B di V tale che MB,B (T ) è una
matrice diagonale.
Sia C una base di V . Poiché MC,C (T ) è simile alla matrice MB,B (T ) si
ha il seguente risultato.
Proposizione 9.7. Sia T : V −→ V un endomorfismo e sia C una base di
V . T è diagonalizzabile se e solamente se MC,C (T ) è simile a una matrice
diagonale.
Il prossimo risultato prova che autovettori corrispondenti ad autovalori
distinti sono linearmente indipendenti.
Proposizione 9.8. Sia T : V −→ V una applicazione lineare e siano
v1 , . . . , vm autovettori di T corrispondenti agli autovalori λ1 , . . . , λm . Se
λ1 , . . . , λm sono distinti, i.e., λi 6= λj se i 6= j, allora gli autovettori v1 , . . . , vm
di T sono linearmente indipendenti.
Facoltativa. la dimostrazione sarà fatta per induzione sul numero di auto-
vettori.
Se m = 1 la proposizione è banalmente verificata poiché un autovettore
è un vettore non nullo e quindi linearmente indipendente.
Supponiamo che la proposizione sia vera per m autovettori di T cor-
rispondenti a m autovalori distinti e dimostriamolo per m + 1 autovalori
distinti.
Siano v1 , . . . , vm+1 autovettori corrispondenti ad autovalori λ1 , . . . , λm+1
distinti. Per ipotesi induttiva i vettori v1 , . . . , vm sono linearmente indipen-
denti. Supponiamo per assurdo che v1 , . . . , vm+1 fossero linearmente di-
pendenti. Poiché v1 , . . . , vm sono linearmente indipendenti, il vettore vm+1

151
sarebbe combinazione lineare di v1 , . . . , vm (perché?). Quindi esistono degli
scalari α1 , . . . , αm ∈ K tale che

vm+1 = α1 v1 + · · · + αm vm .

Applicando T si ha

T (vm+1 ) = λm+1 vm+1 = T (α1 v1 + · · · + αm vm )


= α1 T (v1 ) + · · · + αm T (vm )
= λ1 α1 v1 + · · · + λm αm vm .

Dall’altro lato

λm+1 vm+1 = λm+1 α1 v1 + · · · + λm+1 αm vm .

Quindi

λm+1 α1 v1 + · · · + λm+1 αm vm = λ1 α1 v1 + · · · + λm αm vm ,

ovvero
(λm+1 − λ1 )α1 v1 + · · · + (λm+1 − λm )αm vm = 0.
Poiché i vettori v1 , . . . , vm sono linearmente indipendenti, ne segue che i
coefficienti sono tutti nulli:

α1 (λm+1 − λ1 ) = · · · = αm (λm+1 − λm ) = 0

Per ipotesi gli autovalori sono distinti. Quindi α1 = · · · = αm = 0, ovvero


vm+1 = 0. Assurdo poiché vm+1 è un vettore non nullo essendo un autovet-
tore. Quindi i vettori v1 , . . . , vm+1 sono linearmente indipendenti.

Corollario 9.9. Sia V uno spazio vettoriale su K di dimensione n e sia


T : V −→ V un endomorfismo. Se T ammette n autovalori distinti, allora
T è diagonalizzabile.

Dimostrazione. Poiché T ha n = dim V autovalori distinti esitono n auto-


vettori v1 , . . . , vn corrispondenti ad autovalori distinti. Per il risultato ante-
riore v1 , . . . , vn sono linearmente indipendenti e quindi formano una base di
V concludendo la dimostrazione.

152
9.10 Polinomio caratteristico
Sia V uno spazio vettoriale su K di dimensione n. Vogliamo calcolare gli
autovalori di un endomorfismo T : V −→ V .
Sia B una base di V . Uno scalare λ ∈ K è un autovalore di T se e
solamente se T − λIdV non è iniettiva ovvero se e solamente se la matrice
MB,B (T − λIdV ) non è invertibile . Poiché MB,B (T − λIdV ) = MB,B (T ) −
λIdn , si ha che λ ∈ K è un autovalore di T se e solamente se

det(MB,B (T ) − λIdn ) = 0.

Definiamo

pB : K −→ K, pB (t) := det(MB,B (T ) − tIdn )

Proposizione 9.11. pB (t) è un polinomio di grado n = dim V ed è ha la


seguente espressione

(−1)n tn + (−1)n−1 (Tr(MB,B (T ))tn−1 + · · · + det(MB,B (T )).

Inoltre, pB (t) non dipende dalla base scelta.


Dimostrazione. Noi proveremo solamente che se C è una base di V , allora
pC = pB .
Sia C = {w1 , . . . , wn } una base di V . Allora

MC,C (T ) = M(B, C)−1 MB,B (T )M(B, C),

da cui segue
pC (t) = det(MC,C (T ) − tIdn )
= det M(B, C)−1 MB,B (T )M(B, C) − tIdn


= det M(B, C)−1 MB,B (T )M(B, C) − tM(B, C)−1 M(B, C)




= det (M(B, C)−1 (MB,B (T ) − tIdn )M(B, C)




= det((M(B, C)−1 )det(MB,B (T ) − tIdn )det(M(B, C))


= det(MB,B (T ) − tIdn )
= pB (t).

Definizione 9.12. Sia T : V −→ V un endomorfismo. Sia B un base di V .


Il polinomio pT (t) = pB (t) è un polinomio di grado n = dim V ed è chiamato
il polinomio caratteristico di T .

153
Corollario 9.13. Sia V uno spazio vettoriale su K di dimensione n e sia
T : V −→ V un endomorfismo. Sia λ ∈ K. Allora λ è un autovalore di
T se e solamente se λ è una radice del polinomio caratteristico di T . In
particolare T ha al massimo n autovalori.

Dimostrazione. Abbiamo dimostrato che λ ∈ K è un autovalore di T se e


solamente se det(MB,B (T ) − λIdn ) = 0, ovvero se e solamente se pT (λ) = 0.
Poiché un polinomio di grado n ha al massimo n radice, si ha che T ha al
massimo n autovalori.

Esempio 9.14. Si consideri l’applicazione lineare T : R3 −→ R3 definita


da    
x x + y + 2z
T  y  =  2x + y + 3z  ,
z x + 2y + 3z
     
 1 0 0 
Sia C =  0 , 1 , 0  la base canonica di R3 . Allora
   
0 0 1
 

           
1 1 0 1 0 2
T   0  = 2 ,T
   1  = 1 ,T
   0  = 3 ,

0 1 0 2 1 3

e quindi  
1 1 2
MT = MC,C (T ) =  2 1 3  .
1 2 3
Il polinomio caratteristico di T è dato da
 
1−t 1 2
pT (t) = det(MC,C (T ) − tId3 ) = det  2 1−t 3 .
1 2 3−t

Sviluppa in determinante rispetto alla 1 colonna si ha

pT (t) = (1 − t)(t2 − 4t − 3) − 2((3 − t) − 4) + (3 − (2(1 − t))


= −t3 + 5t2 + 3t = −t(t2 − 5t − 3).
√ √
Quindi gli autovalori di T sono: 0, 5+2 37 , 5−2 37 .

154
 
0 1
Esempio 9.15. Sia A = e sia Sia T : M2×2 (R) −→ M2×2 (R)
1 1
l’applicazione lineare cosı̀ definita:

T (X) = X − Tr(X)A.

Sia        
1 0 0 1 0 0 0 0
B= , , , ,
0 0 0 0 1 0 0 1
Nell’esempio 7.16 abbiamo visto che
 
1 0 0 0
 −1 1 0 −1 
MB,B (T ) = 
 −1
.
0 1 −1 
−1 0 0 0

Quindi
 
1−t 0 0 0
 −1 1 − t 0 −1 
pT (t) = det(MB,B (T )−tId4 ) = det   = −t(1−t)3 ,
 −1 0 1 − t −1 
−1 0 0 −t

ovvero gli autovalori si T sono 0 e 1.

9.16 Molteplicità geometrica e algebrica


Sia V uno spazio vettoriale su K di dimensione n e sia T : V −→ V un
endomorfismo.

Definizione 9.17. Sia λ ∈ K un autovalore di T . Definiamo:

• la molteplicità algebrica di λ è la molteplicità di λ come radice di


pT (t), ovvero quante volte λ è radice di pT (t), che indicheremo con
ma (λ).

• la molteplicità geometrica di λ è la dimensione dell’autospazio Vλ e si


indicherà con mg (λ) = dim Vλ .

Se λ ∈ K è un autovalore, allora ma (λ) è il più grande numero naturale


m tale che (x − λ)m divide pT (t).

155
Proposizione 9.18. Sia V uno spazio vettoriale su K di dimensione n e
sia T : V −→ V un endomorfismo. Sia λ ∈ K un autovalore. Se B è una
base di V , allora

mg (λ) = n − rg(MB,B (T ) − λIdn ).

Dimostrazione. Poiché Vλ = Ker (T − λIdV ), applicando il Teorema della


dimensione, tenendo in mente che dim V = n, si ha

mg (λ) = dim Ker (T − λIdV ) = n − dim Im (T − λIdV ).

Poiché dim Im (T − λIdV ) = rg(MB,B (T − λIdV )), e tenendo in mente che


MB,B (T − λIdV ) = MB,B (T ) − λIdn , si ha

mg (λ) = n − dim Im (T − λIdV )


= n − rg(MB,B (T − λIdV ))
= n − rg(MB,B (T ) − λIdn ).

Il prossimo risultato garantisce che la molteplicità algebrica è maggiore


oppure uguale della molteplicità geometrica.

Proposizione 9.19. Sia λ ∈ K un autovalore di T : V −→ V . Allora


mg (λ) ≤ ma (λ).

Facoltativa. Sia B = {v1 , . . . , vmg (λ) } una base di Vλ . Possiamo completarla


a base di V che indicheremo con B = {v1 , . . . , vn }. Allora
 
λIdmg (λ)×mg (λ) ∗
MB,B (T ) = .
0 D

Quindi

pT (t) = det(MB,B (T ) − tIdn )


= (λ − t)mg (λ) det(D − tId(n−mg (λ))×(n−mg (λ)) ),

da cui segue che mg (λ) ≤ ma (λ).

Corollario 9.20. Sia T : V −→ V un endomorfismo e sia λ ∈ K autovalore


di T : V −→ V . Se ma (λ) = 1, allora mg (λ) = 1.

156
Dimostrazione. Poiché mg (λ) ≥ 1 (perché ?), si ha

1 ≤ mg (λ) ≤ ma (λ) = 1,

da cui segue la tesi.

Esempio 9.21. Si consideri l’applicazione lineare T : R3 −→ R3 definita


da    
x 2x − y + 3z
T  y  =  x + 3z ,
z 2x − 2y + 7z
     
 1 0 0 
Sia C =  0  ,  1  ,  0  la base canonica di R3 . Allora
0 0 1
 

           
1 2 0 −1 0 3
T  0  =  1  , T  1  =  0  , T  0  =  3  ,
0 2 0 −2 1 7

e quindi  
2 −1 3
MT = MC,C (T ) =  1 0 3  .
2 −2 7
Il polinomio caratteristico di T è dato da
 
2 − t −1 3
pT (t) = det(MC,C (T ) − tId3 ) = det  1 −t 3  = −(t − 1)2 (t − 7).
2 −2 7 − t

Quindi gli autovalori di T sono 1 con molteplicità algebrica 2 e 7 con mol-


teplicità algebrica 1. Poiché
 
1 −1 3
MC,C (T ) − Id3 =  1 −1 3  ,
2 −2 6

la molteplicità geometrica dell’autovalore 1 è mg (1) = 3 − rg(MC,C (T ) −


Id3 ) = 2. La molteplicità geometrica dell’autovalore 7 è uno.

Il prossimo Teorema fornisce un criterio necessario e sufficiente affinché


un endomorfismo sia diagonalizzabile.

157
Teorema 9.22. Sia V uno spazio vettoriale su K e sia T : V −→ V un
endomorfismo. Le seguenti condizioni sono equivalenti:

a) T è diagonalizzabile.

b) Tutti gli autovalori di T sono in K. Inoltre, per ogni λ ∈ sp(T ) si ha


ma (λ) = mg (λ).

Facoltativa. Supponiamo che T sia diagonalizzabile. Sia B = {v1 , . . . , vn }


una base formata da autovettori di T . Siano λ1 , . . . , λr gli autovalori distinti
di T . La matrice associata a T rispetto alla base B = {v1 , . . . , vn } in partenza
ed in arrivo ha la forma
 
λ1 Idmg (λ1 )×mg (λ1 )
MB,B (T ) = 
 .. .

.
λk Idmg (λk )×mg (λk )

e quindi

pT (t) = det(MB,B (T ) − tIdn )


 
(λ1 − t)Idmg (λ1 )×mg (λ1 )
= det 
 .. 
. 
(λk − t)Idmg (λk )×mg (λk )
mg (λ1 ) mg (λk )
= (λ1 − t) · · · (λk − t) .

da cui segue che tutti gli autovalori stanno in K ed ma (λj ) = mg (λj ) per
j = 1, . . . , k.
Viceversa, supponiamo che tutti gli autovalori di T stanno in K, ovvero T
ha n autovalori non necessariamente distinti, e che la molteplicità algebrica
e geometrica coincidono per ogni autovalore.
Siano λ1 , . . . , λk ∈ K gli autovalori distinti di T . Sia BVλj una base
S S
di Vλj per j = 1, . . . , k. L’insieme B = BVλ1 · · · BVλk è formato da
n = dim V autovettori. Infatti poiché il polinomio caratteristico ha n radici,
non necessariamente distinte, allora
k
X k
X
n= ma (λm ) = mg (λm )
i=m i=m

cioé B ha esattamente n = dim V autovettori. Per concludere la dimostra-


zione, tenendo in mente che se n = dim V allora n vettori formano una base

158
di V se e solamente se sono linearmente indipendenti, è suffciente dimostra-
re che i vettori di B sono linearmente indipendenti. A meno di riordinare i
vettori di B, esistono 1 ≤ j1 < j2 < · · · < jk ≤ n = tale che

v 1 , . . . , v j1 formano una base di Vλ1


vj1 +1 , . . . , vj2 formano una base di Vλ2
..
.
vjk +1 , . . . , vn formano una base di Vλk

Siano α1 , . . . , αj1 , . . . , αjk , . . . , αn ∈ K e sia α1 v1 + · · · + αn vn = 0 una


combinazione lineare uguale al vettore nullo. Poniamo

w1 = α1 v1 + · · · + αj1 vj1 ∈ Vλ1


w2 = αj1 +1 vj1 +1 + · · · + αj2 vj2 ∈ Vλ2
..
.
wk = αjk +1 vjk +1 + · · · + αn vn ∈ Vλk

Quindi
w1 + · · · + wk = 0
Per la Proposizione 9.8, si ha w1 = · · · = wk = 0 e quindi

0 = α1 v1 + · · · + αj1 vj1
0 = αj1 +1 vj1 +1 + · · · + αj2 vj2
..
.
0 = αjk +1 vjk +1 + · · · + αn vn .

Tenendo in mente che

v 1 , . . . , v j1 formano una base di Vλ1


vj1 +1 , . . . , vj2 formano una base di Vλ2
..
.
vjk +1 , . . . , vn formano una base di Vλk

si ha α1 = · · · = αn = 0.

159
Osservazione 9.23. Sia V uno spazio vettoriale su K e sia T : V −→ V un
endomorfismo. Siano λ1 , . . . , λk ∈ K gli autovalori distinti di T . Indichiamo
con BVλj una base dell’autospazio Vλj per j = 1, . . . , k. Nella proposizione
S S
anteriore abbiamo dimostrato che B = BVλ1 · · · BVλk è un insieme for-
mato da vettori linearmente indipendenti. Inoltre, se T è diagonalizzabile
allora B è una base di V formata da autovettori di T . La matrice associata
a T rispetto alla base B in partenza ed in arrivo è una matrice diagonale
cosı̀ siffatta:
 
λ1 Idmg (λ1 )×mg (λ1 )
MB,B (T ) = 
 .. 
. 
λk Idmg (λk )×mg (λk )

Esempio 9.24. Sia T : M2×2 (R) −→ M2×2 (R) l’applicazione lineare cosı̀
definita:
   
a11 a12 a11 + a12 a12
T = .
a21 a22 a11 + a21 + a22 a11 + a21 + a22
Sia        
1 0 0 1 0 0 0 0
B= , , , ,
0 0 0 0 1 0 0 1
Poiché  
1 1 0 0
 0 1 0 0 
MB,B (T ) = 
 1
,
0 1 1 
1 1 1 1
si ha
 
1−t 1 0 0
 0 1−t 0 0  = t(t−2)(t−1)2 .
PT (t) = det(MB,B (T )−tId4 ) = det 
 1 0 1−t 1 
1 1 1 1−t
Quindi gli autovalori si T sono 0, 1, 2. La molteplicità algebrica di 0 e 2 è
uno mentre la molteplicità algebrica di 1 è due. Poiché
 
0 1 0 0
 0 0 0 0 
mg (1) = 4 − rg(MB,B (T ) − Id4 ) = 4 − rg  1 0 0 1  = 1,
 

1 1 1 0
T non è diagonalizzabile.

160
Esempio 9.25. Sia T : R3 −→ R3 l’applicazione lineare definita da:
           
1 0 1 −1 0 −1
T  0  =  −2  , T  1  =  −3  , T  −1  =  −3  .
1 2 1 3 1 −4
Allora  
0 −1 −1
MC,B (T ) =  −2 −3 −3  ,
2 3 −4
     
 1 1 0 
è la matrice associata a T rispetto alle basi B =  0  ,  1  ,  −1 
1 1 1
 
in partenza e la base canonica C in arrivo. Per stabilire se T è diagonaliz-
zabile non posso utilizzare la matrice MC,B (T ) (perché?). Svolgeremo due
procedimenti.
I metodo. Il polinomio caratteristico di T è

pT (t) = det(MC,C (T ) − tId3 ).

La matrice
MC,C (T ) = MC,B (T )M(B, C).
Poiché
     
x 1 1 0 x 2x − y − z
 y  = Sol  0 1 −1 y  =  −x + y + z 
z B 1 1 1 z −x + z

si ha  
2 1 −1
M(B, C) =  −1 1 1 
−1 0 1
e quindi
    
0 −1 −1 2 −1 −1 2 −1 −2
MC,C (T ) =  −2 −3 −3   −1 1 1  =  2 −1 −4  .
2 3 −4 −1 0 1 −1 1 3
Il polinomio caratteristico di T è dato da
 
2−t −1 −2
pT (t) = det(MC,C (T )−tId3 ) = det  2 −1 − t −4  = −(t−1)2 (t−2),
−1 1 3−t

161
per cui gli autovalori di T sono 1 con molteplicità algebrica due e 2 con
molteplicità algebrica uno, e quindi anche geometrica uno. Poiché

mg (1) = 3 − rg(MC,C (T ) − Id3 )


 
1 −1 −2
= 3 − rg  2 −2 −4 
−1 1 2
= 2,

l’endomorfismo T è diagonalizzabile.
II metodo. Vogliamo calcolare il polinomio caratteristico pT (t) = det(MB,B (T )−
tId3 ). Poiché
           
1 0 1 −1 0 −1
T  0  =  −2  , T  1  =  −3  , T  −1  =  −3  ,
1 2 1 3 1 −4

si ha       
0 −1 −1
MB,B (T ) =  −2  ,  −3  ,  −3   .
−2 B 3 B
2 B
Le coordinate di un vettore rispetto alla base B è l’unica soluzione del se-
guente sistema lineare
     
x 1 1 0 x 2x − y − z
 y  = Sol  0 1 −1 y  =  −x + y + z 
z B 1 1 1 z −x + z

da cui segue che  


0 −2 −1
MB,B (T ) =  0 1 0 .
2 4 3
Il polinomio caratteristico di T è
 
−t −2 −1
pT (t) = det(MB,B (T )−tid3 ) = det  0 1 − t 0  = (2−t)(1−t)2 ,
2 4 3−t

per cui gli autovalori di T sono 2 con molteplicità algebrica uno, e quindi
anche la molteplicità geometrica è uno, ed 1 con molteplicità algebrica 2.

162
Inoltre,

mg (1) = 3 − rg(MB,B (T ) − Id3 )


 
−1 −2 −1
= 3 − rg  0 0 0 
2 4 2
= 2,

quindi T è diagonalizzabile.

9.26 Diagonalizzazione di matrici


Sia A ∈ Mn×n (K) dove K = R oppure C. Sia LA : Kn −→ Kn
l’endomorfismo associato alla matrice A, ovvero

LA (X) = AX.

Definiamo autovettori e autovalori di A, gli autovettori e autovalori di LA .


Uno scalare λ ∈ K è un autovalore di A se esiste un vettore v ∈ Kn non
nullo tale che Av = λv, ovvero LA (v) = λv.
Un vettore v ∈ Kn non nullo si dice un autovettore di A se esiste λ ∈ K
tale che Av = λv, ovvero

(A − λIdn )v = 0.

Quindi λ ∈ K è una autovalore di A se e solamente se det(A − λIdn ) =


0. Chiamaremo pA (t) = det(A − tIdn ) il polinomio caratteristico di A.
Ricordiamo che MC,C (LA ) = A, dove C è la base canonica di Kn . Infatti,

LA (ei ) = Aei = Ai ,

per i = 1, . . . , n. Quindi il polinomio caratteristico di A è il polinomio


caratteristico di LA . Analogamento possiamo definire l’autospazio relativo
all’autovalore λ essendo
Vλ = {v ∈ Kn : LA (v) = λv}
= {v ∈ Kn : Av = λv}
= {v ∈ Kn : (A − λIdn )v = 0}
= Sol(A − λIdn |0Kn ).

163
La dimensione di Vλ è la molteplicità geometrica di λ. Applicando il Teorema
di Rouché-Capelli, si ha

mg (λ) = n − rg(A − λIdn ).

La molteplicità algebrica di λ, che indicheremo con ma (λ), è il numero di


volte che λ è radice del polinomio pA (t), ovvero il più grande numero naturale
N tale che (t − λ)N divide pA (t). Poiché un autovalore di A è un autovalore
di LA , si ha
mg (λ) ≤ ma (λ).
Inoltre, se ma (λ) = 1, allora anche mg (λ) = 1 (esercizio!).

Definizione 9.27. Sia A ∈ Mn×n (K) dove K = R oppure C. Diremo che A


è diagonalizzabile su K se esiste una matrice P ∈ Mn×n (K) invertibile tale
che P −1 AP è una matrice diagonale.

Quindi, una matrice quadrata A è diagonalizzabile se e solamente se A


è simile ad una matrice diagonale.

Proposizione 9.28. A è diagonalizzabile se e solamente se l’endomorfismo


LA : Kn −→ Kn è diagonalizzabile.

Dimostrazione. Poiché MC,C (LA ) = A, dove C è la base canonica, LA è


diagonalizzabile se e solamente se A è simile ad una matrice diagonale e
quindi se e solamente se A è diagonalizzabile.
Vediamo un’altra dimostrazione dove si descrive esplicitamente il legame
fra la matrice invertibile P , la matrice diagonale D tale che P −1 AP = D e
autovettori e autovalori dell’endomorfismo LA e quindi di A.
Supponiamo che A sia diagonalizzabile. Quindi esiste una matrice inver-
tibile P e una matrice diagonale D tale che P −1 AP = D. Lecolonne della
matrice P formano una base di Kn . Se indichiamo con B = P 1 , . . . , P n ,

tenendo in mente che M(C, B) = P , allora

MB,B (LA ) = M(B, C)MC,C (LA )M(C, B)


= P −1 AP
= D.

Quindi abbiamo dimostrato che LA è diagonalizzabile. In dettaglio abbiamo


dimostrato che P i è una autovettore di LA relativo all’autovalore dii , dove
D = (dij ) 1 ≤ i ≤ n , per i = 1, . . . , n.
1≤j ≤n

164
Viceversa supponiamo che LA sia diagonalizzabile. Sia B = {v1 , . . . , vn }
una base di Kn formata da autovettori di LA . La matrice P = (v1 , . . . , vn ) è
invertibile poiché B = {v1 , . . . , vn } è una base di Kn . Vogliamo dimostrare
che P −1 AP è una matrice diagonale. Infatti

P −1 AP = M(B, C)MC,C (LA )M(C, B)


= MB,B (LA ).

Quindi P è una matrice invertibile le cui colonne formano una base di au-
tovettori di LA e D è una matrice diagonale i cui elementi sulla diagonale
principale sono gli autovalori di LA e quindi di A.

Applicando il Teorema 9.22 e la Proposizione 9.28 si ha il seguente


criterio di diagonalizzazione di matrici.

Teorema 9.29. Sia A ∈ Mn×n (K). Le seguenti condizioni sono equivalenti:

a) A è diagonalizzabile su K;

b) tutti gli autovalori di A sono in K e per ogni autovalore λ ∈ sp(T ), si


ha ma (λ) = mg (λ);

Corollario 9.30. Sia A ∈ Mn×n (K). Se A ha n autovalori in K distinti


allora A è diagonalizzabile.

Dimostrazione. Siano λ1 , . . . , λn ∈ K autovalori distinti di A. Poiché il


polinomio caratteristico di A ha grado n, la moleplicità algebrica di ciascuno
autovalore è 1. Quindi anche la molteplicità geometrica di ciascun autovalore
è 1 da cui segue che A è diagonalizzabile e K.

Osservazione 9.31.

a) Una matrice quadrata a coefficienti reali può essere diagonalizzabile su


C ma non su R.

b) Sia A ∈ Mn×n (C). Per il Teorema fondamentale dell’algebra A ha n


autovalori, non necessariamente distinti, complessi. Siano λ1 , . . . , λk ∈
C gli autovalori distinti di A. Allora
k
X
ma (λi ) = n.
i=1

165
c) Sia A ∈ Mn×n (R) e sia pA (t) il suo polinomio caratteristico e sia
λ ∈ C un autovalore complesso. Allora anche λ è una radice di pA (t).
Quindi il numero delle radici complesse di un polinomio a coefficienti
reali è pari. Infatti, poiché pA (t) è un polinomio a coefficienti reali, si
ha pA (t) = pA (t) da cui segue

pA (λ) = pA (λ) = 0.

d) Sia A ∈ Mn×n (C). La matrice A ha esattamente n autovalori, non


necessariamente distinti, che indicheremo con λ1 , . . . , λn . Si può di-
mostrare che

det(A) = λ1 · · · λn Tr(A) = λ1 + · · · + λn .

9.32 Metodi di calcolo


Sia A ∈ Mn×n (K). Se λ ∈ K è un autovalore, allora

Vλ = Sol(A − λIdn |0Kn )

Indichiamo con Bλ una base di Vλ . Se λ1 , · · · , λs ∈ K sono autovalori di A


distinti allora si può dimostrare che

Bλ1 ∪ · · · ∪ Bλs ,

sono vettori linearmente indipendenti.


Vediamo quali sono i passi per stabilire se una matrice quadrata A ∈
Mn×n (K) è diagonalizzabile su K ed in caso affermatico come determinare
una matrice invertibile P e una matrice diagonale D tale che P −1 AP = D.

• Gli autovalori della matrice A sono le radici del polinomio caratteri-


stico pA (t) = det(A − tIdn ). Se tutte le radici del polinomio caratteri-
stico appartengono a K, allora continuo. Altrimenti la matrice A non
è diagonalizzabile.

• Sia λ ∈ K un autovalore. Allora Vλ = Sol(A − λIdn |0Kn ) e mg (λ) =


dim Vλ = n − rg(A − λIdn ). Ricordiamo che la molteplicità alge-
brica di λ è il numero di volte che λ è radice. Inoltre mg (λ) ≤
ma (λ). Se ma (λ) = mg (λ) per ogni autovalore λ allora la matrice
è diagonalizzabile. Altrimenti no.

166
Supponiamo che A sia diagonalizzabile. Siano λ1 , . . . , λs ∈ K autovalori
distinti di A. Allora

B = Bλ1 ∪ · · · ∪ Bλs = (v1 , . . . , vn )

è una base di Kn formata da autovettori di A. Quindi la matrice P =


(v1 , . . . , vn ), i.e., la matrice le cui colonne sono i vettori v1 , . . . , vn , è una
matrice invertibile. Da adesso in poi indicheremo con µi l’autovalore cor-
rispondente all’autovettore vi . Quindi µi può essere uguale a µj anche se
i 6= j. Affermiamo che
 
µ1
P −1 AP = D = 
 .. 
. 
µn

Per provare che le due matrici sono uguali, dimostreremo che le due matrici
hanno le stesse colonne.
Siano e1 , . . . , en la base canonica di Kn . Ricordiamo che la i-esima
colanna della matrice P −1 AP è

(P −1 AP )i = P −1 AP ei ,

per i = 1, . . . , n.
Per definizione di P si ha P ei = vi per i = 1, . . . , n. Moltiplicando a
destra e sinistra per P −1 , si ha P −1 vi = ei per i = 1, . . . , n. Quindi

(P −1 AP )i = P −1 AP ei
= P −1 Avi
= µi P −1 vi
= µi ei ,

ovvero P −1 AP = D.

Esempio 9.33. Sia  


0 −2 1
A =  2 −5 2  .
−1 2 −2
 
−t −2 1
pA (t) = det(A − tId3 ) = det  2 −5 − t 2  = −(t + 5)(t + 1)2 .
−1 2 −2 − t

167
Gli autovalori di A sono −5 con molteplicità algebrica uno, e quindi anche
la molteplicità geometrica è 1, e −1 con molteplicità algebrica due. Poiché
 
1 −2 1
A + Id3 =  2 −4 2 
−1 2 −1
La molteplicità geometrica dell’autovalore 1 è
mg (−1) = 3 − rg(A + Id3 ) = 2
e quindi A è diagonalizzabile. Una base per l’autospazio relativo a −5 è
 
1
V−5 = Sol(A + 5Id|0R3 ) = L  2 
−1
mentre    
2 1
V−1 = Sol(A + Id3 |0R3 ) = L  1  ,  0  .
0 −1
   
2 1 1 −1 0 0
Quindi se P =  1 0 2  eD=  0 −1 0 , allora si ha
0 −1 −1 0 0 −5
P −1 AP = D.
Esempio 9.34. Sia  
1 −1 0
A =  −1 0 −1  .
0 1 1
Il polinomio caratteristico di A è
pA (t) = det(A − tId3 )
 
1 − t −1 0
= det  −1 −t −1 
0 1 1−t
= (1 − t)(t2 + t + 1) + (t − 1) = −t(t − 1)2 ,
e quindi gli autovalori di A sono 0 con molteplicità algebrica uno e 1 con
molteplicità algebrica due. Poiché
 
0 −1 0
A − Id3 =  −1 −1 −1  ,
0 1 0

168
si ha
mg (1) = 3 − rg(A − Id3 ) = 1,
ovvero la molteplicità geometrica dell’autovalore 1 è uno e quindi A non è
diagonalizzabile. Una base per l’autospazio relativo a 0 è
 
1
V0 = Sol(A|0R3 ) = L  1 
−1
mentre  
1
V1 = Sol(A − Id3 |0R3 ) = L  0  .
−1
Esempio 9.35. Sia  
−2 −1 3
A =  −5 −2 5  .
−4 −2 5
 
−2 − t −1 3
pA (t) = det  −5 −2 − t 5  = (1 − t)(t2 + 1)
−4 −2 5−t
Gli autovalori di A sono 0 con molteplicità algebrica uno e gli autovalori
i, −i con molteplicità algebrica uno rispettivamente. Quindi A non è diago-
nalizzabile su R ma è diagonalizzabile su C. Gli autospazi della matrice A,
pensata come matrice a coefficienti complessi, sono:
 
1
V1 = Sol(A − Id3 |0R3 ) = L  0  ,
1
 
−i
Vi = Sol(A − iId3 |0R3 ) = L  2 − i  .
1−i
 
i
V−i = Sol(A + iId3 |0R3 ) = L  2 + i  .
1+i
Se indichiamo con
   
1 −i i 1 0 0
P =  0 2 − i 2 + i , D =  0 i 0 ,
1 1−i 1+i 0 0 −i

169
si ha
P −1 AP = D.

Sia T : V −→ V e sia B una base di V . La matrice MB,B (T ) è l’unica


matrice n × n tale che

[T (v)]B = MB,B (T )[v]B .

• pT (t) = pMB,B (T ) (t). Quindi λ ∈ K è un autovalore di T se e solamente


se λ ∈ K è un autovalore di MB,B (T ). Inoltre la molteplicità algebrica
di λ come autovalore di T coincide con la molteplicità algebrica di λ
come autovalore di MB,B (T ).

• v è autovettore relativo all’autovalore λ di T se e solamente se T (v) =


λv se e solamente se [T (v)]B = λ[v]B . Poiché [T (v)]B = MB,B (T )[v]B
si ha v è autovalore di T relativo a λ se e solamente se [v]B è un
autovettore di MB,B (T ) relativo all’autovalore λ. Infine la moltepli-
cità geometrica di λ come autovalore di T coincide con la molteplicità
geometrica di λ come autovalore di MB,B (T ).

• Per i punti precedenti T è un endomorfismo diagonalizzabile se e


solamente se MB,B (T ) è diagonalizzabile.

Se MB,B (T ) è diagonalizzabile, allora per i punti precedenti siamo in grado di


determinare una base C = {w1 , . . . , wn } formata da autovettori di MB,B (T ).
Se    
a11 a1n
w1 =  ...  , . . . , wn =  ...  ,
   

an1 ann
allora una base di V formata da autovettori di T è
 −1
FB (w1 ) =, . . . , FB−1 (wn ) = {a11 v1 + · · · + an1 vn , . . . , a1n v1 + · · · + ann vn } .

Esempio 9.36. Sia T : R3 −→ R3 l’applicazione lineare definita da:


           
1 0 1 −1 0 −1
T  0  =  −2  , T  1  =  −3  , T  −1  =  −3  .
1 2 1 3 1 −4

Nell’esempio 9.25 abbiamo dimostrato che T è diagonalizzabile. Adesso,


vogliamo calcolare una base di R3 formata da autovettori di T seguendo i due
metodi sviluppati nell’esempio citato. Ricordiamo che T ha due autovalori:

170
1 con molteplicità algebrica e geometrica due e 2 con molteplicità algebrica
e geometrica uno. Sia C la base canonica e sia B la base su cui è definita T .
I metodo. Poiché

(T − 2IdR3 )X = MC,C (T − 2IdR3 )X = (MC,C (T ) − 2Id3 )X,

rispettivamente

(T − IdR3 )X = MC,C (T − IdR3 )X = (MC,C (T ) − Id3 )X,

si ha
V2 = Sol(MC,C (T ) − 2Id3 |0R3 )
 
0 −1 −2 0
= Sol  2 −3 −4 0 
−1 1 1 0
 
1
= L  2  ,
−1

rispettivamente

V1 = Sol(MC,C (T ) − Id3 |0R3 )


 
1 −1 −2 0
= Sol  2 −2 −4 0 
−1 1 2 0
   
1 0
= L  1  ,  2  .
0 −1

Quindi      
 1 0 1 
 1 , 2 , 2 
0 −1 −1
 

formano una base di R3 formata da autovettori di T .


II metodo. Ricordiamo che
[(T − IdR3 )(X)]B = MB,B (T − IdR3 )[X]B
= MB,B (T ) − Id3 )[X]B .

171
Primo passo, calcoliamo gli autospazi della matrice MB,B (T ).
 
−1 −2 −1 0
Sol(MB,B (T ) − Id3 |0R3 ) = Sol  0 0 0 0 
2 4 2 0
   
1 1
= L  0  ,  −1 
−1 1

e quindi
         
1 0 1 1 0
V1 = L  0  −  −1  ,  0  −  1  +  −1 
1 1 1 1 1
   
1 0
= L  1  ,  −2  .
0 1

Analogamente
 
−2 −2 −1 0
Sol(MB,B (T ) − 2Id3 |0R3 ) = Sol  0 −1 0 0 
2 4 1 0
 
1
=L   0  ,
−2

da cui segue
   
1 0
V2 = L  0  − 2  −1 
1 1
 
1
=L   2 
−1

Riassumendo,      
 1 0 1 
B 0 =  1  ,  −2  ,  2 
0 1 −1
 

172
è una base di R3 formata da autovettori di T e
 
1 0 0
MB0 ,B0 (T ) =  0 1 0 .
0 0 2

formano una base di R3 formata da autovettori di T

9.37 Teorema spettrale


In questa sezione dimostreremo che una matrice simmetrica, a coefficienti
reali, è sempre diagonalizzabile su R. In dettaglio, proveremo che esiste una
base ortonormale di Rn formata da autovettori di A. Il primo lemma prova
che gli autovalori di una matrice simmetrica sono numeri reali.
Lemma 9.38. Gli autovalori di una matrice A ∈ Mn×n (R) simmetrica sono
numeri reali.
Dimostrazione. Poiché una matrice reale è anche una matrice complessa, A
induce un endomorfismo LA : Cn −→ Cn cosı̀ definito: LA (X) = AX. Se
C è la base canonica di Cn , allora MC,C (LA ) = A. Quindi gli autovalori
dell’endomorfismo LA sono gli autovalori di A.
Sia h·, ·i il prodotto Hermitiano canonico di Cn . Ricordiamo che

hX, Y i = X T Y .

Affermiamo che per ogni X, Y ∈ Cn , si ha

hAX, Y i = hX, AY i.

Infatti, tenendo in mente che essendo A una matrice a coefficienti reali,


A = A, si ha
hAX, Y i = (AX)T Y
= X T AT Y
= X T AY
= X T AY
= hX, AY i.
Sia X ∈ Cn un autovettore di A relativo all’autovalore λ. Quindi X 6= 0Cn
e AX = λX. Applicando la formula anteriore si ha

hAX, Xi = hX, AXi.

173
Quindi
hAX, Xi = hX, AXi
hλX, Xi = hX, λXi
λhX, Xi = λhX, Xi
Poiché hX, Xi =
6 0 si ha λ = λ, ovvero λ ∈ R.

La seguente proposizione garantisce che autospazi corrispondenti a au-


tovettori distinti sono fra loro ortogonali.

Proposizione 9.39. Sia A una matrice simmetrica di ordine n e siano v e


w autovettori corrispondenti autovalori distinti λ, µ ∈ R. Allora hv, wi = 0.
Quindi Vλ ⊂ Vµ⊥ se λ 6= µ.

Dimostrazione. Sia hX, Y i = X T Y il prodotto scalare canonico di Rn . Se


A è una matrice simmetrica allora vale la seguente formula:

hAX, Y i = hX, AY i.

Infatti
hAX, Y i = (AX)T Y
= X T AT Y
= X T (AY ) essendo A simmetrica)
= hX, AY i.

Siano v, w autovettori di A relativi agli autovalori λ e µ rispettivamente.


Applicando la formula anteriore si ha

hAv, wi = hv, Awi.

Poiché v, rispettivamente w, è un autovettore di A relativo a λ, rispettiva-


mente a µ, si ha
hAv, wi = hv, Awi
hλv, wi = hv, µwi
λhv, wi = µhv, wi
(λ − µ)hv, wi = 0
Poiché λ e µ sono distinti, si ha hv, wi = 0 concludendo la dimostrazione.

Teorema 9.40 (Teorema spettrale). Sia A ∈ Mn×n (R) una matrice sim-
metrica. Allora esiste una matrice ortogonale P tale che P T AP è diagonale.
Ovvero esiste una base ortonormale di Rn formata da autovettori di A.

174
Facoltativa. Per induzione su n. Se n = 1 è vero. Supponiamo di aver
dimostrato il teorema per n e proviamolo per n + 1. Per il lemma anteriore
una matrice simmetrica ha tutti gli autovalori reali. Sia λ ∈ R un autovalore.
v
Allora esiste v ∈ Rn non nullo tale che Av = λ1 v. Denotiamo con v1 = kvk .
n
Completiamo v1 ad una base ortonormale di R che denotiamo con B =
{v1 , . . . , vn+1 }. Allora
• P = M(C, B) = (v1 , . . . , vn+1 ) è una matrice ortogonale;
 
λ1 0 · · · 0
• P T AP =  ...
 
B 
0
dove B ∈ Mn×n (R) è una matrice simmetrica. Per ipotesi induttiva esiste
una matrice ortogonale Q di ordine n tale che
 
λ2
QT BQ = 
 .. .

.
λn+1
 
1 0 ··· 0
Sia Q̃ =  ...  ∈ Mn+1×n+1 (R). Q̃ è una matrice ortogonale
 
Q
0
da cui segue che anche P Q̃ è una matrice ortogonale. Inoltre
 
λ1
(P Q̃)T A(P Q̃) = 
 ..  = D.

.
λn+1

Quindi la base C = {w1 , . . . , wn+1 } dove wi = (P Q̃)i per i = 1, . . . , n + 1 è


una base ortonormale formata da autovettori di A.

Corollario 9.41. Sia A ∈ Mn×n (R). A è simmetrica se e solamente se


esiste una matrice ortogonale P tale che P T AP è una matrice diagonale.
Dimostrazione. Una direzione è il teorema spettrale. Viceversa se P T AP =
D matrice diagonale, con P ortogonale, allora
A = P DP T
e quindi
AT = (P DP T )T = P DT P T = P DP T = A
ovvero A = AT come si voleva dimostrare.

175
Osservazione 9.42. Eistono matrici A ∈ Mn×n (C) tali che A = AT non
diagonalizzabile. Infatti  
1 i
A= .
i −1
verifica A = AT . pA (t) = t2 quindi ha un autovalore λ = 0 con molteplicità
algebrica 2 e geometrica 1 da cui segue che A non è diagonalizzabile. Quindi
il Teorema spettrale non vale per matrici complesse.

9.43 Metodi di calcolo


Sia A ∈ Mn×n (R) una matrice simmetrica. Il teorema spettrale garanti-
sce che A è diagonalizzabile. Vediamo come calcolare una matrice ortogonale
P e una matrice diagonale D tale che P T AP = D.
Poiché A è diagonalizzabile possiamo calcolare una base B = {v1 , . . . , vn }
di Rn formata da autovettori di A come nella sezione 9.32. Se indichiamo
con Q = (v1 , . . . , vn ), allora Q−1 AQ = D è diagonale. La matrice Q non
è, in generale, ortogonale. Per ottenere un matrice ortogonale possiamo
utlizzare il Procedimento di Gram-Schimdt. Infatti, se applichiamo il pro-
cedimento di Gram-Schimdt alla base B = {v1 , . . . , vn }, ottengo una base
ortogonale C = {w1 , . . . , wn } di Rn . Infine,
n dividendo
o ciascun vettore per
0 w1 wn
la sua norma, ottengo una base C = kw1 k , . . . , kwn k ortonormale di Rn .
Poiché autovettori di A corrispondenti ad autovalori distinti sono fra loro
ortogonali, la base C 0 è ancora una base formata da autovettori di A. Se
la matrice A fosse diagonalizzabile ma non fosse simmetrica i vettori della
base C 0 non sarebbero più autovettori di A.
w1 wn
Sia P = ( kw 1k
, . . . , kwnk
). P è una matrice ortogonale poiché le colonne
formano una base ortonormale di autovettori di A. Infine, tenendo in mente
che P −1 = P T , si ha P T AP = D dove D è la stessa matrice diagonale
ottenuta in precedenza. (Perché?)

Esempio 9.44. Sia  


2 1 1
A =  1 2 1 .
1 1 2
 
2−t 1 1
pA (t) = det(A − tId3 ) = det  1 2−t 1  = −(t − 4)(t − 1)2 .
1 1 2−t

176
Gli autovalori di A sono 4 con molteplicità algebrica uno e 1 con molteplicità
algebrica due. Una base per l’autospazio relativo a 1 è
   
1 0
V1 = Sol(A − Id|0R3 ) = L  −1  ,  1 
0 −1

mentre 
1
V4 = Sol(A − 4Id3 |0R3 ) = L  1  .
1
   
1 0 1 1 0 0
Quindi se P =  −1 1 1  e D =  0 1 0 , allora
0 −1 1 0 0 4

P −1 AP = D.

La matrice P NON E’ ORTOGONALE. Per ottenere una matrice ortogonale


U tale che U T AU = D, posso applicare il procedimento di Gram-Schimdt
alla base
           
 1 0 1   1 1/2 1 
 −1  ,  1  ,  1   −1  ,  1/2  ,  1 
0 −1 1 0 −1 1
   

e poi dividiamo ciascun vettore per la sua norma


 √   √   √ 
 1/ √2 1/√6 1/√3 
 −1/ 2  ,  1/ 6  ,  1/ 3  .
√ √
0 −2/ 6 1/ 3
 

La matrice  √ √ √ 
1/ √2 1/√6 1/√3
U =  −1/ 2 1/ √6 1/√3 
0 −2/ 6 1/ 3
è ortogonale, le colonne formano una base ortonormale di autovettori di A
e verifica
U T AU = D.

177
Capitolo 10

Matrici ortogonali

10.1 Proprietà delle matrici ortogonali


Sia A ∈ Mn×n (R). Sia h·, ·i il prodotto scalare canonico di Rn .

Proposizione 10.2. A è ortogonale se e solamente se per ogni X, Y ∈ Rn


si ha hAX, AY i = hX, Y i.

Facoltativa. Supponiamo che A sia ortogonale e siano X, Y ∈ Rn . Allora

hAX, AY i = (AX)T AY = X T AT AY = X T Y = hX, Y i.

Viceversa, sia C = {e1 , . . . , en } la base canonica. Poiché Aei = Ai , i.e., la


i-esmia colonna si ha

hAei , Aej i = hAi , Aj i = hei , ej i

per ogni 1 ≤ i ≤ j ≤ n. Quindi A1 , . . . , An formano una base ortonormale


ovvero A è ortogonale.

Corollario 10.3. Sia A ∈ Mn×n (R) una matrice ortogonale. Allora l’en-
domorfimo LA : Rn −→ Rn preserva la lunghezza di un vettore, l’angolo fra
due vettori non nulli e infine la distanza fra due vettori.

Facoltativa. Siano X, Y ∈ Rn . Poiché

hLA (X), LA (Y )i = hAX, AY i = hX, Y i,

si ha k LA (X) k=k X k ed

hLA (X)−LA (Y ), LA (X)−LA (Y )i = hLA (X−Y ), LA (X−Y )i = hX−Y, X−Y i.

178
Poiché la distanza fra X e Y è per definizione d(X, Y ) =k X − Y k, si ha
che LA preserva la distanza.
Siano X e Y vettori non nulli. Allora
hLA (X), LA (Y )i hX, Y i
= ,
k LA (X) kk LA (Y ) k k X kk Y k

i.e., LA preserva l’angolo fra due vettori.

Le matrici ortogonali non sono in generale diagonalizzabili su R. Infatti,


sia  
0 −1
A= .
1 0
Il polinomio caratteristi di A è t2 + 1 che non ammette radici su R. Gli
autovalori reali di una matrice ortogonale, se esistono, sono ±1.

Proposizione 10.4. Sia A un matrice ortogonale e sia λ ∈ C un autovalore.


Allora |λ| = 1. In particolare se λ ∈ R, allora λ = ±1.

Facoltativa. Sia LA : Cn −→ Cn . Gli autovalori di A sono gli autovalori di


LA . Affermiamo che per ogni Z, W ∈ Cn si ha

hAZ, AW i = hZ, W i,

dove h·, ·i è il prodotto Hermitiano canonico. Infatti

hAZ, AW i = (AZ)T AW = Z T AT AW = Z T W = hZ, W i.

Sia λ ∈ C autovalore e sia Z 6= 0 autovettore relativo a λ. Allora

hAZ, AZi = hλZ, λZi = |λ|2 hZ, Zi.

Per la formula anteriore si ha

hAZ, AZi = hZ, Zi,

ovvero
|λ|2 hZ, Zi = hZ, Zi.
6 0, si ha |λ|2 = 1.
Poiché hZ, Zi =

Una conseguenza del risultato anteriore è che il determinante di una


matrice ortogonale è ±1, cosa che avevamo già dimostrato utilizzando la
formula di Binet.

179
Corollario 10.5. Sia A una matrice ortogonale. Allora det(A) = ±1.

Facoltativa. Poiché A è una matrice a coefficienti reali, se λ ∈ C è autovalore,


allora anche λ è autovalore di A. Poiché A è ortogonale. allora λλ =
1. Tenendo i mente che det(A) è il prodotto dei suoi autovalori e che gli
autovalori reali possono essere ±1, si ha che det(A) = ±1.

Definizione 10.6. Sia W ⊂ Rn un sottospazio vettoriale e sia A ∈ Mn×n (R).


Diremo che W è A-invariante se per ogni w ∈ W si ha Aw ∈ W .

È facile verificare che se A è invertibile, allora W è un sottospazio di Rn


A-invariante se e solamente se W è A−1 -invariante. Se A è ortogonale vale
la seguente proposizione.

Proposizione 10.7. Sia A una matrice ortogonale e sia Sia W ⊂ Rn un


sottospazio A-invariante. Allora W ⊥ è A-invariante.

Facoltativa. Sia Z ∈ W ⊥ . Vogliamo dimostrare che AZ ∈ W ⊥ , ovvero


hAZ, wi = 0 per ogni w ∈ W . Poiché AT è un isometria si ha

hAZ, wi = hAT AZ, AT wi = hZ, AT wi = 0,

dove l’ultima uguaglianza segue dal fatto che essendo AT = A−1 , W è AT


invariante. Riassumendo, abbiamo provato che W ⊥ è A-invariante.

10.8 Riflessioni e rotazioni del piano


Sia LA : R2 −→ R2 con A matrice ortogonale. Se
 
a b
A= ,
c d

dall’equazione AT A = Id2 , ne segue che


 2
 a + c2 = 1
ab + cd = 0
 2
b + d2 = 1

Quindi esistono θ, ψ ∈ [0, 2π] tale che

a = cos θ c = sin θ
.
b = cos ψ d = sin ψ

180
Inoltre dalla secondo equazione si deduce che cos θ cos ψ + sin θ sin ψ =
cos(ψ − θ) = 0, ovvero
π
ψ = θ + + kπ.
2
Se k è pari allora cos ψ = cos(θ + 2 ) = − sin(θ) e sin ψ = sin(θ + π2 ) = cos(θ),
π

ovvero  
cos θ − sin θ
A= ,
sin θ cos θ

e det(A) = 1. Se invece k è dispari, allora cos ψ = cos(θ + 2 ) = sin(θ) e
sin ψ = sin(θ + 3π
2 ) = − cos(θ), ovvero
 
cos θ sin θ
A= ,
sin θ − cos θ

e quindi A è simmetrica e det(A) = −1. Riassumendo, abbiamo dimostrato


che se A è una matrice ortogonale di formato due per due con det(A) = 1,
allora esiste θ ∈ R tale che
 
cos θ − sin θ
A=
sin θ cos θ

Se invece, det(A) = −1, allora esiste θ ∈ R tale che


 
cos θ sin θ
A= ,
sin θ − cos θ

Adesso vogliamo studiare l’endomorfismo associato a A, ovvero LA :


R2 −→ R2 . Se det(A) = −1, allora
 
cos θ sin θ
A= ,
sin θ − cos θ

per un certo θ ∈ [0, 2π]. A è simmetrica, quindi diagonalizzabile, e gli


autovalori di A sono sono le radici del polinomio pA (t) = t2 − 1, cioé 1, −1.
L’autospazio relativo all’autovalore 1 sono le soluzione del sistema lineare
omogeneo:  
cos θ − 1 sin θ
.
sin θ − cos θ − 1
Poiché dim V1 = 1 basta risolvere una delle due equazione, per esempio:

(cos θ − 1)x + (sin θ)y = 0.

181
Tenendo in mente che cos θ − 1 = −2 sin2 ( 2θ ) e sin θ = 2 sin 2θ cos 2θ , l’equa-
zione diventa
θ θ θ
−2 sin2 x + 2 sin cos y = 0,
2 2 2
e quindi
cos 2θ 
 
V1 = L .
sin 2θ
Poiché V−1 = V1⊥ , si ha
− sin 2θ 
 
V−1 = L .
cos 2θ

cos 2θ − sin 2θ
   
La base B = θ , è una base ortonormale formata da
sin 2 cos 2θ
autovettori di A. Quindi
 
1 0
MB,B (LA ) = ,
0 −1
i.e., LA è la riflessione rispetto alla retta passante per l’origine e che ha
cos 2θ

. come vettore direttore.
sin 2θ

θ
2
x

Se det(A) = 1, allora  
cos θ − sin θ
A=
sin θ cos θ
per un certo θ ∈ [0, 2π]. Poiché pA (t) = t2 − 2 cos θ + 1, LA non è diagona-
lizzabile se θ 6= 0, −π, che corrispondono a Id2 e −Id2 . Vogliamo dimostrare
che LA è un rotazione di angole θ. È facile verificare che
hAe1 , e1 i = hAe2 , e2 i = cos θ,

182
 
x
dove h·, ·i è il prodotto scalare standard di R2 . Quindi, se v = =
y
xe1 + ye2 ∈ R3 , si ha

hAv, vi = x2 hAe1 , e1 i + xyhAe1 , e2 i + xyhAe2 , e1 i + y 2 hAe2 , e2 i


= (x2 + y 2 ) cos θ + xy sin θ − xy sin θ
=k v k2 cos θ.

Quindi
hAv, vi
= cos θ,
k v kk Av k
ovvero l’endomorfismo LA è una rotazione attorno all’origine di angolo θ.

θ
x

Proposizione 10.9. Sia A ∈ M2×2 (R) una matrice ortogonale e sia LA


l’applicazione lineare indotta. LA è una rotazione se e solamente se det(A) =
1; LA è una riflessione se e solamente se det(A) = −1.

Corollario 10.10. La composizione di due rotazioni è ancora una rotazione;


la composizione di due riflessioni è una rotazione; la composizione di una
rotazione ed una riflessione è una riflessione.

Dimostrazione. Noi sappiamo che LA ◦ LB = LAB e che per il teorema


di Binet det(AB) = det(A) det(B). Dalla discussione precedente segue la
tesi.

183

Potrebbero piacerti anche