Sei sulla pagina 1di 41

Appendice - Elementi di algebra lineare 1

Appendice Elementi di algebra lineare


Indice
1 Vettori geometrici 2
1.1 Vettori geometrici nello spazio . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Prodotto scalare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3 Rette e piani nello spazio . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Prodotto misto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.6 Vettori geometrici nel piano . . . . . . . . . . . . . . . . . . . . . . . . . 8
2 Spazi vettoriali 9
2.1 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Norma e distanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4 Spazi vettoriali su R dotati di prodotto scalare . . . . . . . . . . . . . . . 14
3 Applicazioni lineari e matrici 15
3.1 Applicazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Prodotto di due matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4 Sistemi lineari 23
4.1 Matrici e sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2 Determinante e sistemi lineari n n . . . . . . . . . . . . . . . . . . . . 23
4.2.1 Sistemi lineari 2 2 . . . . . . . . . . . . . . . . . . . . . . . . 24
4.2.2 Sistemi lineari 3 3 . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2.3 Il caso generale . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.3 Rango di una matrice; sistemi lineari m n . . . . . . . . . . . . . . . . 30
5 Autovalori e autovettori 33
5.1 Premessa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.2 Cambiamenti di base; matrici diagonalizzabili . . . . . . . . . . . . . . . 34
5.3 Autovalori e autovettori . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.4 Diagonalizzabilit` a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.5 Teorema spettrale: il caso reale . . . . . . . . . . . . . . . . . . . . . . . 37
5.6 Teorema spettrale: il caso complesso . . . . . . . . . . . . . . . . . . . . 38
5.7 Forme quadratiche in R
n
. . . . . . . . . . . . . . . . . . . . . . . . . . 39
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 2
1 Vettori geometrici
Nellappendice utilizzeremo la rappresentazione cartesiana (ortonormale) degli insiemi
R, R
2
ed R
3
. Richiamiamo qui la sua costruzione limitandoci al caso di
R
3
= R R R = (x, y, z) : x, y, z R.
Si ssano nello spazio un punto O, detto origine, e tre rette a due a due ortogonali che
si intersecano in O, dette assi cartesiani e indicate ciascuna con la copia di R cui si
riferiscono (x per la prima componente, y per la seconda, z per la terza). Su ciascuna di
tali rette si sceglie una orientazione, ovvero si seleziona una semiretta uscente da O e una
semiretta entrante in O; tale scelta si indica con una freccia che punta verso la semiretta
uscente. Le orientazioni sono scelte in modo da formare una terna destrorsa, ovvero tale
che gli assi x, y e z siano orientati nellordine come pollice, indice e medio della mano
Figura 1. Terna destrorsa.
destra (si veda Figura 1). Su ciascuno dei tre assi si ssa la stessa unit` a di misura: in tal
modo a ciascuna componente di un elemento (x
0
, y
0
, z
0
) R
3
` e associato un unico punto
del corrispondente asse, determinato dalla distanza con segno dallorigine: per esempio
ad x
0
` e associato il punto che ha distanza x
0
da O e giace sulla semiretta uscente se
x
0
> 0, sulla semiretta entrante se x
0
< 0.
Fatto ci ` o, un qualunque elemento (x
0
, y
0
, z
0
) R
3
si rappresenta in modo unico come
un punto P dello spazio: indicati con
xy
,
xz
e
yz
i piani contenenti rispettivamente gli
assi x e y, x e z e z e x, si prende il piano parallelo a
yz
e che ha distanza con segno x
0
da
esso, il piano parallelo a
xz
che ha distanza con segno y
0
da esso, e il piano parallelo a

xy
che ha distanza con segno z
0
da esso; questi tre piani si intersecano in un unico punto
y y0
P = (x0, y0, z0)
z
x
x0
z0
Figura 2. Rappresentazione
cartesiana di R
3
.
dello spazio, P, che si identica con il punto (x
0
, y
0
, z
0
) di R
3
(si veda Figura 2).
La rappresentazione cartesiana di R
2
si ottiene con gli stessi argomenti, avendo cura
di scegliere lorientazione dei due assi x ed y congruente con quella di pollice e indice
della mano destra.
1.1 Vettori geometrici nello spazio
Un vettore geometrico nello spazio, v (vettore nel resto del paragrafo), ` e una coppia
(jvj, r), dove jvj ` e un numero reale non negativo e r ` e una semiretta uscente da un punto
pressato dello spazio (per esempio lorigine di un riferimento cartesiano): jvj ne deter-
mina la lunghezza, o modulo o norma, la retta che contiene la semiretta r individua la
direzione e la semiretta r il verso del vettore. Due vettori che hanno la stessa direzione si
dicono paralleli; se sono paralleli e le semirette coincidono, si dice che hanno lo stesso
verso, mentre se le semirette non coincidono si dice che hanno verso opposto. Conveni-
amo che tutti i vettori con jvj = 0 coincidano con un unico vettore, il vettore nullo, che
denotiamo con 0. Un vettore che ha jvj = 1 si dice versore. Linsieme di tutti i vettori
dello spazio si indica con V
3
.
Fissato un punto P
0
dello spazio (il punto di applicazione), un vettore v pu` o essere
rappresentato in modo unico come un segmento orientato,

P
0
P: si trasla la semiretta r in
P0
P
r
v
y
x
z
Figura 3. Rappresentazione
di v rispetto a P
0
.
modo che sia uscente da P
0
, e si prende su di essa il segmento P
0
P di lunghezza jvj. Il
segmento orientato

P
0
P si dice rappresentazione di v rispetto a P
0
; la freccia in Figura 3
indica quindi lordinamento dei punti P
0
e P.
Il concetto di vettore ha unenormit` a di applicazioni (si vedano fra laltro i capitoli 12 e
15), poich e consente di caratterizzare oggetti non solo per mezzo di una quantit` a (velocit` a,
accelerazione) ma anche di una direzione e di un verso. Ad esempio, si pu` o pensare alla
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 3
rappresentazione

P
0
P di un vettore v come al descrittore di una forza applicata nel punto
P
0
: in questo caso jvj ne specica lintensit` a, la retta su cui giace il segmento P
0
P ne
indica la direzione e lordinamento di P
0
e P (da P
0
a P) ne ssa il verso.
Per denire loperazione di addizione tra due vettori conviene utilizzare la loro rappre- Addizione
sentazione rispetto a un punto. Sia quindi

OP
1
la rappresentazione del vettore v
1
rispetto
a O e

P
1
P
2
la rapresentazione del vettore v
2
rispetto a P
1
; la somma v = v
1
+ v
2
` e quel
vettore v = v
1
+ v
2
la cui rappresentazione rispetto a O ` e

OP
2
. Questa nozione codi-
ca la ben nota regola del parallelogramma illustrata in Figura 4, e di conseguenza non
dipende dalla scelta del punto di applicazione O.
v
1
P
2
O
v
2
v
1
+v
2
P
1
v
2 v
v
O
O
O
Figura 4. Somma di due vettori. Figura 5. Prodotto di un vettore per
uno scalare.
Si verica con argomenti geometrici elementari che:
(i) vale la propriet` a commutativa, ovvero v
1
+ v
2
= v
2
+ v
1
;
(ii) vale la propriet` a associativa, ovvero (v
1
+ v
2
) + v
3
= v
1
+ (v
2
+ v
3
);
(iii) il vettore 0 ` e lelemento neutro, ovvero 0 + v = v + 0 = v;
(iv) per ogni vettore v esiste lopposto, (v), tale che v + (v) = 0; si tratta del vettore
che ha lunghezza e direzione uguali a v, ma verso opposto.
La moltiplicazione di un vettore per un numero reale generalizza la nozione di vettore Moltiplicazione per
un numero reale
opposto: dato un vettore v e un numero reale , il prodotto v ` e quel vettore che ha
lunghezza jvj, direzione uguale a v e stesso verso se > 0, verso opposto se < 0
(si veda Figura 5). In particolare, se = 1 si ritrova lopposto di v. Il prodotto per un
numero reale soddisfa le seguenti propriet` a, anchesse geometricamente elementari:
(v)
1
(
2
v) = (
1

2
)v;
(vi) (
1
+
2
)v =
1
v +
2
v;
(vii) 1 v = v.
Lultima propriet` a essenziale collega le due operazioni:
(viii) (v
1
+ v
2
) = v
1
+ v
2
.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 4
Pensando alla rappresentazione di vettori come segmenti orientati, ` e del tutto naturale
passare alla rappresentazione cartesiana. Ovviamente conviene scegliere lorigine O =
(0, 0, 0) come punto di applicazione: in questo modo, ogni punto P R
3
individua un
unico vettore v di rappresentazione

OP. Le coordiante cartesiane (x, y, z) del punto P si
dicono componenti scalari del vettore v (si veda Figura 6):
v
y
x
z
P
Figura 6. Rappresentazione
cartesiana di v.
identichiamo il vettore v di rappresentazione

OP
con il punto P = (x, y, z) R
3
e scriviamo v = (x, y, z).
Abbiamo cos` identicato R
3
con linsieme dei vettori geometrici nello spazio. Da questo
punto in poi non distingueremo pi ` u tra R
3
e V
3
.
Con lidenticazione precedente, le operazioni di addizione e moltiplicazione as-
sumono una forma analitica molto semplice (si vedano le gure 7 e 8):
v
i
= (x
i
, y
i
, z
i
) v
1
+ v
2
= (x
1
+ x
2
, y
1
+ y
2
, z
1
+ z
2
),
v = (x, y, z) v = (x, y, z).
x
2 x
1
x
1
+ x
2
y
1
y
2
y
1
+ y
2 y
x
x
y
Figura 7. Somma di v
1
= (x
1
, y
1
, 0) e
v
2
= (x
2
, y
2
, 0).
Figura 8. Prodotto v, con v= (x, y, 0)
e < 0.
Altrettanto semplice ` e esprimere il modulo di un vettore: poich e il riferimento carte-
siano ` e ortonormale, per il Teorema di Pitagora
v = (x, y, z) jvj =
_
x
2
+ y
2
+ z
2
.
Il prossimo passo ` e il punto di partenza per le generalizzazioni che aronteremo in Rappresentazione
analitica di vettori
seguito. Individuiamo tre versori particolari, la cui rappresentazione rispetto a O ` e
e
1
= (1, 0, 0), e
2
= (0, 1, 0) ed e
3
= (0, 0, 1),
e osserviamo che per la propriet` a delladdizione e della moltiplicazione per uno scalare
v = (x, y, z) v = xe
1
+ ye
2
+ ze
3
.
La scrittura a destra ` e intrinseca, ovvero non contiene coordinate cartesiane ma solo
vettori. In conclusione, ogni vettore geometrico nello spazio si lascia rappresentare in
modo unico da una combinazione lineare dei tre versori e
1
, e
2
e e
3
, che si chiamano base
canonica di R
3
e di V
3
.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 5
1.2 Prodotto scalare
Siano v e w due vettori non nulli e sia vw langolo formato dalle rispettive semirette r
v
ed
r
w
(in questo ordine). Il prodotto scalare (v, w) ` e denito da
(v, w) = jvj jwj cos( vw).
Se invece v = 0 o w = 0 si denisce (v, w) = 0. Il prodotto scalare v e w si indica anche
con il simbolo v w. Segue immediatamente dalla denizione che
v e w sono paralleli (v, w) = jvj jwj,
v e w sono ortogonali (v, w) = 0
(1)
(conveniamo che 0 ` e sia parallelo che ortogonale a ogni vettore). In particolare,
(e
i
, e
j
) =
i j
:=
_
1 se i = j
0 se i j.
(2)
Se jwj = 1, geometricamente il prodotto scalare rappresenta la lunghezza (con segno)
della proiezione ortogonale del vettore v sulla retta (orientata) su cui giace il vettore w;
in tal caso il vettore (v, w)w si dice proiezione ortogonale di v sulla retta su cui giace il
w
v
vw
v cos vw w = 1
Figura 9.
vettore w (si veda Figura 9).
Il prodotto scalare verica le seguenti propriet` a:
(i) propriet` a commutativa: (v, w) = (w, v);
(ii) propriet` a distributiva: (v
1
+ v
2
, w) = (v
1
, w) + (v
2
, w);
(iii) omogeneit` a: (v, w) = (v, w) = (v, w);
(iv) (v, v) 0; inoltre (v, v) = 0 se e solo se v = 0.
La propriet` a (i) segue dal fatto che il coseno ` e una funzione pari e la terza e la quarta
sono immediate. Se jwj = 1, la seconda propriet` a segue osservando che la proiezione
ortogonale della somma di vettori ` e uguale alla somma delle proiezioni ortogonali; se
jwj 1, si utilizza la terza propriet` a (con = jwj) per ricondursi al caso jwj = 1.
Anche il prodotto scalare si traduce in una semplice operazione algebrica utilizzando
la rappresentazione analitica di vettori, che segue immediatamente dalle propriet` a del
prodotto scalare e dalla (2):
v = v
1
e
1
+ v
2
e
2
+ v
3
e
3
w = w
1
e
1
+ w
2
e
2
+ w
3
e
3
_
(v, w) = v
1
w
1
+ v
2
w
2
+ v
3
w
3
.
Utilizzando questa rappresentazione si verica facilmente (elevando al quadrato e svol-
gendo i calcoli) che
jvj jwj = (v, w) (v
1
w
2
v
2
w
1
)
2
+ (v
1
w
3
v
3
w
1
)
2
+ (v
2
w
3
v
3
w
2
)
2
= 0. (3)
Dalle (1) e (3) segue una propriet` a geometricamente piuttosto ovvia:
v e w sono paralleli R : v = w oppure w = v. (4)
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 6
1.3 Rette e piani nello spazio
Sia x
0
= (x
0
, y
0
, z
0
) un punto di R
3
e sia v = (v
1
, v
2
, v
3
) un vettore non nullo. La retta r Rette nello spazio
passante per x
0
parallela a v ` e linsieme dei punti che si ottengono aggiungendo a x
0
y
z
x
x0
v
Figura 10. Retta passante
per x
0
parallela a v.
un multiplo di v (si veda Figura 10):
r = x R
3
: x = x
0
+ tv, t R.
Si noti come in questo caso lidenticazione di V
3
ed R
3
semplichi i concetti e la scrit-
tura. Scrivendo tale relazione in componenti, si ottiene lequazione parametrica della
retta:
_

_
x = x
0
+ tv
1
y = y
0
+ tv
2
z = z
0
+ tv
3
t R.
Si noti che, se v
i
0 per i = 1, 2, 3, si pu` o scrivere
t =
x x
0
v
1
=
y y
0
v
2
=
z z
0
v
3
da cui segue lequazione cartesiana della retta:
x x
0
v
1
=
y y
0
v
2
=
z z
0
v
3
.
Naturalmente, questa espressione si modica se una o due delle componenti di v sono
nulle. Per esempio, se v
3
= 0 ma v
1
0 e v
2
0, allora lequazione cartesiana diviene
z = z
0
,
x x
0
v
1
=
y y
0
v
2
.
In particolare, ponendo z
0
= 0 si ottiene lequazione della retta nel piano.
Se invece di un punto e un vettore sono assegnati due punti diversi, x
0
e x
1
= (x
1
, y
1
, z
1
),
per ottenere le equazioni della retta passante per questi due punti ci si riconduce al caso
precedente prendendo v = x
1
x
0
= (x
1
x
0
, y
1
y
0
, z
1
z
0
).
Sia x
0
un punto di R
3
e siano v = (v
1
, v
2
, v
3
) e w = (w
1
, w
2
, w
3
) due vettori non nulli
e non paralleli. Il piano passante per x
0
parallelo a v e w ` e linsieme dei punti che si
ottengono aggiungendo a x
0
un multiplo di v e un multiplo di w:
r = x R
3
: x = x
0
+ tv + sw, t, s R.
Scrivendo tale relazione in componenti, si ottiene lequazione parametrica del piano:
_

_
x = x
0
+ tv
1
+ sw
1
y = y
0
+ tv
2
+ sw
2
z = z
0
+ tv
3
+ sw
3
t, s R.
Poich e i vettori v e w sono non nulli e non paralleli, almeno uno dei tre addendi nella (3)
` e diverso da zero; supponiamo che sia il primo. Moltiplicando la prima equazione per w
2
,
la seconda per w
1
e sottraendole, risulta
t =
(x x
0
)w
2
(y y
0
)w
1
v
1
w
2
v
2
w
1
.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 7
Analogamente, moltiplicando la prima equazione per v
2
, la seconda per v
1
e sottraendole,
risulta
s =
(x x
0
)v
2
(y y
0
)v
1
v
2
w
1
v
1
w
2
.
Sostituendo queste due espressioni nella terza equazione, si ottiene lequazione cartesiana
del piano:
(v
2
w
3
v
3
w
2
)(x x
0
) + (v
3
w
1
v
1
w
3
)(y y
0
) + (v
1
w
2
v
2
w
1
)(z z
0
) = 0.
Si noti che questa espressione pu` o essere riscritta in modo compatto come
(n, x x
0
) = 0, dove n = (v
2
w
3
v
3
w
2
, v
3
w
1
v
1
w
3
, v
1
w
2
v
2
w
1
).
In altre parole, i punti del piano per x
0
parallelo ai vettori (non nulli e non paralleli) v e
w sono tutti e soli quelli per i quali il vettore x x
0
` e ortogonale al vettore n. Ci ` o mostra
che un piano ` e equivalentemente individuato da un punto x
0
e un vettore n ortogonale al
piano. In particolare, ovviamente, (n, v) = (n, w) = 0.
1.4 Prodotto vettoriale
Nel paragrafo precedente si ` e individuato, a partire da due vettori non nulli e non paralleli,
un terzo vettore, normale a entrambi. Tale procedura si generalizza ad una operazione tra
vettori, detta prodotto vettoriale. Siano dunque v e w due vettori di componenti
v = (v
1
, v
2
, v
3
), w = (w
1
, w
2
, w
3
).
Il prodotto vettoriale tra v e w ` e il vettore v w denito da
v w := (v
2
w
3
v
3
w
2
, v
3
w
1
v
1
w
3
, v
1
w
2
v
2
w
1
). (5)
Nel paragrafo 4.2.2 vedremo come esprimere la (5) in termini del determinante di unop-
portuna matrice, cosa che ne faciliter` a la memorizzazione.
Si noti che, per la (3), se v = 0 oppure w = 0 oppure v e w sono paralleli e non nulli,
allora v w = 0, e che (per quanto visto nel paragrafo precedente) v w ` e un vettore
ortogonale a v e w, quindi a ogni piano parallelo a v e w:
(v, v w) = (w, v w) = 0.
Il prodotto vettoriale verica le seguenti propriet` a:
(i) propriet` a antisimmetrica: w v = v w;
(ii) propriet` a distributiva: v (w
1
+ w
2
) = v w
1
+ v w
2
;
(iii) omogeneit` a: (v w) = (v) w = v (w) per ogni R.
Inoltre ` e possibile vericare che
jv wj = jvj jwj sin( vw). (6)
Perci ` o jv wj coincide con larea del parallelogramma individuato da v e w, ovvero O
P
Q
v
w
Figura 11.
quello che giace sul piano parallelo a v e w e ha come lati segmenti (orientati) che rapp-
resentano v e w. Infatti, con le notazioni di Figura 11, tale area corrisponde a due volte
quella del triangolo di vertici OPQ, che ha base di lunghezza jvj e altezza di lunghezza
jwj sin( vw).
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 8
1.5 Prodotto misto
Le operazioni di prodotto scalare e prodotto vettoriale possono essere combinate: si
denisce prodotto misto di tre vettori u, v e w lo scalare
(u, v w).
Segue dalle propriet` a del prodotto scalare e vettoriale che
(u, v w) = 0 v e w sono paralleli, oppure u = 0, oppure u ` e complanare a v e w.
Geometricamente, posto =

u v w (langolo tra u e v w), lo scalare v
w
u
Figura 12.
(u, v w) = juj jv wj cos
fornisce il volume del parallelepipedo individuato da u, v e w, ovvero quello che ha come
spigoli i segmenti orientati che rappresentano i tre vettori (si veda Figura 12). Infatti
jv wj rappresenta larea del parallelogramma di lati v e w e juj cos laltezza del
parallelepipedo.
1.6 Vettori geometrici nel piano
Nei paragra precedenti abbiamo considerato linsieme V
3
dei vettori geometrici dello
spazio. In modo del tutto analogo si introduce linsieme V
2
dei vettori geometrici del
piano. In particolare:
(i) V
2
pu` o essere identicato con R
2
tramite il passaggio a coordinate cartesiane: dato
un vettore di rappresentazione v =

OP, se (x, y) sono le coordinate cartesiane di P
si scrive
v = (x, y) = xe
1
+ ye
2
,
dove e
1
= (1, 0) e e
2
= (0, 1) sono i vettori che costituiscono la base canonica di V
2
;
(ii) norma e prodotto scalare: dati v = (v
1
, v
2
) e w = (w
1
, w
2
), si denisce
jvj =
_
v
2
1
+ v
2
2
e (v, w) = jvj jwj cos( vw) = v
1
w
1
+ v
2
w
2
,
(iii) v e w sono paralleli se e solo se v
1
w
2
v
2
w
1
= 0 e ortogonali se e solo se v
1
w
1
+
v
2
w
2
= 0.
Le propriet` a descritte in R
3
continuano a valere in questo caso: possono essere dedotte
direttamente oppure possono essere ottenute dalle considerazioni precedenti osservando
che V
2
pu` o essere identicato con linsieme dei vettori (v
1
, v
2
, 0), un sottoinsieme di V
3
.
Dati un punto x
0
= (x
0
, y
0
) e un vettore non nullo v = (v
1
, v
2
), la retta passante per x
0
parallela a v ` e linsieme r = x
0
+ tv : t R. Osservando che ((v
2
, v
1
), (v
1
, v
2
)) = 0,
il vettore (v
2
, v
1
) ` e ortogonale alla retta e, in analogia con lequazione di un piano nello
spazio, lequazione della retta r diventa
(n, x x
0
) = 0, dove n := (v
2
, v
1
).
Viceversa, la retta di equazione cartesiana ax + by = c ` e ortogonale al vettore (a, b).
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 9
Anche se non ` e possibile introdurre il prodotto vettoriale in V
2
, si pu` o applicare la
(6) a (v
1
, v
2
, 0) e (w
1
, w
2
, 0): osservando che (v
1
, v
2
, 0) (w
1
, w
2
, 0) = (0, 0, v
1
w
2
v
2
w
1
)
segue che
jvj jwj sin( vw) = v
1
w
2
v
2
w
1
se v = (v
1
, v
2
), w = (w
1
, w
2
). (7)
Perci ` o, nel piano, larea del parallelogramma individuato dai vettori v e w vale v
1
w
2

v
2
w
1
.
Luguaglianza (7) pu` o anche essere dimostrata direttamente: poich e, come abbiamo
osservato, n = (v
2
, v
1
) ` e ortogonale a v e poich e jnj = jvj, si ha v
2
w
1
v
1
w
2
= (n, w) =
jvj jwj cos( nw) e il risultato segue osservando che cos( nw) = sin( vw).
2 Spazi vettoriali
2.1 Spazi vettoriali
La nozione di spazio vettoriale generalizza quella elementare dei vettori geometrici. Nel
seguito, K indica il campo dei numeri reali (K = R) o il campo dei numeri complessi
(K = C). Nelle applicazioni del testo, a parte lanalisi di sistemi di equazioni dierenziali
ordinarie a coecienti costanti (si veda il paragrafo 16.3.2), si utilizza solo K = R; il let-
tore che non sia interessato alla nozione di autovalore pu` o perci` o leggere K = R ovunque
nellAppendice.
Denizione 1. Un insieme V si dice spazio vettoriale su K se:
(a) esiste unapplicazione da V V in V, detta addizione e indicata con +, tale che
(i) v
1
+ v
2
= v
2
+ v
1
per ogni v
1
, v
2
V,
(ii) (v
1
+ v
2
) + v
3
= v
1
+ (v
2
+ v
3
) per ogni v
1
, v
2
, v
3
V,
(iii) esiste 0 V, detto elemento neutro delladdizione, tale che 0+v = v+0 = v
per ogni v V,
(iv) per ogni v V esiste (v) V, detto opposto di v tale che v + (v) = 0;
(b) esiste unapplicazione da K V in V, detta moltiplicazione per uno scalare, tale
che
(v)
1
(
2
v) = (
1

2
)v per ogni
1
,
2
K ed ogni v V,
(vi) (
1
+
2
)v =
1
v +
2
v per ogni
1
,
2
K ed ogni v V,
(vii) 1 v = v per ogni v V,
(viii) (v
1
+ v
2
) = v
1
+ v
2
per ogni K ed ogni v
1
, v
2
V.
Gli elementi di uno spazio vettoriale si dicono vettori.
Esempio 1. Lo spazio dei vettori geometrici dello spazio, V
3
, e quello dei vettori geo-
metrici del piano, V
2
, sono spazi vettoriali su R.
Esempio 2. Lo spazio K
n
` e uno spazio vettoriale su K con le seguenti operazioni:
addizione: (x
1
, . . . , x
n
) + (y
1
, . . . , y
n
) = (x
1
+ y
1
, . . . , x
n
+ y
n
)
moltiplicazione per scalari: (x
1
, . . . , x
n
) = (x
1
, . . . , x
n
).
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 10
Esempio 3. Linsieme dei polinomi di grado minore o uguale a n (n N) a coecienti
reali,
P
n
[x, R] =
_

_
n

k=0
a
k
x
k
: a
k
R k = 0, . . . , n
_

_
` e uno spazio vettoriale su R con le usuali operazioni di addizione e moltiplicazione (per
esempio, 2(x
2
1) (x
3
x
2
+ x 3) = x
3
+ 3x
2
x + 1). Allo stesso modo, ` e uno
spazio vettoriale su C linsieme dei polinomi di grado minore o uguale ad n a coecienti
complessi, P
n
[z, C].
Esempio 4. Linsieme di tutti i polinomi a coecienti reali (complessi) ` e uno spazio vet-
toriale su R (rispettivamente su C) con le usuali operazioni di addizione e moltiplicazione
per uno scalare.
Liniseme delle funzioni denite e derivabili innite volte in R, C

(R), ` e uno spazio


vettoriale su R con le usuali operazioni di addizione e moltiplicazione.
Siano v
1
, . . . , v
n
V e
1
, . . . ,
n
K. Il vettore
v =
1
v
1
+ +
n
v
n
si dice combinazione lineare di v
1
, . . . , v
n
.
Esempio 5. Il vettore (1, 3, 1) V
3
` e combinazione lineare dei vettori della base canon-
ica,
(1, 3, 1) = e
1
+ 3e
2
e
3
.
Lo stesso vettore ` e anche combinazione lineare dei vettori (1, 0, 2), (1, 6, 0):
(1, 3, 1) =
1
2
(1, 0, 2) +
1
2
(1, 6, 0).
`
E naturale chiedersi se, dato uno spazio vettoriale V, a partire da un certo insieme
di vettori si possa costruire tutto lo spazio attraverso combinazioni lineari, nonch e
se esistono insiemi minimali che soddisfano questa propriet` a. Iniziamo ssando la
nomencaltura:
Denizione 2. Siano V uno spazio vettoriale su K, n N e B = v
1
, . . . , v
n
V un
sottoinsieme di V.
(i) B si dice sistema di generatori di V se ogni v V ` e combinazione lineare di
v
1
, . . . , v
n
;
(ii) i vettori v
1
, . . . , v
n
si dicono linearmente indipendenti se

1
v
1
+ +
n
v
n
= 0
1
= =
n
= 0,
linearmente dipendenti altrimenti;
(iii) B si dice base (nita) di V se ` e un sistema di generatori i cui elementi sono
linearmente indipendenti.
Vale la seguente caratterizzazione delle basi di uno spazio vettoriale:
Teorema 1. Sia V uno spazio vettoriale su K. I vettori v
1
, . . . v
n
sono una base di V se e
solo se per ogni v V esiste ununica n-upla (
1
, . . . ,
n
) K
n
tale che v =
1
v
1
+ +

n
v
n
. I coecienti
i
si dicono componenti di v rispetto alla base v
1
, . . . , v
n
.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 11
Esempio 6. I vettori e
1
, e
2
e e
3
sono una base di R
3
. La verica ` e ovvia. Pi ` u in generale,
e
1
= (1, 0, . . . , 0), . . . , e
n
= (0, . . . , 0, 1)
costituiscono una base di K
n
, detta base canonica di K
n
.
I polinomi 1, x, x
2
, . . . , x
n
sono una base di P
n
[x, R].
`
E ovvio che siano un sistema di
generatori. Per provare che sono linearmente indipendenti si pu` o ragionare cos`: se

0
+
1
x + +
n
x
n
= 0,
allora scegliendo x = 0 si ottiene
0
=0, da cui
x(
1
+
2
x + +
n
x
n1
) = 0 per ogni x R,
ovvero
1
+
2
x + +
n
x
n1
= 0 per ogni x R, da cui scegliendo di nuovo x = 0 si
ottiene
1
= 0. Ripetendo il ragionamento si conclude che tutti i coecienti sono nulli.
Analogamente, I polinomi 1, z, z
2
, . . . , z
n
sono una base di P
n
[z, C].
Esempio 7. I vettori (1, 1, 0), (0, 1, 0), (0, 1, 1), (1, 0, 1) V sono un sistema di generatori
di V
3
ma non sono linearmente indipendenti. Infatti, dato v = (v
1
, v
2
, v
3
) V
3
, si ha (per
esempio)
v = v
1
(1, 1, 0) + v
3
(0, 1, 1) + (v
2
v
1
v
3
)(0, 1, 0).
Daltra parte (per esempio)
0 = (1, 1, 0) 2(0, 1, 0) + (0, 1, 1) (1, 0, 1).
Esempio 8. I vettori di (1, 1, 0), (0, 1, 0) V
3
sono linearmente indipendenti ma non
formano un sistema di generatori. Infatti

1
(1, 1, 0) +
2
(0, 1, 0) = (
1
,
1
+
2
, 0) = (0, 0, 0)
1
=
2
= 0,
ma non esiste alcuna loro combinazione lineare che generi (0, 0, 1).
Non ` e un caso che, nellesempio precedente due vettori non siano sucienti a generare
V
3
. Vale infatti il seguente risultato:
Teorema 2 (Dimensione di uno spazio vettoriale). Se uno spazio vettoriale V ha una base
costituita da n elementi, ogni altra base ` e costituita dallo stesso numero di elementi. Il
numero n si chiama dimensione di V e si indica con dimV.
Esempio 9. dimV
3
= 3, dimV
2
= 2, dimR
n
= n, dimP
n
[z, C] = dimP
n
[z, C] = n + 1.
Se per ogni n = 1, 2, . . . esistono n vettori linearmente indipendenti in V, allora si
dice che V ` e uno spazio vettoriale di dimensione innita e si scrive dimV = +.
Gli spazi vettoriali trattati nellEsempio 4 sono tutti di dimensione innita; per esempio,
nello spazio vettoriale dei polinomi reali a coecienti reali per ogni n 1 i polinomi 1,
x, x
2
, . . . , x
n
sono linearmente indipendenti.
Gli spazi di dimensione innita rivestono un ruolo essenziale in molti campi della
Matematica, ma non li tratteremo in queste pagine.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 12
2.2 Sottospazi vettoriali
Sia V uno spazio vettoriale su K. Un sottoinsieme W di V si dice sottospazio vettoriale
di V (su K) se ` e esso stesso uno spazio vettoriale.
Esempio 10. Le rette passanti per lorigine sono sottospazi vettoriali di R
3
di dimensione
1; i piani sono sottospazi vettoriali di R
3
di dimensione 2. I polinomi pari di grado minore
o uguale a due sono un sottospazio vettoriale di P
3
[x, R] di dimensione 2 (una base ` e
costituita dai polinomi 1 e x
2
).
Dato un insieme di vettori v
1
, . . . , v
k
di V, linsieme delle loro combinazioni lineari
forma un sottospazio vettoriale di V, che si indica con
spamv
1
, . . . , v
k
= v V : v =
1
v
1
+ +
k
v
k
,
i
K.
Esempio 11. I polinomi 1, 1+x, 1+x +x
3
generano un sottospazio vettoriale di P
3
[x, R],
di dimensione al pi ` u uguale a tre. Si verica facilmente che i tre vettori sono linearmente
indipendenti, quindi la dimensione ` e esattamente uguale a tre.
Lintersezione di due sottospazi vettoriali ` e ancora un sottospazio vettoriale, mentre
lunione insiemistica in generale non lo ` e:
W
1
, W
2
sottospazi di V W
1
W
2
sottospazio di V
W
1
, W
2
sottospazi di V W
1
W
2
sottospazio di V
Esempio 12. In R
2
, lintersezione dei due assi cartesiani, ovvero linsieme (0, 0) ` e uno
spazio vettoriale (banale), mentre la loro unione non lo ` e poich e non ` e chiusa rispetto
alladdizione: il vettore (1, 0) + (0, 1) = (1, 1) non appartiene allinsieme.
A partire dalla denizione di spazio vettoriale, ` e intuitivo che per ottenere un sot-
tospazio vettoriale che ne contenga due dati si devono sommare i loro elementi: dati W
1
,
W
2
sottospazi di V, si denisce quindi la somma W
1
+ W
2
come linsieme
W
1
+ W
2
= w
1
+ w
2
: w
1
W
1
, w
2
W
2
.
Se inoltre W
1
W
2
= 0, allora W
1
+ W
2
si dice somma diretta di W
1
e W
2
e si indica
con W
1
W
2
.
Tornando allesempio precedente, la somma dei due assi cartesiani nel piano ` e chiara-
mente tutto il piano; in particolare ` e una somma diretta e forma uno spazio vettoriale di
dimensione 2 (la somma delle dimensioni). In generale vale il seguente risultato:
Teorema 3. Sia V uno spazio vettoriale e siano W
1
, W
2
sottospazi di V. Allora linsieme
W
1
+ W
2
` e un sottospazio vettoriale. Se inoltre V ha dimensione nita, vale la formula
di Grassmann:
dim(W
1
+ W
2
) = dimW
1
+ dimW
2
dim(W
1
W
2
).
Il seguente risultato aerma che ` e possibile costruire una base di un dato spazio
vettoriale di dimensione nita a partire dalla base di un suo sottospazio, completandola.
Teorema 4. Siano V uno spazio vettoriale di dimensione nita, W un sottospazio vettori-
ale di V e B
0
= w
1
, . . . , w
k
una base di W. Allora esiste un completamento B della base
B
0
, ovvero una base B di V tale che B
0
B.
Esempio 13. Il vettore w = (1, 1) V
2
genera un sottospazio di dimensione 1 su R:
W = v V
2
: v = (, ) : R. Per ottenere una base di V
2
, basta prendere un
vettore v V
2
\ W: infatti, se v W allora ` e linearmente indipendente da w. Per esempio,
v = (1, 0).
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 13
2.3 Norma e distanza
Dato uno spazio vettoriale V su K, una norma su V ` e, in generale, una applicazione
N : X [0, +) che verica le seguenti propriet` a:
- N(v) = N(v) per ogni K e ogni v V (omogeneit` a positiva);
- N(v + w) N(v) + N(w) per ogni v, w V (subadditivit` a o disuguaglianza
triangolare);
- N(v) = 0 se e solo se v = 0.
Esempio 14. Il valore assoluto ` e una norma su R (visto come spazio vettoriale su s e
stesso).
Esempio 15. Le funzioni
x jxj
1
= x
1
+ + x
n
,
x jxj
2
=
_
x
2
1
+ + x
2
n
,
x jxj

= maxx
1
, . . . , x
n
,
x = (x
1
, . . . , x
n
) (8)
sono norme su R
n
(visto come spazio vettoriale su R). La norma j j
2
si dice norma
euclidea e si indica anche con j j. In Figura 13 sono indicati, nel caso di R
2
, i punti del
piano la cui norma ` e uguale a uno.
x
2
= 1 x

= 1 x
1
= 1
Figura 13.
Il concetto di distanza, discusso nel testo nei casi particolari della distanza euclidea in
R (si veda il paragrafo 4.1) e in R
n
(si veda il paragrafo 10.1) pu` o essere generalizzato a
un generico insieme: dato un insieme X, si dice distanza una applicazione d : X X
[0, +) tale che:
- d(x, y) = d(y, x) per ogni x, y X (simmetria);
- d(x, y) d(x, z) + d(z, y) per ogni x, y, z X (disuguaglianza triangolare);
- d(x, y) = 0 se e solo se x = y.
Su ogni spazio vettoriale V dotato di una norma N resta denita una distanza, la
distanza indotta da N:
d(v, w) = N(v w).
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 14
Per esempio, la distanza indotta su R
2
dalla norma j j
1
` e
d(x, y) = x
1
y
1
+ x
2
y
2
, x = (x
1
, x
2
), y = (y
1
, y
2
).
Si pu` o pensare a d come alla distanza che deve percorrere un pedone per andare da x a y
in un percorso cittadino pianeggiante a maglie rettangolari.
Il concetto di distanza su un insieme X dota linsieme stesso di una struttura metrica
(in particolare consente di denire in X il concetto di intorno e quindi quelli di insieme
aperto, insieme chiuso, frontiera, ecc.): la Topologia, un settore molto vasto e ricco di
applicazioni della Matematica, si occupa di studiare le propriet` a di tali insiemi (e, pi ` u in
generale, di spazi topologici).
2.4 Spazi vettoriali su R dotati di prodotto scalare
Lo spazio vettoriale V
3
, come abbiamo visto, ` e dotato di altre due operazioni oltre a
quella di addizione e moltiplicazione per uno scalare: il prodotto scalare e il prodotto
vettoriale. Introduciamo ora una generalizzazione della nozione di prodotto scalare che
riveste grande importanza: ci limitiamo per il momento al caso di spazi vettoriali su R,
rimandando al paragrafo 5.6 per un cenno al caso complesso.
Denizione 3. Uno spazio vettoriale V su R si dice dotato di prodotto scalare se esiste
una applicazione (, ) : V V R, detta prodotto scalare, che verica le propriet` a
(i) (iv) di pagina 5. Due vettori v, w V si dicono ortogonali se (v, w) = 0.
Si verica facilmente che, se V ` e uno spazio vettoriale su R dotato di prodotto scalare,
la funzione
j j : V R, jvj =
_
(v, v)
` e una norma, detta norma indotta dal prodotto scalare ( , ). Per quanto visto nel para-
grafo precedente, ` e quindi denita anche una distanza, la distanza indotta dal prodotto
scalare:
d : V V R, d(v, w) = jv wj =
_
(v w, v w).
Lesempio principale di spazio vettoriale su R dotato di prodotto scalare ` e certamente
R
n
con il prodotto scalare euclideo:
Esempio 16. Abbiamo gi` a osservato nellEsempio 2 che R
n
` e uno spazio vettoriale su R.
In analogia con V
3
(che come detto si identica con R
3
), deniamo il prodotto scalare
euclideo
(x, y) = x
1
y
1
+ + x
n
y
n
, dove
_
x = (x
1
, . . . , x
n
)
y = (y
1
, . . . , y
n
).
(la verica che si tratti eettivamente di un prodotto scalare ` e lasciata per esercizio). In
perfetta analogia con il caso n = 3, restano quindi deniti la norma euclidea,
jxj =
_
x
2
1
+ + x
2
n
,
e la distanza euclidea
d(x, y) = jx yj =
_
(x
1
y
1
)
2
+ + (x
n
y
n
)
2
.
Si noti che in R
n
valgono la disuguaglianza triangolare e la disuguaglianza di Cauchy-
Schwartz:
jx + yj jxj + jyj, (x, y) jxj jyj.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 15
Su spazi vettoriali su R dotati di prodotto scalare ha senso la nozione di base ortonor-
male:
Denizione 4. Sia V uno spazio vettoriale su R dotato di prodotto scalare. Una base
v
1
, . . . , v
n
di V si dice ortonormale se
(v
i
, v
j
) =
i j
.
Lesempio pi` u ovvio di base ortonormale ` e la base canonica e
1
, . . . , e
n
di R
n
.
Dato uno spazio vettoriale su R dotato di prodotto scalare V, partire da una generi- Ortonormalizzazione
di Gram-Schmidt
ca base v
1
, . . . , v
n
ne pu` o sempre costruire una ortonormale, v
1
, . . . , v
n
, con lulteriore
propriet` a che
spamv
1
, . . . , v
k
= spam v
1
, . . . , v
k
per ogni k = 1, . . . , n.
La procedura, detta ortonormalizzazione di Gram-Schmidt, ` e costruttiva e funziona cos`:
al primo passo si normalizza v
1
:
v
1
= v
1
/jv
1
j.
Si determina poi w
2
in modo tale che w
2
= v
2
+ v
1
e (w
2
, v
1
) = 0, ovvero
w
2
= v
2
(v
2
, v
1
) v
1
e si normalizza:
v
2
= w
2
/jw
2
j.
Iterando il procedimento (si veda anche lesempio seguente) si ottiene la base cercata.
Esempio 17. Si vuole determinare lortonormalizzazione di Gram-Schmidt della base
di R
3
formata dai vettori (1, 1, 0), (1, 0, 0), (0, 1, 1). Si ha anzitutto v
1
=
1

2
(1, 1, 0).
Procedendo come descritto sopra, si ottiene
w
2
= (1, 0, 0)
1
2
((1, 0, 0), (1, 1, 0))(1, 1, 0) = (1/2, 1/2, 0),
da cui v
2
=
1

2
(1, 1, 0). Inne, si cerca w
3
in modo tale che verichi
w
3
= v
3
+
1
v
1
+
2
v
2
, (w
3
, v
1
) = (w
3
, v
2
) = 0.
Con semplici calcoli si ottiene

1
= (v
3
, v
1
) =
1

2
,
2
= (v
3
, v
2
) =
1

2
,
per cui w
3
= v
3
= (0, 0, 1).
3 Applicazioni lineari e matrici
3.1 Applicazioni lineari e matrici
In algebra lineare, rivestono un ruolo essenziale le applicazioni che conservano le strut-
ture delladdizione e della moltiplicazione per uno scalare che caratterizzano gli spazi
vettoriali:
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 16
Denizione 5. Siano V, W due spazi vettoriali su K. Una applicazione L : V W si
dice applicazione lineare se:
L(
1
v
1
+
2
v
2
) =
1
L(v
1
) +
2
L(v
2
) per ogni v
1
, v
2
V,
1
,
2
K.
Gli insiemi Ker L V e im L W deniti da
Ker L = v V : L(v) = 0, im L = L(v) : v V
si dicono rispettivamente nucleo (kernel in lingua inglese) e immagine di L. Lappli-
cazione si dice iniettiva se Ker L = 0, suriettiva se im L = W, biettiva o isomorsmo
se ` e sia iniettiva che suriettiva e in tal caso V e W si dicono isomor e si scrive V W.
Linsieme delle applicazioni lineari da V a W si indica con Lin (V, W, K).
Esempio 18. Lapplicazione L : V
3
R
3
denita da
L : V
3
v = v
1
e
1
+ v
2
e
2
+ v
3
e
3
x = (v
1
, v
2
, v
3
) R
3
` e un isomorsmo (lo studente controlli).
Esempio 19. Lapplicazione
i
: R
n
R denita da

i
: R
n
x = (x
1
, . . . x
n
) x
i
R
` e una applicazione lineare suriettiva ma non iniettiva (Ker
i
= (x
1
, . . . , x
n
) R
n
: x
i
=
0, lo studente controlli), detta proiezione i-esima.
Si verica facilmente che nucleo e immagine sono sottospazi vettoriali di V, rispet-
tivamente W. Se dimV < +, le loro dimensioni sono nite e legate da unimportante
formula:
Teorema 5 (Teorema delle dimensioni). Sia L Lin (V, W, K). Allora Ker L ` e un sot-
tospazio vettoriale di V, im L ` e un sottospazio vettoriale di W e se dimV < +risulta:
dim(im L) + dim(Ker L) = dimV. (9)
Linsieme Lin (V, W, K) delle applicazioni lineari da V in W pu` o essere dotato di una
struttura di spazio vettoriale denendo le operazioni di:
(i) addizione: (L
1
+ L
2
)(v) := L
1
(v) + L
2
(v) per ogni v V;
(ii) moltiplicazione per uno scalare: (L)(v) = L(v) per ogni v V, K.
Le applicazioni lineari sono completamente determinate dai valori assunti su una base
di V:
Teorema 6. Siano V e W due spazi vettoriali su K. Sia dimV < +, sia B
V
= v
1
, . . . , v
n

una base di V e siano L


1
: V W e L
2
: V W due applicazioni lineari. Allora L
1
= L
2
,
ovvero L
1
(v) = L
2
(v) per ogni v V, se e solo se L
1
(v
i
) = L
2
(v
i
) per ogni i = 1, . . . , n.
Se anche W ha dimensione nita, con base B
W
= w
1
, . . . , w
m
, ` e possibile esprimere
i valori di L
1
(v
1
), . . . , L
1
(v
n
) rispetto alla base di W:
L(v
1
) = a
11
w
1
+ + a
m1
w
m
,
.
.
.
L(v
n
) = a
1n
w
1
+ + a
mn
w
m
.
(10)
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 17
Quindi, dati due spazi vettoriali V e W di dimensione nita con basi B
V
e B
W
, per il
Teorema 6 unapplicazione lineare L Lin (V, W, K) ` e determinata dai mn numeri a
i j
K
(i = 1, . . . , m, j = 1, . . . , n) deniti dalla (10). Infatti, dati
v = x
1
v
1
+ + x
n
v
n
V e w = y
1
w
1
+ + y
m
w
m
W,
si verica facilmente che, data lapplicazione lineare L Lin (V, W, K) determinata dalla
(10), si ha che
w = L(v) y
i
= a
i1
x
1
+ + a
in
x
n
=
n

j=1
a
i j
x
j
(i = 1, . . . , m). (11)
I numeri a
i j
K si dicono elementi di una matrice. Una matrice ` e tabella bidimen-
sionale determinata dal numero di righe, dal numero di colonne e dai valori assunti in
ciascuna casella della tabella:
Denizione 6. Siano m, n N \ 0. Si dice matrice m n a valori in K un insieme di
mn elementi a
i j
K ordinati secondo due indici, i = 1, . . . , m e j = 1 . . . , n,
A = a
i j
: a
i j
K, i = 1, . . . , m, j = 1, . . . , n
e si indica con
A =
_

_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_

_
. (12)
Si indica con M
m,n
(K) linsieme di tutte le matrici m n a valori in K.
Per indicare in forma coincisa una matrice e gli elementi che la compongono si scrive
anche A = a
i j
M
m,n
(K), oppure semplicemente A = a
i j
se il formato mn e il campo
K sono superui o chiari dal contesto.
Nei casi particolari in cui n = 1 o m = 1 la matrice si dice vettore colonna , rispet-
tivamente vettore riga . Se m = n, A si dice matrice quadrata e n si dice ordine della
matrice. Una matrice quadrata A di ordine n si dice diagonale se ` e del tipo
A =
_

1
0 . . . 0
0
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 . . . 0
n
_

_
.
Loperazione di scambio di righe e colonne prende il nome di trasposizione:
Denizione 7. Sia A = a
i j
M
m,n
(K). Si dice trasposta di A, e si indica con A
T
, la
matrice
A
T
= a
ji
M
n,m
(K).
Una matrice quadrata A si dice simmetrica se A
T
= A.
Si noti che la trasposta di un vettore riga ` e un vettore colonna e viceversa. I vettori
colonna sono particolarmente utile per esprimere la (11) in modo compatto: scrivendo
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 18
(x
1
, . . . , x
n
) K
n
e (y
1
, . . . , y
m
) K
m
come vettori colonna, x = (x
1
, . . . , x
n
)
T
e y =
(y
1
, . . . , y
m
)
T
, si introduce la notazione
y = Ax
_

_
y
1
.
.
.
y
m
_

_
=
_

_
a
11
. . . a
1n
.
.
.
.
.
.
.
.
.
a
m1
. . . a
mn
_

_
_

_
x
1
.
.
.
x
n
_

_
y
1
=
n
_
j=1
a
1j
x
j
.
.
.
y
m
=
n
_
j=1
a
mj
x
j
.
(13)
Nel prossimo paragrafo generalizzeremo tale notazione tramite la nozione di prodotto; si
veda lOsservazione a pagina 21.
Esempio 20.
_
1 0 2
3 4 2
_
_

_
1
4
3
_

_
=
_
1 + 0 + 6
3 + 16 + 6
_
=
_
7
19
_
.
Esempio 21. Se A ` e una matrice quadrata di ordine n a coecienti reali, si ha
(z, Ax) = (A
T
z, x) x, z R
n
.
Infatti, osservando che
y = A
T
z
(13)
y =
_

_
n
_
j=1
a
j1
z
j
.
.
.
n
_
j=1
a
jn
z
j
_

_
=
_

_
n
_
i=1
a
i1
z
i
.
.
.
n
_
i=1
a
in
z
i
_

_
(14)
si ottiene
(z, Ax)
(13)
=
n

i=1
z
i
n

j=1
a
i j
x
j
=
n

j=1
x
j
n

i=1
a
i j
z
i
= (A
T
z, x),
Notazione . - Nel resto dellAppendice, ove non diversamente specicato, un vet-
tore di K
n
si sottoindende rappresentato da un vettore colonna.
- Sar` a utile disporre di una notazione che metta in evidenza le colonne di una matrice:
si scrive cio` e
A = (v
1
v
2
. . . v
n
) , dove v
i
=
_

_
a
1j
a
2j
.
.
.
a
mj
_

_
, j = 1, . . . , n,
Il vettore v
j
K
m
si dice j-esimo vettore colonna di A. Analoghe notazioni e
nomenclatura valgono per le righe di A.
Cos` come si ` e fatto per le applicazioni lineari, anche linsieme delle matrici pu` o
essere dotato di una struttura di spazio vettoriale denendo le operazioni di addizione e
moltiplicazione per uno scalare termine a termine:
(i) se A = a
i j
M
m,n
(K) e B = b
i j
M
m,n
(K), 1 i m, 1 j n, allora
A + B = a
i j
+ b
i j
M
m,n
(K);
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 19
(ii) se K e A = a
i j
, allora
A = a
i j
.
Si noti che la somma ` e denita solo tra matrici che hanno lo stesso formato, ovvero lo
stesso numero di righe e lo stesso numero di colonne.
Fissati il numero di righe e colonne e lo spazio ambiente, non ` e dicile vericare che
linsieme delle matrici costituisce uno spazio vettoriale con le suddette operazioni:
Teorema 7. Sia m, n N \ 0. Linsieme M
m,n
(K) ` e uno spazio vettoriale su K di
dimensione mn, isomorfo ad K
mn
.
Infatti dim M
m,n
(K) = dimK
mn
= mn e la base canonica di M
m,n
(K) consiste di mn
matrici:
e
11
=
_

_
1 0 . . . 0
0 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 0
_

_
, e
12
=
_

_
0 1 0 . . . 0
0 0 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 0
_

_
, . . . , e
1n
=
_

_
0 . . . 0 1
0 . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 0 0
_

_
,
.
.
.
.
.
.
.
.
.
.
.
.
e
m1
=
_

_
0 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 0
1 0 . . . 0
_

_
, e
m2
=
_

_
0 0 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 0
0 1 0 . . . 0
_

_
, . . . , e
mn
=
_

_
0 . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 0 0
0 . . . 0 1
_

_
.
Ricordiamo che, dati due spazi vettoriali V e W su K con dimV = n < +, dimW =
m < + e ssate due basi B
V
= v
1
, . . . , v
n
(di V) e B
W
= w
1
, . . . , w
m
(di W), la
(10) permette di associare ad ogni applicazione lineare L Lin (V, W, K) una matrice
A
L
M
m,n
(K):
A : Lin (V, W, K) M
m,n
(K), A(L) = A
L
se A
L
verica la (10).
Chiaramente A ` e invertibile: data una matrice A M
m,n
(K), A = a
i j
, lapplicazione
[ : M
m,n
(K) Lin (V, W, K), [(A) = L
A
se L
A
verica la (11),
` e linversa di A. Laddizione e la moltiplicazione per uno scalare sono modellate sul
parallelismo tra matrici e applicazioni lineari, nel senso che, per ogni A, B M
m,n
(K) e
K, la mappa [ : A L
A
verica
L
A
+ L
B
= L
A+B
e L
A
= L
A
.
Segue da queste osservazioni che M
m,n
(K) e Lin (V, W, K) sono isomor:
Teorema 8. Siano V e W spazi vettoriali su K di dimensione rispettivamente n ed m.
Allora A : Lin (V, W, K) M
m,n
(K) e [ : M
m,n
(K) Lin (V, W, K) sono isomorsmi tra
spazi vettoriali e sono uno linverso dellaltro.
Se V = K
n
, W = K
m
e le rispettive basi sono quelle canoniche, per la (10) lappli-
cazione A L
A
assume una struttura particolarmente semplice ed ` e determinata dalle
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 20
seguenti relazioni:
L
A
(e
1
) =
_

_
a
11
.
.
.
a
m1
_

_
, . . . , L
A
(e
j
) =
_

_
a
1j
.
.
.
a
mj
_

_
, . . . , L
A
(e
n
) =
_

_
a
1n
.
.
.
a
mn
_

_
. (15)
Considerando gli elementi di K
n
come vettori colonna, possiamo scrivere L
A
(x) = Ax;
in altre parole lapplicazione lineare L
A
da K
n
in K
m
` e rappresentata rispetto alle basi
canoniche dalla mappa x Ax, x K
n
. Nei prossimi tre esempi sceglieremo sempre le
basi canoniche per rappresentare le applicazioni lineari.
Esempio 22. La proiezione ortogonale in R
3
sul piano z = 0 ` e rappresentata dalla matrice
diagonale
_

_
1 0 0
0 1 0
0 0 0
_

_
Pi ` u in generale, dato un versore n R
3
, la proiezione ortogonale sul piano di equazione
(n, x) = 0 ` e la mappa x x (n, x)n da R
3
in R
3
. Utilizziamo la (15) per trovare la ma-
trice A che rappresenta tale mappa: la proiezione di e
i
(i = 1, 2, 3) ` e e
i
n
i
n, quindi A ` e
la matrice simmetrica che ha come vettori colonna i vettori e
i
n
i
n:
_

_
1 n
2
1
n
1
n
2
n
1
n
3
n
1
n
2
1 n
2
2
n
2
n
3
n
1
n
3
n
2
n
3
1 n
2
3
_

_
Analogamente, dato un versore n R
2
, in R
2
la proiezione ortogonale sulla retta di
equazione (n, x) = 0 ` e lapplicazione lineare rapresentata dalla matrice
_
1 n
2
1
n
1
n
2
n
1
n
2
1 n
2
2
_
Esempio 23. Fissato v R
3
, lapplicazione x vx ` e lineare. Determiniamo la matrice
corrispondente:
v x =
_

_
v
1
v
2
v
3
_

_
x
y
z
_

_
=
_

_
v
2
z v
3
y
v
3
x v
1
z
v
1
y v
2
x
_

_
=
_

_
0 v
3
v
2
v
3
0 v
1
v
2
v
1
0
_

_
_

_
x
y
z
_

_
.
Esempio 24. Una rotazione nel piano attorno allorigine ` e una
Figura 14.
applicazione che ad un punto x = (x, y)
T
R
2
associa il punto x

= (x

, y

)
T
R
2
ottenuto ruotando il segmento che congiunge 0 e x di un pressato angolo (si veda la
Figura 14). Rappresentando x in coordinate polari, si ha cio` e
_
cos
sin
_
= x x

=
_
cos( + )
sin( + )
_
,
ovvero, utilizzando le formule di addizione,
_
x

= cos cos sin sin = x cos y sin ,


y

= sin cos + cos cos = x sin + y cos .


Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 21
Tale relazione si pu` o riscrivere in forma compatta come
_
x

_
= A

_
x
y
_
, dove A

=
_
cos sin
sin cos
_
.
Perci ` o una rotazione attorno allorigine nel piano ` e una applicazione lineare da R
2
in s e
rappresentata (rispetto alle basi canoniche di R
2
) dalla matrice A

.
Un altro modo per trovare A

` e osservare che ` e geometricamente ovvio che la ro-


tazione ` e unapplicazione lineare dal piano in se stesso (lo studenti controlli!) ed utilizzare
la (10) per calcolare i vettori colonna di A

:
e
1
=
_
1
0
_

_
cos
sin
_
, e
2
=
_
0
1
_

_
sin
cos
_
.
3.2 Prodotto di due matrici
Siano V, W e Z spazi vettoriali su K con dimV = n e dimW = e dimZ = m. Siano
L
A
Lin (Z, W, K) e L
B
Lin (V, Z, K) due applicazioni lineari rappresentate, ssate le
rispettive basi, dalle matrici A M
m,
(K) e B M
,n
(K) tramite lidenticazione (11).
Allora lapplicazione composta da V in W, v L
A
(L
B
(v)), ` e lineare ed ` e quindi naturale
chiedersi quale sia la matrice corrispondente, C M
m,n
(K). Dopo qualche calcolo, basato
sullutilizzo ripetuto dalla (11) (lo studente verichi), si ottiene la seguente formula per
C = c
i j
:
c
i j
=

k=1
a
ik
b
k j
.
La matrice C si dice matrice prodotto di A e B e si denota con AB:
Denizione 8. Sia A = a
i j
M
m,
(K) e B = b
i j
M
,n
(K). La matrice
C = AB =
_

k=1
a
ik
b
k j
_

_
M
m,n
(K)
si dice matrice prodotto (righe per colonne) di A per B.
Si noti che la condizione necessaria anch e il prodotto sia ben denito ` e che il numero
di righe della matrice B sia uguale al numero di colonne della matrice A.
Osservazione . Si noti inoltre che se A ` e una matrice m n e B = x ` e una matrice n 1,
ovvero un vettore colonna in K
n
, applicando la Denizione 8 si ritrova la notazione (13)
introdotta in precedenza per indicare Ax.
Esempio 25.
_
1 0 2
3 4 2
_
_

_
5 1 1 0
1 2 4 1
0 0 3 2
_

_
=
_
5 1 7 4
11 2 19 8
_
.
Si verica (in modo elementare ma con un po di calcoli, lo studente controlli) che
valgono le seguenti propriet` a, in cui si sottintende che il formato delle matrici sia tale che
il prodotto abbia senso:
(i) (propriet` a associativa) (AB)C = A(BC);
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 22
(ii) (propriet` a distributive) (A + B)C = AC + BC e C(A + B) = CA + CB;
(iii) (identit` a) se A ` e una matrice quadrata di ordine n, allora
I
n
A = AI
n
= A, dove I
n
=
_

_
1 0 . . . 0
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 . . . 0 1
_

_
;
le matrici I
n
si dicono matrici identit` a (di ordine n) e si indicano anche con I
qualora sia superuo specicare lordine; la matrice identit` a di ordine n rappresenta
lapplicazione lineare x x in K
n
;
(iv) (trasposizione del prodotto) (AB)
T
= B
T
A
T
.
Si noti la mancanza, nellelenco precedente, della propriet` a commutativa. In eetti tale
propriet` a vale solo in casi particolari. Per esempio,
A =
_
0 1
1 0
_
, B =
_
1 0
0 1
_
AB =
_
0 1
1 0
_
BA =
_
0 1
1 0
_
.
In questo caso ` e anche geometricamente ovvio che AB BA: A rappresenta una rotazione
nel piano di angolo /2 (si veda lEsempio 24), B rappresenta la mappa (x, y) (x, y)
(la riessione rispetto alla retta orizzontale y = 0) e chiaramente la composizione delle
due operazioni dipende dal loro ordine.
`
E comunque chiaro dalla denizione che anch e
i prodotti AB e BA siano entrambi ben deniti ` e necessario che se A M
m,n
(K) allora
B M
n,m
(K).
Lultima operazione che introduciamo in questo paragrafo ` e quella di inversione rispet-
to al prodotto: data una matrice A si tratta di determinare, se esiste, una (unica) matrice
A
1
tale che A
1
A = AA
1
= I. Ovviamente ci` o pone anzitutto un vincolo sulla struttura
di A, che deve essere quadrata:
Denizione 9. Una matrice quadrata A si dice invertibile se esiste B, detta matrice
inversa di A, e indicata con A
1
, tale che AB = BA = I
n
. Se A non ` e invertibile si dice
singolare.
Si noti che A ` e invertibile se e solo se lapplicazione lineare associata, L
A
(x) = Ax da
K
n
in K
n
, ` e invertibile; in tal caso vale che (L
A
)
1
= L
A
1 .
Anche con il vincolo di struttura, la matrice inversa non sempre esiste: per esempio,
la matrice 0 M
1,1
(R) R ` e singolare. Nel Teorema 11 caratterizzeremo le matrici
invertibili.
`
E invece semplice vericare che se esiste, la matrice inversa ` e unica: infatti,
se B e B

sono inverse di A, allora


B = BI = B(AB

) = (BA)B

= IB

= B

.
Esempio 26. Si vuole determinare per quali valori di x R la matrice A =
_
x 2
2 4
_
` e
invertibile, e in tal caso determinarne linversa.
Denotiamo con B =
_
a b
c d
_
una generica matrice. Se B ` e linversa di A, allora deve
vericare
AB =
_
xa + 2c xb + 2d
2a + 4c 2b + 4d
_
=
_
1 0
0 1
_

_

_
xa + 2c = 1
xb + 2d = 0
2a + 4c = 0
2b + 4d = 1
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 23
Moltiplicando per due la prima equazione e sottraendo la terza, si ottiene 2a(x 1) = 2,
che ha soluzione se e solo se x 1 e in tal caso a = 1/(x1); analogamente, dalle seconda
e quarta equazione si deduce che b = 1/(2(x1)); sostituendo questi valori nella seconda
e terza equazione si ottiene d = bx/2 = x/(4(x 1)), c = a/2 = 1/(2(x 1)). Un
calcolo esplicito mostra che con queste scelte si ha anche BA = I
2
. Pertanto A ` e invertibile
se e solo se x 1 e in tal caso
A
1
=
1
4(x 1)
_
4 2
2 x
_
.
Esempio 27. Procedendo come nellesempio precedente (lo studente controlli i dettagli
del calcolo), risulta che una generica matrice quadrata di ordine 2,
A =
_
a
11
a
12
a
21
a
22
_
,
` e invertibile se e solo se a
11
a
22
a
21
a
12
0, e in tal caso risulta
A
1
=
1
a
11
a
22
a
21
a
12
_
a
22
a
12
a
21
a
22
_
.
4 Sistemi lineari
4.1 Matrici e sistemi lineari
Sia A la matrice costituita dai coecienti a
i j
dei termini di grado 1 di un generico sistema
lineare costituito da m equazioni in n incognite:
_

_
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
= b
m
.
(16)
Assegnati i coecienti a
i j
K e b
j
K (i = 1, . . . , m, j = 1, . . . , n), risolvere un sistema
lineare signica determinare, se esistono, tutte le soluzioni, ovvero le n-uple (x
1
, . . . , x
n
)
che vericano la (16). Denendo la matrice A come in (12) e i vettori colonna
b =
_

_
b
1
.
.
.
b
m
_

_
, x =
_

_
x
1
.
.
.
x
n
_

_
, (17)
il sistema (16) pu` o essere riscritto in forma compatta come
Ax = b.
Per la struttura lineare di M
m,n
(K) valgono banalmente le relazioni
se A
1
x = b
1
e A
2
x = b
2
, allora (A
1
+ A
2
)x = b
1
+ b
2
,
se Ax = b, allora (A)x = b.
4.2 Determinante e sistemi lineari n n
Il determinante ` e un oggetto centrale nello studio di matrici e nella risoluzione di sistemi
lineari. Per introdurlo, procederemo ricorsivamente a partire dai casi pi` u semplici.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 24
4.2.1 Sistemi lineari 2 2
Consideriamo il seguente sistema di due equazioni in due incognite:
_
a
11
x
1
+ a
12
x
2
= b
1
a
21
x
1
+ a
22
x
2
= b
2
.
Per risolverlo moltiplichiamo la prima equazione per a
22
, la seconda per a
12
e sottra-
iamo: si ottiene
(a
11
a
22
a
21
a
12
)x
1
= a
22
b
1
a
12
b
2
;
procedendo in modo analogo si ottiene:
(a
12
a
21
a
22
a
11
)x
2
= a
21
b
1
a
11
b
2
.
Quindi, se la quantit` a
det
2
A := a
11
a
22
a
12
a
21
(18)
` e deiversa da zero, allora il sistema ammette ununica soluzione, data da
x
1
=
a
22
b
1
a
12
b
2
det
2
A
, x
2
=
a
11
b
2
a
21
b
1
det
2
A
.
La funzione det
2
: M
2,2
(K) K denita dalla (18) si chiama determinante (di una
matrice di ordine 2). Nel seguito ometteremo di specicare lindice ove esso risulti
chiaro dal contesto. Facciamo alcune osservazioni, che in seguito generalizzeremo al
caso di matrici quadrate di ordine arbitrario.
1. Per interpretare geometricamente la nozione di determinante, supponiamo K = R
e notiamo che le soluzioni del sistema sono lintersezione, nel piano cartesiano
(x
1
, x
2
), delle due rette di equazione a
11
x
1
+ a
12
x
2
= b
1
e a
21
x
1
+ a
22
x
2
= b
2
. Le
due rette sono ortogonali rispettivamente ai vettori n
1
= (a
11
, a
12
) e n
2
= (a
21
, a
22
)
(si veda il paragrafo 1.6) e il determinante di A coincide con il prodotto vettoriale
di n
1
e n
2
:
n
1
n
2
= a
11
a
22
a
12
a
21
= det A.
Perci ` o il modulo del determinante di una matrice quadrata A di ordine 2 rappresenta
larea del parallelogramma individuato dai vettori riga di A e la condizione det A =
0 equivale a richiedere che i due vettori non siano paralleli.
2. Se det A 0, la soluzione si pu` o anche riscrivere come
x
1
=
det A
1
det A
, x
2
=
det A
2
det A
, (19)
dove A
i
` e la matrice che si ottiene sostituendo alli-esimo vettore colonna di A il
vettore b = (b
1
, b
2
)
T
:
_
b
1
a
12
b
2
a
22
_
,
_
a
11
b
1
a
21
b
2
_
.
3. Ritornando allEsempio 27, la condizione necessaria e suciente anch e A sia
invertibile ` e che det A 0:
A =
_
a
11
a
12
a
21
a
22
_
, det A 0 A
1
=
1
det A
_
a
22
a
12
a
21
a
22
_
. (20)
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 25
4.2.2 Sistemi lineari 3 3
Per risolvere un generico sistema di tre equazioni in tre incognite,
_

_
a
11
x
1
+ a
12
x
2
+ a
13
x
3
= b
1
a
21
x
1
+ a
22
x
2
+ a
23
x
3
= b
2
a
31
x
1
+ a
32
x
2
+ a
33
x
3
= b
3
si pu` o procedere in modo analogo, anche se i conti sono pi ` u laboriosi. Svolgendoli, risulta
che condizione necessaria e suciente anch e esista ununica soluzione ` e che la quantit` a
det
3
A := a
11
a
22
a
33
+ a
12
a
23
a
31
+ a
13
a
21
a
32
a
13
a
22
a
31
a
12
a
21
a
33
a
11
a
23
a
32
(21)
sia diversa da zero, e in tal caso la soluzione ` e data da
x
i
=
det
3
A
i
det
3
A
, (22)
dove A
i
` e la matrice che si ottiene sostituendo alli-esimo vettore colonna di A il vettore
b = (b
1
, b
2
, b
3
)
T
.
Si osservi che la denizione (21) pu` o essere riscritta come segue:
det
3
A = a
11
(a
22
a
33
a
23
a
32
) a
12
(a
21
a
33
a
23
a
31
) + a
13
(a
21
a
32
a
22
a
31
)
= a
11
det
2
M
11
a
12
det
2
M
12
+ a
13
det
2
M
13
,
(23)
dove M
i j
` e la matrice quadrata di ordine 2 che si ottiene eliminando da M li-esima riga e
la j-esima colonna: in formule
M
11
=
_
a
22
a
23
a
32
a
33
_
, M
12
=
_
a
21
a
23
a
31
a
33
_
, M
13
=
_
a
21
a
22
a
31
a
32
_
.
La (23) si pu` o a sua volta riscrivere in modo compatto come il prodotto misto dei vettori
riga di A:
det
3
A = (r
1
, r
2
r
3
), r
i
= (a
i1
, a
i2
, a
i3
).
Perci ` o, per quanto osservato nel paragrafo 1.5, il modulo del determinante di una matrice
quadrata A di ordine 3 rappresenta il volume del parallelepipedo individuato dai tre vettori
riga di A e la condizione det
3
A 0 (che garantisce lesistenza di ununica soluzione del
sistema) ` e equivalente a richiedere che i tre vettori non siano complanari, ovvero che siano
linearmente indipendenti. In tal caso i tre piani a
i1
x
1
+ a
i2
x
2
+ a
i3
x
3
= b
i
(i = 1, 2, 3) si
intersecano in un unico punto, lunica soluzione del sistema.
Osservazione . Utilizzando la (23) possiamo dare, come annunciato nel paragrafo 1.4,
unespressione formale equivalente del prodotto vettoriale v w: Determinante e
prodotto vettoriale
v w = det
_

_
e
1
e
2
e
3
v
1
v
2
v
3
w
1
w
2
w
3
_

_
convenendo di sviluppare il determinante rispetto alla prima riga.
Luguaglianza (23) ` e alla base della denizione ricorsiva di determinante che stiamo
per dare.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 26
4.2.3 Il caso generale
Alla nozione di determinante premettiamo quella di matrice complementare:
Denizione 10. Sia A = a
i j
M
n,n
(K). Si dice matrice complementare di a
i j
, e si
indica con M
i j
, la matrice quadrata di ordine n 1 ottenuta cancellando li-esima riga e la
j-esima colonna di A, ovvero
M
i j
=
_

_
a
11
. . . a
1( j1)
a
1( j+1)
. . . a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
(i1)1
. . . a
(i1)( j1)
a
(i1)( j+1
. . . a
(i1)n
a
(i+1)1
. . . a
(i+1)( j1)
a
(i+1)( j+1)
. . . a
(i+1)n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
( j1)n
a
( j+1)n
a
nn
_

_
. (24)
Siamo ora in grado di fornire la denizione (ricorsiva) di determinante:
Denizione 11.
(i) Se A M
1,1
(K), si dice determinante di A il numero det A = det
1
A = a
11
;
(ii) se A M
n,n
(K) con n 2, si dice determinante di A il numero
det A = det
n
A =
n

j=1
(1)
1+j
a
1j
det
n1
M
1j
. (25)
Il lettore verichi che la denizione appena data ` e coerente con la (18) e con la (23).
Si chiama complemento algebrico di a
i j
, e si indica con A
i j
, il valore
A
i j
= (1)
i+j
det M
i j
. (26)
In tal modo la (25) si pu` o anche riscrivere come
det A =
n

j=1
a
1j
A
1j
.
Nella formula (25) che denisce il determinante si ` e scelto di considerare i complementi
algebrici degli elementi della prima riga, ovvero di sviluppare il determinante rispetto alla
prima riga; il prossimo risultato mostra che la denizione di determinante ` e indipendente
da tale scelta e che si possono anche considerare i complementi algebrici di una colonna:
Teorema 9 (di Laplace). Sia A M
n,n
(K). Allora per ogni k = 1, . . . , n si ha
det A =
n

j=1
a
k j
A
k j
=
n

i=1
a
ik
A
ik
.
Esempio 28. Si vuole calcolare il determinante della matrice
A =
_

_
1 2 0 1
2 0 0 2
13 1 9
3 2 0 1
_

_
.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 27
Conviene dare prima unocchiata alla struttura della matrice. Si vede subito che la terza
colonna ` e lunica (tra righe e colonne) dove compaiono 3 coecienti nulli; perci` o con-
viene utilizzarla per sviluppare il determinante:
det A =
4

i=1
a
i3
A
i3
= a
33
(1)
3+3
det M
33
= det M
33
, M
33
=
_

_
1 2 1
2 0 2
3 2 1
_

_
.
Per completare il calcolo sviluppiamo M
33
rispetto alla seconda riga:
det A = 2(1)
2+1
det
_
2 1
2 1
_
+ 0(1)
2+2
det
_
1 3
3 1
_
+ 2(1)
3+2
det
_
1 2
3 2
_
= 2(2 2) 2(2 + 6) = 8 16 = 8.
Valgono inoltre le seguenti propriet` a, che si possono dimostrare per induzione e di cui
in eetti il Teorema di Laplace ` e conseguenza:
(i) (alternanza per colonne) il valore del determinante cambia segno se si scambiano
tra loro due colonne (anche non consecutive):
det
_
. . . v
i
. . . v
j
. . .
_
= det
_
. . . v
j
. . . v
i
. . .
_
;
(ii) (multilinearit` a per colonne) il determinante ` e una funzione lineare di ciascun vet-
tore colonna:
det (. . . v + w . . . ) = det (. . . v . . . ) + det (. . . w . . . ) ;
in particolare
det
n
(A) =
n
det
n
A per ogni K, A M
n,n
(K);
(iii) (Teorema di Binet) se A e B sono due matrici quadrate dello stesso ordine, allora
det(AB) = (det A)(det B);
(iv) (invarianza per trasposizione) det A
T
= det A;
(v) (alternanza e multilinearit` a per righe) il determinante cambia segno se si scam-
biano tra loro due righe ed ` e una funzione lineare di ciascuna riga.
La propriet` a (v) ` e una conseguanza immediata di (i) e (ii), utilizzando la (iv).
Esempio 29. Si vuole calcolare il determinante della matrice
A =
_

_
0 1 1 1
0 2 2 1
9 3 2 7
1 1 1 5
_

_
.
Osservando che la seconda e terza colonna coincidono a meno del terzo elemento, scrivi-
amo utilizzando la (ii):
det A = det
_

_
0 1 1 1
0 2 2 1
9 2 2 7
1 1 1 5
_

_
.,,.
=:A

+det
_

_
0 0 1 1
0 0 2 1
9 1 2 7
1 0 1 5
_

_
.,,.
=:A

.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 28
La matrice A

ha due colonne uguali. Utilizzando la propriet` a di alternanza e scambian-


dole, si ha quindi
det = det
_

_
0 1 1 1
0 2 2 1
9 2 2 7
1 1 1 5
_

_
= det A

,
perci` o det A

= 0 (questa propriet` a di cancellazione ` e in eetti un caso particolare del


Teorema 10, che vedremo subito dopo). Per quanto riguarda A

, sviluppando rispetto alla


seconda colonna (e successivamente rispetto alla prima) si ottiene
det A

= det
_

_
0 1 1
0 2 1
1 1 5
_

_
= det
_
1 1
2 1
_
= 1.
Riprendiamo ora le osservazioni che abbiamo fatto nei casi particolari n = 2, 3. Anz-
itutto, per interpretare geometricamente il determinante ci siamo basati sul fatto che
det A = 0 se e solo se due vettori riga sono linearmente dipendenti. Questa propriet` a
continua a valere (anche per i vettori colonna) in generale:
Teorema 10. Sia A una matrice quadrata di ordine n. Allora le seguenti tre aermazioni
sono equivalenti:
(i) det A = 0;
(ii) i vettori riga sono linearmente dipendenti;
(iii) i vettori colonna sono linearmente dipendenti.
In particolare, questo risultato generalizza quanto osservato nellesempio precedente:
se due righe o due colonne di una matrice sono una multipla dellaltra, in particolare se
sono uguali, allora il determinante ` e nullo.
Si noti che il teorema aerma equivalentemente che det A 0 se e solo se i vettori
riga (colonna) sono linearmente indipendenti.
Esempio 30. Per mostrare che i vettori
v
1
= (0, 1, 1, 1), v
2
= (0, 2, 2, 1), v
3
= (9, 3, 2, 7), v
4
= (1, 1, 1, 5)
costituiscono una base di R
4
, ` e suciente costruire la matrice che ha i quattro vettori come
righe e vericare che il determinante ` e diverso da zero (si veda lesempio precedente).
Linvertibilit` a di A e la risolubilit` a del sistema Ax = b sono questioni strettamente
connesse: se A ` e invertibile, allora moltiplicando Ax = b a sinistra per A si ottiene x =
A
1
b, ovvero per ogni b il sistema ammette ununica soluzione. Nel caso n = 2 e n = 3
si ` e anche osservato che entrambe le questioni sono collegate con il determinante di A. In
eetti, per linvertibilit` a di A vale la stessa condizione del caso n = 2:
Teorema 11 (invertibilit` a di matrici quadrate). Sia A una matrice quadrata di ordine n.
Allora A ` e invertibile se e solo se det A 0 e in tal caso
A
1
=
_
A
ji
det A
_
,
dove A
ji
` e il complemento algebrico di a
ji
(si veda la (26)).
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 29
Si noti linversione di indice: lelemento a

i j
della matrice A
1
` e il complemento alge-
brico dellelemento a
ji
. Il lettore controlli che il teorema generalizza la (20). Applicando
la propriet` a (iii) risulta che se det A 0 allora
det(A
1
) = (det A)
1
.
Esempio 31. Si vuole calcolare la matrice inversa della matrice
_

_
2 1 0
0 0 1
1 3 0
_

_
.
Calcoliamone anzitutto il determinante sviluppando rispetto alla seconda riga:
det A = det
_
2 1
1 3
_
= 7.
Calcoliamo ora i complementi algebrici:
A
11
= det
_
0 1
3 0
_
= 3, A
12
= det
_
0 1
1 0
_
= 1, A
13
= det
_
0 0
1 3
_
= 0,
A
21
= det
_
1 0
3 0
_
= 0, A
22
= det
_
2 0
1 0
_
= 0, A
23
= det
_
2 1
1 3
_
= 7,
A
31
= det
_
1 0
0 1
_
= 1, A
32
= det
_
2 0
0 1
_
= 2, A
33
=
_
2 1
0 0
_
= 0.
In conclusione
A
1
=
1
7
_

_
3 0 1
1 0 2
0 7 0
_

_
.
Invitiamo il lettore a vericare che det A
1
= 1/7 e che AA
1
= I
3
.
Se la matrice ` e invertibile, per ogni b K
n
il sistema Ax = b ammette ununica
soluzione, x = A
1
b, ovvero
x
i
=
1
det A
n

j=1
A
ji
b
j
, i = 1, . . . , n.
Al secondo membro si riconosce il determinante della matrice che si ottiene sostituendo
alli-esima colonna di A il vettore b (si veda il Teorema di Laplace). Perci ` o vale il seguente
corollario:
Teorema 12 (regola di Cramer). Sia A M
n,n
(K). Se det A 0 allora per ogni b K
n
esiste un unico x K
n
tale che Ax = b; inoltre
x
i
=
det A
i
det A
, i = 1, . . . , n,
dove A
i
` e la matrice che si ottiene sostituendo li-esima colonna di A con il vettore b.
Si ritrovano cos` le formule (19) e (22) ottenute nei casi particolari n = 2 e n = 3.
Il metodo risolutivo che abbiamo illustrato ` e utile a livello teorico e semplice da im-
plementare. Avvertiamo per` o che esistono altri metodi risolutivi, meno costosi a livello
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 30
computazionale nel senso che riducono il numero di operazioni da compiere. Nel ca-
so si abbia a che fare con sistemi di ordine elevato, che necessitano di essere risolti da
calcolatori elettronici, il numero di operazioni da compiere (e quindi il numero di arro-
tondamenti) ` e uno degli aspetti pi ` u importanti; non ` e comunque il solo: per esempio, ` e
importante costruire algoritmi che evitino il pi ` u possibile divisioni per quantit` a piccole,
oppure che siano particolarmente ecienti per certi tipi di matrice. Di tutte queste ques-
tioni, in cui non possiamo entrare in questo contesto, si occupa non solo lalgebra lineare
ma anche lanalisi numerica.
4.3 Rango di una matrice; sistemi lineari m n
In termini di applicazioni lineari, il Teorema 12 pu` o essere riformulato dicendo che se A
` e una matrice quadrata di ordine n con det A 0, allora lapplicazione lineare associata
ad A rispetto alle basi canoniche di R
n
,
L
A
: R
n
R
n
, L
A
(x) = Ax,
` e un isomorsmo, ovvero im L
A
= R
n
e Ker L
A
= 0. In questo paragrafo arontiamo
contemporaneamente due questioni ulteriori:
cosa accade se det A = 0 ?
cosa accade se la matrice non ` e quadrata ?
Se per esempio A ` e quadrata e ha ordine due, interpretando ciascuna delle due equazioni
che compongono il sistema Ax = b come lequazione di una retta si possono descrivere
le varie situazioni possibili: le due rette non sono parallele (ovvero det A 0, nel qual
caso il sistema ha ununica soluzione, un sottospazio vettoriale di dimensione 0); le due
rette sono parallele e distinte, nel qual caso il sistema non ha soluzione; le due rette
coincidono, nel qual caso ogni punto di tale retta ` e soluzione (lo spazio delle soluzioni ` e
allora un sottospazio vettoriale di R
2
di dimensione 1). Se n = 3 si pu` o dare una analoga,
anche se meno immediata, classicazione basata su argomenti geometrici. In generale,
comunque, la risposta ` e legata al concetto di rango o caratteristica:
Denizione 12. Sia A M
m,n
(K).
(i) Una matrice quadrata M di ordine , minm, n, si dice sottomatrice di A di
ordine se si pu` o ottenere da A cancellando m righe e n colonne.
(ii) Si dice rango o caratteristica di A, e si indica con Rango (A), il pi ` u grande intero
per il quale esiste una sottomatrice M di A di ordine con determinante di verso
da zero.
Le matrici complementari M
i j
di un elemento a
i j
di una matrice quadrata A (si veda
la (24)) sono sottomatrici di A di ordine n 1.
Esempio 32. La matrice
_

_
1 1 1
0 0 0
1 0 0
_

_
ha rango due. Infatti det A = 0, mentre la matrice ottenuta cancellando (per esempio) la
seconda riga e la terza colonna ha determinante diverso da zero.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 31
`
E chiaro che determinare il rango di una matrice pu` o essere piuttosto laborioso se la
matrice ha un numero elevato di righe e colonne; il seguente risultato semplica le cose:
Teorema 13 (di Kronecker). Sia A M
m,n
(K). Rango (A) = r se e solo se:
(i) esiste una sottomatrice M di ordine r tale che det M 0;
(ii) ogni sottomatrice di ordine r + 1 che abbia M come sottomatrice ha determinante
nullo.
In altre parole non ` e necessario calcolare tutti i determinanti di ordine r + 1, ma solo
quelli delle sottomatrici che si ottengono da M orlandola con una riga e una colonna
scelte tra quelle cancellate.
Esempio 33. La matrice
_

_
1 0 0 1 0
0 0 0 0 0
0 0 0 0 0
0 3 1 3 0
0 0 0 0 1
_

_
ha rango 3. Infatti la sottomatrice M che si ottiene cancellando la seconda e terza riga
e la seconda e quarta colonna ha determinante diverso da zero, mentre orlando M con la
seconda o la terza riga (e una qualunque colonna) il determinante si annulla in quanto tali
righe hanno tutti i coecienti nulli.
Il seguente risultato estende il Teorema 10 al caso di matrici non necessariamente
quadrate:
Teorema 14. Sia A M
m,n
(K). Il rango di A coincide con il massimo numero di vettori
riga tra loro linearmente indipendenti e con il massimo numero di vettori colonna tra loro
lineramente indipendenti.
Si noti che ogni vettore Ax, x K
n
, ` e combinazione lineare dei vettori colonna v
i
=
(a
1i
, . . . , a
mi
)
T
di A:
Ax =
_

_
a
11
x
1
+ + a
1n
x
n
.
.
.
a
m1
x
1
+ + a
mn
x
n
_

_
= x
1
_

_
a
11
.
.
.
a
m1
_

_
+ + x
n
_

_
a
1n
.
.
.
a
mn
_

_
= x
1
v
1
+ . . . x
n
v
n
.
Perci ` o segue dal Teorema precedente che se L
A
: R
n
R
n
` e lapplicazione lineare
associata ad A rispetto alle basi canoniche, allora
Rango (A) = dim(im L
A
). (27)
Questa relazione consente di fornire una prima risposta alle domande da cui siamo partiti.
Infatti, Il sistema Ax = b ammette una soluzione se e solo se b im(L
A
), ovvero se e solo
se b ` e generato dai vettori colonna di A. Perci ` o:
Teorema 15 (di Rouch e-Capelli). Sia A M
m,n
(K) e b K
m
. Il sistema Ax = b ammette
almeno una soluzione se e solo se il rango di A ` e uguale al rango della matrice che si
ottiene aggiungendo ad A il vettore colonna b, ovvero se e solo se
Rango (A) = Rango (A b). (28)
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 32
Si noti che se il sistema ` e omogeneo la condizione (28) ` e automaticamente vericata:
ci` o corrisponde al fatto che il sistema omogeneo ammette sempre la soluzione nulla.
Sia A M
m,n
(K). Il Teorema di Rouch e-Capelli fornisce una condizione necessaria e
suciente per lesistenza di almeno una soluzione del sistema Ax = b, ma non fornisce
informazioni su quante esse siano. Per chiarire questo punto, consideriamo prima il
sistema omogeneo Ax = 0 e indichiamo con K linsieme delle soluzioni:
K = x K
n
: Ax = 0. (29)
Si noti che K coincide con Ker L
A
, dove L
A
` e lapplicazione lineare associata ad A rispetto
alle basi canoniche di K
n
. Perci ` o K ` e un sottospazio vettoriale di K
n
; inoltre segue subito
dal Teorema delle dimensioni e dalla (27) che
dimK = dim(Ker L
A
)
(9)
= n dim(im L
A
)
(27)
= n Rango (A).
Se il sistema non ` e omogeneo e x
0
` e una soluzione, allora ogni altra soluzione ` e del tipo
x
0
+ x con x Ker L
A
. Perci ` o, in generale vale il seguente risultato:
Teorema 16 (soluzioni di sistemi m n). Sia A M
m,n
(K), b K
m
e supponiamo che il
sistema Ax = b ammetta almeno una soluzione x
0
. Allora le soluzioni del sistema sono
tutte e sole del tipo
x
0
+ x, x K,
con K dato dalla (29). Le soluzioni di Ax = b formano un sottospazio vettoriale di K
n
di
dimensione n Rango (A) = dimK.
Lo schema operativo per risolvere un sistema Ax = b prende spunto dalla discussione Algoritmo risolutivo
di sistemi m n
teorica appena svolta:
(i) si verica mediante il Teorema di Rouch e-Capelli che il sistema sia risolubile; se
lo ` e, allora:
(ii) si determina il rango r di A e si identica una sottomatrice quadrata M di ordine
r con determinante diverso da zero, ottenuta mantenendo le righe i
1
, . . . , i
r
e le
colonne j
1
, . . . , j
r
e cancellando le rimanenti;
(iii) si portano a secondo membro le colonne cancellate, denendo cos` un nuovo vettore
colonna b

, e si determina lunica soluzione del sistema Mx

= b

, dove x

=
(x
j
1
, . . . , x
j
r
).
Le rimanenti componenti di x restano indeterminate e possono assumere valori arbitrari:
sono n r costanti libere che, variando, generano lo spazio delle soluzioni di dimensione
n r.
Esempio 34. Si vuole risolvere il sistema
Ax = b :=
_

_
3
2
1
0
_

_
, dove A =
_

_
1 2 0
1 1 1
1 0 2
1 1 3
_

_
.
Il terzo e il quarto vettore riga di A sono combinazione lineare dei primi due: il terzo si
ottiene moltiplicando il secondo per 2 e sottraendo il primo, il quarto si ottiene moltipli-
cando per 3 il secondo e sottraendovi il doppio del primo. Perci ` o, per il Teorema 14 il
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 33
rango di A ` e al pi ` u 2: in eetti Rango (A) = 2 poich e la sottomatrice costituita dalle prime
due righe e colonne ha determinante diverso da zero. Con le stesse operazioni si ottiene
che anche il terzo e quarto vettore riga della matrice (A b) sono combinazione lineare
dei primi due: perci ` o Rango (A) = Rango (A b) = 2 e il sistema ammette almeno una
soluzione.
Per determinare le soluzioni, conviene considerare la sottomatrice che si ottiene can-
cellando la seconda e quarta riga e la prima colonna di A, poich e con questa scelta si
ottiene una matrice diagonale; risulta quindi
_
2 0
0 2
_ _
x
2
x
3
_
=
_
3 x
1
1 x
1
_
x
2
=
1
2
(3 x
1
), x
3
=
1
2
(x
1
1).
Perci ` o le soluzioni del sistema sono tutte e sole
1
2
(2x
1
, 3 x
1
, x
1
1), x
1
R.
5 Autovalori e autovettori
5.1 Premessa
Sia L una applicazione lineare da K
n
in s e. Come si ` e visto nel paragrafo 3.1, la matrice
che rappresenta L dipende dalla scelta della base di K
n
(in verit` a si dovrebbe parlare,
come abbiamo fatto sinora, di due basi, una per la copia di K
n
che rappresenta il dominio
e una per la copia di K
n
che rappresenta limmagine, ma nel seguito della discussione
assumeremo sempre che esse coincidano). La questione centrale di questa sezione ` e:
data una applicazione lineare L : K
n
K
n
, esiste una base privilegiata B

=
v

1
, . . . , v

n
di K
n
rispetto alla quale la rappresentazione A

di L ` e una matrice
diagonale?
La richiesta che A

sia diagonale, ovvero del tipo


A

=
i j

j
=
_

1
0 . . . 0
0
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 . . . 0
n
_

_
,
geometricamente equivale a richiedere che i vettori della base B

non cambino direzione


rispetto ad L: infatti, poich e ovviamente
v

i
= 0v

1
+ + 0v

i1
+ 1v

i
+ 0v

i+1
+ + 0v

n
=
n

j=1

i j
v

j
,
risulta
A

i1
.
.
.

in
_

_
=
_

i1

1
.
.
.

in

n
_

_
=
i
_

i1
.
.
.

in
_

_
, ovvero L(v

i
) =
i
v

i
.
Iniziamo lo studio di questa questione descrivendo come cambia la rappresentazione
di L al variare della base.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 34
5.2 Cambiamenti di base; matrici diagonalizzabili
Sia B

= v

1
, . . . , v

n
una qualunque base di K
n
di elementi
v

j
= (c
1j
, . . . , c
nj
)
T
, j = 1, . . . , n (30)
e sia C la matrice che ha come vettori colonna gli elementi della base:
C =
_
v

1
. . . v

n
_
. (31)
Un qualunque vettore x = (x
1
, . . . , x
n
)
T
K
n
si scrive in modo unico come combinazione
lineare di elementi di B

:
x = x

1
v

1
+ . . . x

n
v

n
.
Utilizzando la (30), risulta quindi
x =
_

_
n

j=1
x

j
c
1j
, . . . ,
n

j=1
x

j
c
nj
_

_
T
= Cx

.
Poich e i vettori v

1
, . . . , v

n
sono linearmente indipendenti, le n colonne della matrice C
sono linearmente indipendenti: perci ` o, per il Teorema 10 det C 0, ovvero (per il
Teorema 11) C ` e invertibile. Si ha quindi
x

= C
1
x.
Riassumendo,
x = x
1
e
1
+ . . . x
n
e
n
= x

1
v

1
+ . . . x

n
v

n
x = Cx

e x

= C
1
x, (32)
con C denita dalle (30) e (31). Viceversa, come sappiamo, i vettori colonna di ogni
matrice quadrata C di ordine n con determinante diverso da 0 costituiscono una base di
K
n
e vale la (32). Deniamo quindi matrice di passaggio una qualunque matrice quadrata
di ordine n con determinante diverso da zero.
La caratterizzazione dei cambiamenti di base appena ottenuta consente di determinare
la rappresentazione A

di una applicazione lineare L rispetto a una generica base B

a par-
tire dalla sua rappresentazione A rispetto alla base canonica: se rispetto alla base canonica
si ha y = L(x) = Ax, allora le componenti y

di y nella base B

sono date da
y

= C
1
y = C
1
Ax = C
1
ACx

;
quindi
L = L
A
rispetto alla base canonica

L = L
A
rispetto alla base B

, con A

= C
1
AC.
Perci ` o la domanda con cui abbiamo iniziato questa sezione equivale a caratterizzare le
matrici diagonalizzabili:
Denizione 13. Una matrice A M
n,n
(K) si dice diagonalizzabile su K se esiste una
matrice di passaggio C tale che la matrice A

= C
1
AC sia diagonale. In tal caso la
matrice A

si dice diagonalizzazione di A.
Nel resto della sezione, quindi, ci occuperemo di caratterizzare le matrici diagonalizzabili.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 35
5.3 Autovalori e autovettori
Sia A una matrice diagonalizzabile e sia A

=
i j

j
la sua diagonalizzazione. Detta
L = L
A
lapplicazione lineare associata ad A rispetto alla base canonica, come abbiamo
osservato nel paragrafo 5.1 risulta L(v

i
) = Av

i
=
i
v

i
. I vettori e i coecienti che
vericano questa propriet` a si chiamano autovettori e autovalori di A:
Denizione 14. Sia A una matrice quadrata di ordine n. Un vettore v

0 si dice
autovettore di A se esiste K, detto autovalore di A, tale che Av

= v

.
Si noti che ad ogni autovettore ` e associato un unico autovalore (se infatti Av

=
1
v

2
v

allora 0 = (
1

2
)v

da cui
1
=
2
). Invece ad un autovalore sono associati pi ` u
autovettori:
Proposizione 17. Sia K un autovalore di A e sia v

un autovettore associato a
(ovvero Av

= v

). Allora
(i) v

` e un autovettore di A per ogni K \ 0;


(ii) se w

` e un autovettore associato a , allora v

+ w

` e un autovettore associato a .
Perci` o linsieme
A

= v

K
n
: Av

= v

0
` e un sottospazio vettoriale di K
n
detto autospazio associato a .
La verica delle due propriet` a ` e immediata e lultima aermazione segue banalmente
da esse.
Il ragionamento svolto nel paragrafo 5.1 pu` o anche essere invertito e conduce al
seguente risultato:
Teorema 18. Una matrice quadrata A ` e diagonalizzabile su K se e solo se esiste una
base v

1
, . . . , v

n
di K
n
formata da autovettori di A: Av

i
=
i
v

i
per ogni i = 1, . . . , n. In
tal caso, posto C = (v

1
. . . v

n
), la matrice A

= C
1
AC ha sulla diagonale gli autovalori
associati agli elementi della base, ovvero A

=
i j

j
.
Determinare gli autovalori di A equivale, per denizione, a determinare quei valori
K tali che il sistema lineare omogeneo (A I)x = 0 abbia soluzioni non banali,
ovvero (ricordando il Teorema 16) che
det(A I) = 0. (33)
Lequazione 33 corrisponde a un polinomio di grado n in , detto polinomio caratteris-
tico. Come ` e naturale aspettarsi, il polinomio caratteristico ` e invariante rispetto a cambi-
amenti di coordinate: se C ` e una matrice di passaggio, allora dal Teorema di Binet segue
che
det(C
1
AC I) = det(C
1
AC C
1
IC) = det(C
1
(A I)C) = det(A I). (34)
In particolare, gli autovalori dipendono solo dalla applicazione lineare e non dalla sua
rappresentazione rispetto a una certa base.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 36
Esempio 35. La matrice
_
0 1
1 0
_
` e diagonalizzabile su R. Per provarlo, osserviamo che le soluzioni del polinomio caratter-
istico
det
_
1
1
_
=
2
1 = 0
sono = 1 e = 1. Per determinare un autovettore v
1
= (x, y) associato a = 1,
risolviamo il relativo sistema:
_
1 1
1 1
_ _
x
y
_
= 0 y = x, x R,
perci` o un autovettore associato a = 1 ` e ad esempio v
1
= (1, 1). Procedendo allo stes-
so modo, risulta che un autovettore associato a
2
= 1 ` e v
2
= (1, 1). Poich e i due
vettori sono linearmente indipendenti (ovvero la matrice di passaggio C = (v
1
v
2
) ha
determinante non nullo) la matrice ` e diagonalizzabile su R e
A

= C
1
AC =
_
1 0
0 1
_
.
Esempio 36. La matrice
_
0 1
1 0
_
non ` e diagonalizzabile su R ma ` e diagonalizzabile su C. Per provarlo, osserviamo che le
soluzioni del polinomio caratteristico
det
_
1
1
_
=
2
+ 1 = 0
sono = i e = i. Perci` o la matrice non ha autovalori in R, quindi non ` e diago-
nalizzabile su R. Su C, procedendo come nellesempio precedente si determinano due
autovettori: v
1
= (1, i) associato a = i e v
2
= (1, i) associato a = i. Poich e
det C = det
_
1 1
i i
_
= 2i 0,
i due vettori formano una base di C
2
e perci ` o A ` e diagonalizzabile su C.
5.4 Diagonalizzabilit` a
Nei due esempi precedenti, gli autovettori associati a due autovalori distinti sono risultati
essere linearmente indipendenti. Questa propriet` a ` e vera in generale:
Lemma 19. Siano
1
, . . . ,
k
autovalori di A e sia v
i
un autovettore associato a
i
. Se

1
, . . . ,
k
sono tra loro distinti, allora v
1
, . . . , v
k
sono tra loro linearmente indipendenti.
Possiamo perci ` o fornire una prima risposta alla domanda centrale della sezione:
Teorema 20. Sia A M
n,n
(K). Se A ha n autovalori reali e distinti, allora ` e diagonaliz-
zabile su R. Se A ha n autovalori distinti (ma non necessariamente reali) in C, allora ` e
diagonalizzabile su C.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 37
Nel resto del paragrafo ci occupiamo del caso pi ` u generale in cui gli autovalori non
siano necessariamente distinti tra loro. Sia K un autovalore di A:
si dice molteplicit` a algebrica di la sua molteplicit` a come soluzione del poli-
nomio caratteristico;
si dice molteplicit` a geometrica di la dimensione dellautospazio associato a .
Le due quantit` a possono non coincidere:
Esempio 37. Il polinomio caratteristico della matrice
A =
_
1 1
0 1
_
` e (1 )
2
= 0. Perci ` o A ha un unico autovalore, = 1, con molteplicit` a algebrica 2.
Determiniamo gli autovettori (x, y) associati a = 1 risolvendo il relativo sistema:
(A I)
_
x
y
_
= 0 y = 0
. Perci ` o lautospazio associato a = 1 ` e
A
1
= (x, 0) : x K = spame
1

e ha dimensione 1. Quindi la molteplicit` a geometrica di = 1 ` e uguale a 1. Si noti che,


poich e v = e
1
` e lunico autovettore di A, A non ` e diagonalizzabile n e in R n e in C.
La situazione incontrata dallesempio precedente ` e generale:
Teorema 21. Sia A M
n,n
(K) e sia K un autovalore di A. La molteplicit ` a geometrica
dimA

di non supera la molteplicit` a algebrica m

di , ovvero dimA

.
Se la somma delle dimensioni degli autospazi ` e pari ad n, allora esistono n autovettori
linearmente indipendenti. Si ottiene cos` una caratterizzazione (pi ` u teorica che operativa)
delle matrici diagonalizzabili:
Teorema 22. Supponiamo che A M
n,n
(K) abbia autovalori distinti
1
, . . . ,

. Allora
A ` e diagonalizzabile

k=1
dim(A

k
) = n.
5.5 Teorema spettrale: il caso reale
Il teorema precedente ` e chiaramente non semplice da vericare soprattutto se lordine del-
la matrice ` e alto. Il Teorema spettrale reale, di grande importanza, fornisce una condizione
suciente per la diagonalizzabilit` a di una matrice A a coecienti reali. Tale condizione
` e molto semplice: basta che A sia simmetrica, ovvero che A
T
= A.
Teorema 23 (Teorema spettrale (caso reale)). Sia A M
n,n
(R) simmetrica. Allora:
(i) tutti gli autovalori di A sono reali;
(ii) A ` e diagonalizzabile su R e la matrice di passaggio C ` e una matrice ortogonale,
ovvero C
T
= C
1
.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 38
Esempio 38. Nel caso di matrici simmetriche di ordine 2 possiamo facilmente vericare
il teorema con calcoli diretti. Se A =
_
a b
b d
_
, allora
det(A I) =
2
(a + d) + b
2
= 0 =
1
2
_
a + d
_
(a d)
2
+ 4b
2
_
.
Perci ` o A possiede due autovalori reali, che sono distinti a meno che a = d e b = 0, ma in
tal caso A = aI ` e gi` a diagonale. Perci ` o ` e in ogni caso diagonalizzabile.
5.6 Teorema spettrale: il caso complesso
Il teorema spettrale reale ha una estensione al caso complesso, per accennare alla quale
` e opportuno anzitutto generalizzare la nozione di prodotto scalare al campo complesso;
tale nozione ` e detta anche prodotto hermitiano: dati x, y C
n
, si denisce
(x, y) =
n

i=1
x
i
y
i
.
Si noti che il prodotto hermitiano coincide con il prodotto scalare se x, y R
n
, e che (x, x)
` e un numero reale non negativo, che si annulla se e solo se x = 0 (ci ` o consente di dare
una struttura metrica a C
n
con la norma jxj =

(x, x)).
Il prodotto hermitiano ` e distributivo e omogeneo ma, contrariamente al prodotto scalare
su R, non ` e commutativo: si ha infatti (x, y) = (y, x).
Abbiamo visto nellEsempio 21 che se x, z R
n
e A M
n,n
(R), allora (z, Ax) =
(A
T
z, x). Per ottenere una formula analoga nel caso del prodotto hermitiano servono
alcune nozioni.
Si dice trasposta coniugata di una matrice A M
m,n
(C), e si indica con A
H
, la matrice
A
H
= a
ji
.
Per esempio,
A =
_
i 0
1 i 3i
_
A
H
=
_
i 1 + i
0 3i
_
.
Una matrice quadrata A M
n,n
(C) si dice hermitiana se A
H
= A. Tali nozioni
estendono quelle reali di matrice trasposta, nel senso che se A M
m,n
(R) allora A
H
= A
T
,
e di matrice simmetrica, nel senso che se A M
n,n
(R), allora ` e hermitiana se e solo se ` e
simmetrica. Si ha, come annunciato,
(z, Ax) = (A
H
z, x) x, z C
n
, A M
n,n
(C).
Siamo ora in grado di enunciare il seguente risultato:
Teorema 24 (Teorema spettrale (caso complesso)). Sia A M
n,n
(C) hermitiana. Allora:
(i) tutti gli autovalori di A sono reali;
(ii) A ` e diagonalizzabile su C e la matrice di passaggio C ` e una matrice unitaria,
ovvero C
H
= C
1
.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 39
5.7 Forme quadratiche in R
n
Ad ogni matrice simmetrica di ordine n ` e associata una forma quadratica in R
n
, ovvero
una applicazione lineare Q : R
n
R
n
R denita da
Q(v) = (Av, v) = v
T
Av. (35)
Una forma quadratica si dice:
denita positiva se Q(v) > 0 per ogni v R
n
\ 0;
denita negativa se Q(v) < 0 per ogni v R
n
\ 0;
semi-denita positiva se Q(v) 0 per ogni v R
n
;
semi-denita negativa se Q(v) 0 per ogni v R
n
.
Per il Teorema spettrale reale A ` e diagonalizzabile, ovvero esiste una matrice di passaggio
ortogonale, C, tale che
A

= C
T
AC =
_

1
0 . . . 0
0
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
0 . . . 0
n
_

_
,
dove
1
, . . . ,
n
R sono gli autovalori di A. Eettuando il cambiamento di base e ricor-
dando che x

= C
1
x = C
T
x, possiamo rappresentare Q rispetto alla base di autovettori:
Q(v) = v
T
CC
1
ACC
1
v = (C
T
v)
T
C
T
ACv

= (v

)
T
A

. (36)
Da questa relazione segue immediatamente la seguente caratterizzazione:
Teorema 25. Sia A una matrice simmetrica. La forma quadratica (35) ` e (semi-)denita
positiva se e solo se il pi ` u piccolo autovalore di A ` e positivo (non-negativo) ed ` e (semi-
)denita negativa se e solo se il pi` u grande autovalore di A ` e negativo (non positivo).
Nel caso di matrici quadrate di ordine due ` e semplice riformulare il risultato esplici-
tamente in termini dei coecienti di A. Sia
A =
_
a b
b d
_
Segue dallEsempio 38 che

1
=
1
2
_
a + d +
_
(a d)
2
+ 4b
2
_

1
2
_
a + d
_
(a d)
2
+ 4b
2
_
=
2
.
Si ha

2
()
> 0
_

_
a + d
()
> 0
(a + d)
2
()
> (a d)
2
+ 4b
2

_
a + d
()
> 0
ad b
2
= det A
()
> 0
Perci ` o
A ` e (semi-)denita positiva
_

_
det A
()
> 0
a
()
> 0 oppure d
()
> 0.
Procedendo allo stesso modo risulta
A ` e (semi-)denita negativa
_

_
det A
()
> 0
a
()
< 0 oppure d
()
< 0.
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 40
Indice analitico
Addizione di vettori, 9
Applicazione lineare, 16
Applicazione lineare biettiva, 16
Applicazione lineare iniettiva, 16
Applicazione lineare suriettiva, 16
Autospazio, 35
Autovalore, 35
Autovettore, 35
Base canonica di K
n
, 11
Base canonica di R
3
, 4
Base canonica di M
m,n
(K), 19
Base di uno spazio vettoriale, 10
Base ortonormale, 15
Caratteristica di una matrice, 30
Combinazione lineare di vettori, 10
Complemento algebrico, 26
Componenti di un vettore rispetto a una base,
10
Determinante, 26
Dimensione di uno spazio vettoriale, 11
Direzione di un vettore, 2
Distanza, 13
Distanza con segno, 2
Distanza euclidea, 14
Distanza indotta da un prodotto scalare, 14
Distanza indotta da una norma, 13
Disuguaglianza di Cauchy-Schwartz, 14
Disuguaglianza triangolare, 14
Forma quadratica (semi-)denita positiva (neg-
ativa), 39
Forma quadratica in R
n
, 39
Formula di Grassmann, 12
Immagine, 16
Isomorsmo, 16
Lunghezza di un vettore, 2
Matrice, 17
Matrice complementare, 26
Matrice di passaggio, 34
Matrice diagonale, 17
Matrice diagonalizzabile, 34
Matrice hermitiana, 38
Matrice identit` a, 22
Matrice inversa, 22
Matrice invertibile, 22
Matrice ortogonale, 37
Matrice quadrata, 17
Matrice simmetrica, 17
Matrice singolare, 22
Matrice trasposta, 17
Matrice trasposta coniugata, 38
Matrice unitaria, 38
Molteplicit` a algebrica di un autovalore, 37
Molteplicit` a geometrica di un autovalore,
37
Moltiplicazione di un vettore per uno scalare,
3
Moltiplicazione di una matrice per uno scalare,
18
Moltiplicazione per uno scalare, 9
Moltiplicazione per uno scalare di applicazioni
lineari, 16
Norma, 13
Norma euclidea, 13, 14
Norma indotta da un prodotto scalare, 14
Nucleo, 16
Ordine di una matrice, 17
Piano, 6
Polinomio caratteristico, 35
Prodotto hermitiano, 38
Prodotto misto, 8
Prodotto righe per colonne, 21
Prodotto scalare, 5, 14, 38
Prodotto vettoriale, 7, 25
Proiezione, 16
Rango di una matrice, 30
Rappresentazione cartesiana, 2
Regola di Cramer, 29
Retta, 6
Rotazione nel piano, 20
Sistema di generatori di uno spazio vettori-
ale, 10
Sistema lineare, 23
Sistema lineare, soluzioni, 23
Somma di applicazioni lineari, 16
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.
Appendice - Elementi di algebra lineare 41
Somma di matrici, 18
Somma di spazi vettoriali, 12
Somma di vettori, 3
Somma diretta di spazi vettoriali, 12
Sottomatrice, 30
Sottospazio vettoriale, 12
Spazi vettoriali isomor, 16
Spazio vettoriale, 9
Spazio vettoriale dotato di prodotto scalare,
14
Teorema di Binet, 27
Teorema di Kronecker, 31
Teorema di Laplace, 26
Teorema di Rouch e-Capelli, 31
Teorema spettrale (caso complesso), 38
Teorema spettrale (caso reale), 37
Verso di un vettore, 2
Versore, 2
Vettore colonna, 17
Vettore colonna di una matrice, 18
Vettore geometrico, 2
Vettore riga, 17
Vettore riga di una matrice, 18
Vettori linearmente indipendenti, 10
Analisi matematica - Michiel Bertsch, Roberta Dal Passo, Lorenzo Giacomelli
Copyright c _2007 The McGraw-Hill Companies S.r.l.