Sei sulla pagina 1di 151

Algebra Lineare

Antonino Salibra

September 26, 2019


2

Libri di Testo
• A. Salibra: Algebra Lineare, 2018.

• M. Abate, C. de Fabritiis: Geometria analitica con elementi di algebra lineare,


Seconda Edizione, McGraw-Hill, 2010.

• Claretta Carrara, Esercizi di Algebra Lineare,


http://www.dsi.unive.it/∼acarraro/Esercizi algebra lineare 2.pdf

Programma di Algebra Lineare (2018/19)

1. Campi numerici. Esempi di campi numerici: il campo dei numeri reali; il campo
dei numeri complessi; il campo dei numeri interi modulo p per un numero primo
p.

2. Numeri complessi: parte reale ed immaginaria, coniugato di un numero com-


plesso. Modulo di un numero complesso. Prodotto e somma di numeri com-
plessi. Rappresentazione trigonometrica: piano complesso. Rappresentazione
esponenziale. Radici n-sime dell’unità.

3. Introduzione ai vettori. Grandezze fisiche e vettori. La definizione di spazio


vettoriale con somma vettoriale e prodotto per uno scalare.

4. Prodotto interno (o scalare) di due vettori del piano o dello spazio. Proprietà
del prodotto interno. Lunghezza di un vettore. Caratterizzazione della per-
pendicolarità con il prodotto interno. Disuguaglianza di Schwartz. Caratteriz-
zazione del coseno dell’angolo formato da due vettori con il prodotto interno.
Alcune applicazioni alla geometria euclidea.

5. Rette nel piano. Equazione lineare di una retta. Equazione parametrica di una
retta. Retta passante per l’origine e perpendicolare ad un dato vettore. Retta
parallela ad una retta passante per l’origine. Retta passante per un punto e
parallela (alla retta determinata da) ad un dato vettore. Retta passante per
due punti.

6. Rette e piani nello spazio. Equazione lineare di un piano. Equazione para-


metrica di un piano. Piano passante per l’origine e perpendicolare ad un dato
vettore. Piano parallelo ad un piano passante per l’origine. Piano passante per
tre punti non allineati.
3

7. Sistemi Lineari. Il metodo di eliminazione di Gauss. Criteri da applicare nel


metodo di eliminazione di Gauss.

8. Matrici. Matrice quadrata, simmetrica, diagonale, triangolare superiore e in-


feriore. Trasposta di una matrice. Lo spazio vettoriale delle matrici di tipo
m × n. Prodotto di matrici. Proprietà del prodotto di matrici. Moltiplicazione
di matrici a blocchi.

9. Matrici e sistemi lineari. Matrici elementari, operazioni elementari e metodo


di eliminazione di Gauss. Matrice a scala e matrice ridotta. Riduzione di una
matrice in forma a scala e in forma ridotta. Applicazioni ai sistemi lineari.

10. Spazi vettoriali. Sottospazi. Vettori linearmente dipendenti e linearmente in-


dipendenti. Basi e dimensione di uno spazio vettoriale.

11. Trasformazioni lineari. Teorema della dimensione. Matrice di una trasfor-


mazione lineare. Trasformazione lineare definita da una matrice. Sottospazio
vettoriale delle colonne (righe) di una matrice. Isomorfismi e cambi di base.
Sistemi lineari e trasformazioni lineari.

12. Interpretazione geometrica del determinante come area di un parallelogramma


e come volume di un parallelepipedo. Prodotto vettoriale di due vettori dello
spazio. Determinante di una matrice quadrata di ordine n. Determinante della
matrice trasposta, del prodotto di due matrici. Regola di Cramer. Calcolo
della matrice inversa con la regola di Cramer, con il metodo dei cofattori, e con
il metodo di Gauss-Jordan.

13. Autovalori e autovettori. Autospazi. Polinomio caratteristico. Radici del poli-


nomio caratteristico. Matrici simili hanno lo stesso polinomio caratteristico.
Autovettori di autovalori distinti. Diagonalizzazione di una matrice. Basi di
autovettori. Teorema fondamentale. Esempi: algoritmo di Google. Numeri di
Fibonacci.
4
Chapter 1

Campi Numerici

Un campo è un insieme di numeri chiuso rispetto alle quattro operazioni: addizione,


moltiplicazione, sottrazione e divisione.

Definition 1.0.1. Un campo numerico è costituito da un insieme X, due operazioni


binarie + e ·, due operazioni unarie − e −1 , e due costanti 0 e 1, che soddisfano le
seguenti proprietà:

1. Proprietà associativa: x + (y + z) = (x + y) + z; x · (y · z) = (x · y) · z.

2. Proprietà commutativa: x + y = y + x; x · y = y · x.

3. Elemento neutro: x + 0 = x; x · 1 = x.

4. Proprietà distributiva: x · (y + z) = (x · y) + (x · z).

5. Opposto: x + (−x) = 0.

6. Inverso: Se x 6= 0, allora x · x−1 = 1.

7. Prodotto per 0: x · 0 = 0 = 0 · x.

Scriveremo

• xy al posto di x · y;

• x − y al posto di x + (−y);

• x/y oppure x
y
per x · y −1 ;

5
6 CHAPTER 1. CAMPI NUMERICI

• Per ridurre il numero di parentesi supporremo che il prodotto leghi più della
somma. Per esempio, x + yz significa x + (yz).

La quadrupla (X, +, −, 0) costituisce un gruppo commutativo rispetto alla somma,


mentre (X \ {0}, ·,−1 , 1) un gruppo commutativo rispetto al prodotto.

Example 1. I seguenti insiemi con le ovvie operazioni aritmetiche sono campi nu-
merici:

• L’insieme Q dei numeri razionali;

• L’insieme R dei numeri reali;

• L’insieme C dei numeri complessi;

• L’insieme B = {0, 1} dei bits con le operazioni di somma e prodotto definiti


come segue:
0 +2 0 = 1 +2 1 = 0; 0 +2 1 = 1 +2 0 = 1;

e
0 ×2 0 = 0 ×2 1 = 1 ×2 0 = 0; 1 ×2 1 = 1.

L’opposto di 1 è uno, cioé −1 = 1. Questo campo numerico rappresenta


l’aritmetica dei numeri modulo 2.

• Sia p un numero primo. Allora l’insieme dei numeri {0, 1, . . . , p − 1} con le


operazioni di addizione +p e moltiplicazione ×p modulo p è un campo numerico.
Se x, y ≤ p − 1, allora abbiamo:
(
x+y if x + y ≤ p − 1
x +p y =
r if x + y = p + r per un certo r.

(
xy if xy ≤ p − 1
x ×p y =
r if xy = qp + r con 0 ≤ r ≤ p − 1.

Per esempio, se p = 5, abbiamo 3 +5 2 = 0 e 3 +5 3 = 1, mentre 3 ×5 3 = 4 e


4 ×5 4 = 1.
1.1. IL CAMPO DEI NUMERI COMPLESSI 7

1.1 Il campo dei numeri complessi


I numeri reali negativi non ammettono radice quadrata. Questa è una limitazione.
Per esempio, l’equazione x2 + x + 2 = 0 non ammette soluzioni reali:
√ √
−1 ± −7 1 7√
x= =− ± −1.
2 2 2

Le soluzioni dell’equazione
√ x2 + x + 2 = 0 sono numeri complessi perché nella formula
risolutiva compare √ −1.
Il nuovo numero −1, indicato con la lettera “i”, soddisfa l’equazione i2 = −1.
In generale un numero complesso z è un numero della forma

z = a + bi

con a, b numeri reali. Il numero a è la parte reale di z mentre b è la parte immaginaria


di z. Questi due numeri vengono denotati rispettivamente da Re(z) = a e Im(z) = b.

Proposition 1.1.1. I numeri complessi sono un campo numerico, cioé sono chiusi
rispetto alle quattro operazioni aritmetiche.

Proof. I numeri complessi possono essere sommati e moltiplicati:

(a + bi) + (c + di) = (a + c) + (b + d)i; (a + bi)(c + di) = (ac − bd) + (ad + bc)i.

Si noti che (bi)(di) = bd(i2 ) = bd(−1) = −bd.


L’opposto del numero complesso a + bi è il numero −a − bi, mentre l’inverso del
numero a + bi (supponendo che a + bi 6= 0) si calcola come segue:
  
1 1 a − bi a − bi a − bi a b
= = = 2 2
= 2 2
− 2 i.
a + bi a + bi a − bi (a + bi)(a − bi) a +b a +b a + b2

Example 2. Siano z = 3 + 2i e w = 5 + 7i numeri complessi. Allora abbiamo

z + w = (3 + 2i) + (5 + 7i) = 3 + 2i + 5 + 7i = (3 + 5) + (2 + 7)i = 8 + 9i.

zw = (3+2i)(5+7i) = 15+21i+10i+14i2 = 15+31i+14(−1) = 15−14+31i = 1+31i.


8 CHAPTER 1. CAMPI NUMERICI

Coniugato e modulo di un numero complesso


Se z = a + ib è un numero complesso, il numero z̄ = a − bi si chiama il coniugato di
z. Si vede facilmente che z z̄ = a2 + b2 è un numero reale.
Valgono le seguenti proprietà:

Proposition 1.1.2. (i) z1 + z2 = z̄1 + z̄2 ;

(ii) z1 z2 = z̄1 z̄2 .

(iii) z è un numero reale sse z = z̄.

Example 3. Siano z = 1 + 2i e w = 2 + 2i. Allora abbiamo:


• z + w = 3 + 4i = 3 − 4i.

• z + w = 1 + 2i + 2 + 2i = (1 − 2i) + (2 − 2i) = 3 − 4i = z + w.

• zw = (1 + 2i)(2 + 2i) = −2 + 6i = −2 − 6i.

• z w = (1 − 2i)(2 − 2i) = −2 − 6i = zw.


Ogni numero complesso è rappresentato in maniera unica da un punto del piano
reale tramite la seguente funzione (si veda la Figura 1.1):

a + bi 7→ (a, b).

La distanza del punto (a, b) dall’origine degli assi cartesiani è il modulo del numero
complesso z √
|z| = a2 + b2 .


Proposition 1.1.3. Siano z e w numeri complessi. Allora, |z| = z z̄ and |zw| =
|z||w|.

Proof. Sia z = a + bi e w = c + di. Allora zw = (ac − bd) + (ad + bc)i.

|zw|2 = (ac − bd)2 + (ad + bc)2


= a2 c2 + b2 d2 − 2abcd + a2 d2 + b2 c2 + 2abcd
= a2 c2 + b2 d2 + a2 d2 + b2 c2
= a2 (c2 + d2 ) + b2 (c2 + d2 )
= (a2 + b2 )(c2 + d2 )
= |z|2 |w|2 .
1.1. IL CAMPO DEI NUMERI COMPLESSI 9

Un altro metodo di prova:


|zw|2 = (zw)(zw)
= zwz w Proposizione 1.1.2(ii)
= zzww
= |z|2 |w|2

Prendendo le radici quadrate positive si ricava la conclusione: |zw| = |z||w|.


Ogni equazione di secondo grado è risolubile nel campo complesso.

Proposition 1.1.4.
q Ogni numero complesso z = a + ib ha una radice quadrata

q
|z|+a
z= 2
+ i( |z|−a
2
).

Proof. Verifichiamo che ( z)2 = z:

r r r r
|z| + a |z| − a 2 |z| + a |z| − a |z| + a |z| − a
[ + i( )] = − + 2i = a + ib.
2 2 2 2 2 2

Example 4. Sia z = 3 + 4i. Allora applicando le formule della prova precedente con
a = 3 e b = 4, si ottiene
s√ s√
√ 25 + 3 25 − 3
z= +i = 2 + i.
2 2

Verifichiamo che elevando al quadrato z si ottiene effettivamente z: (2 + i)2 =
(2 + i)(2 + i) = 4 − 1 + 4i = 3 + 4i.
Vale un risultato molto più generale:

Theorem 1.1.5. (Teorema fondamentale dell’algebra) Ogni equazione polinomiale


di grado n
an xn + an−1 xn−1 + · · · + a1 x + a0 = 0
è risolubile nel campo complesso.
Proof. La dimostrazione di questo teorema verrà data nel Capitolo 10 che tratta di
autovalori e autovettori di matrici.
Si dice che il campo complesso è algebricamente chiuso.
10 CHAPTER 1. CAMPI NUMERICI

Il piano complesso
Sia z = a + bi un numero complesso. Il numero z ha una naturale interpretazione
geometrica in termini della sua parte reale ed immaginaria: Re(z) = a e Im(z) = b
come coppia di punti (a, b) del piano cartesiano xy. La retta dei punti y = 0 si
dice asse reale, mentre la retta x = 0 si dice asse immaginario. Per esempio l’unità
immaginaria i ha coordinate (0, 1). Il piano visto come rappresentazione dei numeri
complessi si dice piano complesso.

Figure 1.1: piano complesso

Torniamo al numero z = a + ib. I quattro punti (0, 0), (a, 0), (a, b), (0, b) del piano
complesso determinano un rettangolo √ nel piano complesso la cui diagonale principale
è un segmento di lunghezza |z| = a2 + b2 . La diagonale forma un angolo θ con
l’asse reale. L’angolo 0 ≤ θ < 2π ed il modulo |z| determinano univocamente z. Si
scrive
z = |z|(cos θ + i sin θ).
Se consideriamo
√ il numero complesso z = a + ib come punto (a, b) del piano, allora
la coppia ( a2 + b2 , θ) determina univocamente il punto (a, b) del piano e definisce
le cosiddette coordinate polari del punto (a, b).
Per esempio, l’angolo di 90 gradi ed il modulo 1 determinano univocamente l’unità
immaginaria, mentre l’angolo di 180 gradi ed il modulo 1 determinano il numero reale
−1, etc.

Proposition 1.1.6. Siano z = |z|(cos θ + i sin θ) e w = |w|(cos φ + i sin φ) due


numeri complessi. Allora,

zw = |zw|(cos(θ + φ) + i sin(θ + φ)).


1.1. IL CAMPO DEI NUMERI COMPLESSI 11

Figure 1.2: coordinate polari di z

Il prodotto di z e w si ottiene moltiplicando i moduli e sommando gli angoli. Si


ricordino le formule
sin(θ + φ) = sin θ cos φ + cos θ sin φ
cos(θ + φ) = cos θ cos φ − sin θ sin φ

Proposition 1.1.7. Sia z = cos θ + i sin θ un numero complesso di modulo 1 ed n


un numero naturale. Allora,

z n = cos(nθ) + i sin(nθ).

Per esempio, i2 = cos(2 π2 ) + i sin(2 π2 ) = cos π + i sin π = −1 + 0i = −1, mentre


i4 = cos(4 π2 ) + i sin(4 π2 ) = cos(2π) + i sin(2π) = cos 0 + i sin 0 = 1 + 0i = 1. L’angolo
2π corrisponde ad un giro completo della circonferenza.

La formula magica di Eulero


Concludiamo questa sezione presentando la formula di Eulero. Il logaritmo naturale
ln(a) del numero reale a > 0 (descritto per la prima volta da Nepero) è l’area sottesa
dal grafico della funzione f (x) = x1 da x = 1 a x = a. La base del logaritmo naturale
è data dal numero reale e tale che ln(e) = 1. Questo numero e = 2, 71828 . . . è la
costante di Nepero. Il logaritmo è la funzione inversa dell’esponenziale:

eln(x) = x.

Le funzioni, quando possibile, si approssimano con polinomi considerando l’espansione


in serie. Abbiamo:
12 CHAPTER 1. CAMPI NUMERICI

Figure 1.3: grafico di 1/x

x2 x3 x4
• ex = 1 + x + 2!
+ 3!
+ 4!
+ ...;

x3 x5 x7
• sin x = x − 3!
+ 5!
− 7!
+ ...;

x2 x4 x6
• cos x = 1 − 2!
+ 4!
− 6!
+ ....

Applichiamo la funzione al numero complesso iθ:

(iθ)2 (iθ)3 (iθ)4


eiθ = 1 + iθ + + + + ...
2! 3! 4!
Calcolando otteniamo:
θ2 θ3 θ4
eiθ = 1 + iθ − − i+ + ...
2! 3! 4!
Separando la parte reale dalla parte immaginaria si ha:

θ2 θ4 θ6 θ3 θ5
eiθ = (1 − + − + . . . ) + (θ − + + . . . )i.
2! 4! 6! 3! 5!
Ne segue l’identità di Eulero:

Theorem 1.1.8. eiθ = cos θ + i sin θ.

L’identità seguente lega tra loro le costanti più importanti della matematica π
(lunghezza della circonferenza), e (logaritmo naturale) e i (unità immaginaria):

eiπ = −1.
1.1. IL CAMPO DEI NUMERI COMPLESSI 13

Figure 1.4: formula di Eulero per numeri complessi di modulo 1

1.1.1 Radici dell’unità


Un numero complesso z tale che z n = 1 si chiama radice n-esima dell’unità. Nel
seguito calcoliamo le radici dell’unità tramite l’interpretazione geometrica dei numeri
complessi.

Lemma 1.1.9. Se z n = 1 allora |z| = 1.

Proof. Dalla Proposizione 1.1.3 segue che |z n | = |z|n = 1. Dal fatto che |z| ≥ 0 è un
numero reale si ricava |z| = 1.

Proposition 1.1.10. L’equazione

zn = 1

ammette come soluzione principale il numero complesso


2π 2π
ω = cos( ) + i sin( ).
n n
Le altre soluzioni sono le potenze di ω:
2π 2π
ω k = cos(k ) + i sin(k ), per ogni k ≥ 0.
n n
Le soluzioni distinte sono 1, ω, ω 2 , . . . , ω n−1 .
14 CHAPTER 1. CAMPI NUMERICI

Proof. Applichiamo la Proposizione 1.1.7 al numero complesso z = cos θ + i sin θ:

z n = cos(nθ) + i sin(nθ) = 1 = cos(k2π) + i sin(k2π),

perché cos(k2π) = 1 e sin(k2π) = 0 per ogni numero naturale k ≥ 0. Si ricava quindi


θ = k 2π
n
.
Per esempio, le soluzioni dell’equazione z 3 = 1 corrispondono ad i numeri comp-
lessi nel cerchio
√ unitario di angolo 120◦ , 240◦ , 360◦ . La radice principale è il numero
z = − 21 + i 23 .

Figure 1.5: Radici terze dell’unità

Le soluzioni di z 4 = 1 corrispondono ad i numeri complessi nel cerchio unitario


di angolo 90◦ , 180◦ , 270◦ , 360◦ .
1.1. IL CAMPO DEI NUMERI COMPLESSI 15

Figure 1.6: Radici quarte dell’unità


16 CHAPTER 1. CAMPI NUMERICI
Chapter 2

Introduzione agli spazi vettoriali

2.1 Introduzione ai vettori ed al prodotto interno


In Fisica ma anche nella vita di tutti i giorni dobbiamo continuamente misurare
qualcosa. Alcune di queste grandezze le possiamo misurare con un numero reale:
saldo del conto corrente, altezza, età, etc. Ad altre grandezze corrisponde non solo
una quantità rappresentata da un numero ma anche una direzione (con/senza verso).
Per esempio,

• La forza di gravità terrestre, la cui direzione ed il cui verso vanno dal punto in
cui vi trovate verso il centro della terra;

• La forza di gravità su Giove (molto maggiore della forza di gravità terrestre);

• La forza esercitata in un punto preciso. Ha una grandezza, una direzione ed


un verso ben precisi;

• La velocità istantanea di un’automobile. Non conta soltanto il valore, per


esempio 120 Km/ora, ma anche direzione e verso di marcia.

I vettori sono una rappresentazione astratta delle grandezze che hanno una direzione
(e talvolta verso).
È importante distinguere tra vettore liberi e vettore applicati. Se in automobile
viaggiamo a velocità costante lungo una linea retta, al tempo t ci troviamo in un
determinato punto P della retta, mentre al tempo successivo t+10 ci troveremo in un
altro punto Q. Se misuriamo la velocità istantanea nel punto P (velocità misurata +
direzione e verso) e poi nel punto Q, otterremo lo stesso risultato. Lo stesso vettore
è applicato prima nel punto P e poi nel punto Q.

17
18 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

In generale un vettore è caratterizzato da (a) lunghezza (o grandezza, o modulo,


o quantità) che è misurata da un valore in un campo numerico (vedi Capitolo 1);
(b) direzione. Possiamo sempre moltiplicare un vettore per uno scalare, che è un
elemento del campo numerico con cui misuriamo le lunghezze: Se a è un vettore
ed r uno scalare, allora ra rappresenta il vettore che ha la stessa direzione di a ma
lunghezza r volte la lunghezza di a.
Possiamo misurare la direzione ed il verso? La direzione di un vettore non è
misurabile con un numero. Possiamo soltanto sapere quando due vettori a e b
hanno la stessa direzione:

• I vettori a e b hanno la stessa direzione se esiste uno “scalare” r del campo


numerico tale che a = rb.

Se il campo numerico è totalmente ordinato, come nel caso dei numeri reali oppure
i numeri razionali, possiamo dire anche se due vettori a e b hanno lo stesso verso:
• I vettori a e b hanno stessa direzione e verso se esiste uno scalare r > 0 tale
che a = rb. I vettori a e b hanno stessa direzione ma verso opposto se esiste
r < 0 tale che a = rb.
Il campo dei numeri complessi non ha un ordinamento naturale. Quindi i vettori
complessi hanno una direzione, ma non un verso.
Oltre alla moltiplicazione per uno scalare, i vettori ammettono un’altra oper-
azione, che è detta somma o addizione di vettori. Per spiegare la somma vettoriale,
immaginiamo di effettuare il seguente esperimento. Appoggiamo una palla enorme
nell’origine O del piano cartesiano xy. Immaginiamo che due persone Pinco e Pallino
spingano la palla con forza. Pinco spinge lungo l’asse delle y (che corrisponde alla
direzione della retta x = 0) dall’asse negativo delle y verso l’asse positivo delle y.
Pallino spinge lungo l’asse delle x (che corrisponde alla direzione della retta y = 0)
dall’asse negativo delle x verso l’asse positivo delle x. La palla riceve una spinta
da Pinco rappresentata dal vettore a (grandezza, direzione, verso) e un’altra spinta
da Pallino rappresentata dal vettore b. In che direzione si muoverà la palla? Se le
lunghezze dei due vettori sono uguali (cioé, pari spinta), allora la palla comincerà a
muoversi lungo la retta y = x, che è la direzione della retta che biseca l’angolo di
novanta gradi formato dalla retta y = 0 e la retta x = 0. La spinta totale che riceve
la palla è rappresentata dal vettore a + b. Se la lunghezza del vettore
√ a è 1 (si scrive
kak = 1) e se kbk = 1, allora la lunghezza del vettore a + b è 2 (non 2 come si
potrebbe pensare).
Se Pinco e Pallino spingono con pari forza, il primo dall’asse positivo delle y verso
l’asse negativo delle y ed il secondo dall’asse negativo delle y verso l’asse positivo
2.2. SPAZI VETTORIALI 19

delle y, la palla non si muoverà nonostante lo sforzo di entrambi. La somma di due


vettori di pari lunghezza e direzione ma di verso opposto è nulla.

Figure 2.1: Forza e vettori

2.2 Spazi vettoriali


2.2.1 Vettori nello spazio
Fissiamo un sistema di assi Cartesiani nello spazio tridimensionale. Questo cor-
risponde a scegliere un punto O, l’origine degli assi, e tre rette x, y, z passanti per
O perpendicolari tra loro. Un punto P nello spazio di assi Cartesiani xyz è rappre-
sentato da una terna P = [p1 , p2 , p3 ] di numeri reali, le sue coordinate Cartesiane.
La prima coordinata p1 e la seconda p2 si ottengono proiettando perpendicolarmente
il punto P nel piano z=0, ottenendo il punto pxy . Poi si proietta questo punto pxy
sull’asse delle x (sull’asse delle y, rispettivamente) per ottenere p1 (p2 , rispettiva-
mente). Similmente la restante coordinata p3 si ottiene proiettando il punto P nel
piano x = 0, ottenendo il punto pyz . Poi si proietta questo punto sull’asse z e si
ottiene p3 .
Un punto P = [p1 , p2 , p3 ] 6= [0, 0, 0] dello spazio determina univocamente un
−→
vettore OP che va dall’origine O p= [0, 0, 0] degli assi al punto P . Questo vettore
ha come lunghezza la lunghezza p21 + p22 + p23 del segmento OP che unisce l’origine
degli assi al punto P , come direzione l’unica retta che passa attraverso i punti O e
−→
P , e come verso quello che va dal punto O al punto P . Il vettore OP si indicherà
spesso con il punto P stesso. Quindi parleremo di vettore P intendendo il vettore
−→
OP .
I vettori possono essere sommati coordinata per coordinata. Per esempio, se
P = [2, 3, 4] e Q = [1, 2, 3] allora P + Q = [3, 5, 7]. Geometricamente il punto P + Q
si ottiene costruendo il parallelogramma di vertici P , O e Q. Il quarto vertice è
proprio il punto P + Q. Si veda la figura.
20 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

Figure 2.2: Coordinate del punto P

Figure 2.3: Somma di vettori

Possiamo modificare la lunghezza di un vettore moltiplicandolo per uno scalare.


−→ −→
Se OP è un vettore nello spazio ed r è un numero reale, detto scalare, allora rOP è un
altro vettore che sta sempre nella retta, passante per l’origine, determinata dal vettore
−→ −→
OP , ma con lunghezza r volte la lunghezza di OP . Per esempio, sia P = [3, 2, 1] un
punto, 5 uno scalare e Q il punto di coordinate 5P = [15, 10, 5]. Allora il vettore
−→ −→
5OP è uguale al vettore OQ. Nella prossima sottosezione studieremo in generale le
proprietà della somma vettoriale e del prodotto per uno scalare.

2.2.2 Vettori in astratto


In generale, possiamo considerare in maniera astratta un insieme di vettori che pos-
sono essere sommati tra loro e moltiplicati per uno scalare. Uno scalare è un elemento
2.2. SPAZI VETTORIALI 21

di un fissato campo numerico K. Nelle applicazioni K sarà uno dei seguenti campi:
il campo Q dei numeri razionali, il campo R dei numeri reali, il campo C dei numeri
complessi, oppure il campo Zp dei numeri interi modulo un numero primo p.

Figure 2.4: Vettori opposti.

Figure 2.5: La proprietà commutativa della somma vettoriale.

Definition 2.2.1. Sia K un campo numerico, i cui elementi sono chiamati scalari.
Uno spazio vettoriale su K è costituito da un insieme V di vettori dotati di somma
vettoriale + : V × V → V e prodotto per uno scalare · : K × V → V , che soddisfano
i seguenti assiomi (a, b, c ∈ V sono vettori arbitrari e r, s ∈ K sono scalari arbitrari):

SV1: a + (b + c) = (a + b) + c;
22 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

−−→ −→ −−→ −→ −−→ −−→


AD = AC + CD =(AB + BC) + CD, ma anche
−−→ −→ −−→ −→ −−→ −−→
AD = AB + BD = AB + (BC + CD)

Figure 2.6: Proprietà associativa della somma vettoriale

SV2: a + b = b + a;

SV3: 0 + a = a = a + 0;

SV4: a + (−a) = 0 = (−a) + a;

SV5: (r + s)a = ra + sa;

SV6: (rs)a = r(sa);

SV7: r(a + b) = ra + rb;

SV8: 0a = 0; 1a = a; (−1)a = −a.

Si noti che il vettore nullo viene indicato con 0 e che per brevità scriviamo ra al
posto di r · a.
Si noti anche che l’assioma (SV4) deriva da (SV5) e (SV8):

a + (−a) = 1a + (−1)a = (1 + (−1))a = 0a = 0.


2.2. SPAZI VETTORIALI 23

Example 5. Sia R il campo dei numeri reali. L’insieme R2 delle coppie di numeri
reali costituisce uno spazio vettoriale reale con le seguenti operazioni:

[x1 , x2 ] + [y1 , y2 ] = [x1 + y1 , x2 + y2 ]; r[x1 , x2 ] = [rx1 , rx2 ]; 0 = [0, 0].

Per esempio, [3, 6] + [1, 2] = [4, 8] e 7[1, 3] = [7, 21].

Example 6. Sia R il campo dei numeri reali. L’insieme C dei numeri complessi
costituisce uno spazio vettoriale sul campo R con le seguenti operazioni (a, b, c, d, r
numeri reali e i unità immaginaria):

(a + bi) + (c + di) = (a + c) + (b + d)i; r(a + bi) = (ra) + (rb)i; 0 = 0.

Per esempio, (3 + 6i) + (1 + 2i) = 4 + 8i e 7(1 + 3i) = 7 + 21i.

Example 7. Sia C il campo dei numeri complessi. L’insieme C dei numeri complessi
costituisce uno spazio vettoriale sul campo dei numeri complessi con le seguenti op-
erazioni (a, b, c, d numeri reali, r = r1 + r2 i numero complesso e i unità immaginaria):

(a + bi) + (c + di) = (a + c) + (b + d)i;

r(a + bi) = (r1 + r2 i)(a + bi) = (r1 a − r2 b) + (r1 b + r2 a)i; 0 = 0.

Example 8. (Spazio vettoriale dei polinomi reali ) Un polinomio reale è una funzione
p : R → R che è esprimibile come

p(x) = a0 xn + a1 xn−1 + · · · + an−1 x + an

con coefficienti reali ai . Per esempio, i seguenti sono polinomi: 3x + 2, x2 + 5x + 1,


etc. I polinomi costituiscono uno spazio vettoriale reale.

Example 9. (Spazio vettoriale delle sequenze infinite di reali) L’insieme di tutte le


successioni (an )n≥0 di numeri reali è uno spazio vettoriale sul campo reale.

Example 10. (Spazio vettoriale delle funzioni a valori reali) Sia X un insieme.
Allora l’insieme di tutte le funzioni da X ad R è uno spazio vettoriale. Se f, g : X →
R sono funzioni e r è uno scalare, definiamo:

(f + g)(x) = f (x) + g(x); (rf )(x) = r · f (x), per ogni x ∈ X.

L’Esempio 9 è un caso particolare di questo esempio: ogni successione (an )n≥0 è una
funzione a : N → R.
24 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

I vettori possono essere utilizzati per fornire delle prove di risultati geometrici.
Un esempio è fornito dal seguente teorema.
Theorem 2.2.1. Dato un arbitrario quadrilatero convesso ABCD, il quadrilatero
avente per vertici i punti medi dei lati consecutivi di ABCD costituisce un paral-
lelogramma (Si veda la figura a pagina 24).

Fissiamo in un qualsiasi quadrilatero ABCD i punti mediani dei suoi lati consec-
−→ −−→ −−→ −−→
utivi. Chiamiamo questi punti P, Q, R, S. Siano a = AB, b = BC, c = CD, d = DA
i vettori come in figura a pagina 24. Allora a+b+c+d = 0. Quindi a+b = −(c+d).
−→ −→
Si vede sempre dalla figura che P Q = 12 a+ 21 b = 12 (a+b) e RS = 12 c+ 12 d = 12 (c+d).
−→ −→
Quindi, applicando l’uguaglianza a + b = −(c + d), si ricava P Q = −RS. Segue che
−→ −→
i vettori P Q e RS sono su rette parallele. In maniera simile si prova che il vettore
−→ −→
QR è parallelo al vettore SP .

Figure 2.7: Prova geometrica con vettori

2.3 Prodotto interno (o scalare)


In questa sezione definiamo il prodotto interno di due vettori di R3 . Analoghe
definizioni possono essere date per vettori di Rn con n arbitrario. Lasciamo al lettore
la facile generalizzazione.
2.3. PRODOTTO INTERNO (O SCALARE) 25

Il prodotto interno di due vettori è uno scalare, proporzionale alla lunghezza dei
due vettori, che ci dà informazione sull’orientazione relativa dei due vettori tramite
il coseno dell’angolo da essi formato. In particolare, due vettori sono perpendicolari
tra loro se il loro prodotto interno è nullo.
−→
Un punto A dello spazio R3 rappresenta il vettore OA che va dall’origine O delle
coordinate Cartesiane al punto A. In seguito parleremo di punto A oppure di vettore
A senza alcuna distinzione.
Definiamo il prodotto interno in termini delle coordinate dei due vettori.
L’interpretazione geometrica del prodotto interno verrà data nel seguito.

Definition 2.3.1. Se A = [a1 , a2 , a3 ] e B = [b1 , b2 , b3 ] sono due vettori di R3 , allora


il prodotto interno o scalare di A e B è definito come segue:

A · B = a1 b 1 + a2 b 2 + a3 b 3 .

Per esempio, se A = [2, 3, 2] e B = [−3, 4, 3] allora A · B = −6 + 12 + 6 = 12.

Lemma 2.3.1. Il prodotto interno verifica le seguenti proprietà:

PS1 A · B = B · A;

PS2 A · (B + C) = A · B + A · C = (B + C) · A;

PS3 Se r è uno scalare (rA) · B = r(A · B) = A · (rB);

PS4 Se 0 è il vettore nullo, allora 0 · 0 = 0; in ogni altro caso A · A > 0.

Si noti che in PS4 0 è il vettore nullo mentre 0 è il numero reale zero.


Se A = [a1 , a2 , a3 ], allora la lunghezza (o norma o modulo) del vettore A è definita
come √ q
kAk = A · A = a21 + a22 + a23 .

Distanza tra due punti


La lunghezza del vettore A è pari alla distanza del punto A dall’origine delle coor-
dinate Cartesiane. Se A e B sono due punti dello spazio, la distanza tra A e B è la
−→
lunghezza del vettore applicato AB che va da A a B. Se riportiamo questo vettore
applicato nell’origine delle coordinate Cartesiane, cioè consideriamo il punto B − A,
otteniamo che la distanza tra A e B è

kB − Ak.
26 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

−→
Example 11. Se A = [2, 3, 2] e B = [−3, 4, 3] allora il vettore AB è puntato nel punto
A, ha come lunghezza il segmento AB e direzione la retta che contiene il segmento
AB. Lo stesso vettore puntato nell’origine O degli assi Cartesiani
√ è determinato
√ dal
punto B − A = [−5, 1, 1], la cui lunghezza è kB − Ak = 25 + 1 + 1 = 27.

Perpendicolarità
Quando due vettori sono perpendicolari od ortogonali?

Proposition 2.3.2. Due vettori A e B sono perpendicolari sse il loro prodotto


interno A · B è 0.
Proof. Due vettori A e B sono perpendicolari se e solo se la distanza tra A e B e
la distanza tra A e −B sono uguali (l’angolo formato dai vettori A e B è uguale
all’angolo formato dai vettori A e −B). Questo significa che

kA − Bk = kA − (−B)k = kA + Bk.

Calcoliamo con i quadrati delle distanze:

0 = kA − Bk2 − kA + Bk2
= [(A − B) · (A − B)] − [(A + B) · (A + B)]
= [(A · A) − 2(A · B) + (B · B)] − [(A · A) + 2(A · B) + (B · B)]
= −4(A · B)

da cui segue A · B = 0.

Example 12. Il vettore A = [2, 3, 4] è perpendicolare al vettore B = [2, 0, −1] perché


A · B = 4 + 0 − 4 = 0.

Nel seguito presentiamo alcune applicazioni geometriche del prodotto interno.

Theorem 2.3.3. Se un triangolo ABC inscritto in una circonferenza ha un di-


ametro come lato, allora il triangolo è rettangolo (si veda la Figura a pagina 27).

Proof. Sia O il centro della circonferenza e siano A, B, C tre punti distinti della
circonferenza che determinano un triangolo ABC tale che il segmento AB è un
−→ −−→ −−→ −→ −→ −→
diametro della circonferenza. Allora CO + OB = CB ed inoltre CO + OA = CA.
−−→ −→ −→
Se indichiamo con u = OB e v = OC, allora abbiamo che OA = −u e
−−→ −→
CB = −v + u; CA = −v − u.
2.3. PRODOTTO INTERNO (O SCALARE) 27

−−→ −→
Calcolando il prodotto interno di CB e CA si ha:
−−→ −→
CB · CA = (−v + u) · (−v − u)
= (v · v) + (v · u) − (u · v) − (u · u)
= (v · v) − (u · u)
= 0
perché kvk2 = v · v, kuk2 = u · u e i vettori v e u hanno la stessa lunghezza, uguale al
−−→ −→
raggio del cerchio. In conclusione, i vettori CB e CA sono perpendicolari e l’angolo
tra di loro compreso è di 90 gradi.

Figure 2.8: Triangolo inscritto in una circonferenza con diametro come lato

Teorema di Pitagora
−−→
Sia ABC un triangolo rettangolo come in figura a pagina 27. Indichiamo con a = BC,

Figure 2.9: Triangolo rettangolo


−→ −→
b = CA e c = AB i tre vettori dei lati consecutivi. Supponiamo che l’angolo retto
sia l’angolo compreso tra i vettori a e c, cosicché il prodotto interno a · c = 0 è nullo.
Dal fatto che a + b + c = 0, si ricava b = −(a + c). Allora si ha:
kbk2 = b·b = (−a−c)·(−a−c) = (a·a)+2(a·c)+(c·c) = (a·a)+(c·c) = kak2 +kck2
perché a · c = 0.
28 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

2.3.1 Coseno dell’angolo formato da due vettori


La parte restante di questa sezione ha lo scopo di determinare il significato geometrico
del prodotto interno.

Proposition 2.3.4. Siano A e B due vettori, e sia θ l’angolo formato dai vettori
A e B (ovvero l’angolo AOB).
[ Allora si ha:

A · B = kAk kBk cos θ.

Proof. 1. Se proiettiamo il vettore A sulla retta che contiene B, otteniamo un


vettore P che ha la stessa direzione di B e lunghezza uguale al modulo di
kAk cos θ:
B
P = (kAk cos θ) .
kBk
2. Se proiettiamo il vettore A sulla retta perpendicolare al vettore B, otteniamo
il vettore A − P la cui lunghezza è uguale al modulo di kAk sin θ.
Utilizzando la Proposizione 2.3.2 e la perpendicolarità del vettore A − P con il
vettore B si ottiene:
0 = (A − P ) · B Il vettore A − P è perpendicolare al vettore B
= (A · B) − (P · B) Applicando la proprietà (PS2) del Lemma 2.3.1
= (A · B) − ( kAkkBk
cos θ
B) · B Sostituendo al posto di P la sua definizione
kAk cos θ
= (A · B) − kBk (B · B)
= (A · B) − kAkkBkcos θ
kBk2 Perché B · B = kBk2
= (A · B) − kAk kBk cos θ

da cui si ha la tesi.
Example 13. Se A e B sono due vettori di lunghezza 1√che formano √ un angolo di
45 gradi (cioé, π/4 radianti), allora A · B = cos(π/4)

= 2/2 = 1/ 2. Un esempio
1 √1 √1 3
di questi vettori è dato da A = [ 3 , 3 , 3 ] e B = [ 2 , 0, 0].
√ √

Proposition 2.3.5. Due vettori sono allineati sse cos θ = +1 oppure cos θ = −1
sse A · B = ±kAk kBk.

Example
√ 14. Se
√ A = [2, 6, 4] √ = [−1, −3,
e B√ √ −2], allora
√ A · B = −28, kAk kBk =
( 4 + 36 + 16)( 1 + 9 + 4) = 56 14 = ( 4 · 14)( 14) = 2·14 = 28 e cos θ = −1.
2.3. PRODOTTO INTERNO (O SCALARE) 29

Proposition 2.3.6. La proiezione ortogonale del vettore A sul vettore B è il vettore


A·B
P = ( B·B )B.

B B B A·B
Proof. P = (kAk cos θ) kBk = (kAk kBk cos θ) kBk2 = (A · B) kBk2 = ( B·B )B.

Example 15. Se A = [2, 6, 4] e B = [−1, −3, −2], allora la proiezione ortogonale di


A su B è P = (−2 − 18 − 8)/14B = −2[−1, −3, −2] = [2, 6, 4] è A stesso, perché A
e B sono allineati.

Example 16. Se A = [2, 6, 4] e B = [0, 3, 4], allora la proiezione ortogonale di A su


B è P = (18 + 16)/25B = 34
25
[0, 3, 4] = [0, 102 , 136 ].
25 25

Corollary 2.3.7. (Disuguaglianza di Schwartz)

(A · B)2 ≤ (A · A)(B · B).

Proof. (A · B)2 = kAk2 kBk2 (cos θ)2 = (A · A)(B · B)(cos θ)2 ≤ (A · A)(B · B)

Corollary 2.3.8.
|A · B| ≤ kAk kBk.

Corollary 2.3.9. kA + Bk ≤ kAk + kBk ed inoltre kxAk = xkAk per ogni x ≥ 0.

Proof. Sviluppiamo kA + Bk2 = (A + B) · (A + B) = A · A + 2(A · B) + B · B =


kAk2 + 2(A · B) + kBk2 ≤ kAk2 + 2kAk kBk + kBk2 = (kAk + kBk)2 .

Example 17. Siano P = [4, 2, −2] e Q = [3, −3, 2] vettori di R3 . Vogliamo de-
terminare tutti i vettori ortogonali sia a P che a Q. Sia W = [x, y, z] un vettore
arbitrario di R3 . W è ortogonale a P se P · W = 0, ossia

4x + 2y − 2z = 0.

W è ortogonale a Q se Q · W = 0, ossia

3x − 3y + 2z = 0.
30 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

La prima equazione lineare 4x + 2y − 2z = 0 definisce il piano dei vettori ortogonale


al vettore P , mentre la seconda equazione 3x − 3y + 2z = 0 definisce il piano dei
vettori ortogonali a Q. L’intersezione dei due piani è la retta dei vettori ortogonali
sia a P che a Q. Per risolvere il sistema lineare

4x + 2y − 2z = 0
3x − 3y + 2z = 0

sommiamo la prima equazione alla seconda per ottenere y = 7x. Dividiamo la prima
equazione per 2 per ottenere 2x + y = z da cui z = 9x. In conclusione, la seguente è
l’equazione parametrica della retta dei vettori ortogonali sia ad P che a Q:

x = t
y = 7t
z = 9t

con t arbitrario scalare reale.


Chapter 3

Rette e piani

Una equazione lineare nelle incognite x1 , . . . , xn a coefficienti nel campo numerico K


è un’equazione:

a1 x 1 + · · · + an x n = b (3.1)

con a1 , . . . , an , b ∈ K. Gli scalari ai sono detti coefficienti, mentre b è il termine noto.


Se b = 0, l’equazione lineare è detta omogenea. Una soluzione dell’equazione lineare
è una n-upla (ordinata) (r1 , . . . , rn ) di scalari di K tale che

a1 r1 + · · · + an rn = b.

L’insieme di tutte le soluzioni dell’equazione lineare (3.1) è detto iperpiano (di di-
mensione n − 1) nello spazio vettoriale Kn di dimensione n.
In questa sezione utilizzeremo come campo numerico l’insieme R dei numeri reali
e ci limiteremo alle dimensioni n = 2 e n = 3. In tal caso, l’equazione lineare
ax + by = c (a, b, c ∈ R) definisce una retta nel piano, mentre l’equazione lineare
ax + by + cz = d (a, b, c, d ∈ R) definisce un piano nello spazio.
Un’equazione lineare può essere espressa tramite il prodotto interno. Ci limitiamo
alla dimensione tre. Il lettore può facilmente considerare la dimensione 2 oppure la
dimensione n arbitraria.

31
32 CHAPTER 3. RETTE E PIANI

Lemma 3.0.1. Sia ax1 + bx2 + cx3 = d un’equazione lineare in tre incognite, a =
[a, b, c] il vettore dei coefficienti e x = [x1 , x2 , x3 ] il vettore delle incognite. Allora
l’equazione lineare si può scrivere, utilizzando il prodotto interno, come segue:

a·x=d

Essa esprime il luogo di tutti vettori x il cui prodotto interno con il vettore costante
a dà come risultato lo scalare d. Se d = 0, l’equazione a · x = 0 descrive il piano
dei vettori perpendicolari al vettore a.

Il piano passante per il punto P e parallelo al piano a · x = 0 ha equazione

a · y = d, dove d = (a · P ).

Esso è il luogo dei punti {P + x : a · x = 0}. Nel seguito vedremo numerosi esempi
che chiarificheranno il Lemma.

3.1 Rette nel piano


Cominciamo questa sezione con lo studio delle rette del piano passanti per l’origine.
Esse sono definite da equazioni lineari omogenee in due incognite.

• La retta di equazione ax + by = 0 passa per l’origine ed è il luogo dei


vettori [x, y] che sono ortogonali al vettore [a, b], cioé [a, b] · [x, y] = 0.
Se P = [p0 , p1 ] è un punto sulla retta (cioé, ap0 + bp1 = 0) allora tutti gli altri
punti si ottengono moltiplicando il vettore P per lo scalare t, numero reale
arbitrario (equazione parametrica della retta):

x = tp0 ; y = tp1 , al variare del numero reale t.

La retta ax + by = 0 si può scrivere anche come y = − ab x. Il numero − ab è


detto coefficiente angolare della retta e misura la pendenza della retta. Se il
coefficiente angolare è positivo la retta è ascendente, mentre se è negativo la
retta è discendente.

Example 18. L’equazione lineare 3x + 2y = 0 (x, y variabili reali) si può


scrivere nel modo seguente: [3, 2] · [x, y] = 0. La retta 3x + 2y = 0 descrive
quindi l’insieme dei vettori [x, y] che sono perpendicolari al vettore [3, 2]. Se
calcoliamo un punto sulla retta, per esempio il punto [2, −3], allora tutti gli
3.1. RETTE NEL PIANO 33

altri possono essere ottenuti moltiplicando il vettore [2, −3] per lo scalare t
numero reale arbitrario (equazione parametrica della retta):
x = 2t; y = −3t, al variare del reale t.
La retta è discendente con coefficiente angolare −3/2.

Consideriamo ora le rette del piano che non passano per l’origine.

• La retta di equazione ax + by = c con c 6= 0 non passa per l’origine


ed è il luogo dei vettori [x, y] che hanno prodotto scalare uguale a c
con il vettore [a, b] (cioè [a, b] · [x, y] = c).
La retta ax + by = c è parallela alla retta di equazione ax + by = 0. Se
P = [p0 , p1 ] è un punto sulla retta (cioé, ap0 + bp1 = c), allora tutti gli altri
punti si ottengono come P + Q con Q = [q0 , q1 ] punto della retta ax + by = 0
passante per l’origine (cioé, aq0 + bq1 = 0):
[a, b] · (P + Q) = ([a, b] · P ) + ([a, b] · Q) = c + 0 = c.
L’equazione parametrica della retta è:
x = p0 + tq0 ; y = p1 + tq1 , al variare del numero reale t.
Example 19. L’equazione 3x+2y = 5 si può scrivere come segue [3, 2]·[x, y] =
5. Per capire il rapporto esistente tra l’equazione 3x + 2y = 5 e l’equazione
omogenea 3x+2y = 0 fissiamo un punto, per esempio P = [1, 1], che appartiene
alla retta 3x+2y = 5. Esiste una corrispondenza bigettiva tra i punti nella retta
3x+2y = 5 ed i punti nella retta 3x+2y = 0. Se Q = [q0 , q1 ] soddisfa l’equazione
3q0 + 2q1 = 0 allora P + Q = [1 + q0 , 1 + q1 ] soddisfa 3(1 + q0 ) + 2(1 + q1 ) = 5.
Viceversa, se R = [r0 , r1 ] soddisfa 3r0 + 2r1 = 5 allora R − P = [r0 − 1, r1 − 1]
soddisfa 3(r0 − 1) + 2(r1 − 1) = 0. Le due funzioni sono l’una inversa dell’altra.
Siccome i punti della retta 3x+2y = 0 sono descrivibili parametricamente come
tQ con t scalare arbitrario e Q punto nella retta (per esempio, Q = [2, −3]),
allora la retta 3x+2y = 5 si descrive parametricamente come P +tQ, dove P =
[1, 1] e Q = [2, −3]. Quindi, l’insieme dei punti [1, 1] + t[2, −3] = [1 + 2t, 1 − 3t]
sono tutti e soli i punti che verificano l’equazione 3x + 2y = 5:
[3, 2] · [1 + 2t, 1 − 3t] = 3(1 + 2t) + 2(1 − 3t) = 5.
La seguente equazione parametrica descrive la retta:
x = 1 + 2t; y = 1 − 3t, al variare del numero reale t.
34 CHAPTER 3. RETTE E PIANI

Figure 3.1: Rette nel piano

La retta data è parallela alla retta di equazione 3x+2y = 0 e passa per il punto
[1, 1].

• Dato un vettore A ed un punto P nel piano, determinare l’equazione


della retta passante per P e parallela alla retta del vettore A
Spieghiamo il procedimento con un esempio. Sia A = [3, 2] e P = [1, −1].
Prima determiniamo i valori a e b della retta ax + by = 0 passante per l’origine
e per il punto A. Siccome A sta nella retta abbiamo

3a + 2b = 0,

da cui b = −(3/2)a. Se scegliamo a = 2, si ricava b = −3. Allora l’equazione


della retta che contiene il vettore A è

2x − 3y = 0.
3.1. RETTE NEL PIANO 35

La nuova retta avrà equazione

2x − 3y = c

per un certo c 6= 0. Il punto P sta in questa retta, quindi c = 2 − 3(−1) = 5.


Quindi l’equazione della retta passante per P e parallela alla retta di direzione
il vettore A è:
2x − 3y = 5.

Si noti che il coefficiente angolare 2/3 della retta y = (2/3)x è lo stesso della
retta y = (2/3)x + 5.

• Dati due punti distinti A e B nel piano, determinare l’equazione


della retta passante per A e B
Spieghiamo il procedimento con un esempio. Sia A = [2, 2] e B = [−2, 6]. La
−→
retta passante per A e B conterrà il vettore applicato AB. Riportiamo tale
−→
vettore nell’origine tramite il punto B − A = [−4, 4]. Quindi il vettore AB avrà
la stessa lunghezza e direzione del vettore B − A.
Equazione della retta contenente il vettore B − A = [−4, 4]: dall’equazione
generica ax + by = 0 e dal fatto che il punto B − A appartiene alla retta si
ricava che −4a + 4b = 0 da cui a = b. Scegliamo a = b = 1. Quindi l’equazione
è x + y = 0.
Equazione della retta parallela alla retta di equazione x + y = 0 e contenente
il punto B = [−2, 6]: Da x + y = c sostituendo le coordinate del punto B si
ricava c = −2 + 6 = 4.
Quindi l’equazione della retta è x + y = 4. Anche il punto A sta nella retta
perché 2 + 2 = 4.

• Come passare dall’equazione parametrica di una retta all’equazione


ax + by = c
Se descriviamo una retta con un’equazione parametrica, per esempio

x = 5 + 2t; y =2+t

ricaviamo t da una delle due equazioni e lo sostituiamo nell’altra. Da t = y − 2


si ottiene x = 5 + 2(y − 2) da cui x − 2y = 1.
36 CHAPTER 3. RETTE E PIANI

3.2 Rette e piani nello spazio


Un piano passante per l’origine è definito da un’equazione lineare omogenea in tre
incognite.

• Piano passante per l’origine e perpendicolare ad un dato vettore


Nello spazio abbiamo tre coordinate. Consideriamo tre variabili x, y, z. Cosa
descrive l’equazione 3x + 2y + z = 0? Un piano passante per l’origine. Con-
sideriamo il vettore [3, 2, 1] ed il vettore [x, y, z]. L’equazione 3x + 2y + z = 0
si può scrivere utilizzando il prodotto interno: [3, 2, 1] · [x, y, z] = 0. Ossia il
vettore [x, y, z] è perpendicolare al vettore [3, 2, 1]. Quindi l’equazione descrive
l’insieme di tutti i vettori perpendicolari al vettore [3, 2, 1]. Il luogo dei punti

{[x, y, z] : 3x + 2y + z = 0}

è il piano passante per l’origine e perpendicolare al vettore [3, 2, 1].


L’equazione parametrica del piano si ottiene come segue. Consideriamo due
punti P e Q nel piano 3x + 2y + z = 0, che non siano allineati rispetto alle rette
del piano passanti per l’origine degli assi (non possiamo considerare soltanto
un punto perché il piano è bidimensionale). Per esempio, P = [1, −1, −1] e
Q = [−1, 0, 3]. Allora tutti i punti del piano 3x + 2y + z = 0 si ottengono come
combinazione lineare di P e Q:

tP + rQ, al variare di r, t numeri reali,

In altri termini tutti i punti del tipo

x = t − r; y = −t; z = −t + 3r. (3.2)

• Piano di equazione ax + by + cz = d con d 6= 0


L’equazione 3x+2y +z = 4 descrive un piano parallelo al piano 3x+2y +z = 0.
Se R = [1, 1, −1] è un punto del piano 3x + 2y + z = 4, allora i punti del nuovo
piano si ottengono parametricamente da (3.2) come segue:

x0 = 1 + t − r; y = 1 − t; z = −1 − t + 3r.

• Piano passante per tre punti non allineati


Siano P, Q, R tre punti non allineati (cioé, per i tre punti non passa una retta).
−→ −→
Consideriamo i vettori applicati P Q e P R. Li riportiamo all’origine degli assi,
3.2. RETTE E PIANI NELLO SPAZIO 37

considerando il vettore Q − P ed il vettore R − P . Questi due vettori non


sono allineati per l’ipotesi iniziale che i tre punti non sono allineati. Il piano
passante per l’origine e contenente i vettori Q − P e R − P ha la seguente
equazione parametrica:
t(Q − P ) + r(R − P ), al variare di r, t numeri reali,
Allora il piano passante per P, Q, R è descritto da
P + t(Q − P ) + r(R − P ), al variare di r, t numeri reali,
Infatti, ponendo r = t = 0 si ottiene il punto P , con t = 1 e r = 0 si ottiene
Q, ed infine con t = 0 e r = 1 si ha il punto R.
Esempio: P = [1, 1, 1], Q = [1, 2, 1] ed R = [5, 0, 7]. Il piano passante per
l’origine ha equazione parametrica:
x = 4r; y = t − r; z = 6r.
Il piano passante per i tre punti ha equazione parametrica:
x = 1 + 4r; y = 1 + t − r; z = 1 + 6r.
Trasformiamo l’equazione parametrica in una non parametrica: r = (x − 1)/4,
da cui z = 1 + 6(x − 1)/4 = 1 + 3(x − 1)/2. Infine si ha 2z = 3x − 3 + 2 = 3x − 1:
−3x + 2z = −1

3.2.1 Fasci di rette


L’insieme di tutte le rette del piano che passano per un punto C del piano prende il
nome di fascio di rette che ha come centro il punto C.
Se conosciamo le equazioni ax + by + c = 0 e dx + ey + f = 0 di due rette distinte
passanti per C allora ogni altra retta nel fascio si scrive come combinazione lineare
di queste due rette. L’equazione lineare
r(ax + by + c) + s(dx + ey + f ) = 0, (r, s ∈ R)
rappresenta tutte e sole le rette che passano per C se gli scalari r ed s non sono
entrambi nulli. Se s 6= 0, possiamo dividere per s ed ottenere ponendo t = r/s:
t(ax + by + c) + (dx + ey + f ) = 0.
Quest’ultima equazione descrive tutte le rette passanti per C tranne la retta ax +
by + c. Quest’ultima forma di descrizione del fascio è utile nelle applicazioni come il
seguente esempio spiega.
38 CHAPTER 3. RETTE E PIANI

Figure 3.2: Fascio di rette di centro C

Example 20. Vogliamo scrivere l’equazione della retta passante per i punti P = [1, 1]
e Q = [2, 5]. Consideriamo due rette distinte passanti per P , per esempio y − x = 0
e x − 1 = 0. Allora, il fascio (y − x) + t(x − 1) = 0 comprende tutte le rette passanti
per P tranne la retta x − 1 = 0. Sostituendo le coordinate di Q al posto di x ed y
otteniamo: 3 + t = 0 da cui t = −3. Quindi l’equazione (y − x) − 3(x − 1) = 0, che
si semplifica a y − 4x + 3 = 0, descrive la retta passante per P e Q.
Chapter 4

I sistemi lineari

Un sistema lineare di m equazioni nelle incognite x1 , . . . , xn è un insieme di equazioni


lineari con coefficienti in un campo numerico K:

a11 x1 + · · · + a1n xn = b1
a21 x1 + · · · + a2n xn = b2
.. .. .. (4.1)
. . .
am1 x1 + · · · + amn xn = bm

Il sistema lineare è omogeneo se bi = 0 per ogni i. Il sistema è quadrato se m = n.


Una soluzione del sistema è un vettore [r1 , . . . , rn ] di elementi del campo numerico
tali che
a11 r1 + · · · + a1n rn = b1
a21 r1 + · · · + a2n rn = b2
.. .. ..
. . .
am1 r1 + · · · + amn rn = bm
Ciascuna equazione lineare del sistema descrive un iperpiano nello spazio Kn . L’insieme
delle soluzioni del sistema lineare descrive l’insieme dei punti che costituiscono l’intersezione
di m iperpiani nello spazio Kn . Ciascun iperpiano è descritto dall’equazione ai1 x1 +
· · · + ain xn = bi (i = 1, . . . , m).
In dimensione 2 con K = R le soluzioni del sistema
a11 x1 + a12 x2 = b1
a21 x1 + a22 x2 = b2

sono i punti [x1 , x2 ] del piano che costituiscono l’intersezione delle due rette di
equazione rispettivamente a11 x1 + a12 x2 = b1 e a21 x1 + a22 x2 = b2 . In dimensione 3

39
40 CHAPTER 4. I SISTEMI LINEARI

le soluzioni del sistema


a11 x1 + a12 x2 + a13 x3 = b1
a21 x1 + a22 x2 + a23 x3 = b2
a31 x1 + a32 x2 + a33 x3 = b3

sono i punti [x1 , x2 , x3 ] dello spazio che costituiscono l’intersezione dei tre piani.

4.1 Sistemi lineari e matrici


Il sistema lineare (4.1) è completamente determinato dalla tabella bidimensionale dei
coefficienti delle incognite:
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
 
 .. .. .. .. 
 . . . . 
am1 am2 . . . amn

e dal vettore dei termini noti  


b1
 b2 
 
 .. 
 . 
bm
Sia i coefficienti delle variabili che il vettore dei termini noti costituiscono delle ma-
trici. La prima ha dimensione m × n (ossia m righe ed n colonne), la seconda ha
dimensione m×1 (m righe e una colonna). La matrice completa del sistema si ottiene
aggiungendo il vettore dei termini noti alla matrice dei coefficienti:
 
a11 a12 . . . a1n | b1
 a21 a22 . . . a2n | b2 
 
 .. .. .. .. .. 
 . . . . | . 
am1 am2 . . . amn | bm

Presentiamo la definizione di matrice e studiamo le loro prime proprietà.

Definition 4.1.1. Una matrice A = (aij ) con m righe ed n colonne (in breve una
matrice di tipo m × n) sul campo K è una famiglia di mn elementi di K. Ciascun
elemento ha un indice di riga ed un indice di colonna. L’elemento aij ha indice di
4.1. SISTEMI LINEARI E MATRICI 41

riga i ed indice di colonna j con 1 ≤ i ≤ m e 1 ≤ j ≤ n. La matrice si rappresenta


come segue:
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A= . . .

... ... ... 
am1 am2 . . . amn

Se A è una matrice di tipo m × n, denotiamo con Ai il vettore che è la riga i della


matrice, e con Aj il vettore che è la colonna j della matrice:

a1j
 a2j 
j
 
Ai = ai1 ai2 . . . ain ; A = . 
 
.
 . 
amj

Una matrice è quadrata se il numero di righe è uguale al numero di colonne. Una


matrice quadrata di tipo n × n viene detta di ordine n.
Una matrice quadrata A di ordine n è

1. simmetrica se aij = aji per ogni 1 ≤ i, j ≤ n.

2. diagonale se aij = 0 per i 6= j.

3. la matrice identica se è diagonale e aii = 1 per ogni i (la matrice identica di


ordine n si indica con In ).

4. triangolare superiore (inferiore) se aij = 0 per ogni i > j (i < j).

5. la matrice nulla se aij = 0 per ogni 1 ≤ i, j ≤ n.

La trasposta di una matrice A = (aij ) è una matrice AT = (a0ij ) le cui righe sono
le colonne di A e le cui colonne sono le righe di A. In altre parole, a0ij = aji per ogni
i e j. Se A è una matrice di tipo m × n allora la sua trasposta è una matrice di
tipo n × m. Si vede facilmente che (AT )T = A. Se A è simmetrica e quadrata allora
AT = A.
Data una matrice A di tipo m × n, gli elementi aik con i = k si chiamano elementi
principali o elementi appartenenti alla diagonale principale. La loro somma si chiama
traccia della matrice, si indica con tr A e si ha tr A = a11 + a22 + · · · + amm .
42 CHAPTER 4. I SISTEMI LINEARI

Example 21. Le seguenti matrici sono rispettivamente simmetrica, diagonale e la


matrice identica:
     
3 2 1 3 0 0 1 0 0
A = 2 4 4 B = 0 4 0 I = 0 1 0
1 4 2 0 0 2 0 0 1
 
Il vettore riga A2 = 2 4 4 coincide con la seconda riga della matrice A, mentre il
1
3
vettore colonna A = 4 corrisponde alla terza colonna della matrice A. La traccia

2
della matrice A è tr A = 3 + 4 + 2 = 9.
La trasposta della matrice simmetrica A coincide con A, mentre la matrice C qui
di seguito non è simmetrica e la sua trasposta non coincide con C.
   
3 2 7 3 1 22
C =  1 4 9 C T = 2 4 1 
22 1 0 7 9 0

La seguente matrice D è triangolare superiore:


 
3 2 7
D = 0 4 9
0 0 5

Example 22. Consideriamo il sistema lineare:

3x + 2y + z = 5
x + 4y + 3z = 3
x+y+z = 0

La matrice quadrata di ordine 3 dei coefficienti è:


 
3 2 1
1 4 3
1 1 1

mentre il vettore dei termini noti è:


 
5
3
0
4.2. SISTEMI E MATRICI TRIANGOLARI SUPERIORI 43

La matrice completa del sistema si ottiene aggiungendo il vettore dei termini noti
alla matrice dei coefficienti:
3x + 2y + z = 5
x + 4y + 3z = 3
x+y+z = 0
 
3 2 1 | 5
1 4 3 | 3
1 1 1 | 0

4.2 Sistemi e matrici triangolari superiori


Un sistema lineare è triangolare superiore se è quadrato e la matrice dei coefficienti
è triangolare superiore.
Example 23. Il seguente sistema è triangolare superiore:

3x + 2y + z = 5
4y + 3z = 3
2z = 4

La sua matrice dei coefficienti è triangolare superiore:


 
3 2 1
0 4 3
0 0 1

Quando il sistema è triangolare superiore, allora la soluzione si ottiene facilmente.


Dall’ultima equazione si ottiene z = 2, Dalla seconda equazione 3 = 4y + 3z =
4y + 3 ∗ 2 da cui y = −3/4. Infine dalla prima equazione si ricava il valore di x:
5 = 3x + 2y + z = 3x − 3/2 + 2 da cui x = 3/2.
Proposition 4.2.1. Un sistema lineare triangolare superiore ammette un’unica soluzione
sse tutti gli elementi della diagonale principale nella matrice dei coefficienti sono 6= 0.
Proof. Per induzione sul numero di incognite. Un sistema con una incognita e una
sola equazione è del tipo ax = b che ammette una soluzione x = b/a sse a 6= 0.
Supponiamo che ogni sistema triangolare superiore con n incognite ammetta
un’unica soluzione sse tutti gli elementi della diagonale della matrice dei coeffici-
enti sono non nulli.
44 CHAPTER 4. I SISTEMI LINEARI

Consideriamo un sistema con n + 1 incognite che descriviamo con la matrice


completa:  
a11 a12 a13 . . . a1,n−1 a1n a1,n+1 | b1
0
 a22 a23 . . . a2,n−1 a2n a2,n+1 | b2 

0
 0 a32 . . . a3,n−1 a3n a3,n+1 | b3 

 .. .. .. .. .. .. .. ..
 .
 . . . . . . | .

0 0 0 ... 0 ann an,n+1 | bn 
0 0 0 ... 0 0 an+1,n+1 | bn+1
Dall’ultima riga della matrice, che corrisponde all’equazione an+1,n+1 xn+1 = bn+1
ricaviamo un valore xn+1 = bn+1 /an+1,n+1 sse an+1,n+1 6= 0. Non appena conosciamo
il valore di xn+1 , possiamo sostituire il valore di xn+1 nel sistema ed ottenere un
sistema con n incognite la cui matrice completa è:
 
a11 a12 a13 . . . a1,n−1 a1n | b1 − a1,n+1 (bn+1 /an+1,n+1 )
 0 a22 a23 . . . a2,n−1 a2n | b2 − a2,n+1 (bn+1 /an+1,n+1 ) 
 
0
 0 a32 . . . a3,n−1 a3n | b3 − a3,n+1 (bn+1 /an+1,n+1 ) 

 .. .. .. .. .. .. .. 
 . . . . . . | . 
0 0 0 ... 0 ann | bn − an,n+1 (bn+1 /an+1,n+1 )
Per ipotesi induttiva il sistema precedente ha un’unica soluzione sse a11 , . . . , ann
sono non nulli, che insieme a xn+1 = bn+1 /an+1,n+1 sse an+1,n+1 6= 0, ci permette di
concludere la tesi per n + 1.
Example 24. Il sistema lineare
3x − 2y + z = −1
4y + 3z = −3
4z = 8
ammette un’unica soluzione per la proposizione precedente. Il sistema lineare
3x − 2y + z = −1
3z = −3
4z = 8
non ha alcuna soluzione. La diagonale 3, 0, 4 non ha tutti gli elementi non nulli. Il
sistema lineare
3x − 2y + z = −1
3z = 6
4z = 8
ha infinite soluzioni. La diagonale 3, 0, 4 non ha tutti gli elementi non nulli.
4.3. SISTEMI E MATRICI A SCALA 45

4.3 Sistemi e matrici a scala


Le matrici a scala svolgono il ruolo delle matrici triangolari superiori quando il sis-
tema lineare non è quadrato.

Definition 4.3.1. Una matrice a scala è una matrice che verifica le seguenti con-
dizioni:

1. Tutte i vettori riga nulli sono nella parte bassa della matrice;

2. Date due righe successive i e i + 1 non nulle, il primo elemento non nullo della
riga i + 1 si trova a destra del primo elemento non nullo della riga i.

Il primo elemento non nullo (da sinistra) in una riga si chiama pivot.

Un sistema lineare è a scala se la matrice dei coefficienti è a scala.

Example 25. Una matrice a scala ed il sistema lineare associato:


   
  x1 2
0 2 3 0 2 5 4  2  3 
x   
0 0 1 0 5 6 7 x3   1 
   
 
0 0 0 0 3 7 7 x4  = −1
    
0 0 0 0 0 2 4 
x5   2 
  
0 0 0 0 0 0 0 x6   2 

x7 0

La soluzione del sistema si ottiene a partire dall’ultima riga della matrice a scala:
2x6 +4x7 = 2, da cui x6 = 1−2x7 . Quindi x7 è un parametro. Risalendo si ottengono
alcune variabili in funzione di altre.

4.4 Metodo di eliminazione di Gauss


Gauss, nato a Brunswick nel 1777 e morto a Göttingen nel 1855, introdusse un
algoritmo per semplificare un sistema lineare trasformandolo in un sistema lineare
più semplice con le stesse soluzioni del sistema iniziale.
46 CHAPTER 4. I SISTEMI LINEARI

Theorem 4.4.1. (Metodo di eliminazione di Gauss) Se un sistema lineare è ot-


tenuto da un altro con una delle seguenti operazioni:

(i) Scambio di due equazioni;

(ii) Sostituzione di un’equazione con un multiplo scalare non nullo dell’equazione


stessa;

(iii) Sostituzione di un’equazione con la somma dell’equazione stessa con un’altra


moltiplicata per uno scalare d,

allora il sistema di partenza e quello di arrivo hanno le stesse soluzioni.


Proof. Per semplicità consideriamo equazioni con al più due incognite.
Se ax + by = c è l’equazione di una retta, moltiplicando per una stessa costante
d 6= 0 entrambi i membri dell’uguaglianza si ottiene un’equazione (da)x + (db)y = dc
che descrive la stessa retta. In termini di prodotto interno, se [a, b] · [x, y] = c allora
[da, db] · [x, y] = dc. Il vettore [da, db] ha la stessa direzione del vettore [a, b]. Quindi
in un sistema lineare possiamo sostituire l’equazione ax + by = c con l’equazione
(da)x + (db)y = dc senza che cambino le soluzioni del sistema.
Consideriamo due equazioni presenti in un sistema lineare:
a1 x + b 1 y = c 1
(4.2)
a2 x + b 2 y = c 2
Se sostituire la prima equazione con la somma dell’equazione stessa con la seconda
moltiplicata per una costante d otteniamo:
(a1 + da2 )x + (b1 + db2 )y = c1 + dc2
(4.3)
a2 x + b 2 y = c 2

Abbiamo sostituito l’equazione a1 x + b1 y = c1 con l’equazione (a1 x + b1 y) + d(a2 x +


b2 y) = c1 + dc2 . Proviamo che i due sistemi (4.2) e (4.3) hanno le stesse soluzioni.
Se [p, q] è una soluzione del sistema (4.3), allora abbiamo direttamente da (4.3) che
a2 p+b2 q = c2 . Resta da verificare che a1 p+b1 q = c1 : a1 p+b1 q = c1 −d(a2 p+b2 q−c2 ) =
c1 + 0 = c1 . È semplice verificare che una soluzione di (4.2) è anche una soluzione di
(4.3).
Le operazioni associate al metodo di Gauss si possono applicare direttamente alla
matrice completa di un sistema lineare.
Il metodo di eliminazione di Gauss è un algoritmo che trasforma un sistema
lineare quadrato (numero equazioni = numero incognite) in un sistema triangolare
4.5. SISTEMI LINEARI NEL PIANO 47

superiore equivalente e un sistema non quadrato in un sistema a scala equivalente.


La procedura da seguire è la seguente:
Sia A la matrice completa di un sistema lineare con m righe e n + 1 colonne
(l’ultima colonna è il vettore dei termini noti). Consideriamo la prima colonna da
sinistra (diversa dall’ultima colonna dei termini noti) con almeno un elemento diverso
da zero. Sia j < n+1 l’indice di colonna e supponiamo che il primo elemento non nullo
dall’alto si trovi nella riga i. Scambiamo la riga i con la riga 1, ottenendo la matrice B.
Cosı̀ b1j 6= 0. Successivamente, per ogni riga s (2 ≤ s ≤ m) con elemento bsj diverso
da zero, sommiamo −bsj volte la prima riga alla riga s. Otteniamo una matrice C
in cui tutti gli elementi della colonna j sono nulli tranne il primo. Consideriamo la
sottomatrice F di D ottenuta eliminando la prima riga di D. Applichiamo la stessa
procedura alla sottomatrice F . Iterando il ragionamento alla fine arriviamo ad una
matrice a scala oppure triangolare superiore (se m = n).

4.5 Sistemi lineari nel piano


• Consideriamo il sistema seguente:
3x1 + 2x2 = 5
x1 + 4x2 = 3
La prima è l’equazione di una retta parallela alla retta di equazione 3x+2y = 0,
passante per l’origine e perpendicolare al vettore A = [3, 2]. La seconda è
l’equazione di una retta parallela alla retta di equazione x + 4y = 0, passante
per l’origine e perpendicolare al vettore B = [1, 4].
Cerchiamo le soluzioni comuni alle due equazioni: un vettore [x, y] il cui
prodotto interno con [3, 2] dà come risultato 5; e con [1, 4] dà come risultato 3.
Il sistema ammette un’unica soluzione se le due rette non sono parallele. Se
le rette sono parallele, allora non abbiamo soluzioni se le rette sono distinte,
mentre abbiamo infinite soluzioni se le due rette coincidono.
Per sapere se le rette sono parallele oppure no, calcoliamo il prodotto interno
di A e B (si veda Sezione 2.3):
A · B = [3, 2] · [1, 4] = 3 + 8 = 11.
√ √
Siccome kAk = 13 e kBk = 17, abbiamo per l’angolo tra i vettori A e B:
r
A·B 11 121
cos θ = √ √ = √ = < 1.
13 17 221 221
48 CHAPTER 4. I SISTEMI LINEARI

Quindi le rette non sono parallele. Se lo fossero cos θ sarebbe uguale a +1


oppure −1.

• Calcolo dell’unica soluzione con il metodo di Gauss.


Calcoliamo l’unica soluzione del sistema con il metodo di Gauss. Consideriamo
la matrice completa del sistema:
 
3 2 | 5
1 4 | 3

Scambiamo le due righe:  


1 4 | 3
3 2 | 5
Sottraiamo tre volte la prima riga dalla seconda:
 
1 4 | 3
0 −10 | −4

La matrice dei coefficienti è triangolare superiore e gli elementi sulla diagonale


sono diversi da zero, quindi dalla Proposizione 4.2.1 la soluzione è unica. Da
−10x2 = −4 si ricava x2 = 2/5. Infine da x1 + 4x2 = 3, sostituendo il valore di
x2 = 2/5 si ottiene x1 = 7/5.

• Un altro esempio con il metodo di eliminazione di Gauss.


Consideriamo un altro esempio:

x1 + 2x2 = 3
4x1 + 5x2 = 6

Calcoliamo il numero delle soluzioni. Sia A = [1, 2] e B = [4, 5]. Allora


abbiamo:
r
A·B 14 14 196
cos θ = =√ √ =√ = < 1.
kAk kBk 5 41 205 221

Quindi le due rette non sono parallele ed esiste un’unica soluzione.


Calcoliamo la soluzione. Consideriamo la matrice completa del sistema:
 
1 2 | 3
4 5 | 6
4.5. SISTEMI LINEARI NEL PIANO 49

Moltiplichiamo la prima riga per 4 e sottraiamola alla seconda. Si ottiene la


matrice:  
1 2 | 3
0 −3 | −6

da cui si ricava x2 = 2 e, sostituendo 2 per x2 nell’equazione x1 + 2x2 = 3, si


ottiene x2 = −1.

• Un esempio di sistema con infinite soluzioni.


Consideriamo il seguente sistema lineare:
x1 + 2x2 = 3
2x1 + 4x2 = 6

Calcoliamo il numero delle soluzioni. Sia A = [1, 2] e B = [2, 4)]. Allora


abbiamo:
A·B 10 10 10
cos θ = =√ √ =√ = = 1.
kAk kBk 5 20 100 10
Quindi le due rette sono parallele, anzi sono uguali. La seconda equazione si
scrive come 2(x1 + 2x2 ) = 2 × 3. Quindi il sistema lineare ammette infinite
soluzioni. Se triangoliamo la matrice completa otteniamo:
   
1 2 | 3 1 2 | 3

2 4 | 6 0 0 | 0
 
1 2
La matrice dei coefficienti è triangolare superiore, ma non tutti gli
0 0
elementi della diagonale sono diversi da zero.

• Un esempio di sistema con nessuna soluzione. Consideriamo il seguente


sistema lineare:
x1 + 2x2 = 3
2x1 + 4x2 = 12

Calcoliamo il numero delle soluzioni. Sia A = [1, 2] e B = [2, 4]. Allora come
prima abbiamo cos θ = 1. Quindi le due rette sono parallele, ma non uguali.
La seconda equazione si scrive come 2(x + 2y) = 2 × 6 e corrisponde alla retta
x + 2y = 6 che è parallela alla retta della prima equazione. Quindi il sistema
lineare non ammette soluzione. Se triangoliamo la matrice completa otteniamo:
   
1 2 | 3 1 2 | 3

2 4 | 12 0 0 | 6
50 CHAPTER 4. I SISTEMI LINEARI
 
1 2
La matrice dei coefficienti è triangolare superiore, ma non tutti gli
0 0
elementi della diagonale sono diversi da zero. Da 0x2 = 6 si ottiene 0 = 6
quindi il sistema non ammette soluzioni.

4.6 Sistemi lineari nello spazio


• Consideriamo il sistema lineare:
3x + 2y + z = 0
x + 4y + 3z = 0
x+y+z = 0
Il sistema è omogeneo perché il vettore dei termini noti è il vettore nullo.
La prima è l’equazione di un piano passante per l’origine e perpendicolare
al vettore A = [3, 2, 1]. La seconda è l’equazione di un piano passante per
l’origine e perpendicolare al vettore B = [1, 4, 3]. La terza è l’equazione di un
piano passante per l’origine e perpendicolare al vettore C = [1, 1, 1].

(i) L’intersezione dei tre piani è un piano sse i tre piani sono coincidenti (lo
stesso piano) sse i tre vettori A, B e C sono collineari (nella stessa retta
per l’origine);
(ii) L’intersezione dei tre piani è una retta sse i tre vettori A, B e C non sono
collineari ma si trovano in uno stesso piano passante per l’origine;
(iii) L’intersezione dei tre piani è un punto sse (1) i vettori A e B non si
trovano in una stessa retta passante per l’origine; (2) il vettore C non si
trova nel piano generato dai vettori A e B.

Ritorniamo al sistema lineare omogeneo precedente. Calcoliamo l’angolo θAB


formato dai vettori A e B:
√ √ √
cos(θAB ) = (A · B)/kAk kBk = 14/ 14 26 = 14/ 364 < 1.

Quindi A e B non sono collineari. Se C fosse nel piano generato da A e B,


allora esisterebbero due scalari c e d tali che c[3, 2, 1] + d[1, 4, 3] = [1, 1, 1], da
cui si ha 3c + d = 1, 2c + 4d = 1 e c + 3d = 1. Sottraendo la seconda dalla
prima si ricava: c = 3d. Sostituendo nella terza si ottiene 3d + 3d = 0, cioé
d = 0 e quindi c = 0. Si ottiene cosı̀ che C non si trova nel piano generato da
A e B. Quindi l’unica soluzione del sistema lineare iniziale è il vettore nullo.
4.6. SISTEMI LINEARI NELLO SPAZIO 51

Un modo diverso e più semplice di calcolare la soluzione si ottiene con il calcolo


matriciale. Siccome il vettore dei termini noti è il vettore nullo, è sufficiente
applicare il metodo di Gauss alla matrice dei coefficienti:
       
3 2 1 1 1 1 1 1 1 1 1 1
1 4 3 ⇒ 1 4 3 ⇒ 0 3 2  ⇒ 0 3 2 
1 1 1 3 2 1 0 −1 −2 0 0 −4/3
Quindi il sistema associato alla matrice triangolare superiore ha un’unica soluzione,
perché tutti gli elementi nella diagonale sono diversi da zero. Essendo il sistema
omogeneo     
1 1 1 x 0
0 3 2  y  = 0
0 0 −4/3 z 0
il vettore nullo è l’unica soluzione.
• Consideriamo il sistema lineare:
3x + 2y + z = 5
x + 4y + 3z = 3
x+y+z = 0
La prima è l’equazione di un piano parallelo al piano di equazione 3x+2y +z =
0, che passa per l’origine ed è perpendicolare al vettore A = [3, 2, 1]. La seconda
è l’equazione di un piano parallelo al piano di equazione x + 4y + 3z = 0, che
passa per l’origine ed è perpendicolare al vettore B = [1, 4, 3]. La terza è
l’equazione del piano passante per l’origine e perpendicolare al vettore C =
[1, 1, 1].
Dai calcoli fatti nel punto precedente per il sistema omogeneo il vettore C non
giace nel piano generato da A e B. Quindi la soluzione è un unico punto. Ap-
plichiamo il metodo di eliminazione di Gauss alla matrice completa del sistema:
       
3 2 1 | 5 1 1 1 | 0 1 1 1 | 0 1 1 1 | 0
1 4 3 | 3 ⇒ 1 4 3 | 3 ⇒ 0 3 2 | 3 ⇒ 0 3 2 | 3
1 1 1 | 0 3 2 1 | 5 0 −1 −2 | 5 0 0 −4/3 | 6
Quindi z = −9/2, y = 4 e infine dalla prima equazione x = −4 + 9/2 = 1/2.
• Consideriamo il sistema lineare:
3x + 2y + z = 5
x + 4y + 3z = 3
52 CHAPTER 4. I SISTEMI LINEARI

La prima è l’equazione di un piano parallelo al piano di equazione 3x+2y+z = 0


passante per l’origine e perpendicolare al vettore A = [3, 2, 1]. La seconda è
l’equazione di un piano parallelo al piano di equazione x + 4y + 3z = 0 passante
per l’origine e perpendicolare al vettore B = [1, 4, 3].
L’intersezione di due piani, se non paralleli, è una retta.
Cerchiamo le soluzioni comuni alle due equazioni: un vettore [x, y, z] il cui
prodotto interno con [3, 2, 1] dà come risultato 5; e con [1, 4, 3] dà come risultato
3.
Calcoliamo se i piani sono paralleli. Sia A = [3, 2, 1] e B = [1, 4, 3]. Allora
abbiamo:
√ √ √
cos θ = (A · B)/kAk kBk = 14/ 14 26 = 14/ 364 < 1.

Quindi i due piani non sono paralleli.


Applichiamo il metodo di eliminazione di Gauss. Scambiamo la prima e la
seconda equazione ottenendo

x + 4y + 3z = 3
3x + 2y + z = 5

Sottraiamo alla seconda equazione tre volte la prima equazione ottenendo:


x+4(2-4z)/5 +3z = 3

x + 4y + 3z = 3
−10y − 8z = −4

da cui si ha y = 2−4z 5
. Sostituiamo nella prima equazione per ottenere le
soluzioni in termini del parametro z:
2 − 4z
x = (3 − (16/5))z + (3 − (8/5)); y=− .
5

Example 26. Utilizziamo il calcolo matriciale per risolvere il seguente sistema, al


variare del parametro reale k:

x + 2w = 1
x + y + 3z + 2w = 1
2x + y + (k + 2)z + 4w = 2
x + y + 3z + (k 2 − k + 2)w = k
4.6. SISTEMI LINEARI NELLO SPAZIO 53

Riduciamo in forma triangolare superiore la matrice dei coefficienti:


   
1 0 0 2 | 1 1 0 0 2 | 1
1 1 3 2 | 1 0 1 3 0 | 0 
  ⇒  
2 1 k+2 4 | 2 0 1 k+2 0 | 0 
1 1 3 k2 − k + 2 | k 0 0 0 2
k −k | k−1

Abbiamo sottratto alla quarta riga una volta la seconda riga, alla seconda ringa la
prima riga, ed alla terza riga due volte la prima riga. Successivamente sottraiamo la
seconda riga alla terza per ottenere:
 
1 0 0 2 | 1
0
 1 3 0 | 0 

0 0 k−1 0 | 0 
0 0 0 k2 − k | k−1

Il sistema associato alla precedente matrice è:

x + 2w = 1
y + 3z = 0
(k − 1)z = 0
k(k − 1)w = k−1

Abbiamo tre casi k = 0, k = 1 e k(k − 1) 6= 0.

• (k = 0) Il sistema diventa:

x + 2w = 1
y + 3z = 0
−z = 0
0 = −1

che non ammette soluzioni a causa dell’ultima equazione.

• (k = 1) Il sistema diventa:
x + 2w = 1
y + 3z = 0
0 = 0
0 = 0
54 CHAPTER 4. I SISTEMI LINEARI

Abbiamo due sole equazioni (significative) e 4 incognite. L’equazione paramet-


rica richiede 2 parametri:
x = 1 − 2t
y = −3u
z = u
w = t
Quindi abbiamo infinite soluzioni.
• (k(k − 1) 6= 0) In questo caso k 6= 0 e k 6= 1. Possiamo quindi dividere per
k(k − 1) nell’ultima equazione
x + 2w = 1
y + 3z = 0
(k − 1)z = 0
k(k − 1)w = k−1
ed ottenere w = 1/k. Dalla terza equazione si ricava z = 0, da cui y = 0. Infine
sostituendo w = 1/k si ottiene x = (k − 2)/k. Quindi vi è un’unica soluzione
( k−2
k
, 0, 0, k1 ).

4.7 Prodotto scalare e sistemi lineari


Siano v = [x1 , y1 ] e w = [x2 , y2 ] due vettori del piano. Vogliamo calcolare con la
tecnica dei sistemi lineari il coseno cos θ dell’angolo θ (0 ≤ θ ≤ π) formato dai due
vettori. Sappiamo come calcolare l’angolo ψ formato dal vettore v con l’asse delle x,
e l’angolo ψ + θ formato dal vettore w sempre con l’asse delle x:
x1 y1
cos ψ = ; sin ψ =
kvk kvk
e
x2 y2
cos(ψ + θ) = ; sin(ψ + θ) =
kwk kwk
Siccome
x2 y2
cos(ψ+θ) = cos ψ cos θ−sin ψ sin θ = ; sin(ψ+θ) = sin ψ cos θ+cos ψ sin θ =
kwk kwk
allora abbiamo un sistema
   " x2 #
cos ψ − sin ψ cos θ
= kwk
y2
sin ψ cos ψ sin θ kwk
4.7. PRODOTTO SCALARE E SISTEMI LINEARI 55
 
cos ψ − sin ψ
dove le incognite sono cos θ e sin θ. La matrice rappresenta una
sin ψ cos ψ
rotazione del piano di un angolo ψ in senso antiorario. Se ruotiamo la retta di angolo
θ rispetto all’asse delle x (rappresentata dal vettore unitario [cos θ, sin θ]) di un angolo
ψ in senso antiorario otteniamo la retta di angolo ψ + θ (rappresentata dal vettore
unitario [x2 /kwk, y2 /kwk]).
Sostituendo i valori conosciuti relativi all’angolo ψ si ottiene il sistema:
" #  " x2 #
x1 y1
kvk
− kvk cos θ
y1 x1 = kwky2
kvk kvk
sin θ kwk

la cui unica soluzione si ottiene triangolando superiormente la matrice dei coefficienti


del sistema: " #
x1 y1 x2
kvk
− kvk kwk
y1 x1 y2
kvk kvk kwk

Moltiplichiamo la riga 2 per x1 e poi sommiamo alla riga 2 la riga 1 moltiplicata per
lo scalare −y1 :
y1 y1
" # " x x2
# "x x2
# " #
x1 y1 x2 1
− 1
− x1 y1 x2
kvk
− kvk kwk kvk kvk kwk kvk kvk kwk kvk
− kvk kwk
y1 x1 y2 ⇒ x1 y1 x21 x1 y2 ⇒ x21 +y12 x1 y2 −y1 x2 = x1 y2 −x2 y1
kvk kvk kwk kvk kvk kwk
0 kvk kwk
0 kvk kwk

da cui si ricava
x1 y 2 − x2 y 1 x 1 x2 + y 1 y 2 v·w
sin θ = ; cos θ = = (4.4)
kvkkwk kvkkwk kvkkwk

Quindi il prodotto scalare rappresenta il coseno dell’angolo tra due vettori.


56 CHAPTER 4. I SISTEMI LINEARI
Chapter 5

Matrici

L’insieme delle matrici di tipo m × n a coefficienti in un campo K costituisce uno


spazio vettoriale rispetto all’operazioni di somma componente per componente e
prodotto per uno scalare. Se A = (aij ) e B = (bij ) sono matrici di tipo m × n, allora
la matrice C = (cij ) è la somma di A e B se:

cij = aij + bij , per ogni i, j.

Se r ∈ K è uno scalare, allora rA è la matrice cosı̀ definita:

(rA)ij = rAij , per ogni i, j.

Limitandoci alle matrici di tipo 3 × 3, in modo più espressivo possiamo scrivere:


     
a11 a12 a13 b11 b12 b13 a11 + b11 a12 + b12 a13 + b13
A + B = a21 a22 a23  + b21 b22 b23  = a21 + b21 a22 + b22 a23 + b23 
a31 a32 a33 b31 b32 b33 a31 + b31 a32 + b32 a33 + b33
   
a11 a12 a13 ra11 ra12 ra13
rA = r a21 a22 a23  = ra21 ra22 ra23 
a31 a32 a33 ra31 ra32 ra33
L’opposta della matrice A è la matrice −A le cui componenti sono gli elementi
−aij .
Example 27.
         
2 3 1 2 3 5 2 3 8 12
1 −5 + 3 4 = 4 −1 4 1 −5 =  4 −20
3 2 5 6 8 8 3 2 12 8

57
58 CHAPTER 5. MATRICI
   
2 3 −2 −3
A = 1 −5 ; −A = −1 5 
3 2 −3 −2

5.1 Prodotto di una matrice per un vettore


Consideriamo il sistema lineare a coefficienti reali:
a11 x1 + · · · + a1n xn = b1
a21 x1 + · · · + a2n xn = b2
... ... ...
am1 x1 + · · · + amn xn = bm
Definiamo la matrice A dei coefficienti del sistema ed i vettori colonna delle incognite
e dei termini noti:
     
a11 a12 . . . a1n x1 b1
 a21 a22 . . . a2n   x2   b2 
A= . ..  ; x =  . ; b= . 
     
. .. .. .
 . . . .  .  .. 
am1 am2 . . . amn xn bm
Ricordiamo che A ha m righe A1 , . . . , Am ed n colonne A1 , . . . , An .
Si vede facilmente che la prima equazione linearea11 x1 +· · ·+a1n xn = b1 si ottiene
prendendo il prodotto interno del vettore riga A1 = a11 a12 . . . a1n per il vettore
 
x1
 x2 
colonna x =  .  e ponendolo uguale a b1 . Similmente per le altre equazioni lineari.
 
 .. 
xn
I prodotti interni di questo tipo si rappresentano con il prodotto di matrici:
      
a11 a12 . . . a1n x1 A1 · x a11 x1 + · · · + a1n xn
 a21 a22 . . . a2n   x2   A2 · x   a21 x1 + · · · + a2n xn 
Ax =  . ..   ..  =  ..  = 
      
.. .. ..
 ..

. . .   .   .   . 
am1 am2 . . . amn xn An · x am1 x1 + · · · + amn xn
Quindi il sistema lineare si rappresenta globalmente come segue
    
a11 a12 . . . a1n x1 b1
 a21 a22 . . . a2n   x2   b2 
..   ..  =  .. 
    
 .. .. ..
 . . . .  .   . 
am1 am2 . . . amn xn bm
5.1. PRODOTTO DI UNA MATRICE PER UN VETTORE 59

La precedente equazione matriciale si può anche scrivere come combinazione lineare


di vettori colonna:

       
a11 a12 a1n b1
 a21   a22   a2n   b2 
x1 A1 + x2 A2 + · · · + xn An = x1  .  + x2  .  + · · · + xn  .  =  . 
       
.
 .  .
 .  .
 .   .. 
am1 am2 amn bm
 
b1
 b2 
Cosa significa questa equazione? Ci chiediamo se il vettore  .  si può scrivere
 
 .. 
bm
   
a11 a1n
 a21   a2n 
come combinazione lineare dei vettori colonna A1 =  .  , . . . , An =  . . Come
   
.
 .  .
 . 
am1 amn
vedremo nel Capitolo 7, l’equazione vettoriale ha sicuramente soluzione se i vettori
colonna sono “linearmente indipendenti”.

Example 28. La matrice quadrata dei coefficienti del sistema lineare

3x + 2y = 5
x + 4y = 3

ha ordine 2:  
3 2
1 4
Il sistema lineare si può scrivere in notazione matriciale come segue:
    
3 2 x 5
=
1 4 y 3

I due vettori [x, y] e [5, 3] sono stati scritti come vettori colonna, cioè come matrici
2 × 1.  
x
Il prodotto interno 3x + 2y del vettore [3, 2] per il vettore è il prodotto
y  
x
interno della prima riga della matrice per l’unica colonna del vettore colonna .
y
60 CHAPTER 5. MATRICI
 
x
Allo stesso modo il prodotto interno x + 4y del vettore [1, 4] per il vettore è
y
il prodotto
 interno della seconda riga della matrice per l’unica colonna del vettore
x
colonna . Quindi abbiamo:
y
    
3 2 x 3x + 2y
=
1 4 y x + 4y

Example 29. Il sistema


3x + 2y + z = 5
x + 4y + 3z = 3
x+y+z = 0
si rappresenta in notazione matriciale come segue:
    
3 2 1 x 5
1 4 3  y = 3
 
1 1 1 z 0

Come prima facciamo il prodotto interno tra la prima (rispettivamente


 seconda e
x
terza) riga della matrice per l’unica colonna del vettore y  per ottenere
z
      
3 2 1 x 3x + 2y + z 5
1 4 3 y  = x + 4y + 3z  = 3
1 1 1 z x+y+z 0

La precedente equazione matriciale si può anche scrivere come combinazione lin-


eare di vettori colonna:
       
3 2 1 5
x 1 + y 4 + z 3 = 3 = b
      
1 1 1 0
con b il vettore colonna [5, 3, 0]T 
. Ci
 chiediamo
  seil vettore b si può scrivere come
3 2 1
combinazione lineare dei vettori 1 , 4 and 3.
    
1 1 1
5.2. PRODOTTO DI MATRICI 61

5.2 Prodotto di matrici


Tutte le trasformazioni sulle matrici della precedente sezione si ottengono anche
utilizzando il prodotto matriciale che ci accingiamo a definire.
Definition 5.2.1. Siano A = (aij ) una matrice di tipo m×k e B = (bij ) una matrice
di tipo k×n. Il prodotto AB di A e B è una matrice C di tipo m×n le cui componenti
cij sono ottenute come segue (per ogni i e j):
k
X
cij = air brj .
r=1

Osserviamo che sia la riga i di A che la colonna j di B hanno k elementi e che


cij coincide con il prodotto interno del vettore riga Ai ed il vettore colonna B j .

Proposition 5.2.1. Siano A = (aij ) una matrice di tipo m × k, B = (bij ) una


matrice di tipo k × n e C = (cij ) una matrice di tipo n × r. Il prodotto tra matrici
è associativo:
A(BC) = (AB)C.
L’elemento neutro della matrice A è a sinistra la matrice identica di ordine m ed
a destra la matrice identica di ordine k:

Im A = A = AIk .

Il prodotto distribuisce rispetto alla somma:

A(B + C) = (AB) + (AC); (B + C)A = (BA) + (CA).

Il prodotto non è in generale commutativo. Esistono matrici A e B tali che AB 6=


BA. Abbiamo inoltre per le matrici trasposte:

(AB)T = B T AT .

Infine se r è uno scalare:

(rA)B = A(rB) = r(AB).

Se a = a1 e1 +a2 e2 +a3 e3 e b = b1 e1 +b2 e2 +b3 e3 sono vettori dello spazio tridimen-


sionale, le cui coordinate sono espresse rispetto alla base canonica, allora il prodotto
interno di a e b si può scrivere con il prodotto matriciale: [a1 , a2 , a3 ][b1 , b2 , b3 ]T =
62 CHAPTER 5. MATRICI

a1 b1 + · · · + an bn . Questo risultato non vale in generale se consideriamo le coordinate


dei vettori a e b rispetto ad una base arbitraria.

Example 30. In questo esempio consideriamo tre matrici:


 
    1 −2 1
1 2 3 2 5
A= B= C = −4 −2 1
4 3 2 −2 4
2 −2 3

e controlliamo che (AB)C = A(BC). Abbiamo:


   
7 −2 13 41 −36 44
AB = (AB)C =
18 2 32 74 −104 116
   
5 −20 20 41 −36 44
BC = A(BC) =
18 −8 12 74 −104 116

Example 31. In questo esempio verifichiamo che il prodotto non è commutativo:


    
1 2 3 2 7 −2
=
4 3 2 −2 18 2

mentre     
3 2 1 2 11 12
=
2 −2 4 3 −6 −2

Example 32.        
1 0 3 2 3 2 3 2 1 0
= =
0 1 2 −2 2 −2 2 −2 0 1

Example 33. Un grafo G = (V, E) è costituito da un insieme finito V = {v1 , v2 , . . . , vn }


di vertici (o nodi) e da un insieme di archi o frecce definite tramite una relazione
binaria E ⊆ V × V . Se (v, u) ∈ E allora esiste un arco orientato che si diparte dal
vertice v ed arriva al vertice u:
v −→ u.
Un cammino in un grafo è una sequenza di nodi u0 , u1 , . . . , uk tali che ui → ui+1 per
ogni 0 ≤ i < k.
La matrice di adiacenza di un grafo G con n vertici è una matrice quadrata A di
ordine n: (
1 se (vi , vj ) ∈ E
Aij =
0 altrimenti.
5.2. PRODOTTO DI MATRICI 63

La somma degli elementi della riga Ai è pari al numero di archi che escono dal vertice
vi .
Per esempio, la matrice binaria
 
0 1 1
A = 0 0 1 (5.1)
1 1 0

rappresenta un grafo con tre vertici v1 , v2 , v3 ed i seguenti archi:

v1 −→ v2 ; v1 −→ v3 ; v2 −→ v3 ; v3 −→ v1 ; v3 −→ v2 .

Definiamo le potenze della matrice A per induzione come segue: A0 = In e


k+1
A = Ak A (da non confondersi con i vettori colonna di A). Indichiamo con (Ak )ij
le componenti della matrice Ak . Proviamo per induzione su k che (Ak )ij è uguale
al numero di cammini di lunghezza k dal nodo vi al nodo vj . Il risultato è vero per
A1 = A. Un cammino di lunghezza 1 da vi a vj è un arco orientato che connette vi
a vj . L’arco esiste sse aij = 1 sse (vi , vj ) ∈ E.
Supponiamo che il risultato sia vero per Ak e dimostriamolo per Ak+1 :
n
X
k+1
(A )ij = (Ak )ir Arj .
r=1

Infatti, un cammino di lunghezza k + 1 da vi a vj lo possiamo spezzare come un


cammino di lunghezza k da vi ad un vertice intermedio vr ed un arco da vr a vj . Se
calcoliamo quanti sono questi cammini di lunghezza k + 1 con nodo intermedio vr ,
essi sono pari al numero (Ak )ir di cammini di lunghezza k da vi a vr se esiste un arco
da vr a vj , oppure sono 0 se tale arco non esiste. In ogni caso è pari a

(Ak )ir Arj .

Ne segue la conclusione. Quindi, per ogni k, (Ak )ij è uguale al numero di cammini
di lunghezza k da vi a vj .
Ritornando all’esempio (5.1) si ha
 
1 1 1
A2 = AA = 1 1 0
0 1 2

Abbiamo in effetti due cammini di lunghezza due da v3 in v3 .


64 CHAPTER 5. MATRICI

5.2.1 Moltiplicazione di matrici a blocchi


La moltiplicazione tra matrici si semplifica a volte se utilizziamo la moltiplicazione
a blocchi.
Siano A e B matrici rispettivamente di tipo m × n e di tipo n × p, e sia r un
numero minore o uguale ad n. Possiamo decomporre le due matrici in blocchi:

E
A = [C|D]; B = [ ],
F
dove C è di tipo m × r, D è di tipo m × (n − r), E è di tipo r × p e F è di tipo
(n − r) × p. Allora il prodotto matriciale può essere calcolato come segue:

AB = CE + DF.

Se dividiamo A e B in quattro blocchi

C 0 D0
   
C D
A= ; B= ,
E F E0 F 0

allora la moltiplicazione matriciale si esegue come se A e B fossero matrici quadrate


di ordine 2:
CC 0 + DE 0 CD0 + DF 0
 
AB = .
EC 0 + F E 0 ED0 + F F 0
 
  2 3 1 1
1 0 5
Example 34. Siano A = e B =  4 8 0 0  due matrici suddivise in
0 1 3
1 0 1 0
blocchi compatibili. Allora si ha:
 
2 3
• [1, 0] + [5][1, 0] = [2, 3] + [5, 0] = [7, 3].
4 8
 
1 1
• [1, 0] + [5][1, 0] = [1, 1] + [5, 0] = [6, 1].
0 0
 
2 3
• [0, 1] + [3][1, 0] = [4, 8] + [3, 0] = [7, 8].
4 8
 
1 1
• [0, 1] + [3][1, 0] = [3, 0].
0 0
5.2. PRODOTTO DI MATRICI 65

Quindi  
7 3 6 1
AB = .
7 8 3 0
 
  0 0 1 1
1 0 0
Example 35. Siano A = e B =  0 0 0 0  due matrici suddivise in
0 0 3
1 0 1 0
blocchi compatibili. Siccome alcuni blocchi
 sono costituiti dalla matrice nulla, allora
0 0 1 1
si vede facilmente che AB = .
3 0 3 0
66 CHAPTER 5. MATRICI
Chapter 6

Matrici e sistemi lineari

6.1 Matrici elementari


Consideriamo il sistema lineare di inizio Capitolo 5
    
3 2 1 x 5
1 4 3 y  = 3
1 1 1 z 0
e rivediamo i passi effettuati per ottenere la soluzione applicando il metodo di elim-
inazione di Gauss alla matrice completa del sistema:
 
3 2 1 5
1 4 3 3
1 1 1 0
1. Scambia la prima riga con la terza riga;
2. Sottrai la prima riga dalla seconda;
3. Sottrai 3 volte la prima riga dalla terza;
4. Somma alla terza riga un terzo della seconda riga.
Scriviamo qui di seguito le varie matrici che si ottengono con i vari passaggi:
         
3 2 1 5 1 1 1 0 1 1 1 0 1 1 1 0 1 1 1 0
1 4 3 3 ⇒ 1
  4 3 3 ⇒ 0 3
  2 3 ⇒ 0 3 2 3 ⇒ 0 3 2 3
1 1 1 0 3 2 1 5 3 2 1 5 0 −1 −2 5 0 0 −4/3 6

Dalla matrice finale si ottiene facilmente la soluzione del sistema.

67
68 CHAPTER 6. MATRICI E SISTEMI LINEARI

Definition 6.1.1. Una matrice quadrata è elementare se ha uno dei seguenti tre
formati:
1. Matrice di tipo I che, moltiplicando a sinistra una matrice A, effettua lo scambio
di una riga di A con un’altra riga di A. Per semplicità, consideriamo matrici
di tipo 3 × 3.
     
0 0 1 1 0 0 0 1 0
S1,3 =  0 1 0  S2,3 =  0 0 1  S1,2 =  1 0 0 
1 0 0 0 1 0 0 0 1

2. Matrice di tipo II che, moltiplicando a sinistra una matrice A, effettua la


moltiplicazione di una riga di A per uno scalare r:
     
r 0 0 1 0 0 1 0 0
Mr1 =  0 1 0  Mr2 =  0 r 0  Mr3 =  0 1 0 
0 0 1 0 0 1 0 0 r

3. Matrice di tipo III che, moltiplicando a sinistra una matrice A, somma un


multiplo di una data riga di A ad un’altra riga data:
     
1 0 0 1 0 0 1 0 0
E2+r1 = r 1 0
  E3+r1 = 0 1 0
  E3+r2 = 0
 1 0
0 0 1 r 0 1 0 r 1
     
1 r 0 1 0 r 1 0 0
E1+r2 =  0 1 0  E1+r3 =  0 1 0  E2+r3 =  0 1 r
0 0 1 0 0 1 0 0 1

Ritorniamo al sistema lineare prima della definizione. Le operazioni che applichi-


amo ai coefficienti del sistema lineare, le applichiamo anche ai termini noti. Quindi
aggiungiamo una colonna con i termini noti alla matrice A del sistema lineare.
 
3 2 1 5
A = 1 4 3 3
1 1 1 0
Per scambiare la prima riga con l’ultima, moltiplichiamo la matrice S1,3 per la matrice
A.  
0 0 1
S1,3 = 0 1 0
1 0 0
6.1. MATRICI ELEMENTARI 69

Si noti che la prima riga [0, 0, 1] di S1,3 farà diventare la terza riga di A prima riga,
la seconda riga [0, 1, 0] di S1,3 manterrà intatta la seconda riga di A, mentre la terza
riga [1, 0, 0] di S1,3 trasferirà la prima riga di A al posto della vecchia terza riga.
   
0 0 1 3 2 1 5 1 1 1 0
S1,3 A = 0 1 0 1 4 3 3 1 4 3 3
1 0 0 1 1 1 0 3 2 1 5
Ora vogliamo sottrarre la prima riga di A dalla seconda riga. Consideriamo la matrice
E2+r1 con r = −1:  
1 0 0
E2+(−1)1 = −1 1 0
0 0 1
Allora abbiamo
    
1 0 0 1 1 1 0 1 1 1 0
E2+(−1)1 S1,3 A = −1 1 0 1 4 3 3 = 0 3 2 3
0 0 1 3 2 1 5 3 2 1 5
Sottraiamo 3 volte la prima riga di A dalla terza. Consideriamo la seguente matrice:
 
1 0 0
E3+(−3)1 = 0 1
 0
−3 0 1
Allora abbiamo
    
1 0 0 1 1 1 0 1 1 1 0
E3+(−3)1 E2+(−1)1 S1,3 A =  0 1 0 0 3 2 3 = 0 3 2 3
−3 0 1 3 2 1 5 0 −1 −2 5
Dividiamo la seconda riga di A per 3 e poi sommiamo la seconda riga di A alla terza.
Consideriamo la matrice  
1 0 0
E3+( 1 )2 = 0 1 0
3
0 31 1
Allora abbiamo
    
1 0 0 1 1 1 0 1 1 1 0
E3+( 1 )2 E3+(−3)1 E2+(−1)1 S1,3 A = 0 1 0 0 3 2 3 = 0 3 2 3
3
1
0 3 1 0 −1 −2 5 0 0 −4/3 6
Il fatto che il prodotto tra matrici è associativo ci permette anche di moltiplicare
prima tutte le matrici E3+( 1 )2 E3+(−3)1 E2+(−1)1 S1,3 e poi applicare il risultato ad A
3
per ottenere il risultato finale.
70 CHAPTER 6. MATRICI E SISTEMI LINEARI

6.2 Matrice inversa


Le operazioni che abbiamo applicato alla matrice A sono tutte reversibili nel senso
che ciascuna delle matrici elementari è invertibile.

Definition 6.2.1. Una matrice quadrata A di ordine n è invertibile se esiste una


matrice B dello stesso tipo tale che

AB = In = BA,

dove In è la matrice identica.

Come dimostreremo nel seguente lemma, esiste al più una matrice inversa di A;
nel caso in cui esiste l’inversa della matrice A essa si indica con A−1 .

Lemma 6.2.1. Siano A e B matrici quadrate di ordine n.

1. La matrice inversa A−1 di A è unica.

2. (AB)−1 = B −1 A−1 .

3. Se A è invertibile, il sistema lineare Ax = b di n equazioni in n incognite ha


un’unica soluzione data da x = A−1 b.

Proof. (1) Supponiamo che C sia un’altra inversa, cioé AC = CA = In . Allora


abbiamo:
C = CIn = C(AA−1 ) = (CA)A−1 = In A−1 = A−1 .

(2) (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIn A−1 = AA−1 = In .


(3) Sia x = A−1 b. Allora si ha: A(A−1 b) = (AA−1 )b = In b = b.

Nella seguenti proposizioni calcoliamo la matrice inversa di matrici di ordine 2,


matrici triangolari superiori e matrici elementari. L’approccio generale alla matrici
inverse è rimandato al capitolo sui determinanti.
6.2. MATRICE INVERSA 71
 
a11 a12
Proposition 6.2.2. Sia A = una matrice quadrata di ordine 2 e sia
a21 a22
det(A) = a11 a22 − a12 a21 il suo determinante. Allora le seguenti condizioni sono
equivalenti:

1. A è invertibile;

2. Il determinante det(A) di A è diverso da zero;


   
a11 a
3. L’angolo θ formato dai due vettori colonna A = 1
e A = 12 è diverso
2
a21 a22
a11 a22 −a12 a21
da 0, cioé sin θ = kA1 kkA2 k 6= 0 (si veda Sezione 4.7).

Se det(A) 6= 0 allora
 
−1 1 a22 −a12
A = .
a11 a22 − a12 a21 −a21 a11
 
a b
Proof. Sia A = una matrice quadrata di ordine 2. A è invertibile se esistono
c d
x, y, z, t tali che     
a b x y 1 0
= .
c d z t 0 1
È equivalente a trovare l’unica soluzione, se esiste, del sistema lineare
ax + bz = 1
ay + bt = 0
cx + dz = 0
cy + dt = 1
Se a = c = 0, si vede facilmente che il sistema non ammette soluzione e il determi-
nante è nullo.
Se a = 0 e c 6= 0, scambiamo la prima riga con la terza e la seconda con la quarta
e calcoliamo esattamente come qui di seguito.
Supponiamo a 6= 0. Triangoliamo la matrice completa moltiplicando prima le
righe 3 e 4 per a, e poi sottraendo c volte la riga 1 dalla riga 3 e la riga 2 dalla riga
4:
     
a 0 b 0 | 1 a 0 b 0 | 1 a 0 b 0 | 1
0 a 0 b | 0
 ⇒  0 a 0 b | 0 ⇒ 0 a 0 b | 0
  
 
 c 0 d 0 | 0 ac 0 ad 0 | 0 0 0 ad − bc 0 | −c
0 c 0 d | 1 0 ac 0 ad | a 0 0 0 ad − bc | a
72 CHAPTER 6. MATRICI E SISTEMI LINEARI

Il sistema ammette un’unica soluzione


  sse ad − bc 6= 0. Il numero ad − bc è il
a b
determinante della matrice A = . Risolvendo il sistema triangolare superiore
c d
si ottiene:  
−1 1 d −b
A = .
ad − bc −c a

Proposition 6.2.3. Una matrice triangolare superiore è invertibile se nessun ele-


mento nella
 diagonale
 è 0. In tal caso l’inversa è una matrice triangolare superiore.
d a b
Se A = 0 e c  allora
0 0 f
 
ef −af ac − be
1 
A−1 = 0 df −cd 
edf
0 0 de

Proof. Proviamo la proposizione per n = 3. Sia


 
d a b
A = 0 e c 
0 0 f

Dobbiamo trovare una matrice tale che


    
d a b x y z 1 0 0
0 e c  x1 y1 z1  = 0 1 0
0 0 f x2 y2 z2 0 0 1

È equivalente a risolvere i tre sistemi lineari:


              
d a b x 1 d a b y 0 d a b z 0
0 e c  x1  = 0 ; 0 e c  y1  = 1 ; 0 e c  z1  = 0
0 0 f x2 0 0 0 f y2 0 0 0 f z2 1

I tre sistemi triangolari superiori ammettono ciascuno un’unica soluzione sse tutti gli
 diA sono diversi da zerosse def6= 0. In questo
elementi nella diagonale principale
1/d −a/ed
caso otteniamo come soluzioni:  0 per il primo sistema;
  1/e  per il secondo
0 0
6.2. MATRICE INVERSA 73
 
(ac − be)/edf
sistema; e infine  −c/ef  per il terzo sistema. Quindi
1/f
1 −a ac−be   
d ed edf ef −af ac − be
1 −c  1 
A−1 =  0 e ef = 0 df −cd 
1 edf
0 0 f
0 0 de

Proposition 6.2.4. Le matrici elementari sono invertibili.

Example 36. La matrice S1,3 (che scambia la riga 1 e la riga 3) è invertibile con
inversa la matrice stessa:
    
0 0 1 0 0 1 1 0 0
S1,3 S1,3 = 0
 1 0 0 1 0 = 0 1 0 = I3
1 0 0 1 0 0 0 0 1

È infatti chiaro che scambiare due volte di seguito la riga uno e la riga tre riporta
alla situazione iniziale.
La matrice E3+r2 è invertibile con inversa E3+(−r)2 :
    
1 0 0 1 0 0 1 0 0
0 1 0 0 1 0 = 0 1 0
0 r 1 0 −r 1 0 0 1

La matrice Mr2 è invertibile con inversa M 1 2 :


r

    
1 0 0 1 0 0 1 0 0
0 1 0 0 r 0 = 0 1 0
r
0 0 1 0 0 1 0 0 1

Example 37. Sia A la matrice reale


 
2 2 k
A = 1 2 0 
0 0 3k
74 CHAPTER 6. MATRICI E SISTEMI LINEARI

Determiniamo per quali valori di k ∈ R la matrice A è invertibile. Triangoliamo la


matrice A sottraendo alla seconda riga 21 della prima:
 
2 2 k
E2+(−1/2)1 A = 0 1 −k/2
0 0 3k
Dalla Proposizione 6.2.3 la matrice ottenuta è invertibile sse k 6= 0. In tal caso,
  1 1

3k −6k −2k −1 −
1  2 3
(E2+(−1/2)1 A)−1 = A−1 E2+(+1/2)1 = 0 6k k  = 0 1 1 
6
6k 1
0 0 2 0 0 3k

Per ottenere A−1 moltiplichiamo a destra per la matrice inversa E2+(−1/2)1 della
matrice E2+(+1/2)1 :
1
−1 − 13 1 −1 − 13
   
2
1 0 0
A−1 =  0 1 1  1
6
− 2 1 0 = − 12 1 1 
6
1 1
0 0 3k
0 0 1 0 0 3k

6.2.1 Metodo di inversione di Gauss-Jordan


Spieghiamo il metodo con un esempio. Consideriamo la matrice A da invertire:
 
2 1 1
A =  4 −6 0
−2 7 2
Aggiungiamo la matrice identica in fondo:
 
2 1 1 1 0 0
B = (A|I3 ) =  4 −6 0 0 1 0
−2 7 2 0 0 1
L’idea è di eseguire le solite operazioni di triangolabilità sulla matrice B in maniera
tale da arrivare ad una matrice
 
1 0 0 c11 c12 c13
0 1 0 c21 c22 c23 
0 0 1 c31 c32 c33

Allora la matrice di ordine 3 formata dalle tre colonne B 4 , B 5 e B 6 sarà l’inversa di


A.
6.2. MATRICE INVERSA 75

Cominciamo sottraendo il doppio della prima riga alla seconda riga:


 
2 1 1 1 0 0
 0 −8 −2 −2 1 0
−2 7 2 0 0 1
Sommiamo la prima riga all’ultima riga:
 
2 1 1 1 0 0
0 −8 −2 −2 1 0
0 8 3 1 0 1
Sommiamo la seconda riga all’ultima:
 
2 1 1 1 0 0
0 −8 −2 −2 1 0
0 0 1 −1 1 1
Ora cerchiamo di azzerare le componenti b13 e b23 , sottraendo la terza riga alla prima:
 
2 1 0 2 −1 −1
0 −8 −2 −2 1 0
0 0 1 −1 1 1
e sommando due volte la terza alla seconda:
 
2 1 0 2 −1 −1
0 −8 0 −4 3 2
0 0 1 −1 1 1
Per azzerare la componente b12 si procede sommando un ottavo della seconda alla
prima:
2 0 0 12 − 58 − 86
 
8
0 −8 0 −4 3 2 
0 0 1 −1 1 1
Fino ad ora non abbiamo modificato il determinante −16 della matrice A di partenza.
Infine si divide la prima riga per 2, la seconda per −8:
1 0 0 12 5 6
 
16
− 16 − 16
0 1 0 4 − 3 − 2 
8 8 8
0 0 1 −1 1 1
Quindi la matrice inversa è:
 12 5 6

16
− 16 − 16
A−1 = 4
8
− 83 − 82 
−1 1 1
76 CHAPTER 6. MATRICI E SISTEMI LINEARI

6.3 Fattorizzazione triangolare


 
1 1 1
Sia B = 1 4 3 una matrice quadrata. La matrice U che si ottiene da B, appli-
3 2 1
cando il metodo di eliminazione di Gauss, è triangolare superiore:
 
1 1 1
U = E3+( 1 )2 E3+(−3)1 E2+(−1)1 B = 0 3 2 
3
0 0 −4/3
Se moltiplichiamo ambo i membri della precedente uguaglianza per le matrici inverse
delle matrici elementari (nel giusto ordine), si riottiene B:
B = LU = (E2+(−1)1 )−1 (E3+(−3)1 )−1 (E3+( 1 )2 )−1 U = E2+(+1)1 E3+(+3)1 E3+(3)2 U.
3

La matrice L è una matrice triangolare inferiore purché nel processo di applicazione


delle regole di Gauss non si scambino mai due righe:
     
1 0 0 1 0 0 1 0 0 1 0 0
L = 1 1 0 0 1 0 0 1 0 = 0 1 0
0 0 1 3 0 1 0 3 1 3 3 1
Data una matrice A, se riusciamo a scomporre A come A = LU con L matrice
triangolare inferiore e U matrice triangolare superiore, allora possiamo risolvere il
sistema Ax = b (x vettore colonna incognito e b vettore colonna dei termini noti)
con i seguenti passi:
• Trovare un vettore c tale che Lc = b;
• Trovare un vettore d tale che U d = c;
• Ad = LU d = L(U d) = Lc = b e quindi x = d.

Example 38. Consideriamo il sistema


    
2 1 x1 5
=
−2 3 x2 3
Allora     
2 1 1 0 2 1
= = LU
−2 3 −1 1 0 4
 
1 0
dove L = = E2+(−1)1 . Risolvendo Lc = b, si ottiene c1 = 5 e c2 = 8, mentre
−1 1
per l’equazione U d = c si ha d1 = 23 e d2 = 2.
6.4. MATRICI A SCALA IN FORMA RIDOTTA 77

6.4 Matrici a scala in forma ridotta


Le matrici a scala definite in Definizione 4.3.1 svolgono il ruolo delle matrici trian-
golari superiori quando il sistema lineare non è quadrato.
Definition 6.4.1. Una matrice a scala in forma ridotta è una matrice a scala che
verifica le seguenti condizioni:
1. Il primo elemento in una riga non nulla è un 1;

2. Se una colonna contiene il primo elemento non nullo di una riga, allora tutte
gli altri elementi della colonna sono nulli.
Example 39. Una matrice a scala in forma ridotta:
 
1 0 0 0 0 4
0 1 0 0 0 7
 
0 0 0 1 0 7
 
0 0 0 0 1 0
0 0 0 0 0 0
Definition 6.4.2. Due matrici A e B di dimensione m × n sono equivalenti per riga,
e scriviamo A ≡r B, se la matrice B può essere ottenuta dalla matrice A applicando
operazioni elementari (di tipo I, II, III).
Si noti che la relazione ≡r è una relazione di equivalenza perché le matrici ele-
mentari sono invertibili e quindi anche il prodotto di matrici elementari è invertibile:
se B = EA per una matrice elementare E, allora A = E −1 B.

Proposition 6.4.1. Ogni matrice non nulla è equivalente ad una matrice a scala
in forma ridotta.
Proof. In Sezione 4.4 è spiegato come ridurre con operazioni elementari una matrice
in una equivalente matrice a scala. Ora vediamo come ottenere una matrice in forma
ridotta da una matrice a scala H. Sia H = (hij ) una matrice a scala. Applichiamo la
procedura seguente dall’alto verso il basso. Consideriamo una riga non nulla, diciamo
la riga i. Allora dividiamo la riga per lo scalare che è il valore del primo elemento
da sinistra della riga i. In questo modo 1 diventa il valore del primo elemento non
nullo della riga. Supponiamo che si trovi nella colonna j, cioé, hij = 1. Allora, per
ogni riga k (1 ≤ k < i) con elemento non nullo in posizione kj, cioé hkj 6= 0, somma
−hkj volte la riga i alla riga k. Alla fine nella colonna j avremo tutti elementi nulli
tranne un 1 in posizione ij.
78 CHAPTER 6. MATRICI E SISTEMI LINEARI

Proposition 6.4.2. Siano Ax = a e Bx = b due sistemi lineari ciascuno con m


equazioni in n incognite. Se le matrici complete A|a e B|b sono equivalenti per
riga allora

(i) I due sistemi hanno le stesse soluzioni.

(ii) Le soluzioni del sistema Ax = a si ottengono trasformando la matrice com-


pleta [A|a] in forma ridotta.

Proof. (i) Per ipotesi esiste una matrice G, che è prodotto di matrici elementari,
tale che G(B|b) = A|a. Moltiplicando a blocchi, segue che GB = A e Gb = a.
Supponiamo che il vettore colonna x sia una soluzione del sistema lineare Bx = b.
Allora Ax = GBx = Gb = a. Per simmetria otteniamo la tesi.
(ii) Dalla Proposizione 6.4.1 la matrice A è equivalente per riga ad una matrice C
in forma ridotta. Esiste quindi una matrice G, che è prodotto di matrici elementari,
tale che GA = C. Da (i) i sistemi Ax = a e Cx = GAx = Ga hanno le stesse
soluzioni.
Un sistema lineare è omogeneo se il vettore dei termini noti è il vettore nullo.

Proposition 6.4.3. Un sistema omogeneo Ax = 0 di m equazioni in n incognite


ammette sempre una soluzione non nulla se n > m.

Proof. Riduciamo A in forma ridotta ottenendo la matrice B. Siano r il numero di


righe non nulle di B. Allora la matrice C di dimensione r × n, formata dalle prime r
righe di B, non ha righe nulle. Siccome r ≤ m < n possiamo risolvere il sistema con
le prime r incognite che dipendono dalle altre n − r. Queste ultime possono prendere
valori arbitrari.
Chapter 7

Spazi vettoriali

Prima di proseguire nel capitolo invitiamo il lettore a rileggersi la definizione di spazio


vettoriale in Sezione 2.2.

7.1 Sottospazi
Definition 7.1.1. Sia V uno spazio vettoriale sul campo K. Un sottoinsieme non
vuoto U di V è un sottospazio vettoriale di V se la somma vettoriale di vettori di U
è ancora in U e lo stesso accade per il prodotto di un vettore di U per un arbitrario
scalare:

1. v, w ∈ U ⇒ v + w ∈ U ;

2. v ∈ U ∧ r ∈ K ⇒ rv ∈ U .

Dalla seconda condizione della definizione precedente il vettore nullo 0 appartiene


ad ogni sottospazio vettoriale.
Ogni spazio vettoriale V ammette due sottospazi banali: il primo {0} costituito
dal solo vettore nullo e il secondo da V stesso.

Example 40. L’insieme dei punti della retta di equazione ax + by = 0, passante per
l’origine degli assi Cartesiani di R2 , è un sottospazio vettoriale di R2 . Se P = (p1 , p2 )
e Q = (q1 , q2 ) sono due punti sulla retta, cioé ap1 + bp2 = 0 e aq1 + bq2 = 0, allora
anche P + Q = (p1 + q1 , p2 + q2 ) appartiene alla retta: a(p1 + q1 ) + b(p2 + q2 ) =
ap1 + aq1 + bp2 + bq2 = (ap1 + bp2 ) + (aq1 + bq2 ) = 0 + 0 = 0. Se r è uno scalare, allora
rP = (rp1 , rp2 ) appartiene alla retta data: arp1 + brp2 = r(ap1 + bp2 ) = r0 = 0.

79
80 CHAPTER 7. SPAZI VETTORIALI

Example 41. L’insieme dei punti della retta di equazione ax + by = c (c 6= 0) non è


un sottospazio vettoriale di R2 . Per esempio, se P = (p1 , p2 ) è un punto della retta
(cioè ap1 + bp2 = c) ed r 6= 1 è uno scalare, allora rP non appartiene alla retta data:
a(rp1 ) + b(rp2 ) = r(ap1 + bp2 ) = rc 6= c.

Lemma 7.1.1. L’intersezione di due o più sottospazi vettoriali di V è ancora un


sottospazio vettoriale.

Proof. Siano W e U due sottospazi. Si vede facilmente che, se v, w ∈ W ∩ U , allora


anche che v + w ∈ W ∩ U e rv ∈ W ∩ U per ogni scalare r.

Example 42. I piani di equazione 3x + 2y + z = 0 e x + y + z = 0 sono due


sottospazi vettoriali di R3 . La retta di equazione parametrica x = t, y = −2t e z = t,
intersezione dei due piani, è un sottospazio vettoriale di R3 .

Definition 7.1.2. Sia V uno spazio vettoriale e x1 , . . . , xn ∈ V vettori. Un vettore


v ∈ V è una combinazione lineare dei vettori x1 , . . . , xn se esistono scalari r1 , . . . , rn
tali che
v = r1 x1 + · · · + rn xn .

Definition 7.1.3. Sia X ⊆ V un sottoinsieme di uno spazio vettoriale V sul campo


K. Il sottospazio Span(X) di V generato da X è definito come l’intersezione di tutti
i sottospazi di V che contengono X.

Span(X) è costituito da tutte le combinazioni lineari finite di elementi di X a


coefficienti nel campo K:

Span(X) = {r1 v1 + · · · + rk vk : r1 , . . . rk ∈ K e v1 , . . . , vk ∈ X}.

Example 43. Siano A = [3, 2, 1] e B = [0, 0, 2] due vettori di R3 . Allora il sot-


tospazio vettoriale Span(A, B) = {sA + tB : r, s ∈ R} di R3 è il piano passante per
l’origine che contiene i due vettori A e B.

Example 44. Sia C lo spazio vettoriale dei numeri complessi sul campo dei numeri
reali. Tale spazio ha dimensione 2. Sia z = 3 + 2i un numero complesso. Allora
Span(z) = {t(3 + 2i) : t ∈ R}.

Example 45. Consideriamo lo spazio vettoriale dei polinomi reali in una variabile
t. Allora Span(1, t, t2 ) costituisce il sottospazio vettoriale dei polinomi di secondo
grado.
7.1. SOTTOSPAZI 81

Proposition 7.1.2. 1. I sottospazi vettoriali non banali del piano sono le rette
passanti per l’origine.

2. I sottospazi vettoriali non banali dello spazio sono i piani e le rette passanti
per l’origine.

Le rette (i piani) che non passano per l’origine NON sono sottospazi vettoriali,
perché il vettore nullo non appartiene alla retta (al piano).
Ricordiamo che un sistema lineare è omogeneo se il vettore dei termini noti è il
vettore nullo.
Proposition 7.1.3. L’insieme delle soluzioni di un sistema lineare omogeneo di
m equazioni in n incognite è un sottospazio vettoriale dello spazio Rn .
Proof. Sia A una matrice di tipo m × n, x, y vettori colonna di lunghezza n tali
che Ax = 0 e Ay = 0. Allora A(x + y) = Ax + Ay = 0 + 0 = 0 ed inoltre
A(rx) = r(Ax) = r0 = 0.

Proposition 7.1.4. Sia Ax = b un sistema lineare con A matrice di tipo


m × n. Il sistema ammette soluzione se il vettore b appartiene al sottospazio
Span(A1 , . . . , An ) generato dai vettori colonna di A. In tal caso b = c1 A1 + · · · +
cn An per opportuni scalari c1 , . . . , cn e la soluzione del sistema è x = [c1 . . . cn ]T .

Concludiamo la sezione con esempi che chiarificano le proposizioni precedenti.


Example 46. La retta di equazione 2x + 3y = 0 è un sottospazio vettoriale di R2
(si consulti Proposizione 7.1.2):
• Se [x1 , x2 ] e [y1 , y2 ] appartengono alla retta (i.e., 2x1 + 3x2 = 0 e 2y1 + 3y2 = 0),
allora anche [x1 + y1 , x2 + y2 ] appartiene alla retta (2(x1 + y1 ) + 3(x2 + y2 ) = 0).

• Se [x1 , x2 ] appartiene alla retta (i.e., 2x1 + 3x2 = 0), allora anche r[x1 , x2 ] =
[rx1 , rx2 ] appartiene alla retta (i.e., r(2x1 + 3x2 ) = 0).
Example 47. Il piano di equazione 2x + 3y + 4z = 0 è un sottospazio vettoriale
di R3 (si consulti Proposizione 7.1.2). Le rette passanti per l’origine sono anch’esse
sottospazi vettoriali di R3 in quanto intersezione di due piani passanti per l’origine
(Si consulti Lemma 7.1.1).
Example 48. Si consideri lo spazio vettoriali delle matrici quadrate di ordine n. I
seguenti sono sottospazi vettoriali:
82 CHAPTER 7. SPAZI VETTORIALI

• L’insieme delle matrici triangolari superiori;


• L’insieme delle matrici diagonali;
• L’insieme delle matrici simmetriche.
Example 49. Si consideri la matrice
 
2 1 1
A =  4 −6 0 
−4 −2 −2
L’insieme delle combinazioni lineari dei vettori colonna della matrice
     
2 1 1
c1  4  + c2 −6 + c3  0 
−4 −2 −2
 
a
3
costituisce un sottospazio vettoriale W di R . Se il vettore b  appartiene al sot-

c
tospazio W allora il sistema lineare
    
2 1 1 x a
 4 −6 0  y  =  b 
−4 −2 −2 z c
ammette soluzione.
Example 50. L’insieme dei polinomi di grado minore o uguale ad n è un sottospazio
vettoriale dello spazio dei polinomi.
   
0 5
Example 51. Siano x1 = 1 e x2 = 4 due vettori nello spazio tridimensionale.
2 3
Allora le combinazioni lineari di x1 e x2
   
0 5
c1 1 + c2 4
  
2 3
descrivono l’insieme dei punti del piano di equazione x − 2y + z = 0, che è un
sottospazio vettoriale di R3 . Infatti, le equazioni x = 5c2 , y = c1 + 4c2 e z = 2c1 + 3c2
costituiscono le equazioni parametriche di un piano passante per l’origine. Da c2 =
x
5
si ricava 5y = 5c1 + 4x e 5z = 10c1 + 3x. Infine, sostituendo 5c1 = 5y − 4x
nell’equazione 5z = 10c1 + 3x si ottiene l’equazione lineare del piano x − 2y + z = 0.
7.2. VETTORI LINEARMENTE INDIPENDENTI 83

Example 52. Siano p(x) = x+3 e q(x) = x2 +2 due polinomi. Allora le combinazioni
lineari rp(x) + sq(x) con r, s ∈ R costituiscono il sottospazio dei polinomi del tipo

sx2 + rx + (2s + 3r)

al variare di r, s tra i reali.


     
2 0 0 1 0 0
Example 53. Siano A = ,B= eC= tre matrici. L’insieme
0 0 0 0 0 4
delle combinazioni lineari di A, B e C determina il sottospazio delle matrici che
hanno la seguente forma (c1 , c2 , c3 arbitrari numeri reali):
 
c1 c2
0 c3

7.2 Vettori linearmente indipendenti


Definition 7.2.1. I vettori x1 , . . . , xn di uno spazio vettoriale V si dicono linear-
mente dipendenti se il vettore nullo 0 è una combinazione lineare di x1 , . . . , xn con
coefficienti scalari non tutti nulli; altrimenti si dicono linearmente indipendenti.
Example 54. Riconsideriamo i tre vettori colonna dell’Esempio 49. Essi sono lin-
earmente dipendenti perché
     
2 1 1
−3  4  − 2 −6 + 8  0  = 0.
−4 −2 −2
Quindi il sistema omogeneo
    
2 1 1 −3 0
 4 −6 0  −2 = 0
−4 −2 −2 8 0
ammette soluzioni diverse dal vettore nullo 0. Infatti si vede facilmente che la terza
riga della matrice è un multiplo della prima, cosı̀ il sistema lineare ammette una
retta di soluzioni che sono l’intersezione del piano 2x + y + z = 0 (che è lo stesso
piano di equazione −4x − 2y − 2z = 0) e del piano 4x − 6y = 0. Si noti che se i
vettori colonna sono lineramente dipendenti, anche i vettori riga [2, 1, 1], [4, −6, 0] e
[−4, −2, −2] lo sono:

2[2, 1, 1] + 0[4, −6, 0] + [−4, −2, −2] = 0.


84 CHAPTER 7. SPAZI VETTORIALI

Quest’ultima uguaglianza la possiamo scrivere anche cosı̀:


 
  2 1 1  
2 0 1 4 −6 0  = 0 0 0
−4 −2 −2

Oppure prendendo le matrici trasposte:


    
2 4 −4 2 0
1 −6 −2 0 = 0
1 0 −2 1 0

 
x1
Proposition 7.2.1. Se A = (aij ) è una matrice di tipo m × n e x =  ...  un
 

xn
vettore colonna non nullo, allora le seguenti condizioni sono equivalenti:

1. Ax = 0;

2. x è un vettore perpendicolare agli m vettori riga della matrice:


n
X
Prodotto interno: Ai · x = aij xj = 0, per ogni 1 ≤ i ≤ m.
j=1

3. Gli n vettori colonna di A sono linearmente dipendenti:


     
a11 a12 a1n
x1 A1 + · · · + xn An = x1  ...  + x2  ...  + · · · + xn  ...  = 0.
     

am1 am2 amn

Corollary 7.2.2. Sia A una matrice di tipo m × n. Le colonne di A sono linear-


mente indipendenti se e solo se il sistema Ax = 0 ammette il vettore nullo come
unica soluzione.

Corollary 7.2.3. Sia A una matrice di tipo m × n con n > m. Allora le colonne
di A sono linearmente dipendenti.

Proof. Segue dalla Proposizione 7.2.1 e dalla Proposizione 6.4.3.


7.3. BASI 85

Example 55. Consideriamo la matrice


 
3 4 2
A = 4 −6 0 
1 2 −2
     
3 4 2
I tre vettori colonna 4, −6 e  0  sono linearmente indipendenti. Per di-
1 2 −2
mostrarlo è sufficiente verificare che il vettore nullo è l’unica soluzione del sistema
lineare omogeneo Ax = 0.

7.3 Basi
Definition 7.3.1. Una base di uno spazio vettoriale V è un insieme di vettori lin-
earmente indipendenti che generano tutto lo spazio.

Nel seguito consideriamo soltanto spazi vettoriali con basi costituite da un numero
finito di elementi.
Sia x1 , . . . , xn una base di V . Allora ogni vettore v ∈ V si scrive in maniera
unica come combinazione lineare della base. Infatti se v = a1 x1 + . . . an xn = b1 x1 +
. . . bn xn allora 0 = (a1 − b1 )x1 + . . . (an − bn )xn . Siccome x1 , . . . , xn sono linearmente
indipendenti, si ricava ai − bi = 0 per ogni i, da cui ai = bi .
Se v = a1 x1 + . . . an xn allora [a1 , . . . , an ] è il vettore delle coordinate di v rispetto
alla base data.

Example 56. I vettori e1 = [1, 0, 0], e2 = [0, 1, 0] e e3 = [0, 0, 1] sono la base canonica
di R3 . Tre vettori qualsiasi linearmente indipendenti costituiscono sempre una base
di R3 . Per esempio, i tre vettori [1, 1, 1], [1, 1, 0] e [1, 0, 1] costituiscono una base di
R3 .

Example 57. Lo spazio dei polinomi reali non ammette una base finita, ma soltanto
una base infinita
1, x, x2 , . . . , xn , . . .
Il sottospazio dei polinomi di grado ≤ 5 ammette una base finita:

1, x, x2 , x3 , x4 , x5 .

Lo stesso risultato vale per il sottospazio dei polinomi di grado ≤ n.


86 CHAPTER 7. SPAZI VETTORIALI

Example 58. Sia √C lo spazio vettoriale dei numeri complessi sul campo reale. Allora,
i vettori 1 e i = −1 costituiscono una base.
Example 59. Sia C lo spazio vettoriale dei numeri complessi sul campo complesso.
Allora, il vettore 1 è una base.

Proposition 7.3.1. Sia V uno spazio vettoriale di base v1 , . . . , vm . Allora ogni


insieme di elementi w1 , . . . , wn con n > m è linearmente dipendente. In partico-
lare, due basi qualsiasi di uno spazio vettoriale hanno lo stesso numero di vettori.
Questo numero si dice dimensione dello spazio vettoriale e si indica con dim V .

Proof. Rappresentiamo wi (i = 1, . . . , n) come combinazione lineare della base v1 , . . . , vm :


m
X
wi = aji vj = a1i v1 + a2i v2 + . . . ami vm . (7.1)
j=1

I coefficienti aji costituiscono una matrice A di dimensione m × n, per cui si ha:


 
a11 . . . a1m . . . a1n
[w1 , . . . , wn ] = [v1 , . . . , vm ]  ... .. .. .. .. 

. . . . 
am1 . . . amm . . . amn

Si noti che (i) ogni colonna della matrice A ha qualche coefficiente diverso da zero; (ii)
i coefficienti della matrice sono scalari, mentre le sequenze [v1 , . . . , vm ] e [w1 , . . . , wn ]
hanno elementi in V .
Risolviamo il sistema lineare omogeneo:
    
a11 . . . a1m . . . a1n x1 0
 .. .. .. .. ..   ..  =  ..  .
 . . . . .   .  .
am1 . . . amm . . . amn xn 0
 
b1
 .. 
La soluzione non banale  .  esiste perché n > m (Proposizione 6.4.3). Allora
bn
abbiamo:
    
b1 a11 ... a1m ... a1n b1
 ..   .. .. .. .. ..   .. 
[w1 , . . . , wn ]  .  = [v1 , . . . , vm ]  . . . . .  . 
bn am1 . . . amm . . . amn bn
7.3. BASI 87
   
0 0
 ..   .. 
= [v1 , . . . , vm ]  .  =  . 
0 0
E quindi i vettori w1 , . . . , wn sono linearmente dipendenti.

Proposition 7.3.2. Ogni insieme di vettori linearmente indipendenti può essere


esteso ad una base. Qualsiasi insieme di generatori dello spazio può essere ridotto
ad una base.

3
Example 60.   • R ha  dimensione
 3. La base canonica di R3 è costituita dai
1 0 0
vettori 0 , 1 e 0 . Ogni altra base è costituita da tre vettori linearmente
    
0 0 1     
1 1 2
indipendenti. Per esempio, i tre vettori 1 , 1 e 0  sono linearmente
    
1 0 3
indipendenti e quindi costituiscono una base, perché il sottospazio vettoriale
delle soluzioni del sistema lineare omogeneo
    
1 1 2 x 0
1 1 0  y  = 0
1 0 3 z 0

è costituito solo dal vettore nullo. Le coordinate di un punto dello spazio  


1
dipendono dalla base scelta. Per esempio, se il punto P ha coordinate P = 1 
1
rispetto alla base canonica, allora le coordinate
 dello stesso punto rispetto alla
1
base non canonica definita prima sono: P = 0 . Quindi le coordinate di un

0
punto dipendono dalla scelta della base.

• Lo spazio vettoriale reale C dei numeri complessi ha dimensione 2. La base


canonica sono i vettori 1 e i. Altre basi sono, per esempio, 5 e 3i; oppure 2 + 3i
e 1 + i.
88 CHAPTER 7. SPAZI VETTORIALI

• Lo spazio vettoriale dei numeri complessi sul campo C ha dimensione 1. La


base canonica è data dal vettore 1.

• Lo spazio delle matrici di tipo m × n ha dimension mn. La base canonica è


costituita dalle matrici A per cui esistono indici ij tali che aij = 1 mentre tutte
le altre componenti sono nulle: ahk = 0 per h 6= i e k 6= j.

• Lo spazio delle matrici 3 × 3 triangolari superiori ha dimensione 6.

• Lo spazio dei polinomi di grado ≤ 3 ha dimensione 4 ed ha come base canonica


i polinomi 1, x, x2 , x3 .

7.4 Ortogonalità
In questa sezione Rn è lo spazio vettoriale di riferimento.

7.4.1 Basi ortonormali


Definition 7.4.1. (i) Una base ortogonale di Rn è una base v1 , . . . , vn tale che il
prodotto interno vi · vj = 0 per ogni i 6= j.

(ii) Una base ortogonale è ortonormale se kvi k = 1.

Una base ortogonale v1 , . . . , vn si trasforma in una base ortonormale considerando


i vettori kvv11 k , . . . , kvvnn k .

Example 61. La base canonica e1 = [1, 0, 0], e2 = [0, 1, 0], e3 = [0, 0, 1] di R3 è


ortonormale. La base v1 = [ √12 , √12 , 0], v2 = [− √12 , √12 , 0], e3 = [0, 0, 1] è anch’essa
ortonormale.
Lemma 7.4.1. Sia v1 , . . . , vn una base ortonormale di Rn e siano x = x1 v1 +
· · · + xn vn , y = y1 v1 + · · · + yn vn due vettori. Allora il prodotto interno di x e y
si esprime come segue:
x · y = x1 y1 + · · · + xn yn .
Se v1 , . . . , vn è una base arbitraria (non necessariamente ortonormale), il Lemma
7.4.1 non vale in generale. Si ha piuttosto il seguente risultato:
n X
X n
x·y = xi yj (vi · vj ).
i=1 j=1
7.4. ORTOGONALITÀ 89

Lemma 7.4.2. Le coordinate di un vettore w ∈ Rn rispetto ad una base ortonor-


male v1 , . . . , vn di Rn sono calcolate con il prodotto interno:

w = (w · v1 )v1 + · · · + (w · vn )vn .

Proof. Sia w = w1 v1 + · · · + wn vn . Allora w · v1 = (w1 v1 + w2 v2 + · · · + wn vn ) · v1 =


w1 (v1 ·v1 )+w2 (v2 ·v1 ) · · ·+wn (vn ·v1 ) = w1 (v1 ·v1 )+0+· · ·+0 = w1 (v1 ·v1 ) = w1 .
Example 62. Sia w = 2e1 +e2 +3e3 un vettore dello spazio. Calcoliamo le coordinate
di w rispetto alla base ortonormale v1 = [ √12 , √12 , 0], v2 = [− √12 , √12 , 0], e3 = [0, 0, 1]:
−2
w · v1 = √22 + √12 = √32 ; w · v2 = √ 2
+ √12 = − √12 ; w · e3 = 3. Allora si ha:

3 1
w = √ v1 − √ v2 + 3e3
2 2
Lemma 7.4.3. Ogni sottospazio vettoriale di Rn ammette una base ortonormale.
Proof. Analizziamo per semplicità il caso n = 2. Se i vettori v e w sono linearmente
indipendenti, allora lo spazio vettoriale Span(v, w) è anche generato da v e w − v·w
v·v
v
v·w v·w
che sono ortogonali: v · [w − v·v v] = (v · w) − v·v (v · v) = 0.

7.4.2 Sottospazi ortogonali


Due sottospazi X e Y di Rn sono ortogonali se il prodotto interno di vettori dei due
spazi è sempre nullo:
(∀x ∈ X)(∀y ∈ Y )(x · y = 0).
Definition 7.4.2. Lo spazio ortogonale ad un sottospazio X è definito come

X ⊥ = {v ∈ V : (∀x ∈ X)(v · x = 0)}.

Proposition 7.4.4. Sia X un sottospazio di uno spazio vettoriale reale V . Allora


dim X + dim X ⊥ = dim V ed ogni vettore v ∈ V è somma v = v1 + v2 con v1 ∈ X
e v2 ∈ X ⊥ .
Proof. Sia v1 , . . . , vk una base ortonormale di X e w1 , . . . , wr una base ortonormale
di X ⊥ . Consideriamo il sottospazio Y generato dai vettori v1 , . . . , vk , w1 , . . . , wr .
Supponiamo per assurdo che esista u ∈ V \Y . Consideriamo il vettore t = (u·v1 )v1 +
· · ·+(u·vk )vk . Allora 0 6= u−t (altrimenti u ∈ X) e si ha (u−t)·vi = u·vi −t·vi = 0
per ogni i = 1, . . . , k. Quindi u − t ∈ X ⊥ e si scrive come combinazione lineare di
w1 , . . . , wr . Ne segue la conclusione u ∈ Y , che contraddice l’ipotesi su u.
90 CHAPTER 7. SPAZI VETTORIALI

Example 63. Sia A = [3, 3] un vettore del piano. Sia X il sottospazio vettoriale
generato da A, che è la retta passante per l’origine e per il punto A. Lo spazio
ortogonale X ⊥ a X è la retta di equazione 3x + 3y = 0. Allora una base del piano è
determinata dal vettore A e da un vettore B ∈ X ⊥ , per esempio B = [1, −1].

Example 64. Sia A = [3, 3, 1] un vettore dello spazio. Sia X il sottospazio vettoriale
generato da A, che è la retta passante per l’origine e per il punto A. Lo spazio
ortogonale X ⊥ a X è il piano di equazione 3x + 3y + z = 0. Allora una base dello
spazio è determinata dal vettore A e da due vettori B, C ∈ X ⊥ non collineari, per
esempio B = [1, −1, 0] e C = [1, 1, −6].

7.4.3 Matrici ortogonali


Definition 7.4.3. Una matrice quadrata A di ordine n è ortogonale se la matrice
inversa di A è la matrice trasposta AT di A.

Se A è ortogonale allora il determinante det(A) di A è uguale a ±1 (Si veda il


Capitolo 9): det(A)2 = det(A)det(A) = det(A)det(AT ) = det(AAT ) = det(In ) = 1,
perché la trasposta di una matrice ha lo stesso determinante della matrice stessa.

Proposition 7.4.5. Sia A una matrice quadrata di ordine n. Allora le seguenti


condizioni sono equivalenti:

(i) A è ortogonale;

(ii) Le colonne di A costituiscono una base ortonormale di Rn (cioé, Ai · Ai = 1


e Ai · Aj = 0 per ogni i 6= j);

(iii) La matrice A preserva il prodotto interno di vettori: Ax · Ay = x · y (e quindi


le lunghezze dei vettori kAxk = kxk per ogni x, y).

Proof. (i) ⇔ (ii) AT A = In sse Ai · Aj = δij , il delta di Kronecker.


Sia B = AAT . Allora Bii = Ai ·(AT )i = Ai ·Ai = 1 e, per i 6= j, Bij = Ai ·(AT )j =
Ai · Aj = 0. Quindi B è la matrice identica. La stessa prova funziona per AT A.
(i) ⇒ (iii) (Ax) · (Ay) = (Ax)T (Ay) = xT AT Ay = xT In y = x · y.
(iii) ⇒ (i) Se xT AT Ay = xT y per ogni x e y, allora scegliendo opportunamente
i valori di x e y si ricava AT A = In .
7.4. ORTOGONALITÀ 91

Proposition 7.4.6. Le matrici quadrate ortogonali di ordine n costituiscono un


gruppo O(n) rispetto alla moltiplicazione di matrici: il prodotto di due matrici or-
togonali è una matrice ortogonale, l’inversa di una matrice ortogonale è ortogonale
e la matrice identica è ortogonale.

Proof. Siano A e B ortogonali. Allora, (AB)(AB)T = ABB T AT = AAT = In .


Le matrici ortogonali con determinante uguale ad 1 costituiscono un sottogruppo
del gruppo O(n).
92 CHAPTER 7. SPAZI VETTORIALI
Chapter 8

Trasformazioni lineari e matrici

8.1 Trasformazioni lineari


Definition 8.1.1. Siano V e W spazi vettoriali sullo stesso campo. Una funzione
f : V → W è una trasformazione lineare se verifica le seguenti proprietà, per ogni
x, y ∈ V e per ogni scalare r:
• f (x + y) = f (x) + f (y);
• f (rx) = rf (x).
Si noti che ponendo r = 0 si ricava f (0) = 0.
Una trasformazione lineare f è un isomorfismo lineare se f è bigettiva. Due spazi
vettoriali sono isomorfi se esiste un isomorfismo tra di loro. La funzione inversa
f −1 : W → V di un isomorfismo lineare f : V → W è anch’essa un isomorfismo
lineare.
La funzione identica If : V → V , definita da If (v) = v, per ogni vettore v ∈ V
è una trasformazione lineare. La composizione g ◦ f : V → U di due trasformazioni
lineari f : V → W e g : W → U , definita da (g ◦ f )(v) = g(f (v)) per ogni vettore
v ∈ V , è anch’essa una trasformazione lineare.
Una trasformazione lineare f : V → W manda iperpiani di V di dimensione k in
iperpiani di W la cui dimensione dipende da f . Per esempio l’equazione parametrica
dell’iperpiano    1  k
a1 b1 b1
a2  b12  bk2 
  + t1   + · · · + tk  
.. .. ..
. . .

93
94 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI

viene trasformata nell’equazione parametrica del seguente iperpiano di W :


   1  k
a1 b1 b1
a2  b12  bk2 
f ( ) + t1 f ( ) + · · · + tk f ( ).
.. .. ..
. . .

Example 65. Una trasformazione lineare iniettiva del piano R2 (rispettivamente


dello spazio R3 ) trasforma rette in rette (e piani in piani). Per esempio, la trasfor-
x 2x + 3y
mazione lineare f , definita da f = , trasforma la retta 2x + y = 5 (di
  y   2x
2 1
equazione parametrica y = +t nella retta di equazione parametrica
1 −2
           
2 1 2 1 7 −4
f( +t ) = f( ) + tf ( )= +t .
1 −2 1 −2 4 2

Example 66. La funzione f : R2 → R2 , definita da


   
x −y
f( )= ,
y x

determina una rotazione di un angolo π2 in senso antiorario attorno agli assi Cartesiani
del piano:        
1 0 0 −1
f( )= f( )= .
0 1 1 0
La funzione f è un isomorfismo lineare:
               
x z rx + sz −(ry + sw) −ry −sw x z
f (r +s ) = f( )= = + = rf ( )+sf ( ).
y w ry + sw rx + sz rx sz y w

L’isomorfismo lineare inverso di f è una rotazione oraria di angolo π/2, definito come
segue:    
−1 x y
f ( )= .
y −x
Si ha
           
−1 x y x −1 x −1 −y x
f (f ( )) = f ( )= ; f (f ( )) = f ( )= .
y −x y y x y
8.1. TRASFORMAZIONI LINEARI 95

Example 67. Consideriamo il vettore x = [3, 2, −2]. La funzione f : R3 → R


definita da
f (y) = x · y = 3y1 + 2y2 − 2y3 , per ogni y ∈ R3
è una trasformazione lineare:
f (y + z) = 3(y1 + z1 ) + 2(y2 + z2 ) − 2(y3 + z3 )
= 3y1 + 3z1 + 2y2 + 2z2 − 2y3 − 2z3
1.
= (3y1 + 2y2 − 2y3 ) + (3z1 + 2z2 − 2z3 )
= f (y) + f (z).

f (ry) = 3(ry1 ) + 2(ry2 ) − 2(ry3 )


2. = r(3y1 + 2y2 − 2y3 )
= rf (y).

In generale, se fissiamo un vettore x = [x1 , x2 , x3 ] ∈ R3 , allora la funzione f : R3 → R,


definita tramite il prodotto interno:

f (y) = x · y = x1 y1 + x2 y2 + x3 y3 , per ogni y = [y1 , y2 , y3 ]T ∈ R3 , (8.1)

è una trasformazione lineare. Richiamiamo dalla Sezione 2.3 le proprietà del prodotto
interno che dimostrano la linearità della funzione descritta in (8.1): x · (y + z) =
(x · y) + (x · z) e x · (ry) = r(x · y).

Example 68. Sia Pol lo spazio vettoriale dei polinomi reali in una variabile x. La
funzione f : Pol → Pol definita da:

f (an xn + an−1 xn−1 + · · · + a1 x + a0 ) = a1 x + a0 ,

è una trasformazione lineare. Siano p = a0 +a1 x+· · ·+an xn e q = b0 +b1 x+· · ·+bk xk
polinomi di grado n e k rispettivamente. Allora f (p + q) = f (a0 + b0 + (a1 + b1 )x +
(a2 + b2 )x2 + . . . ) = (a1 + b1 )x + (a0 + b0 ) = (a1 x + a0 ) + (b1 x + b0 ) = f (p) + f (q).

Example 69. La funzione g : Pol → R definita da

g(an xn + an−1 xn−1 + · · · + a1 x + a0 ) = an

non è una trasformazione lineare. Infatti, g(2x2 +3x+1) = 2, mentre g(2x2 )+g(3x+
1) = 2 + 3 = 5.

Il nucleo di una trasformazione lineare f : V → W è un sottospazio di V , mentre


l’immagine di f è un sottospazio di W . Si ha la seguente relazione:
96 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI

8.2 La matrice di una trasformazione lineare


Lemma 8.2.1. Siano V, W spazi vettoriali. Siano v1 , . . . , vn una base di V e
w1 , . . . , wm una base di W . Ogni trasformazione lineare f : V → W è univoca-
mente determinata dai valori

f (v1 ) = a11 w1 + · · · + am1 wm , . . . , f (vn ) = a1n w1 + · · · + amn wm .

assunti dai vettori della base di V . Se v = c1 v1 + · · · + cn vn ∈ V allora

f (v) = f (c1 v1 + · · · + cn vn )
= c1 f (v1 ) + · · · + cn f (vn )
= c1 (a11 w1 + · · · + am1 wm ) + · · · + cn (a1n w1 + · · · + amn wm )
= (c1 a11 + c2 a12 + · · · + cn a1n )w1 + · · · + (c1 am1 + c2 am2 + · · · + cn amn )wm .

Consideriamo la matrice  
a11 ··· a1n
 a21 ··· a2n 
A= .
 
.. .. 
 .. . . 
am1 · · · amn
 
a1j
 a2j 
di dimensione m × n la cui colonna Aj =   . . .  è il vettore delle coordinate di

amj
f (vj ). Allora si ha:
  
a11 · · · a1n c1
 a21 · · · a2n   c2 
1 n
f (v) =  . ..   ..  = c1 A + · · · + cn A =
  
. ..
 . . .  . 
am1 · · · amn cn
 
c1 a11 + c2 a12 + · · · + cn a1n 
A1 · c

 c1 a21 + c2 a22 + · · · + cn a2n
  A2 · c 
 
=

 .. ... 

 . 
c1 am1 + c2 am2 + · · · + cn amn Am · c
 
c1
 c2 
dove c =  .  è il vettore delle coordinate di v.
 
 .. 
cn
8.2. LA MATRICE DI UNA TRASFORMAZIONE LINEARE 97

Example 70. Sia f : R2 → R3 la trasformazione lineare definita da

f (e1 ) = 4w1 + w2 + w3 ; f (e2 ) = w1 + 3w2 ,

con e1 , e2 base canonica di R2 e w1 , w2 , w3 base canonica di R3 . Allora la matrice


della trasformazione lineare è:  
4 1
1 3
1 0
Se v = 5e1 + 3e2 è un vettore di R2 , allora
   
4 1   23
 1 3  5 =  14 
3
1 0 5

Quindi f (v) = 23w1 + 14w2 + 5w3 .

Example 71. Sia V uno spazio di dimensione 2 con base v1 , v2 e W uno spazio di
dimensione 3 con base w1 , w2 , w3 . Dal Lemma 8.2.1 la funzione f : V → W definita
da
f (v1 ) = 3w1 + 5w2 − 2w3 ; f (v2 ) = w1 + w3
è estendibile ad una trasformazione lineare.

Sia f : V → W una trasformazione lineare. L’immagine o rango di f è definita


come
R(f ) = {w ∈ W : ∃v ∈ V f (v) = w},
mentre il nucleo di f è
N (f ) = {v ∈ V : f (v) = 0}.
Si vede facilmente che R(f ) è un sottospazio vettoriale di W , mentre N (f ) è un
sottospazio vettoriale di V .
Sia A la matrice di f di dimensione m × n rispetto alle basi v1 , . . . , vn di V e
w1 , . . . , wm di W . Definiamo due altri sottospazi vettoriali.

Definition 8.2.1. Lo spazio delle colonne Span(A1 , . . . , An ) di A è il sottospazio


vettoriale di W generato dalle colonne A1 , . . . , An della matrice A. Lo spazio delle
righe Span(A1 , . . . , Am ) di A è il sottospazio vettoriale di V generato dalle righe
A1 , . . . , Am della matrice A.
98 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI

Theorem 8.2.2. (i) Lo spazio Span(A1 , . . . , An ) delle colonne coincide con


R(f ).

(ii) Lo spazio Span(A1 , . . . , Am ) delle righe coincide con lo spazio ortogonale di


N (f ).

(iii) La funzione f ristretta al sottospazio Span(A1 , . . . , Am ) delle righe è un iso-


morfismo lineare dallo spazio delle righe nello spazio delle colonne.

(iv) dim R(f ) = dim Span(A1 , . . . , Am ) = dim Span(A1 , . . . , An ).

(v) n = dim N (f ) + dim R(f ).


   
c1 c1
Proof. (i) A  .  = [A1 , . . . , An ]  ...  = c1 A1 + · · · + cn An .
 ..   

cn c
   n    
c1 c1 A1 · c 0
 ..   ..   ..   .. 
(ii) Sia c =  . . Allora A  .  =  .  =  .  sse c è ortogonale ai vettori
cn cn Am · c 0
A1 , . . . , Am di V .
(iii) Se v, u ∈ Span(A1 , . . . , Am ) e f (v) = f (u), allora f (v − u) = 0. Quindi
v − u ∈ N (f ) ∩ Span(A1 , . . . , Am ). Essendo i due spazi ortogonali, questo è possibile
soltanto se v − u = 0, che implica v = u. La funzione f è quindi iniettiva ristretta
allo spazio delle righe.
Proviamo ora che f ristretta è anche surgettiva. Sia w ∈ R(f ). Allora esiste
v tale che f (v) = w. Siccome V = Span(A1 , . . . , Am ) ⊕ N (f ), allora v = v1 + v2
con v1 ∈ Span(A1 , . . . , Am ) e v2 ∈ N (f ). Si ha: w = f (v) = f (v1 + v2 ) =
f (v1 ) + f (v2 ) = f (v1 ) + 0 = f (v1 ).
(iv) Da (iii) e (ii).
(v) Da N (f ) = Span(A1 , . . . , Am )⊥ si ricava n = dim N (f )+dim Span(A1 , . . . , Am ).
La conclusione segue da (iii).

Da teorema precedente segue che lo spazio delle righe e lo spazio delle colonne di
una trasformazione lineare f : V → W sono indipendenti dalla scelta delle basi di V
e W e quindi dalla matrice A che rappresenta f .

Example 72. Si consideri la trasformazione lineare f : R3 → R dell’Esempio 67


definita da f (x) = 3x1 + 2x2 − 2x3 . La dimensione del nucleo di f è 2 perché il
8.3. LA TRASFORMAZIONE LINEARE DI UNA MATRICE 99

nucleo è il piano ortogonale al vettore [3, 2, −2] di equazione 3x1 + 2x2 − 2x3 = 0,
per cui dal Teorema 8.2.2 la dimensione dell’immagine deve essere 1.
Example 73. Consideriamo lo spazio vettoriale infinito dimensionale Pol dei poli-
nomi reali e fissiamo un numero reale, per esempio 3. Allora la funzione f : Pol → R,
definita come segue (per ogni polinomio p(x) = a0 xn + a1 xn−1 + · · · + an−1 x + an ):
f (a0 xn + a1 xn−1 + · · · + an−1 x + an ) = a0 3n + a1 3n−1 + · · · + an−1 31 + an ,
è una trasformazione lineare. Per esempio, se p(x) = x2 + 5x − 1 allora
f (x2 + 5x − 1) = 32 + 5 × 3 − 1 = 23.
Il nucleo di f è il sottospazio vettoriale determinato dall’insieme dei polinomi p(x)
che ammettono 3 come radice: p(3) = 0. L’immagine di f è tutto R.

8.3 La trasformazione lineare di una matrice


Sia V uno spazio di base v1 , . . . , vn e W uno spazio di base w1 , . . . , wm sullo stesso
campo numerico e sia A = (aij ) una matrice di tipo m × n ad elementi scalari.
La matrice A determina
1. Il sottospazio Span(A1 , . . . , Am ) di V generato dalle righe di A.
2. Il sottospazio Span(A1 , . . . , An ) di W generato dalle colonne di A.
3. Una trasformazione lineare fA : V → W definita come segue. Per ogni vettore
v = c1 v1 + · · · + cn vn ∈ V , definiamo le coordinate di fA (v) rispetto alla base
w1 , . . . , wm con il prodotto matriciale:
     Pn 
c1 A1 · c Pni=1 ci a1i
 c2   A2 · c 
 i=1 ci a2i 
 
fA (v) = A  .  =  .  = c1 A1 + · · · + cn An = 
   
..
 ..   .. 


Pn . 
cn Am · c i=1 ci ami
Pn Pn
Cosı̀ si ha fA (v) = ( i=1 ci a1i )w1 + · · · + ( i=1 ci ami )wm . fA è lineare per le
proprietà del prodotto matriciale: A(x + y) = Ax + Ay; A(cx) = c(Ax). Dal
Teorema 8.2.2 si ha:
n = dim N (fA ) + dim R(fA ) = dim N (fA ) + dim Span(A1 , . . . , An )
= dim N (fA ) + dim Span(A1 , . . . , Am ).
100 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI

4. Una trasformazione lineare A f : W → V definita come segue. Per ogni vettore


w = d1 w1 + · · · + dm wm ∈ W , consideriamo le sue coordinate come vettore
riga d = [d1 , d2 , . . . , dm ]. Definiamo le coordinate di A f (w) rispetto alla base
v1 , . . . , vn con il prodotto matriciale:

dA = [d1 , d2 , . . . , dm ]A = [dA1 , dA2 , . . . , dAn ] = d1 A1 + · · · + dm Am =

Xm m
X m
X
[ di ai1 , di ai2 , . . . , ci ain ]
i=1 i=1 i=1

Si vede facilmente che A f è lineare per le proprietà del prodotto matriciale.


Valgono proprietà analoghe al punto (3):

m = numero delle righe


= dim N (A f ) + dim(spazio delle colonne)
= dim N (A f ) + dim(spazio delle righe).

Example 74. Consideriamo la matrice 3 × 4:


 
3 4 2 1
A =  4 −6 0 0
1 2 −2 2

La matrice A determina:

(i) Una trasformazione lineare fA : R4 → R3 rispetto alle basi canoniche di R4 eR3 ,
1
0
che è definita tramite il prodotto matriciale a destra. Per esempio, fA 
 3  si

5
calcola con il prodotto matriciale:
 
  1  
3 4 2 1   14
 4 −6 0 
0 0  3  = −12

1 2 −2 2 5
5

Attenzione: Se consideriamo una base diversa di R4 , la matrice A definisce


un’altra trasformazione lineare!
8.3. LA TRASFORMAZIONE LINEARE DI UNA MATRICE 101

(ii) Una trasformazione lineare A f : R3 → R4 rispetto alle basi canoniche di R4 e R3 ,


che è definita tramite il prodotto matriciale a sinistra. Per esempio, A f [0, 1, 2]
si calcola con il prodotto matriciale:
 
3 4 2 1
[0, 1, 2]  4 −6 0 0  = [6, −2, −4, 4]
1 2 −2 2

   
3 4
3 1 2
(iii) Il sottospazio di R generato dai vettori colonna A = 4 , A = −6 ,
  
    1 2
2 1
3
A =  0 e A = 0  Il sottospazio Span(A1 , A2 , A3 , A4 ) di R3 coincide
 4 
−2 2
con il sottospazio R(fA ).

(iv) Il sottospazio di R4 generato dai vettori riga A1 = [3, 4, 2, 1], A2 = [4, −6, 0, 0]
e A3 = [1, 2, −2, 2] di A. Il sottospazio Span(A1 , A2 , A3 ) di R4 è il sottospazio
ortogonale allo spazio N (fA ).

8.3.1 Rango di una matrice


Sia A una matrice di tipo m × n a coefficienti in un campo K.

Definition 8.3.1. Il rango r(A) della matrice A è la dimensione comune dello spazio
Span(A1 , . . . , Am ) delle righe e dello spazio Span(A1 , . . . , An ) delle colonne.

È chiaro che r(A) ≤ min(n, m). Se estraiamo da A r(A) colonne linearmente in-
dipendenti c1 , . . . , cr(A) e r(A) righe linearmente indipendenti d1 , . . . , dr(A) otteniamo
una matrice quadrata E = (eij ) di ordine r(A) con eij = Aci dj , che determina un
isomorfismo lineare dallo spazio delle righe allo spazio delle colonne.
Se consideriamo il sistema lineare omogeneo Ax = 0, allora la dimensione dello
spazio delle soluzioni è n − r(A), dove r(A) è il rango di A.
Se il sistema lineare Ax = b ammette almeno una soluzione v0 , allora l’insieme
delle soluzioni è {v0 + x : Ax = 0}.
102 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI

8.4 Isomorfismi
Lemma 8.4.1. Sia f : V → W una trasformazione lineare.

1. f è iniettiva sse N (f ) = {0}.

2. Se f è iniettiva, allora

• dim V = dim R(f ).


• Se v1 , . . . , vn sono linearmente indipendenti, allora f (v1 ), . . . , f (vn )
sono linearmente indipendenti.

Proof. (1) Abbiamo f (x) = f (y) sse f (x − y) = 0.

Proposition 8.4.2. Due spazi vettoriali sullo stesso campo sono isomorfi sse
hanno la stessa dimensione.

Proof. Supponiamo che V e W abbiano la stessa dimensione. Siano v1 , . . . , vn una


base di V e w1 , . . . , wn una base di W . Se v ∈ V , allora possiamo rappresentare
v in maniera unica tramite le sue coordinate: v = c1 v1 + · · · + cn vn per opportuni
scalari c1 , . . . , cn . Allora definiamo

f (v) = c1 w1 + · · · + cn wn .

Proviamo che f è un isomorfismo. Siano v = c1 v1 + · · · + cn vn e t = d1 v1 + · · · + dn vn


due vettori di V .

• f è iniettiva: Se f (v) = f (t), allora c1 w1 + · · · + cn wn = d1 w1 + · · · + dn wn .


Per la indipendenza lineare dei wi si ha ci = di per ogni i e quindi v = t.

• f è surgettiva: Se w = s1 w1 + · · · + sn wn ∈ W allora f (s1 v1 + · · · + sn vn ) = w.

Proposition 8.4.3. Sia V uno spazio di dimensione n e W uno spazio di di-


mensione m. Allora lo spazio vettoriale delle trasformazioni lineari da V a W è
isomorfo allo spazio vettoriale delle matrici m × n.
8.5. CAMBIAMENTO DI BASE 103

Proof. Fissiamo una base v1 , . . . , vn di V ed una base w1 , . . . , wm di W . Alla trasfor-


mazione lineare
f :V →W
associamo la matrice Af = [A1 , . . . , An ] con m righe ed n colonne (Ai è la colonna i
della matrice Af ) tale che
 
w1
f (vi ) = Ai  . . . 
wm
Viceversa, ad una matrice A con m righe ed n colonne associamo la trasformazione
lineare fA : V → W definita da
m
X
fA (vi ) = aki wk .
k=1

Proposition 8.4.4. Sia V un arbitrario spazio vettoriale di dimensione n di base


v1 , . . . , vn , ed A una matrice quadrata di ordine n. La matrice
P A è invertibile sse la
trasformazione lineare fA : V → V , definita da fA (vi ) = nk=1 aki vk , è un isomor-
fismo. In tal caso, la matrice inversa A−1 di A è la matrice della trasformazione
lineare f −1 .

Proof. (⇐) Sia fA un isomorfismo e If : V → V la funzione identica. Allora fA−1


è una trasformazione lineare tale che fA ◦ fA−1 = If = fA−1 ◦ fA . Sia B la matrice
della trasformazione lineare fA−1 . Allora si ha AB = I = BA con In matrice identica.
Quindi A è invertibile e B = A−1 .
(⇒) Sia A è invertibile. Il lettore è invitato a completare la prova.

8.5 Cambiamento di base


Sia V uno spazio vettoriale di dimensione n, sia v1 , . . . , vn una prima base e t1 , . . . , tn
una seconda base. Consideriamo la trasformazione lineare identica I : V → V .
Rappresentiamo la trasformazione lineare identica con la matrice quadrata A di
ordine n del cambio di base:

vi = a1i t1 + · · · + ani tn
104 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI

 le coordinate del vettore v = c1 v1 + · · · + cn vn sono il vettore colonna


Se Pn c = 
c1 i=1 a 1i c i
 n a2i ci 
P
 c2 
 i=1
 ..  rispetto alla prima base, allora le coordinate di v saranno Ac = 
  
.. 
 .  . 
Pn
cn i=1 ani ci
rispetto alla seconda base, ossia
Xn n
X
v=( a1i ci )t1 + · · · + ( ani ci )tn .
i=1 i=1

La matrice A del cambio di base è invertibile, perché il cambio di base inverso è


rappresentato dalla matrice inversa.

Example 75. Consideriamo la base canonica e1 = [1, 0] e e2 = [0, 1] di R2 e una


seconda base t1 = [1, 1], t2 = [3, 2]. Allora

e1 = −2t1 + t2 ; e2 = 3t1 − t2

Quindi la matrice A del cambio di base sarà


 
−2 3
A=
1 −1
   
4 4
Allora il vettore di coordinate rispetto alla base canonica avrà coordinate
4 0
rispetto alla seconda base non canonica:
    
−2 3 4 4
= = 4t1 .
1 −1 4 0

Il vettore è lo stesso, cambiano solo le coordinate.


Il cambio di base inverso si ottiene esprimendo i vettori t1 e t2 in termini della
base canonica:
t 1 = e1 + e2 ; t2 = 3e1 + 2e2
Quindi la matrice B del cambio di base inverso sarà
 
1 3
B=
1 2

Si vede facilmente che B è la matrice inversa di A: AB = BA = I2 .


8.6. SPAZIO DUALE 105

Definition 8.5.1. Due matrici quadrate A e B di ordine n sullo stesso campo, si


dicono simili sse esiste una matrice invertibile P di ordine n tale che

B = P AP −1 .

La relazione di similarità tra matrici quadrate è una relazione di equivalenza.

Proposition 8.5.1. Se una trasformazione lineare f : V → V è rappresentata


dalla matrice A rispetto alla base v1 , . . . , vn e dalla matrice B rispetto alla base
w1 , . . . , wn , allora A e B sono matrici simili.

8.6 Spazio duale

Proposition 8.6.1. Sia V uno spazio vettoriale sul campo K. Allora l’insieme
delle trasformazioni lineari da V in K è uno spazio vettoriale rispetto alle seguenti
operazioni (f, g : V → K lineari, c ∈ K):

(f + g)(x) = f (x) + g(x); (cf )(x) = cf (x).

Lo spazio vettoriale delle trasformazioni lineari da V in K si chiama spazio duale


di V ed è denotato con V ∗ .

Proposition 8.6.2. dim V = dim V ∗ .

Proof. Sia v1 , . . . , vn una base di V . Definiamo vi∗ : V → K la trasformazione lineare


definita come segue

vi∗ (c1 v1 + · · · + ci vi + · · · + cn vn ) = ci .

Allora v1∗ , . . . , vn∗ è una base di V ∗ . Costituiscono un insieme linearmente indipen-


dente: Se d1 v1∗ + · · · + dn vn∗ = 0, allora per ogni i, abbiamo di = 0:

0 = (d1 v1∗ + · · · + dn vn∗ )(vi ) = d1 v1∗ (vi ) + · · · + dn vn∗ (vi ) = di .

Se f : V → K è lineare, allora

f = f (v1 )v1∗ + · · · + f (vn )vn∗ .


106 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI

La base v1∗ , . . . , vn∗ si chiama base duale di v1 , . . . , vn .

Proposition 8.6.3. La funzione vi ∈ V 7→ vi∗ è un isomorfismo lineare da V in


V ∗.
Example 76. (Matrici elementari) Le matrici elementari rappresentano o dei cam-
biamenti di base oppure degli isomorfismi. Cominciamo con i cambiamenti di base.
Le matrici elementari di tipo I scambiano le componenti di una base. Per esempio,
la matrice  
0 0 1
E1,3 =  0 1 0 
1 0 0
fa passare dalla base v1 , v2 , v3 alla base v3 , v2 , v1 .
Le matrici elementari di tipo II moltiplicano per uno scalare un componente della
base. Per esempio,  
c 0 0
E1c =  0 1 0 
0 0 1
fa passare dalla base v1 , v2 , v3 alla base cv1 , v2 , v3 .
Infine le matrici elementari di tipo III, sostituiscono un componente della base
con una sua combinazione lineare. Per esempio,
 
1 0 0
E2+c1 =  c 1 0 
0 0 1
fa passare dalla base v1 , v2 , v3 alla base v1 , v2 + cv1 , v3 .
In tutti i casi precedenti le matrici elementari rappresentano la trasformazione
lineare identica.
Dalla Proposizione 8.4.4 segue che le matrici elementari in quanto invertibili rap-
presentano degli isomorfismi. Fissata la base v1 , v2 , v3 , la matrice E1,3 di tipo I
rappresenta l’isomorfismo
fE1,3 (v1 ) = v3 ; fE1,3 (v2 ) = v2 ; fE1,3 (v3 ) = v1 .
La matrice elementare di tipo II E1c rappresenta l’isomorfismo
fE1c (v1 ) = cv1 ; fE1c (v2 ) = v2 ; fE1c (v3 ) = v3 .
Infine la matrice elementare E2+c1 di tipo III rappresenta l’isomorfismo
fE2+c1 (v1 ) = v1 ; fE2+c1 (v2 ) = v2 + cv1 ; fE2+c1 (v3 ) = v3 .
8.7. SISTEMI LINEARI E TRASFORMAZIONI LINEARI 107

8.7 Sistemi lineari e trasformazioni lineari


Consideriamo un sistema lineare omogeneo di m equazioni in n incognite: Ax = 0
con A matrice di tipo m×n. Fissiamo le basi canoniche in Rn e Rm . Allora la matrice
A rappresenta una trasformazione lineare fA : Rn → Rm . Abbiamo una soluzione
non banale del sistema omogeneo sse N (fA ) 6= {0}. Ricordiamo dal Teorema 8.2.2
che
n = dim Rn = dim N (fA ) + dim R(fA ).
Se n > m, sicuramente il sistema ha soluzione (altrimenti, n = dim R(fA ) ≤ m).
Dato il vettore colonna non nullo b ∈ Rm , il sistema lineare Ax = b ammette
soluzione se b ∈ R(fA ).
Spieghiamo ora il metodo di eliminazione di Gauss in termini di composizione di
trasformazioni lineari. Sia A una matrice m×n e sia fA : Rn → Rm la trasformazione
lineare associata alla matrice (rispetto alle basi canoniche). Se g : Rm → Rm è un
arbitrario isomorfismo rappresentato dalla matrice quadrata B di ordine m, allora

Ax = 0 sse x ∈ N (fA ) sse x ∈ N (g ◦ fA ) sse BAx = 0.

Se il sistema lineare ha un vettore b di termini noti non tutti nulli, si ha:

Ax = b sse b ∈ R(fA ) sse g(b) ∈ R(g ◦ fA ) sse BAx = Bb.

L’isomorfismo g che utilizziamo nel metodo di eliminazione di Gauss è composizione


di isomorfismi determinati da matrici elementari.
108 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI
Chapter 9

Determinante

Il determinante det(A) di una matrice quadrata A ha un significato geometrico.

9.1 Determinante di una matrice di ordine 2


Consideriamo due vettori colonna nel piano: p = [p1 , p2 ]T e q = [q1 , q2 ]T . Sia
 
p1 q 1
A=
p2 q 2
la matrice le cui colonne coincidono con i vettori p e q rispettivamente. Il determi-
nante della matrice A è una funzione det : K2 × K2 → K dei vettori colonna di A,
definita come segue:
det(A) = det(p, q) = p1 q2 − p2 q1 .
Come vedremo, il determinante determina se i vettori colonna oppure riga della
matrice sono linearmente (in)dipendenti e se il sistema lineare Ax = b ammette
un’unica soluzione. Inoltre il determinante ha un’interpretazione geometrica come
area con segno del parallelogramma determinato dai vettori colonna (oppure riga).
Nel seguito analizziamo questi tre significati del determinante nel caso n = 2.
1. Come si determina se i vettori p e q sono linearmente (in)dipendenti?
Ricordiamo che i vettori p e q sono linearmente dipendenti se esiste un vettore
non nullo x = [x1 , x2 ]T tale che Ax = x1 p + x2 q = 0. Consideriamo quindi il
sistema lineare La soluzione del sistema lineare
p1 x1 + q1 x2 = 0; p2 x1 + q2 x2 = 0.

Lemma 9.1.1. p e q sono linearmente dipendenti sse q1 p2 − q2 p1 = 0.

109
110 CHAPTER 9. DETERMINANTE

Proof. Analizziamo quattro casi

• Se q1 = 0 e q2 = 0, allora q1 p2 − q2 p1 = 0 e la retta x1 = 0 è una soluzione


del sistema lineare.
• Se q1 6= 0 e q2 = 0, allora q1 p2 = 0 sse p2 = 0 sse la retta x2 = −p1 x1 /q1 è
una soluzione del sistema.
• Se q1 = 0 e q2 6= 0, allora q2 p1 = 0 sse p1 = 0 sse la retta x2 = −p2 x1 /q2 è
una soluzione del sistema.
• Se q1 , q2 6= 0, allora il sistema lineare omogeneo ammette soluzione sse le
due rette x2 = −p2 x1 /q2 e x2 = −p1 x1 /q1 sono coincidenti sse q1 p2 −q2 p1 =
0.

Quindi il valore p1 q2 − q1 p2 determina se i due vettori sono linearmente dipen-


denti o meno.

2. Come si determina se il sistema lineare Ax = x1 p + x2 q = b ammette un’unica


soluzione? La soluzione del sistema lineare

p 1 x 1 + q 1 x 2 = b1 ; p 2 x 1 + q 2 x 2 = b2


q 2 b1 − q 1 b2 −p2 b1 + p1 b2
x1 = ; x2 =
p1 q2 − q1 p 2 p1 q 2 − q1 p2
La soluzione è unica e valida soltanto se p1 q2 −q1 p2 6= 0, cosı̀ il valore p1 q2 −q1 p2
determina se il sistema ha una soluzione unica. È questo il motivo per cui il
numero p1 q2 − q1 p2 si chiama determinante della matrice A dei coefficienti del
sistema lineare.
La soluzione del sistema lineare può essere scritta in forma matriciale:
    
x1 1 q2 −q1 b1
=
x2 p1 q2 − q1 p2 −p2 p1 b2
con  
−1 1 q2 −q1
A =
p1 q 2 − q1 p2 −p2 p1
matrice inversa della matrice A.
9.1. DETERMINANTE DI UNA MATRICE DI ORDINE 2 111

3. Nel seguito presentiamo una interpretazione geometrica del determinante di


una matrice di ordine 2 come area (con segno) di un parallelogramma.
Il luogo dei punti rp + sq (0 ≤ r, s ≤ 1) costituisce il parallelogramma delimi-
tato dall’origine O degli assi cartesiani e dai punti p, q, p + q. Sappiamo che i
vettori p e q formano un angolo θ ≤ π, il cui coseno è calcolato con il prodotto
p·q
interno: cos θ = kpkkqk . L’area kpkkqk sin θ del parallelogramma O, p, q, p + q
è il modulo del determinante della matrice A, mentre il segno del determinante
dipende dall’orientazione dei vettori p e q rispetto ai vettori della base canon-
ica del piano cartesiano. Calcoliamo ora l’area in termini delle coordinate dei
vettori p e q:

~eB
Figure 9.1: Area del parallelogramma determinato dai vettori A ~ del piano

p
kpkkqk | sin θ| = kpkkqkq1 − cos(θ)2
(p·q)2
= kpkkqk 1 − (p·p)(q·q)
p
= p(p · p)(q · q) − (p · q)2
= p(p21 + p22 )(q12 + q22 ) − (p1 q1 + p2 q2 )2
= pp21 q22 + p22 q12 − 2p1 p2 q1 q2
= (p1 q2 − p2 q1 )2
= |p1 q2 − p2 q1 |.

Il segno del determinante è positivo se la rotazione che porta il vettore p in q


112 CHAPTER 9. DETERMINANTE

attraversando l’angolo θ è antioraria, mentre il segno è negativo se la rotazione


è oraria. In conclusione,

det(A) = p1 q2 − p2 q1 .

Il determinante è 0 se i vettori p e q sono allineati.

Se consideriamo il determinante come funzione dei vettori colonna p e q della


matrice A, scriviamo
det(p, q) = p1 q2 − p2 q1 .
Allora la funzione det verifica le seguenti proprietà:

• È lineare nella prima componente:

det(rp + st, q) = r det(p, q) + s det(t, q)

• È lineare nella seconda componente:

det(p, rq + st) = r det(p, q) + s det(p, t)

• det(p, q) = −det(q, p)

• det(e1 , e2 ) = 1, dove e1 = [1, 0] e e2 = [0, 1]

• det(p, p) = 0.

Example 77. Sia p = [1, 1]T e q = [3, 4]T due vettori colonna. Se θ è l’angolo
formato dai due vettori, abbiamo
r
p·q 7 49
cos θ = = √ = .
kpkkqk 5 2 50

L’area del parallelogramma delimitato dall’origine O degli assi cartesiani e dai punti
p, q, p + q è


r
p 49
kpkkqk sin θ = kpkkqk 1 − cos(θ)2 = 5 2 1 − = 1 = det(p, q).
50
9.2. DETERMINANTE DI UNA MATRICE DI ORDINE 3 113

9.2 Determinante di una matrice di ordine 3


Analizziamo ora la situazione nello spazio. Consideriamo tre vettori colonna p =
[p1 , p2 , p3 ]T , q = [q1 , q2 , q3 ]T , r = [r1 , r2 , r3 ]T e la matrice
 
p1 q1 r1
B =  p2 q2 r2 
p3 q3 r3

Come nel caso di matrici di ordine 2, il sistema lineare Bx = b ha soluzione unica se

p1 q2 r3 − p1 q3 r2 − p2 q1 r3 + p2 q3 r1 + p3 q1 r2 − p3 q2 r1 6= 0.

Questo numero è il determinante della matrice A.


Diamo una descrizione geometrica del determinante di una matrice di ordine 3
come volume di un parallelepipedo.
Il luogo dei punti up + sq + tr (0 ≤ u, s, t ≤ 1) costituisce il parallelepipedo
delimitato dall’origine O degli assi e dai vettori p, q, r (si veda la figura a pagina
113). Il volume del parallelepipedo è il modulo del determinante della matrice B,
mentre il segno del determinante dipende dall’orientazione dei tre vettori rispetto
alla orientazione dei tre assi cartesiani.

Figure 9.2: Volume del parallelepipedo delimitato dai vettori p, q, r nello spazio
114 CHAPTER 9. DETERMINANTE

Figure 9.3: Regola della mano destra

Calcoliamo il volume del parallelepipedo eseguendo il ragionamento con l’ausilio


della figura di pagina 113.
Consideriamo prima i due vettori p e q, e sia θ l’angolo da essi formato nel piano
up+sq (u, s ∈ R). Abbiamo già visto che l’area del parallelogramma determinato da
p e q è kpkkqk sin θ. Il volume del parallelepipedo è pari all’area di questo parallel-
ogramma moltiplicata per l’altezza del parallelepipedo rispetto al piano determinato
dai vettori p e q. L’altezza è krk cos α, dove α è l’angolo formato dal vettore r e
dalla retta perpendicolare al piano up + sq (u, s ∈ R). In conclusione, il volume è
kpkkqk sin θkrk cos α.
Sia k il vettore unitario perpendicolare al piano up + sq (u, s ∈ R). Il verso di k è
scelto in maniera tale che i tre vettori p, q, k abbiano la stessa orientazione dei tre
vettori unitari e1 , e2 , e3 . Quindi il verso di k è determinato applicando la regola della
mano destra (si veda la figura di pagina 114). Il prodotto vettoriale p × q di p e q è
definito come il vettore
p × q = kpkkqk sin(θ)k
la cui lunghezza è pari all’area del parallelogramma formato dai due vettori. Allora il
9.2. DETERMINANTE DI UNA MATRICE DI ORDINE 3 115

volume orientato (cioé, con segno) del parallelepipedo si può ottenere con il prodotto
interno:
(p × q) · r.
Il prodotto vettoriale verifica le seguenti condizioni:
1. p × p = 0; (il parallelogramma ha area 0)
2. p × q = −q × p; (lo scambio dei due vettori fa passare dalla base p, q, k alla
base q, p, k e quindi cambia l’orientazione rispetto alla base canonica)
3. s(p × q) = (sp) × q = p × (sq); (allungare o accorciare un lato del parallelo-
gramma di un fattore scalare s ha l’effetto di modificare la corrispondente area
dello stesso fattore)
4. p × (q + r) = p × q + p × r; (La distributività p × (q + r) = p × q + p × r vale
perché si ha (si consulti la figura a pagina 115 dove α è l’angolo tra i vettori p
e q + r; β è l’angolo tra i vettori p e q; ed infine γ è l’angolo tra i vettori p e
r): kq + rk sin(α) = kqk sin(β) + krk sin(γ).)
5. Il prodotto vettoriale non è associativo ma soddisfa l’identità di Jacobi: p ×
(q × r) + q × (r × p) + r × (p × q) = 0.

Figure 9.4: Distributività del prodotto vettoriale


116 CHAPTER 9. DETERMINANTE

Definition 9.2.1. Il determinante della matrice A di tipo 3 × 3 formata dai vettori


colonna A1 = p, A2 = q e A3 = r è uguale a (p × q) · r:
 
p1 q1 r1
det  p2 q2 r2  = (p × q) · r
p3 q3 r3

dove p = [p1 , p2 , p3 ]T , q = [q1 , q2 , q3 ]T e r = [r1 , r2 , r3 ]T .

Calcoliamo le coordinate del vettore p × q utilizzando la proprietà distributiva


del prodotto vettoriale rispetto alla somma vettoriale:

p×q = (p1 e1 + p2 e2 + p3 e3 ) × (q1 e1 + q2 e2 + q3 e3 )


= p1 e1 × (q2 e2 + q3 e3 ) + p2 e2 × (q1 e1 + q3 e3 ) + p3 e3 × (q1 e1 + q2 e2 )
= (p1 q2 − p2 q1 )(e1 × e2 ) + (p1 q3 − p3 q1 )(e1 × e3 ) + (p2 q3 − p3 q2 )(e2 × e3 )
= (p1 q2 − p2 q1 )e3 + (p1 q3 − p3 q1 )(−e2 ) + (p2 q3 − p3 q2 )e1
= (p1 q2 − p2 q1 )e3 − (p1 q3 − p3 q1 )e2 + (p2 q3 − p3 q2 )e1

La seguente tabella spiega il prodotto vettoriale dei vettori della base canonica di
R3 :
×

e1 e2 e3

e1
0 e3 −e2
e2 −e3 0 e1

e
3 e2 −e1 0

Remark 1. Il piano parametrico rp + sq (r, s ∈ R) passante per l’origine degli assi è


definito dalla seguente equazione lineare:

(p2 q3 − p3 q2 )x − (p1 q3 − p3 q1 )y + (p1 q2 − p2 q1 )z = 0.

Quindi il vettore di coordinate [p2 q3 − p3 q2 , p1 q3 − p3 q1 , p1 q2 − p2 q1 ] è perpendicolare


al piano generato dai vettori p e q.
Infine il determinante della matrice calcolato rispetto alla terza colonna è:

r · (p × q) = r1 (p2 q3 − p3 q2 ) − r2 (p1 q3 − p3 q1 ) + r3 (p1 q2 − p2 q1 ) = p · (q × r) = q · (p × r)

Il determinante è lineare in p, q ed r. Inoltre se due dei tre vettori sono uguali il


determinante è nullo.
9.3. DETERMINANTE DI UNA MATRICE DI ORDINE N 117

Example 78. Siano p = [1, 1, 0]T , q = [3, 4, 0]T e r = [0, 0, 2]T tre vettori colonna.
Se θ è l’angolo formato dai due vettori p e q nel piano di equazione parametrica
rp + sq = [r + 3s, r + 4s, 0] (r, s ∈ R) ed equazione lineare z = 0, abbiamo
r
p·q 7 49
cos θ = = √ = .
kpkkqk 5 2 50
L’area del parallelogramma delimitato dall’origine O degli assi cartesiani e dai vettori
p e q è

r
p 49
kpkkqk sin θ = kpkkqk 1 − cos(θ)2 = 5 2 1 − = 1.
50
Il volume del parallelepipedo è pari all’area 1 di questo parallelogramma moltiplicata
per l’altezza del parallelepipedo rispetto al piano z = 0 determinato dai vettori p e
q.
L’angolo α formato dal vettore r = [0, 0, 2]T e dalla retta perpendicolare al piano
z = 0 è di ampiezza 0. Quindi krk cos α = 2 cos α = 2 cos(0) = 2. In conclusione, il
determinante della matrice di ordine 3, le cui colonne sono i vettori p, q e r, è uguale
a 2.

9.3 Determinante di una matrice di ordine n


Sia A = (aij ) una matrice quadrata di ordine n sul campo numerico K. Ad A
possiamo associare uno scalare, il suo determinante det(A) ∈ K, che è l’ipervolume
con segno della figura geometrica delimitata dai vettori colonna A1 , . . . , An nello
spazio Kn di dimensione n. Per comodità a volte denotiamo il determinante tramite
le colonne (oppure le righe) della matrice A: det(A1 , . . . , An ). Il determinante è
univocamente determinato dalle seguenti 5 proprietà:
(D1) Il determinante come funzione di una colonna è lineare:
det(A1 , . . . , B + C, . . . , An ) = det(A1 , . . . , B, . . . , An ) + det(A1 , . . . , C, . . . , An );
det(A1 , . . . , cAj , . . . , An ) = c · det(A1 , . . . , Aj , . . . , An ).

(D2) Se due colonne sono uguali, cioé Ai = Aj (i 6= j), allora det(A) = 0.


(D3) det(In ) = 1, dove In è la matrice identica.
(D4) Se due colonne sono scambiate, il determinante cambia di segno:
det(A1 , . . . , Ai , . . . , Aj , . . . , An ) = −det(A1 , . . . , Aj , . . . , Ai , . . . , An ).
118 CHAPTER 9. DETERMINANTE

(D5) Se si somma ad una colonna un multiplo scalare di un’altra colonna il valore


del determinante non cambia (i 6= j):

det(A1 , . . . , Ai−1 , Ai + cAj , Ai+1 , . . . , An ) = det(A1 , . . . , Ai−1 , Ai , Ai+1 , . . . , An ).

Per semplicità utilizzeremo talvolta la notazione |A| al posto di det(A).


Example 79. Il determinante di una matrice diagonale è il prodotto degli elementi
della diagonale. Nel caso di dimensione 2 rappresenta l’area di un rettangolo con
segno:
a 0 1 0 1 0
0 b =(D1) a 0 b =(D1) ab 0 1 =(D3) ab.

Example 80. Sia E 1 = [1, 0]T e E 2 = [0, 1]T .


   
a b
= det( a , b )
c d c d
= det(aE + cE 2 , bE 1 + dE 2 )
1

= det(aE 1 , bE 1 + dE 2 ) + det(cE 2 , bE 1 + dE 2 )
= det(aE 1 , bE 1 ) + det(aE 1 , dE 2 ) + det(cE 2 , bE 1 ) + det(cE 2 , dE 2 )
= ab det(E 1 , E 1 ) + ad det(E 1 , E 2 ) + cb det(E 2 , E 1 ) + cd det(E 2 , E 2 )
= 0 + ad det(E 1 , E 2 ) + cb det(E 2 , E 1 ) + 0
= ad det(I2 ) − cb det(I2 )
= ad − cb

Sia E i = [0, . . . , 1, . . . , 0]T il vettore colonna con 1 in posizione i. Sia Sn l’insieme


delle permutazioni di un insieme di n elementi. Allora, in generale abbiamo
det(A1 , A2 , . . . , An ) = P det( ni1 =1P ai1 1 E i1 , ni2 =1 ai2 2 E i2 , . . . , nin =1 ain n E in )
P P P
= Pni1 =1 · · · nin =1 ai1 1 . . . ain n det(E i1 , E i2 , . . . , E in )
τ1 τ2 τn
= τ ∈Sn aτ1 1 . . . aτn n det(E , E , . . . , E )

Dalla condizione (D4) si ha det(E τ1 , E τ2 , . . . , E τn ) = ±1. Il risultato dipende da


quanti scambi di colonne dobbiamo effettuare per ottenere la matrice identica.
Example 81. Calcoliamo il determinante di
 
a b
A=
c d

applicando le regole (D1)-(D5).


9.3. DETERMINANTE DI UNA MATRICE DI ORDINE N 119


a b a+0 b a b 0 b
det(A) = =
0 + c d =(D1)
+
c d 0 d c d
Inoltre,

a b a 0+b a 0 a b a b
= =(D1) +
0 0 =Ex.79 ad + 0 0
=
0 d 0 d+0 0 d

a ba b a a b
= ad + a =(D1) ad + =(D2) ad + 0 = ad.
0 ab 0 a 0 0 a
In maniera simile,

0 b 0 0 0 b
=0− b 0

= −bc
c d = c d
+
c 0 0 c

applicando (D4).

Proposition 9.3.1. 1. det(AT ) = det(A);

2. det(AB) = det(A) det(B);

3. det(A−1 ) = det(A)−1 .

Proposition 9.3.2. I vettori colonna A1 , . . . , An sono linearmente dipendenti sse


det(A1 , . . . , An ) = 0.

Proof. Se i vettori colonna sono linearmente dipendenti, allora possiamo scrivere un


opportuno vettore colonna, per esempio il primo, come combinazione lineare degli al-
tri. Se fosse il primo avremmo: det(A1 , . . . , An ) = det(c2 A2 +· · ·+cn An , A2 , . . . , An ) =
0 per (D1)-(D5).
Supponiamo ora che det(A1 , . . . , An ) = 0 e ipotizziamo per assurdo che i vet-
tori colonna siano linearmente indipendenti. Allora A1 , . . . , An generano lo spazio
vettoriale Kn . Sia B una matrice qualsiasi il cui determinante è 6= 0. Allora ogni
vettore colonna B i di B è combinazione lineare B i = ci1 A1 + · · · + cin An . Ne segue che
0 6= det(B) = det(B 1 , . . . , B n ) = det(c11 A1 + · · · + c1n An , . . . , cn1 A1 + · · · + cnn An ) = 0
per le regole (D1)-(D5). Assurdo.

Proposition 9.3.3. Una matrice quadrata A a coefficienti nel campo K è invert-


ibile se e solo se il suo determinante è diverso da zero.
120 CHAPTER 9. DETERMINANTE

Proof. (⇐) Dalla Proposizione 9.3.2 le colonne A1 , . . . , An sono linearmente indipen-


denti. Quindi ogni vettore dello spazio vettoriale Kn si scrive come combinazione
lineare di A1 , . . . , An , cioé le colonne di A costituiscono una base di Kn . Consideri-
amo il cambiamento di base dalla base canonica e1 , . . . , en di Kn alla base A1 , . . . , An :

e1 = b11 A1 + · · · + bn1 An , . . . . . . , en = b1n A1 + · · · + bnn An .

La matrice B del cambiamento di base, tale che B i = [b1i , . . . , bni ]T , è invertibile. La


matrice inversa è la matrice A del cambiamento di base dalla base A1 , . . . , An alla
base e1 , . . . , en . In conclusione, In = BA.
(⇒) Se A è invertibile, allora il sistema lineare Ax = x1 A1 + . . . xn An = b
ha un’unica soluzione x = A−1 b. Siccome il vettore b è arbitrario allora i vettori
A1 , . . . , An costituiscono una base di V . Quindi sono linearmente indipendenti e dalla
Proposizione 9.3.2 il determinante di A è diverso da zero.

9.4 Calcolo del determinante


Regola di Cramer
Con la regola di Cramer possiamo risolvere il sistema lineare Ax = b utilizzando il
determinante.
Theorem 9.4.1. (Regola di Cramer) Sia A una matrice quadrata di ordine n con
determinante diverso da 0. Se b = [b1 , . . . , bn ]T e c = [c1 , . . . , cn ]T sono vettori
colonna tali che
Ac = c1 A1 + · · · + cn An = b,
allora per ogni i abbiamo

det(A1 , . . . , Ai−1 , b, Ai+1 , . . . , An )


ci = .
det(A1 , . . . , An )

Proof. Si sostituisca in det(A1 , . . . , Ai−1 , b, Ai+1 , . . . , An ) il vettore b con la combi-


nazione lineare c1 A1 + · · · + cn An e si applichino le regole di calcolo (D1)-(D5).

Calcolo del determinante per riga e per colonna


Sia A = (aij ) una matrice quadrata di ordine n. Fissati i e j indichiamo con Aij la
matrice quadrata (n − 1) × (n − 1) ottenuta da A cancellando la riga i e la colonna
j.
9.4. CALCOLO DEL DETERMINANTE 121

Calcolo del determinante di una matrice quadrata A rispetto alla riga i:


n
X
i+1 i+n
det A = (−1) ai1 det Ai1 + · · · + (−1) ain det Ain = (−1)i+k det Aik
k=1

Calcolo del determinante di una matrice quadrata A rispetto alla colonna j:


n
X
j+1 j+n
det A = (−1) a1j det A1j + · · · + (−1) anj det Anj = (−1)j+k det Akj
k=1

Example 82. Il determinante di una matrice di tipo 3 × 3 sviluppato rispetto alla


prima riga:
 
a b c
det  d e f  = a(ei−f h)−b(di−f g)+c(dh−eg) = aei+bf g+cdh−af h−bdi−ceg
g h i

Proposition 9.4.2. Il determinante di una matrice triangolare superiore o inferi-


ore è dato dal prodotto degli elementi della diagonale.

Calcolo del determinante applicando la regola (D5)


Possiamo semplificare il calcolo del determinante di una matrice A applicando ad A
la regola (D5) che non modifica il determinante: sommare ad una data colonna il
multiplo scalare di un’altra colonna.
 
1 2 3
Example 83. Sia A =  4 5 6  una matrice. Sostituiamo la seconda colonna
7 8 9
A con A − 2A e la terza colonna A3 con A3 − 3A1 :
2 2 1
   
1 2 3 1 0 0
 4 5 6  ⇒  4 −3 −6  = B
7 8 9 7 −6 −12
 
0
Sostituiamo poi la terza colonna B 3 =  −6  di B con B 3 − 2B 2 :
−12
   
1 0 0 1 0 0
 4 −3 −6  ⇒  4 −3 0 
7 −6 −12 7 −6 0
122 CHAPTER 9. DETERMINANTE

La matrice finale è triangolare inferiore. Il suo determinante è dato dal prodotto degli
elementi della diagonale ed è quindi nullo. In conclusione, la matrice A di partenza
ha determinante nullo.

Determinante di una trasformazione lineare

Sia f : V → V una trasformazione lineare. Sia v1 , . . . , vn una base di V e sia A la


matrice quadrata di ordine n che rappresenta f rispetto alla base v1 , . . . , vn .
Sia w1 , . . . , wn un’altra base di V e sia B la matrice che rappresenta f rispetto
a questa nuova base. Dalla Sezione 8.5 sappiamo che esiste una matrice invertibile
C che corrisponde al cambiamento di base. Cosı̀ si ha:

B = C −1 AC

e quindi
det(B) = det(C −1 ) det(A) det(C) = det(A).

Theorem 9.4.3. Il determinante di una trasformazione lineare f è indipendente


dalla scelta della base (e quindi della matrice che rappresenta f ).

Data una trasformazione lineare f , possiamo scrivere quindi det(f ), intendendo


con questo il determinante di una qualsiasi matrice che rappresenta f .

Corollary 9.4.4. Si ha per trasformazioni lineari componibili g, f e per un isomor-


fismo lineare h:
det(g ◦ f ) = det(g)det(f )

1 = det(h−1 ◦ h) = det(h−1 )det(h) = det(h)−1 det(h).

9.4.1 Calcolo matrice inversa con il determinante


Metodo di Cramer
E j è il vettore colonna con 1 nel posto j e 0 in tutti gli altri posti.
9.4. CALCOLO DEL DETERMINANTE 123

Proposition 9.4.5. Sia A = (aij ) una matrice quadrata con determinante non
nullo. Se B = (bij ) è la matrice inversa di A, allora applicando la regola di Cramer
al sistema lineare:
 
b1j
 b2j 
b1j A1 + · · · + bnj An = A 
 ...  = E
 j

bnj

abbiamo
det(A1 , . . . , Ai−1 , E j , Ai+1 , . . . , An )
bij = .
det(A)

Metodo dei complementi algebrici di Laplace


La matrice aggiunta di una matrice quadrata A di ordine n è un’altra matrice
quadrata di ordine n il cui elemento nella posizione generica ji è il complemento
algebrico di A relativo alla posizione ij:

adjji (A) = (−1)i+j det(Aij )

dove Aij è il minore di A ottenuto cancellando la riga i e la colonna j.


 
adj11 (A) . . . adj1n (A)
adj A = 
 .. .. .. 
. . . 
adjn1 (A) . . . adjnn (A)

Allora si ha:
A(adj A) = (adj A)A = det(A)In
La matrice inversa di A è:
1
A−1 = adj A
det(A)
124 CHAPTER 9. DETERMINANTE
Chapter 10

Autovettori e Autovalori

10.1 Definizione di autovalore e autovettore


Sia V uno spazio vettoriale di dimensione n sul campo K. Una trasformazione lineare
di V in se stesso si chiama operatore lineare.

Definition 10.1.1. Sia f : V → V un operatore lineare. Un autovettore è un vettore


non nullo v ∈ V per cui esiste uno scalare λ, detto autovalore, tale che f (v) = λv.

L’insieme Eλ degli autovettori di autovalore λ è detto autospazio.

Lo scalare 0 è un autovalore di f sse il nucleo N (f ) ha dimensione ≥ 1.

È evidente che
f (u) = λu sse (λIn − f )(u) = 0,

dove In : V → V è la funzione identica. Nel seguito, quando possibile, scriveremo


λ − f al posto λIn − f .
Abbiamo il seguente lemma:

Lemma 10.1.1. • λ è un autovalore di f sse dim N (λ − f ) ≥ 1.

• L’autospazio Eλ è il nucleo dell’operatore lineare λ − f .

Esprimiamo il lemma precedente in termini di matrici. Sia A la matrice di ordine


n associata all’operatore lineare f : V → V rispetto alla base v1 , . . . , vn di V . Se

125
126 CHAPTER 10. AUTOVETTORI E AUTOVALORI

u = u1 v1 + · · · + un vn è un vettore non nullo e f (u) = λu, allora


   
u1 u1
 ..   .. 
A .  = λ . 
un un

Si può scrivere in maniera alternativa (In è la matrice identica di ordine n):


   
u1 0
 ..   .. 
(λIn − A)  .  =  . .
un 0

Lemma 10.1.2. Le condizioni seguenti sono equivalenti:

• λ è un autovalore di A;

• Il sistema lineare omogeneo determinato dalla matrice λIn − A ammette una


soluzione non nulla;

• det(λIn − A) = 0.

Gli autovalori λ sono gli scalari che rendono nullo il determinante della matrice
λIn − A.
Determiniamo il numero massimo di autovalori che una matrice A di ordine n
può avere. Sia t una variabile scalare. Allora det(tIn − A) è un polinomio di grado
n nell’incognita t.
Definition 10.1.2. Il polinomio pA (t) = det(tIn − A) (di grado n) si chiama poli-
nomio caratteristico di A.
Ricordiamo che un polinomio di grado n può avere al più n radici distinte nel
campo dei coefficienti.

Proposition 10.1.3. Gli autovalori di una matrice A di ordine n sono gli zeri del
polinomio caratteristico pA (di grado n). La matrice A ha al più n autovalori.
 
1 −2
Example 84. Calcoliamo il polinomio caratteristico della matrice A = :
1 4
 
t−1 2
det = (t − 1)(t − 4) + 2 = t2 − 5t + 6.
−1 t − 4
10.1. DEFINIZIONE DI AUTOVALORE E AUTOVETTORE 127

Le soluzioni dell’equazione t2 − 5t + 6 = 0 sono: t = 5±1


2
. Quindi la matrice ha due
autovalori λ1 = 3 e λ2 = 2. Calcoliamo ora gli autovettori associati all’autovalore
λ2 = 2. Dobbiamo risolvere il sistema omogeneo associato alla matrice
   
t−1 2 1 2
=
−1 t − 4 t=2 −1 −2
Otteniamo due rette coincidenti −x − 2y = 0 e x + 2y = 0 passanti per l’origine.
Quindi abbiamo una retta di autovettori (sottospazio vettoriale di dimensione 1) la
cui equazione parametrica è: (−2t, t) con t ∈ R:
    
1 −2 −2t −2t
=2 .
1 4 t t
Calcoliamo gli autovettori associati all’autovalore t = 3. Dobbiamo risolvere il sis-
tema omogeneo associato alla matrice
   
t−1 2 2 2
=
−1 t − 4 t=3 −1 −1
Otteniamo la retta x + y = 0. Quindi abbiamo una retta di autovettori (sottospazio
vettoriale di dimensione 1) la cui equazione parametrica è: (t, −t) con t ∈ R:
    
1 −2 t t
=3 .
1 4 −t −t
Sia f : R2 → R2 l’operatore lineare associata alla matrice A. In altre parole, A è la
matrice dell’operatore lineare f rispetto alla base canonica e1 = (1, 0) e e2 = (0, 1).
Fissiamo ora una nuova base di R2 costituita da due autovettori; per esempio,
v1 = (1, −1); v2 = (−2, 1).
Siccome i due autovalori 3 e 2 sono distinti, verifichiamo che la matrice dell’operatore
f rispetto alla base v1 , v2 è diagonale con valori nella diagonale uguali ai due auto-
valori:  
3 0
0 2
Calcoliamo la matrice invertibile del cambiamento di base da v1 , v2 alla base canonica
e1 , e2 : Da v1 = e1 − e2 e v2 = −2e1 + e2 , abbiamo che la matrice del cambiamento di
base assume la seguente forma:
 
1 −2
B=
−1 1
128 CHAPTER 10. AUTOVETTORI E AUTOVALORI

Calcoliamo l’inversa di B con il metodo di Laplace definito alla fine del capitolo
precedente:  
−1 −1 −2
B =
−1 −1
Scriveremo R2 (v1 , v2 ) per specificare lo spazio vettoriale R2 con base v1 , v2 . Allora
abbiamo
Id f Id
R2 (v1 , v2 ) −
→ R2 (e1 , e2 ) →
− R2 (e1 , e2 ) −
→ R2 (v1 , v2 ).
In termini di matrici:
f
R2 (v1 , v2 ) →
− R2 (v1 , v2 )
        
−1 −1 −2 1 −2 1 −2 −3 −6 1 −2 3 0
B AB = = = .
−1 −1 1 4 −1 1 −2 −2 −1 1 0 2
Example 85. Consideriamo una trasformazione lineare f : R3 → R3 che è una
rotazione attorno all’asse y di un angolo π. Allora f (e1 ) = −e1 , f (e2 ) = e2 e
f (e3 ) = −e3 . La matrice della rotazione è:
 
−1 0 0
A= 0 1 0 
0 0 −1
Abbiamo sicuramente: (i) l’autovalore λ1 = 1 con autovettore e2 ; (ii) l’autovalore
λ2 = −1 con autovettori e1 ed e3 . Proviamo che non vi sono altri autovalori. Il
polinomio caratteristico della matrice diagonale A si calcola facilmente pA (t) = (t +
1)(t − 1)(t + 1) = (t + 1)2 (t − 1). Gli autovalori, radici di questo polinomio, sono
quindi λ1 = 1 e λ2 = −1. Quest’ultima radice è doppia.

Ricordiamo che
• Due matrici A e B sono simili se esiste una matrice invertibile P tale che
B = P AP −1 (Si consulti Definizione 8.5.1).
• Dato un operatore lineare f : V → V , due basi v1 , . . . , vn e w1 , . . . , wn di V ,
la matrice A associata ad f rispetto alla base v1 , . . . , vn è simile alla matrice
B associata ad f rispetto alla base w1 , . . . , wn . La matrice invertibile P tale
che B = P AP −1 è la matrice del cambiamento di base (Si veda Sezione 8.5 e
Esempio 84).

Lemma 10.1.4. Matrici simili determinano lo stesso polinomio caratteristico e


quindi gli stessi autovalori.
10.1. DEFINIZIONE DI AUTOVALORE E AUTOVETTORE 129

Proof.
det(tIn − B) = det(tIn − P AP −1 )
= det(tP In P −1 − P AP −1 )
= det(P (tIn − A)P −1 )
= det(P )det(tIn − A)det(P )−1
= det(tIn − A).

Quindi possiamo definire il polinomio caratteristico pf e gli autovalori di un opera-


tore lineare f : V → V , calcolandoli rispetto ad una qualsiasi matrice che rappresenta
f rispetto ad una data base.
Example 86. Sia f : R2 → R2 l’operatore lineare definito da f (x, y) = (x+y, x−y).
Da f (e1 ) = e1 + e2 e f (e2 ) = e1 − e2 , si ricava che la matrice di f rispetto alla base
canonica è  
1 1
A=
1 −1
Calcoliamo il polinomio caratteristico e gli autovalori di√A: √
pA (t) = (t − 1)(t + 1) − 1 = t2 − 2, con autovalori λ1 = 2 e λ2 = − 2.
Effettuiamo lo stesso calcolo con una base diversa v1 = [1, 1] e v2 = [2, 1] di
2
R . Siccome e1 = v2 − v1 e e2 = 2v1 − v2 , allora f (v1 ) = 2e1 = 2v2 − 2v1 e
f (v2 ) = 3e1 + e2 = 3v2 − 3v1 + 2v1 − v2 = 2v2 − v1 . La matrice B di f rispetto alla
base v1 , v2 è quindi  
−2 −1
B=
2 2
Il polinomio caratteristico di B è lo stesso di A: pB (t) = (t + 2)(t − 2) + 2 = t2 − 2,
con gli stessi autovalori di prima.

Si noti che una matrice A e la sua trasposta AT hanno lo stesso polinomio carat-
teristico, perché det(tIn − A) = det(tIn − A)T = det(tIn − AT ).
Nella parte finale di questa sezione calcoliamo i coefficienti del polinomio carat-
teristico di una matrice A in termini degli elementi della matrice A. Lo facciamo per
n = 2, 3.
Example 87. Sia A = (aij ) una matrice quadrata di ordine 2 a coefficienti in un
campo K. Calcoliamo il determinante det(tI2 − A):
 
t − a11 −a12
det(tI2 − A) = det = t2 − c1 t + c0 ,
−a21 t − a22
130 CHAPTER 10. AUTOVETTORI E AUTOVALORI

dove
c0 = det(A); c1 = tr(A) = a11 + a22 .
Allora det(tI2 − A) = 0 sse t2 − c1 t + c0 = 0. Quindi per trovare gli autovalori di A
bisogna risolvere una equazione di secondo grado nell’incognita t. Le due soluzioni
dell’equazione t2 − c1 t + c0 = 0 esistono sempre se K = C è il campo dei numeri
complessi, mentre possono non esistere nel caso in cui K = R è il campo dei numeri
reali. Per esempio, l’equazione t2 + 1 = 0 non ammette soluzioni reali.

Example 88. Nel caso di una matrice A = (aij ) di tipo 3 × 3 a coefficienti in un


campo K si ha:
 
t − a11 −a12 −a13
det(tI3 − A) = det  −a21 t − a22 −a23  = t3 − c2 t2 + c1 t − c0 ,
−a31 −a32 t − a33

dove
c0 = det(A); c2 = tr(A) = a11 + a22 + a33
e      
a22 a23 a11 a13 a11 a12
c1 = det + det + det .
a32 a33 a31 a33 a21 a22
Allora det(tI3 − A) = 0 sse t3 − c2 t2 + c1 t − c0 = 0. Quest’equazione di terzo grado
ha sempre tre soluzioni t1 , t2 , t3 (contate con la dovuta molteplicità) nel campo dei
numeri complessi. Se le tre soluzioni non sono tutte reali, allora una soluzione è
reale, mentre le altre due sono complesse coniugate.

10.2 Autospazi
Proposition 10.2.1. Sia f un operatore lineare dello spazio vettoriale V . Se
λ1 , . . . , λk sono autovalori distinti di f e vi è un autovettore di autovalore λi (i =
1, . . . , k), allora i vettori v1 , . . . , vk sono linearmente indipendenti.

Proof. Per induzione su k. Se c1 v1 + · · · + ck vk = 0 con c1 , . . . , ck scalari non tutti


nulli, allora si ha:
0 = f (0)
= f (c1 v1 + · · · + ck vk )
= f (c1 v1 ) + · · · + f (ck vk )
= c1 f (v1 ) + · · · + ck f (vk )
= c1 λ1 v1 + · · · + ck λk vk
10.2. AUTOSPAZI 131

Sostituendo ck vk = −c1 v1 − · · · − ck−1 vk−1 si ottiene:

c1 λ1 v1 +· · ·+λk (−c1 v1 −· · ·−ck−1 vk−1 ) = c1 (λ1 −λk )v1 +· · ·+ck−1 (λk−1 −λk )vk−1 = 0.

Dal fatto che gli autovalori sono tutti distinti, si contraddice l’ipotesi induttiva che
v1 , . . . , vk−1 sono linearmente indipendenti.

Definition 10.2.1. La dimensione dell’autospazio Eλ si dice molteplicità geometrica


dell’autovalore λ e si indica con mg (λ).

Definition 10.2.2. Sia λ un autovalore di un operatore lineare f . Si dice molteplicità


algebrica di λ, e si indica con ma (λ), il più grande k tale che il polinomio (t − λ)k
divide il polinomio caratteristico pf :

pf (t) = (t − λ)k q(t),

dove q è un opportuno polinomio in t tale che q(λ) 6= 0.

Proposition 10.2.2. Sia λ un autovalore di un operatore lineare f : V → V .


Allora la molteplicità geometrica di λ è sempre minore o uguale alla sua molteplicità
algebrica.
Proof. Sia r la dimensione dell’autospazio Eλ e sia v1 , . . . , vr una base di Eλ . Si noti
che v1 , . . . , vr sono autovettori di autovalore λ. Completiamo v1 , . . . , vr ad una base
v1 , . . . , vr , vr+1 , . . . , vn di V . Abbiamo per 1 ≤ s ≤ r e r + 1 ≤ k ≤ n:

f (vs ) = λvs ; f (vk ) = b1k v1 + · · · + brk vr + c1k vr+1 + · · · + c(n−r)k vn .

Rispetto a questa base la matrice A di f ha quindi la forma


 
λIr B
A= ,
O C

dove C = (cij ) è una matrice quadrata di ordine n − r. Quindi


 
(t − λ)Ir −B
tIn − A =
On−r tIn−r − C

da cui si ricava det(tIn − A) = (t − λ)r pC (t). Ne segue che la molteplicità geometrica


r è minore o uguale a quella algebrica, perché il polinomio pC potrebbe avere come
radice λ ed essere quindi divisibile per t − λ.
132 CHAPTER 10. AUTOVETTORI E AUTOVALORI

10.3 Esempi
Example 89. Se consideriamo una rotazione g : R2 → R2 del piano reale (si veda
Sezione ??) di un angolo 0 < θ < π2 in senso antiorario, nessun vettore mantiene la
stessa direzione e quindi non devono esistere autovalori. La matrice della rotazione
rispetto alla base canonica è (si consulti il Capitolo 7.4):
 
cos θ − sin θ
A=
sin θ cos θ
Calcoliamo il polinomio caratteristico che è il determinante della matrice
 
t − cos θ sin θ
det = (t − cos θ)2 + sin θ2 = t2 − 2t cos θ + 1.
− sin θ t − cos θ
Se calcoliamo le soluzioni troviamo
√ √
t = cos θ ± cos θ2 − 1 = cos θ ± − sin θ2 = cos θ ± i sin θ,
dove i è l’unità immaginaria. Quindi gli autovalori sono numeri complessi non reali.
Siccome ogni polinomio ha radici nel campo dei numeri complessi, mentre non è
detto che ne abbia nel campo dei numeri reali, conviene spesso lavorare direttamente
con trasformazioni lineari complesse. Consideriamo quindi la matrice A come una
matrice che definisce una operatore lineare complesso h : C2 → C2 rispetto alla
base canonica e1 = (1, 0) e e2 = (0, 1) di C2 . Calcoliamo l’autospazio associato
all’autovalore λ1 = cos θ + i sin θ. Dobbiamo risolvere il sistema lineare omogeneo
        
x i sin θ sin θ x ix sin θ + y sin θ 0
(λ1 I2 − A) = = = ,
y − sin θ i sin θ y −x sin θ + iy sin θ 0
dove x e y sono scalari complessi. Otteniamo l’equazione della retta complessa che
descrive i vettori dell’autospazio di λ1 : ix sin θ + y sin θ = 0, che dividendo per sin θ
diventa y = −ix. L’altra equazione −x sin θ + iy sin θ = 0, dividendo per sin θ, si
riduce a iy = x, che moltiplicando  peri diventa come prima y = −ix.
−1
Un autovettore è il vettore . Analogamente, possiamo calcolare la retta
i
  di autovalore λ2 = cos θ − i sin θ. Un autovettore
complessa y = ix degli autovettori
1
di autovalore λ2 è il vettore .
i
Example 90. Sia  
1 2
A=
3 4
10.3. ESEMPI 133

Calcoliamo il polinomio caratteristico di A:


 
t − 1 −2
det = (t − 1)(t − 4) − 6 = t2 − 5t − 2.
−3 t − 4

Le soluzioni dell’equazione sono: t = 5±2 33 . Quindi la matrice ha due autovalori
reali. √
Calcoliamo ora l’autospazio associato all’autovalore λ1 = 5+2 33 . Dobbiamo risol-
vere il sistema omogeneo associato alla matrice
" √ # " √ #
5+ 33 3+ 33
2
−1 −2 2
−2

5+ 33
= √
−3+ 33
−3 2
−4 −3 2

√ √
Otteniamo quindi due rette (3 + 33)x − 4y = 0 e −6x + √ (−3 + 33)y = 0 passanti
per
√ l’origine. Moltiplicando la prima equazione per 3 − 33 si ottiene: 24x + 4(3 −
33)y = 0 e dividendo per 4 si ottiene infine la seconda equazione. Quindi le due
equazioni definiscono la stessa retta per l’origine. Se poniamo x = 1 allora y = √933 .

5+ 33
Quindi l’autospazio associato all’autovalore 2
è il sottospazio vettoriale del piano
generato dal vettore [1, √933 ].

Example 91. Sia


 
1 0 1
A= 2 0 2 
2 2 3
 
1 1
Il determinante della matrice A è nullo: det(A) = −2 · det = 0. Ne segue
2 2
che il sistema omogeneo Ax = 0 ammette soluzioni x 6= 0 non nulle. Calcoliamo il
polinomio caratteristico di A sviluppando il determinante rispetto alla prima riga e
scopriremo che 0 sarà un autovalore della matrice A:
 
t−1 0 −1    
t −2 −2 t
det(tI3 −A) = det  −2 t −2  = (t−1)det −det =
−2 t − 3 −2 −2
−2 −2 t − 3

= (t − 1)t(t − 3) − 4(t − 1) − 4 − 2t = t3 − 4t2 − 3t.



L’equazione t3 −4t2 −3t = 0 ammette come soluzioni gli autovalori: t = 0 e t = 2± 7.
134 CHAPTER 10. AUTOVETTORI E AUTOVALORI

10.4 Matrici triangolabili


Lemma 10.4.1. Il polinomio caratteristico di una matrice triangolare superiore
A = (aij ) di ordine n è dato da

p(t) = (t − a11 )(t − a22 ) · · · (t − ann ).

Quindi una matrice triangolare superiore ha n autovalori (situati nella diagonale


principale) contati con la loro molteplicità.

Definition 10.4.1. 1. Una matrice A è triangolabile se è simile ad una matrice


triangolare superiore, cioé esiste una matrice invertibile P tale che P AP −1 è
triangolare superiore.

2. Un operatore f : V → V è triangolabile se esiste una base di V rispetto alla


quale f è rappresentato da una matrice triangolare superiore.

Ricordiamo che ma (λ) indica la molteplicità algebrica dell’autovalore λ.

Theorem 10.4.2. Sia V uno spazio vettoriale di dimensione n su un campo K,


sia f : V → V un operatore lineare e siano λ1 , . . . , λk ∈ K gli autovalori distinti di
f . Allora le seguenti condizioni sono equivalenti:

(i) f è triangolabile;

(ii) ma (λ1 )+· · ·+ma (λk ) = n, cosicché il polinomio caratteristico pf è scomponibile


come segue:
pf (t) = (t − λ1 )ma (λ1 ) . . . (t − λk )ma (λk ) .

Proof. (i) ⇒ (ii) Se A è una matrice triangolare associata ad f rispetto ad una


opportuna base, allora gli autovalori di A si trovano nella diagonale principale di A.
Contati con la dovuta moltiplicità sono n (Si veda Lemma 10.4.1).
(ii) ⇒ (i) Siano λ1 , . . . , λn gli autovalori di f , ripetuti con la dovuta molteplicità
algebrica. Costruiamo una base v1 , . . . , vn di V come segue:

(i) v1 è un autovettore di λ1 , cioé f (v1 ) = λ1 v1 .

(ii) f (v2 ) − λ2 v2 ∈ Span(v1 ); In generale,

(iii) f (vj+1 ) − λj+1 vj+1 ∈ Vj , dove Vj = Span(v1 , . . . , vj ) è il sottospazio vettoriale


generato da v1 , . . . , vj , e λj+1 è il j + 1-simo autovalore di f.
10.4. MATRICI TRIANGOLABILI 135

In questo modo f (vj+1 ) = a1 v1 + · · · + aj vj + λj+1 vj+1 per opportuni scalari ai . La


matrice di f rispetto alla base v1 , . . . , vn risulterà triangolare superiore.
Supponiamo di aver definito v1 , . . . , vj linearmente indipendenti con le proprietà
volute e cerchiamo di definire vj+1 .
Completiamo v1 , . . . , vj ad una base v1 , . . . , vj , wj+1 , . . . , wn di V . Sia W il
sottospazio vettoriale generato da wj+1 , . . . , wn . Allora W ∩ Vj = {0}.
Consideriamo la proiezione canonica Pj : V → W definita da

Pj (a1 v1 + · · · + aj vj + aj+1 wj+1 + · · · + an wn ) = aj+1 wj+1 + · · · + an wn ,

e Tj = Pj ◦ f|W : W → W , dove f|W è la restrizione di f al sottospazio W . Rispetto


alla base v1 , . . . , vj , wj+1 , . . . , wn di V l’operatore f è rappresentato dalla matrice
 
B C
A=
O D

dove B è triangolare superiore con λ1 , . . . , λj sulla diagonale principale. Si vede


facilmente che D è la matrice dell’operatore Tj rispetto alla base wj+1 , . . . , wn di W .
Allora,
pA (t) = det(tIn − A) = (t − λ1 ) . . . (t − λj )pD (t).
Quindi la matrice D ammette gli autovalori λj+1 , . . . , λn . Definiamo vj+1 un au-
tovettore di autovalore λj+1 nello spazio W .

Corollary 10.4.3. Ogni operatore lineare complesso è triangolabile.

Proof. Il campo dei numeri complessi è algebricamente chiuso: il polinomio carat-


teristico di una matrice complessa ammette n radici con la dovuta molteplicità.

Se f : V → V è triangolabile non è detto che V abbia una base di autovettori di


f , come il seguente esempio dimostra.

Example 92. Consideriamo un operatore lineare f : R2 → R2 rappresentato dalla


matrice  
−5 −9
A=
4 7
rispetto alla base canonica. Determiniamo il polinomio caratteristico di A:
 
t+5 9
det(tI2 − A) = det = (t + 5)(t − 7) + 36 = t2 − 2t + 1 = (t − 1)2 .
−4 t − 7
136 CHAPTER 10. AUTOVETTORI E AUTOVALORI

L’autovalore λ = 1 ha molteplicità algebrica uguale a 2, mentre l’autospazio E1 ha


dimensione 1. Per trovare l’autospazio di λ = 1 dobbiamo risolvere il sistema lineare
    
6 9 x 0
=
−4 −6 y 0

ovvero 6x + 9y = 0 e 2x + 3y = 0, da cui si ricava x = −(3/2)y. Quindi E1 =


3
Span( ) ha dimensione 1. L’operatore f è triangolabile rispetto alla base v =
−2
[3, −2], e2 = [0, 1]. Infatti f è rappresentato rispetto a questa nuova base dalla
matrice  
1 −3
0 1
Utilizziamo l’uguaglianza e1 = 31 [3, −2] + 23 e2 per provare che f (e2 ) = −9e1 + 7e2 =
−3v + e2 . In conclusione, f è triangolabile ma non diagonalizzabile come vedremo
nella prossima sezione.

10.5 Matrici diagonalizzabili


Lemma 10.5.1. Se una matrice A = (aij ) è diagonale, allora l’elemento aii della
diagonale è un autovalore di A con autovettore il vettore ei della base canonica.
Proof.    
  0 0
a11 0 . . . 0  .  .
 0 a22 . . . 0   ..   .. 

   
1 = a 1
  
 .. .. .. ..   ii
 . . . .  .
   
 .. 
.. .
0 0 . . . ann
0 0

Per esempio, nel caso di una matrice di ordine 2 abbiamo:


         
2 0 1 1 2 0 0 0
=2 ; =5 .
0 5 0 0 0 5 1 1

Definition 10.5.1. Un operatore lineare f : V → V è diagonalizzabile se esiste una


base rispetto alla quale f è rappresentato da una matrice diagonale.
10.5. MATRICI DIAGONALIZZABILI 137

Ricordiamo che una matrice A di ordine n (ad elementi nel campo K) definisce
un operatore lineare fA : Kn → Kn tramite il prodotto matriciale: fA (x1 , . . . , xn ) =
A[x1 , . . . , xn ]T . Quindi, una matrice è diagonalizzabile se è simile ad una matrice
diagonale. Matrici simili hanno lo stesso polinomio caratteristico e quindi gli stessi
autovalori (Si veda Lemma 10.1.4). Ne segue che una matrice è diagonalizzabile sse
è simile alla matrice diagonale dei suoi autovalori, ciascuno presente nella diagonale
con la dovuta molteplicità.

Proposition 10.5.2. Un operatore lineare f : V → V è diagonizzabile sse V ha


una base v1 , . . . , vn di autovettori di f . In tal caso,

f (vi ) = λi vi , for every 1 ≤ i ≤ n.

Corollary 10.5.3. Se una matrice di ordine n ha n autovalori distinti, allora è


diagonalizzabile.

Proof. Siano λ1 , . . . , λn gli n autovalori distinti e sia vi un autovettore di λi per


i = 1, . . . , n. Dalla Proposizione 10.2.1(ii) i vettori v1 , . . . , vn costituiscono una
base di autovettori dello spazio vettoriale. La conclusione segue dalla Proposizione
10.5.2.

Sia A una matrice diagonalizzabile e D = P −1 AP la matrice diagonale simile ad


A. Allora si ha:
A = P DP −1
Se A è diagonalizzabile e si conoscono la matrice invertibile P e la matrice diag-
onale D, allora è facile calcolare le potenze della matrice A:

A2 = AA = P −1 DDP = P −1 D2 P, A3 = AAA = P −1 D3 P, . . .

Se  
d1 0 ... 0
 0 d2 ... 0 
D=
 ... ...

... ... 
0 0 ... dn
allora  
dk1 0 ... 0
 0 dk2 ... 0 
Dk = 
 ... ...

... ... 
0 0 ... dkn
138 CHAPTER 10. AUTOVETTORI E AUTOVALORI

Il teorema seguente precisa meglio il risultato della Proposizione 10.5.2.

Theorem 10.5.4. Sia V uno spazio vettoriale di dimensione n sul campo K, sia
f : V → V un operatore lineare e siano λ1 , . . . , λk ∈ K gli autovalori distinti di f .
Sia ma (λi ) (resp. mg (λi )) la molteplicità algebrica (geometrica) dell’autovalore λi
per i = 1, . . . , k.
Allora le seguenti condizioni sono equivalenti:

(i) f è diagonalizzabile;

(ii) Per ogni vettore v ∈ V , esistono (unici) autovettori wi di autovalore λi (i =


1, . . . , k) tale che v = w1 + · · · + wk (i.e., esiste una base di autovettori);

(iii) mg (λ1 ) + · · · + mg (λk ) = n;

(iv) f ha n autovalori contati con la dovuta molteplicità e ma (λi ) = mg (λi ) per


ogni i = 1, . . . , k.

Proof. (i) ⇒ (ii) Se f è diagonalizzabile, dal Lemma ?? V ammette una base di


autovettori di f . Quindi i k autospazi Eλ1 , . . . , Eλk generano V , ossia ogni vettore
v ∈ V è combinazione lineare di elementi di Eλ1 , . . . , Eλk .
(ii) ⇒ (iii) Per ipotesi la somma delle dimensioni degli autospazi è n:

dim Eλ1 + · · · + dim Eλk = mg (λ1 ) + · · · + mg (λk ) = n.

(iii) ⇒ (iv) Da mg (λi ) ≤ ma (λi ).


(iv) ⇒ (i) Ovvio.

Remark 2. Non ogni matrice quadrata a coefficienti complessi è diagonalizzabile (nel


campo dei numeri complessi). Per esempio, la matrice
 
0 1
A=
0 0

ha 0 come autovalore doppio, mentre il nucleo dell’operatore lineare determinato


dalla matrice A ha dimensione 1. Non è diagonalizzabile, perché non è simile alla
matrice nulla.

Sia f : V → V diagonalizzabile ed A la matrice di f rispetto ad una base


v1 , . . . , vn di V . Sia w1 , . . . , wn una base di autovettori di f , e P la matrice tale che
P i è il vettore colonna delle coordinate di wi rispetto alla base v1 , . . . , vn . Allora
10.5. MATRICI DIAGONALIZZABILI 139

P −1 AP = D è una matrice diagonale. Le n colonne di P possono essere suddivise in


k insiemi di cardinalità dim Eλ1 , . . . , dim Eλk . I vettori colonna del primo insieme
sono una base del sottospazio Eλ1 , e cosı̀ via per gli altri insiemi. Gli elementi della
diagonale di D sono gli autovalori. Un autovalore occorrerà tante volte in D quanto
la dimensione del suo autospazio.
 
2 1
Example 93. Calcoliamo gli autovettori ed autovalori della matrice A = .
  3 2
x1
Se x = è un autovettore di autovalore t abbiamo
x2

(tI2 − A)x = 0.

Il precedente sistema lineare omogeneo ha soluzione non nulla sse


 
t−2 −1
det(tI2 − A) = det = (t − 2)2 − 3 = 0.
−3 t − 2

L’equazione di secondo grado


t2 − 4t + 1 = 0
ha soluzioni √ √
λ1 = 2 + 3; λ2 = 2 − 3.
Le due matrici che si ottengono sono:
 √ √
√ √
  
3 √−1 − 3 −1

B = (2 + 3)I2 − A = ; C = (2 − 3)I2 − A = .
−3 3 −3 − 3

Ora calcoliamo gli autovettori. Per λ1 = 2 + 3 lo spazio degli autovettori, che è lo
spazio delle soluzioni
√ del sistema √
omogeneo Bx = 0, ha dimensione 1 ed è descritto
dalla retta y = 3x. Per λ = 2 − 3 lo spazio degli autovettori, che è lo spazio delle
soluzioni
√ del sistema omogeneo Cx = 0, ha dimensione 1 ed è descritto dalla retta
y = − 3x.
√La matrice A è quindi
√ diagonalizzabile perchè esiste una base di autovettori v1 =
[1, 3] e v2 = [1, − 3]. La matrice del cambiamento di base è
 
1 1
P = √ √
3 − 3

e P −1 AP è la matrice diagonale con gli autovalori nella diagonale.


140 CHAPTER 10. AUTOVETTORI E AUTOVALORI

Calcoliamo l’inversa di P :
 √ √ T  T " 1
#
1 − 3 − 3 1/2 1/2 1/2 √
P −1 = = 1 −1 = 2 3
−1
det(P ) −1 1 √
2 3

2 3
1/2 √
2 3

Allora " #
1
1/2
 

P −1
AP = 2 3
−1
2 1 √1 1
√ =
1/2 √
2 3
3 2 3 − 3
"
1
# √ √   √
1/2

√ 2 + √3 2 − √3 2+ 3 0√
2 3
= −1 =
1/2 √
2 3
3+2 3 3−2 3 0 2− 3
 
1 0 0
Example 94. Sia A =  −1 2 0  una matrice. Vogliamo
1 0 2
1. Determinare gli autovalori di A e le relative molteplicità.

2. Determinare gli autospazi di A e trovare, se esiste, una base di R3 formata da


autovettori di A.

3. Calcolare una matrice P invertibile tale che P −1 AP sia diagonale.


La matrice A è triangolare inferiore. Quindi gli autovalori sono gli elementi sulla
diagonale: l’autovalore 1 con molteplicità 1, e l’autovalore 2 con molteplicità 2. Un
altro modo per calcolare gli autovalori è tramite il polinomio caratteristico:
 
t−1 0 0
det  1 t−2 0  = (t − 1)(t − 2)2 .
−1 0 t−2

Le radici del polinomio caratteristico sono 1, 2, 2.


Per trovare gli autospazi bisogna risolvere i sistemi lineari omogenei
    
0 0 0 x1 0
 1 −1 0   x2  =  0 
−1 0 −1 x3 0
e     
1 0 0 x1 0
 1 0 0   x2  =  0 
−1 0 0 x3 0
10.5. MATRICI DIAGONALIZZABILI 141

Il primo sistema equivale a x2 = x1 e x3 = −x1 . L’autospazio delle soluzioni ha come


base il vettore (1, 1, −1). Il secondo sistema ha per soluzione il piano x1 = 0, che
ha per base i vettori [0, 1, 0] e [0, 0, 1]. Quindi una base di R3 fatta di autovettori è
composta dai vettori [1, 1, −1], [0, 1, 0] e [0, 0, 1]. Rispetto alla base composta dagli
autovettori [1, 1, −1], [0, 1, 0] e [0, 0, 1] la matrice diagonale D simile ad A è:
 
1 0 0
D= 0 2 0 
0 0 2
La matrice P tale che D = P −1 AP è diagonale, è la matrice le cui colonne sono gli
autovettori:  
1 0 0
P = 1 1 0 
−1 0 1
Example 95. Siano dati in R3 i vettori
v1 = [0, 1, −1]; v2 = [2, 0, 1]; v3 = [1, 2, 0].
1. Verificare che esiste una unica trasformazione lineare f : R3 → R3 avente
v1 , v2 , v3 come autovettori associati, rispettivamente, agli autovalori 0, 3, 6.
2. Determinare la matrice A associata ad f rispetto alla base canonica.
Dobbiamo avere:
f (v1 ) = 0; f (v2 ) = 3v2 ; f (v3 ) = 6v3 .
I tre vettori v1 , v2 , v3 sono linearmente indipendenti e quindi costituiscono una base
di R3 , perché la matrice che ha i tre vettori come colonne ha determinante diverso
da 0. Ne segue che la funzione f è unica perché è definita su ogni vettore v = c1 v1 +
c2 v2 +c3 v3 di R3 : f (c1 v1 +c2 v2 +c3 v3 ) = c1 f (v1 )+c2 f (v2 )+c3 f (v3 ) = 3c2 v2 +6c3 v3 .
La matrice di f rispetto alla base v1 , v2 , v3 di autovettori è la matrice diagonale
 
0 0 0
D= 0 3 0 
0 0 6
Per calcolare la matrice A rispetto alla base canonica di R3 dobbiamo considerare
la matrice P le cui colonne sono le coordinate degli autovettori rispetto alla base
canonica:  
0 2 1
P = 1 0 2 
−1 1 0
142 CHAPTER 10. AUTOVETTORI E AUTOVALORI

Siccome D = P −1 AP , ricaviamo che A = P DP −1 . L’inversa della matrice P è:


 
2/3 −1/3 −4/3
P −1 =  2/3 −1/3 −1/3 
−1/3 2/3 2/3

E quindi
   
0 2 1 0 0 0 2/3 −1/3 −4/3
A = P DP −1 =  1 0 2  0 3 0   2/3 −1/3 −1/3  =
−1 1 0 0 0 6 −1/3 2/3 2/3
 
2 2 2
=  −4 8 8 
2 −1 −1
Chapter 11

Applicazioni

11.1 Algoritmo di Google


Questo esempio è la terza lezione nel sito Winter2009/RalucaRemus (che troverete
con un motore di ricerca).
Supponiamo di avere quattro siti web (www.page1.com, www.page2.com, www.page3.com,
www.page4.com) con links tra i siti descritti dal seguente grafo: Il nodo 1 ha tre archi

Figure 11.1: Il grafo con archi pesati

uscenti. Ciò significa che vi sono nella pagina p1 tre link, il primo diretto alla pagina
p2 , il secondo alla pagina p3 e l’ultimo alla pagina p4 . Similmente per gli altri archi
uscenti dagli altri nodi.
Supponiamo che un utente si trovi nella pagina p1 . Immaginiamo che gli eventi
“passa alla pagina p2 ”, “passa alla pagina p3 ”, “passa alla pagina p4 ” siano equiprob-

143
144 CHAPTER 11. APPLICAZIONI

abili. Quindi se un utente si troverà nella pagina p1 vi è una probabilità 13 che passi
alla pagina p2 , e cosı̀ via. Lo stesso discorso si applica per gli altri nodi con probabilità
possibilmente diverse, che dipendono dal numero di links.
Siccome il nodo 1 ha tre archi uscenti, trasferisce un terzo della sua importanza a
ciascuno dei tre nodi riceventi. In generale, se un nodo ha k archi uscenti, trasferisce
1
k
della sua importanza a ciascuno dei nodi riceventi.
I principi sui quali si basa PageRank sono quindi i seguenti:
• Una pagina importante riceve links da pagine importanti.

• Una pagina importante ha pochi links verso altre pagine.


Questi principi vengono formalizzati nella seguente formula: indicando con r(p) il
rango della pagina web p (cioé la sua importanza relativa) e con |p| il numero di links
dalla pagina p verso altre pagine, abbiamo
X r(q)
r(p) = .
q→p
|q|

In questa formula, la somma è effettuata su tutte le pagine q che hanno un link verso
p. Il contributo di una pagina q è quindi direttamente proporzionale all’importanza
(rango) di q ed inversamente proporzionale al numero di links da q verso altre pagine.
La matrice A di transizione del grafo mette in ciascuna colonna Ai il trasferi-
mento di importanza dal nodo i agli altri nodi, mentre ciascuna riga Ai della matrice
rappresenta l’importanza che il nodo i riceve dagli altri nodi. In altre parole, si ha:
(
1
se esiste un link da pj a pi
aij = |pj |
0 altrimenti.

e quindi nel nostro esempio abbiamo

0 0 1 12
 
 1 0 0 0
A= 3 
1 1 0 1
3 2 2
1 1
3 2
0 0

La matrice A è invertibile. Sviluppiamo il determinante rispetto alla terza colonna.


1 
0 0
3 1 1 1
det(A) = det( 13 21 12  = · (− ) = − .
1 1 3 4 12
3 2
0
11.2. NUMERI DI FIBONACCI 145
 
r(p1 )
r(p2 )
Denotiamo con r = r(p3 ) il rango delle quattro pagine. Allora dobbiamo avere:

r(p4 )
P r(q)

1
    
0 0 1 2 r(p1 )  Pq→p1 r(q)
|q|
 r(p1 )
 1 0 0 0  r(p2 )  q→p2 |q|  r(p2 )
Ar =  3
 1 1 0 1  r(p3 ) = P r(q)  = 
     
3 2 2 Pq→p3 |q|  r(p 3 )
1 1
3 2
0 0 r(p4 ) r(q) r(p4 )
q→p4 |q|

In altre parole, il vettore r è un autovettore di autovalore 1. Risolvendo il sistema


lineare corrispondente

r(p1 ) = r(p3 ) + r(p24 )


r(p2 ) = r(p31 )
r(p3 ) = r(p31 ) + r(p22 ) + r(p4 )
2
r(p4 ) = r(p31 ) + r(p22 )

si ottiene facilmente che abbiamo una retta di soluzioni c(12, 4, 9, 6) al variare di c.


Prendendo il vettore la cui somma delle coordinate è 1 otteniamo
 
0.38
0.12
PageRank vector ≡ 0.29

0.19

In altre parole, la pagina p1 ha importanza 0.38 e cosı̀ via per le altre pagine. Su 100
utenti, 38 visiteranno la pagina p1 .
Si suggerisce di cercare con un motore di ricerca il file jkhoury/Google.pdf dove
viene spiegato in dettaglio l’algoritmo di Google.

11.2 Numeri di Fibonacci


Questo esempio è preso da jkhoury/fibonacci.htm
All’inizio dell’anno abbiamo una coppia di conigli maschio e femmina. Le regole
sono le seguenti: Dopo due mesi ogni coppia produce una coppia mista (maschio,
femmina) e da quel momento una nuova coppia mista ogni mese successivo. Nessun
coniglio muore.
146 CHAPTER 11. APPLICAZIONI

Figure 11.2: Coppie di conigli e successione di Fibonacci

Indichiamo con Fn il numero di conigli dopo n mesi. Abbiamo:

F0 = 1; F1 = 1; Fn = Fn−1 + Fn−2 .

La successione cresce rapidamente. Dopo 55 mesi abbiamo F55 = 139.583.862.445.


Esiste un’espressione che ci permette di trovare Fn facilmente? La risposta è
positiva se si conosce il processo di diagonalizzazione di una matrice.
Consideriamo la matrice quadrata
 
1 1
A=
1 0

Allora partendo dal vettore    


F1 1
=
F0 1
11.2. NUMERI DI FIBONACCI 147

si ricava che    
Fn+1 Fn
=A
Fn Fn−1
o in altri termini
     
Fn+1 1 n 1
= AA · · · A =A (n-volte)
Fn 1 1

La matrice A è diagonalizzabile, ossia esiste una matrice invertibile P ed una matrice


diagonale D tale che A = P −1 DP da cui si ricava An = P −1 Dn P . Siccome è facile
calcolare una potenza Dn di una matrice diagonale, è anche facile calcolare An .
Calcoliamo gli autovalori di A, per cui deve essere det(tI2 − A) = 0:
 
t − 1 −1
det(tI2 − A) = det( ) = t(t − 1) − 1 = t2 − t − 1 = 0.
−1 t

I due autovalori, soluzione dell’equazione t2 − t − 1 = 0, sono reali:


√ √
1+ 5 1− 5
λ1 = ; λ2 = .
2 2
Se il vettore x è un autovettore corrispondente all’autovalore λi (i = 1, 2) allora
abbiamo che Ax = λi x, che si può scrivere come (A − λi I)x = 0, che è un sistema √
1+ 5
omogeneo. Risolvendo tale sistema omogeneo si scopre che il vettore √
w 1 = ( 2 , 1)
è una base√ per lo spazio degli autovettori dell’autovalore λ1 = 1+2 5 , mentre il vettore

w2 = ( 1−2 5 , 1) è una base per lo spazio degli autovettori dell’autovalore λ2 = 1−2 5 .
Dal Teorema 10.5.4 si ricava che i vettori w1 , w2 costituiscono una base di R2 .
Sempre dal Teorema 10.5.4 si ricava che la matrice i cui vettori colonna sono w1
e w2 è la matrice invertibile che diagonalizza A:
 1+√5 1−√5 
P = 2 2
1 1

La matrice inversa è " √ #


√1 −1+
√ 5
P −1 = 5
−1
2 √5
1+√ 5

2 5 2 5

mentre la matrice diagonale D è


" √ #
1+ 5
2
0√
D= 1− 5
0 2
148 CHAPTER 11. APPLICAZIONI

Allora si ha:      
Fn+1 n 1 n −1 1
=A = PD P =
Fn 1 1
 1+√5 √ " √ #" √ # 
1− 5 1+ 5 n √1 −1+√ 5
( 2 ) 0 5 2 √5 1
2 2
1−

5 −1 1+ 5
.
1 1 0 ( 2 ) n √ √ 1
2 5 2 5
Infine moltiplicando le matrici si ricava:
√ !n+1 √ !n+1
 
1  1+ 5 1− 5
Fn = √ − 
5 2 2

Un calcolatore potente in poco tempo calcola F100 = 573147844013817084101.


Il numero √
1+ 5
φ=
2
è la famosa sezione aurea o divina proporzione. È utilizzato in arte e architettura
per dare simmetria alla rappresentazioni figurative geometriche (si consulti il libro
di T. Livio: La sezione aurea, Rizzoli, 2012). Il rettangolo aureo è un rettangolo le
cui proporzioni sono basate sulla sezione aurea. Ciò significa che il rapporto ab fra il
lato maggiore a e quello minore b è identico a quello fra il lato minore b e il segmento
a−b ottenuto sottraendo b dal lato maggiore a (il che implica che entrambi i rapporti
siano φ). Se abbiamo un rettangolo aureo di lati a e b con a > b > 0 si ha:
a+b a b
φ= = = .
a b a−b

Figure 11.3: Sezione aurea

Siccome φ2 − φ − 1 = 0, si ha anche che φ = 1+φ φ


. Cosı̀ il rettangolo di lati φ e 1
è un rettangolo aureo.
Si ha anche che il rapporto di due numeri di Fibonacci consecutivi tende alla
sezione aurea quando l’indice n tende all’infinito.
Fn
φ = limn→∞ .
Fn−1
11.3. CRITTOGRAFIA 149

11.3 Crittografia
I caratteri dell’alfabeto italiano sono 26. Aggiungiamo un ulteriore carattere che
rappresenta il “blank”, lo spazio vuoto. Codifichiamo questi 27 caratteri con dei
numeri arbitrari. Per semplificare i conti riduciamo il numero di caratteri a 11
compreso il blank:

A = 345; B = 12438; C = 79; D = 987; E = 30078; F = 675;

G = 5499; I = 9090; O = 555; R = 777; blank = 647.


Allora la frase “GIOCO BARO” viene codificata in maniera elementare dalla seguente
successione di numeri:

5499, 9090, 555, 79, 555, 647, 12438, 345, 777, 555

Consideriamo una matrice Z quadrata di ordine n (n molto grande) che sia invert-
ibile. Immaginiamo che la matrice Z sia conosciuta soltanto ai due interlocutori
che devono scambiare il messaggio cifrato. Nel nostro esempio per ragioni di spazio
prendiamo una matrice 3 × 3:
 
1 2 3
Z = 4 5 6
7 8 9

Allora suddividiamo il messaggio con la codifica elementare in vettori di lunghezza


3 avendo l’accortezza di aggiungere degli spazi finale per ottenere un multiplo del 3.
       
5499 79 12438 555
9090 , 555 ,  345  , 647 .
555 647 777 647

Mettiamo tutti questi vettori in una matrice U di dimensione 3 × 4


 
5499 79 12438 555
U = 9090 555 345 647
555 647 777 647

Consideriamo la matrice prodotto


  
1 2 3 5499 79 12438 555
ZU = 4 5 6 9090 555 345 647 =
7 8 9 555 647 777 647
150 CHAPTER 11. APPLICAZIONI
 
25344 3130 15459 3790
 70776 6973 56139 9337 
116208 10816 96819 14884
Allora i numeri che vengono trasmessi sono

25344, 3130, 15459, 3790, 70776, 6973, 56139, 9337, 116208, 10816, 96819, 14884

Una persona che intercetta i numeri non riesce a decodificare il messaggio, mentre il
ricevente semplicemente moltiplica a sinistra la matrice ZU per Z −1 e recupera U .

11.4 Compressione di Immagini


Questa sezione è presa da jkhoury/haar.htm

Figure 11.4: Compressione di immagine con differenti metodi

Consideriamo una immagine digitale come una matrice. Ogni componente della
matrice corrisponde ad un pixel (elemento elementare della figura). Supponiamo di
avere una matrice 256 × 256 di pixels con valori di ciascuna componente un numero
da 0 (nero) a 255 (bianco). Nel mezzo varie sfumature di grigio1. La tecnica JPEG
divide l’immagine in blocchi 8 × 8 e assegna una matrice ad ogni blocco. Utilizziamo
l’algebra lineare per massimizzare la compressione dell’immagine.
11.4. COMPRESSIONE DI IMMAGINI 151

Figure 11.5: Metodo JPEG

Potrebbero piacerti anche