Sei sulla pagina 1di 99

Appunti di Algebra Lineare

Antonino Salibra
December 2, 2015

2
Libro di testo: Gilbert Strang, Algebra lineare, Edizioni Apogeo
2008
Programma di Algebra Lineare (2015/16) (da completare):
1. Campi numerici. Esempi di campi numerici: il campo dei numeri reali;
il campo dei numeri complessi; il campo dei numeri modulo 2; il campo
dei numeri modulo p per un numero primo p.
2. Numeri complessi: parte reale ed immaginaria, coniugato di un numero
complesso. Modulo e norma. Prodotto e somma di numeri complessi.
Rappresentazione trigonometrica: piano complesso. Rappresentazione
esponenziale.
3. Introduzione ai vettori. Grandezze fisiche e vettori. La definizione di
spazio vettoriale con somma vettoriale e prodotto per uno scalare.
4. Prodotto interno (o scalare) di due vettori. Propriet`a del prodotto
interno. Lunghezza di un vettore. Disuguaglianza di Schwartz. Caratterizzazione della perpendicolarit`a con il prodotto interno. Caratterizzazione del coseno dellangolo formato da due vettori con il prodotto
interno.
5. Rette nel piano. Equazione di una retta. Equazione parametrica di una
retta. Retta passante per lorigine e perpendicolare ad un dato vettore.
Retta parallela ad una retta passante per lorigine. Retta passante per
un punto e parallela (alla retta determinata da) ad un dato vettore.
Retta passante per due punti.
6. Rette e piani nello spazio. Equazione di un piano. Equazione parametrica di un piano. Piano passante per lorigine e perpendicolare ad un
dato vettore. Piano parallelo ad un piano passante per lorigine. Piano
passante per tre punti non allineati.
7. Sistema Lineare di due equazioni in due variabili. Numero di possibili
soluzioni. Calcolo dellunica soluzione con il metodo di eliminazione
di Gauss. Calcolo dellunica soluzione con il metodo matriciale e del
determinante.
8. ......

Chapter 1
Campi Numerici
Un campo `e un insieme di numeri chiuso rispetto alle quattro operazioni:
addizione, moltiplicazione, sottrazione e divisione.
Definition 1.0.1. Un campo numerico `e una quintupla (X, +, , 0, ,1 , 1),
dove X `e un insieme, + e sono operazioni binarie, , 1 sono operazioni
unarie, e 0, 1 costanti che soddisfano le seguenti equazioni:
1. Propriet`a associativa: x + (y + z) = (x + y) + z;
2. Propriet`a commutativa: x + y = y + x;

x (y z) = (x y) z.

x y = y x.

x 1 = x.

3. Elemento neutro: x + 0 = x;

4. Propriet`a distributiva: x (y + z) = (x y) + (x z).


5. Opposto: x + (x) = 0.
6. Inverso: Se x 6= 0, allora x x1 = 1.
7. Prodotto per 0: x 0 = 0 = 0 x.
Scriveremo
xy al posto di x y;
x y al posto di x + (y);
x/y per x y 1 .
Inoltre, il prodotto lega pi`
u della somma. Per esempio, x + yz significa
x + (yz).
La quadrupla (X, +, , 0) `e un gruppo commutativo rispetto alla somma,
mentre (X \ {0}, ,1 , 1) `e un gruppo commutativo rispetto al prodotto.
3

CHAPTER 1. CAMPI NUMERICI

Example 1. I seguenti insiemi sono campi numerici:


Linsieme dei numeri razionali Q;
Linsieme dei numeri reali R;
Linsieme dei numeri complessi C;
Linsieme dei bits B = {0, 1} con le operazioni di somma e prodotto
definiti come segue:
0 +2 0 = 1 +2 1 = 0;

0 +2 1 = 1 +2 0 = 1;

e
0 2 0 = 0 2 1 = 1 2 0 = 0;

1 2 1 = 1.

Lopposto di 1 `e uno, cioe 1 = 1. Questo campo numerico rappresenta


laritmetica dei numeri modulo 2.
Sia p un numero primo. Allora linsieme dei numeri {0, 1, . . . , p 1}
con le operazioni di addizione +p e moltiplicazione p modulo p `e un
campo numerico. Se x, y p 1, allora abbiamo:
(
x + y if x + y p 1
x +p y =
r
if x + y = p + r per un certo r.
(
x y if x y p 1
x p y =
r
if x y = q p + r con 0 r p 1.
Per esempio, se p = 5, abbiamo 3 +5 2 = 0 e 3 +5 3 = 1, mentre
3 5 3 = 4 e 4 5 4 = 1.

1.1

Il campo dei numeri complessi

Si consulti il Capitolo 7 degli Appunti del Professor Gianfranco Niesi, Dipartimento di Matematica, Universit`a di Genova: Appunti per il corso di
Matematica Discreta, C.S. in Informatica, Anno Accademico 2005-2006.
Link:
http://www.dima.unige.it/niesi/EML/MD05appunti.pdf
oppure si consultino le tre sezioni ai seguenti indirizzi http://
college.cengage.com/mathematics/larson/elementary linear/4e/shared/downloads/c08s1.pdf
college.cengage.com/mathematics/larson/elementary linear/4e/shared/downloads/c08s2.pdf
college.cengage.com/mathematics/larson/elementary linear/4e/shared/downloads/c08s3.pdf

Chapter 2
Introduzione agli spazi
vettoriali
2.1

Introduzione ai vettori ed al prodotto interno

In Fisica ma anche nella vita di tutti i giorni dobbiamo continuamente misurare qualcosa. Alcune di queste grandezze le possiamo misurare con un
numero reale: saldo del conto corrente, altezza, et`a, etc. Ad altre grandezze
corrisponde non solo una quantit`a rappresentata da un numero ma anche
una direzione (con/senza verso). Per esempio,
La forza di gravit`a terrestre, la cui direzione e verso vanno dal punto
in cui vi trovate verso il centro della terra;
La forza di gravit`a su Giove (molto maggiore della forza di gravit`a
terrestre);
La forza esercitata in un punto preciso. Ha una grandezza, una direzione ed un verso ben precisi;
La velocit`a istantanea di unautomobile. Non conta soltanto il valore,
per esempio 120 Km/ora, ma anche la direzione e verso di marcia.
I vettori sono una rappresentazione astratta delle grandezze che hanno una
direzione (e talvolta verso).
` importante distinguere tra vettore liberi e vettore applicati. Se in auE
tomobile viaggiamo a velocit`a costante lungo una linea retta, al tempo t ci
troveremo in un determinato punto P della retta, mentre al tempo successivo
t + 10 ci troveremo in un altro punto Q. Se misuriamo la velocit`a istantanea
5

CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

nel punto P (velocit`a misurata + direzione) e poi nel punto Q, otterremo lo


stesso risultato. Lo stesso vettore `e applicato prima nel punto P e poi nel
punto Q.
In generale un vettore `e caratterizzato da (a) lunghezza (o grandezza,
o modulo, o quantit`a) che `e misurata da un valore in un campo numerico
(vedi Capitolo 1); (b) direzione. Possiamo sempre moltiplicare un vettore
per uno scalare, che `e un elemento del campo numerico con cui misuriamo le
lunghezze: Se A `e un vettore e c uno scalare, allora cA rappresenta il vettore
che ha la stessa direzione di A ma lunghezza c volte la lunghezza di A.
Possiamo misurare la direzione ed il verso? La direzione di un vettore non
`e misurabile con un numero. Possiamo soltanto sapere quando due vettori A
e B hanno la stessa direzione:
A e B hanno la stessa direzione se esiste uno scalare c del campo
numerico tale che A = cB.
Se il campo numerico `e totalmente ordinato, come nel caso dei numeri
reali oppure i numeri razionali, possiamo dire anche se hanno lo stesso verso:
A e B hanno stessa direzione e verso se esiste uno scalare c > 0 tale che
A = cB. A e B hanno stessa direzione ma verso opposto se esiste c < 0 tale
che A = cB.
Il campo dei numeri complessi non ha un ordinamento naturale. Quindi
i vettori complessi hanno una direzione, ma non un verso.
Oltre alla moltiplicazione per uno scalare, i vettori ammettono unaltra
operazione, che `e detta somma o addizione di vettori. Per spiegare la somma
vettoriale, immaginiamo di effettuare il seguente esperimento. Appoggiamo
una palla enorme in un punto preciso del piano (campo di calcio). Immaginiamo che due persone Pinco e Pallino spingano la palla con forza, Pinco in
direzione Nord e Pallino in direzione Ovest. La palla riceve una spinta rappresentata dal vettore A (grandezza, direzione, verso) verso nord e unaltra
spinta rappresentata dal vettore B verso ovest. In che direzione si muover`a
la palla? Se le lunghezze dei due vettori sono uguali (cioe, pari spinta), allora
la palla comincer`a a muoversi verso la direzione nordovest, che `e la direzione
della retta che biseca langolo di novanta gradi formato dalla retta Nord e la
retta Ovest. La spinta totale che riceve la palla `e rappresentata dal vettore
A + B. Se la lunghezza del vettore A `e1 (si scrive ||A|| = 1) e se ||B|| = 1,
allora la lunghezza del vettore A + B `e 2 (non 2 come si potrebbe pensare).
Se Pinco spinge da sud verso nord e Pallino da nord verso sud con una
stessa forza, la palla non si muove nonostante lo sforzo di entrambi. La

2.2. SPAZI VETTORIALI

somma di due vettori di pari lunghezza e direzione ma di verso opposto `e


nulla!

Figure 2.1: Forza e vettori

2.2

Spazi vettoriali

Un punto v nello spazio di assi Cartesiani xyz `e rappresentato da una terna


v = (vx , vy , vz ) di numeri reali, le sue coordinate Cartesiane. La prima coordinata vx si ottiene proiettando perpendicolarmente il punto v nel piano
z=0, ottenendo il vettore vxy poi proiettando il punto ottenuto sullasse delle
x. Similmente per le altre due coordinate vy e vz .

Figure 2.2: Coordinate del punto v

CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

~ che va dallorigine
Un punto P determina univocamente un vettore 0P
degli assi al punto P . Questo vettore si indicher`a con il punto P stesso.
~ .
Quindi parleremo di vettore P intendendo il vettore 0P
I vettori possono essere sommati coordinata per coordinata. Per esempio,
se P = (2, 3, 4) e Q = (1, 2, 3) allora P + Q = (3, 5, 7). Geometricamente il
punto P + Q si ottiene costruendo il parallelogramma di vertici P , 0 e Q. Il
quarto vertice `e proprio P + Q. Si veda Figura 3.1.

Figure 2.3: Somma di vettori


I vettori possono essere moltiplicati per uno scalare. Se P `e un vettore
nello spazio allora rP `e un altro vettore che sta sempre nella retta, passante
per lorigine, determinata dal vettore P . Per esempio, se P = (3, 2, 1) allora
5P = (15, 10, 5).
In generale, possiamo considerare in maniera astratta un insieme di vettori che possono essere sommati tra loro e moltiplicati per uno scalare che `e
un elemento di un campo numerico.
Definition 2.2.1. Sia F un campo numerico. Uno spazio vettoriale su F `e

2.2. SPAZI VETTORIALI

un insieme V di vettori con somma vettoriale + : V V V e prodotto per


uno scalare : F V V che soddisfano gli assiomi seguenti:
SV1: P + (Q + R) = (P + Q) + R;
SV2: P + Q = Q + P ;
SV3: 0 + P = P ;
SV4: P + (P ) = 0;
SV5: (r + s)P = rP + sP ;
SV6: (rs)P = r(sP );
SV7: r(P + Q) = rP + rQ.
Si noti che il vettore nullo viene indicato con 0 e che per brevit`a scriviamo
rP al posto di r P .
Si noti anche che lassioma (SV4) deriva da (SV5):
P + (P ) = (1 + (1))P = 0P = 0.

Figure 2.4: Vettori

10

2.3

CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

Prodotto interno

In questa sezione definiamo il prodotto interno di vettori di R3 . Analoghe


definizioni possono essere date per vettori di Rn con n arbitrario.
Un punto A dello spazio rappresenta anche il vettore che va dallorigine
delle coordinate Cartesiane sino al punto A. Quindi in seguito parleremo di
punto A oppure di vettore A senza alcuna distinzione.
Se A = (a1 , a2 , a3 ) e B = (b1 , b2 , b3 ) sono due vettori nello spazio, allora
il prodotto interno di A e B `e definito come segue:
A B = a1 b 1 + a2 b 2 + a3 b 3 .
Per esempio, se A = (1, 3, 2) e B = (1, 4, 3) allora AB = 1+12+6 = 17.
Il prodotto interno verifica le seguenti propriet`a.
PS1 A B = B A;
PS2 A (B + C) = A B + A C = (B + C) A;
PS3 Se x `e uno scalare (numero) (xA) B = x(A B) = A (xB);
PS4 Se 0 `e il vettore nullo, allora 0 0 = 0; in ogni altro caso A A > 0.
La lunghezza del vettore A `e definita come

||A|| = A A.
La parte restante di questa sezione ha lo scopo di determinare il significato
geometrico del prodotto interno:
A B = ||A|| ||B||cos(),
[
dove `e langolo formato dai vettori A e B (ovvero langolo AOB).
Lemma 2.3.1. (Disuguaglianza di Schwartz)
(A B)2 (A A)(B B).
Proof. Siano x e y numeri reali. Applicando la propriet`a (PS4) abbiamo:
0 (xA + yB) (xA + yB).
Sviluppando otteniamo:
0 x2 (A A) + 2xy(A B) + y 2 (B B).

2.3. PRODOTTO INTERNO

11

Sostituendo x = B B and y = A B si ricava


0 (BB)2 (AA)2(BB)(AB)2 +(BB)(AB)2 (BB) = (BB)2 (AA)(BB)(AB)2 .
Dividiamo per B B, da cui
0 (B B)(A A) (A B)2 .
Riportando al primo membro (A B)2 si ottiene la tesi.
Corollary 2.3.2.
|A B| ||A|| ||B||.
Lemma 2.3.3. ||A + B|| ||A|| + ||B|| ed inoltre ||xA|| = x||A||,
Proof. Sviluppiamo (A + B) (A + B) = A A + 2(A B) + B B = ||A||2 +
2(A B) + ||B||2 ||A||2 + 2||A|| ||B|| + ||B||2 = (||A|| + ||B||)2 .
Distanza tra due punti e perpendicolarit`a
La lunghezza del vettore A `e pari alla distanza del punto A dallorigine delle
coordinate Cartesiane. Se A e B sono due punti dello spazio, la distanza tra A
e B `e la lunghezza del vettore applicato che va da A a B. Se riportiamo questo
vettore applicato nellorigine delle coordinate Cartesiane, cio`e consideriamo
il punto B A, otteniamo che la distanza tra A e B `e
||B A||.
Quando due vettori sono perpendicolari od ortogonali?
Proposition 2.3.4. Due vettori A e B sono perpendicolari sse il loro prodotto
interno A B `e 0.
Proof. Due vettori A e B sono perpendicolari se e solo se la distanza tra A
e B e la distanza tra A e B sono uguali (langolo formato dai vettori A e
B `e uguale allangolo formato dai vettori A e B). Questo significa che
||A B|| = ||A (B)|| = ||A + B||.
Calcoliamo con i quadrati:
(A B) (A B) = (A A) 2(A B) + (B B) = (A A) + 2(A B) + (B B).
Semplificando otteniamo
4(A B) = 0,
da cui segue A B = 0.

12

CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

Figure 2.5: Prodotto interno dei vettori A e B


Proposition 2.3.5. Siano A e B due vettori, e sia langolo da essi formato.
Allora si ha:
A B = ||A|| ||B||cos().
Proof. Sia langolo formato dai vettori A e B. Se proiettiamo il vettore
A sulla retta che contiene B, otteniamo un vettore cB (per un certo c
R) che ha la stessa direzione di B. Dalla trigonometria elementare si ha
che la lunghezza c||B|| di cB `e uguale a ||A||cos(), mentre la lunghezza di
A cB `e uguale a ||A||sen() ed `e perpendicolare al vettore B. Utilizzando
la Proposizione 2.3.4 si ha:
(A cB) B = A B c(B B) = 0
da cui
c = (A B)/(B B) = (A B)/||B||2 .
Quindi, da
c||B|| = ||A||cos()
sostituendo a c il suo valore otteniamo:
((A B)/||B||2 )||B|| = ||A||cos().
Semplificando ricaviamo:
(A B)/||B|| = ||A||cos().
da cui si ha la tesi.
Due vettori sono allineati se cos() = +1 oppure cos() = 1, da cui si
ha:
|A B| = ||A|| ||B||.

Chapter 3
Rette e piani
Definition 3.0.1. Un equazione lineare nelle incognite x1 , . . . , xn a coefficienti nel campo numerico F `e unequazione:
a1 x 1 + + an x n = b
con a1 , . . . , an , b F. Gli elementi ai sono detti coefficienti, mentre b `e il
termine noto. Se b = 0, lequazione `e detta lineare omogenea. Una soluzione
dellequazione lineare `e una n-pla (ordinata) (r1 , . . . , rn ) di elementi di F tale
che
a1 r1 + + an rn = b.
In genere utilizzeremo come campo numerico linsieme R dei numeri reali.

3.1

Rette nel piano

Retta perpendicolare ad un dato vettore


Siano x, y variabili. Cosa descrive lequazione 3x+2y = 0? Lequazione
3x+2y = 0 esprime che il prodotto interno (3, 2)(x, y) = 0 `e nullo. Ossia il vettore (x, y) `e perpendicolare al vettore (3, 2). Quindi lequazione
esprime linsieme di tutti i vettori perpendicolari al vettore (3, 2). Il
luogo dei punti
{(x, y) : 3x + 2y = 0}
`e la retta passante per lorigine e perpendicolare al vettore (3, 2). Per
esempio, il punto (2, 3) appartiene alla retta.
Se conosciamo un punto sulla retta, per esempio il punto (2, 3), allora
tutti gli altri possono essere ottenuti moltiplicando il vettore (2, 3) per
lo scalare t numero reale arbitrario (equazione parametrica della retta):
x = 2t;

y = 3t, al variare del reale t.


13

14

CHAPTER 3. RETTE E PIANI


Retta di equazione ax + by = c con c 6= 0
Per capire lequazione 3x + 2y = 5, consideriamo un vettore, per esempio P = (1, 1), tale che
(3, 2) (1, 1) = 3 1 + 2 1 = 5.
Consideriamo un qualsiasi vettore, per esempio (2, 3) che sta nella
retta 3x + 2y = 0 passante per lorigine e perpendicolare al vettore
(3, 2). Allora, linsieme dei punti (1, 1) + t(2, 3) = (1 + 2t, 1 3t) sono
tutti e soli i punti che verificano lequazione 3x + 2y = 5. Quindi la
seguente equazione parametrica descrive la retta:
x = 1 + 2t;

y = 1 3t, al variare del reale t.

La retta data `e parallela alla retta di equazione 3x + 2y = 0 e passa


per il punto (1, 1).

Figure 3.1: Retta (non passante per lorigine) perpendicolare al vettore in


rosso

3.1. RETTE NEL PIANO

15

Figure 3.2: Rette nel piano


Dato un vettore A ed un punto P nel piano, determinare
lequazione della retta passante per P e parallela alla retta
determinata dal vettore A
Sia A = (3, 2) e P = (1, 1). Prima determiniamo lequazione della
retta passante per (0, 0) e per A. Lequazione della retta `e ax + by = 0.
Dobbiamo scoprire i valori di a e b. Siccome A sta nella retta abbiamo
3a + 2b = 0,
da cui b = (3/2)a. Scegliamo a = 2 e quindi b = 3. Allora
lequazione della retta che contiene il vettore A `e
2x 3y = 0.
La nuova retta avr`a equazione
2x 3y = c
per un certo c 6= 0. Il punto P sta in questa retta, quindi c = 2
3(1) = 5. Quindi lequazione della retta passante per P e parallela

16

CHAPTER 3. RETTE E PIANI


alla retta di direzione il vettore A `e:
2x 3y = 5.
Dati due punti distinti A e B nel piano, determinare lequazione
della retta passante per A e B
Sia A = (2, 2) e B = (2, 6). La retta passante per A e B conterr`a
~ Riportiamo tale vettore nellorigine tramite il
il vettore applicato AB.
~ avr`a la stessa lunghezza
punto B A = (4, 4). Quindi il vettore AB
e direzione del vettore B A.
Equazione della retta contenente il vettore BA = (4, 4): dallequazione
generica ax + by = 0 e dal fatto che B A sta nella retta si ricava che
4a + 4b = 0 da cui a = b. Scegliamo a = b = 1. Quindi lequazione `e
x + y = 0.
Equazione della retta parallela alla retta di equazione x + y = 0 e
contenente il punto B = (2, 6): Da x+y = c sostituendo le coordinate
del punto B si ricava c = 2 + 6 = 4.
Quindi lequazione della retta `e x + y = 4. Anche il punto A sta nella
retta in quanto 2 + 2 = 4.
Come passare dallequazione parametrica di una retta allequazione
ax + by = c
Se descriviamo una retta con unequazione parametrica, per esempio
x = 5 + 2t;

y =2+t

ricaviamo t da una delle due equazioni e lo sostituiamo nellaltra. Da


t = y 2 si ottiene x = 5 + 2(y 2) da cui x 2y = 1.

3.2

Rette e piani nello spazio

Piano passante per lorigine e perpendicolare ad un dato vettore


Nello spazio abbiamo tre coordinate. Consideriamo tre variabili x, y, z.
Cosa descrive lequazione 3x + 2y + z = 0? Un piano passante per
lorigine. Consideriamo il vettore (3, 2, 1) ed il vettore (x, y, z). Lequazione
3x + 2y + z = 0 esprime che il prodotto interno (3, 2, 1) (x, y, z) = 0
`e nullo. Ossia il vettore (x, y, z) `e perpendicolare al vettore (3, 2, 1).
Quindi lequazione esprime linsieme di tutti i vettori perpendicolari al
vettore (3, 2, 1). Il luogo dei punti
{(x, y, z) : 3x + 2y + z = 0}

3.2. RETTE E PIANI NELLO SPAZIO

17

`e il piano passante per lorigine e perpendicolare al vettore (3, 2, 1).


Lequazione parametrica del piano si ottiene come segue. Consideriamo
due punti P e Q nel piano che non siano allineati rispetto alle rette
del piano passanti per lorigine degli assi (non possiamo considerare
soltanto un punto perche il piano `e bidimensionale). Per esempio, P =
(1, 1. 1) e Q = (1, 0, 3). Allora tutti i punti del piano si ottengono
come combinazione lineare di P e Q:
tP + rQ, al variare di r, t numeri reali,
In altri termini tutti i punti del tipo
x = t r;

y = t;

z = t + 3r.

(3.1)

Piano di equazione ax + by + cz = d con d 6= 0


Lequazione 3x + 2y + z = 4 descrive invece un piano parallelo al piano
3x + 2y + z = 0. Se R = (1, 1, 1) `e un punto del piano 3x + 2y + z = 4,
allora i punti del nuovo piano si ottengono parametricamente da (3.1)
come segue:
x0 = 1 + t r;

y = 1 t;

z = 1 t + 3r.

Piano passante per tre punti non allineati


Siano P, Q, R tre punti non allineati (cioe, per i tre punti non passa
una retta). Consideriamo i vettori applicati P~Q e P~R. Li riportiamo
allorigine degli assi, considerando il vettore Q P ed il vettore R P .
Questi due vettori non sono allineati per lipotesi iniziale che i tre punti
non sono allineati. Il piano passante per lorigine e contenente i vettori
Q P e R P ha la seguente equazione parametrica:
t(Q P ) + r(R P ), al variare di r, t numeri reali,
Allora il piano passante per P, Q, R `e descritto da
P + t(Q P ) + r(R P ), al variare di r, t numeri reali,
Infatti, ponendo r = t = 0 si ottiene il punto P , con t = 1 e r = 0 si
ottiene Q, ed infine con t = 0 e r = 1 si ha il punto R.
Esempio: P = (1, 1, 1), Q = (1, 2, 1) ed R = (5, 0, 7). Il piano passante
per lorigine ha equazione parametrica:
x = 4r;

y = t r;

z = 6r.

18

CHAPTER 3. RETTE E PIANI


Il piano passante per i tre punti ha equazione parametrica:
x = 1 + 4r;

y = 1 + t r;

z = 1 + 6r.

Trasformiamo lequazione parametrica in una non parametrica: r =


(x 1)/4, da cui z = 1 + 6(x 1)/4 = 1 + 3(x 1)/2. Infine si ha
2z = 3x 3 + 2 = 3x 1:
3x + 2z = 1

Chapter 4
Sistemi lineari
Definition 4.0.1. Un sistema lineare di m equazioni nelle incognite x1 , . . . , xn
`e un insieme di equazioni lineari:
a11 x1 + + a1n xn
a21 x1 + + a2n xn
...
am1 x1 + + amn xn

= b1
= b2
... ...
= bm

Il sistema lineare `e omogeneo se bi = 0 per ogni i. Una soluzione del sistema


`e una n-pla (r1 , . . . , rn ) di elementi del campo numerico tali che
a11 r1 + + a1n rn
a21 r1 + + a2n rn
...
am1 r1 + + amn rn

4.1

=
=
...
=

b1
b2
...
bm

Due equazioni in due variabili

Consideriamo il sistema seguente:


3x + 2y = 5
x + 4y = 3
La prima `e lequazione di una retta parallela alla retta di equazione
3x + 2y = 0 (passante per lorigine e perpendicolare al vettore A =
(3, 2)). La seconda `e lequazione di una retta parallela alla retta di
equazione x + 4y = 0 (passante per lorigine e perpendicolare al vettore
B = (1, 4)).
Cerchiamo le soluzioni comuni alle due equazioni: un vettore (x,y) il
cui prodotto interno con (3,2) d`a come risultato 5; e con (1, 4) d`a come
risultato 3.
19

20

CHAPTER 4. SISTEMI LINEARI


Numero di possibili soluzioni in generale. Il sistema ammette
ununica soluzione se le due rette non sono parallele. Se le rette sono
parallele, allora non abbiamo soluzioni se le rette sono distinte, mentre
abbiamo infinite soluzioni se le due rette coincidono.
Numero delle soluzioni nel caso particolare.
Per sapere se le rette sono parallele oppure no, calcoliamo il prodotto
interno di A e B (si veda Sezione 2.3):
A B = (3, 2) (1, 4) = 3 + 8 = 11.

Siccome ||A|| = 13 e ||B|| = 17, abbiamo per langolo tra i vettori


A e B:
p

cos() = (A B)/ 13 17 = 11/ 221 = 121/221 < 1.


Quindi le rette non sono parallele. Se lo fossero cos() sarebbe +1
oppure 1.
Calcolo dellunica soluzione con il metodo di eliminazione di
Gauss.
Calcoliamo lunica soluzione del sistema
3x + 2y = 5
x + 4y = 3
Lidea `e di trasformare il sistema lineare dato in uno equivalente in cui
la variabile x non compare nella seconda equazione.
Moltiplichiamo la prima equazione per 1/3 ed otteniamo il nuovo sistema
x + 32 y = 53
x + 4y = 3
La retta descritta dallequazione equazione x + 23 y = 35 `e la stessa
descritta dallequazione 3x + 2y = 5 (Perche?). A questo punto la
seconda equazione x + 4y = 3 e la nuova equazione x + 23 y = 53 hanno lo
stesso termine in x. Sottraiamo la prima equazione dalla seconda per
ottenere il sistema
x + 23 y = 53
10
y
3

4
3

da cui y = 25 . Sostituendo nella prima equazione si ottiene x = 75 . La


soluzione `e quindi
7
2
x= ;
y= .
5
5

4.1. DUE EQUAZIONI IN DUE VARIABILI

21

Un altro esempio con il metodo di eliminazione di Gauss.


Consideriamo un altro esempio:
x + 2y = 3
4x + 5y = 6
Calcoliamo il numero delle soluzioni. Sia A = (1, 2) e B = (4, 5). Allora
abbiamo:
p


cos() = (A B)/||A|| ||B|| = 14/ 5 41 = 14/ 205 = 196/221 < 1.
Quindi le due rette non sono parallele ed esiste ununica soluzione.
Calcoliamo la soluzione. Moltiplichiamo la prima equazione per 4 e la
sottraiamo alla seconda. Si ottiene il sistema:
x + 2y =
3
3y = 6
da cui si ricava y = 2 e, sostituendo 2 per y nella prima equazione, si
ottiene x = 1.
Un esempio di sistema con infinite soluzioni.
Consideriamo il seguente sistema lineare:
x + 2y = 3
2x + 4y = 6
Calcoliamo il numero delle soluzioni. Sia A = (1, 2) e B = (2, 4). Allora
abbiamo:


cos() = (A B)/||A|| ||B|| = 10/ 5 20 = 10/ 100 = 10/10 = 1.
Quindi le due rette sono parallele, anzi sono uguali. La seconda equazione
si scrive come 2(x + 2y) = 2 3. Quindi il sistema lineare ammette
infinite soluzioni.
Un esempio di sistema con nessuna soluzione. Consideriamo
il seguente sistema lineare:
x + 2y = 3
2x + 4y = 12
Calcoliamo il numero delle soluzioni. Sia A = (1, 2) e B = (2, 4). Allora
come prima abbiamo cos() = 1. Quindi le due rette sono parallele,
ma non uguali. La seconda equazione si scrive come 2(x + 2y) = 2 6
e corrisponde alla retta x + 2y = 6 che `e parallela alla retta della prima
equazione. Quindi il sistema lineare non ammette soluzione.

22

CHAPTER 4. SISTEMI LINEARI


Criteri da applicare nel metodo di eliminazione di Gauss.
Abbiamo applicato i seguenti criteri:
Se ax + by = c `e lequazione di una retta, moltiplicando per una
stessa costante d entrambi i membri delluguaglianza si ottiene
unequazione
dax + dby = dc
che descrive la stessa retta. Se il prodotto interno di (a, b)(x, y) =
c allora il prodotto interno (da, db) (x, y) = dc. Il vettore (da, db)
sta nella stessa retta contenente il vettore (a, b).
Quindi in un sistema lineare possiamo sostituire lequazione ax +
by = c con lequazione dax + dby = dc senza che cambino le
soluzioni del sistema.
Consideriamo il sistema lineare:
a1 x + b 1 y = c 1
a2 x + b 2 y = c 2
Possiamo, per esempio, sostituire la prima equazione con una combinazione lineare delle due equazioni senza che le soluzioni del sistema cambino. In altre parole, sostituiamo lequazione a1 x+b1 y =
c1 con lequazione d1 (a1 x + b1 y) + d2 (a2 x + b2 y) = d1 c1 + d2 c2 , ottenendo il nuovo sistema lineare:
(d1 a1 + d2 a2 )x + (d2 a2 + d2 b2 )y = d1 c1 + d2 c2
a2 x + b 2 y = c 2

4.2

Due o tre equazioni in tre variabili

1. Consideriamo il sistema lineare seguente:


3x + 2y + z = 0
x + 4y + 3z = 0
x+y+z = 0
Il sistema `e omogeneo perche il vettore dei termini noti `e il vettore
nullo (0, 0, 0).
La prima `e lequazione di un piano passante per lorigine e perpendicolare al vettore A = (3, 2, 1). La seconda `e lequazione di un piano
passante per lorigine e perpendicolare al vettore B = (1, 4, 3). La
terza `e lequazione di un piano passante per lorigine e perpendicolare
al vettore C = (1, 1, 1).

4.2. DUE O TRE EQUAZIONI IN TRE VARIABILI

23

(i) Lintersezione dei tre piani `e un piano sse i tre piani sono coincidenti
(lo stesso piano) sse i tre vettori A, B e C sono collineari (nella
stessa retta per lorigine);
(ii) Lintersezione dei tre piani `e una retta sse i tre vettori A, B e C
non sono collineari ma si trovano in uno stesso piano passante per
lorigine;
(iii) Lintersezione dei tre piani `e un punto sse (1) i vettori A e B non
si trovano nella stessa retta; (2) il vettore C non si trova nel piano
generato dai vettori A e B.
Ritorniamo al sistema lineare omogeneo precedente. Calcoliamo se i
piani sono paralleli. Siano A = (3, 2, 1), B = (1, 4, 3) e C = (1, 1, 1).
Allora abbiamo:


cos(AB ) = (A B)/||A|| ||B|| = 14/ 14 26 = 14/ 364 < 1.
Quindi A e B non sono collineari ma generano un piano. Se C fosse nel
piano generato da A e B, allora esisterebbero c e d tali che c(3, 2, 1) +
d(1, 4, 3) = (1, 1, 1), da cui si ha 3c + d = 1, 2c + 4d = 1 e c + 3d = 1.
Sottraendo la seconda dalla prima si ricava: c = 3d. Sostituendo nella
terza si ottiene 3d + 3d = 0, cioe d = 0 e quindi c = 0. Si ottiene
cos` che C non si trova nel piano generato da A e B. Quindi lunica
soluzione `e il vettore nullo.
2. Consideriamo il sistema seguente:
3x + 2y + z = 5
x + 4y + 3z = 3
x+y+z = 0
La prima `e lequazione di un piano parallelo al piano di equazione
3x + 2y + z = 0 (passante per lorigine e perpendicolare al vettore
A = (3, 2, 1)). La seconda `e lequazione di un piano parallelo al piano
di equazione x + 4y + 3z = 0 (passante per lorigine e perpendicolare
al vettore B = (1, 4, 3)). La terza `e lequazione del piano passante per
lorigine e perpendicolare al vettore C = (1, 1, 1).
Lintersezione dei tre piani `e un punto se (1) i vettori A e B non si
trovano nella stessa retta; (2) il vettore C non si trova nel piano generato dai vettori A e B. Dai fatti calcoli fatti nel punto precedente
per il sistema omogeno si ottiene che C non si trova nel piano generato
da A e B. Quindi la soluzione `e un punto. Applichiamo il metodo di
eliminazione di Gauss.

24

CHAPTER 4. SISTEMI LINEARI


Scambiamo la prima equazione con la terza. Si ottiene il sistema:
x+y+z = 0
3x + 2y + z = 5
x + 4y + 3z = 3
Facciamo scomparire x dalla seconda e terza equazione.
Sottraiamo 3 volte la prima equazione dalla seconda;
Sottraiamo la prima equazione dalla terza;
Si ottiene:
x +

y + z = 0
y 2z = 5
3y + 2z = 3

Facciamo scomparire y dalla terza equazione sommando tre volte la


seconda:
x + y + z = 0
y 2z = 5
4z = 18
Quindi z = 9/2, y = 4 e infine dalla prima equazione x = 4 + 9/2 =
1/2.
3. Consideriamo il sistema seguente:
3x + 2y + z = 5
x + 4y + 3z = 3
La prima `e lequazione di un piano parallelo al piano di equazione
3x + 2y + z = 0 (passante per lorigine e perpendicolare al vettore
A = (3, 2, 1)). La seconda `e lequazione di un piano parallelo al piano
di equazione x + 4y + 3z = 0 (passante per lorigine e perpendicolare
al vettore B = (1, 4, 3)).
Lintersezione di due piani, se non paralleli, `e una retta.
Cerchiamo le soluzioni comuni alle due equazioni: un vettore (x, y, z)
il cui prodotto interno con (3, 2, 1) d`a come risultato 5; e con (1, 4, 3)
d`a come risultato 3.
Calcoliamo se i piani sono paralleli. Sia A = (3, 2, 1) e B = (1, 4, 3).
Allora abbiamo:


cos() = (A B)/||A|| ||B|| = 14/ 14 26 = 14/ 364 < 1.

4.2. DUE O TRE EQUAZIONI IN TRE VARIABILI

25

Quindi i due piani non sono paralleli.


Applichiamo il metodo di eliminazione di Gauss. Scambiamo la prima
e la seconda equazione ottenendo
x + 4y + 3z = 3
3x + 2y + z = 5
Sottraiamo alla seconda equazione tre volte la prima equazione ottenendo: x+4(2-4z)/5 +3z = 3
x +

4y
+ 3z = 3
10y 8z = 4

. Sostituiamo nella prima equazione per ottenere


da cui si ha y = 24z
5
le soluzioni in termini del parametro z:
x = (3 (16/5))z + (3 (8/5));

y=

2 4z
.
5

26

CHAPTER 4. SISTEMI LINEARI

Chapter 5
Matrici
5.1

Lo spazio vettoriale delle matrici

Cominciamo con lintrodurre il concetto di matrice.


Definition 5.1.1. Una matrice A = (Ai,j ) con m righe ed n colonne (in
breve una matrice m n) sul campo F `e una famiglia di m n elementi di F.
Ciascun elemento ha un indice di riga ed un indice di colonna. Lelemento
Ai,j ha indice di riga i ed indice di colonna j con 1 i m e 1 j n. La
matrice si rappresenta come segue:

a11 a12 . . . a1n


a21 a22 . . . a2n

A=
... ... ... ...
am1 am2 . . . amn
Se A `e una matrice m n, denotiamo con Ai il vettore che `e la riga i
della matrice, e con Aj il vettore che `e la colonna j della matrice:

a1j
a2j



Aj =
Ai = ai1 ai2 . . . ain ;
...
amj
Una matrice `e quadrata se il numero di righe `e uguale al numero di
colonne.
Una matrice quadrata A `e
1. simmetrica se Aij = Aji per ogni i, j.
2. diagonale se Aij = 0 per i 6= j.
27

28

CHAPTER 5. MATRICI
3. la matrice identit`a se `e diagonale e Aii = 1 per ogni i (la matrice
identit`a si indica con I).
4. triangolare superiore se Aij = 0 per ogni i > j.

La trasposta di una matrice A `e una matrice At le cui righe sono le colonne


di A e le cui colonne sono le righe di A. In altre parole, Atij = Aji per ogni i
e j. Se A `e una matrice m n allora la sua trasposta `e una matrice n m.
Proposition 5.1.1. Sia A una matrice. Allora si ha:
1. (At )t = A.
2. Se A `e simmetrica e quadrata allora At = A.
Example 2. Le seguenti matrici sono rispettivamente simmetrica, diagonale
e la matrice identit`a:

3 2 1
3 0 0
1 0 0
A= 2 4 4
B= 0 4 0
I= 0 1 0
1 4 2
0 0 2
0 0 1

1


A2 = 2 4 4 ;
A3 = 4
2
La trasposta della matrice simmetrica A coincide con A, mentre la matrice
C qui di seguito non `e simmetrica e la sua trasposta non coincide con C.

3 2 7
3 1 22
C= 1 4 9
Ct = 2 4 1
22 1 0
7 9 0
La seguente matrice D `e triangolare superiore:

3 2 7
D= 0 4 9
0 0 5
Proposition 5.1.2. Linsieme delle matrici mn a coefficienti in un campo
F costituisce uno spazio vettoriale rispetto alloperazioni di somma componente per componente e prodotto per uno scalare:

a11 a12 . . . a1n


b11 b12 . . . b1n
a11 + b11 a12 + b12 . . . a1n + b1n
a21 a22 . . . a2n b21 b22 . . . b2n a21 + b21 a22 + b22 . . . a2n + b2n

. . . . . . . . . . . . +. . . . . . . . . . . . = . . .

...
...
...
am1 am2 . . . amn
bm1 bm2 . . . bmn
am1 + bm1 am2 + bm2 . . . amn + bmn

5.2. PRODOTTO DI UNA MATRICE PER UN VETTORE

29

Figure 5.1: Altri due esempi di matrice triangolare superiore

a11 a12
a21 a22
c
. . . . . .
am1 am2


. . . a1n
ca11 ca12

. . . a2n ca21 ca22


=
... ... ...
...
. . . amn
cam1 cam2

Example 3.

2 3
1 2
3 5
1 5 + 3 4 = 4 1
3 2
5 6
8 8

5.2

. . . ca1n
. . . ca2n

... ...
. . . camn

2 3
8 12
4 1 5 = 4 20
3 2
12 8

Prodotto di una matrice per un vettore

Forma matriciale di un sistema lineare


Consideriamo il sistema lineare:
a11 x1 + + a1n xn
a21 x1 + + a2n xn
...
am1 x1 + + amn xn

= b1
= b2
... ...
= bm

Definiamo la matrice A dei coefficienti del sistema ed i vettori colonna delle


incognite e dei termini noti:

a11 a12 . . . a1n


x1
b1
a21 a22 . . . a2n
x2
b2

A=
x=
b=
... ... ... ... ;
... ;
...
am1 am2 . . . amn
xn
bm
Allora si vede facilmente che la prima equazione lineare a11 x1 + + a1n xn =
b1 si ottiene prendendo il prodotto interno del vettore
riga

x1
x2



A1 = a11 a12 . . . a1n e del vettore colonna


. . . e ponendolo uguale
xn

30

CHAPTER 5. MATRICI

a b1 . Similmente per le altre equazioni lineari. I prodotti interni di questo


tipo si rappresentano con il prodotto di matrici:

a11 a12 . . . a1n


x1
a11 x1 + + a1n xn
a21 a22 . . . a2n x2 a21 x1 + + a2n xn

... ... ... ... ... =

...
am1 am2 . . . amn
xn
am1 x1 + + amn xn
Quindi il sistema lineare si rappresenta globalmente come segue

a11 a12 . . . a1n


x1
b1
a21 a22 . . . a2n x2 b2

... ... ... ... ... = ...


am1 am2 . . . amn
xn
bm
Example 4. La matrice quadrata dei coefficienti del sistema lineare
3x + 2y = 5
x + 4y = 3
`e una matrice 2 2:

3 2
1 4

Il sistema lineare si pu`o scrivere in notazione matriciale come segue:



   
3 2 x
5
=
1 4 y
3
I due vettori [x, y] e [5, 3] sono stati scritti come vettori colonna, cio`e come
matrici 2 1.
 
x
Il prodotto interno 3x+2y del vettore [3, 2] con il vettore
`e il prodotto
y
interno
della prima riga della matrice con lunica colonna del vettore colonna
 
x
. Allo stesso modo il prodotto interno x + 4y del vettore [1, 4] con il
y
 
x
vettore
`e il prodotto interno della seconda riga della matrice con lunica
y
 
x
colonna del vettore colonna
. Quindi abbiamo:
y

  

3 2 x
3x + 2y
=
1 4 y
x + 4y

5.3. PRODOTTO DI MATRICI

31

Example 5. Il sistema
3x + 2y + z = 5
x + 4y + 3z = 3
x+y+z = 0
si rappresenta in notazione matriciale come segue:


3 2 1
x
5
1 4 3 y = 3
1 1 1
z
0
Come prima facciamo il prodotto interno tra la prima (rispettivamente
secx

onda e terza) riga della matrice con lunica colonna del vettore y per
z
ottenere



3 2 1
x
3x + 2y + z
5
1 4 3 y = x + 4y + 3z = 3
1 1 1
z
x+y+z
0
La precedente equazione matriciale si pu`o anche scrivere come combinazione lineare di vettori colonna:



3
2
1
5

x 1 + y 4 + z 3 = 3 = b
1
1
1
0
con b il vettore di coordinate (5, 3, 0). Cosa significa questa equazione? Ci
chiediamo

se il vettore
b si pu`o scrivere come combinazione lineare dei vettori
2
1
3
1 , 4 and 3 . Lequazione vettoriale ha soluzione perche con tre
1
1
1
vettori linearmente indipendenti possiamo ottenere ogni punto dello spazio.
In particolare, anche il punto b (si veda il Capitolo 7).

5.3

Prodotto di matrici

Tutte le trasformazioni sulle matrici della precedente sezione si ottengono


anche utilizzando il prodotto matriciale che ci accingiamo a definire.
Definition 5.3.1. Sia A = (aij ) una matrice m k e B = (bij ) una matrice
k n. Il prodotto AB di A e B `e una nuova matrice m n le cui componenti

32

CHAPTER 5. MATRICI

sono ottenute come segue (per ogni i e j):


(AB)ij = prodotto interno della riga Ai per la colonna B

k
X

air brj .

r=1

Osserviamo che sia la riga i di A che la colonna j di B hanno k elementi.


Proposition 5.3.1. Il prodotto tra matrici `e associativo ed ammette lelemento
neutro che `e la matrice identica I:
A(BC) = (AB)C;

IA = AI = A.

Il prodotto distribuisce rispetto alla somma:


A(B + C) = (AB) + (AC);

(B + C)A = (BA) + (CA).

Il prodotto non `e in generale commutativo. Esistono matrici A e B tali che


AB 6= BA. Abbiamo inoltre per le matrici trasposte:
(AB)t = B t At .
Infine se c `e uno scalare:
(cA)B = A(cB) = c(AB).

a1
b1
a2
b2
n


Se a =
. . . e b = . . . sono vettori colonna di R , allora il prodotto
an
bn
interno si pu`o scrivere con il prodotto matriciale at b = a1 b1 + + an bn .

Figure 5.2: Prodotto interno come prodotto di matrici 1 n e n 1


Example 6. In questo esempio consideriamo tre matrici:





1 2 1
1 2
3
2 5
A=
B=
C = 4 2 1
4 3
2 2 4
2 2 3

5.3. PRODOTTO DI MATRICI

33

e controlliamo che (AB)C = A(BC). Abbiamo:






7 2 13
41 36 44
AB =
(AB)C =
18
2 32
74 104 116




5 20 20
41 36 44
BC =
A(BC) =
74 104 116
18 8 12
Example 7. In questo esempio verifichiamo che il prodotto non `e commutativo:


 

1 2 3
2
7 2
=
4 3 2 2
18
2
mentre

3
2
2 2



 

1 2
11 12
=
4 3
6 2

Example 8.


1 0
0 1



 
 


3
2
3
2
3
2 1 0
=
=
2 2
2 2
2 2 0 1

Example 9. Un grafo G = (V, E) `e costituito da un insieme finito V =


{v1 , v2 , . . . , vn } di vertici (o nodi) e da un insieme di archi o frecce definite
tramite una relazione binaria E V . Se (v, u) E allora esiste un arco
orientato che si diparte dal vertice v ed arriva al vertice u:
v u.
Un cammino in un grafo `e una sequenza di nodi u0 , u1 , . . . , uk tali che (ui , ui+1 )
E for every 0 i < k.
La matrice di adiacenza del grafo G `e una matrice A di dimensione n n:
(
1 se (vi , vj ) E
Aij =
0 altrimenti.
La somma degli elementi della riga Ai `e pari al numero di archi che escono
dal vertice vi .
Definiamo prodotti matriciali ripetuti della matrice A: A1 = A e Ak+1 =
Ak A (da non confondersi con i vettori colonna di A!). Proviamo per induzione
su k che (Ak )ij `e uguale al numero di cammini di lunghezza k dal nodo vi al
nodo vj . Il risultato `e vero per A1 = A. Un cammino di lunghezza 1 da vi
a vj `e un arco orientato che connette vi a vj . Larco esiste sse Aij = 1 sse
(vi , vj ) E.

34

CHAPTER 5. MATRICI
Supponiamo che il risultato sia vero per Ak e dimostriamolo per Ak+1 :
k+1

(A

)ij =

n
X

(Ak )ir Arj .

r=1

Infatti, un cammino di lunghezza k + 1 da vi a vj lo possiamo spezzare come


un cammino di lunghezza k da vi ad un vertice intermedio vr ed un arco da
vr a vj . Se calcoliamo quanti sono questi cammini di lunghezza k + 1 con
nodo intermedio vr , essi sono pari al numero (Ak )ir di cammini di lunghezza
k da vi a vr se esiste un arco da vr a vj , oppure sono 0 se tale arco non esiste.
In ogni caso `e pari a
(Ak )ir Arj .
Ne segue la conclusione. Quindi, per ogni k, (Ak )ij `e uguale al numero di
cammini di lunghezza k da vi a vj .

Figure 5.3: Prodotto di Matrici

5.4

Moltiplicazione di matrici a blocchi

La moltiplicazione tra matrici si semplifica a volte se utilizziamo la moltiplicazione a blocchi.

5.4. MOLTIPLICAZIONE DI MATRICI A BLOCCHI

35

Siano A e B matrici m n e n p, e sia r un numero minore o uguale


ad n. Possiamo decomporre le due matrici in blocchi:
A = [C|D];

B = [E|F ],

dove C `e di tipo m r, D `e m (n r), E `e r p e F `e (n r) p. Allora


il prodotto matriciale pu`o essere calcolato come segue:
AB = CE + DF.
Se dividiamo A e B in quattro blocchi



 0
C D
C D0
,
A=
;
B=
E0 F 0
E F
allora la moltiplicazione matriciale si esegue come se A e B fossero matrici
2 2:


CC 0 + DE 0 CD0 + DF 0
.
AB =
EC 0 + F E 0 ED0 + F F 0



 0
C D
C D0
una
Example 10. Sia A =
una matrice 2 3 e sia B =
E0 F 0
E F
matrice 3 4. Supponiamo

 che C = [1, 0], D = [5], E = [0, 1], F = [3] da un
2
3
1 1
lato e C 0 =
, D0 =
, E 0 = [1, 0], F 0 = [1, 0] dallaltro.
4 8
0 0
Allora si ha:


2 3
0
1. CC = [1, 0]
= [2, 3] e DE 0 = [5][1, 0] = [5, 0], da cui CC 0 +
4 8
DE 0 = [2, 3] + [5, 0] = [7, 3].


1 1
0
0
2. CD + DF = [1, 0]
+ [5][1, 0] = [1, 1] + [5, 0] = [6, 1].
0 0
3. EC 0 + F E 0 = [7, 8].
4. ED0 + F F 0 = [3, 0].
Quindi


7 3 6 1
AB =
7 8 3 0

36

CHAPTER 5. MATRICI

Chapter 6
Matrici e sistemi lineari
6.1

Matrici triangolari e metodo di eliminazione

Ritorniamo al sistema lineare


3 2 1
x
5
1 4 3 y = 3
1 1 1
z
0
e rivediamo i passi effettuati per ottenere la soluzione:
1. Scambia la prima riga con la terza riga;
2. Sottrai la prima equazione dalla seconda;
3. Sottrai 3 volte la prima equazione dalla terza;
4. Somma alla terza equazione un terzo della seconda equazione.
Scriviamo

1
1. 1
3

2. 0
3

1
3. 0
0

qui di seguito le varie matrici che si ottengono con i vari passaggi



1 1
x
0
4 3 y = 3
2 1
z
5

x
0
1 1

3 2
y = 3
2 1
z
5

1
1
x
0
3
2 y = 3
1 2
z
5
37

38

CHAPTER 6. MATRICI E SISTEMI LINEARI


1 1
1
x
0
2 y = 3
4. 0 3
0 0 4/3
z
6
La matrice dei coefficienti `e diventata triangolare superiore e la soluzione si
ottiene facilmente.
Una matrice arbitraria pu`o essere trasformata in una matrice triangolare
superiore con il prodotto matriciale.
Definition 6.1.1. Una matrice `e elementare se ha uno dei seguenti tre formati:
1. Matrice di tipo I che moltiplicando a sinistra una matrice A effettua lo
scambio di una riga di A con unaltra riga di A:

0 0 1
0 0 0
0 1 0
E2,3 = 0 1 1
E1,2 = 1 1 0
E1,3 = 0 1 0
1 0 0
0 1 0
0 0 0
2. Matrice di tipo II che moltiplicando a sinistra una matrice A effettua
la moltiplicazione di una riga di A per uno scalare c:

c 0 0
1 0 0
1 0 0
E1c = 0 1 0
E2c = 0 c 0
E3c = 0 1 0
0 0 1
0 0 1
0 0 c
3. Matrice di tipo III che, moltiplicando a sinistra una matrice A, somma
un multiplo di una data riga di A ad unaltra riga data:

1 0 0
1 0 0
1 0 0
c
c
E21
= c 1 0
E23
= 0 1 0
E3c = 0 1 0
0 0 1
c 0 1
0 c 1

c
E12

1 c 0
= 0 1 0
0 0 1

c
E13

1 0 c
= 0 1 0
0 0 1

c
E23

1 0 0
= 0 1 c
0 0 1

Ritorniamo al sistema lineare prima della definizione. Le operazioni che


applichiamo ai coefficienti del sistema lineare, le applichiamo anche ai termini
noti. Quindi aggiungiamo una colonna con i termini noti alla matrice A del
sistema lineare.

6.1. MATRICI TRIANGOLARI E METODO DI ELIMINAZIONE

39

3 2 1 5
A = 1 4 3 3
1 1 1 0
Per scambiare la prima riga con lultima, moltiplichiamo la matrice E1,3 , di
scambio tra la riga 1 e la riga 3, per la matrice A.

0 0 1
E1,3 = 0 1 0
1 0 0
Si noti che il vettore [0, 0, 1], riga 1 di E1,3 , far`a diventare la terza riga prima
riga, il vettore [0, 1, 0], riga 2 di E1,3 , manterr`a intatta la seconda riga, mentre
il vettore [1, 0, 0], riga 3 di E1,3 , trasferir`a la riga 1 al posto della vecchia riga
3.

0 0 1
3 2 1 5
1 1 1 0
E1,3 A = 0 1 0 1 4 3 3 = 1 4 3 3
1 0 0
1 1 1 0
3 2 1 5
Ora vogliamo sottrarre la prima equazione dalla seconda. Consideriamo la
1
matrice E21
(in posizione 21 abbiamo il valore 1):

1 0 0
1
E21
= 1 1 0
0 0 1
Allora abbiamo

1 0 0
1 1 1 0
1 1 1 0
1
E21
E1,3 A = 1 1 0 1 4 3 3 = 0 3 2 3
0 0 1
3 2 1 5
3 2 1 5
Sottraiamo 3 volte la prima equazione dalla
3
E31
(in posizione 31 abbiamo il valore 3):

1 0
3

0 1
E31 =
3 0

terza. Consideriamo la matrice

0
0
1

Allora abbiamo

1 0 0
1 1 1 0
1
1
1 0
3 1
3
2 3
E21 E1,3 A = 0 1 0 0 3 2 3 = 0
E31
3 0 1
3 2 1 5
0 1 2 5

40

CHAPTER 6. MATRICI E SISTEMI LINEARI

Dividiamo la seconda equazione per 3 e poi sommiamo la seconda equazione


alla terza. Consideriamo la matrice

1 0 0
1/3
E32 = 0 1 0
0 13 1
dove in posizione 32 si ha 1/3.

1 0
1/3 3 1

E32 E31 E21 E1,3 A = 0 1


0 31

Allora abbiamo

1
1
1 0
1 1
1 0
0
3
2 3 = 0 3
2 3
0 0
1
0 1 2 5
0 0 4/3 6

Il fatto che il prodotto tra matrici `e associativo ci permette anche di molti1/3 3 1


plicare prima tutte le matrici E32 E31
E21 E1,3 e poi applicare il risultato ad
A per ottenere il risultato finale.

6.2

Matrice inversa

Le operazioni che abbiamo applicato alla matrice A sono tutte reversibili nel
senso che ciascuna delle matrici elementari `e invertibile.
Definition 6.2.1. Una matrice quadrata A `e invertibile se esiste una matrice
B tale che
AB = I = BA,
dove I `e la matrice identica. Esiste al pi`
u una matrice inversa di A; nel caso
in cui esiste linversa della matrice A si indica con A1 .
Lemma 6.2.1.

1. La matrice inversa A1 di una matrice A `e unica.

2. (AB)1 = B 1 A1 .
3. Se A `e invertibile, lunica soluzione del sistema lineare Ax = b (con x
e b vettori colonna) `e x = A1 b.
Proof. (1) Supponiamo che B sia unaltra inversa, cioe AB = BA = I.
Allora abbiamo:
B = BI = B(AA1 ) = (BA)A1 = IA1 = A1 .
(2) (AB)(B 1 A1 ) = A(BB 1 )A1 = AIA1 = AA1 = I.
(3) A(A1 b) = (AA1 )b = Ib = b.

6.2. MATRICE INVERSA

41

Lemma 6.2.2. Una matrice 22 `e invertibile sse il suo determinante adbc


`e diverso da 0. In tal caso si calcola facilmente:


a b
c d

1



1
d b
=
a
ad bc c

Proof.


a b
c d



d
adbc
c
adbc

b
adbc
a
adbc

1 0
=
0 1

Lemma 6.2.3. Una matrice diagonale `e invertibile sse nessun elemento nella
diagonale `e 0.
Lemma 6.2.4. Una matrice triangolare superiore `e invertibile se nessun
elemento nella diagonale `e 0. Linversa (se esiste) `e una matrice triangolare
superiore. Lo stesso risultato vale per le matrici triangolari inferiori.
Example 11. Analizziamo prima il caso
sono tutti 1. Sia

1 a

A= 0 1
0 0

in cui gli elementi sulla diagonale

b
c
1

Allora abbiamo:

1 a ac b
1 a b
1 0 0
1
c 0 1 c = 0 1 0
A1 A = 0
0
0
1
0 0 1
0 0 1
Example 12. Sia

d a b
A = 0 e c
0 0 f
con d, e, f 6= 0. Si consideri la matrice trasposta di A:

d 0 0
At = a e 0
b c f
t
Per calcolare lelemento A1
ij , si cancellino la riga i e la colonna j di A . Resta
una matrice 2 2 Aij , il cui determinante si calcola con le regole descritte

42

CHAPTER 6. MATRICI E SISTEMI LINEARI


ij

)
nel Lemma 6.2.2. Allora (A1 )ij = (1)i+j Det(A
. Per esempio, lelemento
Det(A)
1
(A )13 `e :


a e
det
b c
ac be
1
=
(A )13 =
Det(A)
Det(A)

Siccome det(A) = edf (si veda pi`


u avanti
di una matrice arbitraria), abbiamo:
1 a acbe
d a
d
ed
edf
c
1
1

0 e
A A= 0
e
ef
1
0 0
0 0
f

6.2.1

per il calcolo del determinante


b
1 0 0
c = 0 1 0
f
0 0 1

Invertibilit`
a delle matrici elementari

Le matrici elementari sono tutte invertibili.


Example 13. La matrice E1,3
con inversa la matrice stessa:

0 0
E1,3 E1,3 = 0 1
1 0

(che scambia la riga 1 e la riga 3) `e invertibile

1
0 0 1
1 0 0
0 0 1 0 = 0 1 0 = I
0
1 0 0
0 0 1

` infatti chiaro che scambiare due volte di seguito la riga uno e la riga tre
E
riporta alla situazione iniziale.
Example 14. La matrice

1 0
0 1
0 c

c
c
`e invertibile con inversa E32
:
E32

0
1
0 0
1 0 0
0 0
1 0 = 0 1 0
1
0 c 1
0 0 1

Ritornando al sistema lineare di Sezione 6.1, definiamo B = E1,3 A e


ricordiamo che abbiamo:

1 1
1 0
1/3 3 1
2 3 = U
E21 B = 0 3
E32 E31
0 0 4/3 6
La matrice U `e la matrice triangolare risultante. Se moltiplichiamo ambo
i membri della precedente uguaglianza per le matrici inverse delle matrici
elementari (nel giusto ordine), si ha:
1/3

1 1
3 1
L = (E21
) (E31
) (E32 )1

6.2. MATRICE INVERSA

43

otteniamo
LU = B.
` una matrice triangolare inferiore (se non facciamo
Che tipo di matrice `e L? E
scambi di righe):

1
0 0
1 0 0
1 0 0
1
0 0
1 0
1 0 = 1
L = 1 1 0 0 1 0 0
1
3 13 1
0 0 1
3 0 1
0 3 1

Fassata una matrice B, se riusciamo a scomporla come prodotto di una matrice triangolare inferiore L ed una matrice triangolare superiore U , allora
possiamo risolvere il sistema Bx = b (x vettore colonna incognito e b vettore
colonna dei termini noti) con i seguenti passi:
Trovare un vettore c tale che Lc = b;
Trovare un vettore d tale che U d = c;
Bd = LU d = L(U d) = Lc = b e quindi x = d.
Example 15. Consideriamo il sistema


2 1
2 3



  
5
x1
=
=b
x2
3

Allora


 


2 1
1 0 2 1
=
= LU
2 3
1 1 0 4

Risolvendo Lc = b, si ottiene c1 = 5 e c2 = 8, mentre per lequazione U x = c


si ha x2 = 2 e x1 = 32 .
Se una matrice `e invertibile possiamo trovare facilmente la soluzione di
un problema. Il seguente esempio spiega il motivo.
Example 16. Trovare una soluzione del seguente sistema lineare:


2 1 1
x
1
1
2 3 y = 2
1
2 2
z
3

44

6.3

CHAPTER 6. MATRICI E SISTEMI LINEARI

Il metodo di Gauss-Jordan per il calcolo


di A1

Spieghiamo il metodo con un esempio. Consideriamo la matrice A da invertire:

2
1 1
A = 4 6 0
2
7 2
Ricordiamo che la matrice A si scompone come prodotto di una matrice
triangolare inferiore ed una matrice triangolare superiore:
A = LU.
Aggiungiamo la matrice identica in fondo:

2
1 1 1 0 0
4 6 0 0 1 0
2
7 2 0 0 1
Lidea `e di eseguire le solite operazioni di triangolarizzazione sulla matrice
3 6 in maniera tale da arrivare ad una matrice

1 0 0 b11 b12 b13


0 1 0 b21 b22 b23
0 0 1 b31 b32 b33
Allora la matrice 3 3 in fondo sar`a linversa di A.
Cominciamo sottraendo il doppio della prima riga alla seconda riga:

2
1
1
1 0 0
0 8 2 2 1 0
2
7
2
0 0 1
Sommiamo la prima riga allultima riga:

2
1
1
1 0 0
0 8 2 2 1 0
0
8
3
1 0 1
Sommiamo la seconda riga allultima:

2
1
1
1 0 0
0 8 2 2 1 0
0
0
1 1 1 1

6.4. MATRICI A GRADINI

45

Abbiamo ottenuto la matrice triangolare superiore U nella prime tre colonne.


Le ultime tre colonne costituiscono la matrice L1 , cioe la matrice delle
operazioni inverse:

2
1
1
1 0 0


0 8 2 2 1 0 = U L1
0
0
1 1 1 1
Ora cerchiamo di azzerare le componenti 12 e 22, sottraendo la terza riga
alla prima:

2
1
0
2 1 1
0 8 2 2
1
0
0
0
1 1
1
1
e sommando due volte la terza alla seconda:

2
1 0
2 1 1
0 8 0 4
3
2
0
0 1 1
1
1
Per azzerare la componente 12 si procede sommando unottavo della seconda
alla prima:

85 68
2
0 0 12
8
0 8 0 4
3
2
0
0 1 1
1
1
Infine si divide la prima riga per 2, la seconda per 8:

5
6
16
16
1 0 0 12
16
4
0 1 0
38 82
8
0 0 1 1
1
1
Quindi la matrice inversa `e:

5
6
16
16
38 82
=
1
1
1

A1

6.4

12
16
4
8

Matrici a gradini

Definition 6.4.1. Una matrice a gradini m n `e una matrice che verifica


le seguenti condizioni:
1. Tutte i vettori riga nulli sono nella parte bassa della matrice;

46

CHAPTER 6. MATRICI E SISTEMI LINEARI


2. Il primo elemento in una riga non nulla `e un 1;
3. Date due righe successive i e i + 1 non nulle, il primo elemento non
nullo della riga i + 1 si trova a destra del primo elemento non nullo
della riga i.

Una matrice a gradini ridotta `e una matrice a gradini che verifica anche la
seguente condizione:
4. Se una colonna contiene il primo elemento non nullo di una riga, allora
tutte gli altri elementi della colonna sono nulli.
Example 17. Matrici in forma

1
0

0
0

a gradini:
3
1
0
0
0

0
0
0
0
0

Matrici in forma ridotta a gradini:

1 0 0
0 1 0

0 0 0

0 0 0
0 0 0

2
5
1
0
0

5
6
7
1
0

4
7

0
0

0
0
1
0
0

0
0
0
1
0

4
7

0
0

Definition 6.4.2. Due matrici A e B di dimensione m n sono equivalenti


per riga, e scriviamo A r B, se la matrice B pu`o essere ottenuta dalla
matrice A applicando operazioni elementari (di tipo I, II, III).
Si noti che la relazione r `e una relazione di equivalenza perche le matrici
elementari sono invertibili e quindi anche il prodotto di matrici elementari `e
invertibile: se B = EA allora A = E 1 B.
Proposition 6.4.1. Ogni matrice non nulla `e equivalente ad una matrice in
forma ridotta a gradini.
Proof. Sia A la matrice di partenza.
Come ottenere una matrice equivalente a gradini :
Consideriamo la prima colonna (da sinistra) con almeno un elemento diverso
da zero. Sia j lindice di colonna e supponiamo che il primo elemento non
nullo dallalto si trovi nella riga i. Scambiamo la riga i con la riga 1, ottenendo

6.4. MATRICI A GRADINI

47

la matrice B. Cos` b1j 6= 0. Dividiamo la riga 1 di B per b1j . ottenendo la


matrice C, dove c1j = 1. Successivamente, per ogni elemento csj (2 s m)
diverso da zero, sommiamo csj volte la prima riga alla riga s. Otteniamo
una matrice D in cui tutti gli elementi della colonna j sono nulli tranne
il primo che `e 1. Consideriamo la sottomatrice di D ottenuta eliminando la
prima riga di D. Applichiamo la stessa procedura alla sottomatrice. Iterando
il ragionamento alla fine arriviamo ad una matrice in forma a gradini.
Come ottenere una matrice in forma ridotta da una matrici a gradini :
Sia H una matrice a gradini. Applica la procedura seguente dallalto verso
il basso. Considera una riga non nulla, diciamo la riga i. Allora il primo
elemento da sinistra della riga i `e un 1. Supponiamo che si trovi nella colonna
j, cioe, hij = 1. Allora, per ogni riga k (1 k < i) con elemento non nullo in
posizione kj, cioe hkj 6= 0, somma hkj volte la riga i alla riga k. Alla fine
nella colonna j avremo tutti elementi nulli tranne un 1 in posizione ij.
Corollary 6.4.2. Siano Ax = b e Bx = d due sistemi lineari ciascuno con m
equazioni in n incognite. Se le matrici aumentate A|b e B|d sono equivalenti
allora i due sistemi hanno le stesse soluzioni.
Proof. Moltiplicare per una matrice elementare non cambia le soluzioni del
sistema. Riduciamo prima B|d ad A|b. Riduciamo poi la matrice A|b in
forma ridotta a gradini (si veda Proposizione 6.4.1), ottenendo la matrice C
di dimensione m (n + 1). Le soluzioni di C ci danno le soluzioni dei due
sistemi lineari.
Un sistema lineare `e omogeneo se il vettore dei termini noti `e il vettore
nullo.
Corollary 6.4.3. Se A e B sono matrici equivalenti, allora i sistemi omogenei Ax = 0 e Bx = 0 hanno le stesse soluzioni.
Proposition 6.4.4. Un sistema omogeneo Ax = 0 di m equazioni in n
incognite ammette sempre una soluzione non nulla se n > m.
Proof. Riduciamo A in forma ridotta a gradini ottenendo la matrice B. Siano
r il numero di righe non nulle di B. Allora la matrice C di dimensione r n,
formata dalle prime r righe di B, non ha righe nulle. Siccome r m < n
possiamo risolvere il sistema con le prime r incognite che dipendono dalle
altre n r. Queste ultime possono prendere valori arbitrari.

48

CHAPTER 6. MATRICI E SISTEMI LINEARI

Chapter 7
Spazi vettoriali
Prima di proseguire nel capitolo invitiamo il lettore a rileggersi la definizione
di spazio vettoriale in Sezione 2.2.
Riportiamo nel seguito alcuni esempi non-standard di spazi vettoriali.
Example 18. (Spazio vettoriale dei polinomi reali) Un polinomio reale `e una
funzione p : R R che `e esprimibile come
p(x) = a0 xn + a1 xn1 + + an1 x + an
con coefficienti ai numeri reali. Per esempio, i seguenti sono polinomi: 3x+2,
x2 + 5x + 1, etc. I polinomi costituiscono uno spazio vettoriale reale.
Example 19. (Spazio vettoriale delle sequenze infinite di reali) Linsieme di
tutte le successioni (an )n0 di numeri reali `e uno spazio vettoriale sul campo
reale.
Example 20. (Spazio vettoriale delle funzioni a valori in un campo) Sia X
un insieme. Allora linsieme di tutte le funzioni da X ad F, dove F `e un
campo, `e uno spazio vettoriale. Se f, g : X F sono funzioni e c `e uno
scalare, allora definiamo:
(f + g)(x) = f (x) + g(x);

(cf )(x) = c f (x), for all x X.

Example 21. (I numeri complessi come spazio vettoriale reale) Linsieme


dei numeri complessi costituisce uno spazio vettoriale sul campo R.
Example 22. (I numeri complessi come spazio vettoriale sul campo C)
Linsieme dei numeri complessi costituisce anche uno spazio vettoriale sul
campo C.
Example 23. Ogni campo numerico F costituisce uno spazio vettoriale su
se stesso.
49

50

CHAPTER 7. SPAZI VETTORIALI

7.1

Sottospazi

Definition 7.1.1. Sia V uno spazio vettoriale sul campo F. Un sottoinsieme


U di V `e un sottospazio vettoriale di V se la somma vettoriale di vettori di
U `e ancora in U e lo stesso accade per il prodotto di un vettore di U per un
arbitrario scalare:
x, y U x + y U ;
x U c F cx U.
Un sottospazio vettoriale `e uno spazio vettoriale.
Lemma 7.1.1. Lintersezione di due o pi`
u sottospazi vettoriali di V `e ancora
un sottospazio vettoriale.
Proof. Siano W e U due sottospazi. Si vede facilmente che, se x, y W U ,
allora anche x + y W U e cx W U per ogni scalare c.
Sia X V un sottoinsieme di uno spazio vettoriale V sul campo F.
Definiamo hXi il sottospazio di V generato da X. Abbiamo
hXi = {c1 v1 + + ck vk : c1 , . . . ck F e v1 , . . . vk X}
Example 24. Si consideri lo spazio vettoriale R2 e (2, 3) un vettore. La
retta di equazione 2x + 3y = 0 `e un sottospazio vettoriale di R2 :
Se (x1 , x2 ) e (y1 , y2 ) appartengono alla retta (i.e., 2x1 + 3x2 = 0 e
2y1 + 3y2 = 0), allora anche (x1 + y1 , x2 + y2 ) appartiene alla retta
(2(x1 + y1 ) + 3(x2 + y2 ) = 0).
Se (x1 , x2 ) appartiene alla retta (i.e., 2x1 + 3x2 = 0), allora anche
c(x1 , x2 ) = (cx1 , cx2 ) appartiene alla retta (i.e., c(2x1 + 3x2 ) = 0).
Ogni retta passante per lorigine `e un sottospazio vettoriale di R2 . Le rette
che non passano per lorigine NON sono sottospazi vettoriali, perche per
esempio il vettore nullo non appartiene alla retta.
Example 25. Si consideri lo spazio vettoriale R3 e (2, 3, 4) un vettore. Il
piano di equazione 2x + 3y + 4z = 0 `e un sottospazio vettoriale di R3 . Ogni
piano passante per lorigine `e un sottospazio vettoriale di R3 , mentre i piani
che non passano per lorigine NON sono sottospazi vettoriali.
Le rette passanti per lorigine sono anchesse sottospazi vettoriali di R3
in quanto intersezione di due piani per lorigine (Si veda il Lemma 7.1.1).
Example 26. Si consideri lo spazio vettoriali delle matrici n n sul campo
F. I seguenti sono sottospazi vettoriali:

7.1. SOTTOSPAZI

51

Linsieme delle matrici triangolari superiori;


Linsieme delle matrici diagonali;
Linsieme delle matrici simmetriche.
Example 27. Si consideri la matrice

2
1
1
0
A = 4 6
4 2 2
Linsieme delle combinazioni lineari dei vettori colonna della matrice



2
1
1

4 + c2 6 + c3
0
c1
4
2
2
costituisce un sottospazio
vettoriale W di R3 .

a

Se il vettore b appartiene al sottospazio W allora il sistema lineare


c


2
1
1
x
a
4 6

0
y = b
4 2 2
z
c
ammette soluzione.
Example 28. Linsieme dei polinomi di grado minore o uguale ad n `e un
sottospazio vettoriale dello spazio dei polinomi.
Ricordiamo che un sistema lineare `e omogeneo se il vettore dei termini
noti `e il vettore nullo.
Proposition 7.1.2. Linsieme delle soluzioni di un sistema lineare omogeneo
di m equazioni in n incognite `e un sottospazio vettoriale dello spazio Rn .
Proof. Sia A una matrice, x, y vettori tali che Ax = 0 e Ay = 0. Allora
A(x + y) = Ax + Ay = 0 + 0 = 0 ed inoltre A(cx) = c(Ax) = c0 = 0.
Se A `e la matrice del sistema, denotiamo con N(A) il sottospazio delle
soluzioni del sistema omogeneo associato.

52

7.2

CHAPTER 7. SPAZI VETTORIALI

Vettori linearmente indipendenti

Sia V uno spazio vettoriale e x1 , . . . , xn V vettori. Un vettore v V `e una


combinazione lineare dei vettori x1 , . . . , xn se esistono scalari c1 , . . . , cn tali
che
v = c1 x 1 + + cn x n .
Proposition 7.2.1. Sia V uno spazio vettoriale e x1 , . . . , xn V vettori.
Linsieme delle combinazioni lineari di x1 , . . . , xn `e un sottospazio vettoriale
di V .
Proof. Se v = c1 x1 + . . . cn xn e w = d1 x1 + . . . dn xn , allora v + w = (c1 +
d1 )x1 + . . . (cn + dn )xn e mv = mc1 x1 + . . . mcn xn per ogni scalare m.


0
5

Example 29. Siano x1 = 1 e x2 = 4 due vettori nello spazio tridi2


3
mensionale. Allora le combinazioni lineari di x1 e x2


0
5

c1 1 + c2 4
2
3
costituiscono un piano di equazione x 2y + z = 0 (perche?), che `e un
sottospazio vettoriale di R3 .
Example 30. Siano p(x) = x + 3 e q(x) = x2 + 2 due polinomi. Allora
le combinazioni lineari di p e q costituiscono un sottospazio vettoriale dello
spazio vettoriale dei polinomi reali: il sottospazio dei polinomi
c0 x2 + c1 x + (2c0 + 3c1 )
al variare di c0 , c1 tra i reali.






2 0
0 1
0 0
Example 31. Siano A =
, B =
eC =
tre matrici.
0 0
0 0
0 4
Linsieme delle combinazioni lineari di A, B e C determina il sottospazio
delle matrici che hanno la seguente forma (c1 , c2 , c3 arbitrari numeri reali):


c1 c2
0 c3
Definition 7.2.1. I vettori x1 , . . . , xn di uno spazio vettoriale V si dicono
linearmente dipendenti se il vettore nullo 0 `e una combinazione lineare di
x1 , . . . , xn con coefficienti scalari non tutti nulli, altrimenti si dicono linearmente indipendenti.

7.2. VETTORI LINEARMENTE INDIPENDENTI

53

Example 32. Riconsideriamo i tre vettori colonna dellEsempio 27. Essi


sono linearmente dipendenti perche



2
1
1

4 2 6 + 8
0 = 0.
3
4
2
2
Quindi il sistema omogeneo


2
1
1
3
0
4 6

0
2 = 0
4 2 2
8
0
ammette soluzioni diverse dal vettore nullo 0. Infatti si vede facilmente che
la terza riga della matrice `e un multiplo della prima, cos` il sistema lineare
ammette una retta di soluzioni che sono lintersezione del piano 2x+y +z = 0
(che `e lo stesso piano di equazione 4x2y 2z = 0) e del piano 4x6y = 0.
Si noti che se i vettori colonna sono lineramente dipendenti, anche i vettori
riga [2, 1, 1], [4, 6, 0] e [4, 2, 2] lo sono:
2[2, 1, 1] + 0[4, 6, 0] + [4, 2, 2] = 0.
Questultima uguaglianza la possiamo scrivere anche cos`:

2
1
1




2 0 1 4 6
0 = 0 0 0
4 2 2
Oppure prendendo le matrici trasposte:


2
4 4
2
0
1 6 2 0 = 0
1
0 2
1
0

x1
Proposition 7.2.2. Se A = (aij ) `e una matrice m n e x = . . . un
xn
vettore colonna non nullo di lunghezza n, allora le seguenti condizioni sono
equivalenti:
1. Ax = 0;
2. x `e un vettore perpendicolare agli m vettori riga della matrice:
Prodotto interno: Ai x =

n
X
j=1

aij xj = 0, per ogni 1 i m.

54

CHAPTER 7. SPAZI VETTORIALI


3. Gli n vettori colonna di A sono linearmente dipendenti:

a11
a12
a1n
x1 A1 + + xn An = x1 . . . + x2 . . . + + xn . . . = 0.
am1
am2
amn

Corollary 7.2.3. Sia A = (Aij ) una matrice m n. Le colonne di A sono


linearmente indipendenti sse il sistema Ax = 0 ammette il vettore nullo come
unica soluzione.
Corollary 7.2.4. Sia A = (Aij ) una matrice m n con n > m. Allora le
colonne di A sono linearmente dipendenti.
Proof. Segue dalla Proposizione 7.2.2 e dalla Proposizione 6.4.4.
Example 33. Consideriamo la matrice

3
4
2
0
A = 4 6
1
2 2

2
1
1

0 sono linearmente indipendenti.


I tre vettori colonna 4 , 6 e
1
2
2
Come possiamo dimostrarlo?

7.3

Basi

Definition 7.3.1. Una base di uno spazio vettoriale V `e un insieme finito


di vettori linearmente indipendente che generano tutto lo spazio.
Sia x1 , . . . , xn una base. Allora ogni vettore v dello spazio si scrive in
maniera unica come combinazione lineare della base. Infatti se v = a1 x1 +
. . . an xn = b1 x1 + . . . bn xn allora 0 = (a1 b1 )x1 + . . . (an bn )xn . Siccome
x1 , . . . , xn sono linearmente indipendenti, si ricava ai bi = 0 per ogni i, da
cui ai = bi .
Se v = a1 x1 + . . . an xn allora (a1 , . . . , an ) `e il vettore delle coordinate di v
rispetto alla base data.
Example 34. I vettori e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1) sono la base
canonica di R3 . Tre vettori qualsiasi linearmente indipendenti costituiscono
sempre una base di R3 .

7.3. BASI

55

Example 35. Lo spazio dei polinomi reali non ammette una base finita, ma
soltanto una base infinita
1, x, x2 , . . . , xn , . . .
Il sottospazio dei polinomi di grado 5 ammette una base finita:
1, x, x2 , x3 , x4 , x5 .
Lo stesso risultato vale per il sottospazio dei polinomi di grado n.
Example 36. Sia C lo spazio
vettoriale dei numeri complessi sul campo
reale. Allora, i vettori 1 e i = 1 costituiscono una base.
Example 37. Sia C lo spazio vettoriale dei numeri complessi sul campo
complesso. Allora, il vettore 1 `e una base.
Proposition 7.3.1. Sia V uno spazio vettoriale sul campo F di base v1 , . . . , vm .
Allora ogni insieme di elementi w1 , . . . , wn con n > m `e linearmente dipendente. In particolare, due basi qualsiasi di uno spazio vettoriale hanno lo
stesso numero di vettori. Questo numero si dice dimensione dello spazio
vettoriale e si indica con dim V .
Proof. Rappresentiamo wi come combinazione lineare della base v1 , . . . , vm :
wi =

m
X

aji vj = a1i v1 + a2i v2 + . . . ami vm .

(7.1)

j=1

I coefficienti aji costituiscono una matrice A di dimensione m n, per cui


si ha:

a11 . . . a1m . . . a1n


[w1 , . . . , wn ] = [v1 , . . . , vm ] . . . . . . . . . . . . . . .
am1 . . . amm . . . amn
Si noti che (i) ogni colonna della matrice A ha almeno qualche coefficiente
diverso da zero; (ii) i coefficienti della matrice sono elementi del campo F,
mentre le sequenze [v1 , . . . , vm ] e [w1 , . . . , wn ] hanno elementi in V .
Risolviamo il sistema lineare omogeneo:


a11 . . . a1m . . . a1n
x1
0
. . . . . . . . . . . . . . . . . . = . . .
am1 . . . amm . . . amn
xn
0

56

CHAPTER 7. SPAZI VETTORIALI

n
nello
spazio vettoriale F (cioe, x1 , . . . , xn F). La soluzione non banale
b1
. . . esiste perche n > m (Proposizione 6.4.4). Allora abbiamo:
bn



b1
a11 . . . a1m . . . a1n
b1
0
[w1 , . . . , wn ] . . . = [v1 , . . . , vm ] . . . . . . . . . . . . . . . . . . = [v1 , . . . , vm ] . . . =
bn
am1 . . . amm . . . amn
bn
0

E quindi i vettori w1 , . . . , wn sono linearmente dipendenti.


Questa seconda dimostrazione non utilizza i sistemi lineari.
Proof. Supponiamo per assurdo che w1 , . . . , wn siano linearmente indipendenti. Dimostriamo per induzione su r (0 r m) che w1 , . . . , wr , vr+1 , . . . , vm
`e una base. Se r = 0, abbiamo per ipotesi che v1 , . . . , vm `e una base.
Supponiamo che w1 , . . . , wr1 , vr , . . . , vm sia una base e dimostriamo che
w1 , . . . , wr1 , wr , vr+1 . . . , vm `e una base. Scriviamo lelemento wr come combinazione lineare dei vettori w1 , . . . , wr1 , vr , . . . , vm , che per ipotesi dinduzione
costituiscono una base:
wr =

r1
X

aj w j +

j=1

m
X

aj v j .

(7.2)

j=r

Pm
Se
j=r aj vj = 0 allora i vettori w1 , . . . , wr1 , wr sarebbero linearmente
dipendenti contraddicendo lipotesi iniziale della prova. Quindi non tutti
i coefficienti aj (r j m) sono nulli. Possiamo supporre che sia il primo
coefficiente ar ad essere diverso da 0. Quindi
Pm
P
wr r1
j=r+1 aj vj
j=1 aj wj
vr =
ar
`e combinazione lineare di w1 , . . . , wr , vr+1 , . . . , vm . Siccome la base
w1 , . . . , wr1 , vr , . . . , vm
genera tutto lo spazio V , anche i vettori
w1 , . . . , wr , vr+1 , . . . , vm
generano lo spazio V . Rimane da provare che i vettori precedenti sono linearmente indipendenti. Se
b1 w1 + + br wr + br+1 vr+1 + + bm vm = 0,

7.3. BASI

57

allora sostituendo al posto di wr la combinazione lineare (7.2), otteniamo


r1
m
X
X
b1 w 1 + + br (
aj w j +
aj vj ) + br+1 vr+1 + + bm vm = 0,
j=1

j=r

da cui
(b1 +br a1 )w1 + +(br1 +br ar1 )wr1 +br aj vr +(br+1 +br ar+1 )vr+1 + +(bm +br am )vm = 0.
Si ha che br = 0 e si ottiene:
b1 w1 + + br1 wr1 + br+1 vr+1 + + bm vm = 0.
da cui si ricava anche bi = 0 per tutti gli i. Quindi, i vettori w1 , . . . , wr , vr+1 , . . . , vm
sono linearmente indipendenti e costituiscono una base.
Abbiamo provato che w1 , . . . , wr , vr+1 , . . . , vm `e una base per ogni 0
r m. In particolare, w1 , . . . , wm `e una base. Quindi wm+1 `e combinazione
lineare di w1 , . . . , wm , che contraddice lipotesi iniziale che w1 , . . . , wn sono
linearmente indipendenti.
3
3; La base canonica di R3 `e costituita
R ha dimensione

1
0
0
dai vettori 0 , 1 e 0 . Ogni altra base `e costituita da tre vettori
0
0
1

1
1
2

linearmente indipendenti. Per esempio, i tre vettori 1 , 1 e 0


1
0
3
sono linearmente indipendenti e quindi costituiscono una base, perche
il sottospazio vettoriale delle soluzioni del sistema lineare omogeneo


1 1 2
x
0
1 1 0 y = 0
1 0 3
z
0

Example 38.

`e costituito solo dal vettore nullo. Si che le coordinate di un punto del


piano dipendono dalla
base scelta. Per esempio, se il punto P del piano
1
ha coordinate P = 1 rispetto alla base canonica, allora le coordinate
1
dello stesso
punto
rispetto
alla base non canonica definita prima sono:

1
P = 0 Quindi il concetto di coordinata `e dipendente dalla base.
0

58

CHAPTER 7. SPAZI VETTORIALI


Lo spazio vettoriale reale C dei numeri
complessi ha dimensione 2. La
base canonica sono i vettori 1 e i = 1. Altre basi sono, per esempio,
5 e 3i; oppure 2 + 3i e 1 + i.
Lo spazio vettoriale dei numeri complessi sul campo C ha dimensione
1. La base canonica `e data dal vettore 1.
Lo spazio delle matrici m n ha dimension mn. La base canonica `e
costituita dalle matrici A mn per cui esistono indici ij tali che aij = 1
mentre tutte le altre componenti ahk = 0 per h 6= i e k 6= j.
Lo spazio delle matrici 3 3 triangolari superiori ha dimensione 6.
Lo spazio dei polinomi di grado 3 ha dimensione 4 ed ha come base
canonica i polinomi 1, x, x2 , x3 .

Proposition 7.3.2. Ogni insieme di vettori linearmente indipendenti pu`o


essere esteso ad una base. Qualsiasi insieme di generatori dello spazio pu`o
essere ridotto ad una base.

7.4

Basi ortogonali e matrici ortogonali

Una base ortogonale di Rn `e una base w1 , . . . , wn tale che il prodotto interno


wi wj = 0 per ogni i 6= j. Una base ortogonale `e ortonormale se wi wi = 1.
La base canonica e1 = (1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1) di Rn `e ortonormale.
Una matrice n n A `e ortogonale se le colonne costituiscono una base
ortonormale di Rn .
Proposition 7.4.1. Se A `e ortogonale, allora (i) la matrice inversa di A `e
la matrice trasposta At di A; (ii) A preserva le lunghezze. In altre parole, se
x `e un vettore di Rn abbiamo
||Ax|| = ||x||.
||Ax||2 = (Ax)t (Ax) = xt At Ax = xt x = ||x||2 .

7.5

Sottospazi ortogonali

Due sottospazi X e Y di Rn sono ortogonali se il prodotto interno di vettori


dei due spazi `e sempre nullo:
(x X)(y Y )(x y = 0).

7.5. SOTTOSPAZI ORTOGONALI

59

Lo spazio ortogonale ad un sottospazio X `e definito come


X = {v V : (x X)(v x = 0)}.
Proposition 7.5.1. Sia X un sottospazio di uno spazio vettoriale reale V .
Allora dim X + dim X = dim V .
Proof. Sia v1 , . . . , vk una base di X e w1 , . . . , wr una base di X . Consideri` sufficiente
amo il sottospazio Y generato dai vettori v1 , . . . , vk , w1 , . . . , wr . E
provare che Y = V .

60

CHAPTER 7. SPAZI VETTORIALI

Chapter 8
Applicazioni lineari e matrici
8.1

Applicazioni lineari

Definition 8.1.1. Siano V e W spazi vettoriali sullo stesso campo. Una funzione f : V W `e una applicazione lineare se verifica le seguenti propriet`a:
1. f (x + y) = f (x) + f (y);
2. f (cx) = cf (x).
Si noti che ponendo c = 0 nella seconda identit`a si ricava f (0) = 0.
Una funzione f `e una applicazione lineare sse f (c1 v1 + c2 v2 ) = c1 f (v1 ) +
c2 f (v2 ) per tutti gli scalari c1 , c2 e vettori v1 , v2 .
Lemma 8.1.1.

1. La funzione identica I : V V , definita da


I(v) = v, per ogni vettore v V

`e unapplicazione lineare.
2. La composizione g f : V U di due applicazioni lineari f : V W
e g : W U , definita da
(g f )(v) = g(f (v)), per ogni vettore v V
`e unapplicazione lineare.
3. La somma f + g : V W di due applicazioni lineari f : V W e
g : V W , definita da
(f + g)(v) = f (v) + g(v), per ogni vettore v V
`e unapplicazione lineare.
61

62

CHAPTER 8. APPLICAZIONI LINEARI E MATRICI


4. La moltiplicazione per uno scalare cf : V W di una applicazione
lineare f : V W , definita da
(cf )(v) = c f (v), per ogni vettore v V
`e unapplicazione lineare.

L insieme delle applicazioni lineari da V in W costituisce uno spazio


vettoriale rispetto alloperazione di somma f + g di applicazioni lineari f, g :
V W e moltiplicazione per uno scalare cf di una applicazione scalare
f : V W.
Example 39. Fissato un vettore x, il prodotto interno
y R3 7 y x R

(8.1)

`e una applicazione lineare da R3 ad R. Richiamiamo dalla Sezione 2.3 le


propriet`a del prodotto interno che dimostrano la linearit`a della funzione descritta in (8.1): (y + z) x = (y x) + (z x) e (cy) x = c(y x).
Consideriamo come esempio concreto il vettore x = (3, 2, 2). La funzione
f : R3 R definita da
f (x, y, z) = (x, y, z) (3, 2, 2) = 3x + 2y 2z
`e unapplicazione lineare.

f (x + x0 , y + y 0 , z + z 0 ) =
=
=
=

(x + x0 , y + y 0 , z + z 0 ) (3, 2, 2)
3(x + x0 ) + 2(y + y 0 ) 2(z + z 0 )
(3x + 2y 2z) + (3x0 + 2y 0 2z 0 )
f (x, y, z) + f (x0 , y 0 , z 0 ).

f (c(x, y, z)) =
=
=
=

f (cx, cy, cz)


3cx + 2cy 2cz
c(3x + 2y 2z)
cf (x, y, z).

Example 40. Sia Pol lo spazio vettoriale dei polinomi. La funzione f :


Pol R2 definita da:
f (a0 xn + a1 xn1 + + an1 x + an ) = (an1 , an ),
`e unapplicazione lineare. La funzione g : Pol R definita da
g(a0 xn + a1 xn1 + + an1 x + an ) = a0
non `e una applicazione lineare. Infatti, g(2x2 + 3x + 1) = 2, mentre g(2x2 ) +
g(3x + 1) = 2 + 3 = 5.

8.1. APPLICAZIONI LINEARI

63

Sia f : V W unapplicazione lineare. Limmagine di f `e definita come


Im(f ) = {w W : v V f (v) = w},
mentre il nucleo di f `e
ker(f ) = {v V : f (v) = 0}.
Proposition 8.1.2. Il nucleo di una applicazione lineare f : V W `e un
sottospazio di V , mentre limmagine di f `e un sottospazio di W . Si ha la
seguente relazione:
dim V = dim ker(f ) + dim Im(f ).
Proof. Dimostriamo che il nucleo `e un sottospazio. Siano v, t V vettori e c
uno scalare. Se f (v) = 0 e f (t) = 0 allora f (v + t) = f (v) + f (t) = 0 + 0 = 0
e f (cv) = cf (v) = c0 = 0.
Proviamo ora la relazione tra dimensione del nucleo e dimensione dellimmagine.
Sia v1 , . . . , vk V una base del nucleo e sia w1 , . . . , wr W una base
dellimmagine di f . Consideriamo r elementi vk+1 , . . . , vk+r V tali che
f (vk+i ) = wi .
I vettori v1 , . . . , vk , vk+1 , . . . , vk+r sono linearmente indipendenti. Infatti
se
c1 v1 + . . . ck vk + ck+1 vk+1 + + ck+r vk+r = 0,
allora
0 =
=
=
=

f (c1 v1 + + ck vk + ck+1 vk+1 + + ck+r vk+r )


c1 f (v1 ) + + ck f (vk ) + ck+1 f (vk+1 ) + + ck+r f (vk+r )
c1 0 + + ck 0 + ck+1 w1 + + ck+r wr
ck+1 w1 + + ck+r wr

E quindi i vettori w1 , . . . , wr W oppure i vettori v1 , . . . , vk V sarebbero


linearmente dipendenti. Assurdo.
Verifichiamo che i vettori v1 , . . . , vk , vk+1 , . . . , vk+r generano lo spazio V .
Sia x V . Se f (x) = 0 allora x `e combinazione lineare di v1 , . . . , vk , altrimenti f (x) 6= 0 = d1 w1 + +dr wr . E quindi f (x(d1 vk+1 +. . . dr vk+r )) = 0.
Scriviamo quindi x (d1 vk+1 + . . . dr vk+r ) come combinazione lineare di
v1 , . . . , vk ed otteniamo il risultato.
Lemma 8.1.3. Sia f : V W una applicazione lineare.
1. f `e iniettiva sse ker(f ) = {0}.
2. Se f `e iniettiva, allora

64

CHAPTER 8. APPLICAZIONI LINEARI E MATRICI


dim V = dim Im(f ).
Se v1 , . . . , vn sono linearmente indipendenti, allora f (v1 ), . . . , f (vn )
sono linearmente indipendenti.

Proof. (1) Abbiamo f (x) = f (y) sse f (x y) = 0.


Lemma 8.1.4. Sia V uno spazio vettoriale di base v1 , . . . , vn . Ogni applicazione lineare f : V W `e univocamente determinata dai valori f (v1 ), . . . , f (vn )
assunti dai vettori della base. Se v V ha coordinate c1 , . . . , cn rispetto alla
data base allora
f (v) = c1 f (v1 ) + + cn f (vn ).
(8.2)
Viceversa, ogni funzione g : {v1 , . . . , vn } W pu`o univocamente essere
estesa tramite (8.2) ad una applicazione lineare da V a W .

Example 41. Si consideri lapplicazione lineare f : R3 R dellEsempio 39


definita da f (x) = 3x1 +2x2 2x3 . La dimensione del nucleo di f `e 2 perche il
nucleo `e il piano ortogonale al vettore (3, 2, 2) di equazione 3x1 +2x2 2x3 =
0, per cui dalla Proposizione 8.1.2 la dimensione dellimmagine deve essere
1.
Example 42. Consideriamo lo spazio vettoriale infinito dimensionale Pol dei
polinomi reali e fissiamo un numero reale, per esempio 3. Allora la funzione
f : Pol R, definita come segue (per ogni polinomio p(x) = a0 xn + a1 xn1 +
+ an1 x + an ):
f (a0 xn + a1 xn1 + + an1 x + an ) = a0 3n + a1 3n1 + + an1 31 + an ,
`e unapplicazione lineare. Per esempio, se p(x) = x2 + 5x 1 allora
f (x2 + 5x 1) = 32 + 5 3 1 = 23.
Il nucleo di f `e il sottospazio vettoriale determinato dallinsieme dei polinomi
p(x) che ammettono 3 come radice: p(3) = 0. Limmagine di f `e tutto R.
Example 43. Sia V uno spazio di dimensione 2 con base v1 , v2 e W uno
spazio di dimensione 3 con base w1 , w2 , w3 . Dal Lemma 8.1.4 la funzione
f : V W definita da
f (v1 ) = 3w1 + 5w2 2w3 ;
`e estendibile ad una applicazione lineare.

f (v2 ) = w1 + w3

8.2. MATRICE DA APPLICAZIONE LINEARE

8.2

65

Matrice da applicazione lineare

Sia f : V W una applicazione lineare. Fissiamo una base v1 , . . . , vn di V


ed una base w1 , . . . , wm di W . Allora, limmagine f (vj ) di ogni vettore della
base di V deve essere combinazione lineare dei vettori della base di W :
f (vj ) = a1j w1 + + amj wm , per ogni 1 j n.
Consideriamo lamatrice
A di dimensione mn la cui colonna j `e determinata
a1j
a2j

dai coefficienti
. . . dalle coordinate di f (vj ).
amj
Per ogni vettore
v V , consideriamo le sue coordinate come vettore
c1
c2

colonna c =
. . . rispetto alla base v1 , . . . , vn (cioe, v = c1 v1 + + cn vn ).
cn
Allora
f (v) =
=
=
=

f (c1 v1 + + cn vn )
c1 f (v1 ) + + cn f (vn )
c1 (a11 w1 + + am1 wm ) + + cn (a1n w1 + + amn wm )
(c1 a11 + c2 a12 + + cn a1n )w1 + + (c1 am1 + c2 am2 + + cn amn )wm

Quindi le coordinate di f (v) si calcolano come segue

A1 c
A2 c

Ac =

. . .
Am c
Proposition 8.2.1.
Siano f : Rn Rm e g : Rm Rk applicazioni
lineari. Sia A la matrice di f e B la matrice di g rispetto alle basi
canoniche. Allora BA (prodotto di matrici) `e la matrice di g f :
Rn Rk .
Sia A la matrice di f : Rn Rm e sia B la matrice di g : Rn Rm
rispetto alle basi canoniche. Allora A + B `e la matrice di f + g e cA `e
la matrice di cf .
Example 44. Sia f : R2 R3 lapplicazione lineare definita da
f (v1 ) = 4w1 + w2 + w3 ;

f (v2 ) = w1 + 3w2 ,

66

CHAPTER 8. APPLICAZIONI LINEARI E MATRICI

con v1 , v2 base di R2 e w1 , w2 , w3 base di R3 . Allora la matrice dellapplicazione


lineare `e:

4 1
1 3
1 0
Se v = 5v1 + 3v2 `e un vettore di R2 , allora


4 1  
23
1 3 5 = 14
3
1 0
5
Quindi f (v) = 23w1 + 14w2 + 5w3 .
Ogni applicazione lineare f : V W assume una forma matriciale veramente semplice se si scelgono le basi di V e W opportunamente.
Denotiamo con In la matrice identica di dimensione n n e con 0m,n la
matrice nulla di dimensione m n.
Proposition 8.2.2. Sia f : V W una applicazione lineare dallo spazio
vettoriale V di dimensione n allo spazio vettoriale W di dimensione m. Supponiamo che r = dim Im(f ) e k = dim ker(f ) con n = k + r. Allora esistono
basi di V e W tali che la matrice A (di dimensione m n) di f rispetto a
queste basi assume la forma


Ir
0r,k
A=
0mr,r 0mr,k
Proof. Sia v1 , . . . , vk una base del nucleo di f . Completiamo v1 , . . . , vk ad una
base di V : u1 , . . . , ur , v1 , . . . , vk con r + k = n. Le immagini f (u1 ), . . . , f (ur )
tramite f dei vettori u1 , . . . , ur sono non nulle e costituiscono una base di
Im(f ). Completiamo f (u1 ), . . . , f (ur ) ad una base di W :
f (u1 ), . . . , f (ur ), w1 , . . . , wmr .
La matrice A di f rispetto a queste due basi verifica le condizioni della
proposizione.
Remark 1. Supponiamo che gli spazi di partenza e di arrivo dellapplicazione
lineare f della Proposizione 8.2.2 coincidono: f : V V . Allora la matrice A
di f assume la forma della proposizione soltanto per opportune basi distinte
di V . La forma descritta non sar`a in generale assunta se la base di partenza
coincide con la base di arrivo.

8.3. APPLICAZIONE LINEARE DA MATRICE

8.3

67

Applicazione lineare da matrice

Cominciamo con un esempio e poi sviluppiamo la teoria generale.


Example 45. Consideriamo la matrice 3 4:

3
4
2 1
0 0
A = 4 6
1
2 2 2
La matrice A determina:
(i) Una applicazione lineare fA : R4 R3 rispetto alle basi canoniche di
R4 e R3 , che`e definita tramite il prodotto matriciale a destra. Per
1
0

esempio, fA (
3 ) si calcola con il prodotto matriciale:
5

3
4
2 1
14
0
4 6

0 0
3 = 12
1
2 2 2
5
5
Attenzione: Se consideriamo una base diversa di R4 , la matrice A
definisce unaltra applicazione lineare!
(ii) Una applicazione lineare A f : R3 R4 rispetto alle basi canoniche di
R4 e R3 , che `e definita tramite il prodotto matriciale a sinistra. Per
esempio, A f ([0, 1, 2) si calcola con il prodotto matriciale:

3
4
2 1
0 0 = [6, 2, 4, 4]
[0, 1, 2] 4 6
1
2 2 2

3
3
1

(iii) Il sottospazio di R generato dai vettori colonna A = 4 , A2 =


1



4
2
1
6 , A3 = 0 e A4 = 0 le cui coordinate sono le colonne
2
2
2
della matrice. Tale sottospazio `e denotato con hA1 , A2 , A3 , A4 i.
Il sottospazio hA1 , A2 , A3 , A4 i di R3 coincide con il sottospazio Im(fA )
perche
Im(fA ) = {Ac : c R4 } = {c1 A1 +c2 A2 +c3 A3 +c4 A4 : c R4 } = hA1 , A2 , A3 , A4 i.

68

CHAPTER 8. APPLICAZIONI LINEARI E MATRICI

(iv) Il sottospazio di R4 generato dai vettori riga A1 = [3, 4, 2, 1], A2 =


[4, 6, 0, 0] e A3 = [1, 2, 2, 2] le cui coordinate sono le righe della
matrice. Tale sottospazio `e denotato con hA1 , A2 , A3 i.
Il sottospazio hA1 , A2 , A3 i di R4 `e il sottospazio ortogonale allo spazio
ker(fA ) perche
ker(fA ) = {c : Ac = 0} = {c : Ai c = 0 per ogni 1 i 3} = hA1 , A2 , A3 i .
Dalla Proposizione 8.1.2 e dalla Proposizione 7.5.1 si ha
4 = dim ker(fA ) + dim Im(fA )
= dim ker(fA ) + dim spazio colonne
= dim ker(fA ) + dim spazio righe
Quindi la dimensione dello spazio delle colonne coincide con la dimensione
dello spazio delle righe.

Ora sviluppiamo la teoria generale. Sia V uno spazio di base v1 , . . . , vn e


W uno spazio di base w1 , . . . , wm sullo stesso campo numerico. Sia A = (aij )
una matrice m n ad elementi nel campo.
La matrice A determina
1. Il sottospazio di V generato dai vettori di V le cui coordinate sono le
righe della matrice. Tale sottospazio `e denotato con hA1 , . . . , Am i.
2. Il sottospazio di W generato dai vettori di W le cui coordinate sono le
colonne della matrice. Tale sottospazio `e denotato con hA1 , . . . , An i.
3. Una applicazione lineare fA : V W definita come segue. Per ogni
vettore
v V , consideriamo le sue coordinate come vettore colonna
c1
c2

c=
. . . rispetto alla base v1 , . . . , vn (cioe, v = c1 v1 + + cn vn ).
cn
Definiamo le coordinate di fA (v) rispetto alla base w1 , . . . , wm con il
prodotto matriciale:

Pn

c1
c
a
A1 c
i
1i
i=1
P
c2 A2 c
n ci a2i
1
n

Ac = A =
= c1 A + + cn A = i=1

...
...
.
.
.
Pn
cn
Am c
i=1 ci ami

8.3. APPLICAZIONE LINEARE DA MATRICE


Cos` si ha fA (v) = (

Pn

i=1 ci a1i )w1

+ + (

69

Pn

i=1 ci ami )wm .

fA `e lineare per le propriet`a del prodotto matriciale:


A(x + y) = Ax + Ay;

A(cx) = c(Ax);

Dalla Proposizione 8.1.2 si ha:


n = dim ker(fA ) + dim Im(fa ) = dim ker(fa ) + dimhA1 , . . . , An i
dove hA1 , . . . , An i = Im(fA ) `e il sottospazio di W generato dai vettori
colonna della matrice A.
Il sottospazio generato dai vettori riga hA1 , . . . , Am i `e lo spazio ortogonale
al sottospazio
ker(fA ), cioe hA1 , . . . , Am i = ker(fA ) . Abbiamo

A1 c
A2 c

Ac =
. . . = 0 sse
Am c
(d1 A1 + +dm Am )c = d1 (A1 c)+ +dm (Am c) = d1 0+ +dm 0 = 0
Quindi,
n = numero delle colonne
= dim(spazio nullo di fa ) + dim(spazio delle righe)
= dim(spazio nullo di fa ) + dim(spazio delle colonne).
E quindi lo spazio delle colonne e quello delle righe hanno la stessa
dimensione.
4. Una applicazione lineare gA : W V definita come segue. Per ogni
vettore w W , consideriamo le sue coordinate come vettore riga d =
[d1 , d2 , . . . , dm ]. Definiamo le coordinate di gA (w) rispetto alla base
v1 , . . . , vn con il prodotto matriciale:
dA = [d1 , d2 , . . . , dm ]A = [dA1 , dA2 , . . . , dAn ] = d1 A1 + + dm Am =
m
m
m
X
X
X
[
di ai1 ,
di ai2 , . . . ,
ci ain ]
i=1

i=1

i=1

Si vede facilmente che gA `e lineare per le propriet`a del prodotto matriciale:


(x + y)A = xA + yA;
(cx)A = c(xA).
Valgono propriet`a analoghe al punto (3):
m = numero delle righe
= dim(spazio nullo di gA ) + dim(spazio delle colonne)
= dim(spazio nullo di gA ) + dim(spazio delle righe).

70

CHAPTER 8. APPLICAZIONI LINEARI E MATRICI

8.4

Isomorfismi e cambi di base

Una applicazione lineare `e un isomorfismo se `e bigettiva. Due spazi vettoriali


sono isomorfi se esiste un isomorfismo tra di loro.
La funzione inversa f 1 : W V di un isomorfismo f : V W `e
anchessa un isomorfismo lineare.
Proposition 8.4.1. Due spazi vettoriali sullo stesso campo sono isomorfi
sse hanno la stessa dimensione.
Proof. Supponiamo che V e W abbiano la stessa dimensione. Sia v1 , . . . , vn
una base di V e w1 , . . . , wn una base di W . Se il vettore v V , allora
possiamo rappresentare v in maniera unica tramite le sue coordinate: v =
c1 v1 + + cn vn per opportuni scalari c1 , . . . , cn . Allora definiamo
f (v) = c1 w1 + + cn wn .
Proviamo che f `e un isomorfismo. Siano v = c1 v1 + + cn vn e t = d1 v1 +
+ dn vn due vettori di V .
f `e iniettiva: Se f (v) = f (t), allora c1 w1 + +cn wn = d1 w1 + +dn wn .
Per la indipendenza lineare dei wi si ha ci = di per ogni i e quindi v = t.
f `e surgettiva: Se w = e1 w1 + + en wn W allora f (e1 v1 + +
en vn ) = w.

f (v + t) =
=
=
=
=

f (c1 v1 + + cn vn + d1 v1 + + dn vn )
f ((c1 + d1 )v1 + + (cn + dn )vn )
(c1 + d1 )w1 + + (cn + dn )wn
c1 w1 + + cn wn + d1 w1 + + dn wn
f (v) + f (t).

f (mv) =
=
=
=
=

f (m(c1 v1 + + cn vn ))
f (mc1 v1 + + mcn vn )
mc1 w1 + + mcn wn
m(c1 w1 + + cn wn )
mf (v).

Proposition 8.4.2. Sia V uno spazio di dimensione n e W uno spazio di


dimensione m. Allora lo spazio vettoriale delle applicazioni lineari da V a
W `e isomorfo allo spazio vettoriale delle matrici m n.

8.4. ISOMORFISMI E CAMBI DI BASE

71

Proof. Fissiamo una base v1 , . . . , vn di V ed una base w1 , . . . , wm di W .


Allapplicazione lineare
f :V W
associamo la matrice Af = [A1 , . . . , An ] con m righe ed n colonne (Ai `e la
colonna i della matrice Af ) tale che

w1
f (vi ) = Ai . . .
wm
Viceversa, ad una matrice A con m righe ed n colonne associamo lapplicazione
lineare fA : V W definita da
fA (vi ) =

m
X

aki wk .

k=1

Proposition 8.4.3. Sia V un arbitrario spazio vettoriale di dimensione n di


base v1 , . . . , vn , ed A una matrice quadrata di dimensione n n. La matrice
A `e invertibile sse lapplicazione lineare fA : V V , definita da fA (vi ) =
P
n
e un isomorfismo. In tal caso, la matrice inversa A1 di A `e la
k=1 aki vk , `
matrice dellapplicazione lineare f 1 .
Proof. () Sia fA un isomorfismo e IV : V V la funzione identica. Allora
fA1 `e unapplicazione lineare tale che fA fA1 = IV = fA1 fA . Sia B la
matrice dellapplicazione lineare fA1 . Allora si ha AB = I = BA con I
matrice identica. Quindi A `e invertibile e B = A1 .
() Sia A `e invertibile. Il lettore `e invitato a completare la prova.

8.4.1

Cambio di base

Sia V uno spazio vettoriale di dimensione n, sia v1 , . . . , vn una prima base


e t1 , . . . , tn una seconda base. Consideriamo lapplicazione lineare identica
I : V V . Rappresentiamo lidentit`a con la matrice quadrata A (n n) del
cambio di base:
vi = a1i t1 + + ani tn
Se
c=
lecoordinate del vettore v = c1 v1 + + cn vn sono il vettore colonna

Pn
c1
a
c
1i
i
i=1
P
c2
n

nella prima base, allora le coordinate di v saranno Ac = i=1 a2i ci


. . .

Pn . . .
cn
i=1 ani ci
nella seconda base.

72

CHAPTER 8. APPLICAZIONI LINEARI E MATRICI

La matrice di un cambio di base `e invertibile, perche il cambio di base


inverso `e rappresentato dalla matrice inversa.
Definition 8.4.1. Due matrici A e B, n n sullo stesso campo, si dicono
simili sse esiste una matrice n n invertibile P tale che
B = P AP 1 .
Proposition 8.4.4. Una applicazione lineare f : V V `e rappresentata
dalle matrici A e B (rispetto a basi possibilmente diverse) sse A e B sono
matrici simili.
Example 46. Consideriamo la base canonica e1 = (1, 0) e e2 = (0, 1) su R2
e la base t1 = (1, 1), t2 = (3, 2). Allora
e1 = 2t1 + t2 ;

e2 = 3t1 t2

Quindi la matrice sar`a




2
3
1 1

 
4
Allora il vettore di coordinate
rispetto alla base canonica avr`a coordinate
4
 
4
rispetto alla seconda base non canonica:
0

   
2
3 4
4
=
= 4t1 .
1 1 4
0
Il vettore `e lo stesso, cambiano solo le coordinate.
Proposition 8.4.5. Sia V uno spazio vettoriale reale. Il prodotto scalare
v w di due vettori v, w V `e indipendente dalla scelta della base.

8.4.2

Matrici elementari

Le matrici elementari rappresentano o dei cambiamenti di base oppure degli


isomorfismi. Cominciamo con i cambiamenti di base.
Le matrici elementari di tipo I scambiano le componenti di una base. Per
esempio, la matrice

0 0 1
E1,3 = 0 1 0
1 0 0
fa passare dalla base v1 , v2 , v3 alla base v3 , v2 , v1 .

8.5. SISTEMI LINEARI ED APPLICAZIONI LINEARI

73

Le matrici elementari di tipo II moltiplicano per uno scalare un componente della base. Per esempio,

c 0 0
E1c = 0 1 0
0 0 1
fa passare dalla base v1 , v2 , v3 alla base cv1 , v2 , v3 .
Infine le matrici elementari di tipo III, sostituiscono un componente della
base con una sua combinazione lineare. Per esempio,

1 0 0
c
= c 1 0
E21
0 0 1
fa passare dalla base v1 , v2 , v3 alla base v1 , v2 + cv1 , v3 .
In tutti i casi precedenti le matrici elementari rappresentano lapplicazione
lineare identica.
Dalla Proposizione 8.4.3 segue che le matrici elementari in quanto invertibili rappresentano degli isomorfismi. Fissata la base v1 , v2 , v3 , la matrice
E1,3 di tipo I rappresenta lisomorfismo
fE1,3 (v1 ) = v3 ;

fE1,3 (v2 ) = v2 ;

fE1,3 (v3 ) = v1 .

La matrice elementare di tipo II E1c rappresenta lisomorfismo


fE1c (v1 ) = cv1 ;

fE1c (v2 ) = v2 ;

fE1c (v3 ) = v3 .

c
Infine la matrice elementare E21
di tipo III rappresenta lisomorfismo
c (v1 ) = v1 ;
fE21

8.5

c (v2 ) = v2 + cv1 ;
fE21

c (v3 ) = v3 .
fE21

Sistemi lineari ed applicazioni lineari

Consideriamo un sistema lineare omogeneo:


0
a11 a12 . . . a1n
x1
a21 a22 . . . a2n x2 0

... ... ... ... ... = ...


0
am1 am2 . . . amn
xn

di m equazioni in n incognite. Fissiamo le basi canoniche in Rn e Rm . Allora


la matrice A rappresenta una applicazione lineare fA : Rn Rm . Abbiamo

74

CHAPTER 8. APPLICAZIONI LINEARI E MATRICI

una soluzione non banale del sistema omogeneo sse ker(fA ) 6= {0}. Ricordiamo dalla Proposizione 8.1.2 che
n = dim Rn = dim ker(fA ) + dim Im(fA ).
Se n > m, sicuramente il sistema ha soluzione (altrimenti, n = dim Im(fA )
m).

b1
b2
m

Dato il vettore non nullo b =


. . . R , il sistema lineare
bm

a11 a12
a21 a22

... ...
am1 am2

...
...
...
...

a1n
x1
x2
a2n

... ...
amn
xn

b1
b2
=

...
bm

ammette soluzione se b Im(fA ).


Spieghiamo ora il sistema di eliminazione di Gauss in termini di composizione di applicazioni lineari. Sia A una matrice m n e sia fA : Rn Rm
lapplicazione lineare associata alla matrice (rispetto alle basi canoniche).
Se g : Rm Rm `e un arbitrario isomorfismo rappresentato dalla matrice
quadrata B di dimensione m m, allora
Ax = 0 sse x ker(fA ) sse x ker(g fA ) sse BAx = 0.
Se il sistema lineare ha un vettore b di termini noti non tutti nulli, si ha:
Ax = b sse b Im(fA ) sse g(b) Im(g fA ) sse BAx = Bb.
Lisomorfismo g che utilizziamo nel metodo di eliminazione di Gauss `e composizione di isomorfismi determinati da matrici elementari.

Chapter 9
Determinanti
Propriet`
a del determinante
Sia A una matrice n n sul campo numerico K. Ad A possiamo associare il
suo determinante det(A) K, che possiamo anche denotare con le colonne
di A: det(A1 , . . . , An ) (oppure le righe). Il determinante `e univocamente
determinato dalle seguenti tre propriet`a:
(i) Il determinante come funzione di una colonna `e lineare:
det(A1 , . . . , B+C, . . . , An ) = det(A1 , . . . , B, . . . , An )+det(A1 , . . . , C, . . . , An );
det(A1 , . . . , cAj , . . . , An ) = c det(A1 , . . . , Aj , . . . , An ).
(ii) Se due colonne contigue sono uguali, cioe Aj = Aj+1 , allora det(A) = 0.
(iii) det(I) = 1, dove I `e la matrice identica.
Per semplicit`a di notazione scriveremo
det(A) = |A|.
Example 47. Il determinante di una matrice diagonale `e il prodotto degli
elementi della diagonale:






a 0





=(i) a 1 0 =(i) ab 1 0 =(iii) ab.
0 b
0 b
0 1
Analizziamo le conseguenze delle tre propriet`a (i)-(iii).
Proposition 9.0.1. (iv) Se due colonne contigue sono scambiate, il determinante cambia di segno.
75

76

CHAPTER 9. DETERMINANTI

(v) Se le colonne Ai e Aj (con i 6= j) della matrice A sono uguali allora


det(A) = 0.
(vi) Se si somma ad una colonna un multiplo scalare di unaltra colonna il
valore del determinante non cambia.
Proof. (iv) Per semplicit`a consideriamo le prime due colonne. Si ha det(A1 +
A2 , A1 + A2 , . . . ) = 0 perche due colonne contigue sono uguali. Per linearit`a
si ottiene:
0 =
=
=
=
=
=
=

det(A1 + A2 , A1 + A2 , . . . )
det(A1 , A1 + A2 , . . . ) + det(A2 , A1 + A2 , . . . )
det(A1 , A1 , . . . ) + det(A1 , A2 , . . . ) + det(A2 , A1 + A2 , . . . )
0 + det(A1 , A2 , . . . ) + det(A2 , A1 + A2 , . . . )
det(A1 , A2 , . . . ) + det(A2 , A1 , . . . ) + det(A2 , A2 , . . . )
det(A1 , A2 , . . . ) + det(A2 , A1 , . . . ) + 0
det(A1 , A2 , . . . ) + det(A2 , A1 , . . . ).

da cui si ha la conclusione.
(v) Applicando (iv) si scambiano colonne sino a quando le due colonne
uguali sono contigue. Poi si applica (ii).
(vi) Sia det(A) = det(. . . , Ai , . . . , Aj , . . . ), mettendo in evidenza le colonne
i e j. Sommiamo alla colonna i c volte la colonna j:
det(. . . , Ai + cAj , . . . , Aj , . . . ) = det(. . . , Ai , . . . , Aj , . . . ) + c det(. . . , Aj , . . . , Aj , . . . )
= det(A) + 0
= det(A).

Example 48. Dal Lemma 6.2.2 una matrice quadrata 2 2




a b
A=
c d
`e invertibile sse il suo determinante det(A) = ad bc 6= 0. Calcoliamo il
determinante di A applicando le regole (i)-(vi).




a b a b 0 b






|A| =
=
+
c d 0 d c d
Inoltre,

a b

0 d


a 0
=
0 d




+| a b

0 0







= ad + b a a = ad.


a 0 0

77
In maniera simile,

0 b

c d


0 0
=
c d


0 b
+
c 0





=0 b 0

0 c



= bc

applicando Proposizione 9.0.1(iv).


Regola di Cramer e sottospazio dei vettori colonna
Con la regola di Cramer possiamo risolvere il sistema lineare Ax = b utilizzando i determinanti.
Theorem 9.0.2. (Regola di Cramer) Sia A una matrice n n con determinante diverso da 0. Se b `e un vettore colonna e c1 , . . . , cn scalari tali
che
c1 A1 + + cn An = b
allora per ogni i abbiamo
ci =

det(A1 , . . . , Ai1 , b, Ai+1 , . . . , An )


.
det(A1 , . . . , An )

Proof. Si sostituisca in det(A1 , . . . , Ai1 , b, Ai+1 , . . . , An ) il vettore b con la


combinazione lineare c1 A1 + + cn An e si applichino le regole di calcolo
(i)-(vi).
Proposition 9.0.3. I vettori colonna A1 , . . . , An sono linearmente dipendenti sse det(A1 , . . . , An ) = 0.
Proof. Se i vettori colonna sono linearmente dipendenti, allora possiamo
scrivere un opportuno vettore colonna, per esempio il primo, come combinazione lineare degli altri. Se fosse il primo avremmo: det(A1 , . . . , An ) =
det(c2 A2 + + cn An , . . . , An ) = 0 per (i)-(vi).
Supponiamo ora che det(A1 , . . . , An ) = 0 e ipotizziamo per assurdo che i
vettori colonna siano linearmente indipendenti. Allora A1 , . . . , An generano
lo spazio vettoriale Kn . Sia B una matrice qualsiasi il cui determinante
`e 6= 0. Allora ogni vettore colonna B i di B `e combinazione lineare bi =
ci1 A1 + + cin An . Ne segue che 0 6= det(B) = det(B 1 , . . . , B n ) = det(c11 A1 +
+ c1n An , . . . , cn1 A1 + + cnn An ) = 0 per le regole (i)-(vi). Assurdo.
Sia A una matrice m n sul campo K. Le colonne di A generano un
sottospazio di Kn , la cui dimensione `e chiamata la caratteristica per colonne
di A. Le righe di A generano un sottospazio di Km , la cui dimensione `e

78

CHAPTER 9. DETERMINANTI

chiamata la caratteristica per righe di A. Abbiamo gi`a dimostrato in Sezione


8.3 che la caratteristica per righe `e uguale alla caratteristica per colonne.
Cos` possiamo parlare di caratteristica di una matrice.
Se consideriamo il sistema lineare Ax = 0, allora la dimensione dello
spazio delle soluzioni `e n r, dove r `e la caratteristica di A.
Calcolo del determinante
Sia A = (aij ) una matrice quadrata n n. Fissati i e j indichiamo con Aij
la matrice quadrata (n 1) (n 1) ottenuta da A cancellando la riga i e
la colonna j.
Calcolo del determinante di una matrice quadrata A rispetto alla riga i:
|A| = (1)i+1 ai1 |Ai1 | + + (1)i+n ain |Ain |.
Calcolo del determinante di una matrice quadrata A rispetto alla colonna j:
|A| = (1)j+1 a1j |A1j | + + (1)j+n anj |Anj |.
Il determinante di una matrice 3 3:

Figure 9.1: Determinante di una matrice 3 3


Sviluppando rispetto alla prima riga si ha: |A| = a(ie hf ) b(di f g) +
c(dh ge) = (aei hf a) + (bf g idb) + (cdh gec) = aei + bf g + cdh
gec hf a idb.
Altre propriet`
a del determinante
Proposition 9.0.4.

1. |At | = |A|;

2. |AB| = |A| |B|;


3. |A1 | = |A|1 ;
Calcolo matrice inversa con il determinante
E j `e il vettore colonna con 1 nel posto j e 0 in tutti gli altri posti.

79
Proposition 9.0.5. Sia A = (aij ) una matrice quadrata con determinante
non nullo. Se B = (bij ) `e la matrice inversa di A, allora applicando la regola
di Cramer al sistema lineare:

b1j
b2j
j

A
... = E
bnj
oppure
b1j A1 + b2j A2 + + bnj An = E j
abbiamo
bij =

det(A1 , . . . , Ai1 , E j , Ai+1 , . . . , An )


.
|A|

Determinante di una applicazione lineare


Sia f : V V una applicazione lineare. Sia v1 , . . . , vn una base e sia A la
matrice n n che rappresenta f rispetto alla base v1 , . . . , vn .
Se consideriamo unaltra base di V , w1 , . . . , wn , allora consideriamo la
matrice B che rappresenta f rispetto a questa nuova base. Dalla Sezione 8.4.1
sappiamo che esiste una matrice invertibile C che corrisponde al cambiamento
di base. Cos` si ha:
B = C 1 AC
e quindi
|B| = |C|1 |A| |C| = |A|.
Theorem 9.0.6. Il determinante di una applicazione lineare f `e indipendente dalla scelta della base (e quindi della matrice che rappresenta f ).
Data una applicazione lineare f , possiamo scrivere quindi det(f ), intendendo con questo il determinante di una qualsiasi matrice che rappresenta
f.
Corollary 9.0.7. Si ha per applicazioni lineari componibili g, f e per isomorfismi lineari h:
det(g f ) = det(g)det(f )
e
1 = det(h1 h) = det(h1 )det(h) = det(h)1 det(h).

80

CHAPTER 9. DETERMINANTI

Chapter 10
Autovettori e Autovalori
Definition 10.0.1. Sia V uno spazio vettoriale ed f : V V una applicazione lineare. Un autovettore `e un elemento non nullo v V per cui esiste
uno scalare tale che
f (v) = v.
Lo scalare viene detto autovalore.
Lo scalare 0 `e un autovalore di f sse il nucleo ker(f ) 6= {0} ha dimensione
1.
Se A `e una matrice che rappresenta f rispetto alla base v1 , . . . , vn e
lautovettore v ha coordinate v = c1 v1 + + cn vn , allora

c1
c1
A ... = ... .
cn
cn
Lautovalore e lautovettore v sono detti anche autovalore e autovettore
della matrice A.
Remark 2. Se V `e uno spazio vettoriale sul campo reale, v `e un autovettore
di autovalore > 0 sse lapplicazione lineare trasforma la retta cv (c R)
in se stessa, dilatandola se 1 oppure contraendola se 0 1. Se
lautovalore `e negativo abbiamo anche un ribaltamento.
Proposition 10.0.1. Sia A una matrice n n sul campo K. Allora le
seguenti condizioni sono equivalenti:
(i) `e un autovalore di A;
(ii) |A I| = 0;
(iii) La matrice A I non `e invertibile.
81

82

CHAPTER 10. AUTOVETTORI E AUTOVALORI

` sufficiente osservare che Ax = x sse


Proof. Sia x un vettore non nullo. E
(AI)x = 0. Quindi il sistema lineare omogeneo determinato dalla matrice
AI ammette soluzioni non banali. Questo `e equivalente a |AI| = 0.
Consideriamo il determinante |A I|. Nel caso 2 2 si ha:

a
a12
|A I| = 11
a21
a22



= 2 + c1 + c0 ,

dove c0 = |A| e c1 = a11 a22 .


Nel caso di matrice 3 3 si ha:

a11
a12
a13

a22
a23
|A I| = a21
a31
a32
a33




= 3 + c2 2 + c1 + c0 ,

dove
c0 = |A|;

c2 = a11 +a22 +a33 ;


a
a
c1 = 22 23
a32 a33


a11 a13

a31 a33


a11 a12

a21 a22

Definition 10.0.2. Sia A una matrice n n. Il polinomio (di grado n)


determinato dal determinante |A I| si chiama polinomio caratteristico
della matrice A.
Proposition 10.0.2. Gli autovalori di una matrice A sono gli zeri del polinomio caratteristico di A.
Si noti che la matrice A e la sua trasposta At hanno lo stesso polinomio
caratteristico, perche |A I| = |(A I)t | = |At I|.
Example 49. Sia

A=

1 2
3 4

Calcoliamo il polinomio caratteristico di A:




1

2
= (1 )(4 ) 6 = 2 5 2.
A =
3
4
Le soluzioni dellequazione 2 5 2 = 0 sono: = 2
matrice ha due autovalori.

33
.
2

Quindi la

10.1. AUTOSPAZI

83

Example 50. Sia

1 0 1
A= 2 0 2
2 2 3


1 1
= 0. Ne segue
Il determinante della matrice A `e nullo: |A| = 2
2 2
che il sistema omogeneo Ax = 0 ammette soluzioni x 6= 0 non nulle. Calcoliamo il polinomio caratteristico di A sviluppando il determinante rispetto
alla prima riga e scopriremo che 0 sar`a un autovalore della matrice A:


1 0




1



2
2
+
=

2 = (1 )
A = 2
2 3 2 2
2

2 3
= (1 )((3 ) 4) + 4 + 2 = 3 + 42 + 3.
3
2
Lequazione
4 3 = 0 ammette come soluzioni gli autovalori: = 0
e = 2 7.

Proposition 10.0.3. Il polinomio caratteristico di una matrice A = (aij )


triangolare superiore (o inferiore) `e dato da
p() = (a11 )(a22 ) (ann ).
Gli autovalori di una matrice triangolare superiore (o inferiore) sono gli elementi della diagonale.
Proposition 10.0.4. Matrici simili (si veda Definizione 8.4.1) hanno lo
stesso polinomio caratteristico.
Proof. Siano A e B matrici simili. Allora esiste una matrice invertibile P tale
che B = P AP 1 . Si ha: |B I| = |P AP 1 I| = |P AP 1 P IP 1 | =
|P (A I)P 1 | = |P | |(A I)| |P |1 = |A I|.
Sia f : V V una applicazione lineare. Se V ha dimensione n, allora
f ha al pi`
u n autovalori, perch`e gli autovalori sono le radici del polinomio
caratteristico di grado n, che ha al pi`
u n radici.

10.1

Autospazi

Proposition 10.1.1. Sia A una matrice quadrata. Dato un autovalore di


A, linsieme degli autovettori di autovalore `e un sottospazio vettoriale di V
che coincide con il nucleo dellapplicazione lineare determinata dalla matrice
A I.

84

CHAPTER 10. AUTOVETTORI E AUTOVALORI

Definition 10.1.1. Sia V uno spazio vettoriale, f : V V una applicazione


lineare e un autovalore di f . Allora il sottospazio vettoriale E degli autovettori di si chiama autospazio. La dimensione dellautospazio E si dice
molteplicit`a dellautovalore .

10.2

Matrici diagonalizzabili

Se una matrice a coefficienti reali `e diagonale e se aii 6= 0, allora il vettore


della base canonica ei = (0, . . . , 1, . . . , 0) `e un autovettore di autovalore aii :

a11
0 ...
0
0 a22 . . .

... ... ... ...

0
0 . . . ann

0
...
1
...
0

= aii

0
...
1
...
0

Ogni matrice diagonale dilata (o contrae) il vettore ei della base canonica


di aii 1 (0 < aii < 1). Se il segno di aii `e negativo, si ha anche un
ribaltamento.
Example 51. Matrici diagonali 2 2:

 
 
2 0
1
1
=2
0 5
0
0
e


2 0
0 5



0
1


=5

0
1

Definition 10.2.1. Una matrice A `e diagonizzabile se `e simile ad una matrice


diagonale.
Sia f : Rn Rn lapplicazione lineare associata alla matrice A rispetto
alla base canonica. Dire che A `e diagonizzabile significa dire che esiste un
cambio di base dalla base canonica ei ad una base opportuna wi tale che
lapplicazione lineare f rispetto a questa nuova base ammette una matrice
diagonale D. Se P `e la matrice del cambio di base da wi a ei allora si ha:
A = P DP.1

10.2. MATRICI DIAGONALIZZABILI

85

Se A `e diagonalizzabile e si conoscono la matrice invertibile P e la matrice


diagonale D, allora `e facile calcolare le potenze della matrice A: A2 = AA =
P 1 DDP = P 1 D2 P , A3 = AAA = P 1 D3 P , etc. Se

d1
0 ...
0
0 d2 . . .
0

D=
... ... ... ...
0
0 . . . dn
allora

dk1
0
k

0
d
2
Dk =
... ...
0
0

...
...
...
...

0
0

...
dkn

Il teorema seguente caratterizza le matrici diagonalizzabili in termini di


autovettori e autovalori.
Theorem 10.2.1. Sia A una matrice reale n n e 1 , . . . , k tutti gli autovalori reali distinti di A. Allora si ha:
(i) A `e diagonalizzabile sse la somma delle dimensioni degli autospazi `e n:
dim E1 + + dim Ek = n.
(ii) Se A `e diagonalizzabile con P 1 AP = D, allora le n colonne di P possono essere suddivise in k insiemi di cardinalit`a dim E1 , . . . , dim Ek .
I vettori colonna del primo insieme sono una base del sottospazio E1 ,
e cos` via per gli altri insiemi. Gli elementi della diagonale di D sono
gli autovalori. Un autovalore occorrer`a tante volte in D quanto la dimensione del suo autospazio.
Example

 52. Calcoliamo

 gli autovettori ed autovalori della matrice A =
2 1
x1
. Se x =
`e un autovettore di autovalore abbiamo
3 2
x2
(A I)x = 0.
Il precedente sistema lineare omogeneo ha soluzione non nulla sse


2
1

|A I| =
= (2 )2 3 = 0.
3 2

86

CHAPTER 10. AUTOVETTORI E AUTOVALORI

Lequazione di secondo grado


2 4 + 1 = 0
ha soluzioni
1 = 2 +

3;

Le due matrici che si ottengono sono:





3
1

;
B = A(2+ 3)I =
3 3

2 = 2

3.

C = A(2 3)I =

3 1
3
3

Ora calcoliamo gli autovettori. Per 1 = 2 + 3 lo spazio degli autovettori,


che `e lo spazio delle soluzioni del sistema
omogeneo Bx =0, ha dimensione

1 ed `e descritto dalla retta x2 = 3x1 . Per = 2 3 lo spazio degli


autovettori, che `e lo spazio delle soluzioni del sistema
omogeneo Cx = 0, ha

dimensione 1 ed `e descritto dalla retta x2 = 3x1 .

1 0 0
Example 53. Sia A = 1 2 0 una matrice. Vogliamo
1 0 2
1. Determinare gli autovalori di A e le relative molteplicit`a.
2. Determinare gli autospazi di A e trovare, se esiste, una base di R3
formata da autovettori di A.
3. Calcolare una matrice P invertibile tale che P 1 AP sia diagonale.
La matrice A `e triangolare inferiore. Quindi gli autovalori sono gli elementi sulla diagonale: lautovalore 1 con molteplicit`a 1, e lautovalore 2 con
molteplicit`a 2. Un altro modo per calcolare gli autovalori `e tramite il polinomio caratteristico:


1

0
0


1 2
0 = (1 )(2 )2 .


1
0 2
Le radici del polinomio caratteristico (1 )(2 )2 = 0 sono 1, 2, 2.
Per trovare gli autospazi bisogna risolvere i sistemi lineari omogenei


11
0
0
x1
0 0 0
x1
0
1 2 1
0 x2 = 1 1 0 x2 = 0
1
0 21
x3
1 0 1
x3
0

10.2. MATRICI DIAGONALIZZABILI

87


12
0
0
x1
1 0 0
x1
0
1 2 2

0
x2 = 1 0 0
x2 = 0
1
0 22
x3
1 0 0
x3
0
Il prima sistema equivale a x2 = x1 e x3 = x1 . Lautospazio delle soluzioni
ha come base il vettore (1, 1, 1). Il secondo sistema ha per soluzione il
piano x1 = 0, che ha per base i vettori (0, 1, 0) e (0, 0, 1). Quindi una base di
R3 fatta di autovettori `e composta dai vettori (1, 1, 1), (0, 1, 0) e (0, 0, 1).
Rispetto alla base composta dagli autovettori (1, 1, 1), (0, 1, 0) e (0, 0, 1) la
matrice diagonale D simile ad A `e:

1 0 0
D= 0 2 0
0 0 2
La matrice P tale che D = P 1 AP `e diagonale, `e la matrice le cui colonne
sono gli autovettori:

1 0 0
P = 1 1 0
1 0 1
Example 54. Siano dati in R3 i vettori
v1 = (0, 1, 1);

v2 = (2, 0, 1);

v3 = (1, 2, 0).

1. Verificare che esiste una unica applicazione lineare f : R3 R3 avente


v1 , v2 , v3 come autovettori associati, rispettivamente, agli autovalori
0, 3, 6.
2. Determinare (a) la matrice A associata ad f ; (b) ker(f ) e Im(f ).
Dobbiamo avere:
f (v1 ) = 0;

f (v2 ) = 3v2 ;

f (v3 ) = 6v3 .

I tre vettori v1 , v2 , v3 sono linearmente indipendenti (dimostrarlo!) e quindi


costituiscono una base di R3 . Ne segue che la funzione f `e unica perche `e
definita su ogni vettore v = c1 v1 + c2 v2 + c3 v3 di R3 : f (c1 v1 + c2 v2 + c3 v3 ) =
c1 f (v1 ) + c2 f (v2 ) + c3 f (v3 ) = 3c2 v2 + 6c3 v3 .
La matrice di f rispetto alla base v1 , v2 , v3 di autovettori `e la matrice
diagonale

0 0 0
D= 0 3 0
0 0 6

88

CHAPTER 10. AUTOVETTORI E AUTOVALORI

Per calcolare la matrice A rispetto alla base canonica di R3 dobbiamo considerare la matrice P le cui colonne sono le coordinate degli autovettori rispetto
alla base canonica:

0 2 1
P = 1 0 2
1 1 0
Siccome D = P 1 AP , ricaviamo che A = P DP 1 . Linversa della matrice
P `e:

2/3 1/3 4/3


P 1 = 2/3 1/3 1/3
1/3 2/3
2/3
E quindi

A = P DP 1

10.3

0 2 1
0

1 0 2
0
=
1 1 0
0

2
= 4
2

0 0
2/3 1/3 4/3
3 0 2/3 1/3 1/3 =
0 6
1/3 2/3
2/3

2
2
8
8
1 1

Rotazioni del piano

Consideriamo il piano Cartesiano con la base canonica e1 = (1, 0) e e2 =


(0, 1). Consideriamo una rotazione R in senso antiorario degli assi Cartesiani
di un angolo . Le rotazioni preservano la distanza e sono isomorfismi lineari
R : R2 R2 . Il vettore e1 viene trasformato nel vettore
R (e1 ) = (cos )e1 + (sin )e2 ,
mentre il vettore e2 viene trasformato nel vettore
R (e2 ) = ( sin )e1 + (cos )e2 .
Quindi la matrice della rotazione `e:


cos sin
sin
cos
Il vettore (3, 2), per esempio, viene ruotato di un angolo e viene trasformato
nel vettore

  

cos sin 3
3 cos 2 sin
=
sin
cos 2
3 sin + 2 cos

10.3. ROTAZIONI DEL PIANO

89

La matrice ha determinante uguale ad 1: (cos )2 + (sin )2 = 1. Ogni rotazione `e infatti invertibile. La matrice inversa, che corrisponde ad una
rotazione oraria di un angolo , `e:


cos sin
sin cos
Vi `e una corrispondenza bigettiva tra rotazioni e matrici


a b
b a
con determinante a2 + b2 = 1.
Si ricorda che un altro modo di rappresentare le rotazioni `e con la moltiplicazione dei numeri complessi. Se z = cos + i sin ed u = 3 + 2i, allora
zu = (3 cos 2 sin ) + (3 sin + 2 cos )i.

90

CHAPTER 10. AUTOVETTORI E AUTOVALORI

Chapter 11
Esempi
11.1

Algoritmo di Google

Questo esempio `e la terza lezione nel sito Winter2009/RalucaRemus (che


troverete con un motore di ricerca).
Supponiamo di avere quattro siti web (www.page1.com, www.page2.com,
www.page3.com, www.page4.com) con links tra i siti descritti dal seguente
grafo: Il nodo 1 ha tre archi uscenti. Ci`o significa che vi sono nella pagina

Figure 11.1: Il grafo con archi pesati


web1 tre link, il primo diretto alla pagina web2, il secondo alla pagina web3
e lultimo alla pagina web3. Similmente per gli altri archi uscenti dagli altri
nodi.
Supponiamo che un utente si trovi nella pagina web1. Immaginiamo
che gli eventi passa alla pagina web2, passa alla pagina web3, passa
alla pagina web4 siano equiprobabili. Quindi se un utente si trover`a nella
91

92

CHAPTER 11. ESEMPI

pagina web1 vi `e una probabilit`a 13 che passi alla pagina web2, e cos` via.
Lo stesso discorso si applica per gli altri nodi con probabilit`a possibilmente
diverse, che dipendono dal numero di links.
Siccome il nodo 1 ha tre archi uscenti, trasferisce un terzo della sua importanza a ciascuno dei tre nodi riceventi. In generale, se un nodo ha k archi
uscenti, trasferisce k1 della sua importanza a ciascuno dei nodi riceventi.
La matrice A di transizione del grafo mette in ciascuna colonna Ai il
trasferimento di importanza dal nodo i agli altri nodi, mentre ciascuna riga
Ai della matrice rappresenta limportanza che il nodo i riceve dagli altri nodi:

0 0 1 12
1 0 0 0
3

A=
1 1 0 1
3
2
2
1
1
0 0
3
2
La matrice A `e invertibile. Sviluppiamo il determinante rispetto alla terza
colonna.

1
0 0
3
1
1
det(A) = det( 13 21 21 ) = ( ).
3
4
1
1
0
3
2

x1
x2

Denotiamo con x =
x3 limportanza delle quattro pagine. Allora
x4
dobbiamo avere:


0 0 1 21
x1
x1
1 0 0 0 x2 x2
3

Ax =
1 1 0 1 x3 = x3
3
2
2
1
1
0 0
x4
x4
3
2
In altre parole, il vettore x `e un autovettore di autovalore 1. Risolvendo il
sistema lineare corrispondente
x1
x2
x3
x4

= x3 +
= x31
= x31 +
= x31 +

x4
2
x2
2
x2
2

x4
2

si ottiene facilmente che abbiamo una retta di soluzioni c(12, 4, 9, 6) al variare


di c. Prendendo il vettore la cui somma delle coordinate `e 1 otteniamo

0.38
0.12

PageRank vector
0.29
0.19

11.2. NUMERI DI FIBONACCI

93

In altre parole, il sito web1 ha importanza 0.38 e cos` via per gli altri. Su
100 utenti, 38 visiteranno il sito web1.
Si suggerisce di cercare con un motore di ricerca il file jkhoury/Google.pdf
dove viene spiegato in dettaglio lalgoritmo di Google.

11.2

Numeri di Fibonacci

Questo esempio `e preso da jkhoury/fibonacci.htm


Allinizio dellanno abbiamo una coppia di conigli maschio e femmina. Le
regole sono le seguenti: Dopo due mesi ogni coppia produce una coppia mista
(maschio, femmina) e da quel momento una nuova coppia mista ogni mese
successivo. Nessun coniglio muore. Indichiamo con Fn il numero di conigli

Figure 11.2: Coppie di conigli e successione di Fibonacci


dopo n mesi. Abbiamo:
F0 = 1;

F1 = 1;

Fn = Fn1 + Fn2 .

La successione cresce rapidamente. Dopo 55 mesi abbiamo F55 = 139.583.862.445.


Esiste unespressione che ci permette di trovare Fn facilmente? La risposta
`e positiva se si conosce il processo di diagonalizzazione di una matrice.

94

CHAPTER 11. ESEMPI


Consideriamo la matrice quadrata


1 1
A=
1 0

Allora partendo dal vettore




si ricava che

o in altri termini


  
F1
1
=
F0
1




Fn+1
Fn
=A
Fn
Fn1


 
 
Fn+1
1
n 1
= AA A
=A
(n-volte)
1
Fn
1

La matrice A `e diagonalizzabile (si veda il Capitolo 10 su autovalori e autovettori), ossia esiste una matrice invertibile P ed una matrice diagonale
D tale che A = P 1 DP da cui si ricava An = P 1 Dn P . Siccome `e facile
calcolare una potenza Dn di una matrice diagonale, `e anche facile calcolare
An .
Calcoliamo gli autovalori di A, per cui deve essere det(A I) = 0:


1 1
det(A I) = det(
) = (1 ) 1 = 0.
1

In altri termini,
2 1 = 0.
Le due soluzioni sono reali

1+ 5
;
1 =
2

1 5
2 =
.
2

Se il vettore x `e un autovettore corrispondente allautovalore i (i = 1, 2)


allora abbiamo che Ax = i x, che si pu`o scrivere come (A i I)x = 0, che `e
un sistema omogeneo.
Risolvendo tale sistema omogeneo si scopre che il vet
1+ 5
tore w1 =
(
,
1)
`
e
una
base per lo spazio
degli autovettori dellautovalore
2

1 = 1+2 5 , mentre il vettore w2 =


( 12 5 , 1) `e una base per lo spazio degli
autovettori dellautovalore 2 = 12 5 . Dal Teorema 10.2.1 si ricava che i
vettori w1 , w2 costituiscono una base di R2 .

11.2. NUMERI DI FIBONACCI

95

Sempre dal Teorema 10.2.1 si ricava che la matrice i cui vettori colonna
sono w1 e w2 `e la matrice invertibile che diagonalizza A:
 1+5 15 
2
2
P =
1
1
La matrice inversa `e

"
P 1 =

1
5
1

2 5

#
1+
5
2 5
1+ 5
2 5

mentre la matrice diagonale D `e


"
D=
Allora si ha:

1+ 5
2

1 5
2

 1+5
2


 
 
Fn+1
n 1
n 1 1
=A
= PD P
=
Fn
1
1
#"
# 

"
1+
1+ 5 n
1 5
5
1
(
)
0
1
5
2 5
2

2
.
1
5
1+
5
1
n
1

1
0
( 2 )
2 5
2 5

Infine moltiplicando le matrici si ricava:

!n+1
1 1+ 5

Fn =
2
5

!n+1
1 5

Un calcolatore potente in poco tempo calcola F100 = 573147844013817084101.


Il numero

1+ 5
=
2
` utilizzato in arte e ar`e la famosa sezione aurea o divina proporzione. E
chitettura per dare simmetria alla rappresentazioni figurative geometriche
(si consulti il libro di T. Livio: La sezione aurea). Il rettangolo aureo `e un
rettangolo le cui proporzioni sono basate sulla sezione aurea. Ci`o significa
che il rapporto fra il lato maggiore a e quello minore b, ab , `e identico a quello
fra il lato minore b e il segmento a b ottenuto sottraendo b dal lato maggiore a (il che implica che entrambi i rapporti siano ). Quindi se abbiamo
un rettangolo aureo di lati a e b con a > b si ha: Se a > b sono lunghezze
non nulle, allora
a
b
a+b
=
= =
.
a
b
ab

96

CHAPTER 11. ESEMPI

Figure 11.3: Sezione aurea


. Cos` il rettangolo di
Siccome 2 1 = 0, si ha anche che = 1+

lati e 1 `e un rettangolo aureo.


Si ha anche che il rapporto di due numeri di Fibonacci consecutivi tende
alla sezione aurea quando lindice n tende allinfinito.
= limn

11.3

Fn
.
Fn1

Crittografia

I caratteri dellalfabeto italiano sono 26. Aggiungiamo un ulteriore carattere


che rappresenta il blank, lo spazio vuoto. Codifichiamo questi 27 caratteri
con dei numeri arbitrari. Per semplificare i conti riduciamo il numero di
caratteri a 11 compreso il blank:
A = 345;

B = 12438;

G = 5499;

C = 79;

I = 9090;

D = 987;

0 = 555;

E = 30078;

R = 777;

F = 675;

blank = 647.

Allora la frase GIOCO BARO viene codificata in maniera elementare dalla


seguente successione di numeri:
5499, 9090, 555, 79, 555, 647, 12438, 345, 777, 555
Consideriamo una matrice Z quadrata n n (n molto grande) che sia invertibile. Immaginiamo che la matrice Z sia conosciuta soltanto ai due interlocutori che devono scambiare il messaggio cifrato. Nel nostro esempio per
ragioni di spazio prendiamo una matrice 3 3:

1 2 3
Z = 4 5 6
7 8 9
Allora suddividiamo il messaggio con la codifica elementare in vettori di
lunghezza 3 avendo laccortezza di aggiungere degli spazi finale per ottenere

11.4. COMPRESSIONE DI IMMAGINI

97

un multiplo del 3.

5499
79
12438
555
9090 , 555 , 345 , 647 .
555
647
777
647
Mettiamo tutti questi vettori in una matrice U

5499 79 12438

U = 9090 555 345


555 647 777
Consideriamo la matrice prodotto

1 2 3
5499

9090
ZU = 4 5 6
7 8 9
555

25344 3130
70776 6973
116208 10816

di dimensione 3 4

555
647
647

79 12438 555
555 345 647 =
647 777 647

15459 3790
56139 9337
96819 14884

Allora i numeri che vengono trasmessi sono


25344, 3130, 15459, 3790, 70776, 6973, 56139, 9337, 116208, 10816, 96819, 14884
Una persona che intercetta i numeri non riesce a decodificare il messaggio,
mentre il ricevente semplicemente moltiplica a sinistra la matrice ZU per
Z 1 e recupera U .

11.4

Compressione di Immagini

Questa sezione `e presa da jkhoury/haar.htm


Consideriamo una immagine digitale come una matrice. Ogni componente
della matrice corrisponde ad un pixel (elemento elementare della figura).
Supponiamo di avere una matrice 256 256 di pixels con valori di ciascuna
componente un numero da 0 (nero) a 255 (bianco). Nel mezzo varie sfumature
di grigio. La tecnica JPEG divide limmagine in blocchi 8 8 e assegna una
matrice ad ogni blocco. Utilizziamo lalgebra lineare per massimizzare la
compressione dellimmagine.

98

CHAPTER 11. ESEMPI

Figure 11.4: Compressione di immagine con differenti metodi

Figure 11.5: Metodo JPEG

11.5

Errori nella trasmissione dellinformazione

Chapter 12
Spazi vettoriali complessi
Se V `e uno spazio vettoriale complesso, allora una applicazione f : V V
ha almeno un autovalore, perch`e ogni polinomio a coefficienti in C ha almeno
una radice complessa.

99