Sei sulla pagina 1di 134

Appunti di

Algebra Lineare e Geometria Analitica


Fausto De Mari
Indice

1 Strutture Algebriche 3
1.1 Cenni di teoria degli insiemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Applicazioni tra insiemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Gruppi, Anelli e Campi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Introduzione alle Matrici e ai Sistemi Lineari 17


2.1 Generalità e operazioni tra matrici . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Matrici a scala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Generalità sui sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3 Spazi vettoriali 28
3.1 Vettori liberi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.2 Vettori numerici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3 Spazi vettoriali su un campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.4 Sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.5 Dipendenza e indipendenza lineare . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.6 Spazi vettoriali di dimensione nita . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.7 Applicazioni lineari tra spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . 51
3.8 Immagine e nucleo di un'applicazione lineare . . . . . . . . . . . . . . . . . . . . . 56
3.9 Spazi euclidei reali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

4 Matrici e Sistemi lineari 65


4.1 Determinante di una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.2 Matrici Invertibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.3 Dipendenza lineare e rango di una matrice . . . . . . . . . . . . . . . . . . . . . . 73
4.4 Applicazioni ai sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.5 Sitemi lineari omogenei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.6 Matrici e applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.7 Matrice del cambio di base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

5 Diagonalizzazione di endomorsmi e matrici 91


5.1 Autovalori, autovettori e autospazi . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.2 Endomorsmi diagonalizzabili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.3 Matrici diagonalizzabili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

1
6 Geometria analitica 101
6.1 Sottospazi ani di Rn. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
n
6.2 Rappresentazione dei sottospazi ani di R . . . . . . . . . . . . . . . . . . . . . 103
2
6.3 Geometria ane in R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3
6.4 Geometria ane in R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.5 Questioni metriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

7 Le coniche 122
7.1 Ampliamento del piano ane euclideo . . . . . . . . . . . . . . . . . . . . . . . . 122
7.2 Le coniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
7.3 Classicazione delle coniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
7.4 Polarità denita da una conica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
7.4.1 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

2
Capitolo 1
Strutture Algebriche

1.1 Cenni di teoria degli insiemi


Anche se è da ritenersi acquisita dagli studi precedenti una certa familiarità con la teoria degli
insiemi, con la relativa nomenclatura e con la relativa simbologia, in questo primo paragrafo si
riporta, per comodità del lettore, un brevissimo sunto dell'argomento.

In teoria (elementare) degli insiemi, i concetti di ente, di insieme e di proprietà sono concetti
primitivi. In maniera intuitiva, un insieme è una collezione di enti, o oggetti, di natura arbitraria.
Gli insiemi si indicano con le lettere maiuscole dell'alfabeto ed i loro elementi con le lettere
minuscole. Per indicare che un ente x è un elemento di un insieme S si scrive x∈S e si legge x
appartiene ad S , la scrittura x 6∈ S indica invece che x non appartiene ad S ossia che x non è un
elemento di S . Se P è una proprietà e x è un ente per il quale la proprietà P è vera si usa una
delle scritture x : P o x|P e si legge x tale che P . Esistono delle proprietà che risultano false per
ogni ente, come ad esempio la proprietà  x 6= x"; una proprietà che è falsa per ogni ente determina
un insieme privo di elementi chiamato insieme vuoto che si denota col simbolo ∅.
Un insieme può essere denito elencando i suoi elementi oppure specicando le proprietà
soddisfatte dai suoi elementi. Ad esempio possiamo scrivere

{0, 1, 2, 3, −1, −2} oppure {n ∈ Z | − 2 ≤ n ≤ 3}


per indicare l'insieme dei numeri interi compresi tra −2 e 3. Nella precedente scrittura Z sta ad
indicare l'insieme dei numeri interi relativi, più in generale per gli insiemi numerici le notazioni
usuali sono:

N0 = {0, 1, 2, 3, . . . } numeri naurali incluso lo 0;


N numeri naturali escluso lo 0;
Z numeri interi relativi (ossia positivi e negativi, incluso lo 0);
Q numeri razionali (ovvero i quozienti di interi);
R numeri reali.
In un insieme l'ordine degli elementi è irrilevante, ad esempio le scritture {x, y} e {y, x} rap-
presentano lo stesso insieme, inoltre l'eventuale presenza di ripetizioni non modica la natura
dell'insieme, ad esempio i simboli {x, y}, {y, x} e {x, y, y} rappresentano tutti lo stesso insieme.

Siano S e T insiemi. Si dice che S è contenuto in T , o che T contiene S , se ogni elemento di


S è anche un elemento di T ; in tal caso si scrive S ⊆ T e si dice anche che S è una parte di T , o
che S è un sottoinsieme di T , o che S è incluso in T oppure che T contiene S . In simboli si scrive

3

S ⊆ T ⇔ ∀x x ∈ S ⇒ x ∈ T .

Nella precendente scrittura compaiono i simboli  ⇔" (equivalenza),  ⇒" (implicazione) e  ∀".
Se P e Q P ⇒ Q, e si legge  P implica Q", per indicare che
sono due proposizioni si scrive
Q P , mentre si scrive P ⇔ Q, e si legge  P se e solo se Q", per indicare
è conseguenza di
che P ⇒ Q e che Q ⇒ P . Invece il simbolo  ∀" traduce la parola per ogni" e si chiama
quanticatore universale. Un altro simbolo di cui si farà uso è  ∃" che si chiama quaticatore
esistenziale e traduce in simbolo la parola esiste"; talvolta il quanticatore esistenziale precederà
un punto esclamativo  ∃!" e in tal caso questo simbolo tradurrà la parola esiste ed è unico".

Chiaramente l'insieme vuoto ∅ è contenuto in ogni insieme, mentre qualsiasi sia l'insieme S è
sempre vero che S ⊆ S. Quindi, detto insieme delle parti di S l'insieme

P (S) = {X | X ⊆ S},
si ha che P (S) non è mai vuoto perchè ad esso appartengono sempre gli insiemi ∅ e S . Si osservi
anche che S = T se e solo se S ⊆ T e T ⊆ S . Si dice che l'insieme S è contenuto propriamente
nell'insieme T se S ⊆ T e S 6= T ; in tal caso si scrive S ⊂ T e si dice anche che S è una parte
propria di T , o che è un sottoinsieme proprio di T . Inne, la scrittura S 6⊆ T indica che S non è
contenuto in T .

Siano S e T insiemi. Si dice intersezione di S e T l'insieme S ∩T i cui elementi appartengono


sia ad S T ; in particolare, due insiemi la cui intesezione è l'insieme vuoto si dicono disgiunti. Si
che
dice unione di S e T l'insieme S ∪ T i cui elementi sono in S oppure in T ; inne, si dice dierenza
di S e T l'insieme S \ T di tutti gli elementi che sono in S ma non in T . Quindi:

S ∩ T = {x | x ∈ S e x ∈ T }, S ∪ T = {x | x ∈ S o x ∈ T}
e
S \ T = {x | x ∈ S e x 6∈ T }.
Se S, T e V sono insiemi, alcune delle proprietà dell'unione e dell'intersezione sono qui di
seguito elencate:

(i) S∩S =S e S∪S =S (proprietà iterativa);

(ii) S∩T =T ∩S e S∪T =T ∪S (proprietà commutativa);

(iii) (S ∩ T ) ∩ V = S ∩ (T ∩ V ) e (S ∪ T ) ∪ V = S ∪ (T ∪ V ) (proprietà associativa);

(iv) (S ∪ T ) ∩ V = (S ∩ V ) ∪ (T ∩ V ) (proprietà distributiva dell'intersezione rispetto all'unione);


(v) (S ∩ T ) ∪ V = (S ∪ V ) ∩ (T ∪ V ) (proprietà distributiva dell'unione rispetto all'intersezione).

Siano x ed y enti. Si dice coppia di prima coordinata x e di seconda coordinata y l'insieme

(x, y) = {{x}, {x, y}}


Sostanzialmente la coppia (x, y) indica un insieme in cui l'ordine degli elementi ha un peso, che è
per questo dierente dall'insieme {x, y}, e precisamente è un insieme in cui il primo" elemento è
x e il secondo" elemento è y. E' infatti semplice accorgersi che

(x1 , y1 ) = (x2 , y2 ) ⇔ x1 = x2 e y1 = y2

4
Il concetto di coppia si estende al concetto di terna (x, y, z), che potrebbe essere denita formal-
mente come la coppia di prima coordinata (x, y)
z , e così via possono essere
e seconda coordinata
denite le quadruple, le quintuple, o più in generale le n-uple (con n ≥ 2). In maniera informale
possiamo dire che una n-upla è un insieme ordinato di n elementi (x1 , x2 , . . . , xn ) in cui x1 è il
primo elemento, x2 è il secondo elemento, e così via xn è l'n-simo elemento, ed è inoltre un insieme
che gode della seguente proprietà

(x1 , x2 , . . . , xn ) = (y1 , y2 , . . . , yn ) ⇐⇒ x1 = y1 , x2 = y2 ,. . . , xn = yn .

Se S e T sono due insiemi, si dice prodotto cartesiano di S e T l'insieme

S × T = {(x, y) | x ∈ S e y ∈ T };

nel caso particolare in cui S=T


invece che di prodotto cartesiano si parla di quadrato cartesiano
2
e l'insieme S×S si denota anche con S . Si noti che (se anche S e T sono insiemi)

S×T =S×T ⇔ S=S e T = T; (1.1)

in particolare quindi
S × T = T × S ⇔ S = T.
Inoltre

S×T =∅ ⇔ S =∅ oppure T = ∅.

Esempio 1.1.1. Considerati gli insiemi S = {F, N} e T = {], [, \} si ha che

S × T = {(F, ]), (F, [), (F, \), (N, ]), (N, [), (N, \)}.

E' abbastanza naturale estendere il concetto di prodotto cartesiano al caso di un numero


arbitrario n≥2 di insiemi S1 , . . . , S n , ponendo

S1 × · · · × Sn = {(x1 , . . . , xn ) | xi ∈ Si ∀i = 1, . . . , n};

inoltre, in analogia col quadrato cartesiano, il simbolo Sn indicherà il prodotto cartesiano dell'in-
sieme S per se stesso n volte. Anche in questo caso valgono le analoghe proprietà elencate in
precedenza nel caso del prodotto cartesiano di due insiemi.

Siano S e T insiemi non vuoti. Una corrispondenza di S in T è una coppia R = (S × T, G)


dove G è un sottoinsieme dell'insieme S×T che viene detto graco della corrispondenza; inoltre,
un elemento x ∈ S si dice nella corrispondenza R con un elemento y ∈ T, e si scrive xRy , se
risulta (x, y) ∈ G. Una corrispondenza di S in sé si dice relazione (binaria).

Esempio 1.1.2. Considerati gli insiemi S = {F, N} T = {], [, \}, una corrispondenza R di S
e
in T si ottiene in corrispondenza della scelta dell'insieme {(F, \), (N, ]), (N, \)}: in questo caso si
ha che FR\, NR] e NR\.

5
Si noti che in una corrispondenza è possibile che un elemento sia in corrispondenza con più
elementi, così come in questo esempio accade per l'elemento N che è nella corrispondenza R sia con
] che con \. Si noti anche che la scelta dell'insieme vuoto come graco denisce una corrispondenza
in S × T , dunque in una corrispondenza è possibile pure che elementi di S non abbiano nessun
corrispondente in T .

Sia S un insieme non vuoto. Una relazione binaria R = (S × S, G) in S si dice relazione di


equivalenza se è:

(i) riessiva: xRx per ogni x ∈ S;

(ii) simmetrica: se x, y ∈ S sono tali che xRy allora y R x;

(iii) transitiva: se x, y, z ∈ S sono tali che xRy e yRz allora x R z.

SeR = (S × S, G) è una relazione di equivalenza ed x ∈ S , si dice classe di equivalenza di x


modulo R il sottoinsieme degli elementi di S che sono nella relazione R con x, ossia

[x]R = {y ∈ S | x R y},

e l'elemento x è detto rappresentante della classe di equivalenza [x]R . L'insieme S/R di tutte le
classi di equivalenza modulo R si dice insieme quoziente di S modulo R. Si ha:

• Per ogni x∈S risulta x ∈ [x]R ; in particolare, [x]R 6= ∅.

• x, y ∈ e se [x]R 6= [y]R
Se allora [x]R ∩ [y]R = ∅; mentre [x]R = [y]R se e soltanto se x R y.
[
• S= [x]R .
x∈S

Le tre precedenti proprietà si possono riassumere dicendo che l'insieme quoziente S/R costituisce
una partizione di S.

Esempio 1.1.3. Se S è un insieme non vuoto, considerata la diagonale di S × S , ovvero l'insieme

G = {(x, x) : x ∈ S},

la relazione identica in S
ιS = (S × S, G)
è una relazione di equivalenza, e per ogni x∈S risulta [x]ιS = {x}.

Esempio 1.1.4. Si consideri la relazione binaria R in Q denita ponendo aRb se e solo se a−b ∈ Z.
Tale relazione è

1) riessiva: infatti a−a=0∈Z per ogni a ∈ Q;

2) simmetrica: se a, b ∈ Q e a−b∈Z allora b − a = −(a − b) ∈ Z, quindi se aRb anche bRa;

3) transitiva: se a, b, c ∈ Q sono tali che aRb e bRc allora a − b e b−c sono numeri interi
relativi, dunque anche a − c = (a − b) + (b − c) ∈ Z e così aRc.

6
Pertanto R è una relazione di equivalenza in Q e si ha, in particolare, che

[0]R = {a ∈ Q | a − 0 ∈ Z} = Z.

Esempio 1.1.5. Siano S = {a, b, c} e R = (S × S, G) dove

G = {(a, a), (b, b), (a, c), (c, c), (c, a)};
è una relazione di equivalenza e si ha che

[a]R = {a, c} = [c]R e [b]R = {b}.

Esempio 1.1.6. Nell'insieme delle rette (del piano o dello spazio) della geometria elementare,
la relazione k denita dalla posizione rks se e solo se r ed s sono coincidenti oppure parallele (si
ricordi che due rette sono parallele se sono complanari e non incidenti), risulta essere una relazione
di equivalenza; la classe di equivalenza [r]k di una retta r modulo k viene chiamata direzione della
retta r.

In conclusione a questo paragrafo, si vuole presentare un importante risultato di cui spesso si


fa uso nelle dimostrazioni. Pur assumendo qui note le proprietà che caratterizzano l'insieme dei
numeri naturali, si ricorda che se X è un sottoinsieme non vuoto di N, allora il minimo di X è
l'elemento m di X tale che m≤x per ogni x ∈ X.
Principio di induzione: X
Sia un insieme non vuoto di numeri naturali e si assuma che X
abbia per minimo m. Se n+1∈X ogni qual volta anche n ∈ X, allora X = {n ∈ N | n ≥ m}.
Gli esempi che seguono mostrano come si applica il principio di induzione.

Esempio 1.1.7. Si provi che per ogni numero naturale n≥1 risulta

n(n + 1)
1 + 2 + ··· + n = . (1.2)
2
Essendo
1(1 + 1)
1=
2
la precedente identità è vericata per n = 1. Supponiamo che la (1.2) sia vericata per n e
andiamo a vedere se è o meno vericata per n + 1. Essendo

n(n + 1) (n + 1)(n + 2)
1 + 2 + · · · + n + (n + 1) = + (n + 1) =
2 2
la (1.2) è vera anche per n + 1 e così, invocando il principio di induzione, possiamo concludere che
l'identità (1.2) è soddisfatta da ogni numero naturale n ≥ 1.
In realtà per convicersi che si sta applicando eettivamente il principio di induzione si do-
vrebbe considerare l'insieme X n per i quali l'identità (1.2) è vericata.
di tutti i numeri naturali
L'argomento precedente prova che 1 ∈ X , e che n + 1 ∈ X se conosciamo che n ∈ X ; pertanto
essendo 1 il minimo di X possiamo concludere che X = N o in altre parole che la (1.2) è vera per
ogni numero naturale n ≥ 1.

7
Esempio 1.1.8. Si provi che se S è un insieme con n≥1 elementi, allora P (S) ha 2n elementi.
Se S ha un solo elemento, allora P (S) = {∅, S} e quindi l'asserto è vero se n = 1. Sia quindi
n > 1 e sia l'asserto sia vero per n. Supponiamo che S abbia n + 1 elementi. Fissato un elemento
x di S , risulta S = {x} ∪ T dove T = S \ {x} è un insieme di n elementi; in particolare, l'ipotesi
n
assicura che P (T ) ha 2 elementi. Evidentemente i sottoinsiemi di S o sono elementi di P (T ) o
si ottengono come unione tra {x} ed un sottoinsieme di T , dunque in P (S) c'è il doppio degli
n n+1
elementi di P (T ) ovvero ci sono 2 · 2 = 2 elementi. Possiamo pertanto applicare il principio
di induzione, e concludere che l'asserto è vero per ogni n ∈ N.

1.2 Applicazioni tra insiemi


Considerati due insiemi non vuoti S e T , un'applicazione (o funzione ) f di S in T è una corri-
spondenza f = (S × T, G) tale che per ogni elemento x ∈ S esiste un unico elemento y ∈ T per
cui (x, y) ∈ G; in tal caso si usa scrivere f : S → T , inoltre l'insieme S si dice dominio, l'insieme
T si dice codominio, l'insieme G si dice graco e, per ogni x in S , l'unico elemento y di T per cui
(x, y) ∈ G si denota col simbolo f (x) e si dice immagine di x mediante f (talvolta si dice pure che
y corrisponde ad x rispetto ad f ). Con queste notazioni, quindi, risulta G = {(x, f (x)) | x ∈ S};
inoltre si scrive pure
f : x ∈ S → f (x) ∈ T.
Si noti che se U è una parte non vuota di S, la posizione

fU : x ∈ U → f (x) ∈ T

denisce ancora un'applicazione che si dice applicazione indotta da f su U o anche restrizione di


f ad U.
Se X⊆S si dice immagine di X mediante f il sottoinsieme di T

f (X) = {f (x) | x ∈ X};

in particolare, si pone Im f = f (S) e si parla semplicemente di immagine di f. Se invece Y ⊆ T,


si dice antiimagine (o controimmagine ) di Y mediante f il sottoinsieme di S

f −1 (Y ) = {x ∈ S | f (x) ∈ Y }.

Tra tutte le applicazioni di un insieme non vuoto S in sè, una che spesso incontreremo è
l'applicazione identica ovvero l'applicazione

ιS : x ∈ S → x ∈ S.

Esempio 1.2.1. Se S = {201, 5, 73}, T = {a, b} e G = {(201, a), (5, a), (73, a)} allora è semplice
accorgersi che f = (S × T, G) è un'applicazione, così com'è evidente che gli insiemi {(5, a), (73, b)}
e {(201, a), (5, a), (5, b), (73, a)} non possono essere il graco di nessuna applicazione di S in T , il
primo perchè non contiene nessuna coppia di prima coordinata 201, il secondo perchè contiene due
coppie distinte di prima coordinata 5. Inoltre, ad esempio, se X = {201, 5} allora f (X) = {a},
−1
mentre se Y = {b} allora f (Y ) = ∅.

8
Si osservi che se f = (S × T, G) e g = (S × T , G) sono due applicazioni, allora f = g se e solo
se le coppie (S × T, G) e (S × T , G) coincidono, e quindi se e soltanto se S × T = S × T e G = G.
Pertanto, ricordando la (1.1), si può concludere che due applicazioni coincidono se e solo se hanno
stesso dominio, stesso codominio e stesso graco.

Un'applicazione f :S→T si dice:

- Iniettiva: se elementi distinti del dominio hanno immagini distinte, il che equivale a richiedere
che se f (x) = f (y) allora x = y.
- Suriettiva: se ogni elemento del codominio è immagine di qualche elemento del dominio; in
simboli, ∀y ∈ T ∃x ∈ S tale che f (x) = y .
- Biettiva: se è sia iniettiva che suriettiva e quindi se ∀y ∈ T ∃!x ∈ S tale che f (x) = y .
Un'applicazione biettiva di un insieme non vuoto S in sé è detta anche permutazione di S. Si
noti che l'applicazione identica è banalmente biettiva e dunque è una permutazione.

Esempio 1.2.2. Nell'insieme Z dei numeri interi relativi, l'applicazione denita dalla posizione
2
f (x) = x non è né iniettiva, perchè f (x) = f (−x), né suriettiva, perchè i numeri negativi non
sono immagine di alcun elemento di Z mediante f ; invece l'applicazione denita dalla posizione
g(x) = 2x è evidentemente iniettiva ma non è suriettiva, perchè i numeri dispari non sono immagine
mediante g di alcun numero intero. Ancora, sempre in Z, l'applicazione denita da h(x) = x + 1
è biettiva ed inne 
x se x è positivo o nullo
k(x) =
x + 1 se x è negativo
è evidentemente suriettiva ma non è iniettiva essendo k(0) = 0 = k(−1).

Siano S, T ed U insiemi non vuoti e siano f :S→T e g:T →U applicazioni. Se x ∈ S allora


f (x) ∈ T ed ha senso valutare g(f (x)), è possibile quindi denire un'applicazione g◦f : S → U
mediante la posizione (g ◦ f )(x) = g(f (x)) per ogni x ∈ S . L'applicazione g ◦ f si dice applicazione
composta di f e g. E' opportuno sottolineare che, anchè si possano comporre due applicazioni,
il codomio di quella più a destra deve coincidere col (o almeno essere contenuto nel) dominio
dell'applicazione più a sinistra.

Esempio 1.2.3. Riferendoci alle applicazioni di Z in sè dell'esempio 1.2.2, si ha che

(g ◦ h)(x) = g(h(x)) = g(x + 1) = 2(x + 1) = 2x + 2

mentre
(h ◦ g)(x) = h(g(x)) = h(2x) = 2x + 1.

Si noti che l'esempio 1.2.3 prova che la composizione di applicazioni non gode della proprietà
commutativa, ovvero in generale si ha che f ◦ g 6= g ◦ f ; invece, quando possibile, la composizione
di applicazioni gode della proprietà associativa ovvero se f, g ed h sono tre applicazioni di cui è
possibile considerarne le composte, risulta

(f ◦ g) ◦ h = f ◦ (g ◦ h),

9
infatti, (f ◦ g) ◦ h e f ◦ (g ◦ h) hanno stesso dominio e codominio, ed inoltre qualsiasi sia l'elemento
x nel dominio di h risulta

((f ◦ g) ◦ h)(x) = (f ◦ g)(h(x)) = f (g(h(x))) = f ((g ◦ h)(x)) = (f ◦ (g ◦ h))(x).


Un'applicazione f : S → T si dice invertibile quando esiste un'applicazione g : T → S tale che
f ◦ g = ιT e g ◦ f = ιS ; in tal caso è semplice accorgersi che una tale applicazione g è unica, infatti
se h : T → S è anch'essa tale da essere f ◦ h = ιT e h ◦ f = ιS si ha che

h = h ◦ ιT = h ◦ (f ◦ g) = (h ◦ f ) ◦ g = ιS ◦ g = g .

Dunque una tale applicazione g se esiste è unica; essa viene detta applicazione inversa di f e si
−1
usa denotarla col simbolo f . Evidentemente è sempre invertibile, e coincide con la sua inversa,
l'applicazione identica.

Esempio 1.2.4. L'applicazione h(x) = x+1 di Z in sé, considerata nell'esempio 1.2.2, è invertibile
−1
e ha per inversa h : x ∈ Z → x − 1 ∈ Z.

Proposizione 1.2.5. Siano S e T insiemi non vuoti e sia f :S→T un'applicazione. Allora f è
invertibile se e soltanto se f è biettiva.

Dimostrazione. Sia f g : T → S tale che f ◦ g = ιT e g ◦ f = ιS . Allora per


invertibile e sia
0
ogni y ∈ T si ha che y = f (g(y)) con g(y) ∈ S e quindi f è suriettiva, inoltre se f (x) = f (x )
0 0
allora risulta x = g(f (x)) = g(f (x )) = x sicchè f è anche iniettiva e quindi è biettiva. Viceversa,
supponiamo che f sia biettiva. Allora per ogni y ∈ T esiste un unico xy ∈ S tale che y = f (xy ), così
la posizione g(y) = xy denisce un'applicazione g : T → S . Se y ∈ T allora f (g(y)) = f (xy ) = y
e quindi f ◦ g = ιT . D'altra parte se x ∈ S risulta g(f (x)) = xf (x) = x essendo f iniettiva e
f (xf (x) ) = f (x), così g ◦ f = ιS . Pertanto f è invertibile.

Se f : S −→ T è un'applicazione biettiva tra gli insiemi non vuoti S e T si ha quindi che f


−1
è invertibile. Evidentemente, anche la sua inversa f è invertibile e ha per inversa proprio f ; in
−1
particolare anche f è biettiva. Dunque se esiste un'applicazione biettiva di S in T allora ne esiste
anche una di T in S. Due insiemi non vuoti S e T si dicono equipotenti se esiste un'applicazione
biettiva di S in T (o di T in S ).

1.3 Gruppi, Anelli e Campi


Siano A ed S insiemi non vuoti. Un'operazione esterna ad S con dominio di operatori in A è
un'applicazione ⊥ : A × S −→ S . Se a ∈ A e x ∈ S , l'immagine ⊥(a, x) della coppia (a, x)
mediante ⊥ a⊥x (e si legge a composto x). Nel caso particolare in
si denota col simbolo cui è
A = S , si parla di operazione interna ad S , o semplicemente di operazione in S .
Se ⊥ : S × S −→ S è un'operazione interna ad S , si dice che:

- ⊥ è associativa se ∀x, y, z ∈ S risulta (x⊥y)⊥z = x⊥(y⊥z),

- ⊥ è commutativa se ∀x, y ∈ S risulta x⊥y = y⊥x.

10
Se poi ∗ è un'altra operazione interna ad S si dice che

- ∗ è distributiva rispetto a ⊥ se comunque presi x, y, z ∈ S si ha che (x⊥y)∗z = (x∗z)⊥(y ∗z)


e z ∗ (x⊥y) = (z ∗ x)⊥(z ∗ y).

Esempio 1.3.1. Se S è un qualsiasi insieme e P (S) è l'insieme delle parti di S, le applicazioni

∩ : (X, Y ) ∈ P (S) × P (S) −→ X ∩ Y ∈ P (S)


e
∪ : (X, Y ) ∈ P (S) × P (S) −→ X ∪ Y ∈ P (S)
sono operazioni in P (S) e sono associative, commutative e ciascuna è distributiva rispetto all'altra.

Sia S un insieme non vuoto, e siano ⊥1 , . . . , ⊥n operazioni in S , alcune delle quali eventual-
mente esterne. La (n + 1)-upla (S, ⊥1 , . . . , ⊥n ) si chiama struttura algebrica ad n operazioni in
S, e l'insieme S si dice sostegno della struttura algebrica. Quando non da luogo ad equivoco, la
struttura algebrica si identica col solo sostegno.

Siano S un insieme non vuoto e ⊥ S . Una parte non vuota X di S si dice


un'operazione in
stabile (o anche chiusa) rispetto all'operazione ⊥ se risulta x⊥y ∈ X qualsiasi siano gli elementi x
ed y di X ; in tal caso, l'applicazione indotta ⊥X : (x, y) ∈ X × X −→ x⊥y ∈ X è un'operazione
interna ad X che si dice indotta da ⊥ su X . Con abuso di notazione, l'operazione ⊥X spesso si
denota con lo stesso simbolo ⊥ utilizzato per l'operazione in S . Chiaramente le operazioni in-
dotte da operazioni associative (rispettivamente, commutative) sono associative (rispettivamente,
commutative). Analogamente, se ⊥ : A × S −→ S è un'operazione esterna ad S con dominio di
operatori in A, una parte A-stabile di S è un sottoinsieme X di S tale che a⊥x ∈ X per ogni
a ∈ A e per ogni x ∈ X ; in tal caso ⊥X : (a, x) ∈ A × X −→ a⊥x ∈ X è un'operazione esterna ad
X con dominio di operatori in A che spesso si denota ancora col simbolo ⊥.

Una struttura algebrica (S, ⊥), dove ⊥ è un'operazione interna nell'insieme non vuoto S, si
dice monoide se ⊥ è associativa ed esiste un elemento neutro, ovvero un elemento u ∈ S tale che
x ⊥ u = x = u ⊥ x per ogni x ∈ S . Si noti che se S è un monoide allora l'elemento neutro è
0 0 0
unico, infatti se u fosse un altro elemento neutro si avrebbe u = u ⊥ u = u .

Un elemento x di un monoide (S, ⊥) si dice simmetrizzabile se esiste un elemento x0 in S, che


viene detto simmetrico (rispetto a ⊥), tale che

x ⊥ x0 = u = x0 ⊥ x
(qui u
denota l'elemento neutro di S ). Si noti che se l'elemento x è simmetrizzabile allora il
0 00
simmetrico è unico, infatti se x e x sono entrambi simmetrici di x, si ha

x0 = x0 ⊥ u = x0 ⊥ (x ⊥ x00 ) = (x0 ⊥ x) ⊥ x00 = u ⊥ x00 = x00 .

Esempio 1.3.2. Se S è un insieme, la struttura algebrica (P (S), ∪) è un monoide commutativo


il cui elemento neutro è l'insieme vuoto, ma nessun elemento diverso dal vuoto è simmetrizzabile.
Così come anche (P (S), ∩) è un monoide commutativo di elemento neutro l'insieme S e in cui
nessun elemento diverso da S è simmetrizzabile.

11
Una struttura algebrica(G, ⊥), dove ⊥ è un'operazione interna nell'insieme non vuoto G, si dice
gruppo se ⊥ è associativa, dotata di elemento neutro e se ogni elemento di G è simmetrizzabile
rispetto a ⊥ (quindi se G è un monoide in cui ogni elemento è simmetrizzabile). Un gruppo
(G, ⊥) si dice poi abeliano se ⊥ gode anche della proprietà commutativa. Per un gruppo sussiste
la seguente:

Proposizione 1.3.3. Sia G un gruppo e siano a e b due elementi di G. Allora esite un unico
elemento x di G tale che a ⊥ x = b, ed esiste un unico elemento y di G tale che y ⊥ a = b.
Dimostrazione. Sia a0 il simmetrico di a rispetto a ⊥. Allora, denotato con u l'elemento neutro
del gruppo, si ha che
b = u ⊥ b = (a ⊥ a0 ) ⊥ b = a ⊥ (a0 ⊥ b);
d'altra parte se c è un elemento di G tale che a ⊥ c = b, si ha

c = u ⊥ c = (a0 ⊥ a) ⊥ c = a0 ⊥ (a ⊥ c) = a0 ⊥ b.
L'altro caso si prova in modo analogo e quindi si omette.

SiaG un gruppo e siano x, y ed a elementi di G. Dalla proposizione 1.3.3 segue che se


a ⊥ x = a ⊥ y allora x = y (e si dice che a è  cancellabile a sinistra ), così come se x ⊥ a = y ⊥ a
allora x = y (ovvero a è anche  cancellabile a destra ). Questa proprietà si esprime dicendo
che l'operazione è regolare o anche che vale la  legge di cancellazione . Quindi in un gruppo
l'operazione è sempre regolare.

In un gruppo (non abeliano), in genere, si usa denotare l'operazione moltiplicativamente, cioè


col simbolo di prodotto ·, in tal caso l'unità si denota col simbolo 1 e il simmetrico di un elemento
x si indica con x−1 e si dice pure inverso. Nel caso di gruppi abeliani invece è solita la notazione
additiva, cioè l'operazione si denota col simbolo di somma +, in tal caso l'unità si denota col
simbolo 0 e si dice zero, il simmetrico di un elemento x si dice opposto e si denota col simbolo
−x ed inoltre in luogo di x + (−y) si usa scrivere x − y.

Esempio 1.3.4. Sono gruppi abeliani (Z, +), (Q, +), (R, +), dove + denota la somma ordinaria,
ed anche (Q \ {0}, ·) ed (R \ {0}, ·), dove · denota il prodotto ordinario. Invece (N, +) non è
un gruppo, perché 0 l'unico elemento dotato di opposto. Si noti pure che, sebbene rispetto alla
somma non sia un gruppo, in N la somma è regolare. In particolare, in un gruppo l'operazione è
sempre regolare, ma un'operazione può essere regolare pur non rendendo una struttura algebrica
un gruppo. Ancora, non sono gruppi nè Z nè Z \ {0} rispetto all'operazione di prodotto ordinario,
perchè 1 è l'unico elemento invertibile.

Esempio 1.3.5. Considerato un insieme non vuoto S sia Sym(S) l'insieme delle permutazioni su
S. La composizione di applicazioni denisce evidentemente un'operazione interna in Sym(S) che,
per quanto osservato in precendenza, è associativa; inoltre è evidente che la permutazione identica
−1
è unità e che ogni permutazione f ha per simmetrico f . Dunque Sym(S) è un gruppo. In
generale, Sym(S) è non abeliano. Infatti, supposto che S contenga (almeno) tre elementi distinti
a, b e c e considerate in S le applicazioni denite dalle seguenti posizioni:
 
 a se x = b  a se x = c
f (x) = b se x = a e g(x) = c se x = a
x se x ∈ S \ {a, b} x se x ∈ S \ {a, c}
 

12
è facile accorgersi che sia f che g sono permutazioni su S e che risulta f (g(c)) = f (a) = b e
g(f (c)) = g(c) = a, dunque f ◦ g 6= g ◦ f .

Supponiamo ora di avere un insieme non vuoto R su cui sono denite due operazioni interne,
che denotiamo con + e ·. La struttura algebrica (R, +, ·) si dice anello se:

1R (R, +) è un gruppo abeliano.

2R · gode della proprietà associativa, ovvero (x · y) · z = x · (y · z) per ogni x, y, z ∈ R.

3R · gode della proprietà distributiva rispetto a + ovvero se per ogni x, y e z in R risulta


(x + y) · z = xz + yz e x · (y + z) = xy + xz .

L'anello R si dice poi commutativo se l'operazione di prodotto gode anche della proprietà
commutativa (ossia x·y = y·x per ogni x, y ∈ R), si dice invece unitario se anche il prodotto
ha un elemento neutro ovvero se esiste un elemento, che solitamente è detto unità e si denota col
simbolo 1, tale che 1·x=x=x·1 per ogni x ∈ R.

Un anello commutativo unitario R si dice campo se ogni elemento non nullo è invertibile (ovvero
dotato di simmetrico rispetto al prodotto) e quindi se per ogni x ∈ R esiste in R un elemento, che
−1 −1
si denota con x , tale che xx = 1 = x−1 x. Spesso nel seguito si userà la lettera K per denotare
un campo; useremo inoltre il termine scalare per riferirci ad un elemento di un campo.

Esempio 1.3.6. Evidentemente la somma e il prodotto ordinario rendono l'insieme Z dei numeri
interi relativi un anello commutativo unitario; mentre somma e prodotto unitario rendono un
campo sia l'insieme Q dei numeri razionali che l'insieme R dei numeri reali.

Proposizione 1.3.7. Sia K un campo. Si ha:

(i) Per ogni elemento a di K risulta a · 0 = 0.

(ii) Se a, b ∈ K risulta (−a)b = −(ab) = a(−b).

(iii) Se a, b ∈ K con a 6= 0, allora da ab = 0 segue b = 0.

Dimostrazione. Se a ∈ K, usando le proprietà di anello valide in K si ha:

a0 = a(0 + 0) = a0 + a0 e a0 = a0 + 0

quindi a0 = 0 per la proposizione 1.3.3 e la (i) è provata. Per provare la (ii) si noti che

0 = a0 = a(b − b) = ab + a(−b) e 0 = ab + (−(ab))

quindi sempre la proposizione 1.3.3 assicura che −(ab) = a(−b). In modo simile si ha pure che
−(ab) = (−a)b. Inne per provare la (iii) si noti che essendo 6 0 esiste l'inverso a−1 di a e
a =
risulta
b = 1b = (a−1 a)b = a−1 (ab) = a−1 0 = 0
come si voleva.

13
Si noti che, nella precendete, per le condizioni (i) e (ii) non serve che K sia un campo, ma
basta che K sia un anello; invece per la (iii) è essenziale che K sia un campo e questa condizione
è anche detta  legge di annullamento del prodotto .

Esempio 1.3.8 (Il campo dei numeri complessi ) . Sia C l'insieme delle coppie ordinate di numeri
reali
C = R × R = {(a, b) | a, b ∈ R}
e deniamo in esso un'operazione di somma + e un'operazione di prodotto · mediante le posizioni:

(a, b) + (c, d) = (a + b, c + d)
(a, b) · (c, d) = (ac − bd, ad + bc)

Si ottiene così una struttura algebrica (C, +, ·) che si verica essere un campo i cui elementi si
chiamano numeri complessi. Non si proverà qui che C è un campo, ma ci si limiterà alle seguenti
osservazioni. Qualsiasi sia l'elemento (a, b) di C si ha

(a, b) + (0, 0) = (a, b) = (0, 0) + (a, b) e (a, b) · (1, 0) = (a, b) = (1, 0) · (a, b)

dunque la coppia (0, 0) è l'elemento neutro per la somma mentre la coppia (1, 0) è l'elemento
neutro per il prodotto. Ancora, essendo

(a, b) + (−a, −b) = (0, 0) = (−a, −b) + (a, b)

la coppia (−a, −b) è l'opposto (cioè il simmetrico rispetto a +) di (a, b) ed inoltre, se (a, b) 6= (0, 0),
si ha anche
   
a b a b
(a, b) · , − = (1, 0) = , − · (a, b)
a2 + b 2 a2 + b 2 a2 + b2 a2 + b2
a b

così la coppia
a2 +b2
, − a2 +b2 è l'inverso o reciproco (cioè il simmetrico rispetto a ·) di (a, b).
Posto
C0 = R × {0} = {(a, 0) | a ∈ R}
e osservando che

(a, 0) + (b, 0) = (a + b, 0) e (a, 0) · (b, 0) = (ab, 0) (1.3)

si ottiene che C0 è una parte stabile di (C, +, ·) che, rispetto alle operazioni indotte, si può
vericare essere a sua volta un campo. Poichè l'applicazione

ι : a ∈ R → (a, 0) ∈ C0

è biettiva e le (1.3) ci dicono che ι(a + b) = ι(a) + ι(b) e ι(ab) = ι(a) · ι(b) per ogni a, b ∈ R, è
ragionevole identicare il numero reale a col numero complesso (a, 0), quindi il campo dei numeri
reali si può pensare come una parte del campo dei numeri complessi, e in questo senso il campo
dei numeri complessi è un ampliamento del campo dei numeri reali. C'è poi un numero complesso,
precisamente (0, 1), che ha una singolare proprietà:

(0, 1) · (0, 1) = (−1, 0)

14
cioè in C si trova un elemento il cui quadrato è −1, tale elemento si denota col simbolo i (quindi
i = (0, 1)) e si chiama unità immaginaria.
Osserviamo che considerato un qualsiasi numero complesso z = (a, b), risulta

(a, b) = (a, 0) + (0, b) = (a, 0) + (0, 1)(b, 0) = a + ib

L'espressione a + ib viene detta forma algebrica del numero complesso z = (a, b), si dice inoltre
che il numero reale a z e si denota con Re(z) mentre il numero reale b si dice
è la parte reale di
parte immaginaria di z Im(z). Quando si sceglie di denotare i numeri complessi
e si denota con
con la forma algebrica, le posizioni che deniscono le operazioni di somma e prodotto in C, sono
2
le ordinarie regole di calcolo letterale, quando si tiene conto che i = −1, ovvero risulta

(a + ib) + (c + id) = (a + c) + i(d + b)


(a + ib) · (c + id) = (ac − bd) + i(ad + bc)

Esempio 1.3.9. Esistono campi il cui sostegno è un insieme con un numero nito di elementi.
Giusto per citarne uno, si consideri un insieme K formato da due elementi qualsiasi, ad esempio
K = {, 4}; se in questo insieme deninamo due operazioni interne ponendo

 +  = ,  + 4 = 4, 4 +  = 4, 4+4=

 ·  = ,  · 4 = , 4 ·  = , 4·4=4

Dalla denzione segue che l'operazione + è commutativa, ha come elemento neutro l'elemento
 = 0, ed inoltre l'elemento  è simmetrizzabile rispetto a + e coincide col suo simmetrico così
come anche 4 è simmetrizzabile rispetto a + e coincide col suo simmetrico. Essendo poi

x y z x+y (x+y)+z y+z x+(y+z)

      
  4  4 4 4
 4  4 4 4 4
 4 4 4   
4   4 4  4
4  4 4  4 
4 4    4 
4 4 4  4  4

l'operazione + è anche associativa, e così, in denitiva, la struttura algebrica (K, +) è un gruppo


abeliano. In maniera analoga è semplice accorgersi che anche la struttura algebrica (K, ·) è un
monoide commutativo, in cui l'elemento neutro è 4=1 (che tra l'altro è anche l'unico elemento

15
non-nullo ed è simmetrizzabile). Poichè risulta

x y z y+z x · (y + z) x·y x·z x·y+x·z


       
  4 4    
 4  4    
 4 4     
4       
4  4 4 4  4 4
4 4  4 4 4  4
4 4 4   4 4 

ricordando che l'operazione · è commutativa, si può concludere che l'operazione · è distributiva


rispetto all'operazione +. In denitiva la struttura algebrica (K, +, ·) è un campo dove risulta, in
particolare, che 0= e 1 = 4

16
Capitolo 2
Introduzione alle Matrici e ai Sistemi
Lineari

2.1 Generalità e operazioni tra matrici


Sia K un campo. Una matrice ad m righe ed n colonne su K (con m, n ∈ N), o semplicemente una
matrice (di tipo) m×n su K, è un'applicazione dell'insieme {1, . . . , m} × {1, . . . , n} in K. Sia

A : {1, . . . , m} × {1, . . . , n} −→ K

una matrice m × n su K. Per ogni elemento (i, j) di {1, . . . , m} × {1, . . . , n} si pone aij = A(i, j)
e si dice che aij è l'elemento di A di posizione (i, j), inoltre per indicare la matrice A si scrive

 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A =  .. ,
 
. .. .
 . . . .
. . 
am1 am2 . . . amn

o semplicemente A = (aij ). Una matrice con tutti gli elementi uguali a 0 si dice matrice nulla.

Se (i, j) ∈ {1, . . . , m} × {1, . . . , n}, indichiamo con

Ai = (ai1 , . . . , ain )

la i-esima riga di A e con  


a1j
.
Aj =  .
 
. 
amj
la j -esima colonna diA, chiaramente si tratta qui di una matrice 1 × n nel caso delle righe e di
una matrice m × 1 nel caso delle colonne. Talvolta sarà utile pensare alle righe o alle colonne della
matrice A come elementi di Kn o Km , rispettivamente.

Se il numero di righe di A coincide col numero di colonne, cioè m = n, si dice che A è una
matrice quadrata di ordine n su K; in tal caso, l'insieme {aii | i = 1, . . . , n} si dice diagonale
principale di A.

17
L'insieme delle matrici m × n su K si denota con Mm,n (K); qualora poi m = n si scrive
semplicemente Mn (K) Mn,n (K).
in luogo di

SiaA = (aij ) una matrice m × n sul campo K. Si dice matrice trasposta di A la matrice
t
A = (âij ) a n righe ed m colonne su K che si ottiene da A scambiando le righe con le colonne
t t
ovvero il cui generico elemento è âij = aji . Evidentemente (A ) = A. Se A è una matrice quadrata
t
e A = A , si dice che A è una matrice simmetrica.

Esempio 2.1.1. Se  
1 2 −1
A= ∈ M2,3 (R)
0 5 1
allora  
1 0
At =  2 5  ∈ M3,2 (R).
−1 1

Si noti che poiché una matrice è un'applicazione, si ha facilmente che due matrici sono uguali
se e soltanto se hanno stesso numero di righe e di colonne, e hanno uguali gli elementi con la stessa
posizione.

Nell'insieme Mm,n (K) si denisce un'operazione di somma ponendo

(aij ) + (bij ) = (aij + bij ).

E' facile accorgersi che con l'operazione così denita Mm,n (K) è un gruppo abeliano in cui lo zero
è la matrice nulla O (cioè la matrice O = (oij ) i cui elementi oij sono tutti uguali allo zero 0 del
campo K), e in cui l'opposto della matrice (aij ) è la matrice −(aij ) = (−aij ).

Si noti che la posizione −(aij ) = (−aij ) si può pensare come un caso particolare di una
denizione più generale: λ(aij ) = (λaij ) (dove λ ∈ K). Tale posizione denisce in Mm,n (K)
un'operazione esterna con operatori in K che insieme alla somma tra matrici permetterà di pensare
all'insieme delle matrici come quello che chiameremo uno spazio vettoriale sul campo K.

Si considerino ora due matrici A = (ai,j ) ∈ Mm,n (K) e B = (bij ) ∈ Mn,p (K) e si ponga

Ai · B j = ai1 b1j + ai2 b2j + · · · + ain bnj

per ogni i = 1, . . . , m j = 1, . . . , p. Si denisce prodotto righe per colonne


e per ogni di A e B la
matrice, che si denota con A × B o semplicemente con AB , denita dalla posizione

AB = (Ai · B j ) ∈ Mm,p (K).

18
Esempio 2.1.2. Considerando le matrici su R
   
1 2 1 2 3
A= e B=
3 4 4 5 6

si ha che    
1·1+2·4 1·2+2·5 1·3+2·6 9 12 15
AB = = .
3·1+4·4 3·2+4·5 3·3+4·6 19 26 33

Sussiste la seguente.

Proposizione 2.1.3. (i) Siano A ∈ Mm,n (K), B ∈ Mn,p (K) e C ∈ Mp,q (K). Allora (AB)C =
A(BC), cioè il prodotto righe per colonne è associativo.
(ii) Siano A, B ∈ Mm,n (K) e C, D ∈ Mn,p (K). Allora (A + B)C = AC + BC e A(C + D) =
AC + AD, cioè il prodotto righe per colonne è distributivo rispetto alla somma.

Dimostrazione. (i) Siano A = (aij ), B = (bij ) e C = (cij ). Poniamo D = AB = (dij ), DC = (eij ),


F = BC = (fij ) e AF = (gij ). Allora
n
X
dis = air brs
r=1

e pertanto
p p  n 
X X X
eij = dis csj = air brs csj .
s=1 s=1 r=1

Analogamente
p
X
frj = brs csj
s=1

e quindi
n n p
X  p  n 
X X X X
gij = air frj = air brs csj = air brs csj = eij .
r=1 r=1 s=1 s=1 r=1

Pertanto (AB)C = A(BC). La verca di (ii) è analoga e pertanto si omette.

Segue in particolare dalla proposizione 2.1.3 che l'insieme Mn (K) delle matrici quadrate di
ordine n sul campo K possiede una struttura di anello quando si considerano in esso l'operazione
di somma (rispetto al quale è un gruppo abeliano) e l'operazione di prodotto righe per colonne.
Tale anello è anche unitario di unità la matrice identica, ovvero la matrice

 
1 0 ... 0
 0 1 ... 0 
In =  .. .. . . .. 
 
 . . . . 
0 0 ... 1

19
che si può anche denotare come
In = (δij )
dove 
1 se i=j
δij =
0 se i 6= j
è il cosiddetto simbolo di Kronecker. Si osservi che l'anello Mn (K) non è in generale commutativo;
ad esempio, se K è un qualsiasi campo e si considerano le matrici di M2 (K)

   
0 0 0 0
A= e B=
1 0 1 1
si ha che

   
0 0 0 0
AB = e BA = .
0 0 1 0
Si noti che il precedente esempio mostra che in generale nell'anello Mn (K) non vale la legge di
annullamento del prodotto. Inoltre considerando le matrici (reali)

     
3 9 −5 −10 −8 −7
A= ,B= e C=
−1 −3 1 2 2 1

ed osservando che  
−6 −12
B 6= C ma AB = AC =
2 4
si ottiene che, in generale, nell'anello Mn (K) non vale la legge di cancellazione.

Concludiamo con la seguente proprietà la cui semplice verica si lascia come esercizio.

Esercizio 2.1.4. Sia K un campo. Se A, B ∈ Mm,n (K) e C ∈ Mn,p (K), allora (A + B)t = At + B t
e (AC)t = C t At .

2.2 Matrici a scala


Una matrice non nulla A di Mm,n (K) si dice matrice a scala (o anche a gradini o a scalini) se
verica le seguenti condizioni:

(a) Se una riga di A è non nulla, allora il primo elemento non nullo di tale riga, che è detto pivot
della riga in considerazione, è più a sinistra del primo elemento non nullo delle righe ad essa
successive.

(b) Se una riga di A è nulla, tutte le righe ad essa successive sono nulle.

20
Esempio 2.2.1. Sono a scala le matrici
 
  1 2 3
1 2  0 0 4 ,
e
0 4
0 0 0
mentre  
  0 11 3
0 0  0 0 4 
e
0 7
0 3 0
non lo sono.

Sia A un matrice m×n su un campo K. Una operazione elementare (sulle righe) in A è una
dei seguenti tipi di operazioni (dette mosse di Gauss):

Tipo 1) Moltiplicazione di una riga per un elemento non nullo di K: ri → λri (con λ ∈ K \ {0}).

Tipo 2) Scambio di due righe: ri ↔ rj .

Tipo 3) Aggiunta di un multiplo di una riga ad un'altra riga: ri → ri + λrk (con λ ∈ K).

A e B sono matrici m × n sul campo K, è chiaro che se B si ottiene da A moltiplicando


Se
la riga i-esima per lo scalare non nullo λ, allora A si ottiene da B moltiplicando la riga i-esima
−1
per lo scalare non nullo λ . Analogamente se da A passo a B mediante l'operazione ri ↔ rj ,
allora tramite la stessa operazione passo anche da B ad A; ed inne se da A passo a B mediante
l'operazione del tipo ri → ri + λrk , allora da B passo ad A mediante l'operazione ri → ri − λrk .
In un certo senso, quindi, ad ogni operazione elementare corrisponde un'operazione elementare
inversa", alla quale nel seguito ci si riferirà appunto con operazione elementare inversa.
La matrice A B se B si ottiene da A mediante un numero nito di
si dice equivalente a
operazioni elementari; in tal caso ancheA si ottiene da B mediante un numero nito di operazioni
elementari (cioè anche B è equivalente ad A) e quindi si dice semplicemente che A e B sono matrici
equivalenti, e si scrive se A ∼ B .

Teorema 2.2.2. Ogni matrice (su un campo) è equivalente ad una matrice a scala.

La dimostrazione del precedente teorema è detta Algoritmo di Gauss. Tale algoritmo trasfoma
una matrice nella sua forma detta forma a scala, esso si basa sull'uso di operazioni elementari di
tipo 2) e 3) ed è illustrato come segue. Sia A = (aij ) la generica matrice m×n sul campo K.
Passo 1  Se A è la matrice nulla, l'algoritmo termina. Supponiamo quindi che A sia non nulla.
Passo 2  Partendo da sinistra individuiamo la prima colonna non nulla e poi, partendo dal-
l'alto, il primo elemento non nullo in questa colonna; quindi scambiamo eventualmente le righe in
modo tale da spostare l'elemento individuato alla prima riga. Formalmente: sia j il minimo intero
j
in {1, . . . , n} tale che la colonna A di A sia non nulla e sia i il minimo intero in {1, . . . , m} tale
che a = aij 6= 0; inolte, se i 6= 1 eettuiamo l'operazione elementare ri ↔ r1 .
Passo 3  Per ogni riga h successiva alla prima e tale che ahj 6= 0, eettuiamo l'operazione
elementare rj → rh − ahj a−1 rj . Così facendo si rendono nulli tutti gli elementi della j -sima
colonna che si trovano nelle righe successive alla prima (cioè sotto ad a).

21
Passo 4  Se A è costituita da un'unica riga l'agoritmo termina, altrimenti si considera la
matrice che si ottiene da A cancellando la prima riga e si applica l'algoritmo (ricominciando dal
passo 1) a tale matrice.

Esempio 2.2.3. Determiniamo una matrice a scala equivalente alla seguente matrice di M3,4 (R)
 
0 −5 0 2
A= 1 1 1 −1  .
−3 2 1 −1

Si parte dalla prima riga e si vede che la colonna contenente elementi non nulli con indice più
piccolo è la prima. Essendo a11 = 0 e 6 0 la prima cosa da
a21 = fare è scambiare la prima riga con
la seconda ottenendo così  
1 1 1 −1
 0 −5 0 2  .
−3 2 1 −1
Al ne di annullare anche il primo elemento della terza riga, eettuiamo l'operazione r3 → r3 + 3r1
ottendendo la matrice  
1 1 1 −1
 0 −5 0 2  .
0 5 4 −4
Una volta che abbiamo annullato tutti gli elementi della prima colonna nelle righe successive alla
prima, dobbiamo considerare la matrice che si ottiene cancellando la prima riga, in altre parole
dobbiamo ripetere l'algoritmo tralasciando la prima riga. In questo caso il pivot si trova già nella
posizione giusta e quindi dobbiamo solo annullare gli elementi al di sotto del pivot della seconda
riga, ovvero dobbiamo applicare la trasformazione r3 → r3 + r2 così da ottenere la matrice

 
1 1 1 −1
 0 −5 0 2 
0 0 4 −2

che è una matrice a scala equivalente ad A.

Esempio 2.2.4. Consideriamo la seguente matrice di M4 (R)


 
1 2 2 1
 0 0 0 5 
A=
 0 0
.
4 2 
0 0 8 −6

Eettuiamo uno scambio tra le seconda e la terza riga ottenendo

 
1 2 2 1
 0 0 4 2 
 
 0 0 0 5 
0 0 8 −6

22
e poi per annullare gli elementi della terza colonna nelle righe successive alla seconda eettuiamo
l'operazione r4 → r4 − 2r2 e otteniamo

 
1 2 2 1
 0 0 4 2 
 ,
 0 0 0 5 
0 0 0 −10

quindi l'operazione r4 → r4 + 2r3 riduce la matrice A nella matrice a scala ad essa equivalente

 
1 2 2 1
 0 0 4 2 
 .
 0 0 0 5 
0 0 0 0

Una matrice a scala in cui tutti i pivot sono uguali ad 1 e in cui il pivot è l'unico elemento
non nullo della corrispondente colonna, si chiama matrice a scala ridotta. Applicato l'algoritmo
di Gauss ad una matrice A, si può fare anche in modo che la matrice a scala ottenuta possa essere
trasformata in una matrice a scala ridotta ottendendo così quella che si dice la forma a scala
ridotta della matrice A.

Teorema 2.2.5. Ogni matrice (su un campo) è equivalente ad un'unica matrice a scala ridotta.

Senza arontare il problema dell'unicità, in seguito si illustrerà l'algoritmo su cui si basa la


dimostrazione dell'esistenza della matrice a scala ridotta, tale algoritmo è detto Algoritmo di
Gauss-Jordan. Sia A = (aij ) la generica matrice m×n sul campo K e supponiamo che A sia a
scala (ovvero che ad essa sia stato applicato già l'algoritmo di Gauss).

Passo 1  Se A è la matrice nulla, l'algoritmo termina. Si assuma quindi che A non sia nulla.

Passo 2  Sia i il massimo intero di {1, . . . , n} tale che la i-esima riga di A sia non nulla (cioè
si considera l'ultima riga non nulla della matrice). Detto j l'indice relativo alla colonna di A tale
che a = aij è il pivot della riga i-esima, si eettua l'operazione elementare ri → a−1 ri così da
rendere il pivot uguale ad 1.
Passo 3  Si rendono ora nulli gli elementi che si trovano al di sopra del pivot della riga i-esima,
ovvero per ogni riga di indice h<i si eettua l'operazione elementare rh → rh − ahj ri .
Passo 4  Se i=1 l'algoritmo termina, altrimenti si considera la matrice che si ottiene da A
cancellando la i-esima riga e si applica ad essa il procedimento a partire dal passo 1.

Esempio 2.2.6. Trasformiamo nella forma a scala ridotta la matrice su R


 
1 −1 0 2
A= 2 1 1 −1  .
−3 2 1 −2

23
Mediante l'algoritmo di Gauss essa è equivalente alla matrice a scala

 
1 −1 0 2
 0 3 1 −5  .
0 0 43 37

Rendiamo ora uguale ad 1 il pivot della terza riga, occoorre quindi moltiplicare la terza riga per
3
. Si ottiene così la matrice
4  
1 −1 0 2
 0 3 1 −5 
0 0 1 74
alla quale si applica poi l'operazione r2 → r2 − r3 così da rendere nulli tutti gli elementi nella
colonna del pivot della terza riga

 
1 −1 0 2
 0 3 0 − 27  .
4
0 0 1 47

Si deve ora considerare la matrice che si ottiene da quest'ultima cancellando l'ultima riga, in altre
parole applichiamo lo stesso procedimento focalizzando l'attenzione sulla seconda riga (e quella
ad essa precedente). Rendiamo uguale ad 1 il pivot della seconda riga dividendo per 3 questa riga
 
1 −1 0 2
 0 1 0 −9  ,
4
0 0 1 47

a questo punto si eettua l'operazione r1 → r1 + r2 e si ottiene

1 0 0 − 14
 
 0 1 0 −9  .
4
0 0 1 47

L'algoritmo di Gauss-Jordan quindi termina, e la matrice ottenuta è la forma a scala ridotta della
matrice A.

2.3 Generalità sui sistemi lineari


Sia f (x1 , . . . , xn ) un polinomio di grado m sul campo K nelle n indeterminate x1 , . . . , xn . L'espres-
sione f (x1 , . . . , xn ) = 0 prende il nome di equazione algebrica di grado m e rappresenta il problema
della ricerca delle radici del polinomio f (x1 , . . . , xn ) ovvero delle n-uple y = (y1 , . . . , yn ) di elementi
di K tali che f (y1 , . . . , yn ) = 0. Le indeterminate x1 , . . . , xn si dicono incognite dell'equazione e la
radice y di f si dice soluzione dell'equazione f = 0. Se m = 1, l'equazione f = 0 si dice equazione
lineare; in tal caso, dovendo essere un polinomio di grado 1, si ha che f = a1 x1 + · · · + an xn − b per
opportuni a1 , . . . , an , b ∈ K e quindi l'equazione lineare si scrive come a1 x1 + · · · + an xn − b = 0
o anche come
a1 x1 + · · · + an xn = b.

24
Un sistema lineare di m equazioni in n incognite su K, o a coecienti in K, è un insieme di
equazioni lineari su K 
 a11 x1 + · · · + a1n xn = b1

.
Σ: . (2.1)
.

 a x + ··· + a x = b
m1 1 mn n m

Dato il sistema lineare (2.1), la matrice di Mm,n (K)


 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
A =  .. ,
 
. .. .
 . . . .
. . 
am1 am2 . . . amn

si dice matrice incompleta o matrice dei coecienti del sistema, mentre la matrice di Mm,n+1 (K)
 
a11 a12 . . . a1n b1
 a21 a22 . . . a2n b2 
,
 
 .. .
. .. .
.
.
.
 . . . . . 
am1 am2 . . . amn bm

si dice matrice completa del sistema. Inoltre, spesso il sistema (2.1) si scrive usando la notazione
   
x1 b1
. .
matriciale come AX = B dove X= .  ∈ Kn e B= .  ∈ Km e AX indica il prodotto
   
. .
xn bm
righe per colonne tra A ed X. Nel seguito la matrice completa del sistema AX = B si indicherà
con (A|B). Un sistema lineare del tipo AX = 0 (dove qui 0 è la colonna fatta di tutti zero) si dice
omogeneo; inoltre dato un sistema lineare Σ : AX = B , il sistema Σom : AX = 0 si dice sistema
lineare omogeneo associato ad esso.

Una soluzione di (2.1) è una n-upla (y1 , . . . , yn ) di elementi di K che è soluzione per ciascuna
equazione che forma il sistema (2.1). Un sistema lineare si dice compatibile se ha almeno una
soluzione, incompatibile altrimenti. Un sistema compatibile che ammette una sola soluzione si
dice determinato. Determinare le soluzioni, o risolvere, un sistema signica Σ determinare se è
compatibile o meno e, nel caso sia compatibile, scrivere l'insieme Sol(Σ) delle sue soluzioni. Si noti
che essendo A0 = 0 ogni sistema lineare omogeneo è compatibile, avendo esso almeno la soluzione
nulla.

Due sistemi lineari in n incognite si dicono equivalenti se hanno le stesse soluzioni, cioè se ogni
soluzione dell'uno è anche soluzione dell'altro e viceversa. Sussiste la seguente proprietà, la cui
verica si lascia per esercizio.

Esercizio 2.3.1. Il sistema lineare AX = B (di m equazioni in n incognite su un campo K) è


equivalente ad ogni sistema lineare la cui matrice completa è equivalente ad (A|B).

Se AX = B è un sistema lineare, allora alla matrice completa (A|B) si può applicare l'algoritmo
di Gauss-Jordan ottenendo una matrice C che può pensarsi come la matrice completa di un sistema

25
equivalente ad AX = B . Evidentemente nel il sistema così ottenuto la ricerca delle soluzioni sarà
più semplice, e nel caso particolare che il sistema AX = B sia determinato l'ultima colonna della
matrice C fornirà direttamente una soluzione del sistema.

Esempio 2.3.2 (Sistema incompatibile) . Consideriamo il sistema (in R)



 2x1 + x2 = 1
x1 + x2 + x3 − x4 = 2
x1 − x3 + x4 = 1

La sua matrice completa è


 
2 1 0 0 1
 1 1 1 −1 2 
1 0 −1 1 1
la quale è equivalente alla matrice
 
1 1 1 −1 2
 0 1 2 −2 3  .
0 0 0 0 2
Questa seconda matrice è la matrice completa del sistema lineare

 x1 + x2 + x3 − x4 = 2
x2 + 2x3 − 2x4 = 3
0x4 = 2

che è incompatibile.

Esempio 2.3.3 (Sistema determinato) . Consideriamo il sistema (in R)



 x1 − x2 = 2
2x1 + x2 + x3 = −1
−3x1 + 2x2 + x3 = −2

che ha per matrice completa


 
1 −1 0 2
 2 1 1 −1 
−3 2 1 −2
la quale, come abbiamo visto in un esempio in precedenza, mediante l'algoritmo di Gauss-Jordan,
si trasforma nella seguente matrice ad essa equivalente

1 0 0 − 14
 
 0 1 0 −9  .
4
0 0 1 47
Questa seconda matrice è la matrice completa del sistema lineare

 x1 = − 14
x2 = − 94
x3 = 74

che ha per soluzione (− 14 , − 49 , 74 ).

26
Esempio 2.3.4 (Sistema compatibile ma determinato) . Consideriamo il sistema (in R)

2x1 + x2 = 1
x1 + x2 − x 3 = 2

La sua matrice completa è  


2 1 0 1
1 1 −1 2
la quale viene trasformata mediante l'algoritmo di Gauss-Jordan nella matrice ad essa equivalente

 
1 0 1 −1
.
0 1 −2 3

Questa seconda matrice è la matrice completa del sistema lineare


x1 + x3 = −1
x2 − 2x3 = 3

che è compatibile ma non è determinato perchè le sue soluzioni si ottengono al variare di x3 in R,


ovvero ha per soluzioni tutti gli inniti elementi dell'insieme

{(−x3 − 1, 2x3 + 3, x3 ) | x3 ∈ R}.

27
Capitolo 3
Spazi vettoriali

3.1 Vettori liberi


Consideriamo l'insieme E2 formato dai punti del piano o l'insieme E3
dei punti dello spazio della
2
geometria elementare; si userà qui il simbolo E per indicare uno qualsiasi tra gli insiemi E ed
E 3 . Gli elementi di E, i punti, si indicano con le lettere maiuscole dell'alfabeto. Dati due punti
P eQ distinti di E , si denoterà con P Q il segmento di estremi P e Q, e con rP Q la retta per
P e Q. Dalla geometria elementare sappiamo che assegnati due punti P e Q di una retta r è
possibile assegnare ad r , e di conseguenza anche al segmento P Q, un verso di percorrenza quello
secondo cui P precede Q (che è la stessa cosa che dire Q segue P ) oppure quello secondo cui Q
precede P . Un segmento P Q su cui si è ssato uno dei due possibili versi di percorrenza è detto
segmento orientato oppure vettore applicato, in tal caso si dice che P è il punto di applicazione (o
anche primo estremo ) se nel verso ssato è P che precede Q (altrimenti il punto di applicazione è
Q). Un vettore applicato il cui punto di applicazione è P si dice anche vettore applicato in P e si
−→
denota col simbolo P Q oppure Q − P , in tal caso Q è l'altro estremo del segmento orientato e di
−→
dice anche secondo estremo. Il vettore applicato P Q può essere interpretato come lo spostamento
del punto P sul punto Q e si può rappresentare mediante una freccia orientata da P a Q.

La denizione di vettore applicato si estende anche al caso in cui il primo estremo coincide col
−→
secondo estremo. Se P è un punto, il vettore applicato PP coincide col punto P e viene detto
vettore nullo applicato in P.
−→ −→ −→
Considerato il vettore applicato P Q, si dice modulo di PQ la misura del segmento P Q, in
−→
particolare il vettore nullo ha modulo nullo; si dice invece direzione di P Q la direzione della retta
−→ −− →
rP Q . Due vettori applicati P Q e P 0 Q0 si dicono paralleli se le rette rP Q e rP 0 Q0 hanno la stessa
−→ −− →
0 0
direzione (cioè sono rette parallele), quindi i vettori applicati P Q e P Q sono paralleli se e soltanto
se hanno la stessa direzione. Se la retta rP Q coincide con la retta rP 0 Q0 e su questa retta esiste un
0 0
verso di percorrenza secondo cui P precede Q e P precede Q , allora si dice che i vettori applicati
−→ −− →
P Q e P 0 Q0 hanno lo stesso verso. Se invece le rette rP Q e rP 0 Q0 sono distinte ma i vettori applicati
−→ −− →
P Q e P 0 Q0 sono comunque paralleli, allora le rette rP Q e rP 0 Q0 sono contenute in uno stesso piano

28
−→ 0 0
−−→
che la retta rP P 0
divide in due semipiani: in tal caso, si dice che i vettori applicati P Q e P Q
0
hanno lo stesso verso se i punti Q e Q cadono in uno stesso semipiano. Se due vettori liberi
hanno lo stesso verso, si usa dire anche che i vettori hanno verso concorde (nella gura seguente
a sinistra). Due vettori applicati paralleli che non hanno lo stesso verso si dicono avere verso
opposto o verso discorde (nella gura seguente a destra).

Q0 Q0

Q Q

P0 P0

P P

Dunque ad ogni vettore applicato (non nullo) corrispondono un punto di applicazione, un


numero reale positivo (il modulo), una direzione e un verso. Viceversa, ssato un punto P , un
numero reale positivo a, la direzione di una retta r e un verso su r, esiste un unico vettore applicato
di primo estremo P , modulo a, direzione e verso quelli di r : infatti, per l'assioma di Euclide per P
passa un'unica retta parallela ad r sulla quale è chiaramente possibile individuare un solo punto
Q tale che il segmento P Q abbia misura a e verso concorde a quello ssato su r.

Sia VE l'insieme dei vettori applicati con primo e secondo estremo in E. Deniamo in VE una
relazione dicendo che due vettori applicati sono equipollenti se hanno stesso modulo, direzione
e verso. Tale relazione è evidentemente una relazione di equivalenza, e si dice vettore libero (o
semplicemente vettore ) ogni classe di equivalenza rispetto alla relazione di equipollenza (in maniera
compatta, ogni classe di equipollenza). I vettori applicati nulli formano una classe di equipollenza
detta vettore nullo e denotata con 0. In generale, quando il contesto non crea ambiguità, si usa
−→
indicare con lo stesso simbolo PQ (oppure Q − P) anche il vettore libero ottenuto come classe
−→
di equipollenza del vettore applicato P Q; però per quello che qui segue è necessario ssare una
−−→
notazione diversa e si userà denotare, in questa sezione, con PQ (oppure Q − P) la classe di
−→
equipollenza del vettore applicato P Q. Se v è un vettore libero, il modulo, la direzione e il
verso di v sono il modulo, la direzione e il verso di un suo rappresentante (e quindi di ogni suo
rappresentante). In particolare, due vettori liberi sono paralleli se hanno uguale direzione.
2
Denotiamo con V2 l'insieme dei vettori liberi di E e con V3 l'insieme dei vettori liberi di E 3, o
semplicemente con con V l'insieme dei vettori liberi di E. Gli elementi di con V si indicano con le
lettere minuscole in grassetto.

Proposizione 3.1.1. Dati un vettore v ed un punto P di E, esiste un unico punto Q∈E tale
−−→
che v =PQ.
−→
Dimostrazione. Se v = 0, allora v = PP e quindi basta scegliere Q = P. Sia invece v 6= 0 e sia
−→
AB un vettore applicato la cui classe di equipollenza sia v. L'assioma di Euclide assicura che
esiste un'unica retta r per P parallela alla retta rAB , ed è poi chiaro che su r esiste un unico punto
−→ −→ −−→
Q tale che il vettore applicato PQ abbia stesso modulo e stesso verso di AB . Così v =PQ.

Andiamo ora a denire un'operazione, che chiameremo somma, nell'insieme V dei vettori liberi.
La somma di due vettori liberi v e w è il vettore libero che si denota con v + w e che è denito

29
−−→
come segue. Se v = PQ, la proposizione 3.1.1 assicura che esite un unico punto T tale che
−−→ −→
w = QT: allora per denizione si pone v + w = PT.

w
v+w T

P P0
w
v v
Q

Nella gura a sinistra, è ragurata la somma di vettori. Osservando la gura a destra, possiamo
riformulare la somma di vettori: due vettori non nulli e non paralleli v e w sono rappresentati
con segmenti orientati aventi entrambi come primo estremo uno stesso punto P 0 : tali segmenti
individuano un parallelogramma e la somma dei vettori è rappresentata dalla diagonale uscente
0 0
da P , con origine in P .
Il primo problema che si pone consiste nello stabilire che la denizione data non dipende dalla
scelta dei rappresentati per i vettori liberi. Se v = 0 (rispettivamente, w = 0), la somma di vettori
è ben denita e coincide con w (rispettivamente, con v). Supponiamo quindi che sia v che w non
sono il vettore nullo e analizziamo la gura che segue:

T T0
v+w v+w
0
P P
w w
v v
Q Q0
−− → −−→
Se P 0 Q0 è un altro vettore applicato che rappresenta T 0 è l'unico punto tale che Q0 T 0
v e
rappresenti w, allora il segmento P Q è parallelo al segmento P 0 Q0 e il segmento QT è parallelo
0 0 0
al segmento Q0 T 0 , così le proprietà dei triangoli assicurano che i triangoli P QT e P Q T sono
−→ −−0→0
congruenti. Pertanto i vettori P T e P T sono equipollenti e la denizione di somma è ben posta.

La struttura (V, +) è un gruppo abeliano, infatti la somma tra vettori liberi è sia associativa

v v+w w+u u

( +v w)+u=v+(w+u)

che commutativa

v
w
w+v
v+w
w
v

30
0 è l'elemento neutro rispetto alla somma (cioè v + 0 = v = 0 + v per ogni
inoltre il vettore nullo
−−→
v ∈ V ) e ogni vettore v =PQ ha per opposto (cioè simmetrico rispetto alla somma) il vettore
−−→
−v =QP (che è il vettore che ha stesso modulo e direzione di v, ma verso opposto).

Q0 P Q
-v v

Andiamo ora a denire un'altra operazione, questa volta si vuole denire in V è un'operazione
esterna con dominio di operatori in v è un vettore di V e λ ∈ R, si denisce prodotto del
R. Se
vettore v per lo scalare λ, λv denito come segue. Se v = 0 oppure λ = 0, allora
il vettore libero
λv = 0, se invece v 6= 0 e λ 6= 0, allora λv è il vettore libero che ha stessa direzione di v, modulo
pari al prodotto tra il valore assoluto |λ| di λ e il modulo di v, e verso concorde o discorde con v
a seconda che λ sia positivo o negativo.

-v P v
λv con λ<0 λv con λ>0
−→
v è un vettore non nullo e P Q è un suo rappresentante, sulla retta rP Q esistono
In dettaglio, se
due punti T1 e T2 tali che i segmenti P T1 e P T2 abbiano lunghezza pari al prodotto tra il valore
assoluto |λ| di λ e la lunghezza del segmento P Q, però esiste solo un i ∈ {1, 2} tale che il vettore
−−→ −→ −−→
P Ti abbia lo stesso verso di P Q: il vettore libero rappresentato da P Ti sarà per denizione il
vettore av.

Si potrebbe provare che l'operazione di prodotto di un vettore libero per un numero reale gode
delle seguenti proprietà:

1. λ(v + w) = λv + λw ∀v, w ∈ V e ∀λ ∈ R.

2. (λ + µ)v = λv + µv ∀v ∈ V e ∀λ, µ ∈ R.

3. (λµ)v = λ(µv) ∀v ∈ V e ∀λ, µ ∈ R.

4. 1v = v ∀v ∈ V .
Andiamo ora a studiare alcune proprietà dei vettori liberi. Innanzitutto, se v e w sono vettori
di V e risulta v = λw per qualche λ ∈ R, si dice pure che v e w sono proporzionali.

Proposizione 3.1.2. Due vettori liberi non nulli sono proporzionali se e solo se sono paralleli.

Dimostrazione. Siano v e w vettori liberi. Fissato un punto P , la proposizione 3.1.1 assicura che
−−→ −→
esiste un unico punto Q tale che v =PQ e che esiste un unico punto T tale che w =PT. Allora si
ha che v e w sono paralleli se e solo i segmenti P Q e P T giacciono su una stessa retta e quindi
se e solo se v e w sono proporzionali.

Tre vettori dello spazio u, v e w si dicono complanari se possono essere rappresentati con
segmenti orientati giacenti su uno stesso piano; in particolare, tre vettori sono complanari se uno
dei tre è nullo.

31
Proposizione 3.1.3. Siano u e v vettori liberi non paralleli, e sia w un vettore complanare con
u e v. Allora esistono dei numeri reali λ e µ tali che w = λu + µv.

Dimostrazione. I vettori u
v non sono paralleli per la proposizione 3.1.2, e quindi possiamo
e
−−→ −−→ −→
ssare un punto P tale che u = PQ, v = PR e w = PS, per opportuni punti Q, R e S (cfr.
proposizione 3.1.1). Si noti che, essendo non paralleli, i vettori sono non nulli, quindi i punti P, Q
e R sono a due a due distinti e pertanto a due a due generano rette: sia r1 la retta per P e Q e
0 0
−−→0 −−→0
sia r2 la retta per P e R. Siano poi Q ∈ r1 e R ∈ r2 tali che w = PQ + PR .

R0 S

P Q Q0
−−→0 −−→0
Allora esistono degli opportuni numeri reali λ e µ tali che PQ = λu e PR = µv. Sicchè
w = λu + µv come volevamo.

Proposizione 3.1.4. u, v e w tre vettori non complanari dello spazio, allora ogni altro
Siano
vettore e si esprime come e = αu + βv + γw per opportuni α, β, γ ∈ R.

−−→ −−→ −→
Dimostrazione. Fissato un punto P , risulta u = PQ, v = PR e w = PS per opportuni punti
Q, R e S (cfr. proposizione 3.1.1). Si noti che nessuno dei tre vettori è nullo - altrimenti i vettori
sarebbero complanari - quindi i punti P, Q, R e S sono a due a due distinti e pertanto a due a due
generano rette: sia r1 la retta per P e Q, r2 la retta per P ed R ed r3 la retta per P e S . Poichè
i vettori u, v e w sono non complanari, la proposizione 3.1.2 garantisce che essi sono a due a due
non paralleli, quindi i punti P, Q, R e S sono a tre a tre non allineati e pertanto generano dei
piani. Siano π12 il piano per P, Q e R, π13 il piano per P, Q e S e π23 il piano per P, R e S . Sia
−→
T un punto di E 3 tale che e = PT. Il piano per T parallelo al piano π23 interseca la retta r1 in
un punto T1 , analogamente il piano per T parallelo al piano π13 interseca la retta r2 in un punto
T2 ed il piano per T parallelo al piano π12 interseca la retta r3 in un punto T3 . Sia, inne, T12 il
punto di intersezione di π12 con la retta per T parallela ad r3 .

r3
T3

S
T

P r2
R T2
Q
T1 T12
r1

32
−−−→ −−→ −−→ −−−→ −−→
Si ha che PT12 = PT1 + PT2 e T12 T = PT3 , quindi

−→ −−−→ −−−→ −−→ −−→ −→


PT = PT12 + T12 T = PT1 + PT2 + PT3 .
−−→
Ora, essendo T1 ∈ r1 deve essere PT1 = αu per un opportunto α ∈ R, e analogamente è anche
−−→ −−→
PT2 = βv e PT3 = γw per opportuni β, γ ∈ R. Pertanto si ha che e = αu + βv + γw come si
voleva.

Concludiamo con la seguente denzione che ci tornerà utile in seguito. Siano v e w due vettori
−→ −→
liberi. Fissato un punto del piano P e supposto sia e v = PQ w = PT
(cfr. proposizione 3.1.1),
indichiamo con v,
d w l'angolo tra v e w, ovvero l'angolo convesso tra le semirette P Q e P T , quindi
v,
d w ∈ [0, π]. Si può provare che l'angolo così denito è indipendente dal punto P ssato. Inoltre,
i vettori non nulli v e w si dicono ortogonali, e si scrive v ⊥ w, se v, d w = π2 (ovvero se sono
rappresentati da segmenti che giacciono su rette ortogonali). Per convenzione, inne, si assume
che il vettore nullo è ortogonale ad ogni altro vettore.

3.2 Vettori numerici


Sia ssato, qui e nel seguito, un campo K e si consideri l'insieme

Kn = {(x1 , . . . , xn ) | x1 , . . . , xn ∈ K}

di tutte le n-uple di elementi di K. In Kn è possibile denire un'operazione interna + ponendo

(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) (3.1)

comunque si considerino gli elementi (x1 , . . . , xn ) e (y1 , . . . , yn ) di Kn ; si noti che le somme che
compaiono nella n-upla al secondo membro della precedente posizione rappresenta la somma tra
elementi di K.
Le proprietà della somma di permettono di provare analoghe proprietà per questa somma
K
n
ora denita. Comunque si considerano gli elementi (x1 , . . . , xn ), (y1 , . . . , yn ) e (z1 , . . . , zn ) di K ,
n
dalla associatività della somma in K segue l'associatività della somma in K :

[(x1 , . . . , xn ) + (y1 , . . . , yn )] + (z1 , . . . , zn ) =


= (x1 + y1 , . . . , xn + yn ) + (z1 , . . . , zn ) =
= ((x1 + y1 ) + z1 , . . . , (xn + yn ) + zn ) =
= (x1 + (y1 + z1 ), . . . , xn + (yn + zn )) =
= (x1 , . . . , xn ) + (y1 + z1 , . . . , xn + zn ) =
= (x1 , . . . , xn ) + [(y1 , . . . , yn ) + (z1 , . . . , zn )]

e analogamente la commutatività della somma tra elementi di K consente di stabilire che

(x1 , . . . , xn ) + (y1 , . . . , yn ) = (y1 , . . . , yn ) + (x1 , . . . , xn )

cioè anche la somma tra elementi di Kn è commutativa. Evidentemente poi

(x1 , . . . , xn ) + (0, . . . , 0) = (x1 , . . . , xn ) = (0, . . . , 0) + (x1 , . . . , xn )

33
e
(x1 , . . . , xn ) + (−x1 , . . . , −xn ) = (0, . . . , 0) = (−x1 , . . . , −xn ) + (x1 , . . . , xn )
In denitiva, la somma denita in (3.1) rende Kn un gruppo abeliano in cui l'elemento neutro è
0 = (0, . . . , 0) e in cui
−(x1 , . . . , xn ) = (−x1 , . . . , −xn )
In Kn andiamo a denire anche un'operazione esterna con dominio di operatori in K, ponendo

λ · (x1 , . . . , xn ) = (λx1 , . . . , λxn )

per ogni λ∈K e per ogni (x1 , . . . , xn ) ∈ Kn ; evidentemente anche qui i prodotti che compaiono
nella n-upla al secondo membro della precente identità rappresentano il prodotto tra elementi
di K, Kn verrà indicato per giustapposizione ovvero si scriverà
inoltre nel seguito il prodotto in
semplicemente λ(x1 , . . . , xn ) in luogo di λ · (x1 , . . . , xn ). Comunque si considerano gli elementi
(x1 , . . . , xn ), (y1 , . . . , yn ) e (z1 , . . . , zn ) di Kn e gli elementi λ, µ ∈ K, è facile accorgersi che dalla
proprietà distributiva del prodotto rispetto alla somma valida tra elementi di K segue:

1. λ[(x1 , . . . , xn ) + (y1 , . . . , yn )] = λ(x1 , . . . , xn ) + λ(y1 , . . . , yn );


2. (λ + µ)(x1 , . . . , xn ) = λ(x1 , . . . , xn ) + µ(x1 , . . . , xn );
inoltre l'associatività del prodotto tra elementi di K assicura che

3. (λµ)(x1 , . . . , xn ) = λ[µ(x1 , . . . , xn )];


ed inne è evidente che

4. 1(x1 , . . . , xn ) = (x1 , . . . , xn ).

3.3 Spazi vettoriali su un campo


Siano (V, +) un gruppo abeliano, (K, +, ·) un campo e

⊥ : (λ, v) ∈ K × V −→ λ⊥v ∈ V

un'operazione esterna in V con dominio di operatori in K. La struttura algebrica (V, +, ⊥) si dice


uno spazio vettoriale su K (o un K-spazio vettoriale) se qualsiasi siano gli elementi λ, µ ∈ K e
u, v ∈ V risulta:

1V λ⊥(u + v) = (λ⊥u) + (λ⊥v);

2V (λ + µ)⊥v = (λ⊥v) + (µ⊥v);

3V λ⊥(µ⊥v) = (λµ)⊥v ;

4V 1⊥v = v .

In tal caso, gli elementi di V si dicono vettori e quelli di K scalari. Nel seguito l'operazione esterna
⊥ sarà denotata moltiplicativamente; inoltre, salvo avviso contrario, si parlerà semplicemente di
spazio vettoriale ritenendo ssato il campo K.

34
Proposizione 3.3.1. Sia V uno spazio vettoriale. Se λ e µ sono elementi di K ed u e v sono
elementi di V, risulta:

(i) λv = 0 se e solo se λ=0 oppure v = 0;

(ii) λ(−v) = (−λ)v = −(λv);

(iii) (λ − µ)v = λv − µv ;

(iv) λ(u − v) = λu − λv .

Dimostrazione. (i) Usando la condizione 2V della denizione, si ha

0v = (0 + 0)v = 0v + 0v

da cui 0v = 0 per la regolarità della somma; mentre usando la condizione 1V della denizione si
ha
λ0 = λ(0 + 0) = λ0 + λ0
da cui λ0 = 0 sempre per la regolarità della somma. Viceversa, se λv = 0 e λ 6= 0 allora dalle
condizioni 3V e 4V della denzione segue

v = 1v = (λ−1 λ)v = λ−1 (λv) = λ−1 0

e quindi la prima parte della dimostrazione garantisce che v = 0.


(ii) Dalla (i) e dalla condizione 1V della denizione, segue che

0 = λ0 = λ(v + (−v)) = λv + λ(−v)

sicchè λ(−v) = −(λv ); d'altra parte sempre la (i) e questa volta la condizione 2V della denizione
assicurano che
0 = 0v = (λ + (−λ))v = λv + (−λ)v
sicchè (−λ)v = −(λv).
(iii) Usando la condizione 2V della denzione, come conseguenza della (ii) si ha che

(λ − µ)v = λv + (−µ)v) = λv − µv.

(iv) Dalla condizione 1V della denizione e dalla (ii) segue che

λ(u − v) = λu + λ(−v) = λu − λv.

Esempio 3.3.2. I vettori liberi con le operazioni viste nel paragrafo 3.1 costituiscono un R-spazio
vettoriale.

Esempio 3.3.3. Se K è un campo, la struttura algebrica (Kn , +, ·), denita nel paragrafo 3.2, è
uno spazio vettoriale detto spazio vettoriale numerico su K e gli elementi di Kn si dicono pure
vettori numerici.

35
Esempio 3.3.4. Siano K un campo e K[x] l'insieme dei polinomi a coecienti in K (qui per
semplicità, così da ritrovare in K[x] un insieme già noto, si può pensare a K come al campo dei
numeri razionali o al campo dei numeri reali); allora K[x] è un altro esempio di spazio vettoriale su
K. Infatti, l'usuale operazione di addizione tra polinomi rende K[x] un gruppo abeliano ed inoltre,
n
considerati il generico polinomio a0 + a1 x + · · · + an x a coecienti in K e λ ∈ K, la posizione

λ · (a0 + a1 x + · · · + an xn ) = λa0 + λa1 x + · · · + λan xn

denisce un'operazione esterna in K[x] con dominio di operatori in K e la struttura algebrica


(K[x], +, ·) è un K-spazio vettoriale.

Esempio 3.3.5. Nell'insieme Mm,n (K) delle matrici m×n sul campo K, abbiamo denito (nel
paragrafo 2.1) un'operazione interna di somma ponendo

(aij ) + (bij ) = (aij + bij )

ed abbiamo osservato che tale operazione rende Mm,n (K) un gruppo abeliano in cui lo zero è la
matrice nulla O (cioè la matrice O = (oij ) i cui elementi oij 0 del
sono tutti uguali allo zero
campo K), e in cui l'opposto della matrice (aij ) è la matrice −(aij ) = (−aij ). Se poi λ ∈ K e
A = (aij ) ∈ Mm,n (K), è possibile anche denire un'operazione esterna di prodotto della matrice A
per lo scalare λ ponendo λA = (λaij ) di Mm,n (K). E' semplice accorgersi che la struttura algebrica
(Mm,n (K), +, ·) è un K-spazio vettoriale.

Esempio 3.3.6. Siano V uno spazio vettoriale su un campo K ed S un insieme non vuoto qualsiasi.
S S
Si denoti con V l'insieme di tutte le applicazioni con dominio S e codominio V . Se f, g ∈ V e
λ ∈ K, siano f + g e λf le applicazioni di S in V denite rispettivamente dalle posizioni

(f + g)(x) = f (x) + g(x) e (λ · f )(x) = λf (x) ∀x ∈ S.

Si denisce così un'operazione interna + in VS


ed un'operazione esterna · in V
S
con dominio di
S
operatori in K, rispetto alle quali è semplice accorgersi che V risulta essere uno spazio vettoriale
K
su K. In particolare, quindi, l'insieme K di tutte le applicazioni di K in sé è dotato di una
struttura di K-spazio vettoriale.

3.4 Sottospazi
Sia V uno spazio vettoriale. Una parte W di V si dice K-sottospazio vettoriale di V, o semplice-
mente sottospazio vettoriale di V, e si scrive W ≤ V , se:

1S W 6= ∅;

2S per ogni u, v ∈ W risulta u+v ∈W (cioè W è stabile rispetto alla somma di V );

3S per ogni u ∈ W e per ogni λ ∈ K risulta λu ∈ W (cioè W è stabile rispetto al prodotto


esterno di V ).

36
In tal caso, le operazioni denite in V inducono delle operazioni in W rispetto alle quali anche W
è uno spazio vettoriale; inoltre considerato un qualsiasi elemento w di W si ha che 0w = 0 ∈ W
e per ogni v ∈ W è −v = (−1)v ∈ W (cfr. proposizione 3.3.1) . Chiaramente, V e {0} sono
sottospazi di V detti banali. In particolare, {0} è detto sottospazio nullo, mentre i sottospazi di
V diversi da V sono detti sottospazi propri. E' semplice inoltre accorgersi che

W ≤V se e solo se ∀ u, v ∈ W e ∀ λ, µ ∈ K risulta λu + µv ∈ W .

Esempio 3.4.1. Nello spazio vettoriale numerico R3 , il sottoinsieme

X = {(x, y, z) ∈ R3 | y = 0}

è un sottospazio. Infatti, se (x1 , 0, z1 ) e (x2 , 0, z2 ) sono elementi di X e λ, µ ∈ R allora

λ(x1 , 0, z1 ) + µ(x2 , 0, z2 ) = (λx1 + µx2 , 0, λz1 + µz2 ) ∈ X.

Invece Y = {(x, y, z) ∈ R3 | x ≥ 0} non è un sottospazio di R3 perchè esso non è stabile rispetto


all'operazione esterna, infatti (1, 1, 1) ∈ Y mentre invece (−1) · (1, 1, 1) 6∈ Y .

Più in generale, si provi a risolvere il seguente.

Esercizio 3.4.2. Sia Σ un sistema lineare omogeneo in n


equazioni a coecienti reali, allora
n
l'insieme Sol(Σ) delle soluzioni di Σ è un sottospazio vettoriale di R .

Esempio 3.4.3. Se K è un campo e n ∈ N, l'insieme Kn [x] dei polinomi di grado al più n


n
è un sottospazio di K[x], infatti se si considerano due polinomi f = a0 + a1 x + · · · + an x e
n
g = b0 + b1 x + · · · + bn x di grado al più n, comunque si scelgano λ, µ ∈ K si ha che

λf + µg = (λa0 + µb0 ) + (λa1 + µb1 )x + · · · + (λan + µbn )xn

è ancora un polinomio di Kn [x].

Esempio 3.4.4. Consideriamo lo spazio vettoriale Mn (K) delle matrici quadrate di ordine n sul
campo K e il suo sottoinsieme di tutte le matrici simmetriche:

S = {A ∈ Mn (K) : At = A}.

Se A, B ∈ S e λ∈K si ha subito che

(A + B)t = At + B t = A + B e (λA)t = λAt = λA.

Dunque S è un sottospazio vettoriale.

37
Esempio 3.4.5. Siano k ∈ N0 ed I un intervallo di R. Nell' R-spazio vettoriale RI di tutte le
applicazioni di I in R, un esempio di sottospazio vettoriale è dato dall'insieme C k (I) di tutte
le applicazioni di I in R per le quali esistono tutte le derivate no al k -esimo ordine, e tali

derivate sono applicazioni continue. Un altro esempio di sottospazio è l'insieme C (I) di tutte le
applicazioni di I in
dotate di derivata continua di ogni ordine. E' inoltre semplice accorgersi
R
I
che, ssata una parte non vuota X di I , l'insieme {f ∈ R | f (x) = 0 ∀x ∈ X} è un sottospazio
I
mentre {f ∈ R | f (x) ∈ Q ∀x ∈ I} non è un sottospazio.

Esempio 3.4.6. Considerati i sottospazi X = {(t, 2t) | t ∈ R} e Y = {(t, t) | t ∈ R} dello spazio


2
vettoriale numerico R , si ha che (1, 2) ∈ X e (1, 1) ∈ Y ma (2, 3) = (1, 2) + (1, 1) non appartiene
2
a X ∪ Y , sicchè X ∪ Y non è stabile rispetto alla somma e quindi non è un sottospazio di R .

In generale, quindi, come l'esempio precedente mostra, l'unione di sottospazi può non essere
un sottospazio. Dierente è il caso dell'intersezione di sottospazi.

Proposizione 3.4.7. Sia V uno spazio vettoriale e siano W1 , . . . , Wn sottospazi di V. Allora


W1 ∩ · · · ∩ Wn è un sottospazio di V.

Dimostrazione. Poichè il vettore nullo è in ogni sottospazio, si ha che 0 ∈ W1 ∩ · · · ∩ Wn e quindi


W1 ∩ · · · ∩ Wn 6= ∅. λ, µ ∈ K e u, v ∈ W1 ∩ · · · ∩ Wn , allora u e v ∈ Wi per ogni i = 1, . . . , n,
Ora, se
conseguentemente anche λu + µv ∈ Wi per ogni i = 1, . . . , n e quindi λu + µv è in W1 ∩ · · · ∩ Wn .
Pertanto W1 ∩ · · · ∩ Wn è un sottospazio di V .

Sia V uno spazio vettoriale. Una combinazione lineare di v1 , . . . , vn ∈ V è una somma del
tipo λ1 v1 + · · · + λn vn dove λ1 , . . . , λn ∈ K sono degli scalari detti coecienti della combinazione
lineare. Considerata poi una parte non vuota X di V , sia L[X] il sottoinsieme di V i cui elementi
sono le combinazioni lineari, a coecienti in K, dei vettori che sono in X :

L[X] = {λ1 x1 + · · · + λn xn | n ∈ N; λ1 , . . . , λn ∈ K; x1 , . . . , xn ∈ X}.

Proposizione 3.4.8. Siano V uno spazio vettoriale e X una parte non vuota di V. Allora

(i) L[X] è un sottospazio di V che contiene X;

(ii) Se W è un sottospazio di V che contiene X, allora W contiene anche L[X].

Dimostrazione. Evidentemente X è contenuto in L[X] ed inoltre L[X] è un sottospazio di V


perchè se u, v ∈ L[X], allora u e v sono combinazioni lineari di elementi di X e, se λ, µ ∈ K, anche
λu + µv è combinazione lineare di elementi di X e pertanto è un elemento di L[X]. Se poi W è un
sottospazio di V che contiene X , allora W deve contenere tutte le combinazioni lineari di elementi
di X e pertanto L[X] è contenuto in W .

38
Se X è una parte non vuota di V, la proposizione 3.4.8 assicura che L[X] è un sottospazio
di V e che tra i sottospazi di V esso è il più piccolo (rispetto all'inclusione) a contenere X. Il
sottospazio L[X] si dice sottospazio di V generato da X . Evidentemente, se X è un sottospazio
di V risulta L[X] = X . Inoltre se X = {x1 , . . . , xn } è una parte nita di V , allora il sottospazio
generato da X si denota anche con L[x1 , . . . , xn ]. La precedente denizione si estende anche al
caso in cui X sia l'insieme vuoto ponendo L[∅] = {0}.

Se V è uno spazio vettoriale e W1 , W2 , . . . , Wn sono sottospazi di V, si dice sottospazio somma


di W1 , W2 , . . . , Wn il sottospazio

W1 + W2 + · · · + Wn = L[W1 ∪ W2 ∪ · · · ∪ Wn ].

Come semplice conseguenza dalla denizione di spazio generato da una parte, si ha che lo spazio
somma è l'insieme di tutte le somme del tipo w1 + w2 + · · · + wn con ogni wi elemento del rispettivo
Wi :
W1 + W2 + · · · + Wn = {w1 + w2 + · · · + wn | wi ∈ Wi ∀i = 1, . . . , n}.

Il sottospazio W di V è somma diretta dei sottospazi W1 , W2 , . . . , Wn se

(a) W = W1 + W2 + · · · + Wn ;

(b) Wi ∩ (W1 + · · · + Wi−1 + Wi+1 + · · · + Wn ) = {0} per ogni i = 1, . . . , n;

in questo caso si scrive


W = W1 ⊕ W2 ⊕ · · · ⊕ Wn .

Sussiste la seguente proprietà, la cui verica viene lasciata per esercizio.

Esercizio 3.4.9. Siano V uno spazio vettoriale e W1 , . . . , W n sottospazi di V . Un sottospazio W


di V è somma diretta dei sottospazi W1 , . . . , Wn se e solo se ogni elemento di W si scrive in modo
unico come somma w1 + · · · + wn con wi ∈ Wi per ogni i = 1, . . . , n.

Esempio 3.4.10. Consideriamo lo spazio vettoriale numerico R3 e gli insiemi

X = {(2t, 0, t) | t ∈ R} ed Y = {(0, s, 0) | s ∈ R}.

E' semplice accorgersi che X e Y sono sottospazi di R3 , inoltre si ha che X = L[(2, 0, 1)], Y =
L[(0, 1, 0)] e
X + Y = L[(2, 0, 1), (0, 1, 0)] = {(2s, t, s) | s, t ∈ R}.
Essendo evidente che X ∩ Y = {0}, si ha che X +Y =X ⊕Y.

39
3.5 Dipendenza e indipendenza lineare
Siano V uno spazio vettoriale (sul campo K) ed X
V . Si dice che un
una parte non vuota di
elemento v di V dipende da X se v ∈ L[X], e quindi se esistono degli elementi x1 , . . . , xn ∈ X tali
che v = λ1 x1 + · · · + λn xn con λ1 , . . . , λn ∈ K. Evidentemente se v dipende da X allora v dipende
da una parte nita di X . Si osservi che se v ∈ X , allora v = 1 · v dipende da X ; inoltre, se Y è
una parte non vuota di X , ogni elemento di V che dipende da Y dipende anche da X . E' anche
chiaro che il vettore nullo dipende da ogni parte non vuota di V , essendo 0 = 0 · v per ogni v ∈ V .

I vettori v1 , v2 , . . . , vn a due a due distinti di V si dicono linearmente dipendenti se esistono


degli scalari non tutti nulli λ1 , λ2 , . . . , λn ∈ K tali che λ1 v1 +λ2 v2 +· · ·+λn vn = 0; dierentemente,
i vettori v1 , v2 , . . . , vn si dicono linearmente indipendenti se non sono linearmente dipendenti, cioè
se da λ1 v1 + λ2 v2 + · · · + λn vn = 0 segue che λ1 = λ2 = · · · = λn = 0.

Se v1 , . . . , vn sono vettori a due a due distinti di V, facendo uso delle proprietà valide in uno
spazio vettoriale, si ha che

λ1 v1 + λ2 v2 + · · · + λn vn = 0 con λi 6= 0,
se e solo se

vi = −λ−1 −1 −1 −1
i λ1 v1 − · · · − λi λi−1 vi−1 − λi λi+1 vi+1 − · · · − λi λn vn ;

in particolare,
vi ∈ L[v1 , . . . , vi−1 , vi+1 , . . . , vn ],
se e soltanto se
L[v1 , . . . vn ] = L[v1 , . . . , vi−1 , vi+1 , . . . , vn ].
Pertanto i vettori v1 , . . . , vn sono linearmente dipendenti se e solo se (almeno) uno di essi dipende
dall'insieme formato dai restanti vettori. In particolare, nel caso di due vettori v1 e v2 si ottiene
che essi sono dipendenti se e solo se esiste uno scalare non nullo λ ∈ K tale che v1 = λv2 e
v2 = λ−1 v1 , o in altre parole, se e solo se ciascuno di essi appartiene al sottospazio vettoriale
generato dall'altro (in tal caso spesso si dice che i vettori v1 e v2 sono proporzionali ). Un errore
molto comune è pensare che i vettori v1 , . . . , v n sono indipendenti se sono indipendenti (cioè non
proporzionali) a due a due: questo non è vero! Ad esempio, nello spazio numerico R3 i vettori
(1, 0, 0), (0, 1, 0) e (1, 1, 0) sono dipendenti, ma sono non proporzionali a due a due.

Esempio 3.5.1. Nello spazio M2 (R) delle matrici 2 × 2 su R, consieriamo i vettori


     
1 2 −1 2 0 2
v1 = , v2 = , v3 =
0 1 2 2 1 23
e andiamo a stabilire se essi sono dipendenti o indipendenti. Consideriamo la generica combina-
zione lineare dei vettori assegnati e poniamola uguale al vettore nullo

λ1 v1 + λ2 v2 + λ3 v3 = 0

Facendo uso delle regole dell'algebra delle matrici, la precedente si riscrive come
   
λ1 − λ2 2λ1 + 2λ2 + 2λ3 0 0
=
2λ2 + λ3 λ1 + 2λ2 + 23 λ3 0 0

40
Dunque stabilire se i vettori dati sono dipendenti o indipendenti, equivale a chiedersi se il sistema


 λ1 − λ2 = 0
2λ1 + 2λ2 + 2λ3 = 0

Σ:

 2λ2 + λ3 = 0
λ1 + 2λ2 + 32 λ3 = 0

ha o non ha soluzioni non nulle (si ricordi che un sistema omogeneo ha sempre almeno la soluzione
nulla). La matrice incompleta del sistema

 
1 −1 0
2 2 2 
 
0 2 1 
1 2 32

mediante l'algoritmo di Gauss-Jordan riesce equivalente alla matrice

0 12
 
1
0
 1 12 

0 0 0
0 0 0

Pertanto  
1 1
Sol(Σ) = { − λ3 , − λ3 , λ3 : λ3 ∈ R} =
6 {(0, 0, 0)}
2 2
1 1

e quindi i vettori dati sono dipendenti. Si noti che − , − , 1 è soluzione di Σ, quindi deve
2 2
risultare
1 1
− v1 − v2 + 1v3 = 0
2 2
e pertanto
1 1
v3 = v1 + v2 .
2 2

Se V è uno spazio vettoriale, una sua parte X si dice libera o indipendente se è vuota oppure se
comunque si considerano degli elementi a due a due distinti x1 , . . . , x n
X , essi sono linearmente
in
indipendenti. Se X non è libera, allora si dice che X è legata o dipendente. Quindi X è legata
se X è non vuota ed esiste una combinazione lineare nulla λ1 x1 + · · · + λn xn = 0 di elementi
x1 , . . . , xn di X con scalari λ1 , . . . , λn non tutti nulli. Chiaramente X è libera se e solo se è libera
ogni sua parte nita, ed è anche chiaro che ogni sottoinsieme di V che contiene una parte legata
è legato. Sicchè essendo 1 · 0 = 0, ogni parte che contiene {0} è legata. Invece, se v ∈ V \ {0},
allora la (i) della proposizione 3.3.1 assicura che {v} è una parte libera di V . Si noti inoltre che i
vettori v1 , . . . , vn sono linearmente dipendenti (rispettivamente indipendenti) se e solo se la parte
{v1 , . . . , vn } è legata (rispettivamente libera), dunque il prossimo risultato è semplicemente una
generalizzazione di quanto osservato poco fa.

Proposizione 3.5.2. Sia V uno spazio vettoriale e sia X una parte di V. Allora

41
(i) X è legata se e solo se esiste un elemento v di X che dipende da X \ {v}.

(ii) X è libera se e solo se non esiste alcun elemento v in X che dipenda da X \ {v}.
Dimostrazione. Essendo (ii) la negazione della (i), basta provare la (i). Sia X una parte legata,
allora X è non vuota ed esistono x1 , . . . , xn ∈ X e λ1 , . . . , λn ∈ K tali che

λ 1 x1 + · · · + λ n xn = 0 e λi 6= 0 per qualche i ∈ {1, . . . , n}.


Allora xi {x1 , . . . , xi−1 , xi+1 , . . . , xn } e quindi anche da X \ {xi }. Reciprocamente,
dipende da
supponiamo esita un elemento v di X che dipenda da X \ {v}. Allora esistono degli elementi
x1 , . . . , xn in X \ {v} e degli scalari λ1 , . . . , λn in K tali che v = λ1 x1 + · · · + λn xn . Così

1 · v − λ1 x1 − · · · − λn xn = 0

è una combinazione lineare nulla di elementi di X con coecienti non tutti nulli e pertanto X è
legata.

Dunque se V è uno spazio vettoriale e X è una sua parte, X è legata se e solo se esiste un
vettore v∈X che dipende da X \ {v}, il che equivale all'essere L[X] = L[X \ {v}]. Un'altra utile
proprietà è la seguente.

Proposizione 3.5.3. Sia V uno spazio vettoriale e siano X una parte di V e v ∈ V. Se X è


libero e X ∪ {v} è legato, allora v dipende da X.
Dimostrazione. Evidentemente v 6∈ X . Siano λ, λ1 , . . . , λn elementi non tutti nulli di K e siano
x1 , . . . , x n elementi di X tali che

λv + λ1 x1 + · · · + λn xn = 0.

Poichè 0v = 0 ed X è una parte libera, segue che λ 6= 0 e quindi

v = −λ−1 λ1 x1 − · · · − λ−1 λn xn .

Sicchè v dipende da X, come si voleva.

SiaV uno spazio vettoriale. Una parte X di V si dice sistema di generatori di V se si ha che
V = L[X]. Chiaramente l'insieme vuoto è un sistema di generatori di {0}, mentre un insieme
non vuoto X è un sistema di generatori di V se e solo se ogni elemento di V dipende da X ,
in particolare V è un sistema di generatori per V . Lo spazio vettoriale V si dice nitamente
generato se ha un sistema di generatori nito. In particolare, se X è una parte nita di V allora
il sottospazio L[X] è uno spazio vettoriale nitamente generato.

Esempio 3.5.4. Nello spazio vettoriale R3 [x] dei polinomi a coecienti reali di grado al più 3, si
considerino i polinomi

p1 (x) = 1 + 2x, p2 (x) = x − x2 , p3 (x) = 1 + x − x2 + 2x3 , p4 (x) = x3

e si ponga X = {p1 (x), p2 (x), p3 (x), p4 (x)}. Vogliamo stabilre se X è o meno un sistema di
2 3
generatori di R3 [x], questo signica chiedersi se il generico polinomio p(x) = a0 + a1 x + a2 x + a3 x

42
di R3 [x] è o meno combinazione lineare dei vettori che sono in X. Andiamo quindi a studiare
l'equazione vettoriale
p(x) = λ1 p1 (x) + λ2 p2 (x) + λ3 p3 (x) + λ4 p4 (x)
dove λ1 , λ2 , λ3 e λ4 sono dei parametri reali. Esplicitando la precedente relazione e sommando i
termini simili, riusciamo a scrivere

a0 + a1 x + a2 x2 + a3 x3 = (λ1 + λ3 ) + (2λ1 + λ2 + λ3 )x + (−λ2 − λ3 )x2 + (2λ3 + λ4 )x3

e quindi, applicando il principio di identità dei polinomi, ricaviamo che il nostro problema si può
tradurre nello stabile se il seguente sistema lineare nelle incognite λ1 , λ2 , λ3 e λ4


 λ1 + λ3 = a0
2λ1 + λ2 + λ3 = a1

Σ:

 −λ2 − λ3 = a2
2λ3 + λ4 = a3

è compatibile o meno qualsiasi siano i numeri reali a0, a1 , a2


a3 : se Σ ha soluzioni, indipendente-
e
mente dal fatto che il sistema sia determinato o meno, si ha che X è sistema di generatori mentre
se Σ non ha soluzioni, allora X non è sistema di generatori. La matrice completa del sistema Σ è

 
1 0 1 0 a0
2 1 1 0 a1 
 
0 −1 −1 0 a2 
0 0 2 1 a3

che, applicando l'algorimo di Gauss-Jordan, diventa equivalente alla matrice

1
a + 12 a2
 
1 0 0 0 2 1
0
 1 0 0 a0 − 12 a1 + 12 a2 

0 0 1 0 −a0 + 12 a1 − 32 a2 
0 0 0 1 2a0 − a1 + 3a2 + a3

Dunque il sistema Σ ha soluzioni e pertanto X è un sistema di generatori per R3 [x].

Una parte X si dice base per V se X è una parte libera ed un sistema di generatori per V.
Quindi l'insieme vuoto è una base per lo spazio nullo {0}, ed evidentemente lo spazio nullo è
l'unico ad avere per base l'insieme vuoto.

Esempio 3.5.5. L'insieme X = {p1 (x), p2 (x), p3 (x), p4 (x)}, dove

p1 (x) = 1 + 2x, p2 (x) = x − x2 , p3 (x) = 1 + x − x2 + 2x3 , p4 (x) = x3 ,

considerato nell'esempio 3.5.4, è una base per lo spazio vettoriale R3 [x] dei polinomi a coecienti
reali di grado al più 3. Infatti, nell'esempio 3.5.4 abbiamo mostrato che X è un sistema di
generatori. D'altra parte una combinazione lineare nulla dei vettori di X

λ1 p1 (x) + λ2 p2 (x) + λ3 p3 (x) + λ4 p4 (x) = 0

43
da origine al sistema 

 λ1 + λ3 = 0
2λ1 + λ2 + λ3 = 0

Σ:

 −λ2 − λ3 = 0
2λ3 + λ4 = 0

che si vede essere dotato solo della soluzione nulla (si noti che è lo stesso sistema che riusciva
nell'esempio 3.5.4 con a0 = a1 = a2 = a3 = 0). Pertanto X è libero e quindi in denitiva è
base.

Esempio 3.5.6. Consideriamo lo spazio vettoriale numerico R3 ed i sottospazi X = L[(2, 0, 1)]


e Y = L[(0, 1, 0)]. Chiaramente {(2, 0, 1)} è una base per X e {(0, 1, 0)} è una base per Y . Se
λ, µ ∈ K sono tali che
0 = λ(2, 0, 1) + µ(0, 1, 0) = (2λ, µ, λ)
allora λ = µ = 0. Quindi (2, 0, 1) e (0, 1, 0) sono linearmente indipendenti e così {(2, 0, 1), (0, 1, 0)}
è una base per X ⊕ Y .

Al ne di fornire una prima caratterizzazione delle basi, premettiamo la seguente denizione.
Siano V uno spazio vettoriale ed X una parte di V. Si dice che X è una parte libera massimale
di V se X è una parte libera e se da X ⊆ Y ⊆ V e X 6= Y segue che Y è legata. Invece, si dice
che X è un sistema minimale di generatori di V se X è un sistema di generatori e se da Z ⊆ X e
Z 6= X segue L[Z] 6= V .

Teorema 3.5.7. Sia V uno spazio vettoriale. Sono equivalenti:

(i) X è base per V;

(ii) X è parte libera massimale di V;

(iii) X è sistema minimale di generatori di V.

Dimostrazione. (i) ⇔ (ii) Sia X una base, sicchè X è parte libera. Supponiamo che sia X ⊂ Y ⊆
V e sia u ∈ Y \ X . Essendo X una base per V , risulta V = L[X] e così u dipende da X . Poichè
X ⊆ Y \ {u} segue che u dipende da Y \ {u} e quindi Y è parte legata per la proposizione 3.5.2.
Dunque X è parte libera massimale. Viceversa, se v ∈ V allora v ∈ X (e quindi v dipende da X )
oppure X ∪ {v} è legato. Segue allora dalla proposizione 3.5.3 che v dipende da X in ogni caso,
dunque X è sistema di generatori per V nonchè base.
(i) ⇔ (iii) Sia X una base, sicchè X è un sistema di generatori. Supponiamo sia Z ⊂ X e
sia u ∈ X \ Z . Se Z fosse un sistema di generatori per V , allora u dipenderebbe da Z nonchè da
X \ {u}, essendo Z ⊆ X \ {u}; pertanto la proposizione 3.5.2 ci darebbe che X è parte legata
contro l'essere X libera in quanto base. Pertanto Z non è un sistema di generatori e X è un
sistema minimale di generatori. Viceversa, se X è un sistema minimale di generatori si ha che
u non dipende da X \ {u} qualsiasi sia u ∈ X . Pertanto X è libero per la proposizione 3.5.2 e
quindi X è base.

44
Concludiamo enunciando il seguente importante risultato la cui dimostrazione richiede delle
conoscenze di teoria degli insiemi più approfondite e che pertanto si omette; nel prossimo paragrafo
se ne darà una dimostrazione in un caso particolare.

Teorema 3.5.8. Ogni spazio vettoriale possiede una base ed inoltre due basi di uno stesso spazio
vettoriale sono equipotenti tra loro.

3.6 Spazi vettoriali di dimensione nita


Si vogliono qui di seguito analizzare le proprietà degli spazi vettoriali che hanno una base nita.

Lemma 3.6.1. (Lemma di Steinitz) Siano X = {x1 , . . . , xn } ed Y = {y1 , . . . , ym } due parti


nite di uno spazio vettoriale V. Se X è libero ed è contenuto in L[Y ], allora n ≤ m.

Dimostrazione. Senza ledere le generalità, si può supporre V = L[Y ]. Per assurdo sia n > m.
Ogni vettore in X è combinazione lineare degli elementi di Y e quindi si può scrivere

x1 = λ1,1 y1 + · · · + λ1,m ym

con ogni λ1,i ∈ K e con almeno un λ1,i 6= 0, altrimenti sarebbe x1 = 0 e X sarebbe una parte
legata. A meno di rinominare gli indici, supponiamo sia λ1,1 6= 0. Allora

y1 = λ−1 −1 −1
1,1 x1 − λ1,1 λ1,2 y2 − · · · − λ1,1 λ1,m ym ,

e così y1 dipende da {x1 , y2 , . . . , ym }. Pertanto L[Y ] ⊆ L[x1 , y2 , . . . , ym ], quindi V = L[x1 , y2 , . . . , ym ]


e come prima si può ottenere che

x2 = λ2,1 x1 + λ2,2 y2 + · · · + λ2,m ym

per opportuni scalari λ2,1 , . . . , λ2,m . Poichè x2 è non nullo, qualche λ2,i deve essere non nullo.
D'altra parte, se fosseλ2,2 = · · · = λ2,m = 0, allora λ2,1 6= 0 e {x1 , x2 } sarebbe una parte legata
contenuta nella parte libera X . Questa contraddizione prova che esiste i ∈ {2, . . . , m} tale che
λ2,i 6= 0. Anche questa volta, a meno di rinominare gli indici, possiamo supporre sia λ2,2 6= 0.
Quindi
y2 = −λ−1 −1 −1 −1
2,2 λ2,1 x1 + λ2,2 x2 − λ2,2 λ2,3 y3 − · · · − λ2,2 λ2,m ym .

e pertanto V = L[x1 , x2 , y3 , . . . , ym ]. Iterando questo ragionamento, si ottiene che V = L[x1 , x2 , . . . , xm ]


e pertanto xm+1 dipende da {x1 , . . . , xm }. Conseguentemente {x1 , . . . , xm , xm+1 } è una parte le-
gata, il che è assurdo essendo essa contenuta nella parte libera X . Questa contraddizione prova
che n ≤ m.

Corollario 3.6.2. Sia V uno spazio vettoriale generato da n vettori. Allora ogni parte libera di
V è nita e contiene al più n elementi.

Dimostrazione. Sia L una parte libera di V, allora ogni parte nita X di L è libera ed essendo V
generato da un numero nito n di elementi, il lemma di Steinitz 3.6.1 ci assicura che X ha al più
n elementi; in particolare, L è nito di ordine al più n.

45
Teorema 3.6.3. (Estrazione di una base da un sistema di generatori) Sia V uno spazio
vettoriale e sia S un sistema nito di generatori per V. Allora S contiene una base per V.

Dimostrazione. Supponiamo sia S = {v1 , . . . , vn } e, per ogni i = 1, . . . , n, poniamo Xi = {v1 , . . . , vi };


sicchè, S = Xn . Se Xn è libero, allora Xn è una base; se invece Xn è lagato, la proposizione 3.5.2
assicura che esiste un vettore tra i vi che dipende dai restanti e, a meno di rinominare i vettori in
Xn , si può supporre che questo vettore sia proprio vn , sicchè V = L[Xn ] = L[Xn−1 ] e dunque Xn−1
è un sistema di generatori di V . Ora, se Xn−1 è libero allora esso è una base altrimenti, come
fatto prima per Xn , si può supporre che Xn−2 sia un sistema di generatori di V . Evidentemente
così proseguendo si arriverà a provare che un certo Xi è una base per V .

Proviamo ora il teorema 3.5.8 nel caso particolare di spazi vettoriali nitamente generabili.

Teorema 3.6.4. (Teorema di esistenza ed equipotenza delle basi) Sia V uno spazio vet-
toriale generato da un numero nto n di elementi. Allora V contiene una base nita di ordine
m≤n e ogni sua base ha m elementi.

Dimostrazione. Se V = {0}, allora V ha per base l'insieme vuoto e l'insieme vuoto è l'unica base
possibile per V, dunque si può supporre che V V abbia un
non sia lo spazio nullo ovvero che
sistema di generatori S fatto di n ≥ 1 vettori non nulli. Il Teorema 3.6.3 assicura che S contiene
una base B di V ; evidentemente, B ha un numero nito m di elementi e risulta m ≤ n.
Sia ora B1 un'altra base per V . Essendo V = L[B], il corollario 3.6.2 assicura che B1 è un
insieme nito che contiene un numero k di elementi con k ≤ m. D'altra parte B è contenuto in
V = L[B1 ], e quindi ancora il lemma di Steinitz 3.6.1 assicura che m ≤ k , pertanto k = m ed il
risultato è provato.

Sia V uno spazio vettoriale non nullo. Si dice che V ha dimensione nita (su K), se V ha
una base nita. Se V ha una base nita B di ordine m, allora B è un sistema di generatori nito
di V e il teorema 3.6.4 assicura che ogni altra base di V ha esattamente m elementi. E' lecito
allora denire l'intero m come la dimensione di V (su K); in tal caso, si scrive dimK (V ) = m
o semplicemente dim(V ) = m. Per convenzione, anche lo spazio vettoriale nullo ha dimensione
nita pari a 0. Evidentemente uno spazio vettoriale ha dimensione 0 se e solo se esso è lo spazio
vettoriale nullo.

Teorema 3.6.5. (Teorema del completamento di una parte libera ad una base) Sia V
uno spazio vettoriale di dimensione nita n. Allora ogni parte libera L di V può essere completata
ad una base (cioè L è contenuta in una base).

Dimostrazione. Il corollario 3.6.2 assicura che L Poichè V ha dimensione


è un insieme nito.
nita, esso possiede una base nita B S = L ∪ B è un sistema di generatori
ed evidentemente
0
nito per V . Essendo S nito, tra i sottoinsiemi liberi di S che contengono L ne esiste uno B con
0 0 0
il numero maggiore di elementi. Allora B è libero, inoltre per ogni v ∈ S \ B l'insieme B ∪ {v}
0 0 0
è legato e quindi v dipende da B per la proposizione 3.5.3. Così V = L[S] = L[B ] e pertanto B
è base.

46
Corollario 3.6.6. Sia V uno spazio vettoriale di dimensione nita n. Allora ogni parte libera con
n elementi è una base, ed ogni sistema di generatori con n elementi è una base.

Dimostrazione. Segue subito dal teorema 3.6.3 e dal teorema 3.6.5.

Il teorema 3.5.8, o se si preferisce il teorema 3.6.4, assicura che ogni spazio vettoriale (ni-
tamente generato) è dotato di basi. L'utilità della nozione di base è espressa nell'enunciato del
prossimo risultato il quale, in un certo senso (e come poi si vedrà formalmente in seguito), mostra
che i vettori dello spazio possono essere individuati, una volta ssata una base, mediante vettori
numerici.

Teorema 3.6.7. Siano V uno spazio vettoriale ed X = {x1 , . . . , xn } una parte nita di V . Allora
X è una base per V se e solo se ogni elemento v di V si scrive come combinazione lineare
v = λ1 x1 + · · · + λn xn in cui i coecienti λ1 . . . , λn ∈ K sono univocamente determinati.
Dimostrazione. Se X è una base per V e v ∈ V , allora v = λ1 x1 + · · · + λn xn con λ1 , . . . , λn ∈ K.
Supponiamo sia anche v = µ1 x1 + · · · + µn xn con µ1 , . . . , µn ∈ K. Allora
(λ1 − µ1 )x1 + · · · + (λn − µn )xn = 0
e quindi, essendo X una parte libera, per ogni i = 1, . . . , n deve essere λi − µi = 0. Pertanto
λi = µi per ogni i = 1, . . . , n e quindi i coecienti λi sono univocamente determinati.
Reciprocamente, poichè ogni elemento di V è combinazione lineare di elementi di X si ha che
X è un sistema di generatori di V. Inoltre se

λ1 x1 + · · · + λn xn = 0
allora è
λ1 x1 + · · · + λn xn = 0x1 + · · · + 0xn
e quindi l'unicità dei coecienti assicura che λ1 = · · · = λn = 0. Pertanto X è anche una parte
libera e dunque è una base per V.

Sia V uno spazio vettoriale di dimensione nita. Un riferimento di V è una base B =


(x1 , . . . , xn ) vista come n-upla ordinata. Se v un elemento di V , il teorema 3.6.7 assicura che esi-
stono e sono univocamente determinati degli elementi λ1 , . . . , λn ∈ K tali che v = λ1 x1 +· · ·+λn xn .
Questi elementi λ1 , . . . , λn si dicono compomenti del vettore v nel riferimento B , e si dice anche che
il vettore numerico (λ1 , . . . , λn ) è il vettore coordinato (o delle componenti) di v in B . Osserviamo
esplicitamente che se u è un altro vettore di componenti (µ1 , . . . , µn ) allora risulta

v + u = (λ1 + µ1 )x1 + · · · + (λn + µn )xn


e così l'unicità delle componenti, espressa nel teorema 3.6.7, assicura che il vettore v+u ha per
componenti (λ1 + µ1 , . . . , λn + µn ). Allo stesso modo se λ∈K allora il vettore λv ha componenti
(λλ1 , . . . , λλn ).

Esempio 3.6.8. Come conseguenza della proposizione 3.1.3 si ha che nello spazio vettoriale V2
dei vettori liberi del piano, due vettori non paralleli sono una base, in particolare dim(V2 ) = 2.
Invece, per lo spazio vettoriale V3 dei vettori liberi dello spazio, la proposizione 3.1.4 assicura che
tre vettori non complanari sono una base, in particolare dim(V3 ) = 3.

47
Esempio 3.6.9. Siano K un campo ed n ∈ N. Per ogni i = 1, . . . , n, posto

ei = (0, ..., 0, 1, 0, ..., 0)


←−−→ i ←−−→
è immediato accorgersi che l'insieme {e1 , . . . , en } è una base per Kn ,detta base canonica (o anche
n
naturale o standard); in particolare, dim(K ) = n. Evidentemente, poi, rispetto al riferimento
n
canonico (e1 , . . . , en ) il generico vettore (k1 , . . . , kn ) di K ha per componenti k1 , . . . , kn .

Esempio 3.6.10. L'esempio 3.6.9 mostra, in particolare, che il campo C dei numeri complessi è
un C-spazio vettoriare di dimensione 1. In realtà, il campo C può essere anche visto come R-spazio
vettoriale mediante l'usuale operazione di somma e restringendo l'operazione di prodotto, ovvero
considerando come operazione esterna quella denita dalla posizione ⊥ (λ, u) = λ · u per ogni
(λ, u) ∈ R × C (qui · è l'usuale prodotto del campo complesso). Ricordando che ogni numero
complesso si scrive (in modo unico) come a + ib con a e b in R si ottiene, come conseguenza
del teorema 3.6.7, che una base di C come R-spazio vettoriale è {1, i}; quindi C è un R-spazio
vettoriale di dimensione 2.

Esempio 3.6.11. Lo spazio dei polinomi K[x] su un campo K, invece, non è nitamente generato
e quindi non ha dimensione nita. Infatti, comunque si prende una parte nita X di K[x] detto
m il massimo dei gradi dei polinomi che formano X il polinomio xm+1 , non essendo esprimibile
come combinazione lineare di polinomi di grado al più m, non dipende da X e pertanto X non
genera K[x]. D'altra parte però, se n ∈ N, il sottospazio Kn [x] dei polinomi di grado al più
n ha come sistema di generatori la parte B = {1, x, x2 , . . . , xn }. Facilmente si prova che B è
anche una parte libera, dunque è una base e così dim(Kn [x]) = n + 1. Si noti che il generico
n
polinomio a0 + a1 x + · · · + an x di Kn [x] ha (a0 , a1 , . . . , an ) come vettore delle componenti rispetto
2 n
al riferimento (1, x, x , . . . , x ).

Esempio 3.6.12. Consideriamo lo spazio vettoriale Mm,n (K) delle matrici m×n sul campo K.
Si noti che
     
a11 ... a1n 1 ... 0 0 ... 1
. .. . . .  . . . .. 
. .  = a11  .. . . . .  + · · · + a1n  .
. +
 
 . . . . . .
am1 . . . amn 0 ... 0 0 ... 0
   
0 ... 0 0 ... 0
 .. .. .  . . . .. 
.  + · · · + amn  .
+ · · · + am1  . . . . . .
1 ... 0 0 ... 1

sicchè, detta Mij è la matrice il cui unico elemento non nullo è l'elemento di posto (i, j) che è 1,
si ha che l'insieme
B = {Mij | i = 1, . . . , m e j = 1, . . . , n}
è un sistema di generatori per lo spazio vettoriale Mm,n (K). D'altra parte è semplice accorgersi
che B è anche un insieme libero, pertato B è una base per Mm,n (K), detta talvolta base canonica

48
di Mm,n (K); in particolare, dim(Mm,n (K)) = mn. Si osservi che la generica matrice

 
a11 . . . a1n
 .. .. . 
. 
 . . .
am1 . . . amn

ha componenti
(a11 , . . . , a1n , a21 , . . . , a2n , . . . , am1 , . . . , amn )
rispetto al riferimento canonico (Mij | i = 1, . . . , m e j = 1, . . . , n).

Esempio 3.6.13. Nello spazio vettoriale R3 [x] dei polinomi a coecienti reali di grado al più 3,
considerati i polinomi

p1 (x) = 1 + 2x, p2 (x) = x − x2 , p3 (x) = 1 + x − x2 + 2x3 , p4 (x) = x3

e posto B = (p1 (x), p2 (x), p3 (x), p4 (x)), si ottiene come mostrato nell'esempio 3.5.5 che B è una
base per R3 [x]. Considerato il generico polinomio p(x) = a0 +a1 x+a2 x2 +a3 x3 di R3 [x], nell'esempio
3.5.4 abbiamo studiato l'equazione vettoriale

p(x) = λ1 p1 (x) + λ2 p2 (x) + λ3 p3 (x) + λ4 p4 (x)

che si riscrive come

a0 + a1 x + a2 x2 + a3 x3 = (λ1 + λ3 ) + (2λ1 + λ2 + λ3 )x + (−λ2 − λ3 )x2 + (2λ3 + λ4 )x3 .

Riesce pertanto un sistema lineare che, così come nell'esempio 3.5.4, è equivalente al sistema la
cui matrice completa è
1
a + 12 a2
 
1 0 0 0 2 1
0
 1 0 0 a0 − 12 a1 + 12 a2 

0 0 1 0 −a0 + 12 a1 − 32 a2 
0 0 0 1 2a0 − a1 + 3a2 + a3
e che pertanto è un sistema determinato la cui unica soluzione è


 λ1 = 21 a1 + 21 a2
λ2 = a0 − 12 a1 + 21 a2


 λ3 = −a0 + 12 a1 − 32 a2
λ4 = 2a0 − a1 + 3a2 + a3

Alla luce del teorema 3.6.7, l'unicità della soluzione ci dice che Bè base (e quindi ora disponiamo
di un metodo alternativo per stabilire se un insieme di vettori è base) ma in più la soluzione
2 3
ottenuta ci permette di dire che il generico polinomio p(x) = a0 + a1 x + a2 x + a3 x di R3 [x] ha
per componenti rispetto a B il vettore

 
1 1 1 1 1 3
a1 + a2 , a0 − a1 + a2 , −a0 + a1 − a2 , 2a0 − a1 + 3a2 + a3 .
2 2 2 2 2 2

2x−x2 +3x3 sono − 21 , − 32 , 52 , −2 .



Quindi, ad esempio, ricaviamo che le componenti del vettore

49
Passiamo ora a provare alcune relazioni tra la dimensione di uno spazio vettoriale e la dimen-
sione di un suo sottospazio.

Proposizione 3.6.14. Sia V uno spazio vettoriale di dimensione nita e sia W un suo sottospazio.
Allora W ha dimensione nita e risulta essere dim(W ) ≤ dim(V ). Inoltre, dim(W ) = dim(V ) se
e solo se W =V.

Dimostrazione. Evidentemente si può supporre che W non sia lo spazio nullo. Dunque W contiene
un vettore non nullo v e chiaramente {v} è una parte libera; in particolare, l'insieme

F = {X ⊆ W | X è libera}

è non vuoto. Poichè ogni parte libera di W è una parte libera di V , il corollario 3.6.2 assicura
che ogni parte libera di W ha al più n = dim(V ) elementi. Ha senso quindi ssare in F un
elemento B il cui numero di elementi sia il massimo tra gli ordini delle parti libere di W (che sono
in F ). E' allora evidente che B è una parte libera massimale di W , e quindi B è una base per W
per il teorema 3.5.7; in particolare, la dimensione di W (ovvero l'ordine di B ) è al più pari alla
dimensione di V . Se poi dim(W ) = dim(V ) allora il corollario 3.6.6 assicura che B è anche base
di V e pertanto V = L[B] = W .

Teorema 3.6.15. (Formula di Grassmann) Sia V uno spazio vettoriale di dimensione nita
e siano W1 e W2 suoi sottospazi. Allora

dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) − dim(W1 ∩ W2 ).

Dimostrazione. Per la proposizione 6.9, i sottospazi W1 , W2 e W1 ∩ W2 hanno tutti dimensione


nita. Il teorema 3.6.5 assicura che è possibile completare una base B = {v1 , . . . , vr } di W1 ∩ W2
a basi
B1 = {v1 , . . . , vr , u1 , . . . , us } e B2 = {v1 , . . . , vr , w1 , . . . , wt }
di W1 e W2 , rispettivamente. Chiaramente ciascuno dei vettori vi , uj
wk appartiene a W1 + W2 . e
Inoltre, poichè ogni elemento di W1 e uj mentre ogni elemento
è combinazione lineare dei vettori vi
di W2 è combinazione lineare dei vettori vi e wk , ne segue che ogni elemento di W1 + W2 è
combinazione lineare dei vi , uj e wk . Dunque i vettori in questione sono generatori di W1 + W2 ,
ovvero B1 ∪ B2 è un sistema di generatori per W1 + W2 e così, al ne di provare che B1 ∪ B2 è una
base per W1 + W2 resta da provare che B1 ∪ B2 è libero. Considerando una combinazione lineare
nulla
α1 v1 + · · · + αr vr + β1 u1 + · · · + βs us + γ1 w1 + · · · + γt wt = 0 (3.2)

si ha che

α1 v1 + · · · + αr vr + β1 u1 + · · · + βs us = −γ1 w1 − · · · − γt wt ∈ W1 ∩ W2

dunque
α1 v1 + · · · + αr vr + β1 u1 + · · · + βs us = δ1 v1 + · · · + δr vr
e così il teorema 3.6.7 garantisce, in particolare, che β1 = · · · = βs = 0. Pertanto la (3.2) diventa

α1 v1 + · · · + αr vr + γ1 w1 + · · · + γt wt = 0

50
ed essendo B2 libero, si ha che α1 = · · · = αr = γ1 = · · · = γt = 0. Così B1 ∪ B2 è libero, come si
voleva. Poichè B1 ∪ B2 ha r + s + t elementi, segue che

dim(W1 + W2 ) = r + s + t = (r + s) + (r + t) − r =
= dim(W1 ) + dim(W2 ) − dim(W1 ∩ W2 ).

Nel caso sia invece W1 ∩ W2 = {0}, un ragionamento analogo al precedente prova che l'unione
tra una base di W1 ed una base di W2 è una base per W1 +W2 , così anche in questo caso il risultato
sussiste.

Sia V uno spazio vettoriale di dimensione nita su un campoK e siano W1 e W2 due sottospazi
di V tali che il loro spazio somma W sia una somma diretta W = W1 ⊕ W2 . Allora W1 ∩ W2 = {0}
e quindi la formula di Grassman 3.6.15 assicura che dim(W ) = dim(W1 ) + dim(W2 ), inoltre
procedendo come nella dimostrazione del teorema 3.6.15 si ottiene che una base per W è l'unione
tra una base di W1 e una base di W2 . Più in generale, è un semplice esercizio provare che se W
è somma diretta dei sottospazi W1 , . . . , Wt , ssata una base Bi in ciascun Wi , una base per W è
l'insieme B = B1 ∪ · · · ∪ Bt .

3.7 Applicazioni lineari tra spazi vettoriali


Siano V e W spazi vettoriali su un campo K. Un'applicazione

ϕ : V −→ W

si dice applicazione lineare oppure omomorsmo se comunque si considerano gli elementi u e v in


V e uno scalare λ ∈ K, risulta:

1L ϕ(u + v) = ϕ(u) + ϕ(v);

2L ϕ(λu) = λϕ(u).

Equivalentemente l'applicazione ϕ è lineare se e solo se

ϕ(λu + µv) = λϕ(u) + µϕ(v) ∀u, v ∈ V e ∀λ, µ ∈ K.

Un'applicazione lineare si dice monomorsmo se è iniettiva, mentre si dice epimorsmo se è


suriettiva. Un omomorsmo biettivo invece si dice isomorsmo e gli spazi vettoriali V e W si
dicono isomor se esiste un isomorsmo di V in W. Un'applicazione lineare di V in sé si dice
endomorsmo e un endomorsmo biettivo si dice automorsmo.

Proposizione 3.7.1. Se ϕ : V −→ W è un'applicazione lineare tra gli spazi vettoriali V e W su


un campo K, allora:

(i) ϕ(0) = 0;

(ii) ϕ(−v) = −ϕ(v) per ogni v ∈V;

(iii) ϕ(u − v) = ϕ(u) − ϕ(v) per ogni u, v ∈ V .

51
Dimostrazione. Si ha che
ϕ(0) = ϕ(0 + 0) = ϕ(0) + ϕ(0)
e così ϕ(0) = 0. Se v∈V allora

0 = ϕ(0) = ϕ(v − v) = ϕ(v) + ϕ(−v)

e quindi ϕ(−v) = −ϕ(v). Segue che se u è un altro elemento di V allora risulta

ϕ(u − v) = ϕ(u) + ϕ(−v) = ϕ(u) − ϕ(v).

Esempio 3.7.2. K-spazi vettoriali V e W si ha che sia l'applicazione identica ιV


Qualsiasi siano i
3
che l'applicazione nulla v ∈ V −→ 0 ∈ W sono lineari. Ancora, l'applicazione (a, b, c) ∈ R −→
2 2 2
ax ∈ R[x] è evidentemente lineare, invece ϕ : (x, y) ∈ R −→ (y , x) ∈ R non è lineare infatti
ϕ(x, x) + ϕ(0, y) = (x2 , x) + (y 2 , 0) = (x2 + y 2 , x) e ϕ(x, x + y) = (x2 + 2xy + y 2 , x).

Il prossimo risultato fornisce un metodo per costruire applicazioni lineari; esso mostra inoltre
che un'applicazione lineare è univocamente determinata dai trasformati dei vettori di una base del
dominio.

Teorema 3.7.3. (Teorema fondamentale delle applicazioni lineari) Siano V e W due


spazi vettoriali non nulli su un campo K, con V di dimesione nita n. Fissato un riferimento
R = (e1 , . . . , en ) in V e scelti n vettori non necessariamente distinti w1 , . . . , wn in W, esiste
un'unica applicazione lineare ϕ : V −→ W tale che ϕ(e1 ) = w1 , . . . , ϕ(en ) = wn .

Dimostrazione. Se v è un elemento di V e se (λ1 , . . . , λn ) sono le componenti div rispetto ad


R, la posizione ϕ(v) = λ1 w1 + · · · + λn wn denisce un'applicazione ϕ : V −→ W (si noti che
ϕ è un'applicazione perchè le componenti di un vettore sono univocamente determinate per il
teorema 3.6.7). Se u è un altro elemento di V di componenti (µ1 , . . . , µn ), allora il vettore v + u
ha componenti (λ1 + µ1 , . . . , λn + µn ) e così

ϕ(u + v) = (λ1 + µ1 )w1 + · · · + (λn + µn )wn =


= (λ1 w1 + · · · + µn wn ) + (µ1 w1 + · · · + µn wn ) =
= ϕ(u) + ϕ(v);

d'altra parte se λ∈K allora il vettore λv ha componenti (λλ1 , . . . , λλn ) e quindi

ϕ(λv) = (λλ1 )w1 + · · · + (λλn )wn =


= λ(λ1 w1 + · · · + µn wn ) = λϕ(v).

Pertanto ϕ è lineare. Evidentemente poi ϕ(e1 ) = w1 , . . . , ϕ(en ) = wn .

52
Se ψ : V −→ W è un'altra applicazione lineare tale da risultare w1 = ψ(e1 ), . . . , wn = ψ(en ),
e v = λ1 e1 + · · · + λn en è il generico elemento di V , si ha

ψ(v) = ψ(λ1 e1 + · · · + λn en ) =
= λ1 ψ(e1 ) + · · · + λn ψ(en ) =
= λ1 w1 + · · · + λn wn =
= λ1 ϕ(e1 ) + · · · + λn ϕ(en ) =
= ϕ(λ1 e1 + · · · + λn en ) =
= ϕ(v)

e pertanto ψ = ϕ.

L'applicazione ϕ denita nella dimostrazione della teorema 3.7.3 si dice ottenuta estendendo
per linearità le posizioni v1 = ϕ(e1 ), . . . , vn = ϕ(en ).

Esempio 3.7.4. Consideriamo l'R-spazio vettoriale R2 [x] dei polinomi di grado al più 2 a coef-
cienti reali, e in esso supponiamo ssato il riferimento R = (1, 1 + x, x + x2 ); in particolare, il
generico elemento di R2 [x]
a0 + a1 x + a2 x 2
si scrive rispetto ai vettori del riferimento R (in modo unico) come

(a0 − a1 + a2 )1 + (a1 − a2 )(1 + x) + a2 (x + x2 ).

Consideriamo poi l'R-spazio vettoriale R2 e in esso i vettori

v1 = (1, 2) e v2 = (1, 3).

Poniamo

ϕ(1) = ϕ(x + x2 ) = v1 e ϕ(1 + x) = v2 (3.3)

ed estendiamo per linearità

ϕ(a0 + a1 x + a2 x2 ) = ϕ((a0 − a1 + a2 )1 + (a1 − a2 )(1 + x) + a2 (x + x2 )) =


= (a0 − a1 + a2 )v1 + (a1 − a2 )v2 + a2 v1 =
= (a0 − a1 + 2a2 )v1 + (a1 − a2 )v2 =
= (a0 + a2 , 2a0 + a1 + a2 )

L'applicazione ϕ : R2 [x] −→ R2 così ottenuta è l'applicazione lineare che estende per linearità le
posizioni (3.3).

Proposizione 3.7.5. Siano ϕ : V −→ W e ψ : W −→ U due applicazioni lineari tra i K-spazi


vettoriali U, V e W. Allora anche ψ ◦ ϕ : V −→ U è lineare.

53
Dimostrazione. Siano v1 , v2 ∈ V e λ, µ ∈ K allora

ψ ◦ ϕ(λv1 + µv2 ) = ψ(ϕ(λv1 + µv2 )) =


= ψ(λϕ(v1 ) + µϕ(v2 )) =
= λψ(ϕ(v1 )) + µψ(ϕ(v2 )) =
= λ((ψ ◦ ϕ)(v1 )) + µ((ψ ◦ ϕ)(v2 )).

Proposizione 3.7.6. Sia ϕ : V −→ W V e W su


un'applicazione lineare tra gli spazi vettoriali
un campo K. Se X è un sottospazio vettoriale di V allora ϕ(X) è un sottospazio di W ; inoltre,
se S è un sistema di generatori per X allora ϕ(S) è un sistema di generatori per ϕ(X).

Dimostrazione. Chiaramente, ϕ(X) 6= ∅ essendo X 6= ∅. Se λ, µ ∈ K e se u, v ∈ ϕ(X), allora


esistiono x, y ∈ X u = ϕ(x) e v = ϕ(y) e si ha che λu + µv = λϕ(x) + µϕ(y) = ϕ(λx + µy)
tali che
è ancora un elemento di ϕ(X). Dunque ϕ(X) è un sottospazio di W . Se S genera X e u ∈ ϕ(X),
allora u = ϕ(x) con x in X , ma allora x è combinazione lineare di alcuni elementi x1 , . . . , xt di
S per la proposizione 3.4.8, e quindi u è combinazione lineare degli elementi ϕ(x1 ), . . . , ϕ(xt ) di
ϕ(S); pertanto ϕ(X) ≤ L[ϕ(S)] nonché, evidentemente, ϕ(X) = L[ϕ(S)].

Proposizione 3.7.7. Se ϕ : V −→ W è un isomorsmo tra gli spazi vettoriali V e W su un


−1
campo K, allora anche l'inversa ϕ : W −→ V è un isomorsmo.

Dimostrazione. Chiaramente è suciente provare che ϕ−1 è lineare. Siano w1 , w2 ∈ W , allora la


biettività di ϕ assicura che esistono e sono univocamente determinati gli elementi v1 , v2 ∈ V tali
che w1 = ϕ(v1 ) e w2 = ϕ(v2 ). Pertanto se λ, µ ∈ K

ϕ−1 (λw1 + µw2 ) = ϕ−1 (λϕ(v1 ) + µϕ(v2 )) =


= ϕ−1 (ϕ(λv1 + µv2 )) =
= λv1 + µv2 =
= λϕ−1 (w1 ) + µϕ−1 (w2 )

e quindi ϕ−1 è lineare.

E' semplice rendersi conto che ogni applicazione lineare trasforma vettori linearmente dipenden-
ti in vettori linearmente dipendenti (basta ricordare la denizione e il fatto che ogni applicazione
lineare manda il vettore nullo in sé stesso), ma non è detto che i trasformati di vettori linearmenti
indipendenti siano ancora linearmente indipendenti basta prendere in considerazione, ad esempio,
l'applicazione lineare che manda ogni vettore nel vettore nullo. Nel caso però l'applicazione lineare
sia iniettiva, anche vettori linearmente indipendenti sono trasformati in vettori indipendenti.

Proposizione 3.7.8. Sia ϕ : V −→ W è un monomorsmo tra spazi vettoriali sul campo K. Allo-
ra i vettori v1 , . . . , vt di V sono indipendenti se e solo se ϕ(v1 ), . . . , ϕ(vt ) sono vettori indipendenti
di W.

54
Dimostrazione. Se v1 , . . . , vt ∈ V sono indipendenti e λ1 , . . . , λt ∈ K sono tali che λ1 ϕ(v1 ) + · · · +
λt ϕ(vt ) = 0, ϕ(λ1 v1 + · · · + λt vt ) = 0 nonchè λ1 v1 + · · · + λt vt = 0 perchè anche ϕ(0) = 0
allora è
per la proposizione 3.7.1 e perchè ϕ è iniettiva. Pertanto λ1 = · · · = λn = 0 e ϕ(v1 ), . . . , ϕ(vt )
sono indipendenti. Viceversa, se ϕ(v1 ), . . . , ϕ(vt ) sono vettori indipendenti e λ1 v1 + · · · + λt vt = 0
allora è ϕ(λ1 v1 + · · · + λt vt ) = 0 per la proposizione 3.7.1. Così λ1 ϕ(v1 ) + · · · + λt ϕ(vt ) = 0 per
la linearità di ϕ, quindi λ1 = · · · = λn = 0 e v1 , . . . , vt di V sono indipendenti.

Dalla proposizione 3.7.6 e dalla proposizione 3.7.8 discende il seguente.

Corollario 3.7.9. Sia ϕ : V −→ W è un monomorsmo tra spazi vettoriali sul campo K. Se X


è un sottospazio di V e B è una base per X , allora ϕ(B) è una base per il sottospazio ϕ(X).

Supponiamo che V sia uno spazio vettoriale non nullo di dimensione nita n sul campo campo
K. Fissiamo un riferimento R = (e1 , . . . , en ) in V e indichiamo con (v)R il vettore delle componenti
in R di v ∈V. L'applicazione
cR : v ∈ V −→ (v)R ∈ Kn
è iniettiva per l'unicità delle componenti (cfr. teorema 3.6.7) ed è evidentemente anche suriettiva.
E' inoltre semplice provare che cR è lineare, pertanto cR è un isomorsmo detto isomorsmo
coordinato associato al riferimento R, o anche coordinazione di V associata a R, o talvolta detto
sistema di coordinate su V rispetto ad R.

Teorema 3.7.10. Sia V uno spazio vettoriale su un campo K di dimensione nita.

(i) Se n è la dimensione di V, allora V e Kn sono isomor.

(ii) Se V0
è un altro K-spazio vettoriale di dimensione nita, si ha che V e V0 sono isomor se
0
e solo se V e V hanno la stessa dimensione.

Dimostrazione. Evidentemente la considerazione dell'isomorsmo coordinato prova la (i). Per


0
la (ii), si supponga innanzitutto che V
V abbiano entrambi dimensione nita n. Fissato un
e
riferimento R in V ed un riferimento
0
R0
in V , segue dalla proposizione 3.7.5 e dalla proposizione
−1 0 0
3.7.7 che l'applicazione cR0 ◦ιKn ◦cR è un isomorsmo di V in V . Viceversa se V e V sono K-spazi
vettoriali di dimensione nita e sono isomor, segue dalla proposizione 3.7.6 e dalla proposizione
0
3.7.8 che V e V hanno la stessa dimensione.

Dai risultati esposti in questa sezione si evince che attraverso l'isomorsmo coordinato lo
studio di determinate proprietà di un K-spazio vettoriale di dimensione n può essere ricondotto
allo studio delle analoghe proprietà nello spazio vettoriale Kn . Chiariamo meglio questo con il
seguente esempio.

Esempio 3.7.11. Nello spazio vettoriale R3 [x] dei polinomi a coecienti reali di grado al più 3,
consideriamo i polinomi

f1 = x3 + 2x, f2 = x − 1, f3 = 2x3 + 3x + 1, e f4 = x2 + 3x − 2

55
e determinamo una base per il sottospazio W = L[f1 , f2 , f3 , f4 ]. Consideriamo il riferimento
R = (x3 , x2 , x, 1) e l'isomorsmo coordinato ad esso associato

cR : ax3 + bx2 + cx + d ∈ R3 [x] −→ (a, b, c, d) ∈ R4 .

Tramite cR il sottospazio W viene mandato nel sottospazio W0 generato dai trasformati degli fi
ovvero generato dai vettori

w1 = (1, 0, 2, 0), w2 = (0, 0, 1, −1), w3 = (2, 0, 3, 1), e w4 = (0, 1, 3, −2).

Dunque determiniamo una base per W 0. Osservando che w3 = 2w1 −w2 e che αw1 +βw2 +γw4 = 0
se e solo se α = β = γ = 0, si ottiene subito che {w1 , w2 , w4 } è una base per W 0 ; pertanto una
base per W è

{c−1 −1 −1 3 2
R (w1 ), cR (w2 ), cR (w3 )} = {x + 2x, x − 1, x + 3x − 2} = {f1 , f2 , f4 }.

3.8 Immagine e nucleo di un'applicazione lineare


Sia ϕ : V −→ W un'applicazione lineare tra gli spazi vettoriali V e W su un campo K. Segue
dalla proposizione 3.7.6 che il sottoinsieme di W

Im ϕ = {ϕ(v) | v ∈ V }

è un sottospazio, detto sottospazio immagine di ϕ. Si noti che sempre la proposizione 3.7.6


garantisce che se B V allora ϕ(B) è un sistema di generatori per Im ϕ; però ϕ(B)
è una base di
potrebbe non essere una base per Im ϕ (come ci si può convincere considerando ad esempio come
ϕ l'omomorsmo nullo) ma, per il corollario 3.7.9, lo è sicuramente nel caso in cui ϕ sia iniettiva.
Si dice, invece, nucleo di ϕ l'insieme

ker ϕ = {v ∈ V | ϕ(v) = 0}.

La proposizione 3.7.1 assicura che 0 ∈ ker ϕ, inoltre se u e v sono elementi di V tali che ϕ(u) =
ϕ(v) = 0 e λ, µ ∈ K allora ϕ(λu + µv) = λϕ(u) + µϕ(v) = 0 sicchè ker ϕ è un sottospazio vettoriale
di V .

Proposizione 3.8.1. Sia ϕ : V −→ W un'applicazione lineare tra gli spazi vettoriali V e W su


un campo K. Allora ϕ è iniettiva se e solo se ker ϕ = {0}.
Dimostrazione. Se ϕ è iniettiva, allora da ϕ(v) = 0 = ϕ(0) segue v = 0 e dunque ker ϕ = {0}.
D'altra parte, se ker ϕ = {0} e u e v sono elementi di V tali che ϕ(u) = ϕ(v), allora ϕ(u − v) =
ϕ(u) − ϕ(v) = 0, sicchè u − v ∈ ker ϕ = {0}. Così u = v e ϕ è iniettiva.

Teorema 3.8.2. (Teorema della Dimensione) Sia ϕ : V −→ W un'applicazione lineare tra gli
spazi vettoriali V e W su un campo K. Se V ha dimensione nita, allora

dim(V ) = dim(ker ϕ) + dim(Im ϕ).

56
Dimostrazione. Se ker ϕ = {0} allora ϕ è iniettiva per la proposizione 3.8.1 e quindi i trasformati
tramite ϕ degli elementi di una base di V formano una base di Im ϕ per il corollario 3.7.9, sicchè
dim(V ) = dim(Im ϕ) e l'asserto è vero. Supponiamo dunque che ker ϕ 6= {0}. Consideriamo
{v1 , . . . , vt } una base per ker ϕ e completiamo ad una base B = {v1 , . . . , vt , vt+1 , . . . , vn } per V
(cfr. teorema 3.6.5). Essendo ϕ(v1 ) = · · · = ϕ(vt ) = 0, la proposizione 3.7.6 assicura che Im ϕ
è generato da B1 = {ϕ(vt+1 ), . . . , ϕ(vn )}. Se consideriamo una combinazione lineare nulla degli
elementi di B1 a coecienti in K

0 = λ1 ϕ(vt+1 ) + · · · + λn−t ϕ(vn ) = ϕ(λ1 vt+1 + · · · + λn−t vn )

otteniamo che λ1 vt+1 +· · ·+λn−t vn ∈ ker ϕ e quindi, essendo B libero, si ha che λ1 = · · · = λn−t = 0.
Pertanto B1 è una base per Im ϕ e risulta

dim(ker ϕ) + dim(Im ϕ) = t + (n − t) = n = dim(V ).

L'asserto è provato.

Corollario 3.8.3. Siano V e W due spazi vettoriali su un campo K aventi uguale dimensione
(nita), e sia ϕ : V −→ W un'applicazione lineare. Sono equivalenti le seguenti aermazioni:

(i) ϕ è iniettiva;

(ii) ϕ è suriettiva;

(iii) ϕ è biettiva.

Dimostrazione. Per la proposizione 3.8.1,ϕ è iniettiva se e solo se ker ϕ = {0}, e quindi se e


solo sedim(V ) = dim(Im ϕ) per il teorema 3.8.2, ovvero (essendo dim(V ) = dim(W )) se e solo
se W = Im ϕ per la proposizione 6.9. Pertanto (i) e (ii) sono equivalenti tra loro e quindi sono
equivalenti anche a (iii).

3.9 Spazi euclidei reali


Sia V un R-spazio vettoriale. Un'applicazione

s : V × V −→ R

è detta prodotto scalare in V, se è

- Bilineare: u, v e w in V e comunque si considera un


Comunque si considerano i vettori
numero reale λ si ha s(u + v, w) = s(u, w) + s(v, w), s(u, v + w) = s(u, v) + s(u, w) e
s(λu, v) = λs(u, v) = s(u, λv).

- Simmetrica: s(u, v) = s(v, u) per ogni u e v in V.

- Denita positiva: s(v, v) ≥ 0 per ogni v∈V e s(v, v) = 0 se e solo se v = 0.

Se s è un prodotto scalare, dalle proprietà precedenti seguono immediatamente le seguenti:

57
(a) s(λ1 v1 + · · · + λt vt , w) = λ1 s(v1 , w) + · · · + λn s(vt , w), comunque si considerano gli elementi
v1 , . . . , vt , w ∈ V e λ1 , . . . , λt ∈ R.
(b) s(0, v) = s(v, 0) = 0 per ogni v ∈V.
Un R-spazio vettoriale in cui è denito un prodotto scalare si dice essere uno spazio euclideo
(reale). Si noti che ogni sottospazio di uno spazio euclideo è uno spazio euclideo con l'applicazione
indotta da s su esso. Salvo avviso contrario, nel seguito il prodotto scalare sarà denotato sempre
con s.

Esempio 3.9.1. Un prodotto scalare si può denire per lo spazio vettoriale dei vettori liberi V (del
piano o dello spazio). Siano v e w due vettori liberi. Se v oppure w è nullo, poniamo v · w = 0;
se invece v e w sono entrambi non nulli, poniamo

v · w = |v||w| cos(v,
d w)
dove |v| e |w| rappresenta il modulo di v e w, rispettivamente. Si può provare che le precedenti
posizioni deniscono un'applicazione che è un prodotto scalare, detto prodotto scalare geometrico,
e così V è uno spazio euclideo.

Esempio 3.9.2. Nell'R-spazio vettoriale Rn l'applicazione

· : ((x1 , . . . , xn ), (y1 , . . . , yn )) ∈ Rn × Rn −→ x1 y1 + · · · + xn yn ∈ R
è un prodotto scalare, detto prodotto scalare standard. In particolare, Rn è uno spazio euclideo.

Esempio 3.9.3. E' semplice accorgersi che l'applicazione

s : Rn [x] × Rn [x] −→ R
denita ponendo

s(a0 + a1 x + · · · + an xn , b0 + b1 x + · · · + bn xn ) = a0 b0 + a1 b1 + · · · + an bn
è un prodotto scalare dello spazio Rn [x], che pertanto è anch'esso uno spazio euclideo.

Esempio 3.9.4. Se I = [a, b] ⊆ R, nello spazio vettoriale reale C 0 (I) delle applicazioni continue
di I in R un prodotto scalare è denito ponendo la posizione
Z b
s(f, g) = f (x)g(x)dx, ∀f, g ∈ C 0 (I).
a

Infatti le proprietà richieste dalla denizione di prodotto scalare sono soddisfatte, l'unica cosa
meno evidente è che s(f, f ) = 0 implica che f : x ∈ I → 0 ∈ R). Per
sia l'applicazione nulla (f
vedere questo osserviamo che se f non è l'applicazione nulla, esistono ε > 0 ed un punto x0 ∈ I
2 2
tali che f (x0 ) > ε. Per la continuità di f , esiste poi un intorno ]c, d[⊆ I di x0 tale che f (x) > ε
per ogni x ∈]c, d[, e quindi
Z b Z d Z d
2 2
s(f, f ) = f (x) dx ≥ f (x) dx > εdx = ε(d − c) > 0.
a c c

Pertanto da s(f, f ) = 0 deve seguire che f (x) = 0 per ogni x.

58
Sia V uno spazio euclideo e sia v un elemento di V. Si dice modulo (o anche lunghezza) il
numero p
kvk = s(v, v).
Evidentemente kvk ≥ 0 e kvk = 0 se e solo se v = 0; inoltre, se λ ∈ R, allora kλvk = |λ|kvk.
Un vettore di modulo 1 si dice versore. Se v è un vettore non nullo di V , si dice versore di v
il vettore
v
vers(v) = ;
kvk
evidentemente vers(v) è un versore ed è di uso comune la locuzione normalizzare il vettore v per
indicare che si vuole considerare vers(v) invece che v.

Esempio 3.9.5. Nello spazio numerico Rn munito del prodotto scalare standard, se u = (x1 , . . . , xn ),
si ha che u · u = x21 + · · · + x2n e quindi
q
kuk = x21 + · · · + x2n .

Ancora, se si considera lo spazio vettoriale C 0 ([0, 2π]) con il prodotto scalare denito nell'esempio
3.9.4, si ha che
Z 2π h1 i2π
s(sin, sin) = sin x2 dx = (x − sin x cos x) =π
0 2 0
√ √
e quindi k sin k = π; analogamente anche k cos k = π .

Sussiste la seguente.

Proposizione 3.9.6. Sia V uno spazio euclideo. Se u, v ∈ V si ha

(i) Disuguaglianza di Cauchy-Schwarz: s(u, v)2 ≤ s(u, u)s(v, v) e in questa relazione vale
l'uguaglianza se e solo se u e v sono linearmente dipendenti;

(ii) Disuguaglianza di triangolare: ku + vk ≤ kuk + kvk.

Se u e v sono vettori non nulli dello spazio euclideo V, la disuguaglianza di Cauchy-Schwartz


assicura che !2
s(u, v)
≤1
kukkvk
o equivalentemente
s(u, v)
−1 ≤ ≤1
kukkvk
e quindi esiste un unico angolo θ ∈ [0, π] tale che

s(u, v)
cos θ = ,
kukkvk
questo unico angolo θ
si dice angolo tra i vettori u e v e si denota con ud, v . I vettori non nulli u
π
e v si dicono ortogonali se u d, v = 2 , ovvero se s(u, v) = 0, e in tal caso si scrive u ⊥ v . Poichè
s(u, 0) = 0 qualsiasi sia il vettore u, per convenzione si assume che il vettore nullo sia ortogonale
ad ogni altro vettore.

59
Esempio 3.9.7. Nello spazio numerico R2 munito del prodotto scalare standard i vettori u = (1, 2)
e v = (−2, 1) sono ortogonali essendo u · v = 1(−2) + 2(1) = 0. Ancora, se si considera lo spazio
0
vettoriale C ([0, 2π]) con il prodotto scalare denito nell'esempio 3.9.4, si ha che
Z 2π Z 2π h1 i2π
s(sin, cos) = sin x cos xdx = sin xd(sin x) = sin2 x =0
0 0 2 0

e pertanto sin e cos sono ortogonali.

Teorema 3.9.8. (Teorema di Pitagora) Se u e v sono vettori ortogonali dello spazio euclideo
V, allora
ku + vk2 = kuk2 + kvk2
Dimostrazione. Essendo s(u, v) = 0, si ha che

ku + vk2 = s(u + v, u + v) =
= s(u, u) + 2s(u, v) + s(v, v) =
= s(u, u) + s(v, v) =
= kuk2 + kvk2 .

Un insieme di vettori non nulli {v1 , . . . , vt } di uno spazio euclideo V si dice ortogonale se è for-
mato da vettori a due a due ortogonali. Un insieme ortogonale fatto di versori si dice ortonormale.
Chiaramente se v è un elemento non nullo V , allora {vers(v)} è un sistema ortonormale; più in
generale, se {v1 , . . . , vt } è un insieme ortogonale allora {vers(v1 ), . . . , vers(vt )} è ortonormale.

Esempio 3.9.9. Se n è un intero positivo, la base canonica di Rn e la base canonica di Rn [x] sono
insiemi ortonormali rispetto al prodotto scalare denito nell'esempio 3.9.2 e nell'esempio 3.9.3,
rispettivamente.

Il prossimo risultato prova, in particolare, che due vettori non nulli di uno spazio eulideo non
possono essere contemporaneamente proporzionali (cioè dipendenti) e ortogonali.

Proposizione 3.9.10. Se S = {v1 , . . . , vt } è un insieme ortogonale di vettori non nulli di uno


spazio euclideo, allora S è libero.

Dimostrazione. Consideriamo una combinazione lineare nulla degli elementi di S

λ1 v1 + · · · + λt vt = 0

(con λ1 , . . . , λt ∈ R). Allora, se i ∈ {1, . . . , t},

0 = s(0, vi ) = s(λ1 v1 + · · · + λt vt , vi ) =
= λ1 s(v1 , vi ) + · · · + λi s(vi , vi ) + · · · + λt s(vt , vi ) =
= λi s(vi , vi )

da cui λi = 0 essendo s(vi , vi ) 6= 0 perchè vi 6= 0. Pertanto S è libero.

60
Il teorema 3.6.4 assicura che ogni spazio vettoriale nitamente generato ha una base, e si
vuole ora provare che a partire da una base di uno spazio euclideo di dimensione nita se ne può
costruire un'altra che è anche un insieme ortogonale (o ortonormale). Dunque ogni spazio euclideo
di dimensione nita ha una base ortogonale (o ortonormale). La dimostrazione del prossimo
risultato prende il nome di processo di ortonormalizzazione di Gram-Schmidt.

Teorema 3.9.11. Ogni spazio euclideo non nullo di dimensione nita ha una base ortogonale (o
ortonormale).

Dimostrazione. Sia V uno spazio euclideo non nullo di dimensione nita n e sia B = {v1 , . . . , vn }
una sua base. Poniamo

u1 = v1
s(v2 , u1 )
u2 = v2 − u1
s(u1 , u1 )
s(v3 , u1 ) s(v3 , u2 )
u3 = v3 − u1 − u2
s(u1 , u1 ) s(u2 , u2 )
.
.
.
n−1
X s(vn , ui )
un = vn − ui
i=1
s(ui , ui )

Osserviamo che ciasun vettore ui è non nullo, altrimenti si avrebbe che vi sarebbe combinazione
lineare diu1 , . . . , ui−1 , e dunque anche di v1 , . . . , vi−1 , contro l'essere {v1 , . . . , vi } ⊆ B e B libero.
Chiaramente {u1 } è un insieme ortogonale. Supponiamo di aver provato che {u1 , . . . , ui−1 } sia
ortogonale. Per ogni j ∈ {1, . . . , i − 1} si ha

i−1
!
X s(vi , uj )
s(vi , uk ) = s vi − uj , uk =
j=1
s(uj , uj )
i−1
X s(vi , uj )
= s(vi , uk ) − s(uj , uk ) =
j=1
s(uj , uj )
s(vi , uk )
= s(vi , uk ) − s(uk , uk ) = 0
s(uk , uk )

e dunque anche {u1 , . . . , ui−1 , ui } è ortogonale. Si ottiene pertanto che {u1 , . . . , un } è un insieme
ortogonale fatto da vettori non nulli, pertanto esso è libero per la proposizione 3.9.10 e dunque,
essendo n = dim(V ), esso è una base per li corollario 3.6.6. In particolare, {vers(u1 ), . . . , vers(un )}
è una base ortonormale di V .

Esempio 3.9.12. Si è già osservato che nello spazio vettoriale numerico la base canonica è una
3
base ortonormale rispetto al prodotto scalare standard. Come altro esempio consideriamo R col
prodotto scalare standard e in esso la base B costituita dai vettori v1 = (1, 1, 0), v2 = (2, 0, 0) e

61
v3 = (0, 0, 1). Si vuole ortonormalizzare B. Si ha

u1 = v1 = (1, 1, 0)
s(v2 , u1 ) 2
u2 = v2 − u1 = (2, 0, 0) − (1, 1, 0) = (1, −1, 0)
s(u1 , u1 ) 2
s(v3 , u1 ) s(v3 , u2 ) 0 0
u3 = v3 − u1 − u2 = (0, 0, 1) − (1, 1, 0) − (1, −1, 0) = (0, 0, 1)
s(u1 , u1 ) s(u2 , u2 ) 2 2

e {u1 , u2 , u3 } è una base ortogonale di V. Inoltre

√ ! √
u1 1 2 2
vers(u1 ) = = √ (1, 1, 0) = , ,0
ku1 k 2 2 2
√ √ !
u2 1 2 2
vers(u2 ) = = √ (1, −1, 0) = ,− ,0
ku2 k 2 2 2
u3 1
vers(u3 ) = = (0, 0, 1) = (0, 0, 1)
ku3 k 1

e {vers(u1 ), vers(u2 ), vers(u3 )} è una base ortonormale di V.

Siano u e v vettori dello spazio euclideo V, con v non nullo. Il numero reale

s(u, v)
s(v, v)

si dice coeciente di Fourier di u rispetto a v, mentre il vettore

s(u, v)
projv (u) = v
s(v, v)

si dice proiezione ortogonale di u su v; si noti che projv (u) ∈ L[v]. Il prossimo risultato mostra,
in particolare, che le componenti di un vettore rispetto ad una base ortogonale sono date dai
coecienti di Fourier del vettore in questione rispetto ai vettori della base ssata.

Proposizione 3.9.13. Sia R = (e1 , . . . , en ) un riferimento ortogonale dello spazio euclideo V. Se


u∈V, si ha che
s(u, e1 ) s(u, e2 ) s(u, en )
u= e1 + e2 + . . . + en .
s(e1 , e1 ) s(e2 , e2 ) s(en , en )
Inoltre, se R è ortonormale e v
è un altro vettore di V , si ha che il prodotto scalare tra u e v è
n
dato dal prodotto scalare standard (in R ) tra le componenti di u in R e le componenti di v in R.

Dimostrazione. Essendo R ortogonale ed s bilineare, posto (u)R = (x1 , . . . , xn ) si ha che per ogni
k = 1, . . . , n risulta

n
! n
X X
s(u, ek ) = s xi ei , ek = xi s(ei , ek ) = xk s(ek , ek )
i=1 i=1

62
per cui
s(u, ek )
xk = .
s(ek , ek )
Da cui, se poi R è ortonormale e v è un altro vettore di V le cui componenti in R sono (v)R =
(y1 , . . . , yn ), si ricava

n
! n n
X X X
s(u, v) = u, yi ei = yi s(u, ei ) = xi y i .
i=1 i=1 i=1

Siano V uno spazio vettoriale euclideo ed X una parte non vuota di V. Un vettore v di V si
dice ortogonale (o normale) ad X se v⊥x per ogni x ∈ X, in tal caso si scrive v ⊥ X. Sia poi

X ⊥ = {v ∈ V | v ⊥ X}.

Si verica facilmente che X⊥ è un sottospazio di V. Se W è un sottospazio, il sottospazio W⊥


prende il nome di complemento ortogonale di W in V. E' semplice convincersi che se S è un
sistema di generatori per W allora un vettore v di V è ortogonale a W se e solo se v è ortogonale
ad ogni vettore in S.

Esempio 3.9.14. Determiniamo in R4 (con il prodotto scalare standard) il complemento ortogo-


nale del sottospazio

W = {(x, y, z, t) | x + y − z + t = 2y − t = t = 0}.

E' semplice accorgersi che una base per W è {(1, 0, 1, 0)}, dunque W ⊥ è costituito da tutti i vettori
(x, y, z, t) di R4 tali che
(x, y, z, t) · (1, 0, 1, 0) = 0,
quindi
W ⊥ = {(x, y, z, t) | x + z = 0}
e pertanto una base per W⊥ è costituita dai vettori (−1, 0, 1, 0), (0, 1, 0, 0) e (0, 0, 0, 1).

Sussiste inne il seguente.

Teorema 3.9.15. Sia V uno spazio euclideo di dimensione nita e sia W un sottospazio di V.
Allora V =W⊕ W ⊥ . Inoltre risulta essere (W ⊥ )⊥ = W e dim(W ⊥ ) = dim(V ) − dim(W ).

Dimostrazione. Per il teorema 3.9.11, è lecito ssare in W una base ortogonale B = {v1 , . . . , vt }.
Se v ∈V, poniamo

s(v, v1 ) s(v, vt )
p(v) = projv1 (v) + · · · + projvt (v) = v1 + · · · + vt .
s(v1 , v1 ) s(vt , vt )

63
Evidentemente p(v) ∈ W e v = p(v) + (v − p(v)). Poichè per ogni i = 1, . . . , t risulta

s(v − p(v), vi ) = s(v, vi ) − s(p(v), vi ) =


t
X s(v, vj )
= s(v, vi ) − s(vi , vj ) =
j=1
s(vj , vj )
= s(v, vi ) − s(v, vi ) = 0,

si ha chev − p(v) ∈ W ⊥ e quindi l'arbitrarietà di v assicura che V = W + W ⊥ . D'altra parte,


⊥ ⊥
se v ∈ W ∩ W , allora v ∈ W e v ∈ W , quindi s(v, v) = 0 e pertanto v = 0. Dunque
W ∩ W ⊥ = {0} e così V = W ⊕ W ⊥ ; in particolare, per la formula di Grassmann 3.6.15 risulta
dim(W ⊥ ) = dim(V ) − dim(W ).
⊥ ⊥ ⊥
Ora, quanto provato assicura anche che V = W ⊕ (W ) e che

dim((W ⊥ )⊥ ) = dim(V ) − dim(W ⊥ ) =


= dim(V ) − (dim(V ) − dim(W )) =
= dim(W ),

sicchè essendo W ≤ (W ⊥ )⊥ risulta essere W = (W ⊥ )⊥ .

64
Capitolo 4
Matrici e Sistemi lineari

4.1 Determinante di una matrice


Sia A una matrice quadrata di ordine n sul campo K. Se i1 , . . . , is ∈ {1, . . . , m} e j1 , . . . , jt ∈
{1, . . . , n} (con s ≤ m e t ≤ n), poniamo
 
ai1 j1 ai1 j2 . . . ai1 jt
 ai j ai j . . . ai j 
 21 2 2 2 t
A(i1 , . . . , is | j1 , . . . , jt ) =  ..

. .. .
. .

 . . . . 
ais j1 ais j2 . . . ais jt

ovvero A(i1 , . . . , is | j1 , . . . , jt ) è la matrice che si ottiene da A considerando gli elementi che si


trovano simultaneamente sulle righe di posto i1 , . . . , is e sulle colonne di posto j1 , . . . , jt . In
generale, gli indici considerati non sono necessariamente distinti; qualora invece si suppone che gli
indici sono distinti, che i1 < · · · < is e che j1 < · · · < jt , la matrice A(i1 , . . . , is | j1 , . . . , jt ) viene
detta sottomatrice di A. Se poi s = t, A(i1 , . . . , is | j1 , . . . , js ) prende il nome di minore di ordine
s di A. In particolare, quando A è quadrata di ordine n, il minore di ordine n − 1 di A ottenuto
escludendo dalle righe di A solo una riga, diciamo la i-sima, ed escludendo solo una delle colonne,
diciamo la j -sima, si dice minore complementare dell'elemento aij e si denota, per semplicità, col
simbolo Aij .

Esempio 4.1.1. Data la matrice


 
2 0 −3 −4
A =  −5 6 1 0 
−4 −5 1 1

si ha 

2 2  
0 −4
A(1, 2, 1 | 1, 1) =  −5 −5  e A(1, 3 | 2, 4) =
−5 1
2 2
mentre  
2 −3 −4
A32 = .
−5 1 0

65
Se A ∈ Mn (K), la scrittura A = (A1 , ..., An ) indica le righe di A sono formate dai vettori
A1 , ..., An ∈ Kn . Ciò premesso, una funzione determinante per Mn (K) è una funzione

det : Mn (K) → K

che ad ogni matrice A ∈ Mn (K) associa lo scalare det(A) (talvolta indicato pure col simbolo |A|),
che verica le seguenti tre proprietà:

(1d ) det(In ) = 1;

(2d ) Se una matrice A ∈ Mn (K) ha due righe uguali, allora det(A) = 0;

(3d ) La funzione det è lineare sulle righe, ovvero se la i-esima riga della matrice A ∈ Mn (K) è tale
n
che Ai = λu+µv , dove λ, µ ∈ K e u, v ∈ K , considerate le matrici B = (A1 , ..., Ai−1 , u, Ai+1 , ..., An )
e C = (A1 , ..., Ai−1 , v, Ai+1 , ..., An ), si ha che det(A) = λ det B + µ det C .

E' semplice accorgersi che le funzioni

(a) ∈ M1 (K) → a ∈ K

e  
a11 a12
∈ M2 (K) → a11 a22 − a21 a12 ∈ K
a21 a22
vericano le proprietà (1d ), (2d ) (3d ) e quindi sono funzioni determinate, e in realtà esse sono
e
le uniche funzioni determinante di M1 (K) e M2 (K), rispettivametne. Sussiste infatti il seguente
fondamentale risultato di cui si omette la dimostrazione.

Teorema 4.1.2. Per ogni n ∈ N, una funzione determinate det per Mn (K) esiste ed è unica.

Una matrice A ∈ Mn (K) tale che det(A) = 0 si dice singolare. Quindi la (2d ) dice che una
matrice quadrata con due righe uguali è singolare; più in generale sono singolari le matrici che
hanno due righe proporzionali perchè come conseguenza immediata delle precedenti proprietà si
ottiene che

(30d ) Se una matrice A ∈ Mn (K) ha due righe proporzionali, allora det(A) = 0;

Infatti, supponendo ad esempio che siano proporzionali le prime due righe (analogo è il ragiona-
mento nel caso generale), si ha

(3d ) (2d )
det(A1 , λA1 , A3 , ..., An ) = λ det(A1 , A1 , A3 , ..., An ) = 0

Il prossimo risultato mostra l'eetto che le operazioni elementari producono sul determinante
di una matrice.

Proposizione 4.1.3. Siano A e B due matrici quadrate di ordine n sul campo K. Si ha:

(i) Se B è ottenuta da A scambiando due righe, allora det(B) = − det(A);

66
(ii) Se B è ottenuta da A moltiplicando una ssata riga per uno scalare λ ∈ K, allora det(B) =
λ det(A);

(iii) Se B è ottenuta da A sommando ad una ssata riga una qualunque combinazione lineare
delle altre righe, allora det(B) = det(A).

In particolare, se la matrice B è equivalente ad A allora det(B) = 0 se e solo se det(A) = 0.

Dimostrazione. (i) Per comodità di scrittura supponiamo che B sia ottenuta da A scambiano
le prime due righe (analogo è il ragionamento se le righe scambiate non sono le prime due),
quindi A = (A1 , A2 , A3 , ..., An ) e B = (A2 , A1 , A3 , ..., An ). Applicando le proprietà della funzione
determinante si ha

(2d )
0 = det(A1 + A2 , A1 + A2 , A3 , ..., An )
(3d )
= det(A1 , A1 + A2 , A3 , ..., An ) + det(A2 , A1 + A2 , A3 , ..., An )
(3d )
= det(A1 , A1 , A3 , ..., An ) + det(A1 , A2 , A3 , ..., An )+
+ det(A2 , A1 , A3 , ..., An ) + det(A2 , A2 , A3 , ..., An )
(2d )
= det(A1 , A2 , A3 , ..., An ) + det(A2 , A1 , A3 , ..., An )

dunque
det(A1 , A2 , A3 , ..., An ) = − det(A2 , A1 , A3 , ..., An )
da cui la tesi.
(ii) Se A = (A1 , A2 , A3 , ..., An ) ∈ Mn (K) e λ ∈ K, segue subito dalla (3d ) che

det(A1 , ..., Ai−1 , λAi , Ai+1 ..., An ) = λ det(A1 , ..., Ai−1 , Ai , Ai+1 ..., An ).

(iii) Se A = (A1 , A2 , A3 , ..., An ) ∈ Mn (K) e λ2 , ..., λn ∈ K, segue dalla (3d ) che

det(A1 + λ2 A2 + · · · + λn An , A2 , ..., An )
= det(A1 , A2 , ..., An ) + λ2 det(A1 , A2 , ..., An ) + · · · + λn det(An , A2 , ..., An )

e quindi applicando la (2d ) ricaviamo che

det(A1 + λ2 A2 + · · · + λn An , A2 , ..., An ) = det(A1 , A2 , ..., An ).

Analogo è il ragionameno se la riga a cui si è sommata una combinazione lineare delle restanti
righe non è la prima riga ma una qualsiasi altra riga.

Sia A = (aij ) ∈ Mn (K) con n ≥ 2, l'elemento di K

a0ij = (−1)i+j det(Aij ),

si dice complemento algebrico di aij . Sussiste il seguente notevole risultato che fornisce un metodo
di calcolo del determinante.

67
Teorema 4.1.4. (Primo Teorema di Laplace) Sia A = (aij ) una matrice quadrata di ordine
n sul campo K. Se h ∈ {1, . . . , n} allora

n
X n
X
det(A) = (−1) h+j
ahj det(Ahj ) = ahj a0hj
j=1 j=1

e
n
X n
X
det(A) = i+h
(−1) aih det(Aih ) = aih a0ih .
i=1 i=1

Esempio 4.1.5. Usiamo il teorema 4.1.4 per calcolare il determinante della matrice di M3 (R)
 
2 1 −3
A =  0 1 1 .
4 3 5

1 1 0 1 0 1
Allora det(A) = 2 − − 3 = 20.
3 5 4 5 4 3

Come conseguenza del teorema 4.1.4, sussistono le seguenti proprietà di calcolo del determi-
nante.

Corollario 4.1.6. Sia A una matrice quadrata su un campo K. Si ha:

(i) det(A) = det(At ).

(ii) Se A ha una riga nulla, allora det(A) = 0.

Dimostrazione. Per provare (i) basta sviluppare il determinare di A secondo una ssta riga i e il
t
determinante di A secondo la colonna i. Per provare (ii) invece basta sviluppare il determinante
di A secondo la riga nulla.

tutte
Dunque una matrice e la sua trasposta hanno lo stesso determinante, questo ci dice che
le proprietà del determinate che si applicano alle righe di una matrice si riscrivono
in modo analogo per le colonne. Ad esempio, una matrice con due colonne proporzionali ha
determinante nullo.

Una matrice quadrata A = (aij ) si dice triangolare superiore se tutti gli elementi sotto la
diagonale principale sono nulli, cioè se aij = 0 se i > j . Si dice invece triangolare inferiore se tutti
gli elementi che si trovano al di sopra della diagonale principale sono nulli, ovvero se aij = 0 se
i < j. La matrice A si dice poi matrice diagonale se gli eventuali elementi non nulli in A si trovano
solo sulla diagonale principale, e quindi quando aij = 0 se i 6= j .

Proposizione 4.1.7. Il determinante di una matrice (su un campo) triangolare superiore, o


triangolare inferiore o diagonale è il prodotto degli elementi della diagonale principale.

68
Dimostrazione. Se  
a11 a12 a13 . . . a1n

 0 a22 a23 . . . a2n 

A=
 0 0 a33 . . . a3n 

. . . .. .
. . . .
 
 . . . . . 
0 0 0 ... ann
è triangolare superiore, sviluppando det(A) secondo la prima colonna otteniamo


a22 a23 . . . a2n

0 a33 . . . a3n
det(A) = a11 · ..

. .. .
. .

. . . .

0 0 . . . ann

e iterando lo sviluppo dei determinanti sempre secondo la prima colonna, si ottiene che det(A) =
a11 a22 . . . ann . Un analogo ragionamento prova il risultato quando A è triangolare inferiore o
diagonale.

La precedente proposizione fornisce un utile modo per il calcolo del determinate. Se A è una
matrice quadrata di ordine n su un campo K, mediante l'algoritmo di Gauss sappiamo trasformare
A in una matrice a scala B = (bij ) ad essa equivalente. Poichè anche B è una matrice quadrata,
essa è una matrice triangolare superiore di ordine n e quindi la proposizione 4.1.7 assicura che
det(B) = b11 . . . bnn . Poichè l'algoritmo di Gauss non prevede l'uso di operazioni di tipo 1), se
per passare da A a B ci sono stati s ∈ N0 scambi di righe, la proposizione 4.1.3 assicura che
det(A) = (−1)s b11 . . . bnn .

Un'altra utile proprietà del determinante è fornita dal seguente teorema di cui si omette la
dimostrazione.

Teorema 4.1.8. (Teorema di Binet) Siano A e B matrici quadrate di ordine n sul campo K.
Allora det(AB) = det(A) det(B) = det(BA).

Il Primo Teorema di Laplace 4.1.4 si può enunciare dicendo che il determinante di una matrice è
pari alla somma dei prodotti degli elementi di una riga (o colonna) per i loro complementi algebrici.
Il seguente risultato, che ci tornerà utile in seguito, mostra invece che la somma dei prodotti
degli elementi di una riga (rispettivamente, colonna) per i complementi algebrici di un'altra riga
(rispettivamente, colonna) è nullo.

Teorema 4.1.9. (Secondo Teorema di Laplace) Se A = (aij ) è una matrice quadrata sul
campo K e h 6= k , allora
ah1 a0k1 + ah2 a0k2 + · · · + ahn a0kn = 0
e
a1h a01k + a2h a02k + · · · + anh a0nk = 0.

69
Dimostrazione. Consideriamo la matrice B = (bij ) che si ottiene da A sostituendo la k -esima riga
0 0
con la h-esima. Allora bhj = bkj = ahj e bkj = akj . Pertanto applicando il primo teorema di
Laplace 4.1.4 e sviluppando il determinate secondo la riga k -esima si ha che

det(B) = ah1 a0k1 + ah2 a0k2 + · · · + ahn a0kn .


D'altra parte in B la h-esima riga e la k -esima sono uguali, quindi det(B) = 0 per il corollario 4.1.6
e pertanto
ah1 a0k1 + ah2 a0k2 + · · · + ahn a0kn = 0.
Analogamente, considerando la matrice che si ottiene sostituendo la k -esima colonna di A con la
h-esima e sviluppando il determinante della matrice così ottenuta secondo la k -esima colonna, si
0 0 0
ottiene a1h a1k + a2h a2k + · · · + anh ank = 0 ed il teorema è provato.

4.2 Matrici Invertibili


Siano K un campo e n un intero positivo. Una matrice quadrata A di ordine n su K si dice
invertibile se A è un elemento simmetrizzabile di Mn (K) rispetto all'operazione di prodotto righe
per colonne, ossia se esite una matrice B ∈ Mn (K) tale che AB = In e BA = In ; in questo caso,
come semplice conseguenza dell'associatività del prodotto righe per colonne, si ha che la matrice
B è univocamente determinata: questa unica matrice B si dice matrice inversa di A e si denota
con A−1 . Chiaramente, (A−1 )−1 = A, ed è inoltre semplice accorgersi che (At )−1 = (A−1 )t . Si
osservi che esistono matrici che non sono invertibili, infatti se A è una matrice quadrata di ordine
n sul campo K e A ha una riga (rispettivamente, colonna) nulla allora anche AB ha una riga
(rispettivamente, colonna) nulla, e quindi AB 6= In , qualsiasi sia la matrice B in Mn (K).

Proposizione 4.2.1. Sia K un campo. Se A e B sono matrici invertibili di Mn (K), allora anche
−1
AB è invertibile e (AB) = B −1 A−1 .
Dimostrazione. Si ha

(AB)(B −1 A−1 ) = A(BB −1 )A−1 = A In A−1 = AA−1 = In


e
(B −1 A−1 )AB = B −1 (A−1 A)B = B −1 In B = B −1 B = In ,
pertanto AB è invertibile e (AB)−1 = B −1 A−1 .

Fissato un campo K ed un intero positivo n, la precedente proposizione assicura che l'insieme


GLn (K) delle matrici invertibili di Mn (K) è stabile rispetto al prodotto righe per colonne. D'altra
parte è evidente che la matrice identica è invertibile, e se A è una matrice invertibile è stato già
−1
osservato che anche A è invertibile, dunque rispetto all'operazione di prodotto righe per colonne
l'insieme GLn (K) è un gruppo, detto gruppo lineare delle matrici quadrate d'ordine n su K.

Sia A = (aij ) una matrice quadrata di ordine n sul campo K. Chiamiamo aggiunta di A la
trasposta della matrice i cui elementi sono i complementi algebrici di A ovvero la seguente matrice
 
a011 a021 . . . a0n1
. . .. .
agg(A) =  . . . .
 
. . . .
0 0 0
a1n a2n ... ann

70
Poichè il primo teorema di Laplace 4.1.4 e il secondo teorema di Laplace 4.1.9 insieme permettono
di scrivere

ai1 a0j1 + ai2 a0j2 + · · · + ain a0jn = δij det(A) = a1i a01j + a2i a02j + · · · + ani a0nj ,
dove δij è il simbolo di Kronecker, si ha che

A · agg(A) = agg(A) · A = (δij det(A)) = det(A) · In =


 
det(A) 0 ... 0
 0 det(A) . . . 0 
= .
 
. . .. .
. . . .
 . . . 
0 0 . . . det(A)

Teorema 4.2.2. Sia A


una matrice quadrata di ordine n sul campo K. Se det(A) 6= 0 allora A
−1 1
è invertibile e la sua inversa è A = det(A) · agg(A).
Dimostrazione. Utilizzando la precente osservazione e l'associatività del prodotto righe per colon-
ne, otteniamo

A · (det(A)−1 · agg(A)) = (det(A))−1 · (A · agg(A)) =


= det(A)−1 · (det(A) · In ) =
= (det(A)−1 · det(A)) · In = In .
Allo stesso modo, (det(A)−1 · agg(A)) · A = In e quindi il risultato è provato.

Esempio 4.2.3. Consideriamo la matrice a coecienti reali


 
1 2
A= .
3 4
Poichè det(A) = −2, A è invertibile e quindi applichiamo il teorema 4.2.2 per il calcolo della
matrice inversa. Considerando la matrice dei complementi algebrici, otteniamo che
 
t 4 −3
agg(A) = .
−2 1
Dunque,    
−1 1 1 4 −2 −2 1
A = agg(A) = − · = 3 .
det(A) 2 −3 1 2
− 21

Se A ∈ Mn (K) è una matrice invertibile, allora AA−1 = In ed il teorema di Binet 4.1.8 assicura
che
det(A) det(A−1 ) = det(AA−1 ) = det(In ) = 1;
quindi det(A) 6= 0 ed inoltre
1
det(A−1 ) = .
det(A)

71
Corollario 4.2.4. Sia A una matrice d'ordine n sul campo K. Allora A è invertibile se e solo se
det(A) 6= 0. In particolare, GLn (K) è l'insieme delle matrici non singolari di Mn (K).
Dimostrazione. Per il teorema 4.2.2 se det(A) 6= 0, la matrice A è invertibile. Viceversa, se A è
invertibile allora det(A) 6= 0 per quanto osservato sopra.

Esempio 4.2.5. Consideriamo in M2 (R) una matrice


 
a b
A=
c d
e supponiamo che essa sia non singolare, dunque det(A) = ad − bc 6= 0 e A è invertibile per il
corollario 4.2.4. Applicando il teorema 4.2.2, otteniamo che
t !
 d −b
1 d −c
A−1 = = det(A)
−c
det(A)
a .
det(A) −b a det(A) det(A)

Ricaviamo, ad esempio, che


 −1  
1 2 1 −1
=
0 2 0 12
Si noti pure che se a e b sono numeri reali non contemporaneamente nulli, allora la matrice
 
a b
−b a
è non nulla e ha per determinante a2 + b2 6= 0, dunque tale matrice è invertibile e risulta
 −1  a −b

a b 2 2 a2 +b2
= a +b b a
−b a a2 +b2 a2 +b2

Concludiamo il paragrafo suggerendo il seguente utile esercizio (nello svolgimento, si tenga


anche presente il precedente esempio).

Esercizio 4.2.6. Sappiamo che l'insieme M2 (R) delle matrici quadrate di ordine 2 sul campo
reale R ha una struttura di anello unitario con le operazioni di somma tra matrici + e di prodotto
righe per colonne ×. Provare che il sottoinsieme
  
a b
C= : a, b ∈ R .
−b a
è una parte stabile di M2 (R) sia rispetto a + che ×, e che (rispetto alle operazioni indotte) la
struttura algebrica (C, +, ×) è un campo.
Si noti poi che (se a, b ∈ R) risulta
     
a b 1 0 0 1
=a +b
−b a 0 1 −1 0
e che  2  
0 1 1 0
=− = −I
−1 0 0 1
(Il campo qui esibito non è niente altro che una rappresentazione del campo complesso)

72
4.3 Dipendenza lineare e rango di una matrice
Se A è una matrice di ordine m × n sul campo K, allora le righe A1 , . . . , Am di A sono vettori
n 1 n m
di K mentre le colonne A , . . . , A di A sono vettori di K . Si dice spazio delle righe di A il
n
sottospazio R(A) = L[A1 , . . . , Am ] di K generato dalle righe di A; si dice invece spazio delle
1 n m
colonne di A il sottospazio C(A) = L[A , . . . , A ] di K generato dalle colonne di A. Ha senso
quindi determinare insiemi liberi di righe o di colonne di A, e denire rango di riga di A il massimo
numero ρr (A) di righe indipendenti di A, ovvero ρr (A) = dim R(A), e rango di colonna di A il
numero ρc (A) = dim C(A), ovvero il massimo numero di colonne indipendenti di A.

Teorema 4.3.1. Sia A una matrice m×n su K. Allora ρr (A) = ρc (A).

Dimostrazione. Sia {Ai1 , . . . , Aip } una base per lo spazio delle righe di A, in particolare p = ρr (A)
e per ogni i = 1, . . . , m si ha che

Ai = λi,i1 Ai1 + · · · + λi,ip Aip

per opportuni λi,i1 , . . . , λi,ip ∈ K. Fissato un indice j ∈ {1, . . . , n}, dalla precedente relazione si
ricava che

a1j = λ1,i1 ai1 ,j + · · · + λ1,ip aip ,j


a2j = λ2,i1 ai1 ,j + · · · + λ2,ip aip ,j
.
.
.

amj = λm,i1 ai1 ,j + · · · + λm,ip aip ,j

e pertanto se per ogni h = 1, . . . , p si pone

 
λ1,ih
 λ2,i 
 h
Λih =  .. 
 . 
λm,ih

si ricava che
Aj = ai1 ,j Λi1 + · · · + aip ,j Λip .
L'arbitrarietà di j assicura quindi che C(A) ≤ L[Λi1 , . . . , Λip ] e pertanto segue dal Lemma di
Steinitz 3.6.1 che
ρc (A) = dim C(A) ≤ p = ρr (A).
In maniera analoga, scambiando il ruolo delle righe e delle colonne, si prova che ρr (A) ≤ ρc (A) e
pertanto ρr (A) = ρc (A).

Considerata A una matrice di ordine m×n su un campo K, il teorema 4.3.1 assicura che
ρr (A) = ρc (A) A come il massimo numero ρ(A) di righe (o
ed è quindi possibile denire rango di
colonne) indipendenti di A, ovvero ρ(A) = ρr (A) = ρc (A); in particolare, ρ(A) = 0 se e solo se A è
t
la matrice nulla. Evidentemente, ρ(A) ≤ min{m, n}; inoltre, essendo chiaramente ρr (A) = ρc (A ),
t
si ha anche che ρ(A) = ρ(A ).

73
E'semplice accorgersi che il rango di una matrice a scala coincide il numero delle righe non
nulle, e quindi il prossimo risultato suggerisce che per calcolare il rango di una matrice basta
applicare ad essa l'algoritmo di Gauss e poi contare il numero di righe non nulle nella matrice a
scala ottenuta.

Proposizione 4.3.2. Siano AeB matrici m×n sul campo K. Se AeB sono matrici equivalenti,
allora R(A) = R(B); in particolare, ρ(A) = ρ(B).
Dimostrazione. Poichè B è equivalente ad A, B a partire da A attraverso una
possiamo ottenere
sequenza nita di operazioni elementari. Quindi i vettori riga di B sono combinazioni lineari dei
vettori riga di A e pertanto appartengono allo spazio generato dalle righe di A. Ne consegue che lo
spazio generato dalle righe di B è un sottospazio dello spazio delle righe di A. D'altra parte anche
A è equivalente a B , quindi lo spazio generato dalla righe di A è contenuto nello spazio generato
dalle righe di B e pertanto coincide con esso. In denitiva, R(A) = R(B) e conseguentemente
ρ(A) = ρ(B).

Esempio 4.3.3. La forma a scala della matrice


 
1 1 0 −1
A =  0 −1 1 0 
1 0 1 −1

è la matrice  
1 1 0 −1
 0 −1 1 0  .
0 0 0 0
Così ρ(A) = 2 (cf. proposizione 4.3.2).

Per le matrici quadrate sussiste la seguente proposizione dalla quale discende, in particolare,
che una matrice quadrata d'ordine n ha rango massimo (cioè n) se e solo se è non singolare.

Proposizione 4.3.4. Sia A una matrice quadrata sul campo K. Allora det(A) = 0 se e solo se una
riga (rispettivamente colonna) di A è combinazione lineare delle restanti righe (rispettivamente
colonne).

Dimostrazione. Per il corollario 4.1.6, det(A) = det(At ) e quindi è suciente provare l'asserto
per le righe. Supponiamo dapprima che A ∈ Mn (K) sia una matrice singolare e per assurdo
supponiamo che l'insieme {A1 , . . . , An } sia libero. Considerata la forma a scala ridotta B di A,
la proposizione 4.3.2 assicura che L[A1 , . . . , An ] = L[B1 , . . . , Bn ], così l'insieme {B1 , . . . , Bn } è un
sistema di generatori di uno spazio vettoriale di dimensione n e quindi deve essere una base, in
particolare è un insieme libero. Dunque B è una matrice a scala ridotta, quadrata e priva di righe
nulle, e quindi B è necessariamente la matrice identica. In particolare, det(B) 6= 0 e così anche
det(A) 6= 0 per la proposizione 4.1.3. Questa contraddizione prova che l'insieme {A1 , . . . , An } è
legato e dunque una riga di A deve dipendere dalle restanti.
Viceversa, supponiamo che la riga i-esima di A sia combinazione lineare delle restanti righe:
Ai = λ1 A1 + · · · + λn An (con ogni λi ∈ K), e sia B la matrice che si ottiene da A sottraendo alla

74
riga i-esima tale combinazione lineare, ovvero B si ottiene dala matrice A mediante un'operazione
del tipo ri −→ ri − λ1 r1 − · · · − λn rn . Per la proposizione 4.1.3 risulta det(B) = det(A); d'altra
parte la i-esima riga di B è nulla e pertanto il suo determinante è nullo per il corollario 4.1.6. Così
det(A) = 0.

Come già osservato, la proposizione 4.3.4 assicura che una matrice quadrata ha rango massimo
se e solo se ha determinante non nullo; questo suggerisce inoltre che deve esserci un legame tra il
concetto di rango e quello di determinante: al ne di stabilire tale legame premettiamo la seguente
denizione.

Considerato un minore M di ordine p di una matrice A, si dice orlato di M un minore di ordine


p + 1 di A che ha M come minore di ordine p. Invece, un minore fondamentale di A è un minore
di A che è non singolare ma è tale che ogni suo orlato è singolare. Praticamente, un orlato di M
in A si ottiene aggiungendo" una riga e una colonna di A ad M .

Esempio 4.3.5. Un minore della matrice


 
1 2 5 0 −1
 7 4 9 −2 3 
A=
 −2 1

6 2 5 
0 −5 2 1 4

è  
2 −1
A(1, 2 | 2, 5) = .
4 3
Un suo orlato è ad esempio il minore di A
 
2 0 −1
A(1, 2, 4 | 2, 4, 5) =  4 −2 3  .
−5 1 4

Quest'ultimo possiede due soli orlati il primo relativo alle righe 1, 2, 4, 3 e alle colonne 1, 2, 4, 5 e
il secondo relativo alle righe 1, 2, 4, 3 e alle colonne 2, 4, 5, 3 ed essi sono le matrici
 
1 2 0 −1
 7 4 −2 3 
A(1, 2, 3, 4 | 1, 2, 4, 5) = 
 −2 1

2 5 
0 −5 1 4
e  
2 5 0 −1
 4 9 −2 3 
A(1, 2, 3, 4 | 2, 3, 4, 5) = 
 1
.
6 2 5 
−5 2 1 4

Sussiste il seguente notevole risultato.

75
Teorema 4.3.6. (Teorema degli Orlati) Sia A una matrice m×n sul campo K e sia M un
minore fondamentale di A di ordine p. Allora l'insieme delle righe (rispettivamente, colonne)
di A coinvolte nel minore M è una base per il sottospazio generato dalle righe (rispettivamente,
colonne) di A. In particolare, ρ(A) = p.

Dimostrazione. Proviamo il risultato per le righe, da questo seguirà il risultato per le colonne
considerando la trasposta di A. Per ssare le idee, supponiamo sia M = A(i1 , . . . , ip | j1 , . . . , jp ).
Se le righe A i1 , . . . , A ip di A fossero linearmente dipendenti, allora anche le righe Mi1 , . . . , Mip
di M sarebbero dipendenti e quindi si avrebbe det(M ) = 0 per la proposizione 4.3.4. Questa
contraddizione prova che le righe Ai1 , . . . , Aip sono indipendenti e pertanto resta da provare che
tutte le altre righe di A dipendono da queste. Fissiamo quindi un indice di riga i 6∈ {i1 , . . . , ip }
e proviamo che Ai è combinazione lineare di Ai1 , . . . , Aip . Per ogni j = 1, . . . , n si consideri la
matrice  
ai 1 j 1 . . . ai1 jp ai1 j
 .. .. .
.
.
.

.
M (j) =  . . .
.
 
 aip j1 . . . aip jp aip j 
aij1 . . . aijp aij
Se j ∈ {j1 . . . , jp } allora M (j) ha due colonne uguali e quindi è singolare per la proposizione 4.1.6,
altrimenti (a meno di scambiare righe) M (j) è un orlato di M e quindi M (j) è singolare anche in
questo caso (si veda pure la proposizione 4.1.3). Pertanto det(M (j)) = 0 per ogni j = 1, . . . , n.
Osserviamo che le matrici M (1), . . . , M (n) hanno le prime p colonne uguali, sicchè i complementi
algebrici degli elementi dell'ultima colonna coincidono, siano essi λ1 , λ2 , . . . , λp+1 ∈ K; si osservi
inoltre che λp+1 è a meno del segno uguale a det(M ) e quindi λp+1 6= 0. Sviluppando il determinante
di M (j) rispetto all'ultima colonna ricaviamo

det(M (j)) = ai1 j λ1 + · · · + aip j λp + aij λp+1 = 0.

Poichè la precedente relazione vale per ogni j = 1, . . . , n, sussiste la seguente relazione vettoriale
n
(in K )
    
ai1 1 ai p 1 ai1
 ai 2   ai 2   ai2 
 1   p
 ..  λ1 + · · · +  ..  λp +  ..  λp+1 = 0
  
 .   .   . 
ai1 n ai p n ain
dove riconosciamo che i primi p vettori sono le righe A i1 , . . . , A ip di A mentre l'ultimo vettore è la
riga i-esima Ai . Pertanto, essendo λp+1 6= 0, ricaviamo che

−1
Ai = −λp+1 λ1 Ai1 − · · · − λ−1
p+1 λp Aip ,

come volevamo.

Esempio 4.3.7. Calcoliamo il rango della matrice

 
1 1 0 −1
A =  0 −1 1 0 
1 0 1 −1

76
la stessa di cui prima abbiamo calcolato il rango usando l'algoritmo di Gauss. Iniziamo col consi-
derare il minore M1 = A(1 | 1) = (1) che è ovviamente non singolare. Orliamo M1 considerando

 
1 1
M2 = A(1, 2 | 1, 2) =
0 −1

che è non singolare avendo per determinante −1. A questo punto consideriamo i possibili orlati
di M2 ovvero le matrici  
1 1 0
A(1, 2, 3 | 1, 2, 3) =  0 −1 1 
1 0 1
e  
1 1 −1
A(1, 2, 3 | 1, 2, 4) =  0 −1 0  .
1 0 −1
Poichè queste matrici sono singolari, il teorema degli orlati 4.3.6 ci permette di concludere che
ρ(A) = 2.

La nozione di rango di una matrice è una nozione importante e molto utile per valutare la
lineare (in)dipendenza di vettori numerici, come mostra il seguente esempio.

Esempio 4.3.8. Supponiamo di voler stabilire se in R4 i vettori v1 = (1, 0, −1, 2), v2 = (2, −1, 0, 1)
e v3 = (−1, −1, −1, 1) sono linearmente dipendenti o indipendenti. Considerata la matrice che ha
questi vettori come righe
 
1 0 −1 2
A =  2 −1 0 1 
−1 −1 −1 1
e osservando che la sua forma a scala è la matrice
 
1 0 −1 2
 0 −1 2 −3 
0 0 0 0

si ha che ρ(A) = 2. Un minore fondamentale di A è ad esempio A(1, 2 | 1, 2), e dunque il lemma


4.3.6 assicura che i vettori v1 e v2 sono indipendenti e che v3 dipende da essi (come c'era da
aspettarsi visto che v3 = v1 − v2 ).

4.4 Applicazioni ai sistemi lineari


Vogliamo ora mostrare come il concetto di determinante e di rango si applicano anche allo studio
dei sistemi lineari. Arontiamo innanzitutto il problema della compatibilità di un sistema lineare.
Al ne di provare che lo studio della compatibilità di un sistema lineare è riconducibile allo studio
del rango delle matrici completa e incompleta del sistema, premettiamo il seguente.

Lemma 4.4.1. Un sistema lineare AX = B a coecienti nel campo K è compatibile se e solo se


il vettore B dipende linearmente dai vettori colonna di A.

77
Dimostrazione. Il sistema lineare AX = B ha una soluzione (y1 , . . . , yn ) ∈ Kn se e solo se

y1 A1 + . . . yn An = B,
ovvero se e solo se il vettore numerico colonna B dipende dall'insieme delle colonne di A.

Teorema 4.4.2. (Teorema di Rouché  Capelli) Un sistema lineare AX = B di m equazioni


in n incognite a coecienti in un campo K è compatibile se e solo se le matrici A e (A|B) hanno
lo stesso rango.

Dimostrazione. Supponiamo che ρ(A) = p e sia C = {Aj1 , . . . , Ajp } un sistema massimale di


colonne indipendenti di A. Se il sistema AX = B è compatibile, allora B dipende dalle colonne di
A per il lemma 4.4.1 e quindi dall'insieme C , così C è un sistema massimale di colonne indipendenti
anche per la matrice (A|B) e pertanto ρ(A|B) = p. Reciprocamente, se ρ(A) = ρ(A|B), le colonne
(di A) che formano un sistema massimale di colonne per A, formano un sistema massimale di
colonne anche per (A|B), e quindi, poichè tra esse non c'è B , il vettore B dipende da esse. Così
AX = B è compatibile per il lemma 4.4.1.

Nel caso particolare di sistemi lineari in cui il numero di equazioni e il numero di incognite è
lo stesso, sussiste il seguente risultato: esso fornisce una regola" per determinare le soluzioni di
un tale sistema detta talvolta Regola di Cramer. Qui, come in precedenza fatto per le righe di
una matrice, la scritturaA = (A1 , A2 , . . . , An ) indica che la matrice A è composta dalle colonne
A1 , A2 , . . . , An .

Teorema 4.4.3. (Teorema di Cramer) Sia AX = B un sistema lineare di n equazioni in n


incognite su un campo K. Se det(A) 6= 0 allora il sistema è compatibile e determinato e la sua
unica soluzione (x1 , . . . , xn ) si ottiene come segue. Per ogni i = 1, . . . , n, considerata la matrice
che si ottiene da A sostituendo la sua i-esima colonna con B

Âi = (A1 , . . . , Ai−1 , B, Ai+1 , . . . , An ),


si ha che
det(Âi )
xi = .
det(A)
Dimostrazione. Poichè det(A) 6= 0, il corollario 4.2.4 assicura che la matrice A è invertibile. Allora

X = (A−1 A)X = A−1 (AX) = A−1 B


è l'unica soluzione del sistema AX = B e così, ricordando il teorema 4.2.2, otteniamo che l'unica
soluzione del sistema AX = B è
   a011 a021 a0n1
 
x1 det(A) det(A)
. . . det(A) b1
 ..   .
.
.
. .. .
.
 . 
  ..  .
 . =  0. . . . 
xn a1n a02n a0nn bn
...
det(A) det(A) det(A)

Pertanto per ogni i = 1, . . . , n risulta

b1 a01i + b2 a02i + · · · + bn a0ni det(Âi )


xi = = ,
det(A) det(A)
dove ques'ultima uguaglianza si ottiene sviluppando det(Âi ) rispetto alla i-esima colonna.

78
Un sistema lineare AX = B di n equazioni in n incognite con det(A) 6= 0 si dice sistema di
Cramer. Il precendente teorema assicura quindi che ogni sistema di Cramer è determinato.

Esempio 4.4.4. Consideriamo il sistema lineare


x 1 − x2 = 4
2x1 + x2 = 0

la cui matrice dei coecienti ha determinante 3. Dunque tale sistema è di Cramer e il teorema di
Cramer 4.4.3 assicura che le soluzioni sono

4 −1 1 4

0 1 4 2 0 8
x1 = = e x2 = =− .
3 3 3 3

Esempio 4.4.5. Considerato il sistema



 4x1 − 5x2 + 3x3 = 1
x1 − 3x2 + x3 = −1
2x1 + x2 − 5x3 = 1

la cui matrice dei coecienti  


4 −5 3
A =  1 −3 1 
2 1 −5
ha determinante uguale a 42, detta Ai (con i = 1, 2, 3) la matrice che si ottiene da A rimpiazzando
la i-esima colonna con la colonna dei termini noti si ha che

1 −5 3 4 1 3

det(A1 ) = −1 −3 1 = 40,
det(A2 ) = 1 −1 1
= 32
e
1 1 −5 2 1 −5

4 −5 1

det(A3 ) = 1 −3 −1 = 14;
2 1 1
dunque il teorema di Cramer 4.4.3 assicura che la soluzione del sistema lineare è data dalla terna
(x1 , x2 , x3 ) dove

det(A1 ) 40 20 det(A2 ) 32 16
x1 = = = ; x2 = = = e
det(A) 42 21 det(A) 42 21

det(A3 ) 14 1
x3 = = = .
det(A) 42 3

79
Un sistema lineare AX = B di m equazioni in n incognite sul campo K si dice ridotto in forma
normale se ρ(A) = m ≤ n. Evidentemente in tal caso anche ρ(A|B) = m e quindi il sistema
è compatibile per il teorema di Rouché  Capelli 4.4.2. D'altra parte se AX = B è un sistema
0 0
lineare (qualsiasi) compatibile in cui ρ(A) = ρ(A|B) = p, scelte p righe indipendenti Ri , . . . , Ri
1 p
di (A|B), ogni altra riga di (A|B) è combinazione lineare di queste e quindi il sistema lineare
AX = B è equivalente al sistema lineare che ha come matrice completa quella le cui righe sono
Ri0 1 , . . . , Ri0 p , quest'ultimo sistema evidentemente è ridotto a forma normale. Quindi ogni sistema
lineare compatibile è equivalente ad un sistema in forma normale.

Sia AX = B un sistema lineare compatibile di m equazioni in n incognite su un campo


K. Al ne di illustrare un altro metodo di risoluzione di un sistema lineare, detto metodo dei
determinanti (o dei minori), per quanto detto sopra è lecito supporre che il sistema AX = B
sia già ridotto in forma normale, sicchè ρ(A) = ρ(A|B) = m ≤ n. Se m = n il sistema è di
Cramer, infatti det(A) 6= 0per la proposizione 4.3.4, e quindi la regola di Cramer ci permette
j j
di determinare l'unica soluzione del sistema lineare. Sia allora m < n e siano A 1 , . . . , A m le m
colonne indipendenti di A. Posto q =n−m e

{k1 , . . . , kq } = {1, . . . , n} \ {j1 , . . . , jm },


il sistema può essere riscritto come

 a1,j1 xj1 + · · · + a1,jm xjm = b1 − a1,k1 xk1 − · · · − a1,kq xkq
... (4.1)
am,j1 xj1 + · · · + am,jm xjm = bm − am,k1 xk1 − · · · − am,kq xkq

e qui le incognite xk1 , . . . , xkq vengono dette parametri. Fissato arbitrariamente un valore per
ciascun parametro, questo sistema lineare, visto come sistema nelle sole incognite xj 1 , . . . , x j m , è
un sistema di Cramer per la proposizione 4.3.4 e può essere risolto applicando la regola di Cramer.
Segue così che le soluzioni del sistema (4.1), e quindi anche del sitema lineare AX = B , dipendono
da q = n − m = n − ρ(A) parametri (o come si dice, il sistema ha ∞n−ρ(A) soluzioni).

Esempio 4.4.6. Applichiamo il metodo dei determinanti per risolvere il seguente sistema lineare
a coecienti reali: 
 3x1 + 8x2 − 4x3 = 2
x1 + x2 − x3 = 1 (4.2)
x1 + 6x2 − 2x3 = 0

E' semplice accorgersi che tale sistema è compatibile e che un minore fondamentale della matrice
dei coecienti (e anche della matrice completa) del sistema (4.2) è M = A(1, 2 | 1, 2), sicchè il
sistema è equivalente a quello che si può riscrivere come

3x1 + 8x2 = 2 + 4x3
x1 + x2 = 1 + x3
Considerando quest'ultimo come un sistema nelle sole incognite x1 e x2 , otteniamo un sistema
che ha come matrice dei coecienti M. Essendo M non singolare, possiamo applicare la regola di
Cramer e ottenere

2 + 4x3 8 3 2 + 4x2

1 + x3 1 4x3 + 6 1 1 + x2 x3 − 1
x1 = = e x2 = = .
3 8


5 3 8
5
1 1 1 1

80
In deniva l'insieme delle soluzioni del sistema (4.2) è

 
4x3 + 6 x3 − 1 
, , x 3 | x3 ∈ R .
5 5

A conclusione di questa sezione si vuole far osservare come l'uso dei sistemi lineari consente
di trovare un altro metodo di calcolo per la matrice inversa. Sia dunque A una matrice quadrata
−1
di ordine n sul campo K e supponiamo che A sia invertibile. Gli elementi della matrice B=A
possono essere pensati come delle incognite e precisamente, dovendo essere AB = In , le colonne
B 1 , B 2 , . . . , B n di B possono rivedersi come le incognite dei seguenti n sistemi lineari
     
1 0 0
0 1  .. 
AB 1 =  ..  , AB 2 =  ..  , . . . , AB n =  . 
     
. . 0
0 0 1

Poichè det(A) 6= 0 per il corollario 4.2.4, il teorema di Cramer 4.4.3 assicura che i precedenti sistemi
sono determinati. Inoltre, tali sistemi possono essere risolti usando l'algoritmo di Gauss-Jordan,
però, invece che risolverli singolarmente, possiamo risolverli simultaneamente cioè possiamo ap-
plicare l'algoritmo di Gauss-Jordan alla matrice (A|In ) che si ottiene aancando alla matrice A
la matrice identica, si otterrà così la matrice (In |C) e risulterà C = B = A−1 .

Esempio 4.4.7. Applichiamo e l'algoritmo di Gauss-Jordan per determinare l'inversa della ma-
trice a coecienti reali  
1 2
A= .
3 4
Partiamo dalla matrice  
1 2 1 0
3 4 0 1
e applichiamo ad essa l'algoritmo di Gauss-Jordan. Applicando l'operazione r2 → r2 − 3r1 si
ottiene  
1 2 1 0
,
0 −2 −3 1
e poi l'operazione r2 → − 12 r2 permette di ottenere

 
1 2 1 0
0 1 32 − 21

ed inne mediante la trasformazione r1 → r1 − 2r2 otteniamo la matrice


 
1 0 −2 1
.
0 1 32 − 12

A questo punto la matrice inversa cercata sarà la matrice che si trova nel blocco alla destra della
matrice identica.

81
4.5 Sitemi lineari omogenei
Si consideri una matrice A ∈ Mm,n (K). A partire da A resta denita l'applicazione

LA : X ∈ Kn → AX ∈ Km ;

si noti che, poichè AX rappresenta il prodotto righe per colonne di A per X , qui si è scelto di
rappresentare i vettori di Kn come vettori colonna. L'applicazione LA è evidentemente un'appli-
cazione lineare, ed è chiamata applicazione lineare associata ad A. Si osservi che considerato il
n i
riferimento canonico (e1 , . . . , en ) di K risulta LA (ei ) = A e dunque Im LA = C(A) è lo spazio
delle colonne di A per la proposizione 3.7.6, in particolare, dim(Im LA ) = ρ(A). Invece, ker LA
rappresenta l'insieme delle soluzioni del sistema lineare omogeneo AX = 0.

Proposizione 4.5.1. Sia A ∈ Mm,n (K) e si consideri il sistema lineare omogeneo Σ : AX = 0.


Allora l'insieme Sol(Σ) delle soluzioni di Σ è un sottospazio vettoriale dello spazio numerico Kn
e ha dimensione n − ρ(A).

Dimostrazione. L'insieme Sol(Σom ) è un sottospazio essendo Sol(Σom ) = ker LA e quindi, essendo


dim(Im LA ) = ρ(A), segue dal teorema della dimensione 3.8.2 che la dimensione di Sol(Σom ) è
n − ρ(A).

Segue dalla precedente che il sistema lineare AX = 0 ha solo la soluzione nulla se e solo se
n = ρ(A) e quindi se e solo se det(A) 6= 0 (cfr. proposizione 4.3.4).

Esempio 4.5.2. Consideriamo il sistema lineare omogeneo a coecienti reali seguente



x1 − x2 + x3 − x4 = 0
2x1 − x2 = 0

e determiniamo una base per lo spazio delle soluzioni. La matrice dei coecienti di questo sistema
è  
1 −1 1 −1
A=
2 −1 0 0
essa evidentemente ha rango 2 e un minore fondamentale è ad esempio A(1, 2 | 1, 2), sicchè il
metodo dei determinanti ci suggerisce di rivedere il sistema come un sistema nelle sole incognite
x1 e x2 
x1 − x2 = −x3 + x4
2x1 − x2 = 0
e applicare ad esso la regola di Cramer. Pertanto

−x3 + x4 −1 1 −x3 + x4

0 −1 2 0
x1 =
1 −1

= x3 − x 4 e x2 =
1 −1 = −2x3 + 2x4 .

2 −1 2 −1

Si ricava così che lo spazio delle soluzioni del sistema lineare è

S0 = {(x3 − x4 , −2x3 + 2x4 , x3 , x4 ) | x3 , x4 ∈ R}.

82
Essendo
(x3 − x4 , −2x3 + 2x4 , x3 , x4 ) = x3 (1, −2, 1, 0) + x4 (−1, 2, 0, 1)
posto
s1 = (1, −2, 1, 0) e s2 = (−1, 2, 0, 1)
si ha che S0 = L[s1 , s2 ]. Evidentemente {s1 , s2 } è una parte libera, e quindi {s1 , s2 } è una base
per S0 .

Esempio 4.5.3. Si consideri li sistema lineare fatto dalla sola equazione a coecienti reali

x1 + x2 + x3 + x4 = 0.

In tal caso, evidentemente, lo spazio delle soluzioni è

S0 = {(−x2 − x3 − x4 , x2 , x3 , x4 ) | x2 , x3 , x4 ∈ R}.

Ma
(−x2 − x3 − x4 , x2 , x3 , x4 ) = x2 (−1, 1, 0, 0) + x3 (−1, 0, 1, 0) + x4 (−1, 0, 0, 1)
da cui si ha facilmente che

{(−1, 1, 0, 0), (−1, 0, 1, 0), (−1, 0, 0, 1)}

è una base di S0 .

Un sistema lineare qualsiasi AX = B potrebbe non avere il vettore nullo come soluzione, quindi
in generale le soluzioni di un sistema lineare non omogeneo non sono un sottospazio vettoriale dello
spazio numerico; però le soluzioni del sistema AX = B sono sempre legate a quelle del sistema
lineare omogeneo AX = 0 ad esso associato, infatti sussiste la seguente.

Proposizione 4.5.4. Siano A ∈ Mm,n (K) eB ∈ Mm,1 (K), e si considerino il sistema lineare
Σ : AX = B ed il sistema omogeneo ad esso associato Σom : AX = 0. Se P0 è una soluzione di Σ
allora
Sol(Σ) = P0 + Sol(Σom ) := {P ∈ Rn : P − P0 ∈ Sol(Σom )},
in altri termini tutte e sole le soluzioni di Σ si ottengono come somma tra il vettore numerico
P0 ed un vettore Y con Y ∈ Sol(Σom ).

Dimostrazione. Se Z ∈ Sol(Σ), allora Z = P0 +(Z −P0 ) e Z −P0 ∈ Sol(Σom ) essendo A(Z −P0 ) =
AZ − AP0 = B − B = 0. Viceversa, se Y ∈ Sol(Σom ) allora A(P0 + Y ) = AP0 + AY = B + 0 = B
e quindi P0 + Y ∈ Sol(Σ).

Usiamo il primo dei precedenti esempi per mostrare come la proposizione 4.5.4 rappresenti un
ulteriore metodo di risoluzione di un sistema lineare qualsiasi.

83
Esempio 4.5.5. Consideriamo il sistema lineare


x1 − x2 + x3 − x4 = 2
2x1 − x2 = 1

Una sua soluzione è evidentemente (1, 1, 2, 0) e così, essendo il sistema lineare omogeneo ad esso
associato il primo sistema incontrato nei precedenti esempi di questa sezione il cui spazio delle
soluzioni è
S0 = {(x3 − x4 , −2x3 + 2x4 , x3 , x4 ) | x3 , x4 ∈ R},
la proposizione 4.5.4 assicura che tutte e sole le soluzioni del sistema lineare sono del tipo

(1, 1, 2, 0) + (x3 − x4 , −2x3 + 2x4 , x3 , x4 ) = (1 + x3 − x4 , 1 − 2x3 + 2x4 , 2 + x3 , x4 )

al variare di x3 , x4 ∈ R.

Concludiamo con la seguente importante osservazione, che caratterizza i sottospazi dello spazio
vettoriale numerico. Abbiamo visto che le soluzioni di un sistema lineare omogeneo sono un
sottospazio vettoriale dello spazio vettoriale numerico di cui sappiamo calcolarne la dimensione
n
(cfr. proposizione 4.5.1). In realtà, dato un campo K e un intero positivo n, i sottospazi di K
sono sempre lo spazio delle soluzioni di un sistema lineare omogeneo (si pure veda il successivo
n n
teorema 6.2.1). Sia W un sottospazio di K e ssiamo un riferimento R di K . Se W = {0}
allora esso è lo spazio delle soluzioni del sistema lineare omogeneo In X = 0 (dove come al solito In
dentota la matrice identica su K di ordine n). Supponiamo quindi che W 6= {0} e sia {w1 , . . . , wr }
una sua base. Un vettore w è un elemento di W se e solo se l'insieme {w1 , . . . , wr , w} è legato e
quindi se e solo se la matrice A su K le cui righe (o colonne) sono le componenti in R dei vettori
w1 , . . . , wr , w, ha rango r. Fissato in A un minore non singolare di ordine r, imponendo a tutti agli
orlati di questo minore di essere singolari, si ottiene un sistema lineare omogeneo il cui spazio delle
soluzioni corrisponde, attraverso l'isomorsmo coordinato cR , al sottospazio W: questo sistema
lineare omogeneo si dice essere una rappresentazione cartesiana di W rispetto al riferimento R.

Esempio 4.5.6. In R4 supponiamo ssato il riferimento canonico e consideriamo il sottospazio


W generato dai vettori (−1, 0, 1, 0) e (−1, 0, 0, 1). Sia w = (x1 , x2 , x3 , x4 ) il generico elemento di
W e imponiamo alla matrice
 
−1 −1 x1
 0 0 x2 
A=
 1

0 x3 
0 1 x4
di avere rango 2. Scelto  
1 0
M = A(3, 4 | 1, 2) =
0 1
come minore non singolare di ordine 2, il torema degli orlati 4.3.6 garantisce che A ha rango 2 se
e solo se gli orlati di M sono singolari ovvero se e solo se

0 0 x2 −1 −1 x1

1 0 x3 = 1 0 x 3
= 0.

0 1 x4 0 1 x4

84
Otteniamo così il sistema lineare omogeneo


x2 = 0
x1 + x3 + x4 = 0

il cui spazio delle soluzioni coincide con W; tale sistema è una rappresentazione cartesiana di W
(rispetto al riferimento canonico).

4.6 Matrici e applicazioni lineari


Se A è una matrice m × n su un campo K, è stata denita in precedenza l'applicazione lineare
LA : X ∈ Kn −→ AX ∈ Km ed è stato osservato che Im LA è lo spazio delle colonne di A mentre
ker LA è lo spazio delle soluzioni del sistema lineare omogeneo AX = 0. Se poi si considerano due
spazi vettoriali non nulli V e W sul campo K di dimensione nita n ed m, rispettivamente, ssato
0
un riferimento R in V ed un riferimento R in W , si può considerare l'applicazione lineare

0
ϕR,R
A = c−1
R0 ◦ LA ◦ cR : V −→ W.

0
E' semplice accorgersi che questa volta le colonne di A rappresentano le componenti in R dei
R,R0 R,R0
trasformati mediante ϕA degli elementi di R, sicchè Im ϕA corrisponde attraverso l'isomorsmo
R,R0
coordinato cR0 allo spazio delle colonne di A e quindi risulta dim(Im ϕA ) = ρ(A). Invece,
R,R0
ker ϕA è costituito da quei vettori di V le cui componenti in R sono soluzione del sistema lineare
0
AX = 0, sicchè attraverso l'isomorsmo coordinato ker ϕR,R A corrisponde allo spazio delle soluzioni
R,R0
del sistema lineare omogeneo AX = 0 e quindi dim(ker ϕA ) = n − ρ(A).

Partendo ora da un'applicazione lineare ϕ tra due spazi vettoriali, un riferimento R del dominio
0 R,R0
e un riferimento R del codominio, si vuole associare a ϕ una matrice A tale da aversi che ϕA = ϕ.
Siano dunque V e W due spazi vettoriali non nulli sul campo K di dimensione nita, e si ssi un
0 0 0
riferimento R = (e1 , . . . , en ) in V ed un riferimento R = (e1 , . . . , em ) in W ; in particolare, quindi,
si sta supponendo che dim(V ) = n e che dim(W ) = m.
Consideriamo un'applicazione lineare ϕ : V −→ W . Per ogni j = 1, . . . , n, siano (a1j , . . . , amj )
0
le componenti del vettore ϕ(ej ) nella base R , e sia A = (aij ) la matrice m × n su K le cui
0
colonne sono le componenti dei trasformati mediante ϕ dei vettori della base R nella base R . Se
v = λ1 e1 + · · · + λn en è il generico elemento di V (con ogni λi ∈ K) allora

ϕ(v) = λ1 ϕ(e1 ) + · · · + λn ϕ(en ) =


= λ1 (a11 e01 + · · · + am1 e0m ) + · · · + λn (a1n e01 + · · · + amn e0m ) =
= (λ1 a11 + · · · + λn a1n )e01 + · · · + (λ1 am1 + · · · + λn amn )e0m

e pertanto, per l'unicità delle componenti (in R0 ), si ottiene

[ϕ(v)]R0 = A[v]R (4.3)

dove [v]Rindica il vettore colonna delle componenti di v in R e [ϕ(v)]R0 il vettore colonna delle
0
componenti di ϕ(v) in R . La matrice A si dice matrice associata all'applicazione lineare ϕ rispetto
0 0
ai riferimenti R e R , e si scrive anche A = MR,R0 (ϕ). Se V = W e R = R , si parla semplicemente
di matrice associata a ϕ nel riferimento R e si scrive MR (ϕ).

85
La proprietà (4.3) caratterizza la matrice associata, infatti se  ∈ Mm,n (K) è tale che [ϕ(v)]R0 =
Â[v]R allora  = M (ϕ), infatti per ogni j = 1, . . . , n è
R,R0 evidente che [ϕ(ej )]R0 = Â[ej ]R è la

j -esima colonna di Â, e dunque  e MR,R0 (ϕ) sono uguali avendo le colonne ordinatamente uguali.
Sempre la proprietà (4.3) assicura che due applicazioni lineari ϕ e ψ di V in W coincidono
se e soltanto se risulta MR,R0 (ϕ) = MR,R0 (ψ). Segue così che A = MR,R0 (ϕ) se e soltanto se
0 R,R0
ϕ = ϕR,R
A , quindi ϕA è l'unica applicazione lineare di V in W che ha A come matrice associata
0
nei riferimenti R ed R . In particolare, ssata una qualsiasi matrice A in Mm,n (K), l'applicazione
LA : Kn −→ Km è l'unica applicazione lineare che ha A come matrice associata quando sia in Kn
m
che K è stato ssato come riferimento quello canonico.

Teorema 4.6.1. Siano V e W due spazi vettoriali non nulli sul campo K di dimensione nita.
Siano inoltre ϕ : V −→ W un'applicazione lineare, R un riferimento di V , R0 un riferimento di
W e A = MR,R0 (ϕ).

(i) Il sottospazio Im ϕ è generato dai vettori che in R0 hanno per componenti le colonne di A,
cioè Im ϕ corrisponde attraverso l'isomorsmo coordinato cR 0 allo spazio delle colonne di A,
in particolare dim(Im ϕ) = ρ(A).

(ii) Il sottospazio ker ϕ corrisponde attraverso l'isomorsmo coordinato cR allo spazio S0 delle
soluzioni del sistema lineare omogeneo AX = 0; in particolare, una base per ker ϕ è formata
dai vettori le cui componenti in R formano una base per S0 . Inoltre, dim(ker ϕ) = dim(V )−
ρ(A).

Dimostrazione. La proposizione 3.7.6 garantisce che Im ϕ è generato dai trasformati dei vettori
0
di R, le cui componenti in R, per denizione di matrice associata, sono le colonne di A e quindi,
attraverso l'isomorsmo coordinato c lo spazio Im ϕ corrisponde allo spazio delle colonne di
R0 ,
A. dim(Im ϕ) = ρ(A) e così dim(ker ϕ) = dim(V ) − ρ(A) per il teorema 3.8.2.
In particolare,
Inoltre, v ∈ ker ϕ se e solo se [ϕ(v)]R0 = 0 e quindi, per (4.3), se e solo se A[v]R = 0; pertanto
mediante l'isomorsmo coordinato cR il sottospazio ker ϕ corrisponde al sottospazio delle soluzioni
del sistema lineare omogeneo AX = 0.

Corollario 4.6.2. V e W due spazi vettoriali non nulli sul campo


K di dimensione nita. Siano
0
inoltre ϕ : V −→ W un'applicazione lineare, R un riferimento di V , R un riferimento di W e
A = MR,R0 (ϕ). Allora ϕ è isomorsmo se e solo se A è una matrice quadrata e det(A) 6= 0.
Dimostrazione. Se ϕ è isomorsmo allora W = Im ϕ, per la suriettività di ϕ, e quindi dim(V ) =
dim(W ) per il teorema della dimensione 3.8.2 ed essendo ker ϕ nullo per la proposizione 3.8.1, in
particolare, quindi, A è una matrice quadrata. D'altra parte se A è quadrata vuol dire che V e W
hanno la stessa dimensione, quindi posto n = dim(V ) = dim(W ) (da cui A ∈ Mn (K)) proviamo
che ϕ è isomorsmo se e solo se det(A) 6= 0. Per il corollario 3.8.3 ϕ è isomorsmo se e solo se ϕ è
iniettiva e quindi, per la proposizione 3.8.1, se e solo se ker ϕ = {0}. D'altra parte il teorema 6.2.1
assicura che lo spazio ker ϕ è nullo se e solo se ρ(A) = dim(V ) = n e quindi se e solo se det(A) 6= 0
per la proposizione 4.3.4.

Esempio 4.6.3. Consideriamo la seguente applicazione lineare

ϕ : (x, y) ∈ R2 −→ (2x − 3y, −x + y, 0) ∈ R3 .

86
Fissiamo i riferimenti R = ((1, 0), (0, 1)) e R0 = ((1, 0, 1), (0, 1, 0), (0, 0, 1)) in R2 e R3 rispettiva-
mente, e andiamo a determinare A = MR,R0 (ϕ). Essendo

ϕ(1, 0) = (2, −1, 0) = 2(1, 0, 1) − 1(0, 1, 0) − 2(0, 0, 1)

e
ϕ(0, 1) = (−3, 1, 0) = −3(1, 0, 1) + 1(0, 1, 0) + 3(0, 0, 1)
otteniamo subito che  
2 −3
A =  −1 1  .
−2 3
La matriceA ha rango 2, quindi ker ϕ ha dimensione 2−2 = 0 e pertanto ker ϕ = {0}. Inoltre
Im ϕ = C(A) = L[(2, −1, 0), (−3, 1, 0)].

Esempio 4.6.4. Si consideri l'applicazione lineare


 
a b
ϕ: ∈ M2 (R) → a + cx2 ∈ R2 [x]
c d

Posto        
1 1 1 0 0 1 0 0
M1 = , M2 = , M3 = , M4 =
0 0 1 0 0 0 0 1
ssiamoR = (M1 , M2 , M3 , M4 ) come riferimento per M2 (R). Invece in R2 [x] ssiamo il riferimento
0
R = (1 + x2 , x, x2 ). Essendo

ϕ(M1 ) = 1 = 1(1 + x2 ) + 0(x) − 1(x2 )


ϕ(M2 ) = 1 + x2 = 1(1 + x2 ) + 0(x) + 0(x2 )
ϕ(M3 ) = 0 = 0(1 + x2 ) + 0(x) + 0(x2 )
ϕ(M4 ) = 0 = 0(1 + x2 ) + 0(x) + 0(x2 )

risulta  
1 1 0 0
A = MR,R0 (ϕ) =  0 0 0 0 .
−1 0 0 0
1 2
Una base per C(A) è costituita dalle colonne A e A di A e queste colonne sono le componenti in
0 2
R di ϕ(M1 ) = 1 e ϕ(M2 ) = 1 + x , rispettivamente, sicchè

Im ϕ = L[1, 1 + x2 ].

Inoltre, poichè una base per lo spazio delle soluzione del sistema lineare omogeneo AX = 0 è
cositituita dai vettori (0, 0, 1, 0)
(0, 0, 0, 1), che sono le componenti in R di M3 e M4 ,
e si ha che

      
0 1 0 0 0 x
ker ϕ = L[M3 , M4 ] = L , = : x, y ∈ R .
0 0 0 1 0 y

87
Proposizione 4.6.5. Siano V, V 0 e V 00 spazi vettoriali non nulli di dimensione nita sul campo K
e si ssino dei riferimenti R, R0 e R00 per essi. Se ϕ : V −→ V 0 e ψ : V 0 −→ V 00 sono applicazioni
lineari, allora anche ψ◦ϕ è lineare.
Inoltre, considerate le matrici A = MR,R0 (ϕ) e B = MR0 ,R00 (ψ), si ha che BA = MR,R00 (ψ ◦ ϕ).
Dimostrazione. L'applicazione ψ ◦ ϕ è lineare per la proposizione 3.7.5; inoltre per ogni v∈V si
ha che [ψ(ϕ(v))]R00 = B[ϕ(v)]R0 = BA[v]R , da cui la tesi.

Corollario 4.6.6. Siano V e W


spazi vettoriali non nulli di dimensione nita su un campo K e
0
sia ϕ : V −→ W un isomorsmo. Fissato un riferimento R per V ed un riferimento R per W e
considerata A= MR,R0 (ϕ) si ha che A è invertibile e A−1 = MR0 ,R (ϕ−1 ).
Dimostrazione. L'applicazione ϕ−1 è un isomorsmo per la proposizione 3.7.7, in particolare
dim(V ) = dim(W ). Poichè la matrice associata all'endomorsmo identico (in un ssato rife-
rimento) è la matrice identica, seB = MR0 ,R (ϕ−1 ), segue dalla proposizione 4.6.5 che AB e BA
−1
sono la matrice identica. Così B = A .

4.7 Matrice del cambio di base


Sia Vuno spazio vettoriale non nullo su un campo K di dimensione nita n, e consideriamo due
0 0 0
riferimenti R = (e1 , . . . , en ) ed R = (e1 , . . . , en ) di V . Se esprimiamo ogni ej come combinazione
0
lineare dei vettori di R scrivendo

ej = p1j e01 + p2j e02 + · · · + pnj e0n ,

dove gli scalarip1j , p2j , . . . , pnj ∈ K sono univocamente determinati, si viene a formare una matrice
P = (pij ) quadrata di ordine n su K le cui colonne sono le componenti dei vettori di R nella base
R0 ; pertanto P = MR,R0 (ιV ) è la matrice associata all'endomorismo identico ιV di V nei riferimenti
R e R0 . La matrice P si chiama matrice di passaggio dal riferimento R al riferimento R0 .

Teorema 4.7.1. Sia V uno spazio vettoriale non nullo su un campo K di dimensione nita n.
0 0
Siano inoltre R e R due riferimenti di V e P ∈ Mn (K) la matrice di passaggio da R a R . Allora

(i) P è invertibile e P −1 è la matrice di passaggio da R0 a R;

(ii) per ogni elemento v di V si ha che [v]R0 = P [v]R e [v]R = P −1 [v]R0 ;

(iii) se P0è la matrice di passaggio da R0 ad un terzo riferimento R00 , allora P 0P è la matrice di


00
passaggio da R a R .

Dimostrazione. Sia Q = MR0 ,R (ιV ) la matrice di passaggio da R0 a R e sia v un arbitrario elemento


di V . Il teorema 4.6.1 assicura che [v]R0 = P [v]R e [v]R = Q[v]R0 , sicchè [v]R0 = P [v]R = P Q[v]R0
e [v]R = Q[v]R0 = QP [v]R e l'unicità delle componenti garantisce dunque che P Q = In = QP .
−1
Pertanto P è invertibile e P = Q, così (i) e (ii) sono provate. Inne, essendo [v]R00 = P 0 [v]R0 =
P 0 P [v]R ancora il teorema 4.6.1 assicura che P 00 = P 0 P e quindi anche (iii) è provata.

La relazione che intercorre tra le matrici del cambio di riferimento in uno spazio vettoriale e
la matrice associata ad un endomorsmo nei riferimenti in questione, e descritta nel seguente.

88
Teorema 4.7.2. Sia V uno spazio vettoriale su un campo K di dimensione nita e siano R e R0
due riferimenti di V. Se ϕ
è un endomorsmo di V e A = MR (ϕ), allora MR0 (ϕ) = P −1 AP dove
0
P è la matrice di passaggio da R a R.

Dimostrazione. Sia v ∈ V . Allora il teorema 4.7.1 assicura che P è invertibile ed inoltre che
[v]R = P [v]R0 e [ϕ(v)]R0 = P −1 [ϕ(v)]R . D'altra parte [ϕ(v)]R = A[v]R per il teorema 4.6.1, per cui
[ϕ(v)]R0 = P −1 [ϕ(v)]R = P −1 A[v]R = P −1 AP [v]R0 . Pertanto, per il teorema 4.6.1, P −1 AP è la
0
matrice di ϕ in R .

Due matrici quadrate A e B di ordine n su un campo K si dicono simili (o talvolta anche


−1
coniugate) se esiste una matrice invertibile P in Mn (K) tale che B = P AP . Tale relazione,
com'è facile vericare, è una relazione di equivalenza. Il precedente teorema assicura quindi che
matrici associate ad uno stesso endomorsmo, in due riferimenti diversi, sono simili.

Esempio 4.7.3. Si consideri l'endomorsmo

ϕ : (a, b) ∈ R2 → (b, a) ∈ R2

e ssiamo
R = ((1, 0), (0, 1)) e R0 = ((1, 1), (1, −1))
come riferimenti di R2 . Essendo

ϕ(1, 0) = (0, 1) e ϕ(0, 1) = (1, 0)

risulta  
0 1
A = MR (ϕ) = .
1 0
La matrice di passaggio da R0 ad R ha per colonne le componenti in R dei vettori di R0 , e quindi
ha per colonne i vettori di R0 essendo R il riferimento canonico
 
1 1
P = MR0 ,R (ιR2 ) = ;
1 −1

ed è semplice rendersi conto che

1 1
  
−1 2 2 −1 1 0
P = 1 e che P AP = .
2
− 12 0 −1

Dunque il teorema 4.7.2 assicura che

 
1 0
MR0 (ϕ) =
0 −1

ed infatti

ϕ(1, 1) = (1, 1) = 1(1, 1) + 0(1, −1) e ϕ(1, −1) = (−1, 1) = 0(1, 1) − 1(1, −1).

89
Nel caso di spazi euclidei, si è osservato in precedenza che i riferimenti ortonormali sono riferi-
menti in cui il prodotto scalare è riconducibile al prodotto scalare standard nello spazio numerico
su R. Ci chiediamo ora che proprietà deve avere la matrice di passaggio tra due riferimenti or-
tonormali. A tal ne introduciamo il seguente concetto. Una matrice invertibile A ∈ Mn (R) si
−1
dice ortogonale se A = At . Poichè risulta essere (At )−1 = (A−1 )t , se A è ortogonale allora anche
A−1 = At è ortogonale ed inoltre, ricordando che det(A) = det(At ) e che det(A) det(A−1 ) = 1, si
ha che det(A) = ±1. Un esempio di matrice ortogonale è chiaramente la matrice identica. Sussiste
la seguente.

Proposizione 4.7.4. Sia V 0


uno spazio euclideo di dimensione nita, e siano R ed R due suoi
0
riferimenti e P la matrice di passaggio da R a R. Supponiamo inoltre che R sia ortonormale.
0
Allora R è ortonormale se e solo se P è ortogonale.

90
Capitolo 5
Diagonalizzazione di endomorsmi e
matrici

5.1 Autovalori, autovettori e autospazi


Sia K un campo e supponiamo ssati un K-spazio vettoriale V ed un endomorsmo ϕ di V . Un
vettore non nullo v di V ϕ, se esiste uno scalare λ ∈ K tale che ϕ(v) = λv ;
si dice autovettore di
in tal caso, λ è detto essere un autovalore di ϕ relativo all'autovettore v . Osserviamo che se µ è
un altro autovalore relativo a v , allora µv = ϕ(v) = λv sicchè (µ − λ)v = 0 e quindi µ − λ = 0
essendo v 6= 0, pertanto µ = λ. Questo prova che per ogni autovettore esiste un unico autovalore.

Esempio 5.1.1. n n
Considerato l'endomorsmo nullo f : v ∈ R → 0 ∈ R dello spazio numerico
n n
R , si ha che f (v) = 0v per ogni v ∈ R , e pertanto ogni vettore è autovettore per f relativo
all'autovalore 0.
Come altro esempio si consideri lo spazio vettoriale reale C ∞ (I) (dove I è un intervallo di R)
delle applicazioni di I in R con derivata continua di ogni ordine. L'applicazione

D : f ∈ C ∞ (I) → f 0 ∈ C ∞ (I)

che ad ogni applicazione di C ∞ (I) associa la sua derivata, è lineare. Se α∈R risulta

D(eαx ) = αeαx

e pertanto eαx è autovettore per l'applicazione lineare D relativo all'autovalore α.

Lemma 5.1.2. Sia V uno spazio vettoriale sul campo K e siano v1 , . . . , vt autovettori associa-
ti ad autovalori distinti di uno stesso endomorsmo di V . Allora v1 , . . . , vt sono linearmente
indipendenti.

Dimostrazione. Siano v1 , . . . , vt autovettori di un endomorsmo ϕ associati, rispettivamente, agli


autovalori distinti λ1 , . . . , λt . Un autovettore è un vettore non nullo e quindi {vk } è una parte libera
per ogni k = 1, . . . , t. Supponiamo che comunque si considerano i − 1 (con i > 1) autovettori
relativi ad autovalori distinti, tali autovettori formano una parte libera; consideriamo poi una
combinazione lineare nulla c1 v1 + · · · + ci vi = 0 (con ogni ck ∈ K), allora

0 = λi (c1 v1 + · · · + ci vi ) = c1 λi v1 + · · · + ci λi vi

91
e
0 = ϕ(c1 v1 + · · · + ci vi ) = c1 ϕ(v1 ) + · · · + ci ϕ(vi ) = c1 λ1 v1 + · · · + ci λi vi
quindi
c1 λi v1 + · · · + ci λi vi = c1 λ1 v1 + · · · + ci λi vi
e così
c1 (λ1 − λi )v1 + · · · + ci−1 (λi−1 − λi )vi−1 = 0.
Poichè stiamo supponendo che i − 1 autovettori relativi ad autovalori distinti sono linearmente
indipendenti, segue che c1 = · · · = ci−1 = 0. Allora ci vi = 0 e pertanto anche ci = 0. Questo
prova che v1 , . . . , v i sono linearmente indipendenti ma, più in generale, lo stesso argomento prova
che comunque si prendono i vettori tra v1 , . . . , vt questi sono linearmente indipendenti. Così
proseguendo, si ottiene che i t vettori v1 , . . . , vt sono linearmente indipendenti.

Fissato un autovalore λ per ϕ, sia Vϕ (λ) l'insieme costituito dal vettore nullo e dai vettori di
V che sono autovettori di ϕ relativi all'autovalore λ, ovvero

Vϕ (λ) = {v ∈ V | ϕ(v) = λv}.

Se h, k ∈ K e v, w ∈ Vϕ (λ), allora

ϕ(hv + kw) = hϕ(v) + kϕ(w) = hλv + kλw = λ(hv + kw),

sicchèhv + kw ∈ Vϕ (λ) e pertanto Vϕ (λ) è un K-sottospazio di V detto autospazio relativo


all'autovaloreλ. Si osservi che se λ è un autovalore per ϕ, allora esiste un autovettore che ha per
autovalore λ e pertanto, essendo un autovettore un vettore non nullo, risulta

dim(Vϕ (λ)) ≥ 1.

Proposizione 5.1.3. Sia V uno spazio vettoriale sul campo K e sia ϕ un endomorsmo di V. Se
λ1 , . . . , λt sono autovalori distinti di ϕ, allora

Vϕ (λ1 ) + · · · + Vϕ (λt ) = Vϕ (λ1 ) ⊕ · · · ⊕ Vϕ (λt ).

Dimostrazione. Si deve provare che per ogni i = 1, . . . , t risulta

 
Vϕ (λi ) ∩ Vϕ (λ1 ) + · · · + Vϕ (λi−1 ) + Vϕ (λi+1 ) + · · · + Vϕ (λt ) = {0}.
P
Se vi è un vettore di Vϕ (λi ) tale da aversi che vi = j6=i vj con ogni vj in Vϕ (λj ), allora risulta
v1 + · · · + vi−1 − vi + vi+1 + · · · + vt = 0. Segue così dal lemma 5.1.2 che v1 = · · · = vt = 0 e
pertanto la proposizione è provata.

Supponiamo ora che V abbia dimensione nita, e siano A = MR (ϕ) la matrice associata
all'endomorsmo ϕ rispetto ad un ssato riferimento R di V e

pϕ (λ) = det(A − λIn ).

92
E' semplice accorgersi (sviluppando il determinante rispetto alla prima colonna o, se si preferisce,
facendo induzione sull'ordine n di A) che

pϕ (λ) = (−1)n λn + · · · + det(A)

è un polinomio di grado n a coecienti in K: esso è detto polinomio caratteristico di ϕ. L'equazione

det(A − λIn ) = 0

è invece detta equazione caratteristica di ϕ. Il polinomio caratteristico si denisce a partire dalla


matrice associata all'endomorsmo ϕ in un ssato riferimento di V, ma se anche si scegliesse un
altro rifermento per V, il polinomio caratteristico che si verrebbe a determinare sarebbe sempre
lo stesso. Sussiste infatti la seguente.

Proposizione 5.1.4. Sia V uno spazio vettoriale di dimensione nita n sul campo K e sia ϕ un
endomorsmo di V. Allora il polinomio caratteristico di ϕ non dipende dal riferimento che si ssa
in V.
Dimostrazione. Se A e B sono matrici associate a ϕ in due riferimenti distinti di V , allora il
teorema 4.7.2 assicura che esiste una matrice invertibile P di Mn (K) tale che B = P −1 AP . Si ha
così che

B − λIn = P −1 AP − λIn = P −1 AP − λP −1 P =
= P −1 AP − P −1 (λIn )P = P −1 (A − λIn )P

e quindi, ricordando che det(P −1 ) det(P ) = 1, il teorema di Binet 4.1.8 assicura che det(B −λIn ) =
det(A − λIn ).

La dimostrazione della proposizione 5.1.4 prova, in particolare, che matrici simili danno origine
allo stesso polinomio caratteristico. Questo non è vero per matrici equivalenti, infatti le matrici
(su R)    
1 1 1 1
M1 = e M2 =
1 1 0 0
sono matrici equivalenti, ma risulta det(M1 −λI) = λ(λ−2) mentre invece det(M2 −λI) = λ(λ−1).

Teorema 5.1.5. Sia V uno spazio vettoriale di dimensione nita sul campo K e sia ϕ un endo-
morsmo di V, sia inoltre A = MR (ϕ) la matrice associata a ϕ rispetto ad un ssato riferimento
R di V.

(i) Uno scalare λ0 ∈ K è un autovalore se e solo se λ0 è una radice del polinomio caratteristico
pϕ (λ).

(ii) Un vettore non nullo v ∈ V è un autovettore per ϕ relativo ad un autovalore λ0 se e solo


se le componenti [v]R di v rispetto ad R sono una soluzione non nulla del sistema lineare
omogeneo (A − λ0 In )X = 0.

93
Dimostrazione. Per ogni v∈V si ha che [ϕ(v)]R = A[v]R e quindi, se v è un autovettore per ϕ
relativo all'autovalore λ0 , risulta

A[v]R = [ϕ(v)]R = [λ0 v]R = λ0 [v]R ,

ovvero
(A − λ0 In )[v]R = 0,
pertanto [v]R è soluzione del sistema lineare omogeneo (A − λ0 In )X = 0. Viceversa, se v è un
vettore di V e le sue componenti [v]R sono una soluzione non nulla del sistema (A − λ0 In )X = 0,
allora risulta A[v]R = λ0 [v]R e quindi, essendo anche [ϕ(v)]R = A[v]R , si ha [ϕ(v)]R = λ0 [v]R
nonchè ϕ(v) = λ0 v per l'unicità delle componenti nel ssato riferimento R.
Ora, lo scalare λ0 è un autovalore per ϕ se e solo se esiste un vettore v non nullo in Vϕ (λ0 ) e
quindi, per quanto provato sopra, se e solo se le componenti [v]R sono una soluzione non nulla del
sistema (A − λ0 In )X = 0. Poichè la matrice (A − λ0 In ) è quadrata, il sistema (A − λ0 In )X = 0 ha
soluzioni non nulle se e soltanto se la matrice (A − λ0 In ) è singolare. Dunque λ0 è un autovalore
per ϕ se e solo se λ0 è una radice del polinomio det(A − λIn ).

Gli autovalori di un endomorsmo ϕ sono quindi tutti e soli gli elementi di K che sono soluzioni
dell'equazione caratteristica pϕ (λ) = 0. Il precedente teorema assicura inoltre che l'autospazio
Vϕ (λ0 ), relativo all'autovalore λ0 , è costituito da tutti e soli i vettori le cui componenti sono le
soluzioni del sistema lineare omogeneo (A − λ0 In )X = 0, dunque l'autospazio Vϕ (λ0 ) corrisponde,
attraverso l'isomorsmo coordinato, allo spazio delle soluzioni del sistema lineare omogeno (A −
λ0 In )X = 0. Segue così dalla proposizione 4.5.1 che l'autospazio Vϕ (λ0 ) ha dimensione n − p, dove
p è il rango della matrice (A − λ0 In ) e n è la dimensione di V .
La dimensione dell'autospazio Vϕ (λ0 ) si dice molteplicità geometrica di λ0 ; invece la molteplicità
algebrica di λ0 è la molteplicità di λ0 come radice del polinomio caratteristico. Indicheremo con
mg (λ0 ) la molteplicità geometrica e con ma (λ0 ) la molteplicità algebrica di λ0 ; dunque mg (λ0 ) =
n − p dove p è il rango di (A − λ0 In ). Talvolta si dice che un autovalore λ0 è regolare se ma (λ0 ) =
mg (λ0 ). Si ha inoltre il seguente.

Teorema 5.1.6. Sia V uno spazio vettoriale su un campo K di dimensione nita e sia ϕ un en-
domorsmo di V . Se λ0 è una radice del polinomio caratteristico pϕ (λ), allora mg (λ0 ) ≤ ma (λ0 ).
In particolare, mg (λ0 ) = ma (λ0 ) se λ0 è una radice semplice.
Dimostrazione. Supponiamo sia mg (λ0 ) = t. {v1 , . . . , vt } per Vϕ (λ0 ), il teorema
Fissata una base
3.6.5 assicura che questa si può completare ad un riferimento R = (v1 , . . . , vt , vt+1 , . . . , vn ) di V .
Essendo ϕ(vi ) = λ0 vi per ogni i = 1, . . . , t, la matrice A associata a ϕ nel riferimento R ha la
seguente forma  
λ0 0 . . . 0
 0 λ0 . . . 0 B 
 
A =  ... .
. .. .
.
 
. . . 
 
 0 0 . . . λ0 
O C
dove B t×(n−t), O è la matrice nulla (n−t)×t e C è una matrice quadrata d'ordine
è una matrice
n−t. Si ha allora che det(A−λIn ) = (λ0 −λ)t ·det(C −λIn−t ), e pertanto ma (λ0 ) ≥ t = mg (λ0 ).

94
5.2 Endomorsmi diagonalizzabili
Sia V uno spazio vettoriale di dimensione nita su un campo K. Un endomorsmo ϕ di V si dice
diagonalizzabile (oppure semplice) se V ammette una base di autovettori di ϕ; in tal caso, la base
di autovettori è detta anche base spettrale.

Teorema 5.2.1. Sia V uno spazio vettoriale di dimensione nita sul campo K e sia ϕ un en-
domorsmo di V. Allora ϕ è diagonalizzabile se e solo se esiste un riferimento R di V tale che
A = MR (ϕ) è diagonale.

Dimostrazione. Evidentemente, se V R = (v1 , . . . , vt ) di autovettori di ϕ,


ammette una base
essendo ϕ(vi ) = λi vi (con λi ∈ K),MR (ϕ) è la matrice diagonale che ha sulla
è chiaro che
diagonale principale i λi . Reciprocamente, se esite un riferimento R = (v1 , . . . , vt ) per V tale che
la matrice A = (aij ) associata a ϕ in R è una matrice diagonale, allora per ogni i = 1, . . . , t si ha
che ϕ(vi ) = aii vi e quindi vi è un autovettore relativo all'autovalore aii , come volevamo.

Sia V uno spazio vettoriale di dimensione nita. Abbiamo già visto nella proposizione 5.1.3 che
lo spazio somma W degli autospazi relativi ad un endomorsmo ϕ diV , è una somma diretta; se
poi W =V è evidente che V possiede una base fatta di autovettori e ϕ è dunque diagonalizzabile.
Più in generale sussiste la seguente caratterizzazione.

Teorema 5.2.2. (Teorema Spettrale) Sia V uno spazio vettoriale su un campo K di dimensione
nita e sia ϕ un endomorsmo di V. Sono equivalenti:

(i) ϕ è diagonalizzabile;

(ii) V è somma diretta di autospazi;

(iii) Se λ1 , . . . , λt sono gli autovalori a due a due distinti di ϕ, allora si ha che ma (λi ) = mg (λi )
per ogni i = 1, . . . , t e ma (λ1 ) + · · · + ma (λt ) = dim(V ).

Dimostrazione. (i) ⇒ (ii) Se ϕ è diagonalizzabile allora V ha una base fatta da autovettori di


ϕ; pertanto V è generato da autospazi e quindi è somma diretta di autospazi per la proposizione
5.1.3.
(ii) ⇒ (iii) Siano λ1 , . . . , λt autovalori distinti di ϕ tali che

V = Vϕ (λ1 ) ⊕ · · · ⊕ Vϕ (λt );

in particolare, ssata una base Bi in ciascun autospazio Vϕ (λi ), si ha che l'insieme B = B1 ∪· · ·∪Bt
è una base di V. Poniamo mi = mg (λi ) per ogni i = 1, . . . , t. La matrice A associata a ϕ in B è
evidentemente la matrice diagonale in cui sulla diagonale si ripetono gli autovalori e precisamente
è la matrice diagonale che ha sulla diagonale prima m1 valori uguali a λ1 , poi m2 valori uguali a
λ2 e così via. Ne consegue che

pϕ (λ) = det(A − λI) = (λ1 − λ)m1 (λ2 − λ)m2 · · · (λt − λ)mt (5.1)

così λ1 , . . . , λt sono tutte e sole le radici distinte del polinomio caratteristico, quindi ma (λi ) = mi
per ogni i = 1, ..., t e m1 + · · · + mt = gr(pϕ (λ)) = dim(V ).

95
(iii) ⇒ (i) λ1 , . . . , λt gli autovalori distinti di ϕ di molteplicità m1 , . . . , mt , ri-
Siano
spettivamente. Lo spazio somma W degli autospazi è somma diretta per la proposizione 5.1.3
e quindi segue dalle ipotesi e dalla formula di Grassmann 3.6.15 che W ha dimensione pari a
m1 + · · · + mt = dim(V ); pertanto segue dalla proposizione 6.9 che V = W e così, ssata una base
Bi in ciascun autospazio Vϕ (λi ), l'insieme B = B1 ∪ · · · ∪ Bt è una base per V fatta di autovettori
di ϕ e ϕ è quindi diagonalizzabile.

Se ϕ è un endomorsmo del K-spazio vettoriale V, con V di dimensione n, la condizione (iii)


nel precedente teorema si può esprimere dicendo che il polinomio caratteristico ha n radici in
K ciascuna contata con la propria molteplicità, e se λ1 , . . . , λt sono le radici distinte allora per
ciascuna di esse la molteplicità algebrica coincide con quella geometrica. In maniera alternativa
si potrebbe anche dire che tutte le radici del polinomio caratteristico sono in K e per ciascuna
di esse la molteplicità algebrica coincide con quella geometrica; questo assicura che il polinomio
caratteristico di un endomorsmo diagonalizzabile è completamente riducibile ovvero ha una fat-
3
torizzazione come in (5.1). Dunque, ad esempio, un endomorsmo di Q se ha come polinomio
2

caratteristico −λ(λ − 2) (che ha solo 0 come radice razionale, e poi ha due radici reali − 2 e

2) non è diagonalizzabile.
Quindi, nelle ipotesi del precedente teorema, per stabilire se l'endomorsmo ϕ è diagonaliz-
zabile occorre quindi studiare le radici del polinomio caratteristico: si deve vericare che queste
sono tutte nel campo K e che, per le radici che non sono semplici (si ricordi qui il teorema 5.1.6),
la molteplicità geometrica coincide con la molteplicità algebrica. Inoltre, se ϕ è diagonalizzabile,
una base per V di autovettori per ϕ si ottiene dall'unione tra le basi ssate in ciascun autospazio.

Si noti inne che, come immediata conseguenza del teorema 5.1.6 e del teorema 5.2.2, si ha il
seguente.

Corollario 5.2.3. Sia V uno spazio vettoriale di dimensione nita n sul campo K. Se il polinomio
caratteristico di un endomorsmo ϕ di V ha n radici distinte, allora ϕ è diagonalizzabile.

Esempio 5.2.4. Consideriamo l'endomorsmo

ϕ : (x, y) ∈ R2 −→ (x + 2y, −x − 2y) ∈ R2

e studiamone l'eventuale diagonalizzabilità. Considerando il riferimento canonico R = ((1, 0), (0, 1)),
la matrice che rappresenta ϕ ha per colonne ϕ(1, 0) = (1, −1) e ϕ(0, 1) = (2, −2)
 
1 2
A=
−1 −2
e quindi l'equazione caratteristica

1−λ 2
0 = det(A − λI2 ) = = (1 − λ)(−2 − λ) + 2 = λ2 + λ
−1 −2 − λ

ha 2 radici reali, −1 e 0, sicchè il corollario 5.2.3 assicura che ϕ è diagonalizzabile. Inoltre,


l'autospazio relativo a −1 è lo spazio delle soluzioni del sistema omogeneo (A + I2 )X = 0, cioè del
sistema 
2x + 2y = 0
−x − y = 0

96
dunque Vϕ (−1) = {(x, −x) | x ∈ R} = L[(1, −1)]. Invece Vϕ (0) = ker ϕ è lo spazio delle soluzioni
del sistema lineare AX = 0 ovvero del sistema

x + 2y = 0
−x − 2y = 0

Vϕ (0) = {(−2y, y) | y ∈ R} = L[(−2, 1)].


sicchè Una base di R2 formata da autovettori di ϕ è
dunque {(1, −1), (−2, 1)}.

Esempio 5.2.5. Consideriamo l'endomorsmo

(x, y, z) ∈ R3 −→ (−y, x, z) ∈ R3

che nel riferimento canonico è rappresentato dalla matrice


 
0 −1 0
 1 0 0 
0 0 1

sicchè il polinomio caratteristico, com'è semplice accorgersi, è (1 − λ)(λ2 + 1) il quale ha solo una
radice reale, pertanto l'endomorsmo considerato non è diagonalizzabile per il teorema 5.2.2.

Esempio 5.2.6. Studiamo la diagonalizzabilità del seguente endomorsmo

ϕ : a + bx + cx2 ∈ R2 [x] −→ 3a + 3cx + 3bx2 ∈ R2 [x].

La matrice associata a ϕ nel riferimento canonico R = (1, x, x2 ) ha per colonne le componenti in


R dei vettori ϕ(1) = 3, ϕ(x) = 3x2 e ϕ(x2 ) = 3x e quindi è la matrice
 
3 0 0
A= 0 0 3 
0 3 0

sicchè il polinomio caratteristico è



3−λ 0 0

0 −λ 3 = (3 − λ)(λ2 − 9)

0 3 −λ

che ha per radici 3, con molteplicità algebrica 2, e −3, con molteplicità algebrica 1.
Andiamo ora a determinare gli autospazi. Per determinare Vϕ (3), consideriamo il sistema
lineare omogeneo (A − 3I3 )X = 0, ovvero

−3y + 3z = 0
3y − 3z = 0

{(x, y, y) | x, y ∈ R} il quale ha dimensione 2 essendo {(1, 0, 0), (0, 1, 1)}


il cui spazio delle soluzioni è
−1
una sua base; pertanto una base per Vϕ (3) è costituita dai vettori f1 = cR (1, 0, 0) = 1 e
f2 = c−1 2
R (0, 1, 1) = x + x (dove cR è la coordinazione associata a R). Sicchè mg (3) = ma (3) = 2.
D'altra parte anche mg (−3) = ma (−3) = 1 per il teorema 5.1.6. Pertanto ϕ è diagonalizzabile per

97
il teorema 5.2.2. Per determinare una base per R2 [x] di autovettori di ϕ, ci serve determinare una
base per l'autospazio Vϕ (−3). Lo spazio delle soluzioni del sistema omogeneo (A + 3I3 )X = 0,
ovvero del sistema 
 6x = 0
3y + 3z = 0
3y + 3z = 0

ha per base {(0, 1, −1)}, pertanto una base per Vϕ (−3) è costituita dal vettore f3 = c−1
R (0, 1, −1) =
x − x2 . In denitiva la base di R2 [x] cercata è {f1 , f2 , f3 }.

5.3 Matrici diagonalizzabili


Sia K un campo e sia A una matrice quadrata di ordine n su K. Fissato in Kn il riferimento
canonico R
sappiamo che esiste un (unico) endomorsmo LA : Kn −→ Kn tale che A = MR (LA );
n
in particolare, LA (X) = AX per ogni X ∈ K (per comodità di scrittura, ci si riferirà qui ai vettori
n
di K come vettori colonna). Si possono allora estendere i concetti di autovalore, autovettore e
autospazio relativamente alla matrice A riferendosi all'endomorsmo LA . Un vettore non nullo v
n
di K è detto autovettore di A se esiste uno scalare λ ∈ K, detto autovalore relativo a v , tale che
Av = λv . Si osservi quindi che v è un autovettore per A se e solo se è un autovettore per LA , così
come λ è un autovalore per A se e solo se lo è per LA . Si denisce inne autospazio per A relativo
ad un autovalore λ di A l'insieme

VA (λ) = {v ∈ Kn | Av = λv},

sicchè VA (λ) = VLA (λ).

La matrice A
si dice diagonalizzabile se è simile ad una matrice diagonale. Dunque A è diago-
−1
nalizzabile se e solo se esite P ∈ GLn (K) tale che P AP = D è una matrice diagonale, in tal caso
1 n n
le colonne di P costituiscono un riferimento B = (P , . . . , P ) di K e P rappresenta la matrice
di passaggio da B ad R. Nel riferimento B la matrice associata all'endomrsmo LA è la matrice
diagonale D, quindi LA è diagonalizzabile per il teorema 5.2.1 (e B è la base spettrale). Viceversa
se LA è diagonalizzabile il teorema 5.2.1 e il teorema 4.7.2 assicurano che A è diagonalizzabile.
Pertanto A è diagonalizzabile se e soltanto se LA è diagonalizzabile e conseguentemente il teorema
5.2.2 può essere riletto in questo caso come segue.

Teorema 5.3.1. Sia K un campo e sia A una matrice quadrata di ordine n su K. La matrice A è
diagonalizzabile se e solo se il polinomio caratteristico det(A − λIn ) ha n radici in K (contate con
la loro molteplicità) e, dette λ1 , . . . , λt le sue radici distinte, ogni λi ha per molteplicità algebrica
esattamente dim(VA (λi )).

Sia A è una matrice quadrata d'ordine n su un campo K, e supponiamo che A sia diagonaliz-
zabile. Allora l'endomorsmo LA è diagonalizzabile e Kn ha un riferimento B fatto di autovettori
di LA , e quindi anche di A. Se P è la matrice le cui colonne sono i vettori di B, allora P è la
matrice le cui colonne sono le componenti dei vettori di B nel riferimento canonico R. Quindi P
è la matrice di passaggio dal riferimento B al riferimento R e così il teorema 4.7.2 assicura che
D = P −1 AP è la matrice associata a LA in B . D'altra parte ogni vettore in B è un autovettore per
LA e quindi la matrice associata a LA in B, ovvero la matrice D, è la matrice diagonale sulla cui

98
diagonale principale si trovano gli autovalori di LA (e quindi di A) ripetuti tante volte quant'è la
loro molteplicità. In altre parole, se una matrice A è diagonalizzabile, allora una matrice diagonale
D ad essa simile è la matrice sulla cui diagonale ci sono gli autovalori di A, inoltre la matrice che
rende A simile a D è la matrice le cui colonne sono gli autovettori di A.

Esempio 5.3.2. Studiamo la diagonalizzabilità della matrice su R


 
2 3 0
A= 2 1 0 
0 0 4
Il polinomio caratteristico è

2−λ 3 0

2 1−λ 0 = (λ − 4)(λ2 − 3λ − 4),

0 0 4−λ

esso ha per radici 4 2 e −1 con molteplicità 1. Anchè la matrice A sia diago-


con molteplicità
nalizzabile deve quindi aversi che dim(VA (4)) = 2. Andiamo quindi a determinare una base per
lo spazio delle soluzioni del sistema lineare omogeneo (A − 4I3 )X = 0, ossia

−2x + 3y = 0
2x − 3y = 0

Esso ha per base {(3, 2, 0), (0, 0, 1)}, sicchè lo spazio delle sue soluzioni ha dimensione 2 = ma (4)
e A è quindi diagonalizzabile.
Per determinare una matrice invertibile P che rende A simile ad una matrice diagonale dob-
3
biamo determinare una base per R fatta di autovettori per A. A tal ne, occorre determinare
una base per le soluzioni di (A + I3 )X = 0, ossia del sistema

 3x + 3y = 0
2x + 2y = 0
5z = 0

Una base per le soluzioni di questo sistema è quindi {(1, −1, 0)} e quindi una base di R3 fatta da
autovettori di A è
{(3, 2, 0), (0, 0, 1), (1, −1, 0)}.
Pertanto la matrice P cercata è la matrice che ha questi vettori per colonna
 
3 0 1
 2 0 −1 
0 1 0
è la matrice diagonale simile ad A è
 
4 0 0
D = P −1 AP =  0 4 0 
0 0 −1
ossia è la matrice diagonale che ha sulla diagonale gli autovalori di A ripetuti tante volte quant'è
la loro molteplicità e messi nello stesso ordine con cui abbiamo considerato gli autospazi.

99
Sussiste inne il seguente notevole risultato di cui si omette la dimostrazione.

Teorema 5.3.3. Sia A una matrice quadrata di ordine n sul campo R. Se A è simmetrica, allora
A è diagonalizzabile.

100
Capitolo 6
Geometria analitica

6.1 Sottospazi ani di Rn


Un sottoinsieme A di Rn si dice sottospazio ane (o varietà ane ) se esistono P0 ∈ Rn ed un
sottospazio vettoriale V dello spazio numerico Rn tali che
A = {P ∈ Rn | ∃v ∈ V : P = P0 + v} = {P0 + v : v ∈ V } =: P0 + V .
In tal caso il sottospazio V si dice essere lo spazio direttore (o giacitura, o direzione ) di A e si
indica con D(A); inoltre si dice dimensione di A la dimensione del suo spazio direttore. Si noti
che se A = P0 + D(A) è un sottospazio ane allora
P ∈A se e soltanto se P − P0 ∈ D(A)
e dunque
A = {P ∈ Rn : P − P0 ∈ D(A)}.

Se A = P0 + D(A) è un sottospazio ane di Rn , si ha che P0 = P0 + 0 ∈ A (per questo si usa


dire che "A passa per P "); in particolare, A 6= ∅. Inoltre è semplice provare che A = P + D(A)
n
per ogni P ∈ A e che se fosse A = P0 + W , dove W è un sottospazio vettoriale di R , allora
necessariamente W = D(A). Si noti inoltre che se P1 = P0 + v1 e P2 = P0 + v2 sono in A, allora
v1 , v2 ∈ D(A) e quindi P2 − P1 = v2 − v1 ∈ D(A).
Se A è un sottospazio ane di Rn , i suoi elementi vengono chiamati punti, la locuzione vettore
si conserva per gli elementi della giacitura di A al ne di distinguere gli elementi di A da quelli della
sua giacitura. Si noti che se P è un punto allora {P } = P + {0} e quindi, a meno di identicare
{P } con P , si può concludere che i punti sono i sottospazi ani di dimensione 0; evidentemente
n n n
poi R è l'unico sottospazio ane di dimensione n di R . Un sottospazio ane di R si dice
non banale se la sua dimensione è diversa sia da 0 che da n. Inoltre si dice che un sottospazio
n
ane A di R è una retta ane se esso ha dimensione 1, si dice invece che A è un piano ane
n
se la sua dimensione è 2. Un iperpiano ane di R , invece, è un sottospazio ane di dimensione
n − 1; in particolare, i piani e gli iperpiani coincidono in R3 mentre gli iperpiani di R2 sono le
rette. Nella locuzione comune, e quando non crea ambiguità, si omette il termine ane e si parla
semplicemente di retta, piano o iperpiano.

Si noti che Rn = P + Rn qualsiasi sia P ∈ Rn , n


quindi lo stesso R è (sotto)spazio ane detto
2
spazio ane eulideo di dimensione n; in particolare R è detto piano ane euclideo.

101
Proposizione 6.1.1. Per due punti distinti di Rn passa un'unica retta.

Dimostrazione. Siano A e B Rn , allora B − A 6= 0 e quindi il sottospazio ane


punti distinti di
r = A + L[B − A] è una retta. Evidentemente A ∈ r ed essendo B = A + (B − A) si ha che pure
B ∈ r. Se r0 è un'altra retta che passa per A e per B , allora B − A è un vettore non nullo della
0 0
giacitura di r (che è un sottospazio vettoriale di dimensione 1), pertanto D(r ) = L[B −A] = D(r)
0 0
e così r = A + D(r) = A + D(r ) = r .

Tre punti A, B e C di Rn si dicono allineati se appartengono alla stessa retta, in tal caso la
0
retta r = C + L[A − C] per A e per C coincide con la retta r = C + L[B − C] per B e C ,
0
sicchè L[A − C] = D(r) = D(r ) = L[B − C] e pertanto i vettori A − C e B − C sono dipendenti.
n
Conseguentemente i tre punti A, B e C di R sono non allineati se i vettori A − C e B − C sono
indipendenti.

Proposizione 6.1.2. Per tre punti non allineati di Rn passa un unico piano.

Dimostrazione. Siano A, B e C punti non allineati, sicchè i vettori A − C e B − C sono non nulli
0
e indipendenti. Pertanto π = C + L[A − C, B − C] è un piano. Se π è un altro piano che passa
0
per A, B e C , allora A − C e B − C sono vettori non nulli e indipendenti della giacitura di π (che
0
è un sottospazio vettoriale di dimensione 2), pertanto D(π ) = L[A − C, B − C] = D(π) e così
π = C + D(π) = C + D(π 0 ) = π 0 .

Proposizione 6.1.3. Se una retta r ed un piano π di Rn hanno due punti in comune, allora r è
contenuta in π.
Dimostrazione. Siano A e B r e a π . Allora B − A è un vettore non
due punti distinti comuni ad
nullo comune ai sottospazi vettoriali D(r) e D(π). Avendo D(r) dimensione 1 e D(π) dimensione
2, si ha che D(r) = L[B − A] ed esiste un vettore v ∈ Rn tale che D(π) = L[B − A, v]. In
particolare D(r) ≤ D(π) e così r = A + D(r) ⊆ A + D(π) = π .

Due sottospazi ani A e B di Rn si dicono paralleli se D(A) ≤ D(B) oppure D(B) ≤ D(A).
In particolare, se A e B hanno stessa dimensione, si ha che A e B sono paralleli se e solo se
D(A) = D(B). I sottospazi ani A e B di Rn si dicono incidenti se A ∩ B6= ∅; si dice invece che
A e B sono sghembi se A e B non sono né paralleli né incidenti.
n
Si osservi che se A = P0 + D(A) è un sottospazio ane di R , allora lo spazio direttore D(A)
n
è il sottospazio ane di R passante per l'origine O = (0, . . . , 0) e parallelo ad A.

Se r r0 sono due rette di Rn e r ⊆ r0 , allora r = r0 infatti scelti due punti distinti P e Q di r


ed
0
sia ha che Q − P è un vettore non nullo sia di D(r) che di D(r ) e quindi, essendo questi sottospazi
0 0 0
di dimensione 1, si ha che D(r) = L[Q − P ] = D(r ) e r = P + D(r) = P + D(r ) = r . In
0 0 0
particolare, se r ed r sono rette distinte allora r \ r e r \ r sono insiemi non vuoti. Usiamo questa
osservazione per provare che rette incidenti sono complanari, ovvero contenute in uno stesso piano.

Proposizione 6.1.4. Due rette incidenti e distinte di Rn sono complanari.

102
Dimostrazione. Siano r ed r0 due rette distinte incidenti, e sia A ∈ r ∩ r0 . Poichè r 6= r0 esistono
0 0
B ∈ r \ r e C ∈ r \ r; in particolare i vettori B − A e C − A sono non nulli e indipendenti.
Pertanto π = A + L[B − A, C − A] è un piano e tale piano evidentemente contiene A, B e C .
0
Segue così dalla proposizione 6.1.3 che r, r ⊆ π .

Un altro caso in cui due rette sono complanari, è quando le due rette sono parallele. Sussiste
infatti la seguente.

Proposizione 6.1.5. Due rette distinte e parallele di Rn sono complanari.

Dimostrazione. Siano r0 due rette distinte di Rn , allora esistono P ∈ r \ r0 e Q ∈ r0 \ r. Se


r ed
r e r sono parallele, allora r e r0 hanno stessa giacitura e quindi, posto D(r) = D(r0 ) = L[v],
0

si ha che π = P + L[v, Q − P ] è un piano che contiene sia P che Q = P + (Q − P ). Pertanto


r = P + L[v] ed r0 = Q + L[v] sono contenute in π .
Proposizione 6.1.6. Dati un punto P di Rn e una retta r non passante per P, esiste un'unica
retta per P parallela ad r.
Dimostrazione. La retta P + D(r) passa per P ed è parallela ad r. Ogni altra retta r0 per P
parallela ad r è tale che D(r0 ) = D(r) e quindi r0 = P + D(r0 ) = P + D(r).

6.2 Rappresentazione dei sottospazi ani di Rn


Un riferimento ane di Rn è una coppia R = (O, R) dove O è un punto di Rn detto origine (del
n
sistema di riferimento) e R = (v1 , . . . , vn ) è un riferimento (vettoriale) di R . Quando consideriamo
n
R come spazio euclideo col prodotto scalare standard, il riferimento R = (O, R) si dice riferimento
n
ane ortogonale e monometrico se il riferimento vettoriale R è una base ortonormale di R e
det(MR,C (ιRn )) = 1 (qui C sta ad indicare il riferimento canonico di Rn ).

Fissato un riferimento ane R = (O, R), le coordinate di un punto P di Rn rispetto ad R sono


le componenti in R del vettore α(0, P ) = P −O . In tal caso, se [P −O]R = cR (P −O) = (x1 , . . . , xn )
n
si scrive P ≡R (x1 , . . . , xn ) o semplicemente P (x1 , . . . , xn ); analogamente se v ∈ R e risulta
cR (v) = (l1 , . . . , ln ), si scriverà v =R (l1 , . . . , ln ) o semplicemente v = (l1 , . . . , ln ).

Si noti che se P (x1 , . . . , xn ) e Q(y1 , . . . , yn ) sono due punti, allora

Q − P = (Q − O) + (O − P ) = (Q − O) − (P − O)

e quindi passando alle componenti (cioè applicando l'isomorsmo coordinato cR ) si ottiene che

[Q − P ]R = [Q − O]R − [P − O]R = (y1 − x1 , . . . , yn − xn )

Se R0 = (O0 , R0 ) è un altro riferimento ane e P è il generico punto di Rn , si ha

P − O0 = (P − O) + (O − O0 )

103
per cui, se A = MR,R0 (ιRn ) è la matrice di passaggio dal rifermento (vettoriale) R al riferimento
(vettoriale) R0 , posto P ≡R X , P ≡R0 X 0 e O ≡R0 B e ricordando che X 0 = AX , dalla precedente
relazione e passando alle componenti (cioè applicando l'isomorsmo coordinato cR0 ) ricaviamo

[P − O0 ]R0 = [(P − O)]R0 + [(O − O0 )]R0

ovvero
X 0 = AX + B
La precedente relazione rappresenta un sistema di equazioni che determina il passaggio dal riferi-
0
mento R al riferimento R .

Supponiamo ssato, da qui in avanti, un riferimento ane R = (O, R). Sia r una retta di
R , sicchè esistono un punto P0 (x01 , . . . , x0n ) ed un vettore non nullo v = (l1 , . . . , ln ) tali da aversi
n

D(r) = L[v]. Il vettore non nullo v che genera lo spazio direttore di r viene chiamato anche
vettore direzionale di r; si noti che il vettore direzionale di una retta è un qualsiasi generatore
del suo spazio direttore, e pertanto una retta ha inniti vettori direzionali tutti non nulli e tutti
proporzionali tra loro.
Si ha
r = {P ∈ Rn : P − P0 ∈ D(r)} = {P ∈ Rn : P − P0 = tv, t ∈ R}
e così, passando alle coordinate, se P (x1 , . . . , xn ), si ha che P ∈r se e solo se esite t∈R tale che

(x1 − x01 , . . . , xn − x0n ) = t(l1 , . . . , ln ) (6.1)

e quindi si ottiene per r quella che si chiama una rappresentazione parametrica :



0
 x1 = x1 + t l 1

.
r: . (6.2)
.
 x = x0 + t l

n n n

Viceversa, le soluzioni del precedente sistema rappresentano le coordinate (in R) di tutti e soli i
punti della retta r.
n
Quanto visto per le rette si può ripetere anche per i piani. Sia π un piano di R , sicchè
0 0
esistono un punto P0 (x1 , . . . , xn ) e due vettore non nulli e indipendenti tra loro v = (l1 , . . . , ln ) e
v 0 = (m1 , . . . , mn ) tali da aversi D(r) = L[v, v 0 ].
Si ha

π = {P ∈ Rn : P − P0 ∈ D(π)} = {P ∈ Rn : P − P0 = tv + sv 0 , t, s ∈ R}

e così, passando alle coordinate, se P (x1 , . . . , xn ), si ha che P ∈π se e solo se esitono t, s ∈ R tali


che
(x1 − x01 , . . . , xn − x0n ) = t(l1 , . . . , ln ) + s(m1 , . . . , mn ) (6.3)

e quindi si ottiene una rappresentazione parametrica per π:



0
 x1 = x1 + t l 1 + s m 1

.
π: . (6.4)
.
 x = x0 + t l + s m

n n n n

104
Viceversa, le soluzioni del precedente sistema rappresentano le coordinate (in R) di tutti e soli i
punti del piano π.

Osserviamo che quanto fatto per rette e per piani può essere generalizzato ad ogni sottospazio
n
ane di R , e dunque ogni sottospazio ane possiede una rappresentazione parametrica.

I sottospazi ani hanno anche una rappresentazione cartesiana (o rappresentazione ordinaria),


cioè posso essere descritti in termini di soluzioni di sistemi lineari, come ora vedremo. Osserviamo
che la proposizione 4.5.4 ci dice che l'insieme delle soluzioni di un sistema lineare AX = B è uno
spazio ane di spazio direttore lo spazio delle soluzioni del sistema lineare omogeneo AX = 0 ad
esso associato. Andiamo a mostrare ora come i punti di un sottospazio ane hanno le coordinate
che vericano uno stesso sistema lineare.

Teorema 6.2.1. n
Sia R = (O, R) un riferimento ane di R e sia A un sottospazio ane di
n
dimensione k di R . Allora esistono una matrice A ∈ Mn−k,n (R) con ρ(A) = n−k , ed una matrice
B ∈ Mn−k,1 (R) tale che A è costituito da tutti e soli i punti le cui coordinate in R vericano il
sistema Sol(AX = B) e la giacitura di A è il sottospazio vettoriale c−1
R (Sol(AX = 0)).

Dimostrazione. Siano V
la giacitura di A (quindi dim(V ) = k ) e B = (v1 , . . . , vk ) un riferimento
V ; in particolare, posto cR (vi ) = (α1i , . . . , αni ) per ogni i = 1, . . . , k , si ha che la matrice (le cui
righe sono le componenti in R dei vettori di B )
 
α11 · · · αn1
 α2 · · · α2 
 1 n
M =  .. . . . 
.
. . . 
α1 . . . αnk
k

ha rango k. Inoltre il generico vettore v diRn appartiene ad V se e soltanto se v dipende


linearmente dai vettori v1 , . . . , vk e quindi, posto cR (v) = (x1 , . . . , xn ) e passando alle componenti,
se e solo se la matrice  
α11 · · · αn1
 α2 · · · α2 
 1 n
 .. . . . 
.
M1 =  . . . 
 k
α1 . . . αnk 

x1 · · · xn
ha lo stesso rango di M, k . Applicando quindi il teorema degli orlati 4.3.6, scegliendo un
ovvero
minore non singolare di ordine k in M e imponendo che questo sia un minore fondamentale per
la matrice M1 , riesce un sistema lineare omogeneo Σ : AX = 0 con A ∈ Mn−k,n (R) (cioè Σ è un
sistema omogeneo di n−k equazioni in n incognite) e il sottospazio delle soluzioni di Σ corrisponde
attraverso l'isomorsmo coordinato cR a V (cioè il sistema omogeneo Σ è una rappresentazione
cartesiana di V ). In particolare, essendo dim(V ) = k segue dalla proposizione 4.5.1 che ρ(A) =
n − k.
n
Sia ora P0 ∈ R tale che A = P0 + V . Si ha

P ∈ A ⇔ P − P0 ∈ V ⇔ A[P − P0 ]R = 0
⇔ A([P − O]R − [P0 − O]R ) = 0 ⇔ A[P − O]R = A[P0 − O]R ,
dunque, posto B = A[P0 − O]R , si ottiene che i punti di A sono tutti e soli i punti le cui coordinate
in R appartengono all'insieme Sol(AX = B).

105
Limitandoci al caso di R2 e di R3 , il precedente teorema può essere riformulato come segue.

Corollario 6.2.2. Sia R = (O, R) un riferimento ane.

(i) Un sottoinsieme r di R2 è una retta se e solo se esistono a, b, c ∈ R, con a e b non contempo-


raneamente nulli, tali che

r = {P ≡R (x, y) : ax + by + c = 0}.

(ii) Un sottoinsieme π di R3 è un piano se e solo se esistono a, b, c, d ∈ R, con a, b e c non tutti


nulli, tali che
π = {P ≡R (x, y, z) : ax + by + cz + d = 0}.

(iii) Un sottoinsieme r di R3 è una retta se e solo se esistono dei numeri reali a, b, c, d, a0 , b0 , c0 , d0


tali che  
a b c
ρ 0 0 0 =2
a b c
e
r = {P ≡R (x, y, z) : ax + by + cz + d = 0 e a0 x + b0 y + c0 z + d0 = 0}.

6.3 Geometria ane in R2


2
Supponiamo ssato un un riferimento ane ortogonale e monometrico R = (O, R) di R .
2
In R gli unici sottospazi ani non banali sono le rette. Considerata una retta r , il corolla-
rio 6.2.2 assicura che r può essere rappresentata in forma cartesiana come

r : ax + by + c = 0 (6.5)

dove a, b, c ∈ R con a e b non contemporaneamente nulli. D'altra parte se P0 (x0 , y0 ) è un pun-


to di r e se v = (l, m) è un vettore direzionale di r, la retta r può essere pure rappresentata
parametricamente come 
x = x0 + t l
r: (6.6)
y = y0 + t m
Si noti che la condizione (6.6) è equivalente a richiedere che

 
x − x0 y − y 0
det = 0, (6.7)
l m

e sviluppando questo determinante si ottiene una equazione dello stesso tipo di (6.5). Questo
mostra come dalla rappresentazione parametrica (6.6) può essere ricavata una rappresentazione
cartesiana dello stesso tipo di (6.5). In realtà anche dalla rappresentazione cartesiana si può
dedurre una rappresentazione parametrica. Infatti se la retta r è rappresentata come in (6.5),
allora il vettore v = (−b, a) è un vettore direzionale di r (perchè (−b, a) è una soluzione non nulla

106
dell'equazione ax + by = 0 che per il teorema 6.2.1 rappresenta la giacitura di r) ed r può essere
rappresentata parametricamente come

x = − ac − t b
 
x = −t b
r: oppure r:
y =0+t a y = − cb

a dierenza che sia a 6= 0 (prima rappresentazione) oppure a = 0 (seconda rappresentazione); si


noti esplicitamente che in questo secondo caso b 6= 0 essendo v un vettore non nullo.

Esempio 6.3.1. Scrivere l'equazione della retta r passante per il punto (−2, 1) e di vettore
direzionale (4, 3).
In forma parametrica, la retta r è rappresentata dalle equazioni

x = −2 + 4 t
y = 1 + 3t

con t ∈ R. La forma cartesiana si ottiene dalla relazione (6.7) che in questo caso è

 
x+2 y−1
det =0
4 3

da cui si ricava
3(x + 2) − 4(y − 1) = 0
nonchè
3x − 4y + 10 = 0.
Si noti che dalla forma parametrica a quella ordinaria si può pervenire pure ricavando il parametro
t da una delle due equazioni e sostituendolo nell'altra.

Esempio 6.3.2. Scrivere l'equazione della retta r passante per i punti P (1, −2) e Q(0, 2).
Dalla dimostrazione della proposizione 6.1.1 si evince che la retta per P e Q è la retta per P
di vettore direzionale P − Q = (1, −4), sicchè la retta cercata in forma parametrica è descritta
dalle equazioni 
x=1+t
y = −2 − 4 t
e in forma cartesiana è descritta dall'equazione −4x − 1(y − 2) = 0, ovvero 4x + y − 2 = 0.

2
Il prossimo risultato assicura che due rette di R non parallele sono incidenti in un punto;
2
in particolare in R non esistono rette sghembe. Si noti inoltre che, poichè la proposizione 6.1.5
n
assicura che rette parallele sono e distinte di R sono complanari, ne consegue che due rette distinte
n
di R sono parallele se e solo se sono complanari e non incidenti.

Proposizione 6.3.3. Siano r : ax + by + c = 0 ed r0 : a0 x + b0 y + c0 = 0 due rette di R2 . Si ha:


 
a b
(i) r ed r0 sono parallele se e solo se det = 0.
a0 b 0

(ii) Se r ed r0 non sono parallele, allora la loro intersezione r ∩ r0 è un punto.

107
Dimostrazione. Un vettore direzionale di r è v = (−b, a), mentre un vettore direzionale di r0 è
v = (−b , a ). Poichè D(r) = L[v] e D(r ) = L[v 0 ] si ottiene che le rette r ed r0 sono parallele se e
0 0 0 0
0 0 0
solo se i vettori v e v sono dipendenti (e quindi proporzionali cioè se (a, b) = λ(a , b ) per qualche
0
λ ∈ R). In altri termini r ed r sono parallele se e solo se
 
a b
det 0 0 = 0.
a b

In particolare, quindi, se r ed r0 non sono parallele, allora il sistema


ax + by + c = 0
a0 x + b 0 y + c 0 = 0

è di Cramer; poichè tale sistema rappresenta l'intersezione tra le rette r ed r0 si ottiene quindi che
r ∩ r0 è un punto.
Esempio 6.3.4. Scrivere l'equazione cartesiana della retta r per P0 (2, −3) parallela alla retta
s : 5x − 2y + 3 = 0.
s è v = (2, 5), sicchè r : 5(x−2)−2(y+3) = 0 ovvero r : 5x−2y−16 = 0.
Il vettore direzionale di
Un altro modo per determinare r è il seguente. Dovendo essere parallela ad s, il vettore
direzionale di r è lo stesso di quello di s e quindi l'equazione di r è del tipo 5x − 2y + λ = 0 per
un opportuno λ. Il valore di λ si può poi ottenere imponendo che P0 appartenga a r , quindi deve
essere 10 + 6 + λ = 0 e pertanto ritroviamo che r : 5x − 2y − 16 = 0.

6.4 Geometria ane in R3


3
Supponiamo ssato un un riferimento ane ortogonale e monometrico R = (O, R) di R .
3
Prima di arontare la descrizione della geometria ane di R , è necessario introdurre un'altra
3
operazione. Se u = (u1 , u2 , u3 ) e v = (v1 , v2 , v3 ) sono due vettori di R si dice prodotto vettoriale
di u e v il vettore
u × v = (u2 v3 − u3 v2 , u3 v1 − u1 v3 , u1 v2 − u2 v1 );
in altri termini le componenti del vettore u×v (rispetto al rifermento R) sono date dai minori di
ordine 2, presi a segni alterni, della matrice

 
u1 u2 u3
.
v1 v2 v3

Segue che u × v = 0 se e solo se u e v sono dipendenti; in particolare, 0 × u = u × 0 = 0 qualsiasi


n
sia il vettore u di R . Si potrebbe provare che il prodotto vettoriale è bilineare, ovvero qualsiasi
3
siano i vettori u, v, w ∈ R e qualsiasi sia lo scalare α ∈ R risulta

(u + v) × w = (u × w) + (v × w), u × (v + w) = (u × v) + (u × w)

e
(αu) × v = α(u × v) = u × (αv),

108
ed è antisimmetrico (o alternante) cioè comunque si considerano due vettori u e v di R3 si ha che

u × v = −v × u.

Ancora, se u ev sono vettori di R3 (visto come spazio euclideo col prodotto scalare standard)
allora il vettore u × v è ortogonale sia ad u che v ed inoltre

ku × vk = kuk kvk sin(u,ˆv).

Passiamo ora a descrivere le proprietà geometriche di R3 . I sottospazi ani non banali di R3


sono le rette e i piani. Per il corollario 6.2.2, i piani di R3 possono essere rappresentati in forma
cartesiana mediante equazioni lineari in tre incognite del tipo

π : ax + by + cz + d = 0 (6.8)

dovea, b, c, d ∈ R e con a, b e c non contemporaneamente nulli. Ma sappiamo pure che i piani hanno
una rappresentazione parametrica. Considerato il piano π passante per il punto P0 (x0 , y0 , z0 ) e
0 0 0 0 0
supposto D(π) = L[v, v ] con v = (l, m, n) e v = (l , m , n ) vettori non nulli e indipendenti, allora
π può essere rappresentato parametricamente come

 x = x0 + t l + s l 0
π: y = y0 + t m + s m 0 (6.9)
z = z0 + t n + s n0

Si noti che la (6.9) equivale a richiedere che

 
x − x0 y − y0 z − z0
ρ l m n  = 2,
0 0
l m n0

ovvero che  
x − x0 y − y0 z − z0
det  l m n  = 0;
l0 m0 n0
sviluppando quest'ultimo determinante si ottiene che π è l'insieme dei punti P (x, y, z) che verica
una equazione lineare in tre incognite come la (6.8). Dunque si può passare dalla rappresentazione
parametrica alla rappresentazione cartesiana. Viceversa, supponiamo di avere una rappresenta-
zione per il piano π come in (6.8). Allora il teorema 6.2.1 assicura che lo spazio direttore D(π) è
rappresentato dall'equazione lineare omogenea ax + by + cz = 0, ed è semplice accorgersi che sono
soluzioni di tale equazione i vettori

v = (−b, a, 0), v 0 = (−c, 0, a) e v 00 = (0, −c, b).

D'altra parte a, b e c non sono tutti nulli e quindi sicuramente due vettori tra v, v 0 e v 00 sono non
nulli e indipendenti tra loro (cioè costituiscono una base per D(π)), sicchè la scelta di quei due
vettori e la scelta di una soluzione qualsiasi P0 dell'equazione (6.8) ci pemettono di scrivere (in
modo analogo a quanto fatto prima) una rappresentazione parametrica per π dello stesso tipo di
(6.9).

109
Esempio 6.4.1. Scrivere l'equazione del piano π passante per il punto P0 (4, 3, −2) e di giaciura
L[v, v 0 ] dove v = (1, −1, 0) 0
e v = (2, 1, 3).

La rappresentazione parametrica di π si ottiene subito ed è



 x = 4 + s + 2t
π: y =3−s+t
z = −2 + 3t

mentre la rappresentazione cartesiana si ottiene facilmente da


 
x−4 y−3 z+2
det  1 −1 0 =0
2 1 3

ed è x + y − z − 9 = 0. Si noti che, tenendo di riferimento la rappresentazione parametrica


di π , ricavando s = x − 4 − 2t dalla prima equazione e sostituendo nella seconda si ottiene
t = y − 3 + s = y − 3 + x − 4 − 2t, da questa si ricava 3t = x + y − 7 che sostituita nella terza
equazione permette di ottenere x + y + z − 9 = 0 ovvero l'equazione cartesiana del piano π .

Esempio 6.4.2. Scrivere l'equazione del piano π per i punti A(1, 0, 1), B(2, 0, 0) e C(2, 1, 3).
La dimostrazione della proposizione 6.1.2 assicura che π è il piano per A la cui giacitura è
il sottospazio generato dai vettori B − A = (1, 0, −1) e C − A = (1, 1, 2), quindi è il piano di
equazioni parametriche 
 x=1+s+t
π: y=t
z = 1 − s + 2t

Mentre da  
x−1 y z−1
det  1 0 −1  = 0
1 1 2
si ricava che l'equazione cartesiana di π è x − 3y + z − 2 = 0.

Considerato il piano
π : ax + by + cz + d = 0,
la giacitura di π
D(π) = {(x, y, z) ∈ R3 : ax + by + cz = 0}
è un sottospazio di dimensione 2 di R3 . Posto

n = (a, b, c)

si ha che n è un vettore non nullo di D(π)⊥ ; d'altra parte dim D(π)⊥ = 1 per il teorema 3.9.15 e
quindi
D(π)⊥ = L[n].
Il vettore n = (a, b, c) (non nullo) ha un ruolo fondamentale nello studio dei piani e viene detto
il vettore normale di π ; evidentemente, ogni vettore non nullo proporzionale ad n è anch'esso un
vettore normale del piano.

110
Due piani π e π0 sono paralleli se e solo se D(π) = D(π 0 ). Un criterio di parallelismo tra piani
è fornito dal seguente risultato dal quale discende pure, in particolare, che due piani dello spazio
sono sempre paralleli oppure incidenti in una retta.

Proposizione 6.4.3. Siano π : ax + by + cz + d = 0 e π 0 : a0 x + b 0 y + c 0 z + d 0 = 0 due piani di


3
R . Allora:

(i) π e π0 sono paralleli se e soltanto se i loro vettori normali sono proporzionali, e quindi se e
 
a b c
soltanto se ρ 0 0 0 = 1.
a b c

(ii) Se π e π0 sono non paralleli allora la loro intersezione π ∩ π0 è una retta.

Dimostrazione. Siano
n = (a, b, c) e n0 = (a0 , b0 , c0 )
i vettori normali diπ e π 0 , rispettivamente. Si ha che π e π 0 sono paralleli se e solo se (per
0 ⊥
denizione) D(π) = D(π ) e quindi se e solo se D(π) = D(π 0 )⊥ . Essendo D(π)⊥ = L[n] e
0 ⊥ 0 0
D(π ) = L[n ] si ottiene la (i). Se invece π e π sono non paralleli, allora (i) assicura che
 
a b c
ρ 0 0 0 =2
a b c

e pertanto 
0 ax + by + cz + d = 0
π∩π :
a0 x + b0 y + c0 z + d0 = 0
è una retta in accordo col corollario 6.2.2, e così anche la (ii) è provata.

Esempio 6.4.4. 0
Considerati i piani π : x − 4y + 3z + 1 = 0, π : 2x − 8y + 6z = 0 si ha che i
0 0 0
vettori normali di π, π sono n = (1, −4, 3), n = (2, −8, 6), rispettivamente. Essendo n = 2n i
0
piani π e π sono paralleli. Inoltre essendo (1, −4, 3, 1) e (2, −8, 6, 0) non proporzionali, i piani π
00
e π non sono coincidenti.

Esempio 6.4.5. Scrivere l'equazione del piano α per P (1, 0, 1) parallelo a π : x − 4y + 3z + 6 = 0.


Il vettore normale di π n = (1, −4, 3). Dovendo α essere parallelo a π , il vettore noramale
è
di α deve essere proporzionale ad n e quindi α ha equazione del tipo x − 4y + 3z + d = 0. D'altra
parte la condizione P ∈ α assicura che 1 + 3 + d = 0, sicchè d = −4 e α : x − 4y + 3z − 4 = 0.

Consideriamo ora una retta r. Il corollario 6.2.2 ci assicura che r possiede una rappresentazione
cartesiana del tipo 
ax + by + cz + d = 0
r: (6.10)
a0 x + b0 y + c0 z + d0 = 0
dove a, b, c, d, a0 , b0 , c0 , d0 ∈ R sono tali che

 
a b c
ρ 0 0 0 =2 (6.11)
a b c

111
(cioè r è intersezione di due piani non paralleli). In tal caso la giacitura di r è rappresentata dal
sistema omogeneo 
ax + by + cz = 0
a0 x + b 0 y + c 0 z = 0
e si può facilmente vericare che una soluzione di tale sistema è data dal prodotto vettoriale

v = (a, b, c) × (a0 , b0 , c0 );

dunque v ∈ D(r). D'altra parte la condizione (6.11) assicura che v non è il vettore nullo, pertanto
v è un vettore direzionale di r. In particolare, noto un vettore direzionale v e scelta una soluzione
non nulla P0 del sistema (6.10) si può ottenere una rappresentazione parametrica di r. Infatti
se P0 (x0 , y0 , z0 ) e v = (l, m, n) è un vettore direzionale di r, allora r può essere rappresentata
parametricamente come 
 x = x0 + t l
r: y = y0 + t m (6.12)
z = z0 + t n

Si noti che la (6.12) equivale a richiedere che la matrice

 
x − x0 y − y0 z − z0
l m n

ha rango 1 e quindi nella seconda riga di tale matrice (che è non nulla) deve esistere un minore di
ordine 1, ad esempio (l), che è fondamentale. Pertanto gli orlati di (l) sono singolari ovvero

  
x − x 0 y − y0
 det =0


 l m 
.
x − x0 z − z0
 det =0


l n

Questo sistema fornisce una rappresentazione cartesiana di r come in (6.10).

Esempio 6.4.6. Scrivere in forma parametrica la retta


x − y + 2z = 2
r:
2x + 3y − z = 4

E' semplice accorgersi che P0 (1, 1, 1) è un punto di r. D'altra parte un vettore direzionale di r è

il vettore v = (1, −1, 2) × (2, 3, −1) = (−5, 5, 5). Quindi anche (−1, 1, 1) è un vettore direzionale
di r e pertanto in forma parametrica si ha

 x=1−t
r: y =1+t
z =1+t

112
Esempio 6.4.7. Scrivere l'equazione della retta r per i punti A(3, 5, −1) e B(2, 1, 0).
Dalla dimostrazione della proposizione 6.1.1 si evince che un vettore direzionale della retta r
è il vettore A − B = (1, 4, −1). Quindi parametricamente la retta cercata è rappresentata da


 x=3+t
r: y = 5 + 4t
z = −1 − t

Per ottenere la rappresentazione cartesiana ricaviamo t da una delle equazioni e sostituiamo nelle
altre. Ricavando t dalla terza, si ha t = −1 − z e così

x+z−2=0
r:
y + 4z − 1 = 0

Due rette r ed r0 0
sono parallele se e solo se D(r) = D(r ) e quindi se e solo se il vettore
0 2
direzionale di r ed il vettore direzionale di r sono proporzionali. Abbiamo visto che in R due
rette non paralle sono incidenti (cioè la loro intersezione è non vuota), in particolare quindi rette
3
complanari sono sempre parallele o incidenti. Questo non accade in R , infatti le rette
 
 x=0  x=1
0
r: y=t e r : y=0 (6.13)
z=0 z=t
 

non sono nè parallele nè incidenti, e pertano sono sghembe. Si noti che poichè la proposizione
6.3.3 assicura che rette complanari sono sempre parallele o incidenti, e rette parallele o incidenti
sono complanari per la propozione 6.1.5 e la proposiozione 6.1.4, ne consegue che due rette sono
sghembe se e soltanto se sono non complanari.

Esempio 6.4.8. Consideriamo le rette



 x=2+t  
0 x+y−2=0 00 2y + z = 0
r: y = −t r : r :
x−y−z−1=0 2x − z − 3 = 0
z = 1 + 2t

0 0
Un vettore direzionale di r è v = (1, −1, 2),
mentre un vettore direzionale di r è v = (1, 1, 0) ×
00 00
(1, −1, −1) = (−1, 1, −2) e un vettore direzionale di r è il vettore v = (0, 2, 1) × (2, 0, −1) =
(−2, 2, −4). Essendo v = −v 0 , le rette r ed r0 sono parallele; inoltre, il punto A(2, 0, 1) è un punto
0
comune ad r ed r e pertanto queste due rette sono impropriamente parallele (cioè coincidono).
00 00 0 00
D'altra parte è anche v = −2v e pertanto anche r ed r , e conseguentemente r e r , sono parallele.
Studiando poi il sistema 

 x+y−2=0
x−y−z−1=0


 2y + z = 0
2x − z − 3 = 0

00
ci si accorge che le rette r e r sono propriamente parallele, infatti tale sistema è incompatibile e
00
quindi r e r non hanno punti in comune.

113
Esempio 6.4.9. Assegnata la retta


x+y−2=0
r:
x−y−z−1=0

determinare la retta per A(1, 2, −3) parallela ad r.


v = (1, 1, 0) × (1, −1, −1) = (−1, 1, −2) è un
Il vettore vettore direzionale di r, sicchè la retta
per A parallela ad r ha equazioni parametriche:

 x=1−t
y =2+t
z = −3 − 2t

Ricavando t dalla prima e sostituendo nelle altre, otteniamo la sua forma cartesiana:


x+y−3=0
x−y−z−2=0

Il prossimo risultato fornisce un criterio per riconoscere la reciproca posizione di due rette nello
spazio.

Proposizione 6.4.10. Siano


 
ax + by + cz + d = 0 0 αx + βy + γz + δ = 0
r: e r :
a0 x + b0 y + c0 z + d0 = 0 α0 x + β 0 y + γ 0 z + δ 0 = 0

due rette di R3 , e si considerino le matrici


   
a b c a b c d
 a0 b 0 c 0   a0 b 0 c 0 d 0 
A=
α β γ 
 e A0 = 
α β γ δ  .

α0 β 0 γ 0 α0 β 0 γ 0 δ 0

Si ha:

(i) r ed r0 sono parallele se e solo se ρ(A) = 2;

(ii) r ed r0 sono incidenti e distinte se e solo se ρ(A) = ρ(A0 ) = 3;

(iii) r ed r0 sono sghembe se e solo se det A0 6= 0.

Dimostrazione. Consideriamo le rette


 
ax + by + cz = 0 αx + βy + γz = 0
r0 : e r00 :
a0 x + b 0 y + c 0 z = 0 α0 x + β 0 y + γ 0 z = 0

114
passanti per il punto O = (0, 0, 0) e parallele, rispettivamente, ad r ed r0 ; quindi r0 = D(r0 ) e
r00 = D(r00 ). Si ha che r ed r0 sono parallele se e solo se r0 = D(r0 ) = D(r00 ) = r00 e quindi se e solo
se il sistema 

 ax + by + cz = 0
 0
a x + b0 y + c 0 z = 0

 αx + βy + γz = 0
 0
α x + β 0y + γ 0z = 0
ha ∞1 soluzioni, ovvero se e solo se ρ(A) = 2 (cfr. teorema 4.5.1).
Invece r ed r0 sono incidenti e distinte se e solo se il sistema


 ax + by + cz + d = 0
 0
a x + b0 y + c 0 z + d 0 = 0

 αx + βy + γz + δ = 0
 0
α x + β 0y + γ 0z + δ0 = 0

è determinato (si noti che se due rette hanno più di un punto in comune, allora la proposizione
6.1.1 assicura che le due rette coincidono) e quindi, per il teorema di Rouchè-Capelli, e solo se
ρ(A) = ρ(A0 ) = 3.
0
Inne, se r ed r sono non parallele allora (i) assicura che ρ(A) ≥ 3, e quindi deve essere
ρ(A) = 3; se poi r ed r0 sono anche non incidenti segue da (ii) che deve essere ρ(A0 ) = 4. Pertanto
r ed r0 sono sghembe se e solo se det(A0 ) 6= 0.

Consideriamo ora una

retta r di vettore direzionale v = (l, m, n)

ed un
piano π : ax + by + cz + d = 0 di vettore normale n = (a, b, c).
La retta r ed il piano π D(r) ≤ D(π) (si noti esplicitamente che non
sono paralleli se e solo se
può essere il contrario perchè D(π) ha dimensione 2 e D(r) ha dimensione 1). Ma se D(r) ≤
D(π) allora v ⊥ n essendo D(π)⊥ = L[n]; viceversa ogni vettore ortogonale ad n appartiene a
(D(π)⊥ )⊥ = D(π) (cfr. teorema 3.9.15) e pertanto otteniamo che

r e π sono paralleli ⇔v ed n sono ortogonali ⇔ al + bm + cn = 0.

Si ha poi che in R3 una retta ed un piano sono sempre paralleli oppure incidenti in un punto,
infatti sussiste la seguente.

Proposizione 6.4.11. Siano r una retta e π un piano di R3 . Se r e π sono non paralleli, allora
l'intersezione tra r e π è un punto.

Dimostrazione. Sia

 x = x0 + t l
r: y = y0 + t m e π : ax + by + cz + d = 0
z = z0 + t n

115
e supponiamo che r ed s siano non paralleli. Allora

al + bm + cn 6= 0. (6.14)

I punti comuni ad r e π si ottengono in corrispondenza delle soluzioni dell'equazione

a(x0 + lt) + b(y0 + mt) + c(z0 + nt) + d = 0.

Tale equazione può essere riscritta come

(al + bm + cn)t + (ax0 + by0 + cz0 + d) = 0

sicchè, tenendo presente (6.14), si ricava per essa un'unica soluzione che chiaramente corrisponde
ad un unico punto di intersezione tra r e π.

Esempio 6.4.12. Il piano π : 2x − y − 3z + 5 = 0 e la retta



x+y−1=0
y+z−2=0

sono paralleli. Infatti, il vettore normale di π è n = (2, −1, 3), mentre un vettore direzionale della
retta è v = (1, 1, 0) × (0, 1, 1) = (1, −1, 1) ed è v · n = 0.

Si dice fascio di piani un insieme di piani che sono o paralleli tra loro (in tal caso si parla di
fascio improprio ) oppure passano tutti per una stessa retta (in tal caso di parla di fascio proprio
e la retta comune a tutti i piani del fascio si dice asse del fascio ). Un fascio di piani (proprio o
improprio che sia) è individuato a partire da due suoi piani distinti, sussiste infatti il seguente
risultato.

Teorema 6.4.13. Siano π : ax + by + cz + d = 0 e π 0 : a0 x + b0 y + c0 z + d0 = 0 piani distinti di


uno stesso fascio di piani F . Allora ogni altro piano di F è descritto da una equazione del tipo

`(ax + by + cz + d) + m(a0 x + b0 y + c0 z + d0 ) = 0

dove (`, m) ∈ R2 \ {(0, 0)}.

Esempio 6.4.14. Rappresentare il piano π passante per il punto A(1, −2, −2) e per la retta


x − 2y + z + 1 = 0
r:
2x + y − z − 3 = 0

Il piano π è un piano del fascio di asse r e quindi può essere rappresentato da un'equazione
del tipo
λ(x − 2y + z + 1) + µ(2x + y − z − 3) = 0.
Imponendo il passaggio per A si ottiene 4λ − µ = 0, così prendendo ad esempio λ=1 e µ=4
otteniamo π : 9x + 2y − 3z − 11 = 0.

116
Esempio 6.4.15. Determinare la retta r per P (1, 2, 3) complanare con

x+y−3=0
s:
2x + z − 2 = 0
e parallela al piano π : 2x + y − z + 1 = 0.
La retta r è contenuta nel piano α per P ed s e nel piano β per P parallelo a π , e quindi
r = α ∩ β . Il piano α appartiene al fascio di asse s e quindi la sua equazione è del tipo α :
λ(x + y − 3) + µ(2x + z − 2) = 0 e dovendo passare per P è tale da aversi λ(0) + µ(3) = 0, sicchè
α : x + y − 3 = 0. Un piano parallelo a π , invece, ha equazione del tipo 2x + y − z + d = 0 e
imponendo il passaggio di un tale piano per P si ricava 2 + 2 − 3 + d = 0, ovvero d = −1 e pertanto
β : 2x + y − z − 1 = 0. Così la retta cercata è

x+y−3=0
r:
2x + y − z − 1 = 0

6.5 Questioni metriche


3
Supponiamo ssato un un riferimento ane ortogonale e monometrico R = (O, R) di R .
0 n
Due rette r ed r di R , la prima di vettore direzionale v e la seconda di vettore direzionale
v , si dicono ortogonali se v ⊥ v 0 (e quindi se v · v 0 = 0). Si noti le rette r ed r0 se ortogonali
0

non possono essere pure parallele (cfr. proposizone 3.9.10) e quindi segue dalla proposizione 6.3.3
2 3
che rette ortogonali del piano R sono sempre incidenti. L'esempio (6.13) mostra invece che in R
rette ortogonali possono essere sghembe.

Esempio 6.5.1. Consideriamo le rette


  
 x=2−t  x = 1 + 2t  x=1−t
0 00
r: y = 2t r : y = −3 + t r : y = 1 + 2t
z = −1 + 3t z=4 z =2+t
  

0 0
Allora un vettore direzionale di r è v = (−1, 2, 3), un vettore direzionale di r è v = (2, 1, 0)
00 00 0 0 00 0
mentre un vettore parallelo a r è v = (−1, 2, 1). Essendo v · v = 0 e v · v = 0, le rette r e r
0 00 00 00
sono ortogonali così come anche r e r sono ortogonali. Invece, v · v = 8 6= 0 e quindi r e r non
00 00
sono ortogonali. D'altra parte v e v non sono proporzionali e quindi r e r non sono neanche
00
parallele. Scrivendo la rappresentazione cartesiana di r ed r
 
2x + y − 4 = 0 00 x+z−3=0
r: e r :
3x + z − 5 = 0 y − 2z + 3 = 0
è semplice poi accorgersi che il sistema


 2x + y − 4 = 0
3x + z − 5 = 0


 x+z−3=0
y − 2z + 3 = 0

è incompatibile, sicchè r ∩ r00 = ∅ e quindi r e r00 sono sghembe.

117
Esempio 6.5.2. Assegnata la retta

x+y−2=0
r:
x−y−z−1=0
determinare inoltre due rette per l'origine ortogonali ad r.
v = (1, 1, 0) × (1, −1, −1) = (−1, 1, −2) è un vettore direzionale di r. Un vettore di
Il vettore
componenti (l, m, n) è ortogonale a v se e solo se risulta 0 = (−1, 1, −2) · (l, m, n) = −l + m − 2n.
Pertanto due rette per l'origine ortogonali a r sono
 
 x = −2t  x = −t
y=0 y = 3t
z=t z = 2t
 

Due piani π e π0 Rn , il primo di vettore normale n e il secondo di vettore normale n0 , si


di
0 0
dicono ortogonali se n ⊥ n (e quindi se n · n = 0). Come nel caso delle rette, due piani ortogonali
non possono essere pure paralleli (cfr. proposizone 3.9.10) e quindi due piani ortogonali sono
sempre incidenti in una retta.

Esempio 6.5.3. Considerati i piani π : x − 4y + 3z + 6 = 0 eπ 0 : x + y + z − 2 = 0, si ha che i


0 0 0 0
vettori normali di π e π sono n = (1, −4, 3) e n = (1, 1, 1). Essendo n · n = 0 si ha che π e π
sono ortogonali.

Esempio 6.5.4. Considerato il piano π : 2x + 3y − 5z + 1 = 0 si rappresentino due piani per


l'origine ortogonali a π.
Un piano per l'origine ha equazione del tipo ax + by + cz = 0 e un tale piano è ortogonale a π se
e solo se 0 = (a, b, c) · (2, 3, −5) = 2a + 3b − 5c. Scelte due soluzioni non nulle di questa equazione,
ad esempio, (5, 0, 2) e (1, 1, 1) possiamo concludere che due piani per l'origine e ortogonali a π
sono 5x + 2z = 0 e x + y + z = 0.

Una retta r ed un piano π di Rn , la prima di vettore direzionale v e il secondo di vettore normale


n, si dicono ortogonali se v ed n sono vettori dipendenti (e quindi proporzionali). Poichè ancora
una volta la proposizone 3.9.10 assicura che una retta e un piano non possono essere ortogonali e
3
paralleli, si ottiene come conseguenza della proposizione 6.4.11 che in R se una retta e un piano
sono ortogonali allora sono incidenti.

Esempio 6.5.5. Considerato il punto A(1, 1, −2) ed il piano π : 2x + z − 4 = 0, determinare la


retta r per A ortogonale a π.
Essendo n = (2, 0, 1) ortogonale a π, r ha equazioni
la retta parametriche

 x = 1 + 2t
y=1
z = −2 + t

118
Esempio 6.5.6. Considerato il punto A(−1, 1, −1) e la retta

 x=1+t
y = −2t
z = −2 + t

Determinare il piano per A ortogonale ad r.


Il piano cercato, dovendo essere ortogonale ad r, deve avere vettore normale proporzionale al
vettore direzionale di r π : x − 2y + z + d = 0. Poichè poi deve
e quindi ha equazione del tipo
essere A ∈ π , si ricava che −1 − 2 − 1 + d = 0, ovvero d = 4 e pertanto è π : x − 2y + z + 4 = 0.

Esempio 6.5.7. Considerata la retta



x+y−1=0
r:
3x − z = 0

ed il punto A(1, −2, 3) 6∈ r, determinare la retta s passante per A che sia ortogonale ed incidente
r.
La retta s π per A ortogonale ad r, e anche nel piano π 0 per A e per
è contenuta nel piano
r. Un vettore direzionale di r è v = (1, 1, 0) × (3, 0, −1) = (−1, 1, −3) il piano π ha equazione
del tipo −1x + y − 3z + d = 0. Dovendo essere A ∈ π , deve essere d = 1 + 2 + 9 = 12 e quindi
π : x − y + 3z − 12 = 0. Invece il piano π 0 appartiene al fascio di asse r e coincide col piano
3x − z = 0 perchè questo piano contiene ovviamente r e contiene anche A. Pertanto la retta
cercata è 
x − y + 3z − 12 = 0
s:
3x − z = 0

Teorema 6.5.8. Se r ed r0 sono dure rette sghembe di R3 allora esiste un'unica retta p ortogonale
0
ed incidente sia r che r (tale retta p prende il nome di comune perpendicolare ad r ed r0 ).
Dimostrazione. Supponiamo siano r = P + L[v] er0 = Q + L[w] due rette sghembe di R3 , siano
poi Pt = P + tv (con t ∈ R) il generico punto di r e Qs = Q + sw (con s ∈ R) il generico punto
dir0 . Poichè r ed r0 non sono incidenti si ha che qualsiasi siano i numeri reali t ed s i punti Pt e
Qs sono distinti, quindi Qs − Pt è sempre un vettore non nullo e pertanto

p(t, s) = Pt + L[Qs − Pt ]

è una retta ane (la retta per Pt e Qs ) che evidentemente interseca sia r che r0 . Inoltre, la retta
p(t, s) è ortogonale ad r ed r0 se il suo vettore direzionale

u = Qs − Pt = sw − tv + (Q − P )

è ortogonale sia al vettore direzionale v di r


che al vettore direzionale w di r0 . Quindi p(t, s)
0
risulterà essere una comune perpendicolare ad r ed r se

u·v =0
u·w =0

119
ovvero se 
(w · v)s − (v · v)t + (Q − P ) · v = 0
(6.15)
(w · w)s − (v · w)t + (Q − P ) · w = 0
Quest'ultimo sistema lineare (nelle incognite t ed s) ha la matrice dei coecienti che ha determi-
nante pari a
2
d = −(v · w)2 + (w · w)(v · v) = −(v · w)2 + kvk2 kv 0 k .

Poichè r ed r0 non sono parallele, i vettori v e w sono non proporzionali (e quindi sono indipen-
denti), e così la disuguaglianza di Cauchy-Schwarz (cfr. proposizione 3.9.6) assicura che d 6= 0.
Segue che il sistema (6.15) è di Cramer e pertanto esso ha un'unica soluzione (t0 , s0 ). Allora
dall'esistenza ed unicità della soluzione, segue che la retta p = p(t0 , s0 ) esiste ed è unica: essa
0
è la comune perpendicolare ad r ed r . I punti Pt0 e Qs0 , che si determinano in corrispondenza
dell'unica soluzione (t0 , s0 ) del sistema (6.15), si dicono essere i punti a minima distanza delle
rette r ed r0 .

Esempio 6.5.9. Si considerino le rette sghembe


 
 x=2−t  x=1−t
0
r: y = 2t e r : y = 1 + 2t
z = −1 + 3t z =2+t
 

Presi i generici puntiP (2 − t, 2t, −1 + 3t) su r e Q(1 − t0 , 1 + 2t0 , 2 + t0 ) su r0 , il vettore P − Q =


(−t + t + 1, 2t − 2t − 1, 3t − t0 − 3) è ortogonale sia ad r che r0 se e solo se (P − Q) · (−1, 2, 3) =
0 0
6 0 3
0 = (P − Q) · (−1, 2, 1) e quindi se e solo
 se t =5 e t = 5 . In corrispondenza di questi valori si
4 12 13 2 11 13
ottengono i punti a minima distanza P , ,
5 5 5
e Q , ,
5 5 5
. La comune perpendicolare alle
0
rette r ed r è la retta per P e Q e quindi è la retta rappresentata in forma parametrica dalle
sequenti equazioni  2
 x= 5
+ 25 t
11
y= 5
+ 15 t
13
z=

5

Siano ora A = (a1 , . . . , an ) e B = (b1 , . . . , bn ) due punti di Rn . Si dice distanza tra A e B il


modulo del vettore B − A = (b1 − a1 , . . . , bn − an ):

p
d(A, B) = kB − Ak = (b1 − a1 )2 + · · · + (bn − an )2 .

Se poi A1 e A2 sono due sottospazi ani di Rn si denisce distanza tra A1 e A2 il numero reale
positivo
d(A1 , A2 ) = inf{d(P, Q) : P ∈ A1 e Q ∈ A 2 };
in particolare, se A1 ∩ A1 6= ∅ allora d(A1 , A2 ) = 0.

In R2 considerato un punto P0 (x0 , y0 ) ed una retta r : ax + by + c = 0 si prova che

|ax0 + by0 + c|
d(P0 , r) = √ .
a2 + b 2

120
0 0 0
Invece considerare due rette r ed r si ha che d(r, r ) = 0 se r ed r sono incidenti, altrimenti r ed
0 0 0
r sono parallele e si ottiene che d(r, r ) = d(P, r ) qualsiasi sia il punto P di r.

Consideriamo ora nel dettaglio il caso di R3 . Considerato un punto P0 (x0 , y0 , z0 ) ed il piano


π : ax + by + cz + d = 0 si potrebbe provare che risulta

|ax0 + by0 + cz0 + d|


d(P0 , π) = √ .
a2 + b 2 + c 2

Esempio 6.5.10. Considerati il piano π : 2x − y + z − 4 = 0 ed il punto P (1, 3, −1), si ha che

|2 · 1 − 1 · 3 + 1 · (−1) − 4| 6 √
d(P, π) = p = √ = 6.
22 + (−1)2 + 12 6

Se invece consideriamo un punto P0 ed una retta r, per calcolare la distanza d(P0 , r) si deter-
mina il piano π per P0 ortogonale ad r ed il punto di intersezione P tra r e π , e si ottiene  come
sarebbe possibile provare  che d(P0 , r) = d(P0 , P ).


x−y+3=0
Esempio 6.5.11. Considerati il punto P (1, 2, 0) e la retta r: , il piano per P
4x − z + 9 = 0
ortogonale ad r ha equazione π : x + y + 4z − 3 = 0 ed interseca r nel punto H(−2, 1, 1), così

d(P, r) = d(P, H) = 11.

Consideriamo ora il caso di due rette r ed r0 . Se r ed r0 sono parallele (e distinte) allora scelto
un quasiasi punto P di r si può provare che d(r, r0 ) = d(P, r0 ). Se le rette invece sono incidenti
allora la loro distanza è 0. Inne se le due rette sono sghembe, si può provare che la distanza tra
le due rette coincide con la distanza tra i punti a minima distanza che si determinano come nella
dimostrazione del teorema 6.5.8.

Esempio 6.5.12. Si considerino le rette sghembe


 
 x=2−t  x=1−t
0
r: y = 2t e r : y = 1 + 2t
z = −1 + 3t z =2+t
 

   
4 12 13
E' stato visto nell'esercizio 6.5.9 che i punti a minima distanza sono P , ,
5 5 5
e Q 52 , 11
5 5
, 13
.

5 0
La cui distanza tra P e Q è e rappresenta la distanza di r da r .
5

Inne se consideriamo due piani π e π 0 , si ha che d(π, π 0 ) = 0 se i due piani sono incidenti, se
invece sono paralleli risulta essere d(π, π 0 ) = d(P, π 0 ) qualsiasi sia il punto P ∈ π .

121
Capitolo 7
Le coniche

7.1 Ampliamento del piano ane euclideo


Consideriamo R2 e in esso il riferimento ane R = (O, R), e andiamo a rivedere R2 come sot-
2
toinsieme di C . Scegliamo di chiamare la coppia (a, b) di numeri complessi come punto reale se
(a, b) ∈ R oppure punto immaginario se (a, b) ∈ C2 \ R2 . Quindi i punti reali possono essere
2
2
ancora pensati come alle coordinate in R di un punto ane di R , mentre i punti immaginari non
possono essere materializzati e devono essere considerati come astratti. In analogia con le rette
2 2
ani di R , chiamiamo poi retta r di C l'insieme dei punti, reali o immaginari, che vericano una
equazione lineare in due incognite a coecienti complessi

r : ax + by + c = 0 con a, b, c ∈ C e (a, b) 6= (0, 0)


2
e chiamiamo la coppia (−b, a) direzione di r.
Diciamo poi che due rette di C sono parallele
2
se hanno la stessa direzione; il parallelismo tra rette di C è una relazione di equivalenza. Se
r è una retta di C2 , la classe di equivalenza [r]k di r rispetto al parallelismo prende il nome
di punto improprio o anche punto all'innito (della retta r); l'insieme r ∪ [r]k prende il nome
di retta ampliata. L'insieme dei punti impropri prende il nome di retta impropria e si denota
con r∞ . Posto P = C2 ∪ r∞ (qui i punti di C2 verranno detti punti propri, per distinguerli
da quelli impropri) e detto L l'insieme delle rette ampliate, la coppia (P, L) - che indicheremo
2
semplicemente con - prende il nome di ampliamento proiettivo e complesso di R . Si noti che
P
2
in P tutte le rette (ampliate) sono incidenti, infatti rette incidenti di C determinano chiaramente
2
rette ampliate incidenti, mentre rette parallele di C hanno la stessa direzione e quindi determinano
rette ampliate incidenti.
Consideriamo ora l'insieme C3 \ {(0, 0, 0)} e in esso deniamo una relazione binaria ponendo

(x1 , x2 , x3 ) ∝ (y1 , y2 , y3 ) ⇔ ∃ρ ∈ C \ {0} : (x1 , x2 , x3 ) = ρ(y1 , y2 , y3 )

La relazione ∝ è chiaramente una relazione di equivalenza. Si ha che per ogni (x1 , x2 , x3 ) ∈


C3 \ {(0, 0, 0)} risulta
[(x1 , x2 , x3 )]∝ = {ρ(x1 , x2 , x3 ) : ρ ∈ C \ {0}}.
L'insieme quoziente P2 (C) (cioè l'insieme delle classi di equivalenza) individuato da ∝, prende il
nome di piano proiettivo complesso.
Vogliamo ora associare ad ogni punto di P una terna di coordinate, che prendono il nome di
coordinate omogenee e che sono un elemento di P2 (C). Inziamo col considerare un punto improprio

122
P∞ = [r]k , e supposto sia r : ax + by + c = 0, scegliamo di associare al punto improprio P∞ la
classe di equivalenza [(−b, a, 0)]∝ che prende il nome di coordinate omogenee di P∞ . Notiamo che
non possiamo associare a P∞ la terna (−b, a, 0) perchè rette parallele individuano lo stesso punto
improprio e la direzione di una retta è chiaramente denita a meno di un fattore di proporzionalità
(complesso) non nullo. Impropriamente però identicheremo la classe [(−b, a, 0)]∝ con la terna
(−b, a, 0), quindi diremo che le coordinate omogenee di P∞ sono (−b, a, 0) (intendendo che sono
(−b, a, 0) e da tutte le terne ad essa proporzionali mendiante un fattore
l'insieme fatto dalla terna
di proporzionalità complesso non nullo). Se invece consideriamo un punto proprio P = (x, y) di
C2 , ad esso associamo come coordinate omogenee la classe di equivalenza [(x, y, 1)]∝ . Anche in
questo caso identicheremo la classe [(x, y, 1)]∝ con la terna (x, y, 1), e diremo che le coordinate
omogenee di P sono (x, y, 1) (intendendo (x, y, 1) e tutte le terne ad essa proporzionali mendiante
un fattore di proporzionalità complesso non nullo). Osserviamo esplicitamente che nessun punto
di P può avere (0, 0, 0) come coordinate omogenee.
[(x1 , x2 , x3 )]∝ ∈ P2 (C) si può pensare come alle coordinate omogenee
Si noti che ogni elemento
di (un unico) punto di P. x3 6= 0, posto x = xx13 e y = xx23 , allora [(x1 , x2 , x3 )]∝ sono
Infatti se
le coordinate omogenee del punto proprio (x, y); mentre se x3 = 0 allora [(x1 , x2 , 0)]∝ sono le
coordinate del punto improprio della retta x2 x − x1 y = 0.
In denitiva, quindi, le coordinate omogenee deniscono una corrispondenza biunivoca tra i
punti (propri o impropri) dell'ampliamento proiettivo e complesso P e le terne di numeri complessi
(x1 , x2 , x3 ), esclula la terna (0, 0, 0), denite a meno di un fattore di proporzionalità complesso e
non nullo (quindi una corrispondenza biunivoca di P in P2 (C)

Da quanto detto appare poi evidente che se una retta propria r


ax + by + c = 0, ha equazione
le coordinate omogenee dei punti di r ax1 + bx2 + cx3 = 0; d'altra
vericano l'equazione omogenea
parte anche il punto improprio di r , avendo coordinate omogenee (−b, a, 0), verica tale equazione
omogenea. Osserviamo che la precendente equazione omogenea assume signicato anche quanto
a=b=0 e c 6= 0, infatti l'equazione x3 = 0 è vericata dalle coordinate omogenee di ogni punto
improprio. In denitiva, le rette di P si rappresentano in coordinate omogenee mediante equazioni
omogenee del tipo
ax1 + bx2 + cx3 = 0 con (a, b, c) ∈ C3 r {(0, 0, 0)}
ed, in particolare, l'equazione
r∞ : x3 = 0
si può interpretare come l'equazione della retta impropria.
Vediamo ora com'è la forma parametrica di una retta in coordinate omogenee. Siano P e Q
due punti distinti di coordinate omogenee, rispettivamente, (y1 , y2 , y3 ) e (z1 , z2 , z3 ), e supponiamo
che la retta per essi ha equazione ax1 + bx2 + cx3 = 0. Dunque deve essere


ay1 + by2 + cy3 = 0
(7.1)
az1 + bz2 + cz3 = 0

Poichè P e Q sono punti distinti, le loro coordinate omogenee sono non proporzionali e quindi il
sistema (7.1), visto come sistema nelle incognite a, b e c, ha soluzioni che dipendono da 1 parametro
e che sono i minori di ordine 2 presi a segni alterni della matrice

 
y1 y2 y3
z1 z2 z3

123
Ne consegue che un punto di coordinate omogenee (x1 , x2 , x3 ) appartiene alla retta per P e Q se
e solo se
x1 x2 x3

y1 y2 y3 = 0

z1 z2 z3
ovvero se e solo se (x1 , x2 , x3 ) è combinazione lineare di (y1 , y2 , y3 ) e (z1 , z2 , z3 ) (essendo questi
ultimi due vettori linearmente indipendenti). Pertanto al variare di (λ, µ) ∈ C \ {(0, 0)}, le
equazioni 
 x1 = λy1 + µz1
x2 = λy2 + µz2
x3 = λy3 + µz3

descrivono tutti i punti della retta per P e Q, e si dirà, brevemente, che tale retta si rappresenta
in forma parametrica come xi = λyi + µzi (con i = 1, 2, 3).

7.2 Le coniche
Consideriamo d'ora in avanti l'ampliamento proiettivo complesso P costruito come descritto in
2
precedenza a patire dal piano ane euclideo R e da un suo ssato riferimento ane ortogonale
e monometrico R = (O, R).

Si dice conica il luogo γ dei punti le cui coordinate omogenee vericano un'equazione omogenea
di secondo grado a coecienti complessi (non tutti nulli) del tipo:

a11 x21 + 2a12 x1 x2 + a22 x22 + 2a13 x1 x3 + 2a23 x2 x3 + a33 x23 = 0. (7.2)

La matrice simmetrica

 
a11 a12 a13
A =  a12 a22 a23 
a13 a23 a33
si dice associata alla conica γ. Se la matrice A è reale, o proporzionale ad una matrice reale, la
conica γ si dice reale. Si noti che l'equazione (7.2) si può scrivere anche come

3
X
aij xi xj = 0 (7.3)
i,j=1

oppure in forma matriciale come

 
x1
X t AX = 0 dove X = x2  .
 (7.4)
x3

Se γ è una conica denita della (7.2) e P è un punto proprio di coordinate (xP , yP ) e coordinate
omogenee (xP , yP , 1), allora P ∈ γ se e solo se la coppia (xP , yP ) è soluzione della seguente
equazione (non omogenea) di secondo grado

a11 x2 + 2a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = 0. (7.5)

124
che si dice equazione non omogenea associata a γ. In pratica, il luogo descritto dalla (7.5) coincide
con la parte propria del luogo descritto in coordinate omogenee dalla (7.2). Chiaramente però γ
possiede anche dei punti impropri che si possono studiare solo in coordinate omogenee mediante
la (7.2), tali punti hanno la terza coordinata omogenea nulla e cosituiscono l'intersezione tra γ e
la retta impropria.

Osserviamo che una conica reale può non possedere punti reali, oppure possedere un solo punto
reale, o anche inniti punti reali, però possiede sempre inniti punti immaginari. Ad esempio
γ : x21 + x22 + x23 = 0 è una conica reale ma non ha punti reali perchè l'unica soluzione reale
dell'equazione omogenea che la denisce è la terna (0, 0, 0) che non rappresenta nessun punto di
P.

Esempio 7.2.1. Se r : ax1 + bx2 + cx3 = 0 ed s : a0 x 1 + b 0 x 2 + c 0 x 3 = 0 sono rette, allora la loro


unione è una conica perchè è descritta da un'equazione omogenea di secondo grado del tipo

(ax1 + bx2 + cx3 )(a0 x1 + b0 x2 + c0 x3 ) = 0.

Esempio 7.2.2. Se F0 e F 00 sono due punti reali del piano, e k


è una costante reale positiva mag-
0
giore della distanza tra F e F 00 , il luogo geometrico γ 0
dei punti
00
P
tali che d(P, F ) + d(P, F ) = k
2 2 2 2 2 2
può essere rappresentato in un opportuno riferimento da un'equazione del tipo b x + a y = a b
(con a e b numeri reali positivi). In coordinate omogenee l'equazione

b2 x21 + a2 x22 − a2 b2 x23 = 0

rappresenta una conica chiamata ellisse la cui parte reale coincide con γ. Nel caso paricolare in
cuiF 0 = F 00 , la conica che si ottiene è detta circonferenza.

Esempio 7.2.3. Se F0 F 00
sono due punti reali e distinti del piano, e k è una costante reale
e
0 00 0
positiva minore della distanza tra F e F , il luogo geometrico dei punti P tali che d(P, F ) +
d(P, F 00 ) = k corrisponde, in un opportuno riferimento, alla parte reale di una conica che in
coordinate omogenee ha equazione del tipo

b2 x21 − a2 x22 − a2 b2 x23 = 0

(con a e b numeri reali positivi) ed è chiamata iperbole.

Esempio 7.2.4. Siano r una retta reale ed F un punto reale non appartenente a r. Il luogo
geometrico dei punti P tali che d(P, F ) = d(P, r) corrisponde, in un opportuno riferimento, alla
parte reale di una conica che in coordinate omogenee ha equazione del tipo

x22 − 2px1 x3 = 0

(con p numero reale positivo) ed è chiamata parabola.

125
7.3 Classicazione delle coniche
Nello studio delle coniche, il primo passo consiste nello stabilire quanti punti possono essere comuni
ad una conica ed una retta. Dal prossimo risultato segue, in particolare, che se una retta ha in
comune con una conica (almeno) tre punti allora la retta è contenuta nella conica.

Teorema 7.3.1. Siano r una retta e γ una conica di P. Se r non è contenuta in γ, allora r∩γ
consiste in uno oppure due punti.

Dimostrazione. Supponiamo che la retta r sia descritta (nel riferimento ssato) in forma parame-
2
trica dalle equazioni xi = λyi + µzi , con i = 1, 2, 3, al variare di (λ, µ) in C \ {(0, 0)}. Se γ è la
conica di matrice associata A = (aij ) descritta dalla (7.2), l'intersezione tra r è γ è descritta da

3
X
ai,j (λyi + µzi )(λyj + µzj ) = 0,
i,j=1

ovvero dalla seguente equazione omogenea di secondo grado:

3
X  3
X  3
X 
aij yi yj λ2 + 2 aij yi zj λµ + aij zi zj µ2 = 0. (7.6)
i,j=1 i,j=1 i,j=1

le cui soluzioni non nulle forniscono le coordinate omogenee dei punti di intersezione tra r e γ. Ma
la (7.6) o è sempre vericata, e in tal caso r è contentuta in γ, oppure ha sempre due soluzioni
non nulle eventualmente coincidenti. Poichè in corrispondenza di queste soluzioni si individuano
i punti di r che appartengono anche a γ, il teorema è provato.

In relazione al precedente teorema, osserviamo esplicitamente che se la conica γ è reale e anche


la retta r è reale, allora l'equazione (7.6) ha coecienti reali e quindi se la retta r non è contenuta
in γ, allora r∩γ consiste in un punto reale oppure in due punti distinti che sono reali oppure
immaginari.

Siano γ una conica e r r ∩ γ sia un solo punto P , allora r si dice tangente γ


una retta. Nel caso
in P; se invece r∩γ r si dice secante γ . Se r non è né secante né tangente γ
sono due punti allora
allora il teorema 7.3.1 assicura che r ∩ γ = r e in tal caso si potrebbe provare che γ = r oppure γ
è l'unione di r e di un'altra retta. Una conica γ si dice degenere (o riducibile) se γ è unione di due
rette distinte o coincidenti, dette componenti della conica. Inoltre, se le componenti sono distinte
si dice che la conica è semplicemente degenere, se invece coincidono la conica si dice doppiamende
degenere. Diversamente la conica γ si dice non degenere (oppure irriducibile).

Al ne di caratterizzare le coniche degeneri, introduciamo il seguente concetto. Un punto P si


dice punto doppio per la conica γ se ogni retta per P è contenuta in γ oppure è tangente γ in P.
In particolare, se P è doppio per γ allora P ∈ γ.
Teorema 7.3.2. Una conica è degenere se e solo se ha almeno un punto doppio.

Dimostrazione. Se γ è una conica semplicemente degenere, allora il punto comune alle sue com-
ponenti è ovviamente doppio; mentre se è doppiamente degenere allora ogni suo punto è doppio.
Viceversa, supponiamo che la conica γ sia dotata di un punto doppio P . Sia Q un altro punto di
γ distinto da P e sia r la retta per P e Q, così r è contenuta in γ essendo P doppio e quindi la
conica γ, contenendo una retta, è necessariamente degenere.

126
Per i punti doppi sussite il seguente.

Teorema 7.3.3. Sia γ : X t AX = 0 una conica. Un punto P è doppio per γ se e solo se le


coordinate omogenee di P sono una soluzione del sistema lineare omogeneo AX = 0.
Si ottiene pertanto la seguente caratterizzazione.

Corollario 7.3.4. Una conica γ : X t AX = 0 è degenere se e solo se det(A) = 0.


Dimostrazione. Per il teorema 7.3.2 la conica γ è degenere se e solo se ha almeno un punto doppio
e quindi, per il teorema 7.3.3, se e solo se il sistema lineare omogeneo AX = 0 ha almeno una
soluzione non nulla ovvero se e solo se det(A) = 0.

Proposizione 7.3.5. Sia γ una conica degenere di matrice associata A.


(i) Se ρ(A) = 2, allora γ è unione di due rette distinte.

(ii) Se ρ(A) = 1, allora γ è una retta (contata due volte).

Se γ è una conica non degenere, allora γ non contiene rette e quindi il teorema 7.3.1 assicura
che l'intersezione di γ con la retta impropria r∞ (che è una retta reale) consiste in 1 punto reale
oppure in 2 punti che possono essere reali o immaginari. Si dice che γ è

(1) una ellisse se possiede 2 punti impropri immaginari (e coniugati);

(2) una iperbole se possiede 2 punti impropri reali (e distinti);

(3) una parabola se possiede 1 punto improprio (reale).

Teorema 7.3.6. Sia γ una conica reale non degenere di matrice associata A. Allora

( un0 ellisse ⇐⇒ det(A33 ) > 0


γ è una parabola ⇐⇒ det(A33 ) = 0
un0 iperbole ⇐⇒ det(A33 ) < 0

Dimostrazione. La retta impropria r∞ ha equazione x3 = 0 e quindi, se γ è descritta dalla (7.2),


i punti impropri di γ si ottengono in corrispondenza delle soluzioni del sistema:

a11 x21 + 2a12 x1 x2 + a22 x22 + 2a13 x1 x3 + 2a23 x2 x3 + a33 x23 = 0
x3 = 0
ossia del sistema 
a11 x21 + 2a12 x1 x2 + a22 x22 = 0
x3 = 0
La prima equazione di quest'ultimo sistema è un'equazione omogenea di secondo grado a
coecienti reali e non identicamente nulla (essendo r∞ 6⊆ γ ), essa ha soluzioni reali e distinte,
oppure reali e coincidenti, oppure immaginarie e coniugate a seconda che

∆ = a212 − a11 a22

sia maggiore, uguale o minore di 0. Essendo ∆ = − det(A33 ), il teorema è provato.

127
L'unione di due rette, ellisse, iperbole e parabola sono dunque gli unici tipi di coniche che
si possono avere. Si precisa inoltre che potrebbe provare che la caratterizzazione delle coniche
qui presentata e basata sulla matrice associata alla conica è indipendente dal riferimento ssato.
Sussiste inne il seguente risultato.

Teorema 7.3.7. E' sempre possibile individuare un riferimento ane ortogonale monometrico in
2
cui la parte propria di una conica reale è descritta da un'equazione che è del tipo y + 2α x = 0
2 2
(con α 6= 0) oppure del tipo λx + µy + δ = 0.

Quando l'equazione (non omogenea) della conica è scritta nella forma espressa nell'enunciato
del precedente teorema, si dice che l'equazione della conica è in forma canonica.

7.4 Polarità denita da una conica


Sia γ una conica di matrice associata A. Siano P e Q due punti di coordinate omogenee Yt =
(y1 , y2 , y3 ) e Z t = (z1 , z2 , z3 ), rispettivamente. Si dice che P e Q sono coniugati (rispetto a γ ), e si
scrive P ∼γ Q, se
3
X
t
Y AZ = aij yi zj = 0.
i,j=1

Evidentemente se è P ∼γ Q allora è anche Q ∼γ P , mentre P ∼γ P se e solo se P ∈ γ.

Proposizione 7.4.1. Un punto P è doppio per la conica γ se e solo se P è coniugato rispetto a


γ ad ogni punto di P.
Dimostrazione. Se P è un punto doppio, per il teorema 7.3.3 le sue coordinate omogenee sono
una soluzione non nulla del sistema lineare omogeneo AX = 0 e quindi è chiaro che P è coniugato
ad ogni altro punto. Viceversa, se P è coniugato ad ogni punto, lo è in particolare ai punti di
coordinate omogenee (1, 0, 0), (0, 1, 0) e (0, 0, 1) e quindi, dette (y1 , y2 , y3 ) le coordinate omogenee
del punto P , risulta a11 y1 + a12 y2 + a12 y3 = 0, a12 y1 + a22 y2 + a23 y3 = 0 e a13 y1 + a23 y2 + a33 y3 = 0.
Pertanto le coordinate omogenee di P sono soluzioni del sistema AX = 0 e dunque P è doppio
per il teorema 7.3.3.

Se P ∈ P, si dice luogo polare determinato da P il seguente insieme di punti

ω(P ) = {Q ∈ P | P ∼γ Q} ⊆ P.

La simmetria di A assicura la validità del seguente:

Teorema 7.4.2. (Teorema di Reciprocità) Se P e Q sono punti di P, allora P ∈ ω(Q) se e


solo se Q ∈ ω(P ).
Poichè il teorema 7.3.3 assicura che le soluzioni non nulle del sistema AX = 0 sono tutte e
sole le coordinate omogenee dei punti doppi di γ, se P è un punto doppio per γ risulta essere

128
ω(P ) = P. Se invece P non è un punto doppio per γ , allora le coordinate omogenee (y1 , y2 , y3 ) di
P non sono una soluzione del sistema AX = 0 e quindi l'equazione

(a11 y1 + a12 y2 + a13 y3 )x1 +


+ (a12 y1 + a22 y2 + a23 y3 )x2 + (a13 y1 + a23 y2 + a33 y3 )x3 = 0

rappresenta una retta. Ma la precendente equazione ha per soluzioni tutte e sole le coordinate
omogenee dei punti che sono in ω(P ), quindi se P non è doppio allora ω(P ) è una retta, detta
retta polare (o semplicemente polare) di P.
Evidentemente un punto appartiene alla propria polare se e solo se appartiene alla conica, si
ha inoltre la seguente.

Proposizione 7.4.3. Siano γ una conica non degenere e P un punto di γ. Allora la polare ω(P )
è la retta tangente γ in P.
Dimostrazione. Sia A = (aij ) la matrice associata a γ e siano (y1 , y2 , y3 ) le coordinate omogenee
del punto P. Poichè γ è non degenere, il punto P non è un punto doppio e quindi il luogo polare
2
ω(P ) è una retta. Sia r : xi = λyi + µzi (con i = 1, 2, 3 e (λ, µ) ∈ C \ {(0, 0)}) la retta tangente
γ in P . Posto
3
X 3
X 3
X
a= aij yi yj , b= aij yi zj , c= aij zi zj ,
i,j=1 i,j=1 i,j=1

si ha che a=0 perchè P ∈ γ, e dunque l'equazione che descrive l'intersezione tra r e γ è

2bλµ + cµ2 = 0.

Dovendo essere P l'unico punto in comune tra r e γ, risulta c 6= 0 e la precendente equazione,


che ha in queste ipotesi sempre due soluzioni non nulle, deve avere quindi una soluzione doppia.
Pertanto deve essere b = 0, così i punti di r vericano l'equazione

3
X
(a1j y1 + a2j y2 + a3j y3 )xj = 0.
j=1

ovvero r = ω(P ) come volevamo.

Supponiamo ora che γ sia non degenere, sicchè γ è priva di punti doppi per il teorema 7.3.2 e
quindi
ω : P ∈ P −→ ω(P ) ∈ L
è un'applicazione di P nell'insieme L delle sue rette; tale applicazione si chiama polarità associata
a γ.
Si potrebbe provare che la polarità associata ad una conica non degenere è un'applicazione
biettiva. Dunque se γ è una conica non degenere, comunque si ssa una retta r in L, esiste un
unico punto P tale che r = ω(P ), quest'unico punto P si dice polo di r.

Nel seguito, usando il concetto di polarità denita da una conica non degenere, si vogliono
ritrovare i concetti di asintoti, assi, centro e vertici di una conica. Supponiamo d'ora in poi che γ
sia una conica non degenere di matrice associata A = (aij ); sia poi P∞ (l, m, 0) un qualsiasi punto
improprio.

129
Poichè γ è non degenere, ω(P∞ ) è una retta e precisamente la retta, che indichiamo qui con d,
di equazione
3
X
d: (l a1j + m a2j )xj = 0
j=1

o anche
d : l(a11 x1 + a12 x2 + a13 x3 ) + m(a12 x1 + a22 x2 + a23 x3 ) = 0, (7.7)

Se d = ω(P∞ ) è una retta propria, si dice che essa è un diametro coniugato alla direzione
P∞ (l, m, 0). Se poi il punto improprio P∞ (l, m, 0) appartiene a γ, allora il diametro d ad esso
coniugato è detto asintoto.

Al variare del punto improprio P∞ (l, m, 0) si ottengono tutti i diametri che, evidentemente,
sono le rette del fascio di centro il punto C le cui coordinate sono le soluzioni del sistema


a11 x1 + a12 x2 + a13 x3 = 0
(7.8)
a12 x1 + a22 x2 + a23 x3 = 0

Il punto C è detto centro della conica γ. Si noti che il centro di γ è il polo della retta impropria.
Infatti, se si considerano i punti impropri X∞ (1, 0, 0) ed Y∞ (0, 1, 0), risulta

ω(X∞ ) : a11 x1 + a12 x2 + a13 x3 = 0 e ω(Y∞ ) : a12 x1 + a22 x2 + a23 x3 = 0.

Poichè X∞ , Y∞ ∈ r∞ , se C è il polo della retta impropria, il teorema di reciprocità 7.4.2 assicura


che C ∈ ω(X∞ ) ∩ ω(Y∞ ). Pertanto ω(X∞ ) ∩ ω(Y∞ ) = {C} e le coordinate di C sono soluzione per
il sistema (7.8), così C è il centro di γ .

Se γ è un'ellisse o un'iperbole, allora per il teorema 7.3.6 è det(A33 ) 6= 0 e così il sistema (7.8)
è di Cramer se visto come sistema nelle incognite x1 e x2 ; pertanto γ ha per centro un punto
proprio. Nel caso in cui invece γ sia una parabola, allora risulta det(A33 ) = 0 ed il fascio dei
diametri è quindi un fascio improprio: tutti i diametri sono paralleli ed hanno direzione data
dal punto improprio della parabola. Per questo motivo, l'ellisse e l'iperbole sono dette coniche a
centro.

Si osservi che un'iperbole ha due punti impropri reali ognuno dei quali, congiunto col centro,
determina un asintoto della conica, pertanto un'iperbole ha due asintoti (che dunque sono le polari
dei suoi due punti impropri) e si dice iperbole equilatera un'iperbole che ha i due asintoti che sono
ortogonali tra loro.

Un diametro che risulta essere ortogonale alla direzione ad esso coniugata si dice asse; inoltre,
un punto proprio si dice vertice se appartiene all'intersezione di un asse con la conica. Consideriamo
il diametro d coniugato alla direzione P∞ (l, m, 0) che ha equazione (7.7), e osserviamo che esso ha
per direzione il punto improprio

(−(l a12 + m a22 ), l a11 + m a12 , 0),

quindi d è un asse se e solo se la sua direzione è ortogonale a (l, m, 0) e quindi se e solo se

a12 l2 − (a11 − a22 )lm − a12 m2 = 0. (7.9)

130
Una soluzione non nulla dell'equazione (7.9) fornisce quindi la direzione di un asse della conica.
Un asse r della conica non degenere γ è sempre un asse di simmetria per γ , ovvero se P è un
0 0
punto di γ e P è il punto sulla retta per P ortogonale a r tale che d(P, r) = d(P , r), allora anche
0
P è un punto di γ .

Si potrebbe provare che se γ è una parabola, allora γ ha un unico asse. Se invece γ è una
conica a centro, invece, allora γ ha due assi ortogonali tra loro ed inoltre, se ω(P∞ ) è un asse e
Q∞ è la sua direzione, allora ω(Q∞ ) è l'asse di γ ortogonale a ω(P∞ ). Se si suppone poi che γ
sia reale, si ha che gli assi sono reali e si prova inoltre che una parabola reale ha un unico vertice
reale, un'ellisse reale (che non sia una circonferenza) ha quattro vertici reali mentre un'iperbole
invece ha due vertici reali e due immaginari coniugati. Si ha inoltre:

Proposizione 7.4.4. Sia γ una conica non degenere e sia V un suo vertice. Allora la polare
ω(V ) è la retta tangente γ in V ed è una retta ortogonale all'asse di γ che passa per V.
Dimostrazione. Per la proposizione 7.4.3, la polare ω(V ) è la retta tangente γ in V . Sia d l'asse
di γ a cui V appartiene e sia P∞ il punto improprio tale che d = ω(P∞ ). Il teorema di reciprocità
7.4.2 assicura che P∞ ∈ ω(V ), pertanto ω(V ) ha per direzione P∞ e quindi è ortogonale a d.

7.4.1 Esempi

Sia γ una conica reale non degenere. Se γ è una conica a centro (cioè ellisse o iperbole), allora γ
ha due assi ortogonali tra loro: essi permettono di individuare un riferimento ane, che ha per
origine il centro della conica, in cui l'equazione della conica è in forma canonica. Se invece γ è una
parabola, allora γ ha un solo asse d ed un solo vertice V . Se si considera la retta r per il vertice di
γ ortogonale all'asse d, che coincide con la polare ω(V ) per la proposizione 7.4.4, allora le rette d
ed r permettono di individuare un riferimento ane, che ha per origine il vertice della parabola,
in cui l'equazione di γ in forma canonica.
Consideriamo il piano ane euclide R2 nel quale si è ssato un riferimento ortogonale mono-
metrico R = (O, R) ed esplicitiamo con degli esempi quanto ora detto.

Esempio 7.4.5. Studiare la conica γ la cui parte propria ha equazione

2x2 − y 2 − 4x + 2y − 3 = 0.

La matrice associata a γ è
 
2 0 −2
A =  0 −1 1 
−2 1 −3
e così det(A) = 8 e det(A33 ) = −2 < 0. Pertanto γ è un'iperbole.
Andiamo a determinare gli assi. L'equazione (7.9) scritta per la conica che stiamo considerando
è −3lm = 0: le soluzioni di questa equazione determinano i punti impropri (0, 1, 0) e (1, 0, 0) e gli
assi saranno i diametri coniugati a queste direzioni ovvero le rette y =1 ex = 1; si noti che il
primo asse ha per direzione u1 = (1, 0) mentre il secondo asse ha per direzione u2 = (0, 1), e che
entrambi questi vettori sono normalizzati (cioè hanno modulo 1).
Il centro C della conica, essendo il punto di intersezione di due diametri, sarà il punto di
intersezione degli assi e quindi è il punto di coordinate (1, 1).

131
 Consideriamo il riferimento ortonormale
 R0 = (u1 , u2 ) di R2 e la matrice (ortogonale) P =
1 0
di passaggio da R0 a R. Le relazioni
0 1
     
x X 1
=P· + ,
y Y 1

ovvero le equazioni 
x=X +1
,
y =y+1
permettono di passare dal riferimento R al riferimento ane monometrico ortogonale R0 = (C, R0 )
2 2
(la cui origine è il centro della conica), in cui l'equazione della conica diventa 2X − Y − 4 = 0.
Al ne di scrivere le equazioni degli asintoti, si devono determinare i punti impropri della conica,
2 2 2
si deve quindi scrive l'equazione di γ in coordinate omogenee 2x1 − x2 − 4x3 = 0 e poi si deve
intersecare con la retta impropria che ha equazione x3 = 0. Si determinano così i punti impropri
√ √
(1, 2, 0) e (1, − 2, 0) e i diametri loro coniugati
√ saranno gli asintoti.
√ Pertanto le equazioni degli
0
asintoti dell'iperbole (in R ) sono 2X − 2Y = 0 e 2X + 2Y = 0.

Esempio 7.4.6. Studiare la conica γ la cui parte propria ha equazione

2x2 − 2xy + 2y 2 + 2x − 1 = 0.

La matrice associata a γ è
 
2 −1 1
A =  −1 2 0 
1 0 −1
e così det(A) = −5 e det(A33 ) = 3 > 0. Pertanto γ è un'ellisse. Per determinare gli assi risolviamo
l'equazione (7.9) che nel nostro caso è

m2 − l2 = 0.

Essa determina le direzioni (1, 1, 0) e (−1, 1, 0) x+y+1=0 e


e quindi gli assi hanno equazione
−3x + 3y − 1 = 0 il cui punto di intersezione, ovvero il centro, ha coordinate (− 32 , − 13 ). Norma-
1 1 1 1
lizzando i vettori (1, 1, 0) e (−1, 1, 0) otteniamo i vettori ( √ , √ , 0) e (− √ , √ , 0) e considerando
2 2 2 2
il cambiamento di riferimento determinato dalle relazioni
!    
√1 − √12 − 23
 
x 2 X
= √1 √1
· + ,
y 2 2
Y − 31

si individua il riferimento ane monometrico ortogonale R0 in cui l'equazione di γ è in forma


2 2 5
canonica ed è X + 3Y = .
3

Esempio 7.4.7. Studiare la conica γ la cui parte propria ha equazione

x2 − 2xy + y 2 − 2x − 2y = 0.

132
La matrice associata a γ è
 
1 −1 −1
A =  −1 1 −1 
−1 −1 0
e così det(A) = −4 e det(A33 ) = 0. Pertanto γ è una parabola. Per determinare l'asse risolviamo
l'equazione (7.9) che nel nostro caso è

m2 − l2 = 0.

Essa determina le direzioni (1, 1, 0) e (−1, 1, 0) la prima delle quali è coniugata alla retta impropria
(che non è diametro) mentre la seconda individua l'unico asse della parabola che ha equazione
x = y. L'intersezione tra l'asse e la parabola determina il vertice: dunque, in coordinate omogenee,
il punto V (0, 0, 1) è il verice della parabola. Per la proposizione 7.4.4, la retta per V ortogonale
all'asse è la retta ω(V ) : y = −x. Normalizzando le direzioni (1, 1, 0) dell'asse e (−1, 1, 0) di
ω(V ), otteniamo i vettori ( √12 , √12 , 0) e(− √12 , √12 , 0) e considerando il cambiamento di riferimento
determinato dalle relazioni
!    
√1 − √12
 
x 2 X 0
= √1 √1
· + ,
y 2 2
Y 0

si individua il riferimento il riferimento ane monometrico ortogonale


√ R0 in cui l'equazione di γ
2
è in forma canonica ed è Y − 2X = 0.

133

Potrebbero piacerti anche