Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1 Strutture Algebriche 3
1.1 Cenni di teoria degli insiemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Applicazioni tra insiemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Gruppi, Anelli e Campi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3 Spazi vettoriali 28
3.1 Vettori liberi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.2 Vettori numerici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.3 Spazi vettoriali su un campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.4 Sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.5 Dipendenza e indipendenza lineare . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.6 Spazi vettoriali di dimensione nita . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.7 Applicazioni lineari tra spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . 51
3.8 Immagine e nucleo di un'applicazione lineare . . . . . . . . . . . . . . . . . . . . . 56
3.9 Spazi euclidei reali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
1
6 Geometria analitica 101
6.1 Sottospazi ani di Rn. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
n
6.2 Rappresentazione dei sottospazi ani di R . . . . . . . . . . . . . . . . . . . . . 103
2
6.3 Geometria ane in R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
3
6.4 Geometria ane in R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.5 Questioni metriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
7 Le coniche 122
7.1 Ampliamento del piano ane euclideo . . . . . . . . . . . . . . . . . . . . . . . . 122
7.2 Le coniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
7.3 Classicazione delle coniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
7.4 Polarità denita da una conica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
7.4.1 Esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
2
Capitolo 1
Strutture Algebriche
In teoria (elementare) degli insiemi, i concetti di ente, di insieme e di proprietà sono concetti
primitivi. In maniera intuitiva, un insieme è una collezione di enti, o oggetti, di natura arbitraria.
Gli insiemi si indicano con le lettere maiuscole dell'alfabeto ed i loro elementi con le lettere
minuscole. Per indicare che un ente x è un elemento di un insieme S si scrive x∈S e si legge x
appartiene ad S , la scrittura x 6∈ S indica invece che x non appartiene ad S ossia che x non è un
elemento di S . Se P è una proprietà e x è un ente per il quale la proprietà P è vera si usa una
delle scritture x : P o x|P e si legge x tale che P . Esistono delle proprietà che risultano false per
ogni ente, come ad esempio la proprietà x 6= x"; una proprietà che è falsa per ogni ente determina
un insieme privo di elementi chiamato insieme vuoto che si denota col simbolo ∅.
Un insieme può essere denito elencando i suoi elementi oppure specicando le proprietà
soddisfatte dai suoi elementi. Ad esempio possiamo scrivere
3
S ⊆ T ⇔ ∀x x ∈ S ⇒ x ∈ T .
Nella precendente scrittura compaiono i simboli ⇔" (equivalenza), ⇒" (implicazione) e ∀".
Se P e Q P ⇒ Q, e si legge P implica Q", per indicare che
sono due proposizioni si scrive
Q P , mentre si scrive P ⇔ Q, e si legge P se e solo se Q", per indicare
è conseguenza di
che P ⇒ Q e che Q ⇒ P . Invece il simbolo ∀" traduce la parola per ogni" e si chiama
quanticatore universale. Un altro simbolo di cui si farà uso è ∃" che si chiama quaticatore
esistenziale e traduce in simbolo la parola esiste"; talvolta il quanticatore esistenziale precederà
un punto esclamativo ∃!" e in tal caso questo simbolo tradurrà la parola esiste ed è unico".
Chiaramente l'insieme vuoto ∅ è contenuto in ogni insieme, mentre qualsiasi sia l'insieme S è
sempre vero che S ⊆ S. Quindi, detto insieme delle parti di S l'insieme
P (S) = {X | X ⊆ S},
si ha che P (S) non è mai vuoto perchè ad esso appartengono sempre gli insiemi ∅ e S . Si osservi
anche che S = T se e solo se S ⊆ T e T ⊆ S . Si dice che l'insieme S è contenuto propriamente
nell'insieme T se S ⊆ T e S 6= T ; in tal caso si scrive S ⊂ T e si dice anche che S è una parte
propria di T , o che è un sottoinsieme proprio di T . Inne, la scrittura S 6⊆ T indica che S non è
contenuto in T .
S ∩ T = {x | x ∈ S e x ∈ T }, S ∪ T = {x | x ∈ S o x ∈ T}
e
S \ T = {x | x ∈ S e x 6∈ T }.
Se S, T e V sono insiemi, alcune delle proprietà dell'unione e dell'intersezione sono qui di
seguito elencate:
(x1 , y1 ) = (x2 , y2 ) ⇔ x1 = x2 e y1 = y2
4
Il concetto di coppia si estende al concetto di terna (x, y, z), che potrebbe essere denita formal-
mente come la coppia di prima coordinata (x, y)
z , e così via possono essere
e seconda coordinata
denite le quadruple, le quintuple, o più in generale le n-uple (con n ≥ 2). In maniera informale
possiamo dire che una n-upla è un insieme ordinato di n elementi (x1 , x2 , . . . , xn ) in cui x1 è il
primo elemento, x2 è il secondo elemento, e così via xn è l'n-simo elemento, ed è inoltre un insieme
che gode della seguente proprietà
(x1 , x2 , . . . , xn ) = (y1 , y2 , . . . , yn ) ⇐⇒ x1 = y1 , x2 = y2 ,. . . , xn = yn .
S × T = {(x, y) | x ∈ S e y ∈ T };
in particolare quindi
S × T = T × S ⇔ S = T.
Inoltre
S×T =∅ ⇔ S =∅ oppure T = ∅.
S × T = {(F, ]), (F, [), (F, \), (N, ]), (N, [), (N, \)}.
S1 × · · · × Sn = {(x1 , . . . , xn ) | xi ∈ Si ∀i = 1, . . . , n};
inoltre, in analogia col quadrato cartesiano, il simbolo Sn indicherà il prodotto cartesiano dell'in-
sieme S per se stesso n volte. Anche in questo caso valgono le analoghe proprietà elencate in
precedenza nel caso del prodotto cartesiano di due insiemi.
Esempio 1.1.2. Considerati gli insiemi S = {F, N} T = {], [, \}, una corrispondenza R di S
e
in T si ottiene in corrispondenza della scelta dell'insieme {(F, \), (N, ]), (N, \)}: in questo caso si
ha che FR\, NR] e NR\.
5
Si noti che in una corrispondenza è possibile che un elemento sia in corrispondenza con più
elementi, così come in questo esempio accade per l'elemento N che è nella corrispondenza R sia con
] che con \. Si noti anche che la scelta dell'insieme vuoto come graco denisce una corrispondenza
in S × T , dunque in una corrispondenza è possibile pure che elementi di S non abbiano nessun
corrispondente in T .
[x]R = {y ∈ S | x R y},
e l'elemento x è detto rappresentante della classe di equivalenza [x]R . L'insieme S/R di tutte le
classi di equivalenza modulo R si dice insieme quoziente di S modulo R. Si ha:
• x, y ∈ e se [x]R 6= [y]R
Se allora [x]R ∩ [y]R = ∅; mentre [x]R = [y]R se e soltanto se x R y.
[
• S= [x]R .
x∈S
Le tre precedenti proprietà si possono riassumere dicendo che l'insieme quoziente S/R costituisce
una partizione di S.
G = {(x, x) : x ∈ S},
la relazione identica in S
ιS = (S × S, G)
è una relazione di equivalenza, e per ogni x∈S risulta [x]ιS = {x}.
Esempio 1.1.4. Si consideri la relazione binaria R in Q denita ponendo aRb se e solo se a−b ∈ Z.
Tale relazione è
3) transitiva: se a, b, c ∈ Q sono tali che aRb e bRc allora a − b e b−c sono numeri interi
relativi, dunque anche a − c = (a − b) + (b − c) ∈ Z e così aRc.
6
Pertanto R è una relazione di equivalenza in Q e si ha, in particolare, che
[0]R = {a ∈ Q | a − 0 ∈ Z} = Z.
G = {(a, a), (b, b), (a, c), (c, c), (c, a)};
è una relazione di equivalenza e si ha che
Esempio 1.1.6. Nell'insieme delle rette (del piano o dello spazio) della geometria elementare,
la relazione k denita dalla posizione rks se e solo se r ed s sono coincidenti oppure parallele (si
ricordi che due rette sono parallele se sono complanari e non incidenti), risulta essere una relazione
di equivalenza; la classe di equivalenza [r]k di una retta r modulo k viene chiamata direzione della
retta r.
Esempio 1.1.7. Si provi che per ogni numero naturale n≥1 risulta
n(n + 1)
1 + 2 + ··· + n = . (1.2)
2
Essendo
1(1 + 1)
1=
2
la precedente identità è vericata per n = 1. Supponiamo che la (1.2) sia vericata per n e
andiamo a vedere se è o meno vericata per n + 1. Essendo
n(n + 1) (n + 1)(n + 2)
1 + 2 + · · · + n + (n + 1) = + (n + 1) =
2 2
la (1.2) è vera anche per n + 1 e così, invocando il principio di induzione, possiamo concludere che
l'identità (1.2) è soddisfatta da ogni numero naturale n ≥ 1.
In realtà per convicersi che si sta applicando eettivamente il principio di induzione si do-
vrebbe considerare l'insieme X n per i quali l'identità (1.2) è vericata.
di tutti i numeri naturali
L'argomento precedente prova che 1 ∈ X , e che n + 1 ∈ X se conosciamo che n ∈ X ; pertanto
essendo 1 il minimo di X possiamo concludere che X = N o in altre parole che la (1.2) è vera per
ogni numero naturale n ≥ 1.
7
Esempio 1.1.8. Si provi che se S è un insieme con n≥1 elementi, allora P (S) ha 2n elementi.
Se S ha un solo elemento, allora P (S) = {∅, S} e quindi l'asserto è vero se n = 1. Sia quindi
n > 1 e sia l'asserto sia vero per n. Supponiamo che S abbia n + 1 elementi. Fissato un elemento
x di S , risulta S = {x} ∪ T dove T = S \ {x} è un insieme di n elementi; in particolare, l'ipotesi
n
assicura che P (T ) ha 2 elementi. Evidentemente i sottoinsiemi di S o sono elementi di P (T ) o
si ottengono come unione tra {x} ed un sottoinsieme di T , dunque in P (S) c'è il doppio degli
n n+1
elementi di P (T ) ovvero ci sono 2 · 2 = 2 elementi. Possiamo pertanto applicare il principio
di induzione, e concludere che l'asserto è vero per ogni n ∈ N.
fU : x ∈ U → f (x) ∈ T
f −1 (Y ) = {x ∈ S | f (x) ∈ Y }.
Tra tutte le applicazioni di un insieme non vuoto S in sè, una che spesso incontreremo è
l'applicazione identica ovvero l'applicazione
ιS : x ∈ S → x ∈ S.
Esempio 1.2.1. Se S = {201, 5, 73}, T = {a, b} e G = {(201, a), (5, a), (73, a)} allora è semplice
accorgersi che f = (S × T, G) è un'applicazione, così com'è evidente che gli insiemi {(5, a), (73, b)}
e {(201, a), (5, a), (5, b), (73, a)} non possono essere il graco di nessuna applicazione di S in T , il
primo perchè non contiene nessuna coppia di prima coordinata 201, il secondo perchè contiene due
coppie distinte di prima coordinata 5. Inoltre, ad esempio, se X = {201, 5} allora f (X) = {a},
−1
mentre se Y = {b} allora f (Y ) = ∅.
8
Si osservi che se f = (S × T, G) e g = (S × T , G) sono due applicazioni, allora f = g se e solo
se le coppie (S × T, G) e (S × T , G) coincidono, e quindi se e soltanto se S × T = S × T e G = G.
Pertanto, ricordando la (1.1), si può concludere che due applicazioni coincidono se e solo se hanno
stesso dominio, stesso codominio e stesso graco.
- Iniettiva: se elementi distinti del dominio hanno immagini distinte, il che equivale a richiedere
che se f (x) = f (y) allora x = y.
- Suriettiva: se ogni elemento del codominio è immagine di qualche elemento del dominio; in
simboli, ∀y ∈ T ∃x ∈ S tale che f (x) = y .
- Biettiva: se è sia iniettiva che suriettiva e quindi se ∀y ∈ T ∃!x ∈ S tale che f (x) = y .
Un'applicazione biettiva di un insieme non vuoto S in sé è detta anche permutazione di S. Si
noti che l'applicazione identica è banalmente biettiva e dunque è una permutazione.
Esempio 1.2.2. Nell'insieme Z dei numeri interi relativi, l'applicazione denita dalla posizione
2
f (x) = x non è né iniettiva, perchè f (x) = f (−x), né suriettiva, perchè i numeri negativi non
sono immagine di alcun elemento di Z mediante f ; invece l'applicazione denita dalla posizione
g(x) = 2x è evidentemente iniettiva ma non è suriettiva, perchè i numeri dispari non sono immagine
mediante g di alcun numero intero. Ancora, sempre in Z, l'applicazione denita da h(x) = x + 1
è biettiva ed inne
x se x è positivo o nullo
k(x) =
x + 1 se x è negativo
è evidentemente suriettiva ma non è iniettiva essendo k(0) = 0 = k(−1).
mentre
(h ◦ g)(x) = h(g(x)) = h(2x) = 2x + 1.
Si noti che l'esempio 1.2.3 prova che la composizione di applicazioni non gode della proprietà
commutativa, ovvero in generale si ha che f ◦ g 6= g ◦ f ; invece, quando possibile, la composizione
di applicazioni gode della proprietà associativa ovvero se f, g ed h sono tre applicazioni di cui è
possibile considerarne le composte, risulta
(f ◦ g) ◦ h = f ◦ (g ◦ h),
9
infatti, (f ◦ g) ◦ h e f ◦ (g ◦ h) hanno stesso dominio e codominio, ed inoltre qualsiasi sia l'elemento
x nel dominio di h risulta
h = h ◦ ιT = h ◦ (f ◦ g) = (h ◦ f ) ◦ g = ιS ◦ g = g .
Dunque una tale applicazione g se esiste è unica; essa viene detta applicazione inversa di f e si
−1
usa denotarla col simbolo f . Evidentemente è sempre invertibile, e coincide con la sua inversa,
l'applicazione identica.
Esempio 1.2.4. L'applicazione h(x) = x+1 di Z in sé, considerata nell'esempio 1.2.2, è invertibile
−1
e ha per inversa h : x ∈ Z → x − 1 ∈ Z.
Proposizione 1.2.5. Siano S e T insiemi non vuoti e sia f :S→T un'applicazione. Allora f è
invertibile se e soltanto se f è biettiva.
10
Se poi ∗ è un'altra operazione interna ad S si dice che
Sia S un insieme non vuoto, e siano ⊥1 , . . . , ⊥n operazioni in S , alcune delle quali eventual-
mente esterne. La (n + 1)-upla (S, ⊥1 , . . . , ⊥n ) si chiama struttura algebrica ad n operazioni in
S, e l'insieme S si dice sostegno della struttura algebrica. Quando non da luogo ad equivoco, la
struttura algebrica si identica col solo sostegno.
Una struttura algebrica (S, ⊥), dove ⊥ è un'operazione interna nell'insieme non vuoto S, si
dice monoide se ⊥ è associativa ed esiste un elemento neutro, ovvero un elemento u ∈ S tale che
x ⊥ u = x = u ⊥ x per ogni x ∈ S . Si noti che se S è un monoide allora l'elemento neutro è
0 0 0
unico, infatti se u fosse un altro elemento neutro si avrebbe u = u ⊥ u = u .
x ⊥ x0 = u = x0 ⊥ x
(qui u
denota l'elemento neutro di S ). Si noti che se l'elemento x è simmetrizzabile allora il
0 00
simmetrico è unico, infatti se x e x sono entrambi simmetrici di x, si ha
11
Una struttura algebrica(G, ⊥), dove ⊥ è un'operazione interna nell'insieme non vuoto G, si dice
gruppo se ⊥ è associativa, dotata di elemento neutro e se ogni elemento di G è simmetrizzabile
rispetto a ⊥ (quindi se G è un monoide in cui ogni elemento è simmetrizzabile). Un gruppo
(G, ⊥) si dice poi abeliano se ⊥ gode anche della proprietà commutativa. Per un gruppo sussiste
la seguente:
Proposizione 1.3.3. Sia G un gruppo e siano a e b due elementi di G. Allora esite un unico
elemento x di G tale che a ⊥ x = b, ed esiste un unico elemento y di G tale che y ⊥ a = b.
Dimostrazione. Sia a0 il simmetrico di a rispetto a ⊥. Allora, denotato con u l'elemento neutro
del gruppo, si ha che
b = u ⊥ b = (a ⊥ a0 ) ⊥ b = a ⊥ (a0 ⊥ b);
d'altra parte se c è un elemento di G tale che a ⊥ c = b, si ha
c = u ⊥ c = (a0 ⊥ a) ⊥ c = a0 ⊥ (a ⊥ c) = a0 ⊥ b.
L'altro caso si prova in modo analogo e quindi si omette.
Esempio 1.3.4. Sono gruppi abeliani (Z, +), (Q, +), (R, +), dove + denota la somma ordinaria,
ed anche (Q \ {0}, ·) ed (R \ {0}, ·), dove · denota il prodotto ordinario. Invece (N, +) non è
un gruppo, perché 0 l'unico elemento dotato di opposto. Si noti pure che, sebbene rispetto alla
somma non sia un gruppo, in N la somma è regolare. In particolare, in un gruppo l'operazione è
sempre regolare, ma un'operazione può essere regolare pur non rendendo una struttura algebrica
un gruppo. Ancora, non sono gruppi nè Z nè Z \ {0} rispetto all'operazione di prodotto ordinario,
perchè 1 è l'unico elemento invertibile.
Esempio 1.3.5. Considerato un insieme non vuoto S sia Sym(S) l'insieme delle permutazioni su
S. La composizione di applicazioni denisce evidentemente un'operazione interna in Sym(S) che,
per quanto osservato in precendenza, è associativa; inoltre è evidente che la permutazione identica
−1
è unità e che ogni permutazione f ha per simmetrico f . Dunque Sym(S) è un gruppo. In
generale, Sym(S) è non abeliano. Infatti, supposto che S contenga (almeno) tre elementi distinti
a, b e c e considerate in S le applicazioni denite dalle seguenti posizioni:
a se x = b a se x = c
f (x) = b se x = a e g(x) = c se x = a
x se x ∈ S \ {a, b} x se x ∈ S \ {a, c}
12
è facile accorgersi che sia f che g sono permutazioni su S e che risulta f (g(c)) = f (a) = b e
g(f (c)) = g(c) = a, dunque f ◦ g 6= g ◦ f .
Supponiamo ora di avere un insieme non vuoto R su cui sono denite due operazioni interne,
che denotiamo con + e ·. La struttura algebrica (R, +, ·) si dice anello se:
L'anello R si dice poi commutativo se l'operazione di prodotto gode anche della proprietà
commutativa (ossia x·y = y·x per ogni x, y ∈ R), si dice invece unitario se anche il prodotto
ha un elemento neutro ovvero se esiste un elemento, che solitamente è detto unità e si denota col
simbolo 1, tale che 1·x=x=x·1 per ogni x ∈ R.
Un anello commutativo unitario R si dice campo se ogni elemento non nullo è invertibile (ovvero
dotato di simmetrico rispetto al prodotto) e quindi se per ogni x ∈ R esiste in R un elemento, che
−1 −1
si denota con x , tale che xx = 1 = x−1 x. Spesso nel seguito si userà la lettera K per denotare
un campo; useremo inoltre il termine scalare per riferirci ad un elemento di un campo.
Esempio 1.3.6. Evidentemente la somma e il prodotto ordinario rendono l'insieme Z dei numeri
interi relativi un anello commutativo unitario; mentre somma e prodotto unitario rendono un
campo sia l'insieme Q dei numeri razionali che l'insieme R dei numeri reali.
a0 = a(0 + 0) = a0 + a0 e a0 = a0 + 0
quindi a0 = 0 per la proposizione 1.3.3 e la (i) è provata. Per provare la (ii) si noti che
quindi sempre la proposizione 1.3.3 assicura che −(ab) = a(−b). In modo simile si ha pure che
−(ab) = (−a)b. Inne per provare la (iii) si noti che essendo 6 0 esiste l'inverso a−1 di a e
a =
risulta
b = 1b = (a−1 a)b = a−1 (ab) = a−1 0 = 0
come si voleva.
13
Si noti che, nella precendete, per le condizioni (i) e (ii) non serve che K sia un campo, ma
basta che K sia un anello; invece per la (iii) è essenziale che K sia un campo e questa condizione
è anche detta legge di annullamento del prodotto .
Esempio 1.3.8 (Il campo dei numeri complessi ) . Sia C l'insieme delle coppie ordinate di numeri
reali
C = R × R = {(a, b) | a, b ∈ R}
e deniamo in esso un'operazione di somma + e un'operazione di prodotto · mediante le posizioni:
(a, b) + (c, d) = (a + b, c + d)
(a, b) · (c, d) = (ac − bd, ad + bc)
Si ottiene così una struttura algebrica (C, +, ·) che si verica essere un campo i cui elementi si
chiamano numeri complessi. Non si proverà qui che C è un campo, ma ci si limiterà alle seguenti
osservazioni. Qualsiasi sia l'elemento (a, b) di C si ha
(a, b) + (0, 0) = (a, b) = (0, 0) + (a, b) e (a, b) · (1, 0) = (a, b) = (1, 0) · (a, b)
dunque la coppia (0, 0) è l'elemento neutro per la somma mentre la coppia (1, 0) è l'elemento
neutro per il prodotto. Ancora, essendo
la coppia (−a, −b) è l'opposto (cioè il simmetrico rispetto a +) di (a, b) ed inoltre, se (a, b) 6= (0, 0),
si ha anche
a b a b
(a, b) · , − = (1, 0) = , − · (a, b)
a2 + b 2 a2 + b 2 a2 + b2 a2 + b2
a b
così la coppia
a2 +b2
, − a2 +b2 è l'inverso o reciproco (cioè il simmetrico rispetto a ·) di (a, b).
Posto
C0 = R × {0} = {(a, 0) | a ∈ R}
e osservando che
si ottiene che C0 è una parte stabile di (C, +, ·) che, rispetto alle operazioni indotte, si può
vericare essere a sua volta un campo. Poichè l'applicazione
ι : a ∈ R → (a, 0) ∈ C0
è biettiva e le (1.3) ci dicono che ι(a + b) = ι(a) + ι(b) e ι(ab) = ι(a) · ι(b) per ogni a, b ∈ R, è
ragionevole identicare il numero reale a col numero complesso (a, 0), quindi il campo dei numeri
reali si può pensare come una parte del campo dei numeri complessi, e in questo senso il campo
dei numeri complessi è un ampliamento del campo dei numeri reali. C'è poi un numero complesso,
precisamente (0, 1), che ha una singolare proprietà:
14
cioè in C si trova un elemento il cui quadrato è −1, tale elemento si denota col simbolo i (quindi
i = (0, 1)) e si chiama unità immaginaria.
Osserviamo che considerato un qualsiasi numero complesso z = (a, b), risulta
L'espressione a + ib viene detta forma algebrica del numero complesso z = (a, b), si dice inoltre
che il numero reale a z e si denota con Re(z) mentre il numero reale b si dice
è la parte reale di
parte immaginaria di z Im(z). Quando si sceglie di denotare i numeri complessi
e si denota con
con la forma algebrica, le posizioni che deniscono le operazioni di somma e prodotto in C, sono
2
le ordinarie regole di calcolo letterale, quando si tiene conto che i = −1, ovvero risulta
Esempio 1.3.9. Esistono campi il cui sostegno è un insieme con un numero nito di elementi.
Giusto per citarne uno, si consideri un insieme K formato da due elementi qualsiasi, ad esempio
K = {, 4}; se in questo insieme deninamo due operazioni interne ponendo
+ = , + 4 = 4, 4 + = 4, 4+4=
· = , · 4 = , 4 · = , 4·4=4
Dalla denzione segue che l'operazione + è commutativa, ha come elemento neutro l'elemento
= 0, ed inoltre l'elemento è simmetrizzabile rispetto a + e coincide col suo simmetrico così
come anche 4 è simmetrizzabile rispetto a + e coincide col suo simmetrico. Essendo poi
4 4 4 4
4 4 4 4 4
4 4 4
4 4 4 4
4 4 4 4
4 4 4
4 4 4 4 4
15
non-nullo ed è simmetrizzabile). Poichè risulta
16
Capitolo 2
Introduzione alle Matrici e ai Sistemi
Lineari
A : {1, . . . , m} × {1, . . . , n} −→ K
una matrice m × n su K. Per ogni elemento (i, j) di {1, . . . , m} × {1, . . . , n} si pone aij = A(i, j)
e si dice che aij è l'elemento di A di posizione (i, j), inoltre per indicare la matrice A si scrive
a11 a12 . . . a1n
a21 a22 . . . a2n
A = .. ,
. .. .
. . . .
. .
am1 am2 . . . amn
o semplicemente A = (aij ). Una matrice con tutti gli elementi uguali a 0 si dice matrice nulla.
Ai = (ai1 , . . . , ain )
Se il numero di righe di A coincide col numero di colonne, cioè m = n, si dice che A è una
matrice quadrata di ordine n su K; in tal caso, l'insieme {aii | i = 1, . . . , n} si dice diagonale
principale di A.
17
L'insieme delle matrici m × n su K si denota con Mm,n (K); qualora poi m = n si scrive
semplicemente Mn (K) Mn,n (K).
in luogo di
SiaA = (aij ) una matrice m × n sul campo K. Si dice matrice trasposta di A la matrice
t
A = (âij ) a n righe ed m colonne su K che si ottiene da A scambiando le righe con le colonne
t t
ovvero il cui generico elemento è âij = aji . Evidentemente (A ) = A. Se A è una matrice quadrata
t
e A = A , si dice che A è una matrice simmetrica.
Esempio 2.1.1. Se
1 2 −1
A= ∈ M2,3 (R)
0 5 1
allora
1 0
At = 2 5 ∈ M3,2 (R).
−1 1
Si noti che poiché una matrice è un'applicazione, si ha facilmente che due matrici sono uguali
se e soltanto se hanno stesso numero di righe e di colonne, e hanno uguali gli elementi con la stessa
posizione.
E' facile accorgersi che con l'operazione così denita Mm,n (K) è un gruppo abeliano in cui lo zero
è la matrice nulla O (cioè la matrice O = (oij ) i cui elementi oij sono tutti uguali allo zero 0 del
campo K), e in cui l'opposto della matrice (aij ) è la matrice −(aij ) = (−aij ).
Si noti che la posizione −(aij ) = (−aij ) si può pensare come un caso particolare di una
denizione più generale: λ(aij ) = (λaij ) (dove λ ∈ K). Tale posizione denisce in Mm,n (K)
un'operazione esterna con operatori in K che insieme alla somma tra matrici permetterà di pensare
all'insieme delle matrici come quello che chiameremo uno spazio vettoriale sul campo K.
Si considerino ora due matrici A = (ai,j ) ∈ Mm,n (K) e B = (bij ) ∈ Mn,p (K) e si ponga
18
Esempio 2.1.2. Considerando le matrici su R
1 2 1 2 3
A= e B=
3 4 4 5 6
si ha che
1·1+2·4 1·2+2·5 1·3+2·6 9 12 15
AB = = .
3·1+4·4 3·2+4·5 3·3+4·6 19 26 33
Sussiste la seguente.
Proposizione 2.1.3. (i) Siano A ∈ Mm,n (K), B ∈ Mn,p (K) e C ∈ Mp,q (K). Allora (AB)C =
A(BC), cioè il prodotto righe per colonne è associativo.
(ii) Siano A, B ∈ Mm,n (K) e C, D ∈ Mn,p (K). Allora (A + B)C = AC + BC e A(C + D) =
AC + AD, cioè il prodotto righe per colonne è distributivo rispetto alla somma.
e pertanto
p p n
X X X
eij = dis csj = air brs csj .
s=1 s=1 r=1
Analogamente
p
X
frj = brs csj
s=1
e quindi
n n p
X p n
X X X X
gij = air frj = air brs csj = air brs csj = eij .
r=1 r=1 s=1 s=1 r=1
Segue in particolare dalla proposizione 2.1.3 che l'insieme Mn (K) delle matrici quadrate di
ordine n sul campo K possiede una struttura di anello quando si considerano in esso l'operazione
di somma (rispetto al quale è un gruppo abeliano) e l'operazione di prodotto righe per colonne.
Tale anello è anche unitario di unità la matrice identica, ovvero la matrice
1 0 ... 0
0 1 ... 0
In = .. .. . . ..
. . . .
0 0 ... 1
19
che si può anche denotare come
In = (δij )
dove
1 se i=j
δij =
0 se i 6= j
è il cosiddetto simbolo di Kronecker. Si osservi che l'anello Mn (K) non è in generale commutativo;
ad esempio, se K è un qualsiasi campo e si considerano le matrici di M2 (K)
0 0 0 0
A= e B=
1 0 1 1
si ha che
0 0 0 0
AB = e BA = .
0 0 1 0
Si noti che il precedente esempio mostra che in generale nell'anello Mn (K) non vale la legge di
annullamento del prodotto. Inoltre considerando le matrici (reali)
3 9 −5 −10 −8 −7
A= ,B= e C=
−1 −3 1 2 2 1
ed osservando che
−6 −12
B 6= C ma AB = AC =
2 4
si ottiene che, in generale, nell'anello Mn (K) non vale la legge di cancellazione.
Concludiamo con la seguente proprietà la cui semplice verica si lascia come esercizio.
Esercizio 2.1.4. Sia K un campo. Se A, B ∈ Mm,n (K) e C ∈ Mn,p (K), allora (A + B)t = At + B t
e (AC)t = C t At .
(a) Se una riga di A è non nulla, allora il primo elemento non nullo di tale riga, che è detto pivot
della riga in considerazione, è più a sinistra del primo elemento non nullo delle righe ad essa
successive.
(b) Se una riga di A è nulla, tutte le righe ad essa successive sono nulle.
20
Esempio 2.2.1. Sono a scala le matrici
1 2 3
1 2 0 0 4 ,
e
0 4
0 0 0
mentre
0 11 3
0 0 0 0 4
e
0 7
0 3 0
non lo sono.
Sia A un matrice m×n su un campo K. Una operazione elementare (sulle righe) in A è una
dei seguenti tipi di operazioni (dette mosse di Gauss):
Tipo 1) Moltiplicazione di una riga per un elemento non nullo di K: ri → λri (con λ ∈ K \ {0}).
Tipo 3) Aggiunta di un multiplo di una riga ad un'altra riga: ri → ri + λrk (con λ ∈ K).
Teorema 2.2.2. Ogni matrice (su un campo) è equivalente ad una matrice a scala.
La dimostrazione del precedente teorema è detta Algoritmo di Gauss. Tale algoritmo trasfoma
una matrice nella sua forma detta forma a scala, esso si basa sull'uso di operazioni elementari di
tipo 2) e 3) ed è illustrato come segue. Sia A = (aij ) la generica matrice m×n sul campo K.
Passo 1 Se A è la matrice nulla, l'algoritmo termina. Supponiamo quindi che A sia non nulla.
Passo 2 Partendo da sinistra individuiamo la prima colonna non nulla e poi, partendo dal-
l'alto, il primo elemento non nullo in questa colonna; quindi scambiamo eventualmente le righe in
modo tale da spostare l'elemento individuato alla prima riga. Formalmente: sia j il minimo intero
j
in {1, . . . , n} tale che la colonna A di A sia non nulla e sia i il minimo intero in {1, . . . , m} tale
che a = aij 6= 0; inolte, se i 6= 1 eettuiamo l'operazione elementare ri ↔ r1 .
Passo 3 Per ogni riga h successiva alla prima e tale che ahj 6= 0, eettuiamo l'operazione
elementare rj → rh − ahj a−1 rj . Così facendo si rendono nulli tutti gli elementi della j -sima
colonna che si trovano nelle righe successive alla prima (cioè sotto ad a).
21
Passo 4 Se A è costituita da un'unica riga l'agoritmo termina, altrimenti si considera la
matrice che si ottiene da A cancellando la prima riga e si applica l'algoritmo (ricominciando dal
passo 1) a tale matrice.
Esempio 2.2.3. Determiniamo una matrice a scala equivalente alla seguente matrice di M3,4 (R)
0 −5 0 2
A= 1 1 1 −1 .
−3 2 1 −1
Si parte dalla prima riga e si vede che la colonna contenente elementi non nulli con indice più
piccolo è la prima. Essendo a11 = 0 e 6 0 la prima cosa da
a21 = fare è scambiare la prima riga con
la seconda ottenendo così
1 1 1 −1
0 −5 0 2 .
−3 2 1 −1
Al ne di annullare anche il primo elemento della terza riga, eettuiamo l'operazione r3 → r3 + 3r1
ottendendo la matrice
1 1 1 −1
0 −5 0 2 .
0 5 4 −4
Una volta che abbiamo annullato tutti gli elementi della prima colonna nelle righe successive alla
prima, dobbiamo considerare la matrice che si ottiene cancellando la prima riga, in altre parole
dobbiamo ripetere l'algoritmo tralasciando la prima riga. In questo caso il pivot si trova già nella
posizione giusta e quindi dobbiamo solo annullare gli elementi al di sotto del pivot della seconda
riga, ovvero dobbiamo applicare la trasformazione r3 → r3 + r2 così da ottenere la matrice
1 1 1 −1
0 −5 0 2
0 0 4 −2
1 2 2 1
0 0 4 2
0 0 0 5
0 0 8 −6
22
e poi per annullare gli elementi della terza colonna nelle righe successive alla seconda eettuiamo
l'operazione r4 → r4 − 2r2 e otteniamo
1 2 2 1
0 0 4 2
,
0 0 0 5
0 0 0 −10
quindi l'operazione r4 → r4 + 2r3 riduce la matrice A nella matrice a scala ad essa equivalente
1 2 2 1
0 0 4 2
.
0 0 0 5
0 0 0 0
Una matrice a scala in cui tutti i pivot sono uguali ad 1 e in cui il pivot è l'unico elemento
non nullo della corrispondente colonna, si chiama matrice a scala ridotta. Applicato l'algoritmo
di Gauss ad una matrice A, si può fare anche in modo che la matrice a scala ottenuta possa essere
trasformata in una matrice a scala ridotta ottendendo così quella che si dice la forma a scala
ridotta della matrice A.
Teorema 2.2.5. Ogni matrice (su un campo) è equivalente ad un'unica matrice a scala ridotta.
Passo 1 Se A è la matrice nulla, l'algoritmo termina. Si assuma quindi che A non sia nulla.
Passo 2 Sia i il massimo intero di {1, . . . , n} tale che la i-esima riga di A sia non nulla (cioè
si considera l'ultima riga non nulla della matrice). Detto j l'indice relativo alla colonna di A tale
che a = aij è il pivot della riga i-esima, si eettua l'operazione elementare ri → a−1 ri così da
rendere il pivot uguale ad 1.
Passo 3 Si rendono ora nulli gli elementi che si trovano al di sopra del pivot della riga i-esima,
ovvero per ogni riga di indice h<i si eettua l'operazione elementare rh → rh − ahj ri .
Passo 4 Se i=1 l'algoritmo termina, altrimenti si considera la matrice che si ottiene da A
cancellando la i-esima riga e si applica ad essa il procedimento a partire dal passo 1.
23
Mediante l'algoritmo di Gauss essa è equivalente alla matrice a scala
1 −1 0 2
0 3 1 −5 .
0 0 43 37
Rendiamo ora uguale ad 1 il pivot della terza riga, occoorre quindi moltiplicare la terza riga per
3
. Si ottiene così la matrice
4
1 −1 0 2
0 3 1 −5
0 0 1 74
alla quale si applica poi l'operazione r2 → r2 − r3 così da rendere nulli tutti gli elementi nella
colonna del pivot della terza riga
1 −1 0 2
0 3 0 − 27 .
4
0 0 1 47
Si deve ora considerare la matrice che si ottiene da quest'ultima cancellando l'ultima riga, in altre
parole applichiamo lo stesso procedimento focalizzando l'attenzione sulla seconda riga (e quella
ad essa precedente). Rendiamo uguale ad 1 il pivot della seconda riga dividendo per 3 questa riga
1 −1 0 2
0 1 0 −9 ,
4
0 0 1 47
1 0 0 − 14
0 1 0 −9 .
4
0 0 1 47
L'algoritmo di Gauss-Jordan quindi termina, e la matrice ottenuta è la forma a scala ridotta della
matrice A.
24
Un sistema lineare di m equazioni in n incognite su K, o a coecienti in K, è un insieme di
equazioni lineari su K
a11 x1 + · · · + a1n xn = b1
.
Σ: . (2.1)
.
a x + ··· + a x = b
m1 1 mn n m
si dice matrice incompleta o matrice dei coecienti del sistema, mentre la matrice di Mm,n+1 (K)
a11 a12 . . . a1n b1
a21 a22 . . . a2n b2
,
.. .
. .. .
.
.
.
. . . . .
am1 am2 . . . amn bm
si dice matrice completa del sistema. Inoltre, spesso il sistema (2.1) si scrive usando la notazione
x1 b1
. .
matriciale come AX = B dove X= . ∈ Kn e B= . ∈ Km e AX indica il prodotto
. .
xn bm
righe per colonne tra A ed X. Nel seguito la matrice completa del sistema AX = B si indicherà
con (A|B). Un sistema lineare del tipo AX = 0 (dove qui 0 è la colonna fatta di tutti zero) si dice
omogeneo; inoltre dato un sistema lineare Σ : AX = B , il sistema Σom : AX = 0 si dice sistema
lineare omogeneo associato ad esso.
Una soluzione di (2.1) è una n-upla (y1 , . . . , yn ) di elementi di K che è soluzione per ciascuna
equazione che forma il sistema (2.1). Un sistema lineare si dice compatibile se ha almeno una
soluzione, incompatibile altrimenti. Un sistema compatibile che ammette una sola soluzione si
dice determinato. Determinare le soluzioni, o risolvere, un sistema signica Σ determinare se è
compatibile o meno e, nel caso sia compatibile, scrivere l'insieme Sol(Σ) delle sue soluzioni. Si noti
che essendo A0 = 0 ogni sistema lineare omogeneo è compatibile, avendo esso almeno la soluzione
nulla.
Due sistemi lineari in n incognite si dicono equivalenti se hanno le stesse soluzioni, cioè se ogni
soluzione dell'uno è anche soluzione dell'altro e viceversa. Sussiste la seguente proprietà, la cui
verica si lascia per esercizio.
Se AX = B è un sistema lineare, allora alla matrice completa (A|B) si può applicare l'algoritmo
di Gauss-Jordan ottenendo una matrice C che può pensarsi come la matrice completa di un sistema
25
equivalente ad AX = B . Evidentemente nel il sistema così ottenuto la ricerca delle soluzioni sarà
più semplice, e nel caso particolare che il sistema AX = B sia determinato l'ultima colonna della
matrice C fornirà direttamente una soluzione del sistema.
che è incompatibile.
1 0 0 − 14
0 1 0 −9 .
4
0 0 1 47
Questa seconda matrice è la matrice completa del sistema lineare
x1 = − 14
x2 = − 94
x3 = 74
26
Esempio 2.3.4 (Sistema compatibile ma determinato) . Consideriamo il sistema (in R)
2x1 + x2 = 1
x1 + x2 − x 3 = 2
1 0 1 −1
.
0 1 −2 3
x1 + x3 = −1
x2 − 2x3 = 3
27
Capitolo 3
Spazi vettoriali
La denizione di vettore applicato si estende anche al caso in cui il primo estremo coincide col
−→
secondo estremo. Se P è un punto, il vettore applicato PP coincide col punto P e viene detto
vettore nullo applicato in P.
−→ −→ −→
Considerato il vettore applicato P Q, si dice modulo di PQ la misura del segmento P Q, in
−→
particolare il vettore nullo ha modulo nullo; si dice invece direzione di P Q la direzione della retta
−→ −− →
rP Q . Due vettori applicati P Q e P 0 Q0 si dicono paralleli se le rette rP Q e rP 0 Q0 hanno la stessa
−→ −− →
0 0
direzione (cioè sono rette parallele), quindi i vettori applicati P Q e P Q sono paralleli se e soltanto
se hanno la stessa direzione. Se la retta rP Q coincide con la retta rP 0 Q0 e su questa retta esiste un
0 0
verso di percorrenza secondo cui P precede Q e P precede Q , allora si dice che i vettori applicati
−→ −− →
P Q e P 0 Q0 hanno lo stesso verso. Se invece le rette rP Q e rP 0 Q0 sono distinte ma i vettori applicati
−→ −− →
P Q e P 0 Q0 sono comunque paralleli, allora le rette rP Q e rP 0 Q0 sono contenute in uno stesso piano
28
−→ 0 0
−−→
che la retta rP P 0
divide in due semipiani: in tal caso, si dice che i vettori applicati P Q e P Q
0
hanno lo stesso verso se i punti Q e Q cadono in uno stesso semipiano. Se due vettori liberi
hanno lo stesso verso, si usa dire anche che i vettori hanno verso concorde (nella gura seguente
a sinistra). Due vettori applicati paralleli che non hanno lo stesso verso si dicono avere verso
opposto o verso discorde (nella gura seguente a destra).
Q0 Q0
Q Q
P0 P0
P P
Sia VE l'insieme dei vettori applicati con primo e secondo estremo in E. Deniamo in VE una
relazione dicendo che due vettori applicati sono equipollenti se hanno stesso modulo, direzione
e verso. Tale relazione è evidentemente una relazione di equivalenza, e si dice vettore libero (o
semplicemente vettore ) ogni classe di equivalenza rispetto alla relazione di equipollenza (in maniera
compatta, ogni classe di equipollenza). I vettori applicati nulli formano una classe di equipollenza
detta vettore nullo e denotata con 0. In generale, quando il contesto non crea ambiguità, si usa
−→
indicare con lo stesso simbolo PQ (oppure Q − P) anche il vettore libero ottenuto come classe
−→
di equipollenza del vettore applicato P Q; però per quello che qui segue è necessario ssare una
−−→
notazione diversa e si userà denotare, in questa sezione, con PQ (oppure Q − P) la classe di
−→
equipollenza del vettore applicato P Q. Se v è un vettore libero, il modulo, la direzione e il
verso di v sono il modulo, la direzione e il verso di un suo rappresentante (e quindi di ogni suo
rappresentante). In particolare, due vettori liberi sono paralleli se hanno uguale direzione.
2
Denotiamo con V2 l'insieme dei vettori liberi di E e con V3 l'insieme dei vettori liberi di E 3, o
semplicemente con con V l'insieme dei vettori liberi di E. Gli elementi di con V si indicano con le
lettere minuscole in grassetto.
Proposizione 3.1.1. Dati un vettore v ed un punto P di E, esiste un unico punto Q∈E tale
−−→
che v =PQ.
−→
Dimostrazione. Se v = 0, allora v = PP e quindi basta scegliere Q = P. Sia invece v 6= 0 e sia
−→
AB un vettore applicato la cui classe di equipollenza sia v. L'assioma di Euclide assicura che
esiste un'unica retta r per P parallela alla retta rAB , ed è poi chiaro che su r esiste un unico punto
−→ −→ −−→
Q tale che il vettore applicato PQ abbia stesso modulo e stesso verso di AB . Così v =PQ.
Andiamo ora a denire un'operazione, che chiameremo somma, nell'insieme V dei vettori liberi.
La somma di due vettori liberi v e w è il vettore libero che si denota con v + w e che è denito
29
−−→
come segue. Se v = PQ, la proposizione 3.1.1 assicura che esite un unico punto T tale che
−−→ −→
w = QT: allora per denizione si pone v + w = PT.
w
v+w T
P P0
w
v v
Q
Nella gura a sinistra, è ragurata la somma di vettori. Osservando la gura a destra, possiamo
riformulare la somma di vettori: due vettori non nulli e non paralleli v e w sono rappresentati
con segmenti orientati aventi entrambi come primo estremo uno stesso punto P 0 : tali segmenti
individuano un parallelogramma e la somma dei vettori è rappresentata dalla diagonale uscente
0 0
da P , con origine in P .
Il primo problema che si pone consiste nello stabilire che la denizione data non dipende dalla
scelta dei rappresentati per i vettori liberi. Se v = 0 (rispettivamente, w = 0), la somma di vettori
è ben denita e coincide con w (rispettivamente, con v). Supponiamo quindi che sia v che w non
sono il vettore nullo e analizziamo la gura che segue:
T T0
v+w v+w
0
P P
w w
v v
Q Q0
−− → −−→
Se P 0 Q0 è un altro vettore applicato che rappresenta T 0 è l'unico punto tale che Q0 T 0
v e
rappresenti w, allora il segmento P Q è parallelo al segmento P 0 Q0 e il segmento QT è parallelo
0 0 0
al segmento Q0 T 0 , così le proprietà dei triangoli assicurano che i triangoli P QT e P Q T sono
−→ −−0→0
congruenti. Pertanto i vettori P T e P T sono equipollenti e la denizione di somma è ben posta.
La struttura (V, +) è un gruppo abeliano, infatti la somma tra vettori liberi è sia associativa
v v+w w+u u
( +v w)+u=v+(w+u)
che commutativa
v
w
w+v
v+w
w
v
30
0 è l'elemento neutro rispetto alla somma (cioè v + 0 = v = 0 + v per ogni
inoltre il vettore nullo
−−→
v ∈ V ) e ogni vettore v =PQ ha per opposto (cioè simmetrico rispetto alla somma) il vettore
−−→
−v =QP (che è il vettore che ha stesso modulo e direzione di v, ma verso opposto).
Q0 P Q
-v v
Andiamo ora a denire un'altra operazione, questa volta si vuole denire in V è un'operazione
esterna con dominio di operatori in v è un vettore di V e λ ∈ R, si denisce prodotto del
R. Se
vettore v per lo scalare λ, λv denito come segue. Se v = 0 oppure λ = 0, allora
il vettore libero
λv = 0, se invece v 6= 0 e λ 6= 0, allora λv è il vettore libero che ha stessa direzione di v, modulo
pari al prodotto tra il valore assoluto |λ| di λ e il modulo di v, e verso concorde o discorde con v
a seconda che λ sia positivo o negativo.
-v P v
λv con λ<0 λv con λ>0
−→
v è un vettore non nullo e P Q è un suo rappresentante, sulla retta rP Q esistono
In dettaglio, se
due punti T1 e T2 tali che i segmenti P T1 e P T2 abbiano lunghezza pari al prodotto tra il valore
assoluto |λ| di λ e la lunghezza del segmento P Q, però esiste solo un i ∈ {1, 2} tale che il vettore
−−→ −→ −−→
P Ti abbia lo stesso verso di P Q: il vettore libero rappresentato da P Ti sarà per denizione il
vettore av.
Si potrebbe provare che l'operazione di prodotto di un vettore libero per un numero reale gode
delle seguenti proprietà:
1. λ(v + w) = λv + λw ∀v, w ∈ V e ∀λ ∈ R.
2. (λ + µ)v = λv + µv ∀v ∈ V e ∀λ, µ ∈ R.
4. 1v = v ∀v ∈ V .
Andiamo ora a studiare alcune proprietà dei vettori liberi. Innanzitutto, se v e w sono vettori
di V e risulta v = λw per qualche λ ∈ R, si dice pure che v e w sono proporzionali.
Proposizione 3.1.2. Due vettori liberi non nulli sono proporzionali se e solo se sono paralleli.
Dimostrazione. Siano v e w vettori liberi. Fissato un punto P , la proposizione 3.1.1 assicura che
−−→ −→
esiste un unico punto Q tale che v =PQ e che esiste un unico punto T tale che w =PT. Allora si
ha che v e w sono paralleli se e solo i segmenti P Q e P T giacciono su una stessa retta e quindi
se e solo se v e w sono proporzionali.
Tre vettori dello spazio u, v e w si dicono complanari se possono essere rappresentati con
segmenti orientati giacenti su uno stesso piano; in particolare, tre vettori sono complanari se uno
dei tre è nullo.
31
Proposizione 3.1.3. Siano u e v vettori liberi non paralleli, e sia w un vettore complanare con
u e v. Allora esistono dei numeri reali λ e µ tali che w = λu + µv.
Dimostrazione. I vettori u
v non sono paralleli per la proposizione 3.1.2, e quindi possiamo
e
−−→ −−→ −→
ssare un punto P tale che u = PQ, v = PR e w = PS, per opportuni punti Q, R e S (cfr.
proposizione 3.1.1). Si noti che, essendo non paralleli, i vettori sono non nulli, quindi i punti P, Q
e R sono a due a due distinti e pertanto a due a due generano rette: sia r1 la retta per P e Q e
0 0
−−→0 −−→0
sia r2 la retta per P e R. Siano poi Q ∈ r1 e R ∈ r2 tali che w = PQ + PR .
R0 S
P Q Q0
−−→0 −−→0
Allora esistono degli opportuni numeri reali λ e µ tali che PQ = λu e PR = µv. Sicchè
w = λu + µv come volevamo.
Proposizione 3.1.4. u, v e w tre vettori non complanari dello spazio, allora ogni altro
Siano
vettore e si esprime come e = αu + βv + γw per opportuni α, β, γ ∈ R.
−−→ −−→ −→
Dimostrazione. Fissato un punto P , risulta u = PQ, v = PR e w = PS per opportuni punti
Q, R e S (cfr. proposizione 3.1.1). Si noti che nessuno dei tre vettori è nullo - altrimenti i vettori
sarebbero complanari - quindi i punti P, Q, R e S sono a due a due distinti e pertanto a due a due
generano rette: sia r1 la retta per P e Q, r2 la retta per P ed R ed r3 la retta per P e S . Poichè
i vettori u, v e w sono non complanari, la proposizione 3.1.2 garantisce che essi sono a due a due
non paralleli, quindi i punti P, Q, R e S sono a tre a tre non allineati e pertanto generano dei
piani. Siano π12 il piano per P, Q e R, π13 il piano per P, Q e S e π23 il piano per P, R e S . Sia
−→
T un punto di E 3 tale che e = PT. Il piano per T parallelo al piano π23 interseca la retta r1 in
un punto T1 , analogamente il piano per T parallelo al piano π13 interseca la retta r2 in un punto
T2 ed il piano per T parallelo al piano π12 interseca la retta r3 in un punto T3 . Sia, inne, T12 il
punto di intersezione di π12 con la retta per T parallela ad r3 .
r3
T3
S
T
P r2
R T2
Q
T1 T12
r1
32
−−−→ −−→ −−→ −−−→ −−→
Si ha che PT12 = PT1 + PT2 e T12 T = PT3 , quindi
Concludiamo con la seguente denzione che ci tornerà utile in seguito. Siano v e w due vettori
−→ −→
liberi. Fissato un punto del piano P e supposto sia e v = PQ w = PT
(cfr. proposizione 3.1.1),
indichiamo con v,
d w l'angolo tra v e w, ovvero l'angolo convesso tra le semirette P Q e P T , quindi
v,
d w ∈ [0, π]. Si può provare che l'angolo così denito è indipendente dal punto P ssato. Inoltre,
i vettori non nulli v e w si dicono ortogonali, e si scrive v ⊥ w, se v, d w = π2 (ovvero se sono
rappresentati da segmenti che giacciono su rette ortogonali). Per convenzione, inne, si assume
che il vettore nullo è ortogonale ad ogni altro vettore.
Kn = {(x1 , . . . , xn ) | x1 , . . . , xn ∈ K}
comunque si considerino gli elementi (x1 , . . . , xn ) e (y1 , . . . , yn ) di Kn ; si noti che le somme che
compaiono nella n-upla al secondo membro della precedente posizione rappresenta la somma tra
elementi di K.
Le proprietà della somma di permettono di provare analoghe proprietà per questa somma
K
n
ora denita. Comunque si considerano gli elementi (x1 , . . . , xn ), (y1 , . . . , yn ) e (z1 , . . . , zn ) di K ,
n
dalla associatività della somma in K segue l'associatività della somma in K :
33
e
(x1 , . . . , xn ) + (−x1 , . . . , −xn ) = (0, . . . , 0) = (−x1 , . . . , −xn ) + (x1 , . . . , xn )
In denitiva, la somma denita in (3.1) rende Kn un gruppo abeliano in cui l'elemento neutro è
0 = (0, . . . , 0) e in cui
−(x1 , . . . , xn ) = (−x1 , . . . , −xn )
In Kn andiamo a denire anche un'operazione esterna con dominio di operatori in K, ponendo
per ogni λ∈K e per ogni (x1 , . . . , xn ) ∈ Kn ; evidentemente anche qui i prodotti che compaiono
nella n-upla al secondo membro della precente identità rappresentano il prodotto tra elementi
di K, Kn verrà indicato per giustapposizione ovvero si scriverà
inoltre nel seguito il prodotto in
semplicemente λ(x1 , . . . , xn ) in luogo di λ · (x1 , . . . , xn ). Comunque si considerano gli elementi
(x1 , . . . , xn ), (y1 , . . . , yn ) e (z1 , . . . , zn ) di Kn e gli elementi λ, µ ∈ K, è facile accorgersi che dalla
proprietà distributiva del prodotto rispetto alla somma valida tra elementi di K segue:
4. 1(x1 , . . . , xn ) = (x1 , . . . , xn ).
⊥ : (λ, v) ∈ K × V −→ λ⊥v ∈ V
3V λ⊥(µ⊥v) = (λµ)⊥v ;
4V 1⊥v = v .
In tal caso, gli elementi di V si dicono vettori e quelli di K scalari. Nel seguito l'operazione esterna
⊥ sarà denotata moltiplicativamente; inoltre, salvo avviso contrario, si parlerà semplicemente di
spazio vettoriale ritenendo ssato il campo K.
34
Proposizione 3.3.1. Sia V uno spazio vettoriale. Se λ e µ sono elementi di K ed u e v sono
elementi di V, risulta:
(iii) (λ − µ)v = λv − µv ;
(iv) λ(u − v) = λu − λv .
0v = (0 + 0)v = 0v + 0v
da cui 0v = 0 per la regolarità della somma; mentre usando la condizione 1V della denizione si
ha
λ0 = λ(0 + 0) = λ0 + λ0
da cui λ0 = 0 sempre per la regolarità della somma. Viceversa, se λv = 0 e λ 6= 0 allora dalle
condizioni 3V e 4V della denzione segue
sicchè λ(−v) = −(λv ); d'altra parte sempre la (i) e questa volta la condizione 2V della denizione
assicurano che
0 = 0v = (λ + (−λ))v = λv + (−λ)v
sicchè (−λ)v = −(λv).
(iii) Usando la condizione 2V della denzione, come conseguenza della (ii) si ha che
Esempio 3.3.2. I vettori liberi con le operazioni viste nel paragrafo 3.1 costituiscono un R-spazio
vettoriale.
Esempio 3.3.3. Se K è un campo, la struttura algebrica (Kn , +, ·), denita nel paragrafo 3.2, è
uno spazio vettoriale detto spazio vettoriale numerico su K e gli elementi di Kn si dicono pure
vettori numerici.
35
Esempio 3.3.4. Siano K un campo e K[x] l'insieme dei polinomi a coecienti in K (qui per
semplicità, così da ritrovare in K[x] un insieme già noto, si può pensare a K come al campo dei
numeri razionali o al campo dei numeri reali); allora K[x] è un altro esempio di spazio vettoriale su
K. Infatti, l'usuale operazione di addizione tra polinomi rende K[x] un gruppo abeliano ed inoltre,
n
considerati il generico polinomio a0 + a1 x + · · · + an x a coecienti in K e λ ∈ K, la posizione
Esempio 3.3.5. Nell'insieme Mm,n (K) delle matrici m×n sul campo K, abbiamo denito (nel
paragrafo 2.1) un'operazione interna di somma ponendo
ed abbiamo osservato che tale operazione rende Mm,n (K) un gruppo abeliano in cui lo zero è la
matrice nulla O (cioè la matrice O = (oij ) i cui elementi oij 0 del
sono tutti uguali allo zero
campo K), e in cui l'opposto della matrice (aij ) è la matrice −(aij ) = (−aij ). Se poi λ ∈ K e
A = (aij ) ∈ Mm,n (K), è possibile anche denire un'operazione esterna di prodotto della matrice A
per lo scalare λ ponendo λA = (λaij ) di Mm,n (K). E' semplice accorgersi che la struttura algebrica
(Mm,n (K), +, ·) è un K-spazio vettoriale.
Esempio 3.3.6. Siano V uno spazio vettoriale su un campo K ed S un insieme non vuoto qualsiasi.
S S
Si denoti con V l'insieme di tutte le applicazioni con dominio S e codominio V . Se f, g ∈ V e
λ ∈ K, siano f + g e λf le applicazioni di S in V denite rispettivamente dalle posizioni
3.4 Sottospazi
Sia V uno spazio vettoriale. Una parte W di V si dice K-sottospazio vettoriale di V, o semplice-
mente sottospazio vettoriale di V, e si scrive W ≤ V , se:
1S W 6= ∅;
36
In tal caso, le operazioni denite in V inducono delle operazioni in W rispetto alle quali anche W
è uno spazio vettoriale; inoltre considerato un qualsiasi elemento w di W si ha che 0w = 0 ∈ W
e per ogni v ∈ W è −v = (−1)v ∈ W (cfr. proposizione 3.3.1) . Chiaramente, V e {0} sono
sottospazi di V detti banali. In particolare, {0} è detto sottospazio nullo, mentre i sottospazi di
V diversi da V sono detti sottospazi propri. E' semplice inoltre accorgersi che
W ≤V se e solo se ∀ u, v ∈ W e ∀ λ, µ ∈ K risulta λu + µv ∈ W .
X = {(x, y, z) ∈ R3 | y = 0}
Esempio 3.4.4. Consideriamo lo spazio vettoriale Mn (K) delle matrici quadrate di ordine n sul
campo K e il suo sottoinsieme di tutte le matrici simmetriche:
S = {A ∈ Mn (K) : At = A}.
37
Esempio 3.4.5. Siano k ∈ N0 ed I un intervallo di R. Nell' R-spazio vettoriale RI di tutte le
applicazioni di I in R, un esempio di sottospazio vettoriale è dato dall'insieme C k (I) di tutte
le applicazioni di I in R per le quali esistono tutte le derivate no al k -esimo ordine, e tali
∞
derivate sono applicazioni continue. Un altro esempio di sottospazio è l'insieme C (I) di tutte le
applicazioni di I in
dotate di derivata continua di ogni ordine. E' inoltre semplice accorgersi
R
I
che, ssata una parte non vuota X di I , l'insieme {f ∈ R | f (x) = 0 ∀x ∈ X} è un sottospazio
I
mentre {f ∈ R | f (x) ∈ Q ∀x ∈ I} non è un sottospazio.
In generale, quindi, come l'esempio precedente mostra, l'unione di sottospazi può non essere
un sottospazio. Dierente è il caso dell'intersezione di sottospazi.
Sia V uno spazio vettoriale. Una combinazione lineare di v1 , . . . , vn ∈ V è una somma del
tipo λ1 v1 + · · · + λn vn dove λ1 , . . . , λn ∈ K sono degli scalari detti coecienti della combinazione
lineare. Considerata poi una parte non vuota X di V , sia L[X] il sottoinsieme di V i cui elementi
sono le combinazioni lineari, a coecienti in K, dei vettori che sono in X :
Proposizione 3.4.8. Siano V uno spazio vettoriale e X una parte non vuota di V. Allora
38
Se X è una parte non vuota di V, la proposizione 3.4.8 assicura che L[X] è un sottospazio
di V e che tra i sottospazi di V esso è il più piccolo (rispetto all'inclusione) a contenere X. Il
sottospazio L[X] si dice sottospazio di V generato da X . Evidentemente, se X è un sottospazio
di V risulta L[X] = X . Inoltre se X = {x1 , . . . , xn } è una parte nita di V , allora il sottospazio
generato da X si denota anche con L[x1 , . . . , xn ]. La precedente denizione si estende anche al
caso in cui X sia l'insieme vuoto ponendo L[∅] = {0}.
W1 + W2 + · · · + Wn = L[W1 ∪ W2 ∪ · · · ∪ Wn ].
Come semplice conseguenza dalla denizione di spazio generato da una parte, si ha che lo spazio
somma è l'insieme di tutte le somme del tipo w1 + w2 + · · · + wn con ogni wi elemento del rispettivo
Wi :
W1 + W2 + · · · + Wn = {w1 + w2 + · · · + wn | wi ∈ Wi ∀i = 1, . . . , n}.
(a) W = W1 + W2 + · · · + Wn ;
E' semplice accorgersi che X e Y sono sottospazi di R3 , inoltre si ha che X = L[(2, 0, 1)], Y =
L[(0, 1, 0)] e
X + Y = L[(2, 0, 1), (0, 1, 0)] = {(2s, t, s) | s, t ∈ R}.
Essendo evidente che X ∩ Y = {0}, si ha che X +Y =X ⊕Y.
39
3.5 Dipendenza e indipendenza lineare
Siano V uno spazio vettoriale (sul campo K) ed X
V . Si dice che un
una parte non vuota di
elemento v di V dipende da X se v ∈ L[X], e quindi se esistono degli elementi x1 , . . . , xn ∈ X tali
che v = λ1 x1 + · · · + λn xn con λ1 , . . . , λn ∈ K. Evidentemente se v dipende da X allora v dipende
da una parte nita di X . Si osservi che se v ∈ X , allora v = 1 · v dipende da X ; inoltre, se Y è
una parte non vuota di X , ogni elemento di V che dipende da Y dipende anche da X . E' anche
chiaro che il vettore nullo dipende da ogni parte non vuota di V , essendo 0 = 0 · v per ogni v ∈ V .
Se v1 , . . . , vn sono vettori a due a due distinti di V, facendo uso delle proprietà valide in uno
spazio vettoriale, si ha che
λ1 v1 + λ2 v2 + · · · + λn vn = 0 con λi 6= 0,
se e solo se
vi = −λ−1 −1 −1 −1
i λ1 v1 − · · · − λi λi−1 vi−1 − λi λi+1 vi+1 − · · · − λi λn vn ;
in particolare,
vi ∈ L[v1 , . . . , vi−1 , vi+1 , . . . , vn ],
se e soltanto se
L[v1 , . . . vn ] = L[v1 , . . . , vi−1 , vi+1 , . . . , vn ].
Pertanto i vettori v1 , . . . , vn sono linearmente dipendenti se e solo se (almeno) uno di essi dipende
dall'insieme formato dai restanti vettori. In particolare, nel caso di due vettori v1 e v2 si ottiene
che essi sono dipendenti se e solo se esiste uno scalare non nullo λ ∈ K tale che v1 = λv2 e
v2 = λ−1 v1 , o in altre parole, se e solo se ciascuno di essi appartiene al sottospazio vettoriale
generato dall'altro (in tal caso spesso si dice che i vettori v1 e v2 sono proporzionali ). Un errore
molto comune è pensare che i vettori v1 , . . . , v n sono indipendenti se sono indipendenti (cioè non
proporzionali) a due a due: questo non è vero! Ad esempio, nello spazio numerico R3 i vettori
(1, 0, 0), (0, 1, 0) e (1, 1, 0) sono dipendenti, ma sono non proporzionali a due a due.
λ1 v1 + λ2 v2 + λ3 v3 = 0
Facendo uso delle regole dell'algebra delle matrici, la precedente si riscrive come
λ1 − λ2 2λ1 + 2λ2 + 2λ3 0 0
=
2λ2 + λ3 λ1 + 2λ2 + 23 λ3 0 0
40
Dunque stabilire se i vettori dati sono dipendenti o indipendenti, equivale a chiedersi se il sistema
λ1 − λ2 = 0
2λ1 + 2λ2 + 2λ3 = 0
Σ:
2λ2 + λ3 = 0
λ1 + 2λ2 + 32 λ3 = 0
ha o non ha soluzioni non nulle (si ricordi che un sistema omogeneo ha sempre almeno la soluzione
nulla). La matrice incompleta del sistema
1 −1 0
2 2 2
0 2 1
1 2 32
0 12
1
0
1 12
0 0 0
0 0 0
Pertanto
1 1
Sol(Σ) = { − λ3 , − λ3 , λ3 : λ3 ∈ R} =
6 {(0, 0, 0)}
2 2
1 1
e quindi i vettori dati sono dipendenti. Si noti che − , − , 1 è soluzione di Σ, quindi deve
2 2
risultare
1 1
− v1 − v2 + 1v3 = 0
2 2
e pertanto
1 1
v3 = v1 + v2 .
2 2
Se V è uno spazio vettoriale, una sua parte X si dice libera o indipendente se è vuota oppure se
comunque si considerano degli elementi a due a due distinti x1 , . . . , x n
X , essi sono linearmente
in
indipendenti. Se X non è libera, allora si dice che X è legata o dipendente. Quindi X è legata
se X è non vuota ed esiste una combinazione lineare nulla λ1 x1 + · · · + λn xn = 0 di elementi
x1 , . . . , xn di X con scalari λ1 , . . . , λn non tutti nulli. Chiaramente X è libera se e solo se è libera
ogni sua parte nita, ed è anche chiaro che ogni sottoinsieme di V che contiene una parte legata
è legato. Sicchè essendo 1 · 0 = 0, ogni parte che contiene {0} è legata. Invece, se v ∈ V \ {0},
allora la (i) della proposizione 3.3.1 assicura che {v} è una parte libera di V . Si noti inoltre che i
vettori v1 , . . . , vn sono linearmente dipendenti (rispettivamente indipendenti) se e solo se la parte
{v1 , . . . , vn } è legata (rispettivamente libera), dunque il prossimo risultato è semplicemente una
generalizzazione di quanto osservato poco fa.
Proposizione 3.5.2. Sia V uno spazio vettoriale e sia X una parte di V. Allora
41
(i) X è legata se e solo se esiste un elemento v di X che dipende da X \ {v}.
(ii) X è libera se e solo se non esiste alcun elemento v in X che dipenda da X \ {v}.
Dimostrazione. Essendo (ii) la negazione della (i), basta provare la (i). Sia X una parte legata,
allora X è non vuota ed esistono x1 , . . . , xn ∈ X e λ1 , . . . , λn ∈ K tali che
1 · v − λ1 x1 − · · · − λn xn = 0
è una combinazione lineare nulla di elementi di X con coecienti non tutti nulli e pertanto X è
legata.
Dunque se V è uno spazio vettoriale e X è una sua parte, X è legata se e solo se esiste un
vettore v∈X che dipende da X \ {v}, il che equivale all'essere L[X] = L[X \ {v}]. Un'altra utile
proprietà è la seguente.
λv + λ1 x1 + · · · + λn xn = 0.
v = −λ−1 λ1 x1 − · · · − λ−1 λn xn .
SiaV uno spazio vettoriale. Una parte X di V si dice sistema di generatori di V se si ha che
V = L[X]. Chiaramente l'insieme vuoto è un sistema di generatori di {0}, mentre un insieme
non vuoto X è un sistema di generatori di V se e solo se ogni elemento di V dipende da X ,
in particolare V è un sistema di generatori per V . Lo spazio vettoriale V si dice nitamente
generato se ha un sistema di generatori nito. In particolare, se X è una parte nita di V allora
il sottospazio L[X] è uno spazio vettoriale nitamente generato.
Esempio 3.5.4. Nello spazio vettoriale R3 [x] dei polinomi a coecienti reali di grado al più 3, si
considerino i polinomi
e si ponga X = {p1 (x), p2 (x), p3 (x), p4 (x)}. Vogliamo stabilre se X è o meno un sistema di
2 3
generatori di R3 [x], questo signica chiedersi se il generico polinomio p(x) = a0 + a1 x + a2 x + a3 x
42
di R3 [x] è o meno combinazione lineare dei vettori che sono in X. Andiamo quindi a studiare
l'equazione vettoriale
p(x) = λ1 p1 (x) + λ2 p2 (x) + λ3 p3 (x) + λ4 p4 (x)
dove λ1 , λ2 , λ3 e λ4 sono dei parametri reali. Esplicitando la precedente relazione e sommando i
termini simili, riusciamo a scrivere
e quindi, applicando il principio di identità dei polinomi, ricaviamo che il nostro problema si può
tradurre nello stabile se il seguente sistema lineare nelle incognite λ1 , λ2 , λ3 e λ4
λ1 + λ3 = a0
2λ1 + λ2 + λ3 = a1
Σ:
−λ2 − λ3 = a2
2λ3 + λ4 = a3
1 0 1 0 a0
2 1 1 0 a1
0 −1 −1 0 a2
0 0 2 1 a3
1
a + 12 a2
1 0 0 0 2 1
0
1 0 0 a0 − 12 a1 + 12 a2
0 0 1 0 −a0 + 12 a1 − 32 a2
0 0 0 1 2a0 − a1 + 3a2 + a3
Una parte X si dice base per V se X è una parte libera ed un sistema di generatori per V.
Quindi l'insieme vuoto è una base per lo spazio nullo {0}, ed evidentemente lo spazio nullo è
l'unico ad avere per base l'insieme vuoto.
considerato nell'esempio 3.5.4, è una base per lo spazio vettoriale R3 [x] dei polinomi a coecienti
reali di grado al più 3. Infatti, nell'esempio 3.5.4 abbiamo mostrato che X è un sistema di
generatori. D'altra parte una combinazione lineare nulla dei vettori di X
43
da origine al sistema
λ1 + λ3 = 0
2λ1 + λ2 + λ3 = 0
Σ:
−λ2 − λ3 = 0
2λ3 + λ4 = 0
che si vede essere dotato solo della soluzione nulla (si noti che è lo stesso sistema che riusciva
nell'esempio 3.5.4 con a0 = a1 = a2 = a3 = 0). Pertanto X è libero e quindi in denitiva è
base.
Al ne di fornire una prima caratterizzazione delle basi, premettiamo la seguente denizione.
Siano V uno spazio vettoriale ed X una parte di V. Si dice che X è una parte libera massimale
di V se X è una parte libera e se da X ⊆ Y ⊆ V e X 6= Y segue che Y è legata. Invece, si dice
che X è un sistema minimale di generatori di V se X è un sistema di generatori e se da Z ⊆ X e
Z 6= X segue L[Z] 6= V .
Dimostrazione. (i) ⇔ (ii) Sia X una base, sicchè X è parte libera. Supponiamo che sia X ⊂ Y ⊆
V e sia u ∈ Y \ X . Essendo X una base per V , risulta V = L[X] e così u dipende da X . Poichè
X ⊆ Y \ {u} segue che u dipende da Y \ {u} e quindi Y è parte legata per la proposizione 3.5.2.
Dunque X è parte libera massimale. Viceversa, se v ∈ V allora v ∈ X (e quindi v dipende da X )
oppure X ∪ {v} è legato. Segue allora dalla proposizione 3.5.3 che v dipende da X in ogni caso,
dunque X è sistema di generatori per V nonchè base.
(i) ⇔ (iii) Sia X una base, sicchè X è un sistema di generatori. Supponiamo sia Z ⊂ X e
sia u ∈ X \ Z . Se Z fosse un sistema di generatori per V , allora u dipenderebbe da Z nonchè da
X \ {u}, essendo Z ⊆ X \ {u}; pertanto la proposizione 3.5.2 ci darebbe che X è parte legata
contro l'essere X libera in quanto base. Pertanto Z non è un sistema di generatori e X è un
sistema minimale di generatori. Viceversa, se X è un sistema minimale di generatori si ha che
u non dipende da X \ {u} qualsiasi sia u ∈ X . Pertanto X è libero per la proposizione 3.5.2 e
quindi X è base.
44
Concludiamo enunciando il seguente importante risultato la cui dimostrazione richiede delle
conoscenze di teoria degli insiemi più approfondite e che pertanto si omette; nel prossimo paragrafo
se ne darà una dimostrazione in un caso particolare.
Teorema 3.5.8. Ogni spazio vettoriale possiede una base ed inoltre due basi di uno stesso spazio
vettoriale sono equipotenti tra loro.
Dimostrazione. Senza ledere le generalità, si può supporre V = L[Y ]. Per assurdo sia n > m.
Ogni vettore in X è combinazione lineare degli elementi di Y e quindi si può scrivere
x1 = λ1,1 y1 + · · · + λ1,m ym
con ogni λ1,i ∈ K e con almeno un λ1,i 6= 0, altrimenti sarebbe x1 = 0 e X sarebbe una parte
legata. A meno di rinominare gli indici, supponiamo sia λ1,1 6= 0. Allora
y1 = λ−1 −1 −1
1,1 x1 − λ1,1 λ1,2 y2 − · · · − λ1,1 λ1,m ym ,
per opportuni scalari λ2,1 , . . . , λ2,m . Poichè x2 è non nullo, qualche λ2,i deve essere non nullo.
D'altra parte, se fosseλ2,2 = · · · = λ2,m = 0, allora λ2,1 6= 0 e {x1 , x2 } sarebbe una parte legata
contenuta nella parte libera X . Questa contraddizione prova che esiste i ∈ {2, . . . , m} tale che
λ2,i 6= 0. Anche questa volta, a meno di rinominare gli indici, possiamo supporre sia λ2,2 6= 0.
Quindi
y2 = −λ−1 −1 −1 −1
2,2 λ2,1 x1 + λ2,2 x2 − λ2,2 λ2,3 y3 − · · · − λ2,2 λ2,m ym .
Corollario 3.6.2. Sia V uno spazio vettoriale generato da n vettori. Allora ogni parte libera di
V è nita e contiene al più n elementi.
Dimostrazione. Sia L una parte libera di V, allora ogni parte nita X di L è libera ed essendo V
generato da un numero nito n di elementi, il lemma di Steinitz 3.6.1 ci assicura che X ha al più
n elementi; in particolare, L è nito di ordine al più n.
45
Teorema 3.6.3. (Estrazione di una base da un sistema di generatori) Sia V uno spazio
vettoriale e sia S un sistema nito di generatori per V. Allora S contiene una base per V.
Proviamo ora il teorema 3.5.8 nel caso particolare di spazi vettoriali nitamente generabili.
Teorema 3.6.4. (Teorema di esistenza ed equipotenza delle basi) Sia V uno spazio vet-
toriale generato da un numero nto n di elementi. Allora V contiene una base nita di ordine
m≤n e ogni sua base ha m elementi.
Dimostrazione. Se V = {0}, allora V ha per base l'insieme vuoto e l'insieme vuoto è l'unica base
possibile per V, dunque si può supporre che V V abbia un
non sia lo spazio nullo ovvero che
sistema di generatori S fatto di n ≥ 1 vettori non nulli. Il Teorema 3.6.3 assicura che S contiene
una base B di V ; evidentemente, B ha un numero nito m di elementi e risulta m ≤ n.
Sia ora B1 un'altra base per V . Essendo V = L[B], il corollario 3.6.2 assicura che B1 è un
insieme nito che contiene un numero k di elementi con k ≤ m. D'altra parte B è contenuto in
V = L[B1 ], e quindi ancora il lemma di Steinitz 3.6.1 assicura che m ≤ k , pertanto k = m ed il
risultato è provato.
Sia V uno spazio vettoriale non nullo. Si dice che V ha dimensione nita (su K), se V ha
una base nita. Se V ha una base nita B di ordine m, allora B è un sistema di generatori nito
di V e il teorema 3.6.4 assicura che ogni altra base di V ha esattamente m elementi. E' lecito
allora denire l'intero m come la dimensione di V (su K); in tal caso, si scrive dimK (V ) = m
o semplicemente dim(V ) = m. Per convenzione, anche lo spazio vettoriale nullo ha dimensione
nita pari a 0. Evidentemente uno spazio vettoriale ha dimensione 0 se e solo se esso è lo spazio
vettoriale nullo.
Teorema 3.6.5. (Teorema del completamento di una parte libera ad una base) Sia V
uno spazio vettoriale di dimensione nita n. Allora ogni parte libera L di V può essere completata
ad una base (cioè L è contenuta in una base).
46
Corollario 3.6.6. Sia V uno spazio vettoriale di dimensione nita n. Allora ogni parte libera con
n elementi è una base, ed ogni sistema di generatori con n elementi è una base.
Il teorema 3.5.8, o se si preferisce il teorema 3.6.4, assicura che ogni spazio vettoriale (ni-
tamente generato) è dotato di basi. L'utilità della nozione di base è espressa nell'enunciato del
prossimo risultato il quale, in un certo senso (e come poi si vedrà formalmente in seguito), mostra
che i vettori dello spazio possono essere individuati, una volta ssata una base, mediante vettori
numerici.
Teorema 3.6.7. Siano V uno spazio vettoriale ed X = {x1 , . . . , xn } una parte nita di V . Allora
X è una base per V se e solo se ogni elemento v di V si scrive come combinazione lineare
v = λ1 x1 + · · · + λn xn in cui i coecienti λ1 . . . , λn ∈ K sono univocamente determinati.
Dimostrazione. Se X è una base per V e v ∈ V , allora v = λ1 x1 + · · · + λn xn con λ1 , . . . , λn ∈ K.
Supponiamo sia anche v = µ1 x1 + · · · + µn xn con µ1 , . . . , µn ∈ K. Allora
(λ1 − µ1 )x1 + · · · + (λn − µn )xn = 0
e quindi, essendo X una parte libera, per ogni i = 1, . . . , n deve essere λi − µi = 0. Pertanto
λi = µi per ogni i = 1, . . . , n e quindi i coecienti λi sono univocamente determinati.
Reciprocamente, poichè ogni elemento di V è combinazione lineare di elementi di X si ha che
X è un sistema di generatori di V. Inoltre se
λ1 x1 + · · · + λn xn = 0
allora è
λ1 x1 + · · · + λn xn = 0x1 + · · · + 0xn
e quindi l'unicità dei coecienti assicura che λ1 = · · · = λn = 0. Pertanto X è anche una parte
libera e dunque è una base per V.
Esempio 3.6.8. Come conseguenza della proposizione 3.1.3 si ha che nello spazio vettoriale V2
dei vettori liberi del piano, due vettori non paralleli sono una base, in particolare dim(V2 ) = 2.
Invece, per lo spazio vettoriale V3 dei vettori liberi dello spazio, la proposizione 3.1.4 assicura che
tre vettori non complanari sono una base, in particolare dim(V3 ) = 3.
47
Esempio 3.6.9. Siano K un campo ed n ∈ N. Per ogni i = 1, . . . , n, posto
Esempio 3.6.10. L'esempio 3.6.9 mostra, in particolare, che il campo C dei numeri complessi è
un C-spazio vettoriare di dimensione 1. In realtà, il campo C può essere anche visto come R-spazio
vettoriale mediante l'usuale operazione di somma e restringendo l'operazione di prodotto, ovvero
considerando come operazione esterna quella denita dalla posizione ⊥ (λ, u) = λ · u per ogni
(λ, u) ∈ R × C (qui · è l'usuale prodotto del campo complesso). Ricordando che ogni numero
complesso si scrive (in modo unico) come a + ib con a e b in R si ottiene, come conseguenza
del teorema 3.6.7, che una base di C come R-spazio vettoriale è {1, i}; quindi C è un R-spazio
vettoriale di dimensione 2.
Esempio 3.6.11. Lo spazio dei polinomi K[x] su un campo K, invece, non è nitamente generato
e quindi non ha dimensione nita. Infatti, comunque si prende una parte nita X di K[x] detto
m il massimo dei gradi dei polinomi che formano X il polinomio xm+1 , non essendo esprimibile
come combinazione lineare di polinomi di grado al più m, non dipende da X e pertanto X non
genera K[x]. D'altra parte però, se n ∈ N, il sottospazio Kn [x] dei polinomi di grado al più
n ha come sistema di generatori la parte B = {1, x, x2 , . . . , xn }. Facilmente si prova che B è
anche una parte libera, dunque è una base e così dim(Kn [x]) = n + 1. Si noti che il generico
n
polinomio a0 + a1 x + · · · + an x di Kn [x] ha (a0 , a1 , . . . , an ) come vettore delle componenti rispetto
2 n
al riferimento (1, x, x , . . . , x ).
Esempio 3.6.12. Consideriamo lo spazio vettoriale Mm,n (K) delle matrici m×n sul campo K.
Si noti che
a11 ... a1n 1 ... 0 0 ... 1
. .. . . . . . . ..
. . = a11 .. . . . . + · · · + a1n .
. +
. . . . . .
am1 . . . amn 0 ... 0 0 ... 0
0 ... 0 0 ... 0
.. .. . . . . ..
. + · · · + amn .
+ · · · + am1 . . . . . .
1 ... 0 0 ... 1
sicchè, detta Mij è la matrice il cui unico elemento non nullo è l'elemento di posto (i, j) che è 1,
si ha che l'insieme
B = {Mij | i = 1, . . . , m e j = 1, . . . , n}
è un sistema di generatori per lo spazio vettoriale Mm,n (K). D'altra parte è semplice accorgersi
che B è anche un insieme libero, pertato B è una base per Mm,n (K), detta talvolta base canonica
48
di Mm,n (K); in particolare, dim(Mm,n (K)) = mn. Si osservi che la generica matrice
a11 . . . a1n
.. .. .
.
. . .
am1 . . . amn
ha componenti
(a11 , . . . , a1n , a21 , . . . , a2n , . . . , am1 , . . . , amn )
rispetto al riferimento canonico (Mij | i = 1, . . . , m e j = 1, . . . , n).
Esempio 3.6.13. Nello spazio vettoriale R3 [x] dei polinomi a coecienti reali di grado al più 3,
considerati i polinomi
e posto B = (p1 (x), p2 (x), p3 (x), p4 (x)), si ottiene come mostrato nell'esempio 3.5.5 che B è una
base per R3 [x]. Considerato il generico polinomio p(x) = a0 +a1 x+a2 x2 +a3 x3 di R3 [x], nell'esempio
3.5.4 abbiamo studiato l'equazione vettoriale
Riesce pertanto un sistema lineare che, così come nell'esempio 3.5.4, è equivalente al sistema la
cui matrice completa è
1
a + 12 a2
1 0 0 0 2 1
0
1 0 0 a0 − 12 a1 + 12 a2
0 0 1 0 −a0 + 12 a1 − 32 a2
0 0 0 1 2a0 − a1 + 3a2 + a3
e che pertanto è un sistema determinato la cui unica soluzione è
λ1 = 21 a1 + 21 a2
λ2 = a0 − 12 a1 + 21 a2
λ3 = −a0 + 12 a1 − 32 a2
λ4 = 2a0 − a1 + 3a2 + a3
Alla luce del teorema 3.6.7, l'unicità della soluzione ci dice che Bè base (e quindi ora disponiamo
di un metodo alternativo per stabilire se un insieme di vettori è base) ma in più la soluzione
2 3
ottenuta ci permette di dire che il generico polinomio p(x) = a0 + a1 x + a2 x + a3 x di R3 [x] ha
per componenti rispetto a B il vettore
1 1 1 1 1 3
a1 + a2 , a0 − a1 + a2 , −a0 + a1 − a2 , 2a0 − a1 + 3a2 + a3 .
2 2 2 2 2 2
49
Passiamo ora a provare alcune relazioni tra la dimensione di uno spazio vettoriale e la dimen-
sione di un suo sottospazio.
Proposizione 3.6.14. Sia V uno spazio vettoriale di dimensione nita e sia W un suo sottospazio.
Allora W ha dimensione nita e risulta essere dim(W ) ≤ dim(V ). Inoltre, dim(W ) = dim(V ) se
e solo se W =V.
Dimostrazione. Evidentemente si può supporre che W non sia lo spazio nullo. Dunque W contiene
un vettore non nullo v e chiaramente {v} è una parte libera; in particolare, l'insieme
F = {X ⊆ W | X è libera}
è non vuoto. Poichè ogni parte libera di W è una parte libera di V , il corollario 3.6.2 assicura
che ogni parte libera di W ha al più n = dim(V ) elementi. Ha senso quindi ssare in F un
elemento B il cui numero di elementi sia il massimo tra gli ordini delle parti libere di W (che sono
in F ). E' allora evidente che B è una parte libera massimale di W , e quindi B è una base per W
per il teorema 3.5.7; in particolare, la dimensione di W (ovvero l'ordine di B ) è al più pari alla
dimensione di V . Se poi dim(W ) = dim(V ) allora il corollario 3.6.6 assicura che B è anche base
di V e pertanto V = L[B] = W .
Teorema 3.6.15. (Formula di Grassmann) Sia V uno spazio vettoriale di dimensione nita
e siano W1 e W2 suoi sottospazi. Allora
si ha che
α1 v1 + · · · + αr vr + β1 u1 + · · · + βs us = −γ1 w1 − · · · − γt wt ∈ W1 ∩ W2
dunque
α1 v1 + · · · + αr vr + β1 u1 + · · · + βs us = δ1 v1 + · · · + δr vr
e così il teorema 3.6.7 garantisce, in particolare, che β1 = · · · = βs = 0. Pertanto la (3.2) diventa
α1 v1 + · · · + αr vr + γ1 w1 + · · · + γt wt = 0
50
ed essendo B2 libero, si ha che α1 = · · · = αr = γ1 = · · · = γt = 0. Così B1 ∪ B2 è libero, come si
voleva. Poichè B1 ∪ B2 ha r + s + t elementi, segue che
dim(W1 + W2 ) = r + s + t = (r + s) + (r + t) − r =
= dim(W1 ) + dim(W2 ) − dim(W1 ∩ W2 ).
Nel caso sia invece W1 ∩ W2 = {0}, un ragionamento analogo al precedente prova che l'unione
tra una base di W1 ed una base di W2 è una base per W1 +W2 , così anche in questo caso il risultato
sussiste.
Sia V uno spazio vettoriale di dimensione nita su un campoK e siano W1 e W2 due sottospazi
di V tali che il loro spazio somma W sia una somma diretta W = W1 ⊕ W2 . Allora W1 ∩ W2 = {0}
e quindi la formula di Grassman 3.6.15 assicura che dim(W ) = dim(W1 ) + dim(W2 ), inoltre
procedendo come nella dimostrazione del teorema 3.6.15 si ottiene che una base per W è l'unione
tra una base di W1 e una base di W2 . Più in generale, è un semplice esercizio provare che se W
è somma diretta dei sottospazi W1 , . . . , Wt , ssata una base Bi in ciascun Wi , una base per W è
l'insieme B = B1 ∪ · · · ∪ Bt .
ϕ : V −→ W
2L ϕ(λu) = λϕ(u).
(i) ϕ(0) = 0;
51
Dimostrazione. Si ha che
ϕ(0) = ϕ(0 + 0) = ϕ(0) + ϕ(0)
e così ϕ(0) = 0. Se v∈V allora
Il prossimo risultato fornisce un metodo per costruire applicazioni lineari; esso mostra inoltre
che un'applicazione lineare è univocamente determinata dai trasformati dei vettori di una base del
dominio.
52
Se ψ : V −→ W è un'altra applicazione lineare tale da risultare w1 = ψ(e1 ), . . . , wn = ψ(en ),
e v = λ1 e1 + · · · + λn en è il generico elemento di V , si ha
ψ(v) = ψ(λ1 e1 + · · · + λn en ) =
= λ1 ψ(e1 ) + · · · + λn ψ(en ) =
= λ1 w1 + · · · + λn wn =
= λ1 ϕ(e1 ) + · · · + λn ϕ(en ) =
= ϕ(λ1 e1 + · · · + λn en ) =
= ϕ(v)
e pertanto ψ = ϕ.
L'applicazione ϕ denita nella dimostrazione della teorema 3.7.3 si dice ottenuta estendendo
per linearità le posizioni v1 = ϕ(e1 ), . . . , vn = ϕ(en ).
Esempio 3.7.4. Consideriamo l'R-spazio vettoriale R2 [x] dei polinomi di grado al più 2 a coef-
cienti reali, e in esso supponiamo ssato il riferimento R = (1, 1 + x, x + x2 ); in particolare, il
generico elemento di R2 [x]
a0 + a1 x + a2 x 2
si scrive rispetto ai vettori del riferimento R (in modo unico) come
Poniamo
L'applicazione ϕ : R2 [x] −→ R2 così ottenuta è l'applicazione lineare che estende per linearità le
posizioni (3.3).
53
Dimostrazione. Siano v1 , v2 ∈ V e λ, µ ∈ K allora
E' semplice rendersi conto che ogni applicazione lineare trasforma vettori linearmente dipenden-
ti in vettori linearmente dipendenti (basta ricordare la denizione e il fatto che ogni applicazione
lineare manda il vettore nullo in sé stesso), ma non è detto che i trasformati di vettori linearmenti
indipendenti siano ancora linearmente indipendenti basta prendere in considerazione, ad esempio,
l'applicazione lineare che manda ogni vettore nel vettore nullo. Nel caso però l'applicazione lineare
sia iniettiva, anche vettori linearmente indipendenti sono trasformati in vettori indipendenti.
Proposizione 3.7.8. Sia ϕ : V −→ W è un monomorsmo tra spazi vettoriali sul campo K. Allo-
ra i vettori v1 , . . . , vt di V sono indipendenti se e solo se ϕ(v1 ), . . . , ϕ(vt ) sono vettori indipendenti
di W.
54
Dimostrazione. Se v1 , . . . , vt ∈ V sono indipendenti e λ1 , . . . , λt ∈ K sono tali che λ1 ϕ(v1 ) + · · · +
λt ϕ(vt ) = 0, ϕ(λ1 v1 + · · · + λt vt ) = 0 nonchè λ1 v1 + · · · + λt vt = 0 perchè anche ϕ(0) = 0
allora è
per la proposizione 3.7.1 e perchè ϕ è iniettiva. Pertanto λ1 = · · · = λn = 0 e ϕ(v1 ), . . . , ϕ(vt )
sono indipendenti. Viceversa, se ϕ(v1 ), . . . , ϕ(vt ) sono vettori indipendenti e λ1 v1 + · · · + λt vt = 0
allora è ϕ(λ1 v1 + · · · + λt vt ) = 0 per la proposizione 3.7.1. Così λ1 ϕ(v1 ) + · · · + λt ϕ(vt ) = 0 per
la linearità di ϕ, quindi λ1 = · · · = λn = 0 e v1 , . . . , vt di V sono indipendenti.
Supponiamo che V sia uno spazio vettoriale non nullo di dimensione nita n sul campo campo
K. Fissiamo un riferimento R = (e1 , . . . , en ) in V e indichiamo con (v)R il vettore delle componenti
in R di v ∈V. L'applicazione
cR : v ∈ V −→ (v)R ∈ Kn
è iniettiva per l'unicità delle componenti (cfr. teorema 3.6.7) ed è evidentemente anche suriettiva.
E' inoltre semplice provare che cR è lineare, pertanto cR è un isomorsmo detto isomorsmo
coordinato associato al riferimento R, o anche coordinazione di V associata a R, o talvolta detto
sistema di coordinate su V rispetto ad R.
(ii) Se V0
è un altro K-spazio vettoriale di dimensione nita, si ha che V e V0 sono isomor se
0
e solo se V e V hanno la stessa dimensione.
Dai risultati esposti in questa sezione si evince che attraverso l'isomorsmo coordinato lo
studio di determinate proprietà di un K-spazio vettoriale di dimensione n può essere ricondotto
allo studio delle analoghe proprietà nello spazio vettoriale Kn . Chiariamo meglio questo con il
seguente esempio.
Esempio 3.7.11. Nello spazio vettoriale R3 [x] dei polinomi a coecienti reali di grado al più 3,
consideriamo i polinomi
f1 = x3 + 2x, f2 = x − 1, f3 = 2x3 + 3x + 1, e f4 = x2 + 3x − 2
55
e determinamo una base per il sottospazio W = L[f1 , f2 , f3 , f4 ]. Consideriamo il riferimento
R = (x3 , x2 , x, 1) e l'isomorsmo coordinato ad esso associato
Tramite cR il sottospazio W viene mandato nel sottospazio W0 generato dai trasformati degli fi
ovvero generato dai vettori
Dunque determiniamo una base per W 0. Osservando che w3 = 2w1 −w2 e che αw1 +βw2 +γw4 = 0
se e solo se α = β = γ = 0, si ottiene subito che {w1 , w2 , w4 } è una base per W 0 ; pertanto una
base per W è
{c−1 −1 −1 3 2
R (w1 ), cR (w2 ), cR (w3 )} = {x + 2x, x − 1, x + 3x − 2} = {f1 , f2 , f4 }.
Im ϕ = {ϕ(v) | v ∈ V }
La proposizione 3.7.1 assicura che 0 ∈ ker ϕ, inoltre se u e v sono elementi di V tali che ϕ(u) =
ϕ(v) = 0 e λ, µ ∈ K allora ϕ(λu + µv) = λϕ(u) + µϕ(v) = 0 sicchè ker ϕ è un sottospazio vettoriale
di V .
Teorema 3.8.2. (Teorema della Dimensione) Sia ϕ : V −→ W un'applicazione lineare tra gli
spazi vettoriali V e W su un campo K. Se V ha dimensione nita, allora
56
Dimostrazione. Se ker ϕ = {0} allora ϕ è iniettiva per la proposizione 3.8.1 e quindi i trasformati
tramite ϕ degli elementi di una base di V formano una base di Im ϕ per il corollario 3.7.9, sicchè
dim(V ) = dim(Im ϕ) e l'asserto è vero. Supponiamo dunque che ker ϕ 6= {0}. Consideriamo
{v1 , . . . , vt } una base per ker ϕ e completiamo ad una base B = {v1 , . . . , vt , vt+1 , . . . , vn } per V
(cfr. teorema 3.6.5). Essendo ϕ(v1 ) = · · · = ϕ(vt ) = 0, la proposizione 3.7.6 assicura che Im ϕ
è generato da B1 = {ϕ(vt+1 ), . . . , ϕ(vn )}. Se consideriamo una combinazione lineare nulla degli
elementi di B1 a coecienti in K
otteniamo che λ1 vt+1 +· · ·+λn−t vn ∈ ker ϕ e quindi, essendo B libero, si ha che λ1 = · · · = λn−t = 0.
Pertanto B1 è una base per Im ϕ e risulta
L'asserto è provato.
Corollario 3.8.3. Siano V e W due spazi vettoriali su un campo K aventi uguale dimensione
(nita), e sia ϕ : V −→ W un'applicazione lineare. Sono equivalenti le seguenti aermazioni:
(i) ϕ è iniettiva;
(ii) ϕ è suriettiva;
(iii) ϕ è biettiva.
s : V × V −→ R
57
(a) s(λ1 v1 + · · · + λt vt , w) = λ1 s(v1 , w) + · · · + λn s(vt , w), comunque si considerano gli elementi
v1 , . . . , vt , w ∈ V e λ1 , . . . , λt ∈ R.
(b) s(0, v) = s(v, 0) = 0 per ogni v ∈V.
Un R-spazio vettoriale in cui è denito un prodotto scalare si dice essere uno spazio euclideo
(reale). Si noti che ogni sottospazio di uno spazio euclideo è uno spazio euclideo con l'applicazione
indotta da s su esso. Salvo avviso contrario, nel seguito il prodotto scalare sarà denotato sempre
con s.
Esempio 3.9.1. Un prodotto scalare si può denire per lo spazio vettoriale dei vettori liberi V (del
piano o dello spazio). Siano v e w due vettori liberi. Se v oppure w è nullo, poniamo v · w = 0;
se invece v e w sono entrambi non nulli, poniamo
v · w = |v||w| cos(v,
d w)
dove |v| e |w| rappresenta il modulo di v e w, rispettivamente. Si può provare che le precedenti
posizioni deniscono un'applicazione che è un prodotto scalare, detto prodotto scalare geometrico,
e così V è uno spazio euclideo.
· : ((x1 , . . . , xn ), (y1 , . . . , yn )) ∈ Rn × Rn −→ x1 y1 + · · · + xn yn ∈ R
è un prodotto scalare, detto prodotto scalare standard. In particolare, Rn è uno spazio euclideo.
s : Rn [x] × Rn [x] −→ R
denita ponendo
s(a0 + a1 x + · · · + an xn , b0 + b1 x + · · · + bn xn ) = a0 b0 + a1 b1 + · · · + an bn
è un prodotto scalare dello spazio Rn [x], che pertanto è anch'esso uno spazio euclideo.
Esempio 3.9.4. Se I = [a, b] ⊆ R, nello spazio vettoriale reale C 0 (I) delle applicazioni continue
di I in R un prodotto scalare è denito ponendo la posizione
Z b
s(f, g) = f (x)g(x)dx, ∀f, g ∈ C 0 (I).
a
Infatti le proprietà richieste dalla denizione di prodotto scalare sono soddisfatte, l'unica cosa
meno evidente è che s(f, f ) = 0 implica che f : x ∈ I → 0 ∈ R). Per
sia l'applicazione nulla (f
vedere questo osserviamo che se f non è l'applicazione nulla, esistono ε > 0 ed un punto x0 ∈ I
2 2
tali che f (x0 ) > ε. Per la continuità di f , esiste poi un intorno ]c, d[⊆ I di x0 tale che f (x) > ε
per ogni x ∈]c, d[, e quindi
Z b Z d Z d
2 2
s(f, f ) = f (x) dx ≥ f (x) dx > εdx = ε(d − c) > 0.
a c c
58
Sia V uno spazio euclideo e sia v un elemento di V. Si dice modulo (o anche lunghezza) il
numero p
kvk = s(v, v).
Evidentemente kvk ≥ 0 e kvk = 0 se e solo se v = 0; inoltre, se λ ∈ R, allora kλvk = |λ|kvk.
Un vettore di modulo 1 si dice versore. Se v è un vettore non nullo di V , si dice versore di v
il vettore
v
vers(v) = ;
kvk
evidentemente vers(v) è un versore ed è di uso comune la locuzione normalizzare il vettore v per
indicare che si vuole considerare vers(v) invece che v.
Esempio 3.9.5. Nello spazio numerico Rn munito del prodotto scalare standard, se u = (x1 , . . . , xn ),
si ha che u · u = x21 + · · · + x2n e quindi
q
kuk = x21 + · · · + x2n .
Ancora, se si considera lo spazio vettoriale C 0 ([0, 2π]) con il prodotto scalare denito nell'esempio
3.9.4, si ha che
Z 2π h1 i2π
s(sin, sin) = sin x2 dx = (x − sin x cos x) =π
0 2 0
√ √
e quindi k sin k = π; analogamente anche k cos k = π .
Sussiste la seguente.
(i) Disuguaglianza di Cauchy-Schwarz: s(u, v)2 ≤ s(u, u)s(v, v) e in questa relazione vale
l'uguaglianza se e solo se u e v sono linearmente dipendenti;
s(u, v)
cos θ = ,
kukkvk
questo unico angolo θ
si dice angolo tra i vettori u e v e si denota con ud, v . I vettori non nulli u
π
e v si dicono ortogonali se u d, v = 2 , ovvero se s(u, v) = 0, e in tal caso si scrive u ⊥ v . Poichè
s(u, 0) = 0 qualsiasi sia il vettore u, per convenzione si assume che il vettore nullo sia ortogonale
ad ogni altro vettore.
59
Esempio 3.9.7. Nello spazio numerico R2 munito del prodotto scalare standard i vettori u = (1, 2)
e v = (−2, 1) sono ortogonali essendo u · v = 1(−2) + 2(1) = 0. Ancora, se si considera lo spazio
0
vettoriale C ([0, 2π]) con il prodotto scalare denito nell'esempio 3.9.4, si ha che
Z 2π Z 2π h1 i2π
s(sin, cos) = sin x cos xdx = sin xd(sin x) = sin2 x =0
0 0 2 0
Teorema 3.9.8. (Teorema di Pitagora) Se u e v sono vettori ortogonali dello spazio euclideo
V, allora
ku + vk2 = kuk2 + kvk2
Dimostrazione. Essendo s(u, v) = 0, si ha che
ku + vk2 = s(u + v, u + v) =
= s(u, u) + 2s(u, v) + s(v, v) =
= s(u, u) + s(v, v) =
= kuk2 + kvk2 .
Un insieme di vettori non nulli {v1 , . . . , vt } di uno spazio euclideo V si dice ortogonale se è for-
mato da vettori a due a due ortogonali. Un insieme ortogonale fatto di versori si dice ortonormale.
Chiaramente se v è un elemento non nullo V , allora {vers(v)} è un sistema ortonormale; più in
generale, se {v1 , . . . , vt } è un insieme ortogonale allora {vers(v1 ), . . . , vers(vt )} è ortonormale.
Esempio 3.9.9. Se n è un intero positivo, la base canonica di Rn e la base canonica di Rn [x] sono
insiemi ortonormali rispetto al prodotto scalare denito nell'esempio 3.9.2 e nell'esempio 3.9.3,
rispettivamente.
Il prossimo risultato prova, in particolare, che due vettori non nulli di uno spazio eulideo non
possono essere contemporaneamente proporzionali (cioè dipendenti) e ortogonali.
λ1 v1 + · · · + λt vt = 0
0 = s(0, vi ) = s(λ1 v1 + · · · + λt vt , vi ) =
= λ1 s(v1 , vi ) + · · · + λi s(vi , vi ) + · · · + λt s(vt , vi ) =
= λi s(vi , vi )
60
Il teorema 3.6.4 assicura che ogni spazio vettoriale nitamente generato ha una base, e si
vuole ora provare che a partire da una base di uno spazio euclideo di dimensione nita se ne può
costruire un'altra che è anche un insieme ortogonale (o ortonormale). Dunque ogni spazio euclideo
di dimensione nita ha una base ortogonale (o ortonormale). La dimostrazione del prossimo
risultato prende il nome di processo di ortonormalizzazione di Gram-Schmidt.
Teorema 3.9.11. Ogni spazio euclideo non nullo di dimensione nita ha una base ortogonale (o
ortonormale).
Dimostrazione. Sia V uno spazio euclideo non nullo di dimensione nita n e sia B = {v1 , . . . , vn }
una sua base. Poniamo
u1 = v1
s(v2 , u1 )
u2 = v2 − u1
s(u1 , u1 )
s(v3 , u1 ) s(v3 , u2 )
u3 = v3 − u1 − u2
s(u1 , u1 ) s(u2 , u2 )
.
.
.
n−1
X s(vn , ui )
un = vn − ui
i=1
s(ui , ui )
Osserviamo che ciasun vettore ui è non nullo, altrimenti si avrebbe che vi sarebbe combinazione
lineare diu1 , . . . , ui−1 , e dunque anche di v1 , . . . , vi−1 , contro l'essere {v1 , . . . , vi } ⊆ B e B libero.
Chiaramente {u1 } è un insieme ortogonale. Supponiamo di aver provato che {u1 , . . . , ui−1 } sia
ortogonale. Per ogni j ∈ {1, . . . , i − 1} si ha
i−1
!
X s(vi , uj )
s(vi , uk ) = s vi − uj , uk =
j=1
s(uj , uj )
i−1
X s(vi , uj )
= s(vi , uk ) − s(uj , uk ) =
j=1
s(uj , uj )
s(vi , uk )
= s(vi , uk ) − s(uk , uk ) = 0
s(uk , uk )
e dunque anche {u1 , . . . , ui−1 , ui } è ortogonale. Si ottiene pertanto che {u1 , . . . , un } è un insieme
ortogonale fatto da vettori non nulli, pertanto esso è libero per la proposizione 3.9.10 e dunque,
essendo n = dim(V ), esso è una base per li corollario 3.6.6. In particolare, {vers(u1 ), . . . , vers(un )}
è una base ortonormale di V .
Esempio 3.9.12. Si è già osservato che nello spazio vettoriale numerico la base canonica è una
3
base ortonormale rispetto al prodotto scalare standard. Come altro esempio consideriamo R col
prodotto scalare standard e in esso la base B costituita dai vettori v1 = (1, 1, 0), v2 = (2, 0, 0) e
61
v3 = (0, 0, 1). Si vuole ortonormalizzare B. Si ha
u1 = v1 = (1, 1, 0)
s(v2 , u1 ) 2
u2 = v2 − u1 = (2, 0, 0) − (1, 1, 0) = (1, −1, 0)
s(u1 , u1 ) 2
s(v3 , u1 ) s(v3 , u2 ) 0 0
u3 = v3 − u1 − u2 = (0, 0, 1) − (1, 1, 0) − (1, −1, 0) = (0, 0, 1)
s(u1 , u1 ) s(u2 , u2 ) 2 2
√ ! √
u1 1 2 2
vers(u1 ) = = √ (1, 1, 0) = , ,0
ku1 k 2 2 2
√ √ !
u2 1 2 2
vers(u2 ) = = √ (1, −1, 0) = ,− ,0
ku2 k 2 2 2
u3 1
vers(u3 ) = = (0, 0, 1) = (0, 0, 1)
ku3 k 1
Siano u e v vettori dello spazio euclideo V, con v non nullo. Il numero reale
s(u, v)
s(v, v)
s(u, v)
projv (u) = v
s(v, v)
si dice proiezione ortogonale di u su v; si noti che projv (u) ∈ L[v]. Il prossimo risultato mostra,
in particolare, che le componenti di un vettore rispetto ad una base ortogonale sono date dai
coecienti di Fourier del vettore in questione rispetto ai vettori della base ssata.
Dimostrazione. Essendo R ortogonale ed s bilineare, posto (u)R = (x1 , . . . , xn ) si ha che per ogni
k = 1, . . . , n risulta
n
! n
X X
s(u, ek ) = s xi ei , ek = xi s(ei , ek ) = xk s(ek , ek )
i=1 i=1
62
per cui
s(u, ek )
xk = .
s(ek , ek )
Da cui, se poi R è ortonormale e v è un altro vettore di V le cui componenti in R sono (v)R =
(y1 , . . . , yn ), si ricava
n
! n n
X X X
s(u, v) = u, yi ei = yi s(u, ei ) = xi y i .
i=1 i=1 i=1
Siano V uno spazio vettoriale euclideo ed X una parte non vuota di V. Un vettore v di V si
dice ortogonale (o normale) ad X se v⊥x per ogni x ∈ X, in tal caso si scrive v ⊥ X. Sia poi
X ⊥ = {v ∈ V | v ⊥ X}.
W = {(x, y, z, t) | x + y − z + t = 2y − t = t = 0}.
E' semplice accorgersi che una base per W è {(1, 0, 1, 0)}, dunque W ⊥ è costituito da tutti i vettori
(x, y, z, t) di R4 tali che
(x, y, z, t) · (1, 0, 1, 0) = 0,
quindi
W ⊥ = {(x, y, z, t) | x + z = 0}
e pertanto una base per W⊥ è costituita dai vettori (−1, 0, 1, 0), (0, 1, 0, 0) e (0, 0, 0, 1).
Teorema 3.9.15. Sia V uno spazio euclideo di dimensione nita e sia W un sottospazio di V.
Allora V =W⊕ W ⊥ . Inoltre risulta essere (W ⊥ )⊥ = W e dim(W ⊥ ) = dim(V ) − dim(W ).
Dimostrazione. Per il teorema 3.9.11, è lecito ssare in W una base ortogonale B = {v1 , . . . , vt }.
Se v ∈V, poniamo
s(v, v1 ) s(v, vt )
p(v) = projv1 (v) + · · · + projvt (v) = v1 + · · · + vt .
s(v1 , v1 ) s(vt , vt )
63
Evidentemente p(v) ∈ W e v = p(v) + (v − p(v)). Poichè per ogni i = 1, . . . , t risulta
64
Capitolo 4
Matrici e Sistemi lineari
si ha
2 2
0 −4
A(1, 2, 1 | 1, 1) = −5 −5 e A(1, 3 | 2, 4) =
−5 1
2 2
mentre
2 −3 −4
A32 = .
−5 1 0
65
Se A ∈ Mn (K), la scrittura A = (A1 , ..., An ) indica le righe di A sono formate dai vettori
A1 , ..., An ∈ Kn . Ciò premesso, una funzione determinante per Mn (K) è una funzione
det : Mn (K) → K
che ad ogni matrice A ∈ Mn (K) associa lo scalare det(A) (talvolta indicato pure col simbolo |A|),
che verica le seguenti tre proprietà:
(1d ) det(In ) = 1;
(3d ) La funzione det è lineare sulle righe, ovvero se la i-esima riga della matrice A ∈ Mn (K) è tale
n
che Ai = λu+µv , dove λ, µ ∈ K e u, v ∈ K , considerate le matrici B = (A1 , ..., Ai−1 , u, Ai+1 , ..., An )
e C = (A1 , ..., Ai−1 , v, Ai+1 , ..., An ), si ha che det(A) = λ det B + µ det C .
(a) ∈ M1 (K) → a ∈ K
e
a11 a12
∈ M2 (K) → a11 a22 − a21 a12 ∈ K
a21 a22
vericano le proprietà (1d ), (2d ) (3d ) e quindi sono funzioni determinate, e in realtà esse sono
e
le uniche funzioni determinante di M1 (K) e M2 (K), rispettivametne. Sussiste infatti il seguente
fondamentale risultato di cui si omette la dimostrazione.
Teorema 4.1.2. Per ogni n ∈ N, una funzione determinate det per Mn (K) esiste ed è unica.
Una matrice A ∈ Mn (K) tale che det(A) = 0 si dice singolare. Quindi la (2d ) dice che una
matrice quadrata con due righe uguali è singolare; più in generale sono singolari le matrici che
hanno due righe proporzionali perchè come conseguenza immediata delle precedenti proprietà si
ottiene che
Infatti, supponendo ad esempio che siano proporzionali le prime due righe (analogo è il ragiona-
mento nel caso generale), si ha
(3d ) (2d )
det(A1 , λA1 , A3 , ..., An ) = λ det(A1 , A1 , A3 , ..., An ) = 0
Il prossimo risultato mostra l'eetto che le operazioni elementari producono sul determinante
di una matrice.
Proposizione 4.1.3. Siano A e B due matrici quadrate di ordine n sul campo K. Si ha:
66
(ii) Se B è ottenuta da A moltiplicando una ssata riga per uno scalare λ ∈ K, allora det(B) =
λ det(A);
(iii) Se B è ottenuta da A sommando ad una ssata riga una qualunque combinazione lineare
delle altre righe, allora det(B) = det(A).
Dimostrazione. (i) Per comodità di scrittura supponiamo che B sia ottenuta da A scambiano
le prime due righe (analogo è il ragionamento se le righe scambiate non sono le prime due),
quindi A = (A1 , A2 , A3 , ..., An ) e B = (A2 , A1 , A3 , ..., An ). Applicando le proprietà della funzione
determinante si ha
(2d )
0 = det(A1 + A2 , A1 + A2 , A3 , ..., An )
(3d )
= det(A1 , A1 + A2 , A3 , ..., An ) + det(A2 , A1 + A2 , A3 , ..., An )
(3d )
= det(A1 , A1 , A3 , ..., An ) + det(A1 , A2 , A3 , ..., An )+
+ det(A2 , A1 , A3 , ..., An ) + det(A2 , A2 , A3 , ..., An )
(2d )
= det(A1 , A2 , A3 , ..., An ) + det(A2 , A1 , A3 , ..., An )
dunque
det(A1 , A2 , A3 , ..., An ) = − det(A2 , A1 , A3 , ..., An )
da cui la tesi.
(ii) Se A = (A1 , A2 , A3 , ..., An ) ∈ Mn (K) e λ ∈ K, segue subito dalla (3d ) che
det(A1 , ..., Ai−1 , λAi , Ai+1 ..., An ) = λ det(A1 , ..., Ai−1 , Ai , Ai+1 ..., An ).
det(A1 + λ2 A2 + · · · + λn An , A2 , ..., An )
= det(A1 , A2 , ..., An ) + λ2 det(A1 , A2 , ..., An ) + · · · + λn det(An , A2 , ..., An )
Analogo è il ragionameno se la riga a cui si è sommata una combinazione lineare delle restanti
righe non è la prima riga ma una qualsiasi altra riga.
si dice complemento algebrico di aij . Sussiste il seguente notevole risultato che fornisce un metodo
di calcolo del determinante.
67
Teorema 4.1.4. (Primo Teorema di Laplace) Sia A = (aij ) una matrice quadrata di ordine
n sul campo K. Se h ∈ {1, . . . , n} allora
n
X n
X
det(A) = (−1) h+j
ahj det(Ahj ) = ahj a0hj
j=1 j=1
e
n
X n
X
det(A) = i+h
(−1) aih det(Aih ) = aih a0ih .
i=1 i=1
Esempio 4.1.5. Usiamo il teorema 4.1.4 per calcolare il determinante della matrice di M3 (R)
2 1 −3
A = 0 1 1 .
4 3 5
1 1 0 1 0 1
Allora det(A) = 2 − − 3 = 20.
3 5 4 5 4 3
Come conseguenza del teorema 4.1.4, sussistono le seguenti proprietà di calcolo del determi-
nante.
Dimostrazione. Per provare (i) basta sviluppare il determinare di A secondo una ssta riga i e il
t
determinante di A secondo la colonna i. Per provare (ii) invece basta sviluppare il determinante
di A secondo la riga nulla.
tutte
Dunque una matrice e la sua trasposta hanno lo stesso determinante, questo ci dice che
le proprietà del determinate che si applicano alle righe di una matrice si riscrivono
in modo analogo per le colonne. Ad esempio, una matrice con due colonne proporzionali ha
determinante nullo.
Una matrice quadrata A = (aij ) si dice triangolare superiore se tutti gli elementi sotto la
diagonale principale sono nulli, cioè se aij = 0 se i > j . Si dice invece triangolare inferiore se tutti
gli elementi che si trovano al di sopra della diagonale principale sono nulli, ovvero se aij = 0 se
i < j. La matrice A si dice poi matrice diagonale se gli eventuali elementi non nulli in A si trovano
solo sulla diagonale principale, e quindi quando aij = 0 se i 6= j .
68
Dimostrazione. Se
a11 a12 a13 . . . a1n
0 a22 a23 . . . a2n
A=
0 0 a33 . . . a3n
. . . .. .
. . . .
. . . . .
0 0 0 ... ann
è triangolare superiore, sviluppando det(A) secondo la prima colonna otteniamo
a22 a23 . . . a2n
0 a33 . . . a3n
det(A) = a11 · ..
. .. .
. .
. . . .
0 0 . . . ann
e iterando lo sviluppo dei determinanti sempre secondo la prima colonna, si ottiene che det(A) =
a11 a22 . . . ann . Un analogo ragionamento prova il risultato quando A è triangolare inferiore o
diagonale.
La precedente proposizione fornisce un utile modo per il calcolo del determinate. Se A è una
matrice quadrata di ordine n su un campo K, mediante l'algoritmo di Gauss sappiamo trasformare
A in una matrice a scala B = (bij ) ad essa equivalente. Poichè anche B è una matrice quadrata,
essa è una matrice triangolare superiore di ordine n e quindi la proposizione 4.1.7 assicura che
det(B) = b11 . . . bnn . Poichè l'algoritmo di Gauss non prevede l'uso di operazioni di tipo 1), se
per passare da A a B ci sono stati s ∈ N0 scambi di righe, la proposizione 4.1.3 assicura che
det(A) = (−1)s b11 . . . bnn .
Un'altra utile proprietà del determinante è fornita dal seguente teorema di cui si omette la
dimostrazione.
Teorema 4.1.8. (Teorema di Binet) Siano A e B matrici quadrate di ordine n sul campo K.
Allora det(AB) = det(A) det(B) = det(BA).
Il Primo Teorema di Laplace 4.1.4 si può enunciare dicendo che il determinante di una matrice è
pari alla somma dei prodotti degli elementi di una riga (o colonna) per i loro complementi algebrici.
Il seguente risultato, che ci tornerà utile in seguito, mostra invece che la somma dei prodotti
degli elementi di una riga (rispettivamente, colonna) per i complementi algebrici di un'altra riga
(rispettivamente, colonna) è nullo.
Teorema 4.1.9. (Secondo Teorema di Laplace) Se A = (aij ) è una matrice quadrata sul
campo K e h 6= k , allora
ah1 a0k1 + ah2 a0k2 + · · · + ahn a0kn = 0
e
a1h a01k + a2h a02k + · · · + anh a0nk = 0.
69
Dimostrazione. Consideriamo la matrice B = (bij ) che si ottiene da A sostituendo la k -esima riga
0 0
con la h-esima. Allora bhj = bkj = ahj e bkj = akj . Pertanto applicando il primo teorema di
Laplace 4.1.4 e sviluppando il determinate secondo la riga k -esima si ha che
Proposizione 4.2.1. Sia K un campo. Se A e B sono matrici invertibili di Mn (K), allora anche
−1
AB è invertibile e (AB) = B −1 A−1 .
Dimostrazione. Si ha
Sia A = (aij ) una matrice quadrata di ordine n sul campo K. Chiamiamo aggiunta di A la
trasposta della matrice i cui elementi sono i complementi algebrici di A ovvero la seguente matrice
a011 a021 . . . a0n1
. . .. .
agg(A) = . . . .
. . . .
0 0 0
a1n a2n ... ann
70
Poichè il primo teorema di Laplace 4.1.4 e il secondo teorema di Laplace 4.1.9 insieme permettono
di scrivere
ai1 a0j1 + ai2 a0j2 + · · · + ain a0jn = δij det(A) = a1i a01j + a2i a02j + · · · + ani a0nj ,
dove δij è il simbolo di Kronecker, si ha che
Se A ∈ Mn (K) è una matrice invertibile, allora AA−1 = In ed il teorema di Binet 4.1.8 assicura
che
det(A) det(A−1 ) = det(AA−1 ) = det(In ) = 1;
quindi det(A) 6= 0 ed inoltre
1
det(A−1 ) = .
det(A)
71
Corollario 4.2.4. Sia A una matrice d'ordine n sul campo K. Allora A è invertibile se e solo se
det(A) 6= 0. In particolare, GLn (K) è l'insieme delle matrici non singolari di Mn (K).
Dimostrazione. Per il teorema 4.2.2 se det(A) 6= 0, la matrice A è invertibile. Viceversa, se A è
invertibile allora det(A) 6= 0 per quanto osservato sopra.
Esercizio 4.2.6. Sappiamo che l'insieme M2 (R) delle matrici quadrate di ordine 2 sul campo
reale R ha una struttura di anello unitario con le operazioni di somma tra matrici + e di prodotto
righe per colonne ×. Provare che il sottoinsieme
a b
C= : a, b ∈ R .
−b a
è una parte stabile di M2 (R) sia rispetto a + che ×, e che (rispetto alle operazioni indotte) la
struttura algebrica (C, +, ×) è un campo.
Si noti poi che (se a, b ∈ R) risulta
a b 1 0 0 1
=a +b
−b a 0 1 −1 0
e che 2
0 1 1 0
=− = −I
−1 0 0 1
(Il campo qui esibito non è niente altro che una rappresentazione del campo complesso)
72
4.3 Dipendenza lineare e rango di una matrice
Se A è una matrice di ordine m × n sul campo K, allora le righe A1 , . . . , Am di A sono vettori
n 1 n m
di K mentre le colonne A , . . . , A di A sono vettori di K . Si dice spazio delle righe di A il
n
sottospazio R(A) = L[A1 , . . . , Am ] di K generato dalle righe di A; si dice invece spazio delle
1 n m
colonne di A il sottospazio C(A) = L[A , . . . , A ] di K generato dalle colonne di A. Ha senso
quindi determinare insiemi liberi di righe o di colonne di A, e denire rango di riga di A il massimo
numero ρr (A) di righe indipendenti di A, ovvero ρr (A) = dim R(A), e rango di colonna di A il
numero ρc (A) = dim C(A), ovvero il massimo numero di colonne indipendenti di A.
Dimostrazione. Sia {Ai1 , . . . , Aip } una base per lo spazio delle righe di A, in particolare p = ρr (A)
e per ogni i = 1, . . . , m si ha che
per opportuni λi,i1 , . . . , λi,ip ∈ K. Fissato un indice j ∈ {1, . . . , n}, dalla precedente relazione si
ricava che
λ1,ih
λ2,i
h
Λih = ..
.
λm,ih
si ricava che
Aj = ai1 ,j Λi1 + · · · + aip ,j Λip .
L'arbitrarietà di j assicura quindi che C(A) ≤ L[Λi1 , . . . , Λip ] e pertanto segue dal Lemma di
Steinitz 3.6.1 che
ρc (A) = dim C(A) ≤ p = ρr (A).
In maniera analoga, scambiando il ruolo delle righe e delle colonne, si prova che ρr (A) ≤ ρc (A) e
pertanto ρr (A) = ρc (A).
Considerata A una matrice di ordine m×n su un campo K, il teorema 4.3.1 assicura che
ρr (A) = ρc (A) A come il massimo numero ρ(A) di righe (o
ed è quindi possibile denire rango di
colonne) indipendenti di A, ovvero ρ(A) = ρr (A) = ρc (A); in particolare, ρ(A) = 0 se e solo se A è
t
la matrice nulla. Evidentemente, ρ(A) ≤ min{m, n}; inoltre, essendo chiaramente ρr (A) = ρc (A ),
t
si ha anche che ρ(A) = ρ(A ).
73
E'semplice accorgersi che il rango di una matrice a scala coincide il numero delle righe non
nulle, e quindi il prossimo risultato suggerisce che per calcolare il rango di una matrice basta
applicare ad essa l'algoritmo di Gauss e poi contare il numero di righe non nulle nella matrice a
scala ottenuta.
Proposizione 4.3.2. Siano AeB matrici m×n sul campo K. Se AeB sono matrici equivalenti,
allora R(A) = R(B); in particolare, ρ(A) = ρ(B).
Dimostrazione. Poichè B è equivalente ad A, B a partire da A attraverso una
possiamo ottenere
sequenza nita di operazioni elementari. Quindi i vettori riga di B sono combinazioni lineari dei
vettori riga di A e pertanto appartengono allo spazio generato dalle righe di A. Ne consegue che lo
spazio generato dalle righe di B è un sottospazio dello spazio delle righe di A. D'altra parte anche
A è equivalente a B , quindi lo spazio generato dalla righe di A è contenuto nello spazio generato
dalle righe di B e pertanto coincide con esso. In denitiva, R(A) = R(B) e conseguentemente
ρ(A) = ρ(B).
è la matrice
1 1 0 −1
0 −1 1 0 .
0 0 0 0
Così ρ(A) = 2 (cf. proposizione 4.3.2).
Per le matrici quadrate sussiste la seguente proposizione dalla quale discende, in particolare,
che una matrice quadrata d'ordine n ha rango massimo (cioè n) se e solo se è non singolare.
Proposizione 4.3.4. Sia A una matrice quadrata sul campo K. Allora det(A) = 0 se e solo se una
riga (rispettivamente colonna) di A è combinazione lineare delle restanti righe (rispettivamente
colonne).
Dimostrazione. Per il corollario 4.1.6, det(A) = det(At ) e quindi è suciente provare l'asserto
per le righe. Supponiamo dapprima che A ∈ Mn (K) sia una matrice singolare e per assurdo
supponiamo che l'insieme {A1 , . . . , An } sia libero. Considerata la forma a scala ridotta B di A,
la proposizione 4.3.2 assicura che L[A1 , . . . , An ] = L[B1 , . . . , Bn ], così l'insieme {B1 , . . . , Bn } è un
sistema di generatori di uno spazio vettoriale di dimensione n e quindi deve essere una base, in
particolare è un insieme libero. Dunque B è una matrice a scala ridotta, quadrata e priva di righe
nulle, e quindi B è necessariamente la matrice identica. In particolare, det(B) 6= 0 e così anche
det(A) 6= 0 per la proposizione 4.1.3. Questa contraddizione prova che l'insieme {A1 , . . . , An } è
legato e dunque una riga di A deve dipendere dalle restanti.
Viceversa, supponiamo che la riga i-esima di A sia combinazione lineare delle restanti righe:
Ai = λ1 A1 + · · · + λn An (con ogni λi ∈ K), e sia B la matrice che si ottiene da A sottraendo alla
74
riga i-esima tale combinazione lineare, ovvero B si ottiene dala matrice A mediante un'operazione
del tipo ri −→ ri − λ1 r1 − · · · − λn rn . Per la proposizione 4.1.3 risulta det(B) = det(A); d'altra
parte la i-esima riga di B è nulla e pertanto il suo determinante è nullo per il corollario 4.1.6. Così
det(A) = 0.
Come già osservato, la proposizione 4.3.4 assicura che una matrice quadrata ha rango massimo
se e solo se ha determinante non nullo; questo suggerisce inoltre che deve esserci un legame tra il
concetto di rango e quello di determinante: al ne di stabilire tale legame premettiamo la seguente
denizione.
è
2 −1
A(1, 2 | 2, 5) = .
4 3
Un suo orlato è ad esempio il minore di A
2 0 −1
A(1, 2, 4 | 2, 4, 5) = 4 −2 3 .
−5 1 4
Quest'ultimo possiede due soli orlati il primo relativo alle righe 1, 2, 4, 3 e alle colonne 1, 2, 4, 5 e
il secondo relativo alle righe 1, 2, 4, 3 e alle colonne 2, 4, 5, 3 ed essi sono le matrici
1 2 0 −1
7 4 −2 3
A(1, 2, 3, 4 | 1, 2, 4, 5) =
−2 1
2 5
0 −5 1 4
e
2 5 0 −1
4 9 −2 3
A(1, 2, 3, 4 | 2, 3, 4, 5) =
1
.
6 2 5
−5 2 1 4
75
Teorema 4.3.6. (Teorema degli Orlati) Sia A una matrice m×n sul campo K e sia M un
minore fondamentale di A di ordine p. Allora l'insieme delle righe (rispettivamente, colonne)
di A coinvolte nel minore M è una base per il sottospazio generato dalle righe (rispettivamente,
colonne) di A. In particolare, ρ(A) = p.
Dimostrazione. Proviamo il risultato per le righe, da questo seguirà il risultato per le colonne
considerando la trasposta di A. Per ssare le idee, supponiamo sia M = A(i1 , . . . , ip | j1 , . . . , jp ).
Se le righe A i1 , . . . , A ip di A fossero linearmente dipendenti, allora anche le righe Mi1 , . . . , Mip
di M sarebbero dipendenti e quindi si avrebbe det(M ) = 0 per la proposizione 4.3.4. Questa
contraddizione prova che le righe Ai1 , . . . , Aip sono indipendenti e pertanto resta da provare che
tutte le altre righe di A dipendono da queste. Fissiamo quindi un indice di riga i 6∈ {i1 , . . . , ip }
e proviamo che Ai è combinazione lineare di Ai1 , . . . , Aip . Per ogni j = 1, . . . , n si consideri la
matrice
ai 1 j 1 . . . ai1 jp ai1 j
.. .. .
.
.
.
.
M (j) = . . .
.
aip j1 . . . aip jp aip j
aij1 . . . aijp aij
Se j ∈ {j1 . . . , jp } allora M (j) ha due colonne uguali e quindi è singolare per la proposizione 4.1.6,
altrimenti (a meno di scambiare righe) M (j) è un orlato di M e quindi M (j) è singolare anche in
questo caso (si veda pure la proposizione 4.1.3). Pertanto det(M (j)) = 0 per ogni j = 1, . . . , n.
Osserviamo che le matrici M (1), . . . , M (n) hanno le prime p colonne uguali, sicchè i complementi
algebrici degli elementi dell'ultima colonna coincidono, siano essi λ1 , λ2 , . . . , λp+1 ∈ K; si osservi
inoltre che λp+1 è a meno del segno uguale a det(M ) e quindi λp+1 6= 0. Sviluppando il determinante
di M (j) rispetto all'ultima colonna ricaviamo
Poichè la precedente relazione vale per ogni j = 1, . . . , n, sussiste la seguente relazione vettoriale
n
(in K )
ai1 1 ai p 1 ai1
ai 2 ai 2 ai2
1 p
.. λ1 + · · · + .. λp + .. λp+1 = 0
. . .
ai1 n ai p n ain
dove riconosciamo che i primi p vettori sono le righe A i1 , . . . , A ip di A mentre l'ultimo vettore è la
riga i-esima Ai . Pertanto, essendo λp+1 6= 0, ricaviamo che
−1
Ai = −λp+1 λ1 Ai1 − · · · − λ−1
p+1 λp Aip ,
come volevamo.
1 1 0 −1
A = 0 −1 1 0
1 0 1 −1
76
la stessa di cui prima abbiamo calcolato il rango usando l'algoritmo di Gauss. Iniziamo col consi-
derare il minore M1 = A(1 | 1) = (1) che è ovviamente non singolare. Orliamo M1 considerando
1 1
M2 = A(1, 2 | 1, 2) =
0 −1
che è non singolare avendo per determinante −1. A questo punto consideriamo i possibili orlati
di M2 ovvero le matrici
1 1 0
A(1, 2, 3 | 1, 2, 3) = 0 −1 1
1 0 1
e
1 1 −1
A(1, 2, 3 | 1, 2, 4) = 0 −1 0 .
1 0 −1
Poichè queste matrici sono singolari, il teorema degli orlati 4.3.6 ci permette di concludere che
ρ(A) = 2.
La nozione di rango di una matrice è una nozione importante e molto utile per valutare la
lineare (in)dipendenza di vettori numerici, come mostra il seguente esempio.
Esempio 4.3.8. Supponiamo di voler stabilire se in R4 i vettori v1 = (1, 0, −1, 2), v2 = (2, −1, 0, 1)
e v3 = (−1, −1, −1, 1) sono linearmente dipendenti o indipendenti. Considerata la matrice che ha
questi vettori come righe
1 0 −1 2
A = 2 −1 0 1
−1 −1 −1 1
e osservando che la sua forma a scala è la matrice
1 0 −1 2
0 −1 2 −3
0 0 0 0
77
Dimostrazione. Il sistema lineare AX = B ha una soluzione (y1 , . . . , yn ) ∈ Kn se e solo se
y1 A1 + . . . yn An = B,
ovvero se e solo se il vettore numerico colonna B dipende dall'insieme delle colonne di A.
Nel caso particolare di sistemi lineari in cui il numero di equazioni e il numero di incognite è
lo stesso, sussiste il seguente risultato: esso fornisce una regola" per determinare le soluzioni di
un tale sistema detta talvolta Regola di Cramer. Qui, come in precedenza fatto per le righe di
una matrice, la scritturaA = (A1 , A2 , . . . , An ) indica che la matrice A è composta dalle colonne
A1 , A2 , . . . , An .
78
Un sistema lineare AX = B di n equazioni in n incognite con det(A) 6= 0 si dice sistema di
Cramer. Il precendente teorema assicura quindi che ogni sistema di Cramer è determinato.
x 1 − x2 = 4
2x1 + x2 = 0
la cui matrice dei coecienti ha determinante 3. Dunque tale sistema è di Cramer e il teorema di
Cramer 4.4.3 assicura che le soluzioni sono
4 −1 1 4
0 1 4 2 0 8
x1 = = e x2 = =− .
3 3 3 3
det(A1 ) 40 20 det(A2 ) 32 16
x1 = = = ; x2 = = = e
det(A) 42 21 det(A) 42 21
det(A3 ) 14 1
x3 = = = .
det(A) 42 3
79
Un sistema lineare AX = B di m equazioni in n incognite sul campo K si dice ridotto in forma
normale se ρ(A) = m ≤ n. Evidentemente in tal caso anche ρ(A|B) = m e quindi il sistema
è compatibile per il teorema di Rouché Capelli 4.4.2. D'altra parte se AX = B è un sistema
0 0
lineare (qualsiasi) compatibile in cui ρ(A) = ρ(A|B) = p, scelte p righe indipendenti Ri , . . . , Ri
1 p
di (A|B), ogni altra riga di (A|B) è combinazione lineare di queste e quindi il sistema lineare
AX = B è equivalente al sistema lineare che ha come matrice completa quella le cui righe sono
Ri0 1 , . . . , Ri0 p , quest'ultimo sistema evidentemente è ridotto a forma normale. Quindi ogni sistema
lineare compatibile è equivalente ad un sistema in forma normale.
e qui le incognite xk1 , . . . , xkq vengono dette parametri. Fissato arbitrariamente un valore per
ciascun parametro, questo sistema lineare, visto come sistema nelle sole incognite xj 1 , . . . , x j m , è
un sistema di Cramer per la proposizione 4.3.4 e può essere risolto applicando la regola di Cramer.
Segue così che le soluzioni del sistema (4.1), e quindi anche del sitema lineare AX = B , dipendono
da q = n − m = n − ρ(A) parametri (o come si dice, il sistema ha ∞n−ρ(A) soluzioni).
Esempio 4.4.6. Applichiamo il metodo dei determinanti per risolvere il seguente sistema lineare
a coecienti reali:
3x1 + 8x2 − 4x3 = 2
x1 + x2 − x3 = 1 (4.2)
x1 + 6x2 − 2x3 = 0
E' semplice accorgersi che tale sistema è compatibile e che un minore fondamentale della matrice
dei coecienti (e anche della matrice completa) del sistema (4.2) è M = A(1, 2 | 1, 2), sicchè il
sistema è equivalente a quello che si può riscrivere come
3x1 + 8x2 = 2 + 4x3
x1 + x2 = 1 + x3
Considerando quest'ultimo come un sistema nelle sole incognite x1 e x2 , otteniamo un sistema
che ha come matrice dei coecienti M. Essendo M non singolare, possiamo applicare la regola di
Cramer e ottenere
2 + 4x3 8 3 2 + 4x2
1 + x3 1 4x3 + 6 1 1 + x2 x3 − 1
x1 = = e x2 = = .
3 8
5 3 8
5
1 1 1 1
80
In deniva l'insieme delle soluzioni del sistema (4.2) è
4x3 + 6 x3 − 1
, , x 3 | x3 ∈ R .
5 5
A conclusione di questa sezione si vuole far osservare come l'uso dei sistemi lineari consente
di trovare un altro metodo di calcolo per la matrice inversa. Sia dunque A una matrice quadrata
−1
di ordine n sul campo K e supponiamo che A sia invertibile. Gli elementi della matrice B=A
possono essere pensati come delle incognite e precisamente, dovendo essere AB = In , le colonne
B 1 , B 2 , . . . , B n di B possono rivedersi come le incognite dei seguenti n sistemi lineari
1 0 0
0 1 ..
AB 1 = .. , AB 2 = .. , . . . , AB n = .
. . 0
0 0 1
Poichè det(A) 6= 0 per il corollario 4.2.4, il teorema di Cramer 4.4.3 assicura che i precedenti sistemi
sono determinati. Inoltre, tali sistemi possono essere risolti usando l'algoritmo di Gauss-Jordan,
però, invece che risolverli singolarmente, possiamo risolverli simultaneamente cioè possiamo ap-
plicare l'algoritmo di Gauss-Jordan alla matrice (A|In ) che si ottiene aancando alla matrice A
la matrice identica, si otterrà così la matrice (In |C) e risulterà C = B = A−1 .
Esempio 4.4.7. Applichiamo e l'algoritmo di Gauss-Jordan per determinare l'inversa della ma-
trice a coecienti reali
1 2
A= .
3 4
Partiamo dalla matrice
1 2 1 0
3 4 0 1
e applichiamo ad essa l'algoritmo di Gauss-Jordan. Applicando l'operazione r2 → r2 − 3r1 si
ottiene
1 2 1 0
,
0 −2 −3 1
e poi l'operazione r2 → − 12 r2 permette di ottenere
1 2 1 0
0 1 32 − 21
A questo punto la matrice inversa cercata sarà la matrice che si trova nel blocco alla destra della
matrice identica.
81
4.5 Sitemi lineari omogenei
Si consideri una matrice A ∈ Mm,n (K). A partire da A resta denita l'applicazione
LA : X ∈ Kn → AX ∈ Km ;
si noti che, poichè AX rappresenta il prodotto righe per colonne di A per X , qui si è scelto di
rappresentare i vettori di Kn come vettori colonna. L'applicazione LA è evidentemente un'appli-
cazione lineare, ed è chiamata applicazione lineare associata ad A. Si osservi che considerato il
n i
riferimento canonico (e1 , . . . , en ) di K risulta LA (ei ) = A e dunque Im LA = C(A) è lo spazio
delle colonne di A per la proposizione 3.7.6, in particolare, dim(Im LA ) = ρ(A). Invece, ker LA
rappresenta l'insieme delle soluzioni del sistema lineare omogeneo AX = 0.
Segue dalla precedente che il sistema lineare AX = 0 ha solo la soluzione nulla se e solo se
n = ρ(A) e quindi se e solo se det(A) 6= 0 (cfr. proposizione 4.3.4).
e determiniamo una base per lo spazio delle soluzioni. La matrice dei coecienti di questo sistema
è
1 −1 1 −1
A=
2 −1 0 0
essa evidentemente ha rango 2 e un minore fondamentale è ad esempio A(1, 2 | 1, 2), sicchè il
metodo dei determinanti ci suggerisce di rivedere il sistema come un sistema nelle sole incognite
x1 e x2
x1 − x2 = −x3 + x4
2x1 − x2 = 0
e applicare ad esso la regola di Cramer. Pertanto
−x3 + x4 −1 1 −x3 + x4
0 −1 2 0
x1 =
1 −1
= x3 − x 4 e x2 =
1 −1 = −2x3 + 2x4 .
2 −1 2 −1
82
Essendo
(x3 − x4 , −2x3 + 2x4 , x3 , x4 ) = x3 (1, −2, 1, 0) + x4 (−1, 2, 0, 1)
posto
s1 = (1, −2, 1, 0) e s2 = (−1, 2, 0, 1)
si ha che S0 = L[s1 , s2 ]. Evidentemente {s1 , s2 } è una parte libera, e quindi {s1 , s2 } è una base
per S0 .
Esempio 4.5.3. Si consideri li sistema lineare fatto dalla sola equazione a coecienti reali
x1 + x2 + x3 + x4 = 0.
S0 = {(−x2 − x3 − x4 , x2 , x3 , x4 ) | x2 , x3 , x4 ∈ R}.
Ma
(−x2 − x3 − x4 , x2 , x3 , x4 ) = x2 (−1, 1, 0, 0) + x3 (−1, 0, 1, 0) + x4 (−1, 0, 0, 1)
da cui si ha facilmente che
è una base di S0 .
Un sistema lineare qualsiasi AX = B potrebbe non avere il vettore nullo come soluzione, quindi
in generale le soluzioni di un sistema lineare non omogeneo non sono un sottospazio vettoriale dello
spazio numerico; però le soluzioni del sistema AX = B sono sempre legate a quelle del sistema
lineare omogeneo AX = 0 ad esso associato, infatti sussiste la seguente.
Proposizione 4.5.4. Siano A ∈ Mm,n (K) eB ∈ Mm,1 (K), e si considerino il sistema lineare
Σ : AX = B ed il sistema omogeneo ad esso associato Σom : AX = 0. Se P0 è una soluzione di Σ
allora
Sol(Σ) = P0 + Sol(Σom ) := {P ∈ Rn : P − P0 ∈ Sol(Σom )},
in altri termini tutte e sole le soluzioni di Σ si ottengono come somma tra il vettore numerico
P0 ed un vettore Y con Y ∈ Sol(Σom ).
Dimostrazione. Se Z ∈ Sol(Σ), allora Z = P0 +(Z −P0 ) e Z −P0 ∈ Sol(Σom ) essendo A(Z −P0 ) =
AZ − AP0 = B − B = 0. Viceversa, se Y ∈ Sol(Σom ) allora A(P0 + Y ) = AP0 + AY = B + 0 = B
e quindi P0 + Y ∈ Sol(Σ).
Usiamo il primo dei precedenti esempi per mostrare come la proposizione 4.5.4 rappresenti un
ulteriore metodo di risoluzione di un sistema lineare qualsiasi.
83
Esempio 4.5.5. Consideriamo il sistema lineare
x1 − x2 + x3 − x4 = 2
2x1 − x2 = 1
Una sua soluzione è evidentemente (1, 1, 2, 0) e così, essendo il sistema lineare omogeneo ad esso
associato il primo sistema incontrato nei precedenti esempi di questa sezione il cui spazio delle
soluzioni è
S0 = {(x3 − x4 , −2x3 + 2x4 , x3 , x4 ) | x3 , x4 ∈ R},
la proposizione 4.5.4 assicura che tutte e sole le soluzioni del sistema lineare sono del tipo
al variare di x3 , x4 ∈ R.
Concludiamo con la seguente importante osservazione, che caratterizza i sottospazi dello spazio
vettoriale numerico. Abbiamo visto che le soluzioni di un sistema lineare omogeneo sono un
sottospazio vettoriale dello spazio vettoriale numerico di cui sappiamo calcolarne la dimensione
n
(cfr. proposizione 4.5.1). In realtà, dato un campo K e un intero positivo n, i sottospazi di K
sono sempre lo spazio delle soluzioni di un sistema lineare omogeneo (si pure veda il successivo
n n
teorema 6.2.1). Sia W un sottospazio di K e ssiamo un riferimento R di K . Se W = {0}
allora esso è lo spazio delle soluzioni del sistema lineare omogeneo In X = 0 (dove come al solito In
dentota la matrice identica su K di ordine n). Supponiamo quindi che W 6= {0} e sia {w1 , . . . , wr }
una sua base. Un vettore w è un elemento di W se e solo se l'insieme {w1 , . . . , wr , w} è legato e
quindi se e solo se la matrice A su K le cui righe (o colonne) sono le componenti in R dei vettori
w1 , . . . , wr , w, ha rango r. Fissato in A un minore non singolare di ordine r, imponendo a tutti agli
orlati di questo minore di essere singolari, si ottiene un sistema lineare omogeneo il cui spazio delle
soluzioni corrisponde, attraverso l'isomorsmo coordinato cR , al sottospazio W: questo sistema
lineare omogeneo si dice essere una rappresentazione cartesiana di W rispetto al riferimento R.
84
Otteniamo così il sistema lineare omogeneo
x2 = 0
x1 + x3 + x4 = 0
il cui spazio delle soluzioni coincide con W; tale sistema è una rappresentazione cartesiana di W
(rispetto al riferimento canonico).
0
ϕR,R
A = c−1
R0 ◦ LA ◦ cR : V −→ W.
0
E' semplice accorgersi che questa volta le colonne di A rappresentano le componenti in R dei
R,R0 R,R0
trasformati mediante ϕA degli elementi di R, sicchè Im ϕA corrisponde attraverso l'isomorsmo
R,R0
coordinato cR0 allo spazio delle colonne di A e quindi risulta dim(Im ϕA ) = ρ(A). Invece,
R,R0
ker ϕA è costituito da quei vettori di V le cui componenti in R sono soluzione del sistema lineare
0
AX = 0, sicchè attraverso l'isomorsmo coordinato ker ϕR,R A corrisponde allo spazio delle soluzioni
R,R0
del sistema lineare omogeneo AX = 0 e quindi dim(ker ϕA ) = n − ρ(A).
Partendo ora da un'applicazione lineare ϕ tra due spazi vettoriali, un riferimento R del dominio
0 R,R0
e un riferimento R del codominio, si vuole associare a ϕ una matrice A tale da aversi che ϕA = ϕ.
Siano dunque V e W due spazi vettoriali non nulli sul campo K di dimensione nita, e si ssi un
0 0 0
riferimento R = (e1 , . . . , en ) in V ed un riferimento R = (e1 , . . . , em ) in W ; in particolare, quindi,
si sta supponendo che dim(V ) = n e che dim(W ) = m.
Consideriamo un'applicazione lineare ϕ : V −→ W . Per ogni j = 1, . . . , n, siano (a1j , . . . , amj )
0
le componenti del vettore ϕ(ej ) nella base R , e sia A = (aij ) la matrice m × n su K le cui
0
colonne sono le componenti dei trasformati mediante ϕ dei vettori della base R nella base R . Se
v = λ1 e1 + · · · + λn en è il generico elemento di V (con ogni λi ∈ K) allora
dove [v]Rindica il vettore colonna delle componenti di v in R e [ϕ(v)]R0 il vettore colonna delle
0
componenti di ϕ(v) in R . La matrice A si dice matrice associata all'applicazione lineare ϕ rispetto
0 0
ai riferimenti R e R , e si scrive anche A = MR,R0 (ϕ). Se V = W e R = R , si parla semplicemente
di matrice associata a ϕ nel riferimento R e si scrive MR (ϕ).
85
La proprietà (4.3) caratterizza la matrice associata, infatti se  ∈ Mm,n (K) è tale che [ϕ(v)]R0 =
Â[v]R allora  = M (ϕ), infatti per ogni j = 1, . . . , n è
R,R0 evidente che [ϕ(ej )]R0 = Â[ej ]R è la
j -esima colonna di Â, e dunque  e MR,R0 (ϕ) sono uguali avendo le colonne ordinatamente uguali.
Sempre la proprietà (4.3) assicura che due applicazioni lineari ϕ e ψ di V in W coincidono
se e soltanto se risulta MR,R0 (ϕ) = MR,R0 (ψ). Segue così che A = MR,R0 (ϕ) se e soltanto se
0 R,R0
ϕ = ϕR,R
A , quindi ϕA è l'unica applicazione lineare di V in W che ha A come matrice associata
0
nei riferimenti R ed R . In particolare, ssata una qualsiasi matrice A in Mm,n (K), l'applicazione
LA : Kn −→ Km è l'unica applicazione lineare che ha A come matrice associata quando sia in Kn
m
che K è stato ssato come riferimento quello canonico.
Teorema 4.6.1. Siano V e W due spazi vettoriali non nulli sul campo K di dimensione nita.
Siano inoltre ϕ : V −→ W un'applicazione lineare, R un riferimento di V , R0 un riferimento di
W e A = MR,R0 (ϕ).
(i) Il sottospazio Im ϕ è generato dai vettori che in R0 hanno per componenti le colonne di A,
cioè Im ϕ corrisponde attraverso l'isomorsmo coordinato cR 0 allo spazio delle colonne di A,
in particolare dim(Im ϕ) = ρ(A).
(ii) Il sottospazio ker ϕ corrisponde attraverso l'isomorsmo coordinato cR allo spazio S0 delle
soluzioni del sistema lineare omogeneo AX = 0; in particolare, una base per ker ϕ è formata
dai vettori le cui componenti in R formano una base per S0 . Inoltre, dim(ker ϕ) = dim(V )−
ρ(A).
Dimostrazione. La proposizione 3.7.6 garantisce che Im ϕ è generato dai trasformati dei vettori
0
di R, le cui componenti in R, per denizione di matrice associata, sono le colonne di A e quindi,
attraverso l'isomorsmo coordinato c lo spazio Im ϕ corrisponde allo spazio delle colonne di
R0 ,
A. dim(Im ϕ) = ρ(A) e così dim(ker ϕ) = dim(V ) − ρ(A) per il teorema 3.8.2.
In particolare,
Inoltre, v ∈ ker ϕ se e solo se [ϕ(v)]R0 = 0 e quindi, per (4.3), se e solo se A[v]R = 0; pertanto
mediante l'isomorsmo coordinato cR il sottospazio ker ϕ corrisponde al sottospazio delle soluzioni
del sistema lineare omogeneo AX = 0.
86
Fissiamo i riferimenti R = ((1, 0), (0, 1)) e R0 = ((1, 0, 1), (0, 1, 0), (0, 0, 1)) in R2 e R3 rispettiva-
mente, e andiamo a determinare A = MR,R0 (ϕ). Essendo
e
ϕ(0, 1) = (−3, 1, 0) = −3(1, 0, 1) + 1(0, 1, 0) + 3(0, 0, 1)
otteniamo subito che
2 −3
A = −1 1 .
−2 3
La matriceA ha rango 2, quindi ker ϕ ha dimensione 2−2 = 0 e pertanto ker ϕ = {0}. Inoltre
Im ϕ = C(A) = L[(2, −1, 0), (−3, 1, 0)].
Posto
1 1 1 0 0 1 0 0
M1 = , M2 = , M3 = , M4 =
0 0 1 0 0 0 0 1
ssiamoR = (M1 , M2 , M3 , M4 ) come riferimento per M2 (R). Invece in R2 [x] ssiamo il riferimento
0
R = (1 + x2 , x, x2 ). Essendo
risulta
1 1 0 0
A = MR,R0 (ϕ) = 0 0 0 0 .
−1 0 0 0
1 2
Una base per C(A) è costituita dalle colonne A e A di A e queste colonne sono le componenti in
0 2
R di ϕ(M1 ) = 1 e ϕ(M2 ) = 1 + x , rispettivamente, sicchè
Im ϕ = L[1, 1 + x2 ].
Inoltre, poichè una base per lo spazio delle soluzione del sistema lineare omogeneo AX = 0 è
cositituita dai vettori (0, 0, 1, 0)
(0, 0, 0, 1), che sono le componenti in R di M3 e M4 ,
e si ha che
0 1 0 0 0 x
ker ϕ = L[M3 , M4 ] = L , = : x, y ∈ R .
0 0 0 1 0 y
87
Proposizione 4.6.5. Siano V, V 0 e V 00 spazi vettoriali non nulli di dimensione nita sul campo K
e si ssino dei riferimenti R, R0 e R00 per essi. Se ϕ : V −→ V 0 e ψ : V 0 −→ V 00 sono applicazioni
lineari, allora anche ψ◦ϕ è lineare.
Inoltre, considerate le matrici A = MR,R0 (ϕ) e B = MR0 ,R00 (ψ), si ha che BA = MR,R00 (ψ ◦ ϕ).
Dimostrazione. L'applicazione ψ ◦ ϕ è lineare per la proposizione 3.7.5; inoltre per ogni v∈V si
ha che [ψ(ϕ(v))]R00 = B[ϕ(v)]R0 = BA[v]R , da cui la tesi.
dove gli scalarip1j , p2j , . . . , pnj ∈ K sono univocamente determinati, si viene a formare una matrice
P = (pij ) quadrata di ordine n su K le cui colonne sono le componenti dei vettori di R nella base
R0 ; pertanto P = MR,R0 (ιV ) è la matrice associata all'endomorismo identico ιV di V nei riferimenti
R e R0 . La matrice P si chiama matrice di passaggio dal riferimento R al riferimento R0 .
Teorema 4.7.1. Sia V uno spazio vettoriale non nullo su un campo K di dimensione nita n.
0 0
Siano inoltre R e R due riferimenti di V e P ∈ Mn (K) la matrice di passaggio da R a R . Allora
La relazione che intercorre tra le matrici del cambio di riferimento in uno spazio vettoriale e
la matrice associata ad un endomorsmo nei riferimenti in questione, e descritta nel seguente.
88
Teorema 4.7.2. Sia V uno spazio vettoriale su un campo K di dimensione nita e siano R e R0
due riferimenti di V. Se ϕ
è un endomorsmo di V e A = MR (ϕ), allora MR0 (ϕ) = P −1 AP dove
0
P è la matrice di passaggio da R a R.
Dimostrazione. Sia v ∈ V . Allora il teorema 4.7.1 assicura che P è invertibile ed inoltre che
[v]R = P [v]R0 e [ϕ(v)]R0 = P −1 [ϕ(v)]R . D'altra parte [ϕ(v)]R = A[v]R per il teorema 4.6.1, per cui
[ϕ(v)]R0 = P −1 [ϕ(v)]R = P −1 A[v]R = P −1 AP [v]R0 . Pertanto, per il teorema 4.6.1, P −1 AP è la
0
matrice di ϕ in R .
ϕ : (a, b) ∈ R2 → (b, a) ∈ R2
e ssiamo
R = ((1, 0), (0, 1)) e R0 = ((1, 1), (1, −1))
come riferimenti di R2 . Essendo
risulta
0 1
A = MR (ϕ) = .
1 0
La matrice di passaggio da R0 ad R ha per colonne le componenti in R dei vettori di R0 , e quindi
ha per colonne i vettori di R0 essendo R il riferimento canonico
1 1
P = MR0 ,R (ιR2 ) = ;
1 −1
1 1
−1 2 2 −1 1 0
P = 1 e che P AP = .
2
− 12 0 −1
1 0
MR0 (ϕ) =
0 −1
ed infatti
ϕ(1, 1) = (1, 1) = 1(1, 1) + 0(1, −1) e ϕ(1, −1) = (−1, 1) = 0(1, 1) − 1(1, −1).
89
Nel caso di spazi euclidei, si è osservato in precedenza che i riferimenti ortonormali sono riferi-
menti in cui il prodotto scalare è riconducibile al prodotto scalare standard nello spazio numerico
su R. Ci chiediamo ora che proprietà deve avere la matrice di passaggio tra due riferimenti or-
tonormali. A tal ne introduciamo il seguente concetto. Una matrice invertibile A ∈ Mn (R) si
−1
dice ortogonale se A = At . Poichè risulta essere (At )−1 = (A−1 )t , se A è ortogonale allora anche
A−1 = At è ortogonale ed inoltre, ricordando che det(A) = det(At ) e che det(A) det(A−1 ) = 1, si
ha che det(A) = ±1. Un esempio di matrice ortogonale è chiaramente la matrice identica. Sussiste
la seguente.
90
Capitolo 5
Diagonalizzazione di endomorsmi e
matrici
Esempio 5.1.1. n n
Considerato l'endomorsmo nullo f : v ∈ R → 0 ∈ R dello spazio numerico
n n
R , si ha che f (v) = 0v per ogni v ∈ R , e pertanto ogni vettore è autovettore per f relativo
all'autovalore 0.
Come altro esempio si consideri lo spazio vettoriale reale C ∞ (I) (dove I è un intervallo di R)
delle applicazioni di I in R con derivata continua di ogni ordine. L'applicazione
D : f ∈ C ∞ (I) → f 0 ∈ C ∞ (I)
che ad ogni applicazione di C ∞ (I) associa la sua derivata, è lineare. Se α∈R risulta
D(eαx ) = αeαx
Lemma 5.1.2. Sia V uno spazio vettoriale sul campo K e siano v1 , . . . , vt autovettori associa-
ti ad autovalori distinti di uno stesso endomorsmo di V . Allora v1 , . . . , vt sono linearmente
indipendenti.
0 = λi (c1 v1 + · · · + ci vi ) = c1 λi v1 + · · · + ci λi vi
91
e
0 = ϕ(c1 v1 + · · · + ci vi ) = c1 ϕ(v1 ) + · · · + ci ϕ(vi ) = c1 λ1 v1 + · · · + ci λi vi
quindi
c1 λi v1 + · · · + ci λi vi = c1 λ1 v1 + · · · + ci λi vi
e così
c1 (λ1 − λi )v1 + · · · + ci−1 (λi−1 − λi )vi−1 = 0.
Poichè stiamo supponendo che i − 1 autovettori relativi ad autovalori distinti sono linearmente
indipendenti, segue che c1 = · · · = ci−1 = 0. Allora ci vi = 0 e pertanto anche ci = 0. Questo
prova che v1 , . . . , v i sono linearmente indipendenti ma, più in generale, lo stesso argomento prova
che comunque si prendono i vettori tra v1 , . . . , vt questi sono linearmente indipendenti. Così
proseguendo, si ottiene che i t vettori v1 , . . . , vt sono linearmente indipendenti.
Fissato un autovalore λ per ϕ, sia Vϕ (λ) l'insieme costituito dal vettore nullo e dai vettori di
V che sono autovettori di ϕ relativi all'autovalore λ, ovvero
Se h, k ∈ K e v, w ∈ Vϕ (λ), allora
dim(Vϕ (λ)) ≥ 1.
Proposizione 5.1.3. Sia V uno spazio vettoriale sul campo K e sia ϕ un endomorsmo di V. Se
λ1 , . . . , λt sono autovalori distinti di ϕ, allora
Vϕ (λi ) ∩ Vϕ (λ1 ) + · · · + Vϕ (λi−1 ) + Vϕ (λi+1 ) + · · · + Vϕ (λt ) = {0}.
P
Se vi è un vettore di Vϕ (λi ) tale da aversi che vi = j6=i vj con ogni vj in Vϕ (λj ), allora risulta
v1 + · · · + vi−1 − vi + vi+1 + · · · + vt = 0. Segue così dal lemma 5.1.2 che v1 = · · · = vt = 0 e
pertanto la proposizione è provata.
Supponiamo ora che V abbia dimensione nita, e siano A = MR (ϕ) la matrice associata
all'endomorsmo ϕ rispetto ad un ssato riferimento R di V e
92
E' semplice accorgersi (sviluppando il determinante rispetto alla prima colonna o, se si preferisce,
facendo induzione sull'ordine n di A) che
det(A − λIn ) = 0
Proposizione 5.1.4. Sia V uno spazio vettoriale di dimensione nita n sul campo K e sia ϕ un
endomorsmo di V. Allora il polinomio caratteristico di ϕ non dipende dal riferimento che si ssa
in V.
Dimostrazione. Se A e B sono matrici associate a ϕ in due riferimenti distinti di V , allora il
teorema 4.7.2 assicura che esiste una matrice invertibile P di Mn (K) tale che B = P −1 AP . Si ha
così che
B − λIn = P −1 AP − λIn = P −1 AP − λP −1 P =
= P −1 AP − P −1 (λIn )P = P −1 (A − λIn )P
e quindi, ricordando che det(P −1 ) det(P ) = 1, il teorema di Binet 4.1.8 assicura che det(B −λIn ) =
det(A − λIn ).
La dimostrazione della proposizione 5.1.4 prova, in particolare, che matrici simili danno origine
allo stesso polinomio caratteristico. Questo non è vero per matrici equivalenti, infatti le matrici
(su R)
1 1 1 1
M1 = e M2 =
1 1 0 0
sono matrici equivalenti, ma risulta det(M1 −λI) = λ(λ−2) mentre invece det(M2 −λI) = λ(λ−1).
Teorema 5.1.5. Sia V uno spazio vettoriale di dimensione nita sul campo K e sia ϕ un endo-
morsmo di V, sia inoltre A = MR (ϕ) la matrice associata a ϕ rispetto ad un ssato riferimento
R di V.
(i) Uno scalare λ0 ∈ K è un autovalore se e solo se λ0 è una radice del polinomio caratteristico
pϕ (λ).
93
Dimostrazione. Per ogni v∈V si ha che [ϕ(v)]R = A[v]R e quindi, se v è un autovettore per ϕ
relativo all'autovalore λ0 , risulta
ovvero
(A − λ0 In )[v]R = 0,
pertanto [v]R è soluzione del sistema lineare omogeneo (A − λ0 In )X = 0. Viceversa, se v è un
vettore di V e le sue componenti [v]R sono una soluzione non nulla del sistema (A − λ0 In )X = 0,
allora risulta A[v]R = λ0 [v]R e quindi, essendo anche [ϕ(v)]R = A[v]R , si ha [ϕ(v)]R = λ0 [v]R
nonchè ϕ(v) = λ0 v per l'unicità delle componenti nel ssato riferimento R.
Ora, lo scalare λ0 è un autovalore per ϕ se e solo se esiste un vettore v non nullo in Vϕ (λ0 ) e
quindi, per quanto provato sopra, se e solo se le componenti [v]R sono una soluzione non nulla del
sistema (A − λ0 In )X = 0. Poichè la matrice (A − λ0 In ) è quadrata, il sistema (A − λ0 In )X = 0 ha
soluzioni non nulle se e soltanto se la matrice (A − λ0 In ) è singolare. Dunque λ0 è un autovalore
per ϕ se e solo se λ0 è una radice del polinomio det(A − λIn ).
Gli autovalori di un endomorsmo ϕ sono quindi tutti e soli gli elementi di K che sono soluzioni
dell'equazione caratteristica pϕ (λ) = 0. Il precedente teorema assicura inoltre che l'autospazio
Vϕ (λ0 ), relativo all'autovalore λ0 , è costituito da tutti e soli i vettori le cui componenti sono le
soluzioni del sistema lineare omogeneo (A − λ0 In )X = 0, dunque l'autospazio Vϕ (λ0 ) corrisponde,
attraverso l'isomorsmo coordinato, allo spazio delle soluzioni del sistema lineare omogeno (A −
λ0 In )X = 0. Segue così dalla proposizione 4.5.1 che l'autospazio Vϕ (λ0 ) ha dimensione n − p, dove
p è il rango della matrice (A − λ0 In ) e n è la dimensione di V .
La dimensione dell'autospazio Vϕ (λ0 ) si dice molteplicità geometrica di λ0 ; invece la molteplicità
algebrica di λ0 è la molteplicità di λ0 come radice del polinomio caratteristico. Indicheremo con
mg (λ0 ) la molteplicità geometrica e con ma (λ0 ) la molteplicità algebrica di λ0 ; dunque mg (λ0 ) =
n − p dove p è il rango di (A − λ0 In ). Talvolta si dice che un autovalore λ0 è regolare se ma (λ0 ) =
mg (λ0 ). Si ha inoltre il seguente.
Teorema 5.1.6. Sia V uno spazio vettoriale su un campo K di dimensione nita e sia ϕ un en-
domorsmo di V . Se λ0 è una radice del polinomio caratteristico pϕ (λ), allora mg (λ0 ) ≤ ma (λ0 ).
In particolare, mg (λ0 ) = ma (λ0 ) se λ0 è una radice semplice.
Dimostrazione. Supponiamo sia mg (λ0 ) = t. {v1 , . . . , vt } per Vϕ (λ0 ), il teorema
Fissata una base
3.6.5 assicura che questa si può completare ad un riferimento R = (v1 , . . . , vt , vt+1 , . . . , vn ) di V .
Essendo ϕ(vi ) = λ0 vi per ogni i = 1, . . . , t, la matrice A associata a ϕ nel riferimento R ha la
seguente forma
λ0 0 . . . 0
0 λ0 . . . 0 B
A = ... .
. .. .
.
. . .
0 0 . . . λ0
O C
dove B t×(n−t), O è la matrice nulla (n−t)×t e C è una matrice quadrata d'ordine
è una matrice
n−t. Si ha allora che det(A−λIn ) = (λ0 −λ)t ·det(C −λIn−t ), e pertanto ma (λ0 ) ≥ t = mg (λ0 ).
94
5.2 Endomorsmi diagonalizzabili
Sia V uno spazio vettoriale di dimensione nita su un campo K. Un endomorsmo ϕ di V si dice
diagonalizzabile (oppure semplice) se V ammette una base di autovettori di ϕ; in tal caso, la base
di autovettori è detta anche base spettrale.
Teorema 5.2.1. Sia V uno spazio vettoriale di dimensione nita sul campo K e sia ϕ un en-
domorsmo di V. Allora ϕ è diagonalizzabile se e solo se esiste un riferimento R di V tale che
A = MR (ϕ) è diagonale.
Sia V uno spazio vettoriale di dimensione nita. Abbiamo già visto nella proposizione 5.1.3 che
lo spazio somma W degli autospazi relativi ad un endomorsmo ϕ diV , è una somma diretta; se
poi W =V è evidente che V possiede una base fatta di autovettori e ϕ è dunque diagonalizzabile.
Più in generale sussiste la seguente caratterizzazione.
Teorema 5.2.2. (Teorema Spettrale) Sia V uno spazio vettoriale su un campo K di dimensione
nita e sia ϕ un endomorsmo di V. Sono equivalenti:
(i) ϕ è diagonalizzabile;
(iii) Se λ1 , . . . , λt sono gli autovalori a due a due distinti di ϕ, allora si ha che ma (λi ) = mg (λi )
per ogni i = 1, . . . , t e ma (λ1 ) + · · · + ma (λt ) = dim(V ).
V = Vϕ (λ1 ) ⊕ · · · ⊕ Vϕ (λt );
in particolare, ssata una base Bi in ciascun autospazio Vϕ (λi ), si ha che l'insieme B = B1 ∪· · ·∪Bt
è una base di V. Poniamo mi = mg (λi ) per ogni i = 1, . . . , t. La matrice A associata a ϕ in B è
evidentemente la matrice diagonale in cui sulla diagonale si ripetono gli autovalori e precisamente
è la matrice diagonale che ha sulla diagonale prima m1 valori uguali a λ1 , poi m2 valori uguali a
λ2 e così via. Ne consegue che
pϕ (λ) = det(A − λI) = (λ1 − λ)m1 (λ2 − λ)m2 · · · (λt − λ)mt (5.1)
così λ1 , . . . , λt sono tutte e sole le radici distinte del polinomio caratteristico, quindi ma (λi ) = mi
per ogni i = 1, ..., t e m1 + · · · + mt = gr(pϕ (λ)) = dim(V ).
95
(iii) ⇒ (i) λ1 , . . . , λt gli autovalori distinti di ϕ di molteplicità m1 , . . . , mt , ri-
Siano
spettivamente. Lo spazio somma W degli autospazi è somma diretta per la proposizione 5.1.3
e quindi segue dalle ipotesi e dalla formula di Grassmann 3.6.15 che W ha dimensione pari a
m1 + · · · + mt = dim(V ); pertanto segue dalla proposizione 6.9 che V = W e così, ssata una base
Bi in ciascun autospazio Vϕ (λi ), l'insieme B = B1 ∪ · · · ∪ Bt è una base per V fatta di autovettori
di ϕ e ϕ è quindi diagonalizzabile.
Si noti inne che, come immediata conseguenza del teorema 5.1.6 e del teorema 5.2.2, si ha il
seguente.
Corollario 5.2.3. Sia V uno spazio vettoriale di dimensione nita n sul campo K. Se il polinomio
caratteristico di un endomorsmo ϕ di V ha n radici distinte, allora ϕ è diagonalizzabile.
e studiamone l'eventuale diagonalizzabilità. Considerando il riferimento canonico R = ((1, 0), (0, 1)),
la matrice che rappresenta ϕ ha per colonne ϕ(1, 0) = (1, −1) e ϕ(0, 1) = (2, −2)
1 2
A=
−1 −2
e quindi l'equazione caratteristica
1−λ 2
0 = det(A − λI2 ) = = (1 − λ)(−2 − λ) + 2 = λ2 + λ
−1 −2 − λ
96
dunque Vϕ (−1) = {(x, −x) | x ∈ R} = L[(1, −1)]. Invece Vϕ (0) = ker ϕ è lo spazio delle soluzioni
del sistema lineare AX = 0 ovvero del sistema
x + 2y = 0
−x − 2y = 0
(x, y, z) ∈ R3 −→ (−y, x, z) ∈ R3
sicchè il polinomio caratteristico, com'è semplice accorgersi, è (1 − λ)(λ2 + 1) il quale ha solo una
radice reale, pertanto l'endomorsmo considerato non è diagonalizzabile per il teorema 5.2.2.
che ha per radici 3, con molteplicità algebrica 2, e −3, con molteplicità algebrica 1.
Andiamo ora a determinare gli autospazi. Per determinare Vϕ (3), consideriamo il sistema
lineare omogeneo (A − 3I3 )X = 0, ovvero
−3y + 3z = 0
3y − 3z = 0
97
il teorema 5.2.2. Per determinare una base per R2 [x] di autovettori di ϕ, ci serve determinare una
base per l'autospazio Vϕ (−3). Lo spazio delle soluzioni del sistema omogeneo (A + 3I3 )X = 0,
ovvero del sistema
6x = 0
3y + 3z = 0
3y + 3z = 0
ha per base {(0, 1, −1)}, pertanto una base per Vϕ (−3) è costituita dal vettore f3 = c−1
R (0, 1, −1) =
x − x2 . In denitiva la base di R2 [x] cercata è {f1 , f2 , f3 }.
VA (λ) = {v ∈ Kn | Av = λv},
La matrice A
si dice diagonalizzabile se è simile ad una matrice diagonale. Dunque A è diago-
−1
nalizzabile se e solo se esite P ∈ GLn (K) tale che P AP = D è una matrice diagonale, in tal caso
1 n n
le colonne di P costituiscono un riferimento B = (P , . . . , P ) di K e P rappresenta la matrice
di passaggio da B ad R. Nel riferimento B la matrice associata all'endomrsmo LA è la matrice
diagonale D, quindi LA è diagonalizzabile per il teorema 5.2.1 (e B è la base spettrale). Viceversa
se LA è diagonalizzabile il teorema 5.2.1 e il teorema 4.7.2 assicurano che A è diagonalizzabile.
Pertanto A è diagonalizzabile se e soltanto se LA è diagonalizzabile e conseguentemente il teorema
5.2.2 può essere riletto in questo caso come segue.
Teorema 5.3.1. Sia K un campo e sia A una matrice quadrata di ordine n su K. La matrice A è
diagonalizzabile se e solo se il polinomio caratteristico det(A − λIn ) ha n radici in K (contate con
la loro molteplicità) e, dette λ1 , . . . , λt le sue radici distinte, ogni λi ha per molteplicità algebrica
esattamente dim(VA (λi )).
Sia A è una matrice quadrata d'ordine n su un campo K, e supponiamo che A sia diagonaliz-
zabile. Allora l'endomorsmo LA è diagonalizzabile e Kn ha un riferimento B fatto di autovettori
di LA , e quindi anche di A. Se P è la matrice le cui colonne sono i vettori di B, allora P è la
matrice le cui colonne sono le componenti dei vettori di B nel riferimento canonico R. Quindi P
è la matrice di passaggio dal riferimento B al riferimento R e così il teorema 4.7.2 assicura che
D = P −1 AP è la matrice associata a LA in B . D'altra parte ogni vettore in B è un autovettore per
LA e quindi la matrice associata a LA in B, ovvero la matrice D, è la matrice diagonale sulla cui
98
diagonale principale si trovano gli autovalori di LA (e quindi di A) ripetuti tante volte quant'è la
loro molteplicità. In altre parole, se una matrice A è diagonalizzabile, allora una matrice diagonale
D ad essa simile è la matrice sulla cui diagonale ci sono gli autovalori di A, inoltre la matrice che
rende A simile a D è la matrice le cui colonne sono gli autovettori di A.
Esso ha per base {(3, 2, 0), (0, 0, 1)}, sicchè lo spazio delle sue soluzioni ha dimensione 2 = ma (4)
e A è quindi diagonalizzabile.
Per determinare una matrice invertibile P che rende A simile ad una matrice diagonale dob-
3
biamo determinare una base per R fatta di autovettori per A. A tal ne, occorre determinare
una base per le soluzioni di (A + I3 )X = 0, ossia del sistema
3x + 3y = 0
2x + 2y = 0
5z = 0
Una base per le soluzioni di questo sistema è quindi {(1, −1, 0)} e quindi una base di R3 fatta da
autovettori di A è
{(3, 2, 0), (0, 0, 1), (1, −1, 0)}.
Pertanto la matrice P cercata è la matrice che ha questi vettori per colonna
3 0 1
2 0 −1
0 1 0
è la matrice diagonale simile ad A è
4 0 0
D = P −1 AP = 0 4 0
0 0 −1
ossia è la matrice diagonale che ha sulla diagonale gli autovalori di A ripetuti tante volte quant'è
la loro molteplicità e messi nello stesso ordine con cui abbiamo considerato gli autospazi.
99
Sussiste inne il seguente notevole risultato di cui si omette la dimostrazione.
Teorema 5.3.3. Sia A una matrice quadrata di ordine n sul campo R. Se A è simmetrica, allora
A è diagonalizzabile.
100
Capitolo 6
Geometria analitica
101
Proposizione 6.1.1. Per due punti distinti di Rn passa un'unica retta.
Tre punti A, B e C di Rn si dicono allineati se appartengono alla stessa retta, in tal caso la
0
retta r = C + L[A − C] per A e per C coincide con la retta r = C + L[B − C] per B e C ,
0
sicchè L[A − C] = D(r) = D(r ) = L[B − C] e pertanto i vettori A − C e B − C sono dipendenti.
n
Conseguentemente i tre punti A, B e C di R sono non allineati se i vettori A − C e B − C sono
indipendenti.
Proposizione 6.1.2. Per tre punti non allineati di Rn passa un unico piano.
Dimostrazione. Siano A, B e C punti non allineati, sicchè i vettori A − C e B − C sono non nulli
0
e indipendenti. Pertanto π = C + L[A − C, B − C] è un piano. Se π è un altro piano che passa
0
per A, B e C , allora A − C e B − C sono vettori non nulli e indipendenti della giacitura di π (che
0
è un sottospazio vettoriale di dimensione 2), pertanto D(π ) = L[A − C, B − C] = D(π) e così
π = C + D(π) = C + D(π 0 ) = π 0 .
Proposizione 6.1.3. Se una retta r ed un piano π di Rn hanno due punti in comune, allora r è
contenuta in π.
Dimostrazione. Siano A e B r e a π . Allora B − A è un vettore non
due punti distinti comuni ad
nullo comune ai sottospazi vettoriali D(r) e D(π). Avendo D(r) dimensione 1 e D(π) dimensione
2, si ha che D(r) = L[B − A] ed esiste un vettore v ∈ Rn tale che D(π) = L[B − A, v]. In
particolare D(r) ≤ D(π) e così r = A + D(r) ⊆ A + D(π) = π .
Due sottospazi ani A e B di Rn si dicono paralleli se D(A) ≤ D(B) oppure D(B) ≤ D(A).
In particolare, se A e B hanno stessa dimensione, si ha che A e B sono paralleli se e solo se
D(A) = D(B). I sottospazi ani A e B di Rn si dicono incidenti se A ∩ B6= ∅; si dice invece che
A e B sono sghembi se A e B non sono né paralleli né incidenti.
n
Si osservi che se A = P0 + D(A) è un sottospazio ane di R , allora lo spazio direttore D(A)
n
è il sottospazio ane di R passante per l'origine O = (0, . . . , 0) e parallelo ad A.
102
Dimostrazione. Siano r ed r0 due rette distinte incidenti, e sia A ∈ r ∩ r0 . Poichè r 6= r0 esistono
0 0
B ∈ r \ r e C ∈ r \ r; in particolare i vettori B − A e C − A sono non nulli e indipendenti.
Pertanto π = A + L[B − A, C − A] è un piano e tale piano evidentemente contiene A, B e C .
0
Segue così dalla proposizione 6.1.3 che r, r ⊆ π .
Un altro caso in cui due rette sono complanari, è quando le due rette sono parallele. Sussiste
infatti la seguente.
Q − P = (Q − O) + (O − P ) = (Q − O) − (P − O)
e quindi passando alle componenti (cioè applicando l'isomorsmo coordinato cR ) si ottiene che
P − O0 = (P − O) + (O − O0 )
103
per cui, se A = MR,R0 (ιRn ) è la matrice di passaggio dal rifermento (vettoriale) R al riferimento
(vettoriale) R0 , posto P ≡R X , P ≡R0 X 0 e O ≡R0 B e ricordando che X 0 = AX , dalla precedente
relazione e passando alle componenti (cioè applicando l'isomorsmo coordinato cR0 ) ricaviamo
ovvero
X 0 = AX + B
La precedente relazione rappresenta un sistema di equazioni che determina il passaggio dal riferi-
0
mento R al riferimento R .
Supponiamo ssato, da qui in avanti, un riferimento ane R = (O, R). Sia r una retta di
R , sicchè esistono un punto P0 (x01 , . . . , x0n ) ed un vettore non nullo v = (l1 , . . . , ln ) tali da aversi
n
D(r) = L[v]. Il vettore non nullo v che genera lo spazio direttore di r viene chiamato anche
vettore direzionale di r; si noti che il vettore direzionale di una retta è un qualsiasi generatore
del suo spazio direttore, e pertanto una retta ha inniti vettori direzionali tutti non nulli e tutti
proporzionali tra loro.
Si ha
r = {P ∈ Rn : P − P0 ∈ D(r)} = {P ∈ Rn : P − P0 = tv, t ∈ R}
e così, passando alle coordinate, se P (x1 , . . . , xn ), si ha che P ∈r se e solo se esite t∈R tale che
Viceversa, le soluzioni del precedente sistema rappresentano le coordinate (in R) di tutti e soli i
punti della retta r.
n
Quanto visto per le rette si può ripetere anche per i piani. Sia π un piano di R , sicchè
0 0
esistono un punto P0 (x1 , . . . , xn ) e due vettore non nulli e indipendenti tra loro v = (l1 , . . . , ln ) e
v 0 = (m1 , . . . , mn ) tali da aversi D(r) = L[v, v 0 ].
Si ha
π = {P ∈ Rn : P − P0 ∈ D(π)} = {P ∈ Rn : P − P0 = tv + sv 0 , t, s ∈ R}
104
Viceversa, le soluzioni del precedente sistema rappresentano le coordinate (in R) di tutti e soli i
punti del piano π.
Osserviamo che quanto fatto per rette e per piani può essere generalizzato ad ogni sottospazio
n
ane di R , e dunque ogni sottospazio ane possiede una rappresentazione parametrica.
Teorema 6.2.1. n
Sia R = (O, R) un riferimento ane di R e sia A un sottospazio ane di
n
dimensione k di R . Allora esistono una matrice A ∈ Mn−k,n (R) con ρ(A) = n−k , ed una matrice
B ∈ Mn−k,1 (R) tale che A è costituito da tutti e soli i punti le cui coordinate in R vericano il
sistema Sol(AX = B) e la giacitura di A è il sottospazio vettoriale c−1
R (Sol(AX = 0)).
Dimostrazione. Siano V
la giacitura di A (quindi dim(V ) = k ) e B = (v1 , . . . , vk ) un riferimento
V ; in particolare, posto cR (vi ) = (α1i , . . . , αni ) per ogni i = 1, . . . , k , si ha che la matrice (le cui
righe sono le componenti in R dei vettori di B )
α11 · · · αn1
α2 · · · α2
1 n
M = .. . . .
.
. . .
α1 . . . αnk
k
P ∈ A ⇔ P − P0 ∈ V ⇔ A[P − P0 ]R = 0
⇔ A([P − O]R − [P0 − O]R ) = 0 ⇔ A[P − O]R = A[P0 − O]R ,
dunque, posto B = A[P0 − O]R , si ottiene che i punti di A sono tutti e soli i punti le cui coordinate
in R appartengono all'insieme Sol(AX = B).
105
Limitandoci al caso di R2 e di R3 , il precedente teorema può essere riformulato come segue.
r = {P ≡R (x, y) : ax + by + c = 0}.
r : ax + by + c = 0 (6.5)
x − x0 y − y 0
det = 0, (6.7)
l m
e sviluppando questo determinante si ottiene una equazione dello stesso tipo di (6.5). Questo
mostra come dalla rappresentazione parametrica (6.6) può essere ricavata una rappresentazione
cartesiana dello stesso tipo di (6.5). In realtà anche dalla rappresentazione cartesiana si può
dedurre una rappresentazione parametrica. Infatti se la retta r è rappresentata come in (6.5),
allora il vettore v = (−b, a) è un vettore direzionale di r (perchè (−b, a) è una soluzione non nulla
106
dell'equazione ax + by = 0 che per il teorema 6.2.1 rappresenta la giacitura di r) ed r può essere
rappresentata parametricamente come
x = − ac − t b
x = −t b
r: oppure r:
y =0+t a y = − cb
Esempio 6.3.1. Scrivere l'equazione della retta r passante per il punto (−2, 1) e di vettore
direzionale (4, 3).
In forma parametrica, la retta r è rappresentata dalle equazioni
x = −2 + 4 t
y = 1 + 3t
con t ∈ R. La forma cartesiana si ottiene dalla relazione (6.7) che in questo caso è
x+2 y−1
det =0
4 3
da cui si ricava
3(x + 2) − 4(y − 1) = 0
nonchè
3x − 4y + 10 = 0.
Si noti che dalla forma parametrica a quella ordinaria si può pervenire pure ricavando il parametro
t da una delle due equazioni e sostituendolo nell'altra.
Esempio 6.3.2. Scrivere l'equazione della retta r passante per i punti P (1, −2) e Q(0, 2).
Dalla dimostrazione della proposizione 6.1.1 si evince che la retta per P e Q è la retta per P
di vettore direzionale P − Q = (1, −4), sicchè la retta cercata in forma parametrica è descritta
dalle equazioni
x=1+t
y = −2 − 4 t
e in forma cartesiana è descritta dall'equazione −4x − 1(y − 2) = 0, ovvero 4x + y − 2 = 0.
2
Il prossimo risultato assicura che due rette di R non parallele sono incidenti in un punto;
2
in particolare in R non esistono rette sghembe. Si noti inoltre che, poichè la proposizione 6.1.5
n
assicura che rette parallele sono e distinte di R sono complanari, ne consegue che due rette distinte
n
di R sono parallele se e solo se sono complanari e non incidenti.
107
Dimostrazione. Un vettore direzionale di r è v = (−b, a), mentre un vettore direzionale di r0 è
v = (−b , a ). Poichè D(r) = L[v] e D(r ) = L[v 0 ] si ottiene che le rette r ed r0 sono parallele se e
0 0 0 0
0 0 0
solo se i vettori v e v sono dipendenti (e quindi proporzionali cioè se (a, b) = λ(a , b ) per qualche
0
λ ∈ R). In altri termini r ed r sono parallele se e solo se
a b
det 0 0 = 0.
a b
ax + by + c = 0
a0 x + b 0 y + c 0 = 0
è di Cramer; poichè tale sistema rappresenta l'intersezione tra le rette r ed r0 si ottiene quindi che
r ∩ r0 è un punto.
Esempio 6.3.4. Scrivere l'equazione cartesiana della retta r per P0 (2, −3) parallela alla retta
s : 5x − 2y + 3 = 0.
s è v = (2, 5), sicchè r : 5(x−2)−2(y+3) = 0 ovvero r : 5x−2y−16 = 0.
Il vettore direzionale di
Un altro modo per determinare r è il seguente. Dovendo essere parallela ad s, il vettore
direzionale di r è lo stesso di quello di s e quindi l'equazione di r è del tipo 5x − 2y + λ = 0 per
un opportuno λ. Il valore di λ si può poi ottenere imponendo che P0 appartenga a r , quindi deve
essere 10 + 6 + λ = 0 e pertanto ritroviamo che r : 5x − 2y − 16 = 0.
u1 u2 u3
.
v1 v2 v3
(u + v) × w = (u × w) + (v × w), u × (v + w) = (u × v) + (u × w)
e
(αu) × v = α(u × v) = u × (αv),
108
ed è antisimmetrico (o alternante) cioè comunque si considerano due vettori u e v di R3 si ha che
u × v = −v × u.
Ancora, se u ev sono vettori di R3 (visto come spazio euclideo col prodotto scalare standard)
allora il vettore u × v è ortogonale sia ad u che v ed inoltre
π : ax + by + cz + d = 0 (6.8)
dovea, b, c, d ∈ R e con a, b e c non contemporaneamente nulli. Ma sappiamo pure che i piani hanno
una rappresentazione parametrica. Considerato il piano π passante per il punto P0 (x0 , y0 , z0 ) e
0 0 0 0 0
supposto D(π) = L[v, v ] con v = (l, m, n) e v = (l , m , n ) vettori non nulli e indipendenti, allora
π può essere rappresentato parametricamente come
x = x0 + t l + s l 0
π: y = y0 + t m + s m 0 (6.9)
z = z0 + t n + s n0
x − x0 y − y0 z − z0
ρ l m n = 2,
0 0
l m n0
ovvero che
x − x0 y − y0 z − z0
det l m n = 0;
l0 m0 n0
sviluppando quest'ultimo determinante si ottiene che π è l'insieme dei punti P (x, y, z) che verica
una equazione lineare in tre incognite come la (6.8). Dunque si può passare dalla rappresentazione
parametrica alla rappresentazione cartesiana. Viceversa, supponiamo di avere una rappresenta-
zione per il piano π come in (6.8). Allora il teorema 6.2.1 assicura che lo spazio direttore D(π) è
rappresentato dall'equazione lineare omogenea ax + by + cz = 0, ed è semplice accorgersi che sono
soluzioni di tale equazione i vettori
D'altra parte a, b e c non sono tutti nulli e quindi sicuramente due vettori tra v, v 0 e v 00 sono non
nulli e indipendenti tra loro (cioè costituiscono una base per D(π)), sicchè la scelta di quei due
vettori e la scelta di una soluzione qualsiasi P0 dell'equazione (6.8) ci pemettono di scrivere (in
modo analogo a quanto fatto prima) una rappresentazione parametrica per π dello stesso tipo di
(6.9).
109
Esempio 6.4.1. Scrivere l'equazione del piano π passante per il punto P0 (4, 3, −2) e di giaciura
L[v, v 0 ] dove v = (1, −1, 0) 0
e v = (2, 1, 3).
Esempio 6.4.2. Scrivere l'equazione del piano π per i punti A(1, 0, 1), B(2, 0, 0) e C(2, 1, 3).
La dimostrazione della proposizione 6.1.2 assicura che π è il piano per A la cui giacitura è
il sottospazio generato dai vettori B − A = (1, 0, −1) e C − A = (1, 1, 2), quindi è il piano di
equazioni parametriche
x=1+s+t
π: y=t
z = 1 − s + 2t
Mentre da
x−1 y z−1
det 1 0 −1 = 0
1 1 2
si ricava che l'equazione cartesiana di π è x − 3y + z − 2 = 0.
Considerato il piano
π : ax + by + cz + d = 0,
la giacitura di π
D(π) = {(x, y, z) ∈ R3 : ax + by + cz = 0}
è un sottospazio di dimensione 2 di R3 . Posto
n = (a, b, c)
si ha che n è un vettore non nullo di D(π)⊥ ; d'altra parte dim D(π)⊥ = 1 per il teorema 3.9.15 e
quindi
D(π)⊥ = L[n].
Il vettore n = (a, b, c) (non nullo) ha un ruolo fondamentale nello studio dei piani e viene detto
il vettore normale di π ; evidentemente, ogni vettore non nullo proporzionale ad n è anch'esso un
vettore normale del piano.
110
Due piani π e π0 sono paralleli se e solo se D(π) = D(π 0 ). Un criterio di parallelismo tra piani
è fornito dal seguente risultato dal quale discende pure, in particolare, che due piani dello spazio
sono sempre paralleli oppure incidenti in una retta.
(i) π e π0 sono paralleli se e soltanto se i loro vettori normali sono proporzionali, e quindi se e
a b c
soltanto se ρ 0 0 0 = 1.
a b c
Dimostrazione. Siano
n = (a, b, c) e n0 = (a0 , b0 , c0 )
i vettori normali diπ e π 0 , rispettivamente. Si ha che π e π 0 sono paralleli se e solo se (per
0 ⊥
denizione) D(π) = D(π ) e quindi se e solo se D(π) = D(π 0 )⊥ . Essendo D(π)⊥ = L[n] e
0 ⊥ 0 0
D(π ) = L[n ] si ottiene la (i). Se invece π e π sono non paralleli, allora (i) assicura che
a b c
ρ 0 0 0 =2
a b c
e pertanto
0 ax + by + cz + d = 0
π∩π :
a0 x + b0 y + c0 z + d0 = 0
è una retta in accordo col corollario 6.2.2, e così anche la (ii) è provata.
Esempio 6.4.4. 0
Considerati i piani π : x − 4y + 3z + 1 = 0, π : 2x − 8y + 6z = 0 si ha che i
0 0 0
vettori normali di π, π sono n = (1, −4, 3), n = (2, −8, 6), rispettivamente. Essendo n = 2n i
0
piani π e π sono paralleli. Inoltre essendo (1, −4, 3, 1) e (2, −8, 6, 0) non proporzionali, i piani π
00
e π non sono coincidenti.
Consideriamo ora una retta r. Il corollario 6.2.2 ci assicura che r possiede una rappresentazione
cartesiana del tipo
ax + by + cz + d = 0
r: (6.10)
a0 x + b0 y + c0 z + d0 = 0
dove a, b, c, d, a0 , b0 , c0 , d0 ∈ R sono tali che
a b c
ρ 0 0 0 =2 (6.11)
a b c
111
(cioè r è intersezione di due piani non paralleli). In tal caso la giacitura di r è rappresentata dal
sistema omogeneo
ax + by + cz = 0
a0 x + b 0 y + c 0 z = 0
e si può facilmente vericare che una soluzione di tale sistema è data dal prodotto vettoriale
v = (a, b, c) × (a0 , b0 , c0 );
dunque v ∈ D(r). D'altra parte la condizione (6.11) assicura che v non è il vettore nullo, pertanto
v è un vettore direzionale di r. In particolare, noto un vettore direzionale v e scelta una soluzione
non nulla P0 del sistema (6.10) si può ottenere una rappresentazione parametrica di r. Infatti
se P0 (x0 , y0 , z0 ) e v = (l, m, n) è un vettore direzionale di r, allora r può essere rappresentata
parametricamente come
x = x0 + t l
r: y = y0 + t m (6.12)
z = z0 + t n
x − x0 y − y0 z − z0
l m n
ha rango 1 e quindi nella seconda riga di tale matrice (che è non nulla) deve esistere un minore di
ordine 1, ad esempio (l), che è fondamentale. Pertanto gli orlati di (l) sono singolari ovvero
x − x 0 y − y0
det =0
l m
.
x − x0 z − z0
det =0
l n
x − y + 2z = 2
r:
2x + 3y − z = 4
E' semplice accorgersi che P0 (1, 1, 1) è un punto di r. D'altra parte un vettore direzionale di r è
il vettore v = (1, −1, 2) × (2, 3, −1) = (−5, 5, 5). Quindi anche (−1, 1, 1) è un vettore direzionale
di r e pertanto in forma parametrica si ha
x=1−t
r: y =1+t
z =1+t
112
Esempio 6.4.7. Scrivere l'equazione della retta r per i punti A(3, 5, −1) e B(2, 1, 0).
Dalla dimostrazione della proposizione 6.1.1 si evince che un vettore direzionale della retta r
è il vettore A − B = (1, 4, −1). Quindi parametricamente la retta cercata è rappresentata da
x=3+t
r: y = 5 + 4t
z = −1 − t
Per ottenere la rappresentazione cartesiana ricaviamo t da una delle equazioni e sostituiamo nelle
altre. Ricavando t dalla terza, si ha t = −1 − z e così
x+z−2=0
r:
y + 4z − 1 = 0
Due rette r ed r0 0
sono parallele se e solo se D(r) = D(r ) e quindi se e solo se il vettore
0 2
direzionale di r ed il vettore direzionale di r sono proporzionali. Abbiamo visto che in R due
rette non paralle sono incidenti (cioè la loro intersezione è non vuota), in particolare quindi rette
3
complanari sono sempre parallele o incidenti. Questo non accade in R , infatti le rette
x=0 x=1
0
r: y=t e r : y=0 (6.13)
z=0 z=t
non sono nè parallele nè incidenti, e pertano sono sghembe. Si noti che poichè la proposizione
6.3.3 assicura che rette complanari sono sempre parallele o incidenti, e rette parallele o incidenti
sono complanari per la propozione 6.1.5 e la proposiozione 6.1.4, ne consegue che due rette sono
sghembe se e soltanto se sono non complanari.
0 0
Un vettore direzionale di r è v = (1, −1, 2),
mentre un vettore direzionale di r è v = (1, 1, 0) ×
00 00
(1, −1, −1) = (−1, 1, −2) e un vettore direzionale di r è il vettore v = (0, 2, 1) × (2, 0, −1) =
(−2, 2, −4). Essendo v = −v 0 , le rette r ed r0 sono parallele; inoltre, il punto A(2, 0, 1) è un punto
0
comune ad r ed r e pertanto queste due rette sono impropriamente parallele (cioè coincidono).
00 00 0 00
D'altra parte è anche v = −2v e pertanto anche r ed r , e conseguentemente r e r , sono parallele.
Studiando poi il sistema
x+y−2=0
x−y−z−1=0
2y + z = 0
2x − z − 3 = 0
00
ci si accorge che le rette r e r sono propriamente parallele, infatti tale sistema è incompatibile e
00
quindi r e r non hanno punti in comune.
113
Esempio 6.4.9. Assegnata la retta
x+y−2=0
r:
x−y−z−1=0
Ricavando t dalla prima e sostituendo nelle altre, otteniamo la sua forma cartesiana:
x+y−3=0
x−y−z−2=0
Il prossimo risultato fornisce un criterio per riconoscere la reciproca posizione di due rette nello
spazio.
α0 β 0 γ 0 α0 β 0 γ 0 δ 0
Si ha:
114
passanti per il punto O = (0, 0, 0) e parallele, rispettivamente, ad r ed r0 ; quindi r0 = D(r0 ) e
r00 = D(r00 ). Si ha che r ed r0 sono parallele se e solo se r0 = D(r0 ) = D(r00 ) = r00 e quindi se e solo
se il sistema
ax + by + cz = 0
0
a x + b0 y + c 0 z = 0
αx + βy + γz = 0
0
α x + β 0y + γ 0z = 0
ha ∞1 soluzioni, ovvero se e solo se ρ(A) = 2 (cfr. teorema 4.5.1).
Invece r ed r0 sono incidenti e distinte se e solo se il sistema
ax + by + cz + d = 0
0
a x + b0 y + c 0 z + d 0 = 0
αx + βy + γz + δ = 0
0
α x + β 0y + γ 0z + δ0 = 0
è determinato (si noti che se due rette hanno più di un punto in comune, allora la proposizione
6.1.1 assicura che le due rette coincidono) e quindi, per il teorema di Rouchè-Capelli, e solo se
ρ(A) = ρ(A0 ) = 3.
0
Inne, se r ed r sono non parallele allora (i) assicura che ρ(A) ≥ 3, e quindi deve essere
ρ(A) = 3; se poi r ed r0 sono anche non incidenti segue da (ii) che deve essere ρ(A0 ) = 4. Pertanto
r ed r0 sono sghembe se e solo se det(A0 ) 6= 0.
ed un
piano π : ax + by + cz + d = 0 di vettore normale n = (a, b, c).
La retta r ed il piano π D(r) ≤ D(π) (si noti esplicitamente che non
sono paralleli se e solo se
può essere il contrario perchè D(π) ha dimensione 2 e D(r) ha dimensione 1). Ma se D(r) ≤
D(π) allora v ⊥ n essendo D(π)⊥ = L[n]; viceversa ogni vettore ortogonale ad n appartiene a
(D(π)⊥ )⊥ = D(π) (cfr. teorema 3.9.15) e pertanto otteniamo che
Si ha poi che in R3 una retta ed un piano sono sempre paralleli oppure incidenti in un punto,
infatti sussiste la seguente.
Proposizione 6.4.11. Siano r una retta e π un piano di R3 . Se r e π sono non paralleli, allora
l'intersezione tra r e π è un punto.
Dimostrazione. Sia
x = x0 + t l
r: y = y0 + t m e π : ax + by + cz + d = 0
z = z0 + t n
115
e supponiamo che r ed s siano non paralleli. Allora
al + bm + cn 6= 0. (6.14)
sicchè, tenendo presente (6.14), si ricava per essa un'unica soluzione che chiaramente corrisponde
ad un unico punto di intersezione tra r e π.
sono paralleli. Infatti, il vettore normale di π è n = (2, −1, 3), mentre un vettore direzionale della
retta è v = (1, 1, 0) × (0, 1, 1) = (1, −1, 1) ed è v · n = 0.
Si dice fascio di piani un insieme di piani che sono o paralleli tra loro (in tal caso si parla di
fascio improprio ) oppure passano tutti per una stessa retta (in tal caso di parla di fascio proprio
e la retta comune a tutti i piani del fascio si dice asse del fascio ). Un fascio di piani (proprio o
improprio che sia) è individuato a partire da due suoi piani distinti, sussiste infatti il seguente
risultato.
`(ax + by + cz + d) + m(a0 x + b0 y + c0 z + d0 ) = 0
Esempio 6.4.14. Rappresentare il piano π passante per il punto A(1, −2, −2) e per la retta
x − 2y + z + 1 = 0
r:
2x + y − z − 3 = 0
Il piano π è un piano del fascio di asse r e quindi può essere rappresentato da un'equazione
del tipo
λ(x − 2y + z + 1) + µ(2x + y − z − 3) = 0.
Imponendo il passaggio per A si ottiene 4λ − µ = 0, così prendendo ad esempio λ=1 e µ=4
otteniamo π : 9x + 2y − 3z − 11 = 0.
116
Esempio 6.4.15. Determinare la retta r per P (1, 2, 3) complanare con
x+y−3=0
s:
2x + z − 2 = 0
e parallela al piano π : 2x + y − z + 1 = 0.
La retta r è contenuta nel piano α per P ed s e nel piano β per P parallelo a π , e quindi
r = α ∩ β . Il piano α appartiene al fascio di asse s e quindi la sua equazione è del tipo α :
λ(x + y − 3) + µ(2x + z − 2) = 0 e dovendo passare per P è tale da aversi λ(0) + µ(3) = 0, sicchè
α : x + y − 3 = 0. Un piano parallelo a π , invece, ha equazione del tipo 2x + y − z + d = 0 e
imponendo il passaggio di un tale piano per P si ricava 2 + 2 − 3 + d = 0, ovvero d = −1 e pertanto
β : 2x + y − z − 1 = 0. Così la retta cercata è
x+y−3=0
r:
2x + y − z − 1 = 0
non possono essere pure parallele (cfr. proposizone 3.9.10) e quindi segue dalla proposizione 6.3.3
2 3
che rette ortogonali del piano R sono sempre incidenti. L'esempio (6.13) mostra invece che in R
rette ortogonali possono essere sghembe.
0 0
Allora un vettore direzionale di r è v = (−1, 2, 3), un vettore direzionale di r è v = (2, 1, 0)
00 00 0 0 00 0
mentre un vettore parallelo a r è v = (−1, 2, 1). Essendo v · v = 0 e v · v = 0, le rette r e r
0 00 00 00
sono ortogonali così come anche r e r sono ortogonali. Invece, v · v = 8 6= 0 e quindi r e r non
00 00
sono ortogonali. D'altra parte v e v non sono proporzionali e quindi r e r non sono neanche
00
parallele. Scrivendo la rappresentazione cartesiana di r ed r
2x + y − 4 = 0 00 x+z−3=0
r: e r :
3x + z − 5 = 0 y − 2z + 3 = 0
è semplice poi accorgersi che il sistema
2x + y − 4 = 0
3x + z − 5 = 0
x+z−3=0
y − 2z + 3 = 0
117
Esempio 6.5.2. Assegnata la retta
x+y−2=0
r:
x−y−z−1=0
determinare inoltre due rette per l'origine ortogonali ad r.
v = (1, 1, 0) × (1, −1, −1) = (−1, 1, −2) è un vettore direzionale di r. Un vettore di
Il vettore
componenti (l, m, n) è ortogonale a v se e solo se risulta 0 = (−1, 1, −2) · (l, m, n) = −l + m − 2n.
Pertanto due rette per l'origine ortogonali a r sono
x = −2t x = −t
y=0 y = 3t
z=t z = 2t
118
Esempio 6.5.6. Considerato il punto A(−1, 1, −1) e la retta
x=1+t
y = −2t
z = −2 + t
ed il punto A(1, −2, 3) 6∈ r, determinare la retta s passante per A che sia ortogonale ed incidente
r.
La retta s π per A ortogonale ad r, e anche nel piano π 0 per A e per
è contenuta nel piano
r. Un vettore direzionale di r è v = (1, 1, 0) × (3, 0, −1) = (−1, 1, −3) il piano π ha equazione
del tipo −1x + y − 3z + d = 0. Dovendo essere A ∈ π , deve essere d = 1 + 2 + 9 = 12 e quindi
π : x − y + 3z − 12 = 0. Invece il piano π 0 appartiene al fascio di asse r e coincide col piano
3x − z = 0 perchè questo piano contiene ovviamente r e contiene anche A. Pertanto la retta
cercata è
x − y + 3z − 12 = 0
s:
3x − z = 0
Teorema 6.5.8. Se r ed r0 sono dure rette sghembe di R3 allora esiste un'unica retta p ortogonale
0
ed incidente sia r che r (tale retta p prende il nome di comune perpendicolare ad r ed r0 ).
Dimostrazione. Supponiamo siano r = P + L[v] er0 = Q + L[w] due rette sghembe di R3 , siano
poi Pt = P + tv (con t ∈ R) il generico punto di r e Qs = Q + sw (con s ∈ R) il generico punto
dir0 . Poichè r ed r0 non sono incidenti si ha che qualsiasi siano i numeri reali t ed s i punti Pt e
Qs sono distinti, quindi Qs − Pt è sempre un vettore non nullo e pertanto
p(t, s) = Pt + L[Qs − Pt ]
è una retta ane (la retta per Pt e Qs ) che evidentemente interseca sia r che r0 . Inoltre, la retta
p(t, s) è ortogonale ad r ed r0 se il suo vettore direzionale
u = Qs − Pt = sw − tv + (Q − P )
119
ovvero se
(w · v)s − (v · v)t + (Q − P ) · v = 0
(6.15)
(w · w)s − (v · w)t + (Q − P ) · w = 0
Quest'ultimo sistema lineare (nelle incognite t ed s) ha la matrice dei coecienti che ha determi-
nante pari a
2
d = −(v · w)2 + (w · w)(v · v) = −(v · w)2 + kvk2 kv 0 k .
Poichè r ed r0 non sono parallele, i vettori v e w sono non proporzionali (e quindi sono indipen-
denti), e così la disuguaglianza di Cauchy-Schwarz (cfr. proposizione 3.9.6) assicura che d 6= 0.
Segue che il sistema (6.15) è di Cramer e pertanto esso ha un'unica soluzione (t0 , s0 ). Allora
dall'esistenza ed unicità della soluzione, segue che la retta p = p(t0 , s0 ) esiste ed è unica: essa
0
è la comune perpendicolare ad r ed r . I punti Pt0 e Qs0 , che si determinano in corrispondenza
dell'unica soluzione (t0 , s0 ) del sistema (6.15), si dicono essere i punti a minima distanza delle
rette r ed r0 .
p
d(A, B) = kB − Ak = (b1 − a1 )2 + · · · + (bn − an )2 .
Se poi A1 e A2 sono due sottospazi ani di Rn si denisce distanza tra A1 e A2 il numero reale
positivo
d(A1 , A2 ) = inf{d(P, Q) : P ∈ A1 e Q ∈ A 2 };
in particolare, se A1 ∩ A1 6= ∅ allora d(A1 , A2 ) = 0.
|ax0 + by0 + c|
d(P0 , r) = √ .
a2 + b 2
120
0 0 0
Invece considerare due rette r ed r si ha che d(r, r ) = 0 se r ed r sono incidenti, altrimenti r ed
0 0 0
r sono parallele e si ottiene che d(r, r ) = d(P, r ) qualsiasi sia il punto P di r.
|2 · 1 − 1 · 3 + 1 · (−1) − 4| 6 √
d(P, π) = p = √ = 6.
22 + (−1)2 + 12 6
Se invece consideriamo un punto P0 ed una retta r, per calcolare la distanza d(P0 , r) si deter-
mina il piano π per P0 ortogonale ad r ed il punto di intersezione P tra r e π , e si ottiene come
sarebbe possibile provare che d(P0 , r) = d(P0 , P ).
x−y+3=0
Esempio 6.5.11. Considerati il punto P (1, 2, 0) e la retta r: , il piano per P
4x − z + 9 = 0
ortogonale ad r ha equazione π : x + y + 4z − 3 = 0 ed interseca r nel punto H(−2, 1, 1), così
√
d(P, r) = d(P, H) = 11.
Consideriamo ora il caso di due rette r ed r0 . Se r ed r0 sono parallele (e distinte) allora scelto
un quasiasi punto P di r si può provare che d(r, r0 ) = d(P, r0 ). Se le rette invece sono incidenti
allora la loro distanza è 0. Inne se le due rette sono sghembe, si può provare che la distanza tra
le due rette coincide con la distanza tra i punti a minima distanza che si determinano come nella
dimostrazione del teorema 6.5.8.
4 12 13
E' stato visto nell'esercizio 6.5.9 che i punti a minima distanza sono P , ,
5 5 5
e Q 52 , 11
5 5
, 13
.
√
5 0
La cui distanza tra P e Q è e rappresenta la distanza di r da r .
5
Inne se consideriamo due piani π e π 0 , si ha che d(π, π 0 ) = 0 se i due piani sono incidenti, se
invece sono paralleli risulta essere d(π, π 0 ) = d(P, π 0 ) qualsiasi sia il punto P ∈ π .
121
Capitolo 7
Le coniche
122
P∞ = [r]k , e supposto sia r : ax + by + c = 0, scegliamo di associare al punto improprio P∞ la
classe di equivalenza [(−b, a, 0)]∝ che prende il nome di coordinate omogenee di P∞ . Notiamo che
non possiamo associare a P∞ la terna (−b, a, 0) perchè rette parallele individuano lo stesso punto
improprio e la direzione di una retta è chiaramente denita a meno di un fattore di proporzionalità
(complesso) non nullo. Impropriamente però identicheremo la classe [(−b, a, 0)]∝ con la terna
(−b, a, 0), quindi diremo che le coordinate omogenee di P∞ sono (−b, a, 0) (intendendo che sono
(−b, a, 0) e da tutte le terne ad essa proporzionali mendiante un fattore
l'insieme fatto dalla terna
di proporzionalità complesso non nullo). Se invece consideriamo un punto proprio P = (x, y) di
C2 , ad esso associamo come coordinate omogenee la classe di equivalenza [(x, y, 1)]∝ . Anche in
questo caso identicheremo la classe [(x, y, 1)]∝ con la terna (x, y, 1), e diremo che le coordinate
omogenee di P sono (x, y, 1) (intendendo (x, y, 1) e tutte le terne ad essa proporzionali mendiante
un fattore di proporzionalità complesso non nullo). Osserviamo esplicitamente che nessun punto
di P può avere (0, 0, 0) come coordinate omogenee.
[(x1 , x2 , x3 )]∝ ∈ P2 (C) si può pensare come alle coordinate omogenee
Si noti che ogni elemento
di (un unico) punto di P. x3 6= 0, posto x = xx13 e y = xx23 , allora [(x1 , x2 , x3 )]∝ sono
Infatti se
le coordinate omogenee del punto proprio (x, y); mentre se x3 = 0 allora [(x1 , x2 , 0)]∝ sono le
coordinate del punto improprio della retta x2 x − x1 y = 0.
In denitiva, quindi, le coordinate omogenee deniscono una corrispondenza biunivoca tra i
punti (propri o impropri) dell'ampliamento proiettivo e complesso P e le terne di numeri complessi
(x1 , x2 , x3 ), esclula la terna (0, 0, 0), denite a meno di un fattore di proporzionalità complesso e
non nullo (quindi una corrispondenza biunivoca di P in P2 (C)
ay1 + by2 + cy3 = 0
(7.1)
az1 + bz2 + cz3 = 0
Poichè P e Q sono punti distinti, le loro coordinate omogenee sono non proporzionali e quindi il
sistema (7.1), visto come sistema nelle incognite a, b e c, ha soluzioni che dipendono da 1 parametro
e che sono i minori di ordine 2 presi a segni alterni della matrice
y1 y2 y3
z1 z2 z3
123
Ne consegue che un punto di coordinate omogenee (x1 , x2 , x3 ) appartiene alla retta per P e Q se
e solo se
x1 x2 x3
y1 y2 y3 = 0
z1 z2 z3
ovvero se e solo se (x1 , x2 , x3 ) è combinazione lineare di (y1 , y2 , y3 ) e (z1 , z2 , z3 ) (essendo questi
ultimi due vettori linearmente indipendenti). Pertanto al variare di (λ, µ) ∈ C \ {(0, 0)}, le
equazioni
x1 = λy1 + µz1
x2 = λy2 + µz2
x3 = λy3 + µz3
descrivono tutti i punti della retta per P e Q, e si dirà, brevemente, che tale retta si rappresenta
in forma parametrica come xi = λyi + µzi (con i = 1, 2, 3).
7.2 Le coniche
Consideriamo d'ora in avanti l'ampliamento proiettivo complesso P costruito come descritto in
2
precedenza a patire dal piano ane euclideo R e da un suo ssato riferimento ane ortogonale
e monometrico R = (O, R).
Si dice conica il luogo γ dei punti le cui coordinate omogenee vericano un'equazione omogenea
di secondo grado a coecienti complessi (non tutti nulli) del tipo:
a11 x21 + 2a12 x1 x2 + a22 x22 + 2a13 x1 x3 + 2a23 x2 x3 + a33 x23 = 0. (7.2)
La matrice simmetrica
a11 a12 a13
A = a12 a22 a23
a13 a23 a33
si dice associata alla conica γ. Se la matrice A è reale, o proporzionale ad una matrice reale, la
conica γ si dice reale. Si noti che l'equazione (7.2) si può scrivere anche come
3
X
aij xi xj = 0 (7.3)
i,j=1
x1
X t AX = 0 dove X = x2 .
(7.4)
x3
Se γ è una conica denita della (7.2) e P è un punto proprio di coordinate (xP , yP ) e coordinate
omogenee (xP , yP , 1), allora P ∈ γ se e solo se la coppia (xP , yP ) è soluzione della seguente
equazione (non omogenea) di secondo grado
124
che si dice equazione non omogenea associata a γ. In pratica, il luogo descritto dalla (7.5) coincide
con la parte propria del luogo descritto in coordinate omogenee dalla (7.2). Chiaramente però γ
possiede anche dei punti impropri che si possono studiare solo in coordinate omogenee mediante
la (7.2), tali punti hanno la terza coordinata omogenea nulla e cosituiscono l'intersezione tra γ e
la retta impropria.
Osserviamo che una conica reale può non possedere punti reali, oppure possedere un solo punto
reale, o anche inniti punti reali, però possiede sempre inniti punti immaginari. Ad esempio
γ : x21 + x22 + x23 = 0 è una conica reale ma non ha punti reali perchè l'unica soluzione reale
dell'equazione omogenea che la denisce è la terna (0, 0, 0) che non rappresenta nessun punto di
P.
rappresenta una conica chiamata ellisse la cui parte reale coincide con γ. Nel caso paricolare in
cuiF 0 = F 00 , la conica che si ottiene è detta circonferenza.
Esempio 7.2.3. Se F0 F 00
sono due punti reali e distinti del piano, e k è una costante reale
e
0 00 0
positiva minore della distanza tra F e F , il luogo geometrico dei punti P tali che d(P, F ) +
d(P, F 00 ) = k corrisponde, in un opportuno riferimento, alla parte reale di una conica che in
coordinate omogenee ha equazione del tipo
Esempio 7.2.4. Siano r una retta reale ed F un punto reale non appartenente a r. Il luogo
geometrico dei punti P tali che d(P, F ) = d(P, r) corrisponde, in un opportuno riferimento, alla
parte reale di una conica che in coordinate omogenee ha equazione del tipo
x22 − 2px1 x3 = 0
125
7.3 Classicazione delle coniche
Nello studio delle coniche, il primo passo consiste nello stabilire quanti punti possono essere comuni
ad una conica ed una retta. Dal prossimo risultato segue, in particolare, che se una retta ha in
comune con una conica (almeno) tre punti allora la retta è contenuta nella conica.
Teorema 7.3.1. Siano r una retta e γ una conica di P. Se r non è contenuta in γ, allora r∩γ
consiste in uno oppure due punti.
Dimostrazione. Supponiamo che la retta r sia descritta (nel riferimento ssato) in forma parame-
2
trica dalle equazioni xi = λyi + µzi , con i = 1, 2, 3, al variare di (λ, µ) in C \ {(0, 0)}. Se γ è la
conica di matrice associata A = (aij ) descritta dalla (7.2), l'intersezione tra r è γ è descritta da
3
X
ai,j (λyi + µzi )(λyj + µzj ) = 0,
i,j=1
3
X 3
X 3
X
aij yi yj λ2 + 2 aij yi zj λµ + aij zi zj µ2 = 0. (7.6)
i,j=1 i,j=1 i,j=1
le cui soluzioni non nulle forniscono le coordinate omogenee dei punti di intersezione tra r e γ. Ma
la (7.6) o è sempre vericata, e in tal caso r è contentuta in γ, oppure ha sempre due soluzioni
non nulle eventualmente coincidenti. Poichè in corrispondenza di queste soluzioni si individuano
i punti di r che appartengono anche a γ, il teorema è provato.
Dimostrazione. Se γ è una conica semplicemente degenere, allora il punto comune alle sue com-
ponenti è ovviamente doppio; mentre se è doppiamente degenere allora ogni suo punto è doppio.
Viceversa, supponiamo che la conica γ sia dotata di un punto doppio P . Sia Q un altro punto di
γ distinto da P e sia r la retta per P e Q, così r è contenuta in γ essendo P doppio e quindi la
conica γ, contenendo una retta, è necessariamente degenere.
126
Per i punti doppi sussite il seguente.
Se γ è una conica non degenere, allora γ non contiene rette e quindi il teorema 7.3.1 assicura
che l'intersezione di γ con la retta impropria r∞ (che è una retta reale) consiste in 1 punto reale
oppure in 2 punti che possono essere reali o immaginari. Si dice che γ è
Teorema 7.3.6. Sia γ una conica reale non degenere di matrice associata A. Allora
127
L'unione di due rette, ellisse, iperbole e parabola sono dunque gli unici tipi di coniche che
si possono avere. Si precisa inoltre che potrebbe provare che la caratterizzazione delle coniche
qui presentata e basata sulla matrice associata alla conica è indipendente dal riferimento ssato.
Sussiste inne il seguente risultato.
Teorema 7.3.7. E' sempre possibile individuare un riferimento ane ortogonale monometrico in
2
cui la parte propria di una conica reale è descritta da un'equazione che è del tipo y + 2α x = 0
2 2
(con α 6= 0) oppure del tipo λx + µy + δ = 0.
Quando l'equazione (non omogenea) della conica è scritta nella forma espressa nell'enunciato
del precedente teorema, si dice che l'equazione della conica è in forma canonica.
ω(P ) = {Q ∈ P | P ∼γ Q} ⊆ P.
128
ω(P ) = P. Se invece P non è un punto doppio per γ , allora le coordinate omogenee (y1 , y2 , y3 ) di
P non sono una soluzione del sistema AX = 0 e quindi l'equazione
rappresenta una retta. Ma la precendente equazione ha per soluzioni tutte e sole le coordinate
omogenee dei punti che sono in ω(P ), quindi se P non è doppio allora ω(P ) è una retta, detta
retta polare (o semplicemente polare) di P.
Evidentemente un punto appartiene alla propria polare se e solo se appartiene alla conica, si
ha inoltre la seguente.
Proposizione 7.4.3. Siano γ una conica non degenere e P un punto di γ. Allora la polare ω(P )
è la retta tangente γ in P.
Dimostrazione. Sia A = (aij ) la matrice associata a γ e siano (y1 , y2 , y3 ) le coordinate omogenee
del punto P. Poichè γ è non degenere, il punto P non è un punto doppio e quindi il luogo polare
2
ω(P ) è una retta. Sia r : xi = λyi + µzi (con i = 1, 2, 3 e (λ, µ) ∈ C \ {(0, 0)}) la retta tangente
γ in P . Posto
3
X 3
X 3
X
a= aij yi yj , b= aij yi zj , c= aij zi zj ,
i,j=1 i,j=1 i,j=1
2bλµ + cµ2 = 0.
3
X
(a1j y1 + a2j y2 + a3j y3 )xj = 0.
j=1
Supponiamo ora che γ sia non degenere, sicchè γ è priva di punti doppi per il teorema 7.3.2 e
quindi
ω : P ∈ P −→ ω(P ) ∈ L
è un'applicazione di P nell'insieme L delle sue rette; tale applicazione si chiama polarità associata
a γ.
Si potrebbe provare che la polarità associata ad una conica non degenere è un'applicazione
biettiva. Dunque se γ è una conica non degenere, comunque si ssa una retta r in L, esiste un
unico punto P tale che r = ω(P ), quest'unico punto P si dice polo di r.
Nel seguito, usando il concetto di polarità denita da una conica non degenere, si vogliono
ritrovare i concetti di asintoti, assi, centro e vertici di una conica. Supponiamo d'ora in poi che γ
sia una conica non degenere di matrice associata A = (aij ); sia poi P∞ (l, m, 0) un qualsiasi punto
improprio.
129
Poichè γ è non degenere, ω(P∞ ) è una retta e precisamente la retta, che indichiamo qui con d,
di equazione
3
X
d: (l a1j + m a2j )xj = 0
j=1
o anche
d : l(a11 x1 + a12 x2 + a13 x3 ) + m(a12 x1 + a22 x2 + a23 x3 ) = 0, (7.7)
Se d = ω(P∞ ) è una retta propria, si dice che essa è un diametro coniugato alla direzione
P∞ (l, m, 0). Se poi il punto improprio P∞ (l, m, 0) appartiene a γ, allora il diametro d ad esso
coniugato è detto asintoto.
Al variare del punto improprio P∞ (l, m, 0) si ottengono tutti i diametri che, evidentemente,
sono le rette del fascio di centro il punto C le cui coordinate sono le soluzioni del sistema
a11 x1 + a12 x2 + a13 x3 = 0
(7.8)
a12 x1 + a22 x2 + a23 x3 = 0
Il punto C è detto centro della conica γ. Si noti che il centro di γ è il polo della retta impropria.
Infatti, se si considerano i punti impropri X∞ (1, 0, 0) ed Y∞ (0, 1, 0), risulta
Se γ è un'ellisse o un'iperbole, allora per il teorema 7.3.6 è det(A33 ) 6= 0 e così il sistema (7.8)
è di Cramer se visto come sistema nelle incognite x1 e x2 ; pertanto γ ha per centro un punto
proprio. Nel caso in cui invece γ sia una parabola, allora risulta det(A33 ) = 0 ed il fascio dei
diametri è quindi un fascio improprio: tutti i diametri sono paralleli ed hanno direzione data
dal punto improprio della parabola. Per questo motivo, l'ellisse e l'iperbole sono dette coniche a
centro.
Si osservi che un'iperbole ha due punti impropri reali ognuno dei quali, congiunto col centro,
determina un asintoto della conica, pertanto un'iperbole ha due asintoti (che dunque sono le polari
dei suoi due punti impropri) e si dice iperbole equilatera un'iperbole che ha i due asintoti che sono
ortogonali tra loro.
Un diametro che risulta essere ortogonale alla direzione ad esso coniugata si dice asse; inoltre,
un punto proprio si dice vertice se appartiene all'intersezione di un asse con la conica. Consideriamo
il diametro d coniugato alla direzione P∞ (l, m, 0) che ha equazione (7.7), e osserviamo che esso ha
per direzione il punto improprio
130
Una soluzione non nulla dell'equazione (7.9) fornisce quindi la direzione di un asse della conica.
Un asse r della conica non degenere γ è sempre un asse di simmetria per γ , ovvero se P è un
0 0
punto di γ e P è il punto sulla retta per P ortogonale a r tale che d(P, r) = d(P , r), allora anche
0
P è un punto di γ .
Si potrebbe provare che se γ è una parabola, allora γ ha un unico asse. Se invece γ è una
conica a centro, invece, allora γ ha due assi ortogonali tra loro ed inoltre, se ω(P∞ ) è un asse e
Q∞ è la sua direzione, allora ω(Q∞ ) è l'asse di γ ortogonale a ω(P∞ ). Se si suppone poi che γ
sia reale, si ha che gli assi sono reali e si prova inoltre che una parabola reale ha un unico vertice
reale, un'ellisse reale (che non sia una circonferenza) ha quattro vertici reali mentre un'iperbole
invece ha due vertici reali e due immaginari coniugati. Si ha inoltre:
Proposizione 7.4.4. Sia γ una conica non degenere e sia V un suo vertice. Allora la polare
ω(V ) è la retta tangente γ in V ed è una retta ortogonale all'asse di γ che passa per V.
Dimostrazione. Per la proposizione 7.4.3, la polare ω(V ) è la retta tangente γ in V . Sia d l'asse
di γ a cui V appartiene e sia P∞ il punto improprio tale che d = ω(P∞ ). Il teorema di reciprocità
7.4.2 assicura che P∞ ∈ ω(V ), pertanto ω(V ) ha per direzione P∞ e quindi è ortogonale a d.
7.4.1 Esempi
Sia γ una conica reale non degenere. Se γ è una conica a centro (cioè ellisse o iperbole), allora γ
ha due assi ortogonali tra loro: essi permettono di individuare un riferimento ane, che ha per
origine il centro della conica, in cui l'equazione della conica è in forma canonica. Se invece γ è una
parabola, allora γ ha un solo asse d ed un solo vertice V . Se si considera la retta r per il vertice di
γ ortogonale all'asse d, che coincide con la polare ω(V ) per la proposizione 7.4.4, allora le rette d
ed r permettono di individuare un riferimento ane, che ha per origine il vertice della parabola,
in cui l'equazione di γ in forma canonica.
Consideriamo il piano ane euclide R2 nel quale si è ssato un riferimento ortogonale mono-
metrico R = (O, R) ed esplicitiamo con degli esempi quanto ora detto.
2x2 − y 2 − 4x + 2y − 3 = 0.
La matrice associata a γ è
2 0 −2
A = 0 −1 1
−2 1 −3
e così det(A) = 8 e det(A33 ) = −2 < 0. Pertanto γ è un'iperbole.
Andiamo a determinare gli assi. L'equazione (7.9) scritta per la conica che stiamo considerando
è −3lm = 0: le soluzioni di questa equazione determinano i punti impropri (0, 1, 0) e (1, 0, 0) e gli
assi saranno i diametri coniugati a queste direzioni ovvero le rette y =1 ex = 1; si noti che il
primo asse ha per direzione u1 = (1, 0) mentre il secondo asse ha per direzione u2 = (0, 1), e che
entrambi questi vettori sono normalizzati (cioè hanno modulo 1).
Il centro C della conica, essendo il punto di intersezione di due diametri, sarà il punto di
intersezione degli assi e quindi è il punto di coordinate (1, 1).
131
Consideriamo il riferimento ortonormale
R0 = (u1 , u2 ) di R2 e la matrice (ortogonale) P =
1 0
di passaggio da R0 a R. Le relazioni
0 1
x X 1
=P· + ,
y Y 1
ovvero le equazioni
x=X +1
,
y =y+1
permettono di passare dal riferimento R al riferimento ane monometrico ortogonale R0 = (C, R0 )
2 2
(la cui origine è il centro della conica), in cui l'equazione della conica diventa 2X − Y − 4 = 0.
Al ne di scrivere le equazioni degli asintoti, si devono determinare i punti impropri della conica,
2 2 2
si deve quindi scrive l'equazione di γ in coordinate omogenee 2x1 − x2 − 4x3 = 0 e poi si deve
intersecare con la retta impropria che ha equazione x3 = 0. Si determinano così i punti impropri
√ √
(1, 2, 0) e (1, − 2, 0) e i diametri loro coniugati
√ saranno gli asintoti.
√ Pertanto le equazioni degli
0
asintoti dell'iperbole (in R ) sono 2X − 2Y = 0 e 2X + 2Y = 0.
2x2 − 2xy + 2y 2 + 2x − 1 = 0.
La matrice associata a γ è
2 −1 1
A = −1 2 0
1 0 −1
e così det(A) = −5 e det(A33 ) = 3 > 0. Pertanto γ è un'ellisse. Per determinare gli assi risolviamo
l'equazione (7.9) che nel nostro caso è
m2 − l2 = 0.
x2 − 2xy + y 2 − 2x − 2y = 0.
132
La matrice associata a γ è
1 −1 −1
A = −1 1 −1
−1 −1 0
e così det(A) = −4 e det(A33 ) = 0. Pertanto γ è una parabola. Per determinare l'asse risolviamo
l'equazione (7.9) che nel nostro caso è
m2 − l2 = 0.
Essa determina le direzioni (1, 1, 0) e (−1, 1, 0) la prima delle quali è coniugata alla retta impropria
(che non è diametro) mentre la seconda individua l'unico asse della parabola che ha equazione
x = y. L'intersezione tra l'asse e la parabola determina il vertice: dunque, in coordinate omogenee,
il punto V (0, 0, 1) è il verice della parabola. Per la proposizione 7.4.4, la retta per V ortogonale
all'asse è la retta ω(V ) : y = −x. Normalizzando le direzioni (1, 1, 0) dell'asse e (−1, 1, 0) di
ω(V ), otteniamo i vettori ( √12 , √12 , 0) e(− √12 , √12 , 0) e considerando il cambiamento di riferimento
determinato dalle relazioni
!
√1 − √12
x 2 X 0
= √1 √1
· + ,
y 2 2
Y 0
133