1. Relazioni 4
2. Funzioni 6
3. Relazioni di equivalenza e partizioni 9
4. Operazioni, gruppi e campi 11
5. Spazi vettoriali reali 13
6. Quattro esempi di spazi vettoriali reali 14
7. Dipendenza ed indipendenza lineare 34
8. Dipendenza ed indipendenza lineare: il caso dei vettori liberi 38
9. Sottospazi 42
10. Basi e dimensione di uno spazio vettoriale 49
11. Rango di una matrice 58
12. Rango di una matrice: il caso delle matrici quadrate 87
13. Determinante di una matrice quadrata 93
14. Matrici invertibili 107
15. Cambiamenti di base in uno spazio vettoriale 111
16. Teorema degli orati e sue applicazioni 125
17. Sistemi lineari 131
18. Sistemi lineari omogenei 141
19. Autovalori e autovettori di una matrice quadrata 151
20. Diagonalizzazione di una matrice quadrata 163
21. Geometria affine del piano 173
22. Geometria affine dello spazio 179
Esercizi 191
23. Geometria euclidea del piano 193
24. Geometria euclidea dello spazio 197
Esercizi 206
25. Classificazione delle coniche del piano euclideo 208
26. La sfera e la circonferenza nello spazio 234
1. Relazioni.
Dati due insiemi possiamo stabilire in modo del tutto arbitrario una “legge” che associ elementi di
un insieme ad elementi dell’altro insieme. Ovviamente, data la totale arbitrarietà di tale legge ad un
elemento di un insieme è possibile associare nessun elemento dell’altro insieme o un solo elemento
dell’altro insieme o più di un elemento dell’altro insieme (anche tutti).
Legge n.1
- agli elementi 11 e f di A non associo alcun elemento di B
- all’elemento β di A associo l’elemento x
- all’elemento ♦ associo gli elementi ∇, α, e γ
- all’elemento ♥ associo l’elemento x
- all’elemento ♠ associo tutti gli elementi di B
Legge n.2
- a ciascuno degli elementi x, ♣ e α di B non associo alcun elemento di A
- all’elemento 11 di B associo gli elementi 11 e ♠ di A
- all’elemento ♠ di B associo solo l’elemento 11 di A
- all’elemento ∇ di B associo gli elementi 11 e ♦ di A
- all’elemento γ di B associo gli elementi 11, f e β di A
Il problema che sorge spontaneo è come rappresentare in un modo più comodo tali leggi tra gli
elementi degli insiemi A e B.
Osserviamo che per ricordare una legge è importante ricordare “chi è associato a chi” mentre si può
dimenticare gli elementi che non sono associati tra loro. Per far ciò possiamo iniziare a scrivere solo
degli insiemi che contengono gli elementi tra loro associati.
4
Questo risolve completamente il problema? Per poter rispondere affermativamente dobbiamo esser
certi che non possano sorgere degli equivoci. Osserviamo che gli insiemi scritti sopra ci ricordano
solamente “chi è associato a chi” ma non ci ricordano a quale insieme appartengono gli elementi.
Per esempio, gli insiemi {11, ♠} e {♠, 11} della Legge n.2 sono UGUALI e, quindi, non ci sarebbe
bisogno di scriverli due volte. Ma attenzione: come insiemi sono uguali invece per quanto riguarda
la Legge n.2 ricordano due cosa diverse: l’insieme {11, ♠}, scritto proprio così, ci ricorda che
l’elemento 11 di B è associato all’elemento ♠ di A, mentre lo STESSO insieme ma scritto così
{♠, 11} ci ricorda che l’elemento ♠ di B è associato all’elemento 11 di A. E, comunque, in questo
caso, ciò non sarebbe ancora un problema perché nella Legge n.2 si è scelto che accadano entrambe
le cose. Ma ciò costituisce un problema nel caso della Legge n.1. Infatti, nella Legge n.1 abbiamo
solamente che l’elemento ♠ di A è associato all’elemento 11 di B mentre NON è vero il viceversa.
Quindi, per la Legge n.1 non è indifferente come viene scritto l’insieme che ci ricorda questo fatto:
la scrittura {♠, 11} va bene mentre la scrittura {11, ♠} non va bene pur rappresentando entrambe lo
STESSO insieme. Inoltre, si osservi che lo stesso insieme {11, ♠} scritto nello STESSO MODO ha
un significato diverso per le due leggi: infatti {11, ♠} per la Legge n.1 ricorda che 11 di A è
associato a ♠ di B mentre per la Legge n.2 ricorda che 11 di B è associato a ♠ di A.
Si vede che gli inconvenienti appena riscontrati sono dei problemi di “ordine”. Infatti, il primo
problema, quello della scrittura, è in realtà un problema di ordine in cui si susseguono gli elementi
nell’insieme che ricorda i due elementi associati tra loro. Mentre il secondo problema è un problema
legato all’ordine con cui consideriamo i due insiemi. Per ovviare ad entrambe questi inconvenienti è
sufficiente stabilire un ordine tra i due insiemi e, quindi, parlare di una legge tra A e B in
quest’ordine e distinguerla da una legge tra B e A ed utilizzare le coppie ordinate invece che gli
insiemi per ricordare “chi è associato a chi”. Per una legge tra A (primo insieme) e B (secondo
insieme) scriveremo (a, b) per ricordare che l’elemento a di A è associato con l’elemento b di B.
Per cui per la Legge n.1 tra A e B scriviamo le seguenti coppie ordinate
(β, x), (♦, ∇), (♦, α), (♦, γ), (♥, x), (♠, x,), (♠, 11), (♠, ♠), (♠, ♣), (♠, γ), (♠, ∇), (♠, α)
5
Tenendo conto dell’operazione di prodotto cartesiano tra due insiemi possiamo ora dare la seguente
1.2 Definizione. Una relazione tra un insieme A e un insieme B è un sottoinsieme R del prodotto
cartesiano A×B, cioè R ⊆ A×B. Per ogni coppia ordinata (a, b)∈A×B diremo che:
- l’elemento a∈A è in relazione con l’elemento b∈B (e scriveremo aRb ) se (a, b)∈R;
- l’elemento a∈A non è in relazione con l’elemento b∈B (e scriveremo aRb) se (a, b)∉R.
1.3 Osservazione. Data una relazione R tra un insieme A e un insieme B, un elemento a∈A può
essere in quella relazione con nessuno, esattamente uno o più elementi di B (anche tutti).
1.4 Esempio. A={1, 7, -3}, B={q, s, t}, R={(7, s), (-3, q), (-3, s), (-3, t)}
R è una relazione tra A e B in quanto R è un sottoinsieme di A×B.
L’elemento 1∈A non è in relazione R con alcun elemento b∈B. L’elemento 7∈A è in relazione R
solo con l’elemento s∈B. L’elemento (-3)∈A è in relazione con tutti gli elementi di B.
2. Funzioni.
2.1 Definizione. Diremo che una relazione f tra A e B è una funzione se ogni elemento di A è in
relazione f con esattamente un elemento di B. Una funzione f tra A e B verrà indicata nel modo
seguente f : A → B. Inoltre, per ogni elemento a∈A, se b∈B è l’unico elemento in relazione con a
allora invece che afb scriveremo f(a) = b e diremo che b è l’immagine di a tramite la funzione R.
2.2 Osservazione. Data una funzione f : A → B, la definizione precedente non esclude che
(1) elementi distinti di A possano avere come immagine uno stesso elemento di B;
(ATTENZIONE: il fatto che ogni elemento di A abbia una ed una sola immagine NON
è in contraddizione col fatto che elementi distinti di A abbiano la stessa immagine)
(2) possano esistere in B elementi che non siano immagine di alcun elemento di A.
2.3 Esempio. A={1, 7, -3}, B={q, s, t}, f={(1, q), (7, s), (-3, s)}
La relazione f tra A e B è una funzione in quanto ogni elemento di A è in relazione con esattamente
un elemento di B: 1fq, 7fs, (-3)fs. Quindi, scriveremo f(1) = q, f(7) = s e f(-3) = s. Si osservi che:
- gli elementi distinti 7 e (-3) di A hanno la stessa immagine s in B;
- l’elemento t di B non è immagine di alcun elemento di A.
6
Col simbolo f(A) indicheremo il sottoinsieme di B costituito dagli elementi di B che sono immagine
di qualche elemento di A. Cioè, f(A) := {b∈B | ∃a∈A : f(a) = b}.
Funzioni che escludano quanto osservato in (1) e/o in (2) saranno funzioni più “ricche” e ad esse
daremo dei nomi come segue.
2.5 Osservazione. Si noti che le condizioni (1) e (2) sono “indipendenti”, cioè esistono funzioni che
sono iniettive ma non suriettive e funzioni che sono suriettive ma non iniettive.
2.6 Esempio. A={1, 7}, B={q, s, t}, f={(1, q), (7, s)}. Gli elementi distinti 1 e 7 di A hanno in B
immagini rispettivamente q e s distinte. L’elemento t di B non è immagine di alcun elemento di A.
2.7 Esempio. A={1, 7, -3}, B={q, s}, f={(1, q), (7, q), (-3, s)}. Gli elementi distinti 1 e 7 di A
hanno la stessa immagine q in B. Ogni elemento di B è immagine di qualche elemento di A.
2.8 Definizione. Diremo che una funzione f : A → B è biettiva se essa è sia iniettiva che suriettiva.
2.9 Esempio. A={1, 7, -3}, B={q, s, t}, f={(1, q), (7, s), (-3, t)}. f è una funzione biettiva tra A e B.
7
2.10 Osservazione. Data una legge che ad elementi di un insieme A ne associa altri di un insieme
B, il fatto che questa relazione sia una funzione, una funzione iniettiva, una funzione suriettiva, una
funzione biettiva dipende anche dagli insiemi A e B.
Esempio. Siano A e B due sottoinsiemi dell’insieme R dei numeri reali. Sia f la legge seguente:
“all’elemento x di A associo l’elemento y di B se e solo se y = x2 ”
La relazione f = {(x, y)∈A×B | y = x2} è una funzione tra A e B?
In caso affermativo, la funzione f è iniettiva e/o suriettiva?
Pur avendo sempre la stessa legge f, le risposte a tali domande dipenderanno dalla scelta dagli
insiemi A e B come vediamo negli esempi seguenti:
1) A = R e B = R+ = {y∈R | y > 0}
- f non è una funzione in quanto per l’elemento 0∈A non esiste alcun elemento y∈B tale che y = x2.
2) A = R e B = R
- f è una funzione in quanto per ogni x∈A esiste y∈B tale che y = x2 cioè y=f(x);
- f non è iniettiva in quanto sia 2∈A che (-2)∈A hanno la stessa immagine 4∈B;
- f non è suriettiva in quanto l’elemento y=(-4)∈B non è immagine f(x)=x2 di alcun elemento x∈A.
3) A = R0+ = {x∈R | x ≥ 0} e B = R
- f è una funzione in quanto per ogni x∈A esiste y∈B tale che y = x2 cioè y=f(x);
- f è iniettiva in quanto elementi distinti x∈A e x’∈A hanno immagini distinte x2 e (x’)2 in B;
- f non è suriettiva in quanto l’elemento y=(-4)∈B non è immagine f(x)=x2 di alcun elemento x∈A.
4) A = R e B = R0+ = {y∈R | y ≥ 0}
- f è una funzione in quanto per ogni x∈A esiste y∈B tale che y = x2 cioè y=f(x);
- f non è iniettiva in quanto sia 2∈A che (-2)∈A hanno la stessa immagine 4∈B;
- f è suriettiva in quanto ogni elemento y∈B è immagine di x=√y∈A.
8
3. Relazioni di equivalenza e partizioni.
3.1 Definizione. Una relazione R ⊆ A×A, tra un insieme A e se stesso, viene detta relazione in A.
3.3 Osservazione. Negli esempi che seguono vedremo che le condizioni (RIFL), (SIMM) e
(TRAN) sono “indipendenti”, cioè esistono relazioni che ne soddisfano alcune e non altre.
3.4 Esempi. A={2, b, ♥} A×A={(2,2), (2,b), (2,♥), (b,2), (b,b), (b,♥), (♥,2),(♥,b), (♥,♥)}
1) R={(b,b), (♥,♥), (2,b), (b,♥)} è una relazione in A non riflessiva (poiché 2R2), non simmetrica
(poiché 2Rb ma bR2) e non transitiva (poiché 2Rb e bR♥ ma 2R♥).
2) R={(b,b), (♥,♥), (2,b), (b,2), (b,♥), (♥,b)} è una relazione in A simmetrica, non riflessiva
(poiché 2R2), simmetrica e non transitiva (poiché 2Rb e bR♥ ma 2R♥).
3) R={(b,b), (♥,♥), (2,b), (b,♥), (2,♥)} è una relazione in A transitiva, non riflessiva (2R2) e non
simmetrica (poiché 2Rb ma bR2).
4) R={(2,2), (b,b), (2,b), (b,2)} è una relazione in A simmetrica, transitiva e non riflessiva (♥R♥).
5) R={(2,2), (b,b), (♥,♥), (2,b), (b,♥)} è una relazione in A riflessiva, non simmetrica (poiché 2Rb
ma bR2) e non transitiva (poiché 2Rb e bR♥ ma 2R♥).
6) R={(2,2), (b,b), (♥,♥), (2,b), (b,2), (b,♥), (♥,b)} è una relazione in A riflessiva, simmetrica ma
non transitiva (poiché 2Rb e bR♥ ma 2R♥).
7) R={(2,2), (b,b), (♥,♥), (2,b), (b,♥), (2,♥)} è una relazione in A riflessiva, transitiva ma non
simmetrica (poiché 2Rb ma bR2).
8) R={(2,2), (b,b), (♥,♥), (2,b), (b,2)} è una relazione riflessiva, simmetrica e transitiva.
9
3.6 Definizione. Sia R una relazione di equivalenza in un insieme A. Per ogni elemento a∈A
definiamo classe di equivalenza di a rispetto a R, e la indichiamo con [a]R, il sottoinsieme
{b∈A | bRa} di A contenente tutti e soli gli elementi di A che sono in relazione R con a.
(CE3) [a]R∩[b]R ≠ ∅ ⇒ ∃x∈A : x∈[a]R et x∈[b]R ⇒ [x]R = [a]R et [x]R = [b]R ⇒ [a]R = [b]R
3.8 Definizione. Sia R una relazione di equivalenza in un insieme A. Definiamo insieme quoziente
dell’insieme A rispetto alla relazione di equivalenza R, e lo indichiamo col simbolo A/R , l’insieme
delle classi di equivalenza degli elementi di A rispetto a R.
3.10 Teorema. Dare una relazione di equivalenza in un insieme equivale a darne una partizione.
Dimostrazione. Se R è una relazione di equivalenza in A, allora l’insieme quoziente A/R (visto
come famiglia di sottoinsiemi di A) è una partizione dell’insieme A. Infatti, (CE1) implica (P1) e
(P3) mentre (CE3) implica (P2). Viceversa, se ℑ è una partizione di A, allora è facile provare che la
relazione R:= {(a, b)∈A×A | ∃X∈ℑ : a,b∈X} è una relazione di equivalenza in A.
10
4. Operazioni binarie, gruppi e campi.
4.2 Definizione. Sia ⊥ un’operazione binaria ovunque definita in A×B a valori in C. Dalla
definizione, si ha che ogni coppia ordinata (x, y) di A×B ha un’unica immagine z in C. Invece di
⊥(x, y) = z scriveremo x ⊥ y = z e diremo che z è il risultato dell’operazione ⊥ tra x e y (in
quest’ordine).
4.3 Definizione. Diremo gruppo una coppia (G, ⊥) dove G è un insieme non vuoto e ⊥ è
un’operazione binaria ovunque definita ed interna ad G tale che valgano le proprietà seguenti:
(G1) ∀a,b,c∈G (a ⊥ b) ⊥ c = a ⊥ (b ⊥ c) (si dice che ⊥ è associativa)
(G2) ∃h∈G : ∀a∈G a ⊥ h = a = h ⊥ a (si dice che h è l’elemento neutro rispetto a ⊥)
(G3) ∀a∈G ∃a∈G : a ⊥ a = h = a ⊥ a (a si dice simmetrico di a rispetto a ⊥)
4.4 Definizione. Un gruppo (G, ⊥) si dice abeliano o commutativo se vale la proprietà seguente:
(G4) ∀a,b∈G a⊥b=b⊥a (si dice che ⊥ è commutativa)
11
4.6 Teorema. Se (G, ⊥) è un gruppo allora valgono anche le proprietà seguenti:
(G5) l’elemento neutro h è unico
(G6) ∀a∈G il simmetrico a di a è unico
(G7) Se a è il simmetrico di a allora il simmetrico di a è a, cioè, a = a
(G8) a⊥b = c ⇒(G3 e U2) a⊥(a⊥b) = a⊥c ⇒(G1) (a⊥a)⊥b = a⊥c ⇒(G3) h⊥b = a⊥c ⇒(G2) b = a⊥c
(G9) a⊥b = c ⇒(G3 e U1) (a⊥b)⊥b = c⊥b ⇒(G1) a⊥(b⊥b) = c⊥b ⇒(G3) a⊥h = c⊥b ⇒(G2) a = c⊥b
(G10) c⊥a = c⊥b ⇒(G8) a = c⊥(c⊥b) ⇒(G1) a = (c⊥c)⊥b ⇒(G3) ⇒ a = h⊥b ⇒(G2) a=b
(G11) a⊥c = b⊥c ⇒(G9) a = (b⊥c)⊥c ⇒(G1) a = b⊥(c⊥c) ⇒(G3) ⇒ a = b⊥h ⇒(G2) a=b
(G12) ovviamente h ⊥ h = h; a⊥a = a ⇒(G2) a⊥a = a⊥h ⇒(G10) a = h
4.7 Definizione. Diremo che una terna (K, ⊥, ∇) è un campo se valgono le seguenti proprietà:
(C1) ⊥ e ∇ sono due operazioni binarie ovunque definite ed interne a K;
(C2) (K, ⊥) è un gruppo abeliano
(C3) (K-{h}, ∇) è un gruppo abeliano (dove h l’elemento neutro rispetto a ⊥)
(C4) ∀a,b,c∈K a ∇ (b ⊥ c) = (a ∇ b) ⊥ (a ∇ c) (si dice che ∇ è distributiva rispetto a ⊥)
4.8 Esempio. La terna (R, +, •) è un campo. Infatti, abbiamo già visto che sono soddisfatte le
proprietà (C1), (C2) e (C3). Inoltre, per i numeri reali vale la proprietà distributiva del prodotto
rispetto alla somma, cioè: ∀a,b,c∈R a(b + c) = (ab) + (ac).
Nel seguito indicheremo brevemente con R il campo dei numeri reali (R, +, •).
12
5. Spazi vettoriali reali.
5.1 Definizione. Indicato con R il campo dei numeri reali, diremo spazio vettoriale reale una terna
(V, ⊥, *) dove (V, ⊥) è un gruppo abeliano e ∗ : R×V →V è un’operazione tale che:
(PS1) ∀α∈R , ∀u, v∈V α∗(u⊥v) = (α∗u) ⊥ (α∗v) (distributività di * rispetto a ⊥)
(PS2) ∀α, β∈R , ∀u∈V (α+β)∗u = (α∗u) ⊥ (β∗u) (distributività di * rispetto a +)
(PS3) ∀α, β∈R , ∀u∈V (αβ)∗u = α∗(β∗u) (associatività “mista”)
(PS4) ∀u∈V 1∗u = u (1 è elemento neutro rispetto a *)
Gli elementi di V si diranno vettori, mentre quelli di R scalari. Quindi, l’operazione ∗ : R×V →V è
un’operazione tra uno scalare e un vettore il cui (unico) risultato è un vettore.
5.2 Teorema. Se (V, ⊥, ∗) è uno spazio vettoriale reale, allora valgono anche le proprietà seguenti:
(PS5) ∀u∈V 0∗u = h (dove h indica l’elemento neutro rispetto a ⊥)
(PS6) ∀α∈R α∗h = h
(PS7) ∀α∈R , ∀u∈V α∗u = h et α ≠ 0 ⇒ u = h
(PS8) ∀α∈R , ∀u∈V α∗u = h ⇔ α = 0 vel u = h
(PS9) ∀u∈V (-1)∗u = u (dove u è il simmetrico dell’elemento u)
(PS10) ∀u∈V (-α)∗u = α∗u (dove α∗u è il simmetrico dell’elemento α∗u)
(PS11) ∀α∈R , ∀u, v∈V α∗u = α∗v et α ≠ 0 ⇒ u = v (cancellabilità di α ≠ 0)
(PS12) ∀α, β∈R , ∀u∈V α∗u = β∗u et u ≠ h ⇒ α = β (cancellabilità di u ≠ h)
Dimostrazione.
(PS5) (0+0) = 0 ⇒(U1) (0+0)∗u = 0∗u ⇒(PS2) (0∗u)⊥(0∗u) = 0∗u ⇒(G12) ⇒ 0∗u = h
(PS6) (G12) ⇒ (h⊥h) = h ⇒(U2) α∗(h⊥h) = α∗h ⇒(PS1) (α∗h)⊥(α∗h) = α∗h ⇒(G12) α∗h = h
(PS7) α∗u = h et α ≠ 0 ⇒(U2) α-1∗(α∗u) = α-1∗h ⇒(PS3 e PS6) (α-1α)∗u = h ⇒ 1∗u = h ⇒(PS4) u = h
(PS8) immediata conseguenza di (PS5), (PS6) e (PS7)
(PS9) [1+(-1)] = 0 ⇒(U1) [1+(-1)]∗u = 0∗u ⇒(PS2 e PS5) (1∗u)⊥[(-1)∗u] = h ⇒(PS4)
⇒ u ⊥[(-1)∗u] = h ⇒ [(-1)∗u] è simmetrico di u ⇒(G6) (-1)∗u = u
(PS10) (-α)∗u = [(-1)α]∗u =(PS3)= (-1)∗(α∗u) =(PS9)= α∗u
(PS11) α∗u = α∗v et α≠0 ⇒(U2) α-1∗(α∗u) = α-1∗(α∗v) ⇒(PS3) (α-1α)∗u = (α-1α)∗v ⇒
⇒ 1∗u = 1∗v ⇒(PS4) u = v
(PS12) α∗u = β∗u ⇒(G3) (α∗u)⊥(β∗u) = h ⇒(PS10) (α∗u)⊥[(-β)∗u] = h ⇒(PS2) [α+(-β)]∗u = h
[α+(-β)]∗u = h et u ≠ h ⇒(PS8) [α+(-β)] = 0 ⇒ α = β
13
6. Quattro esempi di spazi vettoriali reali.
6.1.1. Osservazione. Siano R ⊆A×B e S ⊆A×B due relazioni tra gli (stessi) insiemi A e B.
Ovviamente, le due relazioni R e S (in quanto sottoinsiemi di A×B) sono uguali (R = S) se e solo se
contengono le stesse coppie di A×B, ovvero per ogni (a, b)∈ A×B si ha che
(a, b)∈R ⇔ (a, b)∈S
che è la stessa cosa che
aRb ⇔ aSb
Col simbolo ℑI(R) indicheremo l’insieme delle funzioni reali di variabile reale definite in I.
6.1.6 Definizione. Per ogni f∈ℑI(R) col simbolo (-f) indicheremo la funzione di ℑI(R) così definita:
∀x∈I (-f)(x) := -f(x)∈R
14
6.1.7. Osservazione. Siano f,g∈ℑI(R). Per ogni x∈I è univocamente (poiché la somma di due
numeri reali è un’operazione binaria ovunque definita ed interna a R) determinato il numero reale
f(x) + g(x). Quindi, possiamo definire univocamente una funzione h∈ℑI(R) nel modo seguente:
6.1.8. Definizione. Sia : ℑI(R)×ℑI(R) → ℑI(R) l’operazione binaria ovunque definita ed interna a
ℑI(R) definita nel modo seguente:
∀f, g∈ℑI(R) f g := h
dove per ogni x∈I si ha che h(x) := f(x) + g(x). Quindi, (f g)(x) = f(x) + g(x).
Dimostrazione. Tenendo conto delle proprietà del campo R si prova facilmente che:
(G1) ∀f, g, h∈ℑI(R) (f g) h = f (g h)
Infatti, per ogni x∈I si ha che
((f g) h)(x) = (f g)(x) + h(x) = (f(x) + g(x)) + h(x) =
= f(x) + (g(x) + h(x)) = (f(x) + (g h)(x)) = (f (g h))(x)
(G2) ∃e∈ℑI(R) ∀f∈ℑI(R) fe=f=ef
Infatti, per ogni x∈I si ha che
(f e)(x) = f(x) + e(x) = f(x) + 0 = f(x) = 0 + f(x) = e(x) + f(x) = (e f)(x)
(G3) ∀f∈ℑI(R) ∃(-f)∈ℑI(R) f (-f) = e = (-f) f
Infatti, per ogni x∈I si ha che
(f (-f))(x) = f(x) + (-f)(x) = f(x) + (-f(x)) = 0 = e(x)
((-f) f)(x) = (-f)(x) + f(x) = -f(x) + f(x) = 0 = e(x)
(G4) ∀f, g∈ℑI(R) fg=gf
Infatti, per ogni x∈I si ha che
(f g)(x) = f(x) + g(x) = g(x) + f(x) = (g f)(x)
15
6.1.10. Osservazione. Siano α∈R e f∈ℑI(R). Per ogni x∈I è univocamente (poiché il prodotto di
due numeri reali è un’operazione binaria ovunque definita ed interna a R) determinato il numero
reale αf(x). Quindi, possiamo definire una univocamente una funzione h∈ℑI(R) nel modo seguente:
6.1.11. Definizione. Sia : R×ℑI(R) → ℑI(R) l’operazione l’operazione binaria ovunque definita
tra uno scalare e una funzione reale di variabile reale definita in I a valori in ℑI(R) così definita:
∀α∈R , ∀f∈ℑI(R) αf := g
dove per ogni x∈I si ha che g(x) := αf(x). Quindi, (αf)(x) = αf(x)
16
6. Quattro esempi di spazi vettoriali reali.
Siano ℘ ed ℜ rispettivamente l’insieme dei punti e quello delle rette dello spazio euclideo.
6.2.1. Definizione. Siano r, s∈ℜ due rette complanari. Diremo che r è parallela ad s, e scriveremo
r // s, se r ed s coincidono (r ≡ s) o non hanno alcun punto in comune (r∩s=∅), in quest’ultimo caso
diremo anche che le rette r ed s sono parallele in senso stretto.
6.2.2. Osservazione. E’ facile verificare che quella di parallelismo è una relazione di equivalenza.
6.2.3. Definizione. Chiamiamo direzione di una retta r la classe di equivalenza [r]// = {s∈ℜ | s // r}.
6.2.4. Osservazione. Tenendo conto della proprietà (CE2) (vedere Lemma 3.7) delle relazioni di
equivalenza si ha che due rette hanno la stessa direzione se e solo se sono parallele.
6.2.5. Definizione. Dati due punti distinti A e B diremo direzione del segmento AB la direzione
della (unica) retta r passante per A e B. Inoltre, stabiliamo che il segmento nullo AA abbia la stessa
direzione di ogni altro segmento (cioè sia parallelo ad ogni altro segmento).
6.2.6. Osservazione. Due segmenti non nulli hanno la stessa direzione se e solo se si trovano su due
rette parallele.
17
6.2.7. Definizione. Dato un segmento AB di estremi A e B distinti (A ≠ B), esistono due e solo due
coppie ordinate distinte (A, B) e (B, A), che chiameremo versi del segmento. Indicheremo con (AB)
il segmento di verso (A, B) e con (BA) il segmento di verso (B, A).
segmento AB
r
A B
6.2.8. Definizione. Siano r ed s due rette parallele in senso stretto. Siano A e B due punti distinti di
r e C e D due punti distinti di s. Sia π il piano individuato da r ed s e sia t la retta di π passante per A
e C. La retta t divide il piano π in due semipiani. Se i punti B e D appartengono allo stesso
semipiano, allora diremo che (AB) e (CD) hanno lo stesso verso. Altrimenti, diremo che hanno
verso opposto.
A B B A
r r
t
t
s
s
C D C D
(A,B) e (C,D) hanno lo stesso verso (A,B) e (C,D) hanno verso opposto
6.2.9. Definizione. Sulla stessa retta r siano A, B, C e D quattro punti tali che A ≠ B e C≠ D. Sia s
una retta parallela in senso stretto a r e siano E ed F due punti distinti di s tali che (AB) ed (EF)
abbiano lo stesso verso. Se (CD) e (EF) hanno lo stesso verso, allora diremo che anche (AB) e (CD)
hanno lo stesso verso. Altrimenti, diremo che hanno verso opposto.
A B B
A C D
r r
C D
s
s
F E
E F
(A,B) e (C,D) hanno lo stesso verso (A,B) e (C,D) hanno verso opposto
Se (AB) e (CD) hanno la stessa direzione (cioè sono paralleli), allora scriveremo:
• vers(AB) = vers(CD) se hanno lo stesso verso
• vers(AB) = - vers(CD) se hanno verso opposto
18
6.2.10 Definizione. Stabiliamo che il segmento nullo abbia lo stesso verso di ogni altro segmento.
Indichiamo con Σ l’insieme {(AB) A,B∈℘} e lo chiamiamo insieme dei segmenti orientati.
6.2.11. Definizione. Comunque presi due segmenti orientati (AB) e (CD) di Σ, diremo che (AB) è
equipollente a (CD), e scriveremo (AB) ≈ (CD), se (AB) e (CD) hanno la stessa lunghezza, la stessa
direzione e lo stesso verso. Il sottoinsieme {((AB), (CD))∈Σ×Σ | (AB) è equipollente a (CD)} è una
relazione in Σ che chiamiamo relazione di equipollenza e indichiamo col simbolo ≈.
6.2.12. Osservazione. E’ facile verificare che quella di equipollenza è una relazione di equivalenza.
6.2.13. Definizione. Chiamiamo insieme dei vettori liberi , e lo indichiamo con V, l’insieme
quoziente Σ/≈. Quindi, un vettore libero è una classe di equivalenza rispetto alla relazione di
equipollenza (talvolta anche detta classe di equipollenza).
6.2.14 Osservazione. Due segmenti orientati (AA) e (BC) sono equipollenti se e solo se B = C.
→
6.2.15. Definizione. Chiameremo vettore libero nullo, e lo indicheremo col simbolo 0 , la classe di
→
equivalenza individuata da un qualsiasi segmento nullo. Quindi, 0 = {(AA) A∈℘}.
→
6.2.16. Definizione. Se u = [(OA)]≈, allora il segmento orientato (OA) viene detto rappresentante
→
di u applicato in O.
O A
→ → → → →
Indicheremo con || u || la lunghezza del vettore libero u . Ovviamente, || u || = 0 ⇔ u = 0 .
19
6.2.18. Teorema. (esistenza ed unicità del rappresentante applicato in un fissato punto)
→
Per ogni punto O∈℘ e per ogni vettore libero u ∈V esiste, ed è unico, un punto A∈℘ tale che
→ →
(OA)∈ u , ovvero [(OA)]≈= u . In altre parole, per ogni punto O dello spazio e per ogni vettore
→ →
libero u esiste un unico rappresentante di u applicato in O.
→ → → →
Dimostrazione. Se u = 0 allora A coincide con O. Se u ≠ 0 allora sia r l’unica retta passante per
→
O e avente la stessa direzione di u (cioè la stessa direzione di un suo rappresentante). Sia X un
→
punto di r distinto da O tale che il segmento orientato non nullo (OX) abbia lo stesso verso di u
(cioè lo stesso verso di un suo rappresentante). Sull’unica semiretta per O e X chiamiamo A l’unico
→
punto tale che la lunghezza del segmento OA è uguale alla proprio alla lunghezza del vettore u
(cioè alla lunghezza di un suo rappresentante).
r
A X
O
→ →
Il segmento orientato (OA) ha la stessa lunghezza, direzione e verso di u . Quindi, (OA)∈ u .
→
Il segmento orientato (OA) è l’unico rappresentante del vettore libero u applicato nel punto O.
20
→ →
6.2.20. Algoritmo “S”. Comunque presi due vettori liberi u e v si effettuino i seguenti passi:
→
(2) sia A∈℘ l’unico (per il teorema 6.2.18) punto dello spazio tale che [(OA)]≈ = u ;
→
(3) sia B∈℘ l’unico (per il teorema 6.2.18) punto dello spazio tale che [(AB)]≈ = v ;
→ →
(4) sia t il vettore libero individuato dal segmento orientato (OB), cioè t := [(OB)]≈
O
rappresentante del vettore libero v
→
6.2.21. Osservazione. L’algoritmo precedente determina univocamente il vettore libero t .
Infatti, anche se al passo (1) scegliessimo un punto O’≠O (e quindi si avrebbe, in generale, A’≠A e
B’≠B) è facile rendersi conto che sarebbe (O’B’)≈(OB), per cui alla fine [(O’B’)]≈ = [(OB)]≈ .
B'
O'
6.2.22. Definizione. Sia [+] : V×V → V l’operazione binaria ovunque definita ed interna a V così
definita:
→ → →
u [+] v := t
→ → →
dove t è il vettore libero ottenuto con l’algoritmo “S” applicato ai vettori liberi u e v .
Quindi, si ha che [(OA)]≈ [+] [(AB)]≈ := [(OB)]≈ .
21
6.2.23. Lemma. La coppia (V, [+]) è un gruppo abeliano.
O
rappresentante del vettore libero v C
→ → →
( u [+] v )[+] w = ([(OA)]≈ [+] [(AB)]≈) [+] [(BC)]≈ = [(OB)]≈ [+] [(BC)]≈ = [(OC)]≈
→ → →
u [+]( v [+] w ) = [(OA)]≈ [+] ([(AB)]≈ [+] [(BC)]≈) = [(OA)]≈ [+] [(AC)]≈ = [(OC)]≈.
→ → → → → → →
(G2) ∃ 0 ∈V : ∀ u ∈V u⊕0=u=0⊕u
→ →
Sia u ∈V. Si scelga, a piacere, O∈℘. Sia A∈℘ l’unico punto tale che [(OA)]≈= u . Si ha che
→ → → → →
u ⊕ 0 =[(OA)]≈⊕[(AA)]≈= [(OA)]≈= u = [(OA)]≈= [(OO)]≈⊕[(OA)]≈= 0 ⊕ u
→ → → → → → →
(G3) ∀ u ∈V ∃ u' ∈V : u [+] u' = 0 = u' [+] u
→ →
Sia u ∈V. Si scelga, a piacere, O∈℘. Sia A∈℘ l’unico punto tale che [(OA)]≈= u .
→ →
Sia u' ∈V il vettore libero rappresentato dal segmento orientato (AO), cioè u' :=[(AO)]≈. Si ha che
→ → → → →
u [+] u' = [(OA)]≈ [+] [(AO)]≈ = [(OO)]≈ = 0 = [(AA)]≈ = [(AO)]≈ [+] [(OA)]≈ = u' [+] u
→ → → → → →
(G4) ∀ u , v ∈V u [+] v = v [+] u ([+] è commutativa)
→ → →
Siano u , v ∈V. Si scelga, a piacere, O∈℘. Sia A,B∈℘ gli unici punti tali che [(OA)]≈= u e che
→
[(AB)]≈= v . Sia D∈℘ l’unico punto tale che la figura OABD è un parallelogrammo.
O
rappresentante del vettore libero v
D
→ →
Poiché (DB)≈(OA) e (OD)≈(AB) si ha che [(DB)]≈=[(OA)]≈= u e [(OD)]≈=[(AB)]≈= v . Quindi,
→ → → →
u [+] v = [(OA)]≈ [+] [(AB)]≈= [(OB)]≈= [(OD)]≈ [+] [(DB)]≈= v [+] u .
22
6.2.24. Definizione. Sia * : R×V → V l’operazione binaria ovunque definita in R×V a valori in V
→
definita nel modo seguente: ∀α∈R , ∀ u ∈V
→ → → →
• se α = 0 vel u = 0 allora α* u := 0 ;
→ → → → →
• se α ≠ 0 et u ≠ 0 allora α* u è il vettore libero avente lunghezza ||α* u || := (|α|)|| u ||, la stessa
→ → →
direzione di u e verso uguale a quello di u se α > 0 aut opposto a quello di u se α < 0.
3*u
(5/6)*u
(-2)*u
(-1/2)*u
Si può provare (noi faremo solo degli esempi) che valgono le seguenti proprietà:
→ → → → → →
(PS1) ∀α∈R , ∀ u , v ∈V α*( u [+] v ) = (α* u ) [+] (α* v )
→ →
6.2.25. Esempio. Siano u e v i vettori liberi rappresentati dai segmenti orientati rosso e verde e
→ → → →
sia α = 2. Si vede che il vettore libero 2*( u [+] v ) è uguale al vettore libero (2* u ) [+] (2* v ).
A
u C
α=2 u[+]v B
O
2*(u[+]v)
v
D
2*u
2*v
E
(2*u)[+](2*v)
O'
23
→ → → →
(PS2) ∀α,β∈R , ∀ u ∈V (α+β)* u = (α* u ) [+] (β* u )
→
6.2.26. Esempio. Sia u il vettore libero rappresentato dal segmento orientato rosso. Siano α=1/2 e
→ → →
β=3/2. Si vede che il vettore libero (1/2+3/2)* u è uguale al vettore libero ((1/2)* u )[+]((3/2)* u )
((1/2)+(3/2))*u = 2*u
(1/2)*u
(3/2)*u
→ → →
(PS3) ∀α,β∈R , ∀ u ∈V (αβ)* u = α*(β* u )
→
6.2.27. Esempio. Sia u il vettore libero rappresentato dal segmento orientato rosso. Siano α=3/2 e
→ →
β=-2. Si vede che il vettore libero ((3/2)(-2))* u è uguale al vettore libero (3/2)*((-2)* u )
((3/2)(-2))*u = (-3)*u
v = (-2)*u
(3/2)*v = (3/2)*((-2)*u)
Ricordando (Lemma 6.2.23) che (V, [+]) è un gruppo abeliano, abbiamo provato il seguente:
24
6. Quattro esempi di spazi vettoriali reali.
Siano R il campo dei numeri reali e Rn l’insieme delle n-uple ordinate di numeri reali.
(a1, a2, a3, …, an-1, an) e (b1, b2, b3, …, bn-1, bn)
(a1, a2, a3, …, an-1, an) e (b1, b2, b3, …, bn-1, bn)
definita nel modo seguente: ∀(a1, a2, a3, …, an-1, an), (b1, b2, b3, …, bn-1, bn)∈Rn
(a1, a2, a3, …, an-1, an) ⊕ (b1, b2, b3, …, bn-1, bn) := (a1+b1, a2+b2, a3+b3, …, an-1+bn-1, an+bn)
6.3.3. Esempio. In R4 si ha che (2, 4,-7, ½) ⊕ (5,-6, 3,-1) = (7, -2, -4,-½)
25
6.3.4. Definizione. Una n-upla ordinata i cui elementi sono tutti zeri la diremo n-upla nulla. Tale n-
upla la indicheremo col simbolo on
6.3.5. Esempio. o2 = (0, 0) coppia nulla; o3 = (0, 0, 0) terna nulla; o4 = (0, 0, 0, 0) quaterna nulla.
6.3.6. Definizione. Sia a = (a1, a2, a3, …, an-1, an) una n-upla ordinata di numeri reali. Col simbolo a
indicheremo la seguente (-a1, -a2, -a3, …, -an-1, -an) n-upla ordinata di numeri reali.
Tenendo conto che (R, +) è un gruppo abeliano si prova subito che valgono le seguenti proprietà:
(G1) ∀(a1, a2, …, an), (b1, b2, …, bn), (c1, c2, …, cn)∈Rn
((a1, a2, …, an)⊕(b1, b2, …, bn))⊕(c1, c2, …, cn) = (a1, a2, …, an)⊕((b1, b2, …, bn)⊕(c1, c2, …, cn))
(l’operazione ⊕ di soma tra due n-uple gode della proprietà associativa)
(G2) ∃on = (0, 0, 0, …, 0, 0)∈Rn : ∀a = (a1, a2, a3, …, an-1, an)∈Rn a ⊕ on = a = on⊕ a
(esiste l’elemento neutro rispetto all’operazione ⊕ di somma tra due n-uple)
(G3) ∀a = (a1, a2, a3, …, an-1, an)∈Rn ∃a = (-a1, -a2, -a3, …, -an-1, -an)∈Rn : a ⊕ a = on = a⊕ a
(esiste il simmetrico di ogni elemento rispetto all’operazione ⊕ di somma tra due n-uple)
6.3.9. Osservazione. Per la proprietà (G6) si ha che la n-upla a è unica. Tale n-upla viene anche
detta n-upla opposta della n-upla a e indicata col simbolo -a.
26
6.3.10. Osservazione. Data una n-upla ordinata di numeri reali (a1, a2, a3, …, an-1, an) e un numero
reale α per ogni i = 1, 2, 3, …, (n-1), n è univocamente determinato il risultato dell’operazione αai .
Quindi, è anche univocamente determinata la n-upla ordinata di numeri reali seguente:
6.3.11. Definizione. Sia ⊗ : R×Rn → Rn l’operazione binaria ovunque definita tra uno scalare e una
α⊗(a1, a2, a3, …, an-1, an) := (αa1, αa2, αa3, …, αan-1, αan)
Tale operazione viene detta prodotto di un numero reale per una n-upla ordinata.
6.3.12. Esempio. 2⊗(2, 4,-7, ½) = (4, 8,-14, 1); (-¾)⊗(8,0, 12,-40) = (-6, 0, -9, 30)
(PS1) α⊗((a1, a2, …, an) ⊕ (b1, b2, …, bn)) = (α⊗(a1, a2, …, an)) ⊕ (α⊗(b1, b2, …, bn))
(PS2) (α + β)⊗(a1, a2, …, an) = (α⊗(a1, a2, …, an)) ⊕ (β⊗(a1, a2, …, an))
Ricordando (Lemma 6.3.8) che (Rn, ⊕) è un gruppo abeliano, abbiamo provato il seguente:
27
6. Quattro esempi di spazi vettoriali reali.
Indichiamo con Rn l’insieme delle n-uple ordinate di numeri reali. In 6.3., dopo aver introdotto
un’operazione ⊕ di “somma” tra due n-uple reali e un’operazione ⊗ di “prodotto” tra un numero
reale e una n-upla reale, abbiamo visto che la terna (Rn, ⊕, ⊗) è uno spazio vettoriale reale.
Siano a1, a2, a3, …, a(m-1), am m elementi di Rn, cioè m n-uple ordinate di numeri reali.
a1 = (a11, a12, , a1n)
a2 = (a21, a22, , a2n)
a3 = (a31, a32, , a3n)
…………
…………
a(m-1) = (a(m-1)1, a(m-1)2, , a(m-1)n)
am = (am1, am2, , amn)
Consideriamo una m-upla ordinata che contenga tali n-uple come elementi, cioè
(a1, a2, a3, …, a(m-1), am)
ovvero
((a11, a12, , a1n), (a21, a22, , a2n), (a31, a32, , a3n), …, (a(m-1)1, a(m-1)2, , a(m-1)n), (am1, am2, , amn))
6.4.1. Definizione. Diremo matrice di tipo m×n ad elementi reali ogni m-upla ordinata avente come
elementi n-uple ordinate di numeri reali.
28
Di solito una matrice di tipo m×n viene rappresentata con una tabella rettangolare di m righe e n
colonne in modo tale che gli n elementi della i-esima riga siano proprio gli n elementi della i-esima
n-upla ordinata ai.
In tal modo si ha che il numero reale aij che si trova nella i-esima riga e j-esima colonna della
matrice (che diremo elemento di posto ij) è il j-esimo elemento della i-esima n-upla ordinata.
2 3 0
A= invece di A = ((2,3,0), (1,-7,4))
1 − 7 4
4 5 1
B= 1 1 1 invece di B = ((4,5,1), (1,1,1), (0,0,-2))
0 0 − 2
1 2 3 4
C = 11 − 4 − 4 9
invece di C = ((1,2,3,4), (11,-4,-4,9), (-6,0,8,0))
− 6 0 8 0
Per brevità, spesso scriveremo A = [aij]m×n per indicare una tabella rettangolare di m righe ed n
colonne contenente come elementi dei numeri reali.
6.4.5. Definizione. Col simbolo M(m, n, R) indicheremo l’insieme contenente tutte e sole le matrici
di tipo m×n ad elementi reali. In pratica M(m, n, R) = (Rn)m.
29
a1 b1
a b
2 2
a3 b3
6.4.6. Osservazione. Siano A = e B= due matrici ad elementi reali dello
a(m −1) b (m −1)
am bm
stesso tipo m×n. Per ogni indice i∈{1, 2, 3, …, (m-1), m} di riga è univocamente determinata in Rn
la n-upla ordinata ai ⊕ bi risultato dell’operazione ⊕ tra le due n-uple ordinate ai e bi .Quindi, è
a1 ⊕ b1
a ⊕b
2 2
a3 ⊕ b 3
anche univocamente determinata la matrice ad elementi reali di tipo m×n.
a m -1 ⊕ bm -1
am ⊕ bm
6.4.7. Definizione. Sia [⊕] : M(m, n, R)×M(m, n, R) → M(m, n, R) l’operazione binaria ovunque
definita ed interna a M(m, n, R) definita nel modo seguente:
a 1 b1 a1 b1 a1 ⊕ b1
a b a b a ⊕b
2 2 2 2 2 2
a3 b3 a3 b3 a3 ⊕ b3
∀ , ∈M(m, n, R) [⊕] :=
a(m −1) b (m −1) a(m −1) b (m −1) am -1 ⊕ bm -1
am bm am bm am ⊕ bm
Tale operazione (fra due matrici dello stesso tipo) viene detta somma di due matrici.
2 3 0 5 −3 1 7 0 1
6.4.8. Esempio. − 1 − 7 4 [⊕] − 7 0 − 10 = − 8 − 7 − 6
4 5 1 − 4 − 5 − 1 0 0 0
1 1 1 [⊕] 1 1 1 = 2 2 2
0 0 − 2 3 3 5 3 3 3
30
6.4.9. Definizione. Una matrice ad elementi reali di tipo m×n la diremo nulla, e la indicheremo col
simbolo Om××n (o anche, quando il tipo m×n è chiaro dal contesto, più brevemente con O) se tutte le
sue righe sono uguali alla n-upla nulla (0, 0, 0, …,0, 0). Quindi, tutti gli elementi di Om××n sono nulli.
0 0 0 0
6.4.10. Esempio.
O3××4 = 0 0 0 0
0 0 0 0
6.4.11. Definizione. Sia A una matrice ad elementi reali di tipo m×n. Con A indicheremo la matrice
ad elementi reali di tipo m×n così definita: per ogni indice i∈{1, 2, 3, …, (m-1), m} di riga se
a = (ai1, ai2, ai3, …, ai(n-1), ain) è la i-esima riga di A allora –a = (-ai1, -ai2, -ai3, …, -ai,(n-1), -ain) è la
i-esima riga di A. Ovvero, se A = [aij]m×n e A = [bij]m×n allora per ogni i∈{1, 2, 3, …, (m-1), m}
indice di riga e ogni j∈{1, 2, 3, …, (n-1), n} indice di colonna si ha che e bij = - aij .
1 2 3 4 − 1 − 2 − 3 − 4
6.4.12. Esempio. Se A = 11 − 4 − 4 9 allora A =
− 11 4 4 − 9
− 6 0 8 0 6 0 − 8 0
Tenendo conto che (Rn, ⊕) è un gruppo abeliano si prova subito che valgono le seguenti proprietà:
6.4.14. Osservazione. Per la proprietà (G6) si ha che la matrice A è unica. Tale matrice viene anche
detta matrice opposta della matrice A e indicata col simbolo -A.
31
a1
a
2
a3
6.4.15. Osservazione. Siano α∈R e A = una matrice ad elementi reali di tipo m×n. Per
a(m −1)
am
ogni indice i∈{1, 2, 3, …, (m-1), m} di riga è univocamente determinata in Rn la-nupla α⊗ai
risultato dell’operazione di prodotto tra il numero reale α e la n-upla ai . Quindi, è anche
α ⊗ a1
α ⊗a
2
α ⊗ a3
univocamente determinata la matrice ad elementi reali di tipo m×n .
α ⊗ a(m −1)
α ⊗ a m
6.4.16. Definizione. Sia [⊗] : R×M(m, n, R) → M(m, n, R) l’operazione binaria così definita:
a1 a1 α ⊗ a1
a a α ⊗a
2 2 2
a3 a3 α ⊗ a3
∀α∈R ∀ ∈M(m, n, R) α [⊗] :=
a(m −1) a(m −1) α ⊗ a(m −1)
m
a m
a α ⊗ a m
Tale operazione viene detta prodotto di un numero reale per una matrice.
32
2 3 0 − 6 − 9 0
6.4.17. Esempio. (-3)[⊗] =
− 1 − 7 4 3 21 − 12
4 5 1 2 5 / 2 1 / 2
(1/2)[⊗] 1 1 1 = 1 / 2 1 / 2 1 / 2
0 0 − 2 0 0 −1
1 2 3 4 0 0 0 0
0[⊗] 11 − 4 − 4 9 = 0 0 0 0
− 6 0 8 0 0 0 0 0
Tenendo conto che (Rn, ⊕, ⊗) è uno spazio vettoriale reale si prova subito che valgono le proprietà:
Ricordando (Lemma 6.4.13) che (M(m, n, R), [⊕]) è un gruppo abeliano, abbiamo il seguente:
6.4.18. TEOREMA. La terna (M(m, n, R), [⊕], [⊗]) è uno spazio vettoriale reale.
33
7. Dipendenza ed indipendenza lineare.
7.2. Esempio. Si ha che 2⊗[(1, 0,-2, 5) ⊕ (2,-1, 0, 12)] = 2⊗(3, -1,-2, 17) = (6, -2, -4, 34)
Mentre [2⊗(1, 0,-2, 5)] ⊕ (2,-1, 0, 12) = (2, 0, -4, 10) ⊕ (2,-1, 0, 12) = (4, -1, -4, 22)
7.3. Definizione. Stabiliamo che, in mancanza di parentesi, l’operazione * sia prioritaria rispetto
all’operazione ⊥. Ovvero, stabiliamo che α∗u ⊥ v := (α∗u) ⊥ v.
7.4. Definizione. Indicato brevemente con VR uno spazio vettoriale reale (V, ⊥, ∗), chiameremo
espressione vettoriale in VR una qualunque scrittura, che abbia senso, nella quale possono apparire:
- elementi di V (che si dicono vettori) e numeri reali (che si dicono scalari);
- operazioni ⊥ tra vettori;
- operazioni ∗ tra scalari e vettori;
- operazioni di somma e prodotto tra numeri reali;
- parentesi e il segno di uguaglianza.
7.5. Osservazione. Le proprietà (G1), (G2), …, (G12) e (PS1), (PS2), …, (PS12) di uno spazio
vettoriale reale ci permettono di “manipolare” un’espressione vettoriale in modo “analogo” ad
un’espressione coi numeri reali, tenendo però conto che rispetto all’operazione ∗ non abbiamo il
concetto di simmetrico di un vettore.
34
7.7. Osservazione. Alcune delle proprietà viste possono essere riscritte così:
• -(-u) = u
• (-α)u = -(αu)
• αu = 0 ⇔ α = 0 vel u = 0 (legge di annullamento del prodotto)
• u+w=v+w ⇔ u=v (cancellabilità rispetto alla somma di vettori)
• αu = αv et α ≠ 0 ⇒ u = v (cancellabilità, rispetto al prodotto, di uno scalare non nullo)
• αu = βu et u ≠ 0 ⇒ α = β (cancellabilità, rispetto al prodotto, di un vettore non nullo)
• v + w = u ⇔ w = u - v ⇔ v = u - w (spostabilità rispetto alla somma di vettori)
• αu = v et α ≠ 0 ⇒ u = α-1v (spostabilità di uno scalare rispetto al prodotto)
Si noti che, rispetto all’operazione di prodotto di uno scalare per un vettore, non è possibile
spostare un vettore attraverso il segno di uguaglianza.
7.8. Definizione. Siano u1, u2, u3, u4,…, un-1, un∈VR. Diremo combinazione lineare (brevemente
C.L.) dei vettori u1, u2, u3, u4,…, un-1, un a coefficienti rispettivamente α1, α2, α3, α4,…, αn-1, αn
l’espressione vettoriale seguente
n
α1u1 + α2u2 + α3u3 + α4u4 +… αn-1un-1 + αnun = ∑ αiui
i=1
Se indichiamo con v il vettore di VR risultato finale (UNICO) di tutte le operazioni precedenti, cioè
diremo che il vettore v è una combinazione lineare dei vettori u1, u2, u3, u4,…, un-1, un .
Se n = 1, cioè v = αu diremo anche che v è multiplo di u o, anche, che v è proporzionale a u.
7.10 Osservazione. Per la legge di annullamento del prodotto (αu = 0 ⇔ α=0 vel u=0) si ha che:
- il vettore nullo è multiplo di qualunque altro vettore, infatti ∀u∈VR si ha che 0u = 0;
- l’unico multiplo del vettore nullo è il vettore nullo stesso, infatti ∀α∈R si ha che α0 = 0.
35
7.11. Osservazione. Se u1 = u2 = u3 = u4 = …= un-1 = un = 0, allora ogni loro combinazione lineare
(cioè per ogni scelta dei coefficienti) ha come risultato sempre il vettore nullo.
7.12. Osservazione. Comunque si scelgano n vettori u1, u2, u3, u4,…, un-1, un∈VR si ha che
0u1 + 0u2 + 0u3 +… 0un-1 + 0un = 0
Ovvero, comunque si scelgano n vettori, è sempre possibile esprimere il vettore nullo come una
loro combinzione lineare in almeno un modo, infatti è sufficiente prendere i coefficienti tutti nulli.
La precedente condizione sufficiente non è, in generale, necessaria. Ovvero, esistono combinazioni
lineari a coefficienti non tutti nulli che hanno come risultato il vettore nullo.
7.13. Esempio.
u v
v
u w
2v u+v
7.14. Esempio. Date le seguenti terne ordinate di numeri reali (1, 0,-2), (2,-1, 0) e (4,-3, 4) è facile
verificare che (-2)⊗(1, 0,-2) ⊕ 3⊗(2,-1, 0) ⊕ (-1)⊗(4,-3, 4) = (0, 0, 0).
7.15. Definizione. Diremo che n vettori u1, u2, u3, u4,…, un-1, un ∈VR sono linearmente dipendenti
(L. D.), se è possibile esprimere il vettore nullo 0 come una loro combinazione lineare a coefficienti
non tutti nulli. Altrimenti diremo che sono linearmente indipendenti (L. I.).
7.16. Osservazione. n vettori sono linearmente indipendenti (se e) solo se l’unico modo per
esprimere il vettore nullo come loro combinazione lineare è quello a coefficienti tutti nulli.
7.17. Osservazione. Per la legge di annullamento del prodotto (αu = 0 ⇔ α=0 vel u=0) si ha che
- il vettore nullo è linearmente dipendente, infatti ∀α∈R si ha che α0 = 0
- ogni vettore non nullo è linearmente indipendente, infatti u ≠ 0 et αu = 0 se solo se α = 0.
36
7.18. Teorema. Se i vettori u1, u2, u3, …, un-1, un di VR sono linearmente dipendenti, allora
comunque si scelgano altri p vettori v1, v2, v3, …, vp-1, vp di VR si ha che gli (n + p) vettori sono
ancora linearmente dipendenti.
Dimostrazione. Per ipotesi esistono n scalari αi non tutti nulli tali che
α1u1 + α2u2 + α3u3 + … αn-1un-1 + αnun + 0v1 + 0v2 + 0v3 + … 0vp-1 + 0vp
è una combinazione lineare a coefficienti non tutti nulli (almeno uno degli αi è non nullo) il cui
risultato è il vettore nullo 0. Quindi, gli (n + p) vettori sono linearmente dipendenti.
Dimostrazione (per assurdo). Se B fosse un insieme di vettori dipendenti, allora (per il Teorema
7.18) anche A sarebbe un insieme di vettori dipendenti, contro l’ipotesi.
7.20. TEOREMA (caratterizzazione della lineare dipendenza). I vettori u1, u2, u3, …, un-1, un sono
linearmente dipendenti se e solo se (almeno) uno di essi è combinazione lineare dei rimanenti.
Dimostrazione.
⇒) Se u1, u2, u3, …, un-1, un sono L. Dip., allora esiste una loro combinazione lineare a coefficienti
non tutti nulli che è uguale al vettore nullo, cioè α1u1 + α2u2 + α3u3 + … αn-1un-1 + αnun = 0. Senza
perdere di generalità, possiamo supporre che sia α1 ≠ 0. Si ha u1 = β2u2 + β3u3 + … βn-1un-1 + βnun
con βi = (-αi / α1 ) ∀i∈[2, n]. Quindi, u1 è combinazione lineare dei vettori u2, u3, …, un-1, un.
⇐) Se uno dei vettori è combinazione lineare dei rimanenti allora supponiamo che questo sia u1 .
Da u1 = β2u2 + β3u3 + … βn-1un-1 + βnun si ha che (-1)u1 + β2u2 + β3u3 + … βn-1un-1 + βnun = 0.
Poichè, esiste una C.L. a coefficienti non tutti nulli (-1≠0) degli n vettori che ha come risultato il
vettore nullo si ha che essi sono L. Dip.
7.21. Corollario. Due vettori sono linearmente dipendenti se e solo se almeno uno dei due si può
scrivere come multiplo dell’altro (ovvero almeno uno dei due è proporzionale all’altro).
37
8. Dipendenza ed indipendenza lineare: il caso dei vettori liberi.
→ → → →
8.1. Definizione. Diremo che due vettori liberi u e v sono paralleli, e scriveremo u // v , se sono
→ →
paralleli un rappresentante di u e un rappresentante di v .
→ →
8.2. Lemma. Se u e v sono due vettori liberi non nulli e paralleli tra loro, allora ognuno dei due si
può scrivere come multiplo dell’altro.
→ → → → → → → →
Dimostrazione. Se u ≠ 0 et v ≠ 0 allora || u || ≠ 0 et || v || ≠ 0. Sia α := || u ||/|| v || ≠ 0. Tenendo
conto di come è stata definita l’operazione di prodotto di uno scalare per un vettore libero si ha che:
→ → → → → →
u = α* v et v = (α-1)* u se u e v hanno lo stesso verso;
→ → → → → →
u =(-α)* v et v =(-α-1)* u se u e v hanno verso opposto.
8.3. Lemma. Due vettori liberi sono paralleli se e solo se almeno uno dei due si può scrivere come
multiplo dell’altro.
Dimostrazione. (⇐) Ovvia, tenendo conto di come è stata definita l’operazione di prodotto di uno
scalare per un vettore libero.
(⇒) Se almeno uno dei due vettori è il vettore nullo allora la tesi è vera per l’osservazione 7.10. Se i
due vettori sono non nulli la tesi è conseguenza del lemma 8.2.
8.4. Teorema. Due vettori liberi sono linearmente dipendenti se e solo se sono paralleli.
8.5. Definizione. Diremo che tre vettori liberi sono complanari se sono complanari tre loro
rappresentanti applicati in uno stesso punto.
38
8.6. Lemma. Comunque scelti tre vettori liberi complanari a due a due non paralleli, ognuno di essi
si può scrivere come combinazione lineare dei rimanenti (e quindi i tre vettori sono L.Dip.).
Dimostrazione. (Indichiamo con rAB la retta passante per due punti distinti A e B). Si scelga, a
piacere, un punto O dello spazio. Siano (OA), (OB) e (OC) gli unici rappresentanti applicati in O
→ → →
dei vettori liberi di u , v e w rispettivamente. Poichè, per ipotesi, i tre vettori liberi sono
complanari esiste un unico piano π contenente i quattro punti O, A, B e C. Inoltre, siccome i tre
vettori sono a due a due non paralleli, si ha che mai sono allineati tre dei quattro punti O, A, B e C.
B
v
C
w
A
O u
Sia t la retta di π per C parallela a (OB) e sia D = t ∩ rOA. Ovviamente, D ≠ O (se fosse D = O si
avrebbe t = rOB e, quindi, C∈rOB contro l’ipotesi “mai tre allineati). D∈rOA implica (OD)//(OA) e,
quindi, [(OD)]≈//[(OA)]≈ . Essendo entrambi non nulli esiste α ≠ 0 tale che [(OD)]≈= α*[(OA)]≈ .
Sia s la retta di π per C parallela a rOA e sia E = s ∩ rOB. Ovviamente, E ≠ O (se fosse E = O si
avrebbe s = rOA e, quindi, C∈rOA contro l’ipotesi “mai tre allineati). E∈rOB implica (OE)//(OB) e,
quindi, [(OE)]≈//[(OB)]≈ . Essendo entrambi non nulli esiste β ≠ 0 tale che [(OE)]≈= β*[(OB)]≈ .
v
C E
s
w
D
A
O u
39
8.7. Teorema. Tre vettori liberi sono linearmente dipendenti se e solo se sono complanari.
Dimostrazione. (Indichiamo con rAB la retta passante per due punti distinti A e B).
Se due dei tre vettori sono L.D., allora quei due vettori sono paralleli e, quindi, i tre vettori sono
complanari. Viceversa, se due dei tre vettori sono paralleli, allora quei due vettori sono L.D. e,
quindi, i tre vettori sono L.D..
Supponiamo, ora, che mai due di essi siano L.D., ovvero che mai due di essi siano paralleli.
⇐) è la dimostrazione del Lemma 8.6.
⇒) Si scelga, a piacere, un punto O dello spazio. Siano (OA), (OB) e (OC) gli unici rappresentanti
→ → →
applicati in O dei vettori liberi di u , v e w rispettivamente. Poiché, per ipotesi, i tre vettori sono
L.D., almeno uno di essi si può scrivere come C.L. degli altri due. Se supponiamo che sia
→ → →
w = (α* u )[+](β* v ) allora chiamiamo π il piano individuato dai tre punti non allineati O, A e B.
Per avere la tesi dobbiamo provare che C∈π.
→
Nello spazio esiste ed è unico un punto D tale che il segmento (OD) sia il rappresentante di α* u
→ → →
applicato in O. Quindi, α* u = [(OD)]≈. Poiché (α* u )// u si ha che D∈rOA e, quindi, D∈π.
→
Nello spazio esiste ed è unico un punto E tale che il segmento (OE) sia il rappresentante di β* v
→ → →
applicato in O. Quindi, β* v = [(OE)]≈. Poiché (β* v )// v si ha che E∈rOB e, quindi, E∈π.
F E
w
D
u A
O
Sia F∈π tale che ODFE è un parallelogrammo. Ovviamente, (OE)≈(DF) per cui [(OE)]≈.= [(DF)]≈.
→ → →
Da [(OC)]≈= w = (α* u )[+](β* v ) = [(OD)]≈[+][(OE)]≈= [(OD)]≈[+][(DF)]≈= [(OF)]≈ si ha che
[(OC)]≈= [(OF)]≈ da cui C = F. Quindi, C∈π.
40
8.8. Lemma. Comunque scelti quattro vettori liberi a tre a tre non complanari, ognuno di essi si può
scrivere come combinazione lineare dei rimanenti (e quindi i quattro vettori sono L.Dip.).
Dimostrazione. Si scelga, a piacere, un punto O dello spazio. Siano (OA), (OB), (OC) e (OD) gli
→ → → →
unici rappresentanti applicati in O dei vettori liberi di u , v , w e z rispettivamente. Sia π1 il piano
individuato dai tre punti non allineati O, A e B. Sia π2 il piano individuato dai tre punti non allineati
O, C e D. I piani π1 e π2 hanno in comune il punto O ma sono distinti (se fossero lo stesso piano si
avrebbe che i cinque punti O, A, B, C e D sarebbero complanari e, quindi, anche i quattro vettori
liberi sarebbero complanari). Sia s la retta per O tale che s = π1∩π2 . Sulla retta s si scelga, a
→ →
piacere, un punto E diverso da O. Sia t il vettore libero individuato da (OE), cioè t = [(OE)]≈ .
→ → →
I tre vettori w , z e t sono complanari e a due a due non paralleli. Quindi, esistono due scalari α e
→ → → → → →
β non nulli tali che z = (α* t )[+](β* w ). I tre vettori u , v e t sono complanari e a due a due non
→ → →
paralleli. Quindi, esistono due scalari γ e δ non nulli tali che t = (γ* u )[+](δ* v ). Si ha
→ → → → → → → → →
z = (α* t )[+](β* w ) = α*((γ* u )[+](δ* v ))[+](β* w ) = ((αγ)* u )[+]((αδ)* v )[+](β⊗ w ).
Poiché nell’ultima espressione i coefficienti sono tutti non nulli si può esprimere ognuno dei quattro
vettori come combinazione lineare dei rimanenti.
8.9. Teorema. Quattro, o più, vettori liberi sono sempre linearmente dipendenti.
Dimostrazione. Se tre dei quattro vettori sono L.D., allora i quattro vettori sono L.D.. Se i quattro
vettori sono a tre a tre linearmente indipendenti, allora i quattro vettori sono a tre a tre non
complanari. Per il lemma precedente ognuno di essi si può scrivere come combinazione lineare dei
rimanenti. Quindi, i quattro vettori sono linearmente dipendenti. Dati n ≥ 5 vettori liberi, allora
comunque se ne prendano quattro essi sono L.D.. Quindi, anche gli n vettori sono L.D..
8.10. Osservazione. Il teorema precedente è conseguenza, oltre che del fatto che (V, [+], *) è uno
spazio vettoriale reale, anche delle “peculiarità” geometriche dei vettori liberi. Per cui una proprietà
analoga non vale per ogni spazio vettoriale reale.
8.11. Esempio. Le quaterne (1,0,0,0), (0,1,0,0), (0,0,1,0) e (0,0,0,1) sono linearmente indipendenti.
Infatti, si ha che α*(1,0,0,0)[+]β*(0,1,0,0)[+]γ*(0,0,1,0)[+]δ*(0,0,0,1) = (0,0,0,0) se e solo se
(α,β,γ,δ) = (0,0,0,0) ovvero se e solo se α = β = γ = δ = 0.
41
9. Sottospazi.
9.1. Definizione. Sia f : X → Y una funzione dall’insieme X all’insieme Y. Per ogni sottoinsieme S
di X la nuova funzione fS : S → Y dall’insieme S all’insieme Y definita nel modo seguente:
∀x∈S fS(x) := f(x)∈Y.
viene detta restrizione di f a S.
9.2. Osservazione. Sia ⊥ un’operazione binaria ovunque definita ed interna ad un insieme A, cioè
una funzione ⊥ : A×A → A. Sia I ⊆ A. Quindi, I×I ⊆ A×A. La restrizione di ⊥ a I×I
⊥I×I : I×I → A
è un’operazione ovunque definita in I a valori in A, cioè ⊥I×I(I×I) ⊆ A.
9.3. Definizione. Sia ⊥ un’operazione binaria ovunque definita ed interna ad un insieme A. Sia
I ⊆ A. Se la restrizione di ⊥ a I×I è a valori in I, cioè ⊥I×I(I×I) ⊆ I allora diremo che il sottoinsieme I
è chiuso rispetto all’operazione ⊥.
In altre parole, I è chiuso rispetto all’operazione ⊥ se e solo se comunque presi due elementi x e y in
I si ha che il risultato dell’operazione x⊥y è ancora un elemento di I.
9.4. Esempio. Sia N l’insieme dei numeri naturali e sia + l’operazione di somma di due numeri
naturali. Siano P e D rispettivamente il sottoinsieme dei numeri pari e quello dei numeri dispari. Si
ha che P è chiuso rispetto a + mentre D non lo è. Infatti, la somma di due numeri pari è ancora un
numero pari, mentre la somma di due numeri dispari non è un numero dispari. Invece, sia P che D
sono chiusi rispetto all’operazione di prodotto di due numeri naturali.
9.5. Esempio. Sia I = [0, 1] = {x∈R | 0 ≤ x ≤ 1}. I non è chiuso rispetto alla somma di due numeri
reali mentre è chiuso rispetto al prodotto di due numeri reali.
42
9.6. Osservazione. Sia * un’operazione ovunque definita nell’insieme B×A a valori in A, cioè una
funzione * : B×A → A. Sia I ⊆ A. Quindi, B×I ⊆ B×A. La restrizione di * a B×I
⊥B×I : B×I → A
è un’operazione ovunque definita in B×I a valori in A, cioè ⊥B×I(B×I) ⊆ A.
9.7. Definizione. Sia * un’operazione ovunque definita nell’insieme B×A a valori in A. Sia I ⊆ A.
Se la restrizione di * a B×I è a valori in I, cioè ⊥B×I(B×I) ⊆ I allora diremo che il sottoinsieme I è
chiuso rispetto all’operazione *.
In altre parole, I è chiuso rispetto all’operazione * se e solo se comunque presi un numero reale α e
un elemento x di I si ha che il risultato dell’operazione α*x è ancora un elemento di I.
9.8. Definizione. Sia (V, ⊥, ∗) uno spazio vettoriale e U ⊆ V. Diremo che U è sottospazio di V, e
scriveremo U ≤ V, se la terna (U, ⊥U×U , *R×U) è uno spazio vettoriale reale.
43
9.10. Esempio. Consideriamo lo spazio vettoriale (ℑR(R), , ) delle funzioni reali di variabile
reale definite in tutto R. Se con R[x] indichiamo l’insieme dei polinomi in x a coefficienti reali,
allora è ∅ ≠ R[x] ⊆ ℑR(R). Poiché la somma di due polinomi è ancora un polinomio e il prodotto
di un numero reale per un polinomio è ancora un polinomio, si ha che R[x] è chiuso rispetto alla
somma e rispetto al prodotto . Quindi, R[x] ≤ ℑR(R).
9.11. Esempio. Sia A l’insieme dei polinomi in x a coefficienti reali di grado esattamente uguale a
n. Si vede subito che A non è chiuso rispetto all’operazione di somma di due polinomi. Infatti, presi
i polinomi p(x) = (2xn + 1)∈A e q(x) = (-2xn + 2)∈A si ha che p(x)+q(x) = 3∉A.
9.12. Esempio. Con Rn[x] indichiamo l’insieme dei polinomi in x a coefficienti reali di grado ≤ n.
Si ha che ∅ ≠ Rn[x] ⊆ R[x]. Poiché sia la somma di due polinomi di grado ≤ n che il prodotto di
uno scalare per un polinomio di grado ≤ n sono ancora polinomi di grado ≤ n si ha che Rn[x] ≤ R[x].
9.13. Esempio. Consideriamo lo spazio vettoriale (R3, ⊕, ⊗) delle terne ordinate di numeri reali.
L’insieme non vuoto B = {(x, y, z)∈R3 | z = 0} = {(x, y, 0)∈R3} è chiuso sia rispetto a ⊕ che a ⊗.
Infatti, si ha che (a, b, 0) ⊕ (c, d, 0) = (a+c, b+d, 0) e che α⊗(a, b, 0) = (αa, αb, 0). Quindi, B ≤ R3.
9.14. Esempio. Consideriamo lo spazio vettoriale (R3, ⊕, ⊗) delle terne ordinate di numeri reali.
L’insieme non vuoto C = {(x, y, z)∈R3 | z = 1} = {(x, y, 1)∈R3} non è chiuso rispetto a ⊕. Infatti,
prese due terne (a, b, 1) e (c, d, 1) si ha che (a, b, 1) ⊕ (c, d, 1) = (a+c, b+d, 2)∉C.
9.15 Esempio. Consideriamo lo spazio vettoriale (R4, ⊕, ⊗) delle quaterne ordinate di numeri reali.
L’insieme non vuoto D = {(w, x, y, z)∈R4 | w = 3x, z = x+y} = {(3x, x, y, x+y)∈R4} è chiuso sia
rispetto a ⊗ che a ⊕. Infatti, si ha che
(3a, a, b, a+b) ⊕ (3c, c, d, c+d) = (3a°+3c, a+c, b+d, a+b+c+d) = (3(a+c), a+c, b+d, (a+c)+(b+d))
e che α⊗(3a, a, b, a+b) = (α3a, αa, αb, α(a+b)) = (3(αa), αa, αb, (αa)+(αb)). Quindi, D ≤ R4.
44
9.17. Definizione. Dati n vettori u1, u2, u3, …, un-1, un di VR, col simbolo <u1, u2, u3, …, un-1, un>
indicheremo il sottoinsieme di VR contenente tutti e soli i vettori che si possono esprimere come una
combinazione lineare degli n vettori u1, u2, u3, …, un-1, un.
9.18. Osservazione. Se v∈<u1, u2, u3, …, un-1, un> allora v, u1, u2, u3, …, un-1, un sono L.Dip.
9.19. Teorema. Comunque presi n vettori u1, u2, u3, …, un-1, un di VR, l’insieme
è un sottospazio di VR.
Dimostrazione.
(2) Proviamo che U è chiuso rispetto a +, cioè che ∀v,w∈U si ha che (v+w)∈U.
v∈U ⇒ v = α1u1+α2u2+α3u3+…+αn-1un-1+αnun
w∈U ⇒ w = β1u1+β2u2+β3u3+…+βn-1un-1+βnun
v + w = (α1u1+α2u2+α3u3+…+αn-1un-1+αnun) + (β1u1+β2u2+β3u3+…+βn-1un-1+βnun)
v + w = (α1u1+β1u1) + (α2u2+β2u2) + (α3u3+β3u3) + … + (αn-1un-1+βn-1un-1) + (αnun+βnun)
v + w = γ1u1+γ2u2+γ3u3+…+γn-1un-1+γnun ⇒ (v+w)∈U.
(3) Proviamo che U è chiuso rispetto a *, cioè che ∀v∈U e ∀δ∈R si ha che (δv)∈U.
v∈U ⇒ v = α1u1+α2u2+α3u3+…+αn-1un-1+αnun
δv = δ(α1u1+α2u2+α3u3+…+αn-1un-1+αnun) = (δα1)u1+(δα2)u2+(δα3)u3+…+(δαn-1)un-1+(δαn)un
δv = ω1u1+ωγ2u2+ω3u3+…+ωn-1un-1+ωnun ⇒ (δv)∈U.
9.20. Definizione. Dati n vettori u1, u2, u3, …, un-1, un di VR, il sottospazio
si dice (sotto) spazio generato dai vettori u1, u2, u3, …, un-1, un (che vengono detti generatori di U).
9.21. Definizione. Diremo che uno spazio vettoriale reale VR è finitamente generato se esiste un
insieme finito B = {u1, u2, u3, …, un-1, un} di vettori di VR tali che VR = <u1, u2, u3, …, un-1, un>.
In tal caso diremo anche che l’insieme B genera lo spazio VR e scriveremo VR = <B>.
45
9.22. Teorema. Se U = <u1, u2, u3, …, un-1, un> ≤ VR e T = <v, u1, u2, u3, …, un-1, un> ≤ VR, allora
(1) U ⊆ T e, quindi, U ≤ T (per l’Osservazione 9.16.4)
(2) U = T ⇔ v∈U
Dimostrazione.
9.23. Corollario. Sia VR uno spazio vettoriale reale finitamente generato. Se B è un suo insieme
minimale di generatori, allora i vettori di B sono linearmente indipendenti.
Dimostrazione. Sia B = {u1, u2, u3, …, un-1, un} un insieme minimale di generatori. Se i vettori di
B fossero linearmente dipendenti allora almeno uno di essi si potrebbe scrivere come combinazione
lineare dei rimanenti. Supponendo che sia u1 = α2u2 + α3u3 + … + αn-1un-1 + αnun si avrebbe che
u1∈<u2, u3, …, un-1, un>. Per il Teorema 9.22 si avrebbe che
<u2, u3, …, un-1, un> = <u1, u2, u3, …, un-1, un> = VR
Quindi, anche il sottoinsieme {u2, u3, …, un-1, un} di B sarebbe un insieme di generatori di VR
contro l’ipotesi che B fosse minimale.
46
9.24. Teorema. Siano v, u1, u2, u3, …, un-1, un∈VR e U := <u1, u2, u3, …, un-1, un>. Si ha che
u1, u2, u3, …, un-1, un sono L. Indip. et v∉U ⇔ v, u1, u2, u3, …, un-1, un sono L. Indip.
Dimostrazione.
(⇒) Dobbiamo provare che l’unica combinazione lineare dei vettori v, u1, u2, u3, …, un-1, un che ha
come risultato il vettore nullo è quella a coefficienti tutti nulli. Cioè, dobbiamo provare che se si ha
ωv + β1u1+β2u2+β3u3+…+βn-1un-1+βnun = 0 (#)
allora necessariamente sono nulli sia il coefficiente ω che tutti i coefficienti βi .
Se fosse ω ≠ 0, allora v = (-ω-1β1)u1+(-ω-1β2)u2+(-ω-1β3)u3+ … +(-ω-1βn-1)un-1+(-ω-1βn)un e, quindi,
v∈U contro l’ipotesi v∉U. Per cui è ω = 0. Sostituendo ω = 0 in (#) si ottiene
β1u1+β2u2+β3u3+…+βn-1un-1+βnun = 0
Essendo, per ipotesi, u1, u2, u3, …, un-1, un L. Indip. si ha che tutti i coefficienti βi sono nulli.
9.25. Corollario. Siano v, u1, u2, u3, …, un-1, un∈VR e U := <u1, u2, u3, …, un-1, un>.
Se u1, u2, u3, …, un-1, un sono L. Indip. mentre v, u1, u2, u3, …, un-1, un sono L. Dip. allora v∈U.
9.26. Corollario. Sia VR uno spazio vettoriale reale finitamente generato. Se B è un suo insieme
massimale di vettori linearmente indipendenti, allora i vettori di B sono generatori dello spazio.
Dimostrazione. Sia B = {u1, u2, u3, …, un-1, un} un insieme massimale di vettori linearmente
indipendenti. Essendo B massimale, per ogni vettore v di VR si ha che v, u1, u2, u3, …, un-1, un sono
linearmente dipendenti. Per il Corollario 9.25 è v∈<u1, u2, u3, …, un-1, un> = <B>. Quindi, i vettori
di B sono generatori dello spazio.
47
9.27. Definizione. Sia U := <u1, u2, u3, …,uj, …, uk, …, un-1, un>.
Diremo operazioni elementari sui generatori di U le seguenti azioni:
(O.E.1) scambiare due generatori uj e uk tra loro;
(O.E.2) sostituire un generatore uj con il vettore γuj ∀γ∈R-{0};
(O.E.3) sostituire un generatore uj con il vettore uj+βuk ∀β∈R et k≠j.
9.29. Lemma. Siano T = <t, u2, u3, …, un-1, un> e W = <w, u2, u3, …, un-1, un>
T = W ⇔ w∈T et t∈W
9.30. Teorema. Lo spazio <u1, u2, u3, …, un-1, un> è invariante rispetto alle O.E. sui generatori.
9.31. Corollario Se i vettori v1, v2, v3, …, vn-1, vn sono stati ottenuti effettuando un numero finito di
operazioni elementari sui generatori dello spazio <u1, u2, u3, …, un-1, un>, allora si ha che
<v1, v2, v3, …, vn-1, vn> = <u1, u2, u3, …, un-1, un>.
48
10. Basi e dimensione di uno spazio vettoriale.
u1∈<v1, u2, u3, …, un-1, un> et v1∈<u1, u2, u3, …, un-1, un> = VR ⇒ VR = <v1, u2, u3, …, un-1, un>
n
Passo 2) v2∈VR = <v1, u2, u3, …, un-1, un> ⇒ v2=β11v1+ ∑ α2iui
i= 2
v1 , v2 L.I. ⇒ ∃i∈[2, n] : α2i ≠ 0. Supponiamo che sia i = 2 (cioè α22 ≠ 0) e poniamo x2:=α22-1
n
u2= (-x2β11)v1+x2v2+ ∑ (-x2α2i)ui ⇒ u2∈<v1, v2, u3, …, un-1, un>
i=3
u2∈<v1, v2, u3, …, un-1, un> et v2∈<v1, u2, u3, …, un-1, un> = VR ⇒ VR = <v1, v2, u3, …, un-1, un>
n
Passo 3) v3∈VR = <v1, v2, u3, …, un-1, un> ⇒ v3=β21v1+β22v2+ ∑ α3iui
i=3
u3∈<v1, v2, v3, …, un-1, un> et v3∈<v1, v2, u3, …, un-1, un> = VR ⇒ VR = <v1, v2, v3, …, un-1, un>
n n
Passo j) vj∈VR = <v1, v2, v3, …, vj-1, uj, , un-1, un> ⇒ vj= ∑ β(j-1),ivi+ ∑ αjiui
i= j-1 i= j
v1 , v2 ,…, vj-1 L.I. ⇒ ∃i∈[j, n] : αji ≠ 0. Supponiamo i = j (cioè αjj ≠ 0) e poniamo xj:=αjj-1
n n
uj= ∑ (-xjβ(j-1),i)vi+xjvj+ ∑ (-xjαji)ui ⇒ uj∈<v1, v2, v3, …, vj, uj+1, , un-1, un>
i= j-1 i = j+1
uj∈<v1, v2, v3, …, vj, uj+1, , un-1, un> et vj∈VR ⇒ VR = <v1, v2, v3, …, vj, uj+1, , un-1, un>
Se fosse n<p, cioè (n+1)≤p, allora al passo n si avrebbe
49
n
Passo n) vn∈VR = <v1, v2, v3, …, vn-1, un> ⇒ vn= ∑ β(n-1),ivi + αnnun
i= n -1
un∈<v1, v2, v3, …, vn> et vn∈<v1, v2, v3, …, vn-1, un> = VR ⇒ VR = <v1, v2, v3, …, vn>
vn+1∈VR = <v1, v2, v3, …, vn> ⇒ v1, v2, v3, …, vn, vn+1 L.D. ⇒ v1, v2, v3, …, vn+1, …, vp L.D.
Essendo giunti ad un ASSURDO, si ha che p ≤ n.
10.2. Definizione. Diremo base di uno spazio vettoriale reale finitamente generato un insieme
ordinato di generatori linearmente indipendenti, che vengono anche detti elementi della base.
n
10.3. Esempio. Nello spazio vettoriale R si considerino le seguenti n-uple: u1 = (1,0,0,0, … ,0,0,0),
u2 = (0,1,0,0, … ,0,0,0), u3 = 0,0,1,0, … ,0,0,0), ..., un-1 = 0,0,0,0, … ,0,1,0), un = 0,0,0,0, … ,0,0,1).
n
E’ facile convincersi che per ogni n-upla (α1 , α2 , α3 , … , αn-1 , αn ) di R si ha che
10.4. Osservazione. Sia VR uno spazio vettoriale reale finitamente generato. Se B un insieme
ordinato di vettori di VR allora
10.4.1. B è una base di VR ⇔ B è un insieme minimale di generatori di VR
10.4.2. B è una base di VR ⇔ B è un insieme massimale di vettori linearmente indipendenti
50
10.5. Esempio. Ogni terna ordinata di vettori liberi non complanari è un insieme massimale di
vettori linearmente indipendenti e, quindi, una base dello lo spazio vettoriale dei vettori liberi.
10.6. Teorema. Ogni spazio vettoriale reale VR ≠ {0} finitamente generato ha almeno una base.
51
Tenendo conto dell’Osservazione 10.4.2. diamo la seguente
10.7. Definizione. Stabiliamo che lo spazio nullo {0} abbia come base l’insieme vuoto ∅.
10.8. Teorema. (di equicardinalità delle basi). Sia V uno spazio vettoriale reale finitamente
generato. Se (u1, u2, u3, …, un-1, un) e (v1, v2, v3, …, vp-1, vp) sono due basi di V, allora n = p.
Ovvero, tutte le basi di un fissato spazio vettoriale hanno lo stesso numero di elementi.
Dimostrazione.
(v1, v2, v3, …, vp-1, vp) L.I. e (u1, u2, u3, …, un-1, un) generatori ⇒ p ≤ n
(u1, u2, u3, …, un-1, un) L.I. e (v1, v2, v3, …, vp-1, vp) generatori ⇒ n ≤ p
p ≤ n et n ≤ p ⇒ n = p.
10.9. Definizione. Diremo dimensione di uno spazio vettoriale reale VR ≠ {0} finitamente generato,
e la indicheremo con dim(VR), il numero di elementi di una (qualsiasi) sua base. In accordo con la
Definizione 10.7 abbiamo stabiliamo che la dimensione dello spazio nullo {0} sia uguale a zero.
10.12. Osservazione. Se VR è uno spazio vettoriale reale finitamente generato, allora si ha che
10.12.1 dim(VR) = numero massimo di vettori linearmente indipendenti in VR
10.12.2 dim(VR) = numero minimo di generatori di VR
10.14. Osservazione. Siano VR e UR due spazi vettoriali reali finitamente generati. Si prova che
dim(VR) = dim(UR) et VR ≤ UR ⇔ VR = UR
52
Tenendo conto delle Osservazioni 10.4 e 10.12 si ha la seguente
10.15. Osservazione. Sia VR è uno spazio vettoriale reale finitamente generato di dimensione n. Se
B un insieme ordinato di vettori di VR allora
10.15.1. B è una base di VR ⇔ B è un insieme di n generatori
10.15.2. B è una base di VR ⇔ B è un insieme di n di vettori linearmente indipendenti
10.16. Teorema. (caratterizzazione di una base) Sia VR è uno spazio vettoriale reale finitamente
generato. Un insieme ordinato B = (u1, u2, u3, …, un-1, un) è una base di VR se e solo se ogni vettore
di VR si può scrivere in modo unico come combinazione lineare dei vettori u1, u2, u3, …, un-1, un .
Dimostrazione. Se l’insieme B è una base di VR allora (poiché i suoi elementi sono generatori di
VR) per ogni vettore v di VR si ha che v = α1u1+α2u2+α3u3+…+αn-1un-1+αnun . Ci resta da provare
che tale scrittura è unica. Supponiamo che sia anche v = β1u1+β2u2+β3u3+…+βn-1un-1+βnun . Da
α1u1+α2u2+α3u3+…+αn-1un-1+αnun = v = β1u1+β2u2+β3u3+…+βn-1un-1+βnun
si ottiene
(α1 – β1)u1 + (α2 – β2)u2 + (α3 – β3)u3 + … + (αn-1 – βn-1)un-1 + (αn – βn)un = 0
Poiché gli elementi di una base sono linearmente indipendenti, si ha che tutti i coefficienti (αi – βi)
sono nulli, da cui αi = βi. Quindi, le due scritture coincidono.
Viceversa, supponiamo che ogni vettore (anche quello nullo) di VR si possa scrivere in modo unico
come combinazione lineare degli elementi di B. Ovviamente, questo vuol dire che gli elementi di U
sono generatori dello spazio VR. Inoltre, 0 = 0u1+0u2+0u3+…+0un-1+0un è un modo di scrivere il
vettore nullo come combinazione lineare di u1, u2, u3, …, un-1, un . Poiché, per ipotesi, tale modo di
scrivere il vettore nullo è unico, abbiamo che i vettori di B sono linearmente indipendenti.
10.17. Osservazione. Sia VR è uno spazio vettoriale reale finitamente generato di dimensione n. Se
B = (u1, u2, u3, …, un-1, un) è una base di VR allora per ogni elemento v∈V esiste, ed è unica, una
n
n-upla ordinata (α1 , α2 , α3 , … , αn-1 , αn ) di R tale che v = α1u1+α2u2+α3u3+…+αn-1un-1+αnun .
Si noti che la n-upla ordinata (α1 , α2 , α3 , … , αn-1 , αn ) dipende dalla base B.
53
Tenendo conto dell’Osservazione 10.17 è ben posta la seguente
10.18. Definizione. Sia VR uno spazio vettoriale reale finitamente generato di dimensione n e sia
n
B = (u1, u2, u3, …, un-1, un) una sua base. La funzione ΩB : VR → R così definita
n
∀v∈V ΩB(v) := (α1 , α2 , α3 , … , αn-1 , αn )∈R
10.19. Teorema. Sia VR uno spazio vettoriale reale finitamente generato di dimensione n e sia
n
B = (u1, u2, u3, …, un-1, un) una sua base. La funzione ΩB : VR → R di coordinatizzazione di VR
rispetto a B così definita è una funzione biettiva che soddisfa le seguenti proprietà:
(L1) ∀v, w∈VR ΩB(v + w) = ΩB(v) + ΩB(w)
Dimostrazione. Proviamo che ΩB è iniettiva, cioè che a vettori distinti di VR corrispondono n-uple
ordinate (loro immagini attraverso ΩB) distinte. Siano v e w due generici vettori di VR .
n
Poiché B è base di VR esiste un’unica n-upla (α1 , α2 , α3 , … , αn-1 , αn )∈R tale che
n
Analogamente, esiste un’unica n-upla (β1 , β2 , β3 , … , βn-1 , βn )∈R tale che
Proviamo, ora, che ΩB è suriettiva. Cioè che ogni n-upla ordinata di numeri reali è immagine di
54
v + w = (α1 + β1)u1 + (α2 + β2)u2 + (α3 + β3)u3 + … + (αn-1 + βn-1)un-1 + (αn + βn)un
(α1+β1, α2+β2, α3+β3, …, αn-1+βn-1, αn+βn) = (α1, α2, α3, …, αn-1, αn) + (β1, β2, β3, …, βn-1, βn)
ωv = (ωα1)u1+(ωα2)u2+(ωα3)u3+…+(ωαn-1)un-1+(ωαn)un
Quindi, ΩB(ωv) = (ωα1, ωα2, ωα3, …, ωαn-1, ωαn). La (L2) è provata osservando che
(ωα1, ωα2, ωα3, …, ωαn-1, ωαn) = ω(α1, α2, α3, …, αn-1, αn).
10.20. Definizione. Siano VR e UR due spazi vettoriali reali. Diremo isomorfismo tra VR e UR ogni
funzione f : VR → UR che sia biettiva e soddisfi le proprietà (L1) e (L2). Diremo anche che lo
spazio VR è isomorfo allo spazio UR .
10.21. Osservazione. Ogni spazio vettoriale reale finitamente generato di dimensione n è isomorfo
allo spazio vettoriale reale delle n-uple ordinate di numeri reali.
n
10.22. Definizione. Diremo che lo spazio vettoriale reale R delle n-uple ordinate di numeri reali è
un modello universale di spazio vettoriale di dimensione finita n.
55
10.23. Teorema. Sia VR uno spazio vettoriale reale finitamente generato di dimensione n e sia
B = (u1, u2, u3, …, un-1, un) una sua base. Sia ΩB la coordinatizzazione di VR rispetto a B.
Se i vettori v1, v2, v3, …, vp-1, vp di VR sono linearmente indipendenti, allora anche le loro immagini
ΩB(v1), ΩB(v2), ΩB(v3), …, ΩB(vp-1), ΩB(vp) sono linearmente indipendenti.
Dimostrazione. Proviamo che una combinazione lineare delle immagini è uguale al vettore nullo di
n
R (cioè la n-upla nulla) se e solo se tutti i coefficienti sono nulli.
10.24. Teorema. Sia VR uno spazio vettoriale reale finitamente generato di dimensione n e sia
B = (u1, u2, u3, …, un-1, un) una sua base. Sia ΩB la coordinatizzazione di VR rispetto a B.
n n
Siano a1, a2, a3, …, ap-1, ap∈R . Poiché ΩB è biettiva, per ogni n-upla a∈R esiste un unico vettore
v∈VR tale che ΩB(v) = a. Siano v1, v2, v3, …, vp-1, vp i vettori di VR tali che
56
10.25. Teorema. Sia VR uno spazio vettoriale reale finitamente generato di dimensione n e sia
B = (u1, u2, u3, …, un-1, un) una sua base. Sia ΩB la coordinatizzazione di VR rispetto a B.
Se i vettori v1, v2, v3, …, vp-1, vp sono generatori dello spazio VR, allora le loro immagini ΩB(v1),
n
ΩB(v2), ΩB(v3), …, ΩB(vp-1), ΩB(vp) sono generatori dello spazio R .
n
Dimostrazione. Proviamo che ogni n-upla a∈R si può scrivere come combinazione lineare delle
n-uple ΩB(v2), ΩB(v3), …, ΩB(vp-1), ΩB(vp).
n
Poiché ΩB è biettiva, per ogni n-upla a∈R esiste un unico vettore v∈VR tale che ΩB(v) = a.
Dato che v1, v2, v3, …, vp-1, vp sono generatori dello spazio VR il vettore v∈VR si può scrivere come
loro combinazione lineare. Sia v = α1v1+α2v2+α3v3+…+αp-1vp-1+αpvp . Si ha che
a = ΩB(v) = ΩB(α1v1+α2v2+α3v3+…+αp-1vp-1+αpvp) =
10.26. Teorema. Sia VR uno spazio vettoriale reale finitamente generato di dimensione n e sia
B = (u1, u2, u3, …, un-1, un) una sua base. Sia ΩB la coordinatizzazione di VR rispetto a B.
n n
Siano a1, a2, a3, …, ap-1, ap∈R . Poiché ΩB è biettiva, per ogni n-upla a∈R esiste un unico vettore
v∈VR tale che ΩB(v) = a. Siano v1, v2, v3, …, vp-1, vp i vettori di VR tali che
ΩB(v) = ΩB(α1v1+α2v2+α3v3+…+αp-1vp-1+αpvp)
v = α1v1+α2v2+α3v3+…+αp-1vp-1+αpvp
Quindi, v è combinazione lineare dei vettori v1, v2, v3, …, vp-1, vp .
57
11. Rango di una matrice.
Consideriamo una matrice di tipo m×n ad elementi reali rappresentata nel modo seguente:
Per ogni i = 1, 2, 3, …, (m-1), m, col simbolo Ai indicheremo la i-esima riga della matrice A.
j
Per ogni j = 1, 2, 3, …, (n-1), n, col simbolo A indicheremo la j-esima colonna della matrice A.
Osservando che ogni riga di A è una n-upla ordinata di numeri reali possiamo scrivere
n
A1, A2, A3, …, Am-1, Am∈R
e parleremo di vettore riga.
Osservando che ogni colonna di A è una m-upla ordinata di numeri reali possiamo scrivere
1 2 3 n-1 n m
A ,A ,A ,…,A ,A ∈R .
e parleremo di vettore colonna.
2 3 0
11.1. Esempio. A =
1 − 7 4
Le due righe di A sono le terne ordinate A1 = (2, 3, 0) e A1 = (1, –7, 4).
1 2 3
Le tre colonne di A sono le coppie ordinate A = (2, 1), A = (3, –7) e A = (0, 4).
3
Le righe di A sono vettori dello spazio R delle terne ordinate di numeri reali.
2
Le colonne di A sono vettori dello spazio R delle coppie ordinate di numeri reali.
1 1 0
11.2. Esempio. A = 0 5 1 .
3 23 4
Le tre righe di A sono le terne ordinate A1 = (1, 1, 0), A2 = (0, 5, 1) e A3 = (3, 23, 4).
1 2 3
Le tre colonne di A sono le terne ordinate A = (1, 0, 3), A = (1, 5, 23) e A = (0, 1, 4).
3
Sia le righe che le colonne di A sono vettori dello spazio R delle terne ordinate di numeri reali.
58
Ricordiamo che col simbolo M(m, n, R) indichiamo l’insieme (spazio vettoriale) contenente tutte e
sole le matrici di tipo m×n ad elementi reali.
n
11.3. Definizione. Sia A∈M(m, n, R). Siccome le righe di A sono vettori dello spazio R possiamo
considerare il sottospazio <A1, A2, A3,…, Am-1, Am> da essi generato. Tale sottospazio viene detto
spazio delle righe della matrice A e indicato col simbolo RA. Quindi,
m
11.4. Definizione. Sia A∈M(m, n, R). Siccome le colonne di A sono vettori dello spazio R
1 2 3 n-1 n
possiamo considerare il sottospazio <A , A , A , …, A , A > da essi generato. Tale sottospazio
viene detto spazio delle colonne della matrice A e indicato col simbolo CA. Quindi,
1 2 3 n-1 n
CA = <A , A , A , …, A , A >
2 3 0
11.5. Esempio. A = .
1 − 7 17
3
• Lo spazio RA delle righe di A è il sottospazio di R generato dalle terne
A1 = (2, 3, 0) e A2 = (1, -7, 17). Cioè, RA = <(2, 3, 0), (1, -7, 17)>.
2
• Lo spazio CA delle righe di A è il sottospazio di R generato dalle coppie
1 2 3
A = (2, 1), A = (3, -7) e A = (0, 17). Cioè, CA = <(2, 1), (3, -7), (0, 17)>.
• Si noti che gli spazi RA e CA sono sottospazi di spazi diversi.
Quindi, non ha senso chiedersi se essi siano uguali.
• Osservando che nessuna delle due terne (2, 3, 0) e (1, -7, 17) è multipla dell’altra (cioè non sono
proporzionali) si ha che esse sono linearmente indipendenti. Poiché sono anche generatori di RA
abbiamo provato che B = ((2, 3, 0), (1, -7, 17)) è una base dello spazio RA .Quindi, dimRA = 2.
3
• Si noti che la coppia A = (0, 17) si può scrivere come combinazione lineare delle altre due
1 2
A = (2, 1), A = (3, -7). Infatti, 3(2, 1) + (-2)(3, -7) = (0, 17). Quindi, (0, 17)∈<(2, 1), (3, -7)> e
<(2, 1), (3, -7)> = <(2, 1), (3, -7), (0, 17)> = CA
Per cui le due coppie (2, 1) e (3, -7) sono sufficienti per generare lo spazio delle colonne.
Osservando che nessuna delle due coppie (2, 1) e (3, -7) è multipla dell’altra (cioè non sono
proporzionali) si ha che quelle due coppie sono anche linearmente indipendenti. Abbiamo provato
che B’ = ((2, 1), (3, -7)) è una base dello spazio CA . Quindi, dimCA = 2.
59
1 1 0
11.6. Esempio. A = 0 5 1 .
3 23 4
3
• Lo spazio RA delle righe di A è il sottospazio di R generato dalle terne
A1 = (1, 1, 0), A2 = (0, 5, 1) e A3 = (3, 23, 4). Cioè, RA = <(1, 1, 0), (0, 5, 1), (3, 23, 4)>.
3
• Lo spazio CA delle righe di A è il sottospazio di R generato dalle terne
1 2 3
A = (1, 0, 3), A = (1, 5, 23) e A = (0, 1, 4). Cioè, CA = <(1, 0, 3), (1, 5, 23), (0, 1, 4)>.
• In questo caso lo spazio RA delle righe e lo spazio CA delle colonne di A sono sottospazi dello
3
stesso spazio R . Quindi, ha senso chiedersi se essi siano uguali.
• Si noti che la terna A3 = (3, 23, 4) si può scrivere come combinazione lineare delle altre due
A1 = (1, 1, 0) e A2 = (0, 5, 1). Infatti, 3(1, 1, 0) + 4(0, 5, 1) = (3, 23, 4).
Quindi, (3, 23, 4)∈<(1, 1, 0), (0, 5, 1)> e
<(1, 1, 0), (0, 5, 1)> = <(1, 1, 0), (0, 5, 1), (3, 23, 4)> = RA
Per cui le due terne (1, 1, 0), (0, 5, 1) sono sufficienti per generare lo spazio delle righe.
Inoltre, osservando che nessuna delle due terne è multipla dell’altra (cioè non sono proporzionali) si
ha che quelle due terne sono anche linearmente indipendenti. Abbiamo provato che B = ((1, 1, 0),
(0, 5, 1)) è una base dello spazio RA delle righe di A. Quindi, dimRA = 2.
2
• Si noti che la terna A = (1, 5, 23) si può scrivere come combinazione lineare delle altre due
1 3
A = (1, 0, 3) e A = (0, 1, 4). Infatti, 1(1, 0, 3) + 5(0, 1, 4) = (1, 5, 23).
60
• La terna (1, 5, 23), che ovviamente appartiene allo spazio CA delle colonne di A (è la seconda riga
di A) non appartiene allo spazio RA delle righe di A. Infatti, non è possibile ottenere la terna
(1, 5, 23) come combinazione lineare degli elementi della base B dello spazio RA.
(1, 5, 23)∈ RA ⇔ ∃α,β∈R : α(1, 1, 0) + β(0, 5, 1) = (1, 5, 23) ⇔
⇔ ∃α,β∈R : (α, α+5β, β) = (1, 5, 23) ⇔ ∃α,β∈R : α = 1 et β = 23 et α+5β = 5 ⇔
⇔ 1 + 105 = 5 ⇔ 106 = 5 (assurdo)
• La terna (19, –16, –7) appartiene sia allo spazio RA che allo spazio CA infatti
(19, –16, –7) = 19(1, 1, 0) + (–7)(0, 5, 1) et (19, –16, –7) = 19(1, 0, 3) + (–16)(0, 1, 4)
• Ne concludiamo che i sottospazi RA e CA hanno intersezione non vuota ma nessuno dei due è
sottospazio dell’altro. In particolare, si ha che i sottospazi RA e CA sono diversi.
11.8. Osservazione. In ognuno dei due precedenti esempi abbiamo visto che dimRA = dimCA.
11.9. Teorema. Lo spazio RA delle righe e lo spazio CA delle colonne di una matrice A hanno la
stessa dimensione.
11.10. Definizione. Diremo rango di una matrice A, e lo indicheremo col simbolo rg(A), la
dimensione del suo spazio delle righe oppure la dimensione del suo spazio delle colonne.
11.11. Osservazione. Se A∈M(m, n, R) allora 0 ≤ rg(A) ≤ min{m, n}. Inoltre, rg(A) = 0 se e solo
se A è la matrice nulla (tutti i suoi elementi sono uguali a zero). Infatti, la matrice nulla ha tutte le
righe uguali al vettore nullo. Quindi, RA = <0> = {0} e dimRA = dim{0} = 0.
61
11.12. Definizione. Diremo che A∈M(m, n, R) è una matrice a scalini se verifica le proprietà:
(SCAL1) Se una riga di A è la riga nulla (cioè i suoi elementi sono tutti zeri) allora sotto di essa ci
possono essere solo righe nulle.
(SCAL2) Se Ai = (ai1, ai2, ai3, ai4, …, ai(n-2), ai(n-1), ain, ) è una riga non nulla e j è il minimo indice di
colonna per cui è aij ≠ 0 (cioè h < j ⇒ aij = 0) allora a(i+1),k = 0 per ogni k ≤ j.
2 3 0
11.13. Esempio. La matrice A = non è a scalini. Infatti, poiché la prima riga non è
− 1 − 7 4
nulla e a11 = 2 ≠ 0 si ha che j = 1 è il minimo indice di colonna per cui a1j ≠ 0. Per soddisfare la
proprietà (SCAL2) dovrebbe essere a2,k = 0 per ogni k ≤ j = 1 cioè a21 = 0. Ma a21 = –1 ≠ 0.
2 3 0
11.14. Esempio. La matrice A = è a scalini. Perché?
0 0 0
0 0 1
11.15. Esempio. La matrice A = non è a scalini. Perché?
0 0 1
0 1 1
11.16. Esempio. La matrice A = è a scalini. Perché?
0 0 0
0 0 0
11.17. Esempio. La matrice A = è a scalini. Perché?
0 0 0
4 5 1
11.18. Esempio. La matrice A = 0 − 3 1 è a scalini. Perché?
0 0 − 2
4 5 1
11.19. Esempio. La matrice A = 0 0 1 non è a scalini. Perché?
0 0 − 2
4 5 1
11.20. Esempio. La matrice A = 0 0 1 è a scalini. Perché?
0 0 0
62
11.21. Osservazione. Sia A una matrice a scalino.
Se Ax è una riga non nulla di A, allora con il simbolo jx indicheremo l’indice di colonna del primo
elemento non nullo di tale riga, cioè si ha che axj ≠ 0 e per ogni j ≤ jx che axj = 0.
x
11.21.1. Se la i-esima riga Ai con i ≥ 2 è non nulla, allora sono non nulle anche tutte le (i–1) righe al
11.21.2. Se Ai e Ai+1 sono due righe non nulle di A, allora si ha che j(i+1) ≥ ji + 1.
11.21.3. Se Ai e Ai+s sono due righe non nulle di A, allora si ha che j(i+s) ≥ ji + s.
11.21.5. Se Ak è una riga non nulla di A allora per ogni h ≥ (k+1) e per ogni j ≤ jk si ha che ahj= 0.
11.21.6. Se Ak è una riga non nulla di A allora per ogni h ≥ (k+1) si ha che ahj = 0.
k
Dimostrazione.
11.21.1. Immediata conseguenza di (SCAL1).
11.21.2. Immediata conseguenza di (SCAL2).
11.21.3. Se s = 1 la tesi è vera per la 11.2.2. Supponiamo che la tesi sia vera per (s – 1), cioè che sia
j(i+s-1) ≥ ji + (s – 1). Proviamo la tesi per s. Applicando la 11.2.2. abbiamo che
Se h ≥ 2, allora tutte le (h–1) righe al di sopra di A sono non nulle. Applicando la 11.2.3. alla prima
riga A1 e alla riga Ah abbiamo che s = (h–1) e jh ≥ j1 + s ≥ 1 + (h–1) = h.
Se esistessero j ≤ jk e h ≥ (k+1) tale che ahj ≠ 0 allora il primo elemento non nullo della h-esima
riga avrebbe indice di colonna jh ≤ j, da cui jh ≤ jk. Essendo ciò assurdo, si ha la tesi.
11.21.6. Caso particolare di 11.21.5 con j = jk
63
0 2 3 0 −1 5 5 57
0 0 −1 5 4 0 0 −2 1
0 0 0 0 7 0 −3 4 6
11.22. Esempio. 0 0 0 0 0 0 0 8 0
0 0 0 0 0 0 0 0 11
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
a12 = 2 ≠ 0 è il primo elemento non nullo della prima riga, 1 < 2.
Tutti gli elementi al di sotto di a12 sono nulli.
a59 =11 ≠ 0 è il primo elemento non nullo della quinta riga, 5 < 9.
Tutti gli elementi al di sotto di a59 sono nulli.
Si osservi che, negli ultimi tre casi è j > (i+1).
64
11.23. Teorema. Il rango di una matrice a scalini è uguale al numero delle sue righe non nulle.
Dimostrazione. Se A è una matrice nulla, allora il suo rango è zero che è proprio uguale al numero
delle sue righe non nulle. Ora, sia A una matrice non nulla a scalini di tipo m×n.
Sia r≤m il numero di righe non nulle di A.
s1 s2 s3 s4 ……… s(n-1) sn
Consideriamo una combinazione lineare delle r righe non nulle di A a coefficienti
α1 , α2 , α3 , α4 , … ,α(r-1) , αr
α1(a11 , a12 , a13 , a14 , … , a1(n-1) , a1n) + α2(a21 , a22 , a23 , a24 , … , a2(n-1) , a2n) +
+ α3(a31 , a32 , a33 , a34 , … , a3(n-1) , a3n) + α4(a41 , a42 , a43 , a44 , … , a4(n-1) , a4n) +
65
Sia a1j ≠ 0 il primo elemento non nullo della prima riga; quindi ahj = 0 per ogni h ≥ 2.
1 1
Sia a2j ≠ 0 il primo elemento non nullo della seconda riga; quindi j2 > j1 e ahj = 0 per ogni h ≥ 3.
2 2
Sia a3j3 ≠ 0 il primo elemento non nullo della terza riga; quindi j3 > j2 e ahj3= 0 per ogni h ≥ 4.
Sia a4j ≠ 0 il primo elemento non nullo della quarta riga; quindi j4 > j3 e ahj = 0 per ogni h ≥ 5.
4 4
……………………………………………………
Sia a(r-1)j ≠ 0 il primo elemento non nullo della (r–1)-esima riga; quindi ahj = 0 per ogni h≥r.
(r-1) (r-1)
Sia arj ≠ 0 il primo elemento non nullo della r-esima riga; quindi jr > j(r-1) e ahj = 0 per ogni h>r.
r r
……………………………………………………
Poiché ahj = 0 per ogni h≥r si ha
(r-1)
……………………………………………………
0 = sj = α1a1j + α2a2j + α3a3j + α4a4j + … + α(r-1)a(r-1)j ⇒
(r-1) (r-1) (r-1) (r-1) (r-1) (r-1)
Quindi, le r righe non nulle di A sono linearmente indipendenti. Ovviamente, tali r righe sono anche
generatori dello spazio delle righe. Per cui esse sono una base per lo spazio delle righe che ha,
quindi, dimensione r. Per cui il rango di A è uguale al numero r delle sue righe non nulle.
66
11.24. Esempio. Si consideri la seguente matrice di tipo 7×9 a scalini avente le ultime due righe
nulle. Proviamo che il suo rango è uguale al numero delle sue righe non nulle, cioè (7–2) = 5. Per
far ciò, consideriamo una combinazione lineare delle sue righe con coefficienti α1 , α2 , α3 , α4 , α5
α1 0 2 3 0 −1 5 5 5 7
α 2 0 0 −1 5 4 0 0 −2 1
α 3 0 0 0 0 7 0 −3 4 6
α 4 0 0 0 0 0 0 0 8 0
α 5 0 0 0 0 0 0 0 0 11
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
s1 s2 s3 s4 s5 s 6 s 7 s8 s 9
Poiché a12 = 2 ≠ 0 è il primo elemento non nullo della prima riga, si ha che j1 = 2.
Poiché a23 = –1 ≠ 0 è il primo elemento non nullo della seconda riga, si ha che j2 = 3.
Poiché a35 = 7 ≠ 0 è il primo elemento non nullo della terza riga, si ha che j3 = 5.
Poiché a48 =5 ≠ 0 è il primo elemento non nullo della quarta riga, si ha che j4 = 8.
Poiché a59 =11 ≠ 0 è il primo elemento non nullo della quinta riga, si ha che j5 = 9.
s2 = 2α1 = 0 ⇒ α1 = 0
67
11.25. Teorema. Sia A una matrice non nulla di tipo m×n.
Le righe A1 , A2 , A3 , A4 , …, A(m-1) e Am , sono un insieme di generatori dello spazio RA.
Tramite un numero finito di opportune operazioni elementari applicate alle righe di A è sempre
possibile trovare m nuovi generatori B1 , B2 , B3 , B4 , …, B(m-1) e Bm di RA tali che la matrice B
avente proprio tali generatori come righe è una matrice di tipo m×n a scalino.
Ovviamente, RA = RB e, quindi, rg(A) = rg(B) = numero di righe non nulle di B.
Dimostrazione. Si segua il seguente algoritmo
(1) j := 0 et k := 0 et I := {1, 2, 3, 4, …, (m–1), m} (parametri iniziali)
(2) incrementa di 1 il parametro j; quindi, j := j + 1
(3) se j = (n + 1) allora STOP
(4) Se per ogni i∈I è aij = 0 allora torna al punto (2).
(5) A questo punto esiste almeno un i∈I tale che aij ≠ 0 (la matrice A è non nulla).
(6) incrementa di 1 il parametro k; quindi, k := k + 1
(7) se k = m allora STOP
(8) scambia la i-esima riga con la k-esima riga; dopo questo scambio si ha che akj ≠ 0
Si noti che akj è il primo elemento non nullo della k-esima riga.
Dopo questa sostituzione si ha che per ogni h∈I (cioè h > k) si ha che ahj = 0,
cioè sono nulli tutti gli elementi al di sotto del primo elemento non nullo della k-esima riga.
(11) torna al punto (2)
E’ evidente che l’algoritmo termina dopo un numero finito di passi.
Per il punto (8), le eventuali righe nulle si trovano dopo le righe non nulle. Quindi, la matrice
soddisfa la proprietà (SCAL1).
Inoltre, se akj ≠ 0 è il primo elemento non nullo della k-esima riga, allora si ha che:
68
11.26. Esempio. Calcolare il rango della matrice
0 0 0 0 0 0
0 0 0
0 0 −1 5 4 0 0 −2 1
0 0 2 − 10 − 1 0 − 3 8 4
0 0 0 0 0 0 0 0 0
0 0 0 0 0 3 1 9 11
0 0 0 0 0 3 0 8 0
0 0 0 0 0 − 6 − 1 − 17 − 11
Siccome le prime 2 colonne sono nulle il punto (4) ci rimanda al punto (2) fino a che j = 3 ≤ 9 = n.
Al punto (5) abbiamo che esistono due elementi a23 = –1 e a33 = 2 non nulli.
Scegliamo a23 e, quindi, è i = 2.
Al punto (6) abbiamo che k = 1 < 7 = m
Al punto (8) scambiamo la seconda (i-esima) riga con la prima (k-esima) riga e otteniamo
0 0 −1 5 4 0 1 0 −2
0 0 0 0 0 0 0 0 0
0 0 2 − 10 − 1 0 − 3 8 4
0 0 0 0 0 0 0 0 0
0 0 0 0 0 3 1 9 11
0 0 0 0 0 3 0 8 0
0 0 0 0 0 − 6 − 1 − 17 − 11
Al punto (9) ora è I = {2,3,4,5,6,7}.
Al punto (10), poiché a33 = 2 ≠ 0 sostituiamo la terza riga con A3 + 2A1 e otteniamo
0 0 −1 5 4 0 0 1 −2
0 0 0 0 0 0 0 0 0
0 0 0 0 7 0 −3 4 6
0 0 0 0 0 0 0 0 0
0 0 0 0 0 3 1 9 11
0 0 0 0 0 3 0 8 0
0 0 0 0 0 − 6 − 1 − 17 − 11
Tornati al punto (2) abbiamo j = 4 ≤ 9 = n.
Il punto (4) ci rimanda al punto (2) poiché per ogni i∈I = {2,3,4,5,6,7} è ai4 = 0.
Quindi, ora è j = 5 ≤ 9 = n.
69
Al punto (5) abbiamo solo l’elemento a35 = 7 ≠ 0. Quindi, i = 3.
Al punto (6) abbiamo che k = 2 < 7 = m
Al punto (8) scambiamo la terza (i-esima) riga con la seconda (k-esima) riga e otteniamo
0 0 −1 5 4 0 0 −2
1
0 0 0 0 7 0 −3 4 6
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
0 0 0 0 0 3 1 9 11
0 0 0 0 0 3 0 8 0
0 0 0 0 0 − 6 − 1 − 17 − 11
Al punto (9) ora è I = {3,4,5,6,7}.
Al punto (10) non accade nulla poiché tutti gli elementi sotto a25 = 7 sono già nulli.
0 0 −1 5 4 0 0 −2
1
0 0 0 0 7 0 −3 4 6
0 0 0 0 0 3 0 8 0
0 0 0 0 0 0 0 0 0
0 0 0 0 0 3 1 9 11
0 0 0 0 0 0 0 0 0
0 0 0 0 0 − 6 − 1 − 17 − 11
Al punto (9) ora è I = {4,5,6,7}.
Al punto (10), poiché
• a56 = 3 ≠ 0 sostituisco la quinta riga con A5 + (–1)A3
70
0 0 −1 5 4 0 0 −2 1
0 0 0 0 7 0 −3 4 6
0 0 0 0 0 3 0 8 0
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 1 1 11
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 −1 − 1 − 11
Tornati al punto (2) abbiamo j = 7 ≤ 9 = n.
Al punto (5) abbiamo due elementi a57 = 1 ≠ 0 e a77 = –1 non nulli. Scegliamo a57 e, quindi, i = 5.
Al punto (6) abbiamo che k = 4 < 7 = m
Al punto (8) scambiamo la quinta (i-esima) riga con la quarta (k-esima) riga e otteniamo
0 0 −1 5 4 0 0 −2 1
0 0 0 0 7 0 −3 4 6
0 0 0 0 0 3 0 8 0
0 0 0 0 0 0 1 1 11
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 −1 − 1 − 11
Al punto (9) ora è I = {5,6,7}.
Al punto (10), poiché a77 = –1 ≠ 0 sostituisco la settima riga con A7 + (–1)A4 e otteniamo
0 0 −1 5 4 0 0 −2 1
0 0 0 0 7 0 −3 4 6
0 0 0 0 0 3 0 8 0
0 0 0 0 0 0 1 1 11
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
Tornati al punto (2) abbiamo j = 8 ≤ 9 = n.
Il punto (4) ci rimanda al punto (2) poiché per ogni i∈I = {5,6,7} è ai8 = 0.
Quindi, ora è j = 9 ≤ 9 = n. Il punto (4) ci rimanda al punto (2) poiché per ogni i∈I è ai9 = 0.
Quindi, ora è j = 10 = (n + 1). Per il punto (3) l’algoritmo si ferma.
La matrice ottenuta è a scalini e il suo rango è 4. Quindi, anche la matrice iniziale ha rango 4.
71
11.27. Esempio. Calcolare il rango della matrice
2 −1 0
3 0 1
1 1 1
− 2 1 0
Al punto (4) è j = 1 ≤ 3 = n, poiché la prima colonna ha almeno un elemento non nullo.
Al punto (5) scegliamo l’elemento non nullo a31 = 1 della prima colonna, quindi i = 3.
Al punto (6) abbiamo k = 1 < 4 = m
Al punto (8) scambiamo la terza (i-esima) riga con la prima (k-esima) riga e otteniamo
1 1 1
3 0 1
2 −1 0
− 2 1 0
Al punto (9) ora è I = {2,3,4}.
Al punto (10), poiché:
• a21 = 3 ≠ 0 sostituisco la seconda riga con A2 + (–3)A1 = (0, –3, –2)
1 1 1
0 − 3 − 2
0 − 3 − 2
0 3 2
Tornati al punto (2) abbiamo j = 2 ≤ 3 = n.
Al punto (5) scegliamo l’elemento non nullo a22 = –3 della seconda colonna, quindi i = 2.
Al punto (6) abbiamo k = 2 < 4 = m
Al punto (8) non effettuiamo alcun scambio poiché i = 2 = k.
Al punto (9) ora è I = {3,4}.
Al punto (10), poiché:
• a32 = –3 ≠ 0 sostituisco la terza riga con A3 + (–1)A2 = (0, 0)
72
1 1 1
0 − 3 − 2
0 0 0
0 0 0
Tornati al punto (2) abbiamo j = 3 ≤ 3 = n.
Il punto (4) ci rimanda al punto (2) poiché per ogni i∈I = {3,4} è ai3 = 0.
Quindi, ora è j = 4 = (n + 1). Per il punto (3) l’algoritmo si ferma.
La matrice ottenuta è a scalini e il suo rango è 2. Quindi, anche la matrice iniziale ha rango 2.
2 3 0 1
1 2 −1 0
− 2 0 0 − 1
Al punto (4) è j = 1 ≤ 4 = n, poiché la prima colonna ha almeno un elemento non nullo.
Al punto (5) scegliamo l’elemento non nullo a21 = 1 della prima colonna, quindi i = 2.
Al punto (6) abbiamo k = 1 < 3 = m
Al punto (8) scambiamo la seconda (i-esima) riga con la prima (k-esima) riga e otteniamo
1 2 −1 0
2 3 0 1
− 2 0 0 − 1
Al punto (9) ora è I = {2,3}.
Al punto (10), poiché:
• a21 = 2 ≠ 0 sostituisco la seconda riga con A2 + (–2)A1 = (0, –1, 2, 1)
1 2 − 1 0
0 − 1 2 1
0 4 − 2 − 1
Tornati al punto (2) abbiamo j = 2 ≤ 4 = n.
Al punto (5) scegliamo l’elemento non nullo a22 = –1 della seconda colonna, quindi i = 2.
Al punto (6) abbiamo k = 2 < 3 = m
Al punto (8) non effettuiamo alcun scambio poiché i = 2 = k.
73
Al punto (9) ora è I = {3}.
Al punto (10), poiché a32 = 4 ≠ 0 sostituisco la terza riga con A3 + 4A2 = (0, 0, 6, 3)
Otteniamo
1 2 − 1 0
0 − 1 2 1
0 0 6 3
Tornati al punto (2) abbiamo j = 3 ≤ 4 = n.
Al punto (5) abbiamo solo 3∈I = {3} tale che a3j = a33 = 6 ≠ 0. Quindi, è i = 3.
Al punto (6) abbiamo k = 3 = m. Per il punto (3) l’algoritmo si ferma.
La matrice ottenuta è a scalini e il suo rango è 3. Quindi, anche la matrice iniziale ha rango 3.
74
11.21. Osservazione. Sia A una matrice a scalino.
Se Ax è una riga non nulla di A, allora con il simbolo jx indicheremo l’indice di colonna del primo
elemento non nullo di tale riga, cioè si ha che axj ≠ 0 e per ogni j ≤ jx che axj = 0.
x
11.21.1. Se la i-esima riga Ai con i ≥ 2 è non nulla, allora sono non nulle anche tutte le (i–1) righe al
11.21.2. Se Ai e Ai+1 sono due righe non nulle di A, allora si ha che j(i+1) ≥ ji + 1.
11.21.3. Se Ai e Ai+s sono due righe non nulle di A, allora si ha che j(i+s) ≥ ji + s.
11.21.5. Se Ak è una riga non nulla di A allora per ogni h ≥ (k+1) e per ogni j ≤ jk si ha che ahj= 0.
11.21.6. Se Ak è una riga non nulla di A allora per ogni h ≥ (k+1) si ha che ahj = 0.
k
Dimostrazione.
11.21.1. Immediata conseguenza di (SCAL1).
11.21.2. Immediata conseguenza di (SCAL2).
11.21.3. Se s = 1 la tesi è vera per la 11.2.2. Supponiamo che la tesi sia vera per (s – 1), cioè che sia
j(i+s-1) ≥ ji + (s – 1). Proviamo la tesi per s. Applicando la 11.2.2. abbiamo che
Se h ≥ 2, allora tutte le (h–1) righe al di sopra di A sono non nulle. Applicando la 11.2.3. alla prima
riga A1 e alla riga Ah abbiamo che s = (h–1) e jh ≥ j1 + s ≥ 1 + (h–1) = h.
Se esistessero j ≤ jk e h ≥ (k+1) tale che ahj ≠ 0 allora il primo elemento non nullo della h-esima
riga avrebbe indice di colonna jh ≤ j, da cui jh ≤ jk. Essendo ciò assurdo, si ha la tesi.
11.21.6. Caso particolare di 11.21.5 con j = jk
75
0 2 3 0 −1 5 5 57
0 0 −1 5 4 0 0 −2 1
0 0 0 0 7 0 −3 4 6
11.22. Esempio. 0 0 0 0 0 0 0 8 0
0 0 0 0 0 0 0 0 11
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
a12 = 2 ≠ 0 è il primo elemento non nullo della prima riga, 1 < 2.
Tutti gli elementi al di sotto di a12 sono nulli.
a59 =11 ≠ 0 è il primo elemento non nullo della quinta riga, 5 < 9.
Tutti gli elementi al di sotto di a59 sono nulli.
Si osservi che, negli ultimi tre casi è j > (i+1).
76
11.23. Teorema. Il rango di una matrice a scalini è uguale al numero delle sue righe non nulle.
Dimostrazione. Se A è una matrice nulla, allora il suo rango è zero che è proprio uguale al numero
delle sue righe non nulle. Ora, sia A una matrice non nulla a scalini di tipo m×n.
Sia r≤m il numero di righe non nulle di A.
s1 s2 s3 s4 ……… s(n-1) sn
Consideriamo una combinazione lineare delle r righe non nulle di A a coefficienti
α1 , α2 , α3 , α4 , … ,α(r-1) , αr
α1(a11 , a12 , a13 , a14 , … , a1(n-1) , a1n) + α2(a21 , a22 , a23 , a24 , … , a2(n-1) , a2n) +
+ α3(a31 , a32 , a33 , a34 , … , a3(n-1) , a3n) + α4(a41 , a42 , a43 , a44 , … , a4(n-1) , a4n) +
77
Sia a1j ≠ 0 il primo elemento non nullo della prima riga; quindi ahj = 0 per ogni h ≥ 2.
1 1
Sia a2j ≠ 0 il primo elemento non nullo della seconda riga; quindi j2 > j1 e ahj = 0 per ogni h ≥ 3.
2 2
Sia a3j3 ≠ 0 il primo elemento non nullo della terza riga; quindi j3 > j2 e ahj3= 0 per ogni h ≥ 4.
Sia a4j ≠ 0 il primo elemento non nullo della quarta riga; quindi j4 > j3 e ahj = 0 per ogni h ≥ 5.
4 4
……………………………………………………
Sia a(r-1)j ≠ 0 il primo elemento non nullo della (r–1)-esima riga; quindi ahj = 0 per ogni h≥r.
(r-1) (r-1)
Sia arj ≠ 0 il primo elemento non nullo della r-esima riga; quindi jr > j(r-1) e ahj = 0 per ogni h>r.
r r
……………………………………………………
Poiché ahj = 0 per ogni h≥r si ha
(r-1)
……………………………………………………
0 = sj = α1a1j + α2a2j + α3a3j + α4a4j + … + α(r-1)a(r-1)j ⇒
(r-1) (r-1) (r-1) (r-1) (r-1) (r-1)
Quindi, le r righe non nulle di A sono linearmente indipendenti. Ovviamente, tali r righe sono anche
generatori dello spazio delle righe. Per cui esse sono una base per lo spazio delle righe che ha,
quindi, dimensione r. Per cui il rango di A è uguale al numero r delle sue righe non nulle.
78
11.24. Esempio. Si consideri la seguente matrice di tipo 7×9 a scalini avente le ultime due righe
nulle. Proviamo che il suo rango è uguale al numero delle sue righe non nulle, cioè (7–2) = 5. Per
far ciò, consideriamo una combinazione lineare delle sue righe con coefficienti α1 , α2 , α3 , α4 , α5
α1 0 2 3 0 −1 5 5 7
5
α 2 0 0 −1 5 4 0 0 −2 1
α 3 0 0 0 0 7 0 −3 4 6
α 4 0 0 0 0 0 0 0 8 0
α 5 0 0 0 0 0 0 0 0 11
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑
s1 s2 s3 s4 s5 s6 s7 s8 s9
Poiché a12 = 2 ≠ 0 è il primo elemento non nullo della prima riga, si ha che j1 = 2.
Poiché a23 = –1 ≠ 0 è il primo elemento non nullo della seconda riga, si ha che j2 = 3.
Poiché a35 = 7 ≠ 0 è il primo elemento non nullo della terza riga, si ha che j3 = 5.
Poiché a48 =5 ≠ 0 è il primo elemento non nullo della quarta riga, si ha che j4 = 8.
Poiché a59 =11 ≠ 0 è il primo elemento non nullo della quinta riga, si ha che j5 = 9.
s2 = 2α1 = 0 ⇒ α1 = 0
79
11.25. Teorema. Sia A una matrice non nulla di tipo m×n.
Le righe A1 , A2 , A3 , A4 , …, A(m-1) e Am , sono un insieme di generatori dello spazio RA.
Tramite un numero finito di opportune operazioni elementari applicate alle righe di A è sempre
possibile trovare m nuovi generatori B1 , B2 , B3 , B4 , …, B(m-1) e Bm di RA tali che la matrice B
avente proprio tali generatori come righe è una matrice di tipo m×n a scalino.
Ovviamente, RA = RB e, quindi, rg(A) = rg(B) = numero di righe non nulle di B.
Dimostrazione. Si segua il seguente algoritmo
(1) j := 0 et k := 0 et I := {1, 2, 3, 4, …, (m–1), m} (parametri iniziali)
(2) incrementa di 1 il parametro j; quindi, j := j + 1
(3) se j = (n + 1) allora STOP
(4) Se per ogni i∈I è aij = 0 allora torna al punto (2).
(5) A questo punto esiste almeno un i∈I tale che aij ≠ 0 (la matrice A è non nulla).
(6) incrementa di 1 il parametro k; quindi, k := k + 1
(7) se k = m allora STOP
(8) scambia la i-esima riga con la k-esima riga; dopo questo scambio si ha che akj ≠ 0
Si noti che akj è il primo elemento non nullo della k-esima riga.
Dopo questa sostituzione si ha che per ogni h∈I (cioè h > k) si ha che ahj = 0,
cioè sono nulli tutti gli elementi al di sotto del primo elemento non nullo della k-esima riga.
(11) torna al punto (2)
E’ evidente che l’algoritmo termina dopo un numero finito di passi.
Per il punto (8), le eventuali righe nulle si trovano dopo le righe non nulle. Quindi, la matrice
soddisfa la proprietà (SCAL1).
Inoltre, se akj ≠ 0 è il primo elemento non nullo della k-esima riga, allora si ha che:
80
11.26. Esempio. Calcolare il rango della matrice
0 0 0 0 0 0
0 0 0
0 0 −1 5 4 0 0 −2 1
0 0 2 − 10 − 1 0 − 3 8 4
0 0 0 0 0 0 0 0 0
0 0 0 0 0 3 1 9 11
0 0 0 0 0 3 0 8 0
0 0 0 0 0 − 6 − 1 − 17 − 11
Siccome le prime 2 colonne sono nulle il punto (4) ci rimanda al punto (2) fino a che j = 3 ≤ 9 = n.
Al punto (5) abbiamo che esistono due elementi a23 = –1 e a33 = 2 non nulli.
Scegliamo a23 e, quindi, è i = 2.
Al punto (6) abbiamo che k = 1 < 7 = m
Al punto (8) scambiamo la seconda (i-esima) riga con la prima (k-esima) riga e otteniamo
0 0 −1 5 4 0 1 0 −2
0 0 0 0 0 0 0 0 0
0 0 2 − 10 − 1 0 − 3 8 4
0 0 0 0 0 0 0 0 0
0 0 0 0 0 3 1 9 11
0 0 0 0 0 3 0 8 0
0 0 0 0 0 − 6 − 1 − 17 − 11
Al punto (9) ora è I = {2,3,4,5,6,7}.
Al punto (10), poiché a33 = 2 ≠ 0 sostituiamo la terza riga con A3 + 2A1 e otteniamo
0 0 −1 5 4 0 0 1 −2
0 0 0 0 0 0 0 0 0
0 0 0 0 7 0 −3 4 6
0 0 0 0 0 0 0 0 0
0 0 0 0 0 3 1 9 11
0 0 0 0 0 3 0 8 0
0 0 0 0 0 − 6 − 1 − 17 − 11
Tornati al punto (2) abbiamo j = 4 ≤ 9 = n.
Il punto (4) ci rimanda al punto (2) poiché per ogni i∈I = {2,3,4,5,6,7} è ai4 = 0.
Quindi, ora è j = 5 ≤ 9 = n.
81
Al punto (5) abbiamo solo l’elemento a35 = 7 ≠ 0. Quindi, i = 3.
Al punto (6) abbiamo che k = 2 < 7 = m
Al punto (8) scambiamo la terza (i-esima) riga con la seconda (k-esima) riga e otteniamo
0 0 −1 5 4 0 0 −2
1
0 0 0 0 7 0 −3 4 6
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
0 0 0 0 0 3 1 9 11
0 0 0 0 0 3 0 8 0
0 0 0 0 0 − 6 − 1 − 17 − 11
Al punto (9) ora è I = {3,4,5,6,7}.
Al punto (10) non accade nulla poiché tutti gli elementi sotto a25 = 7 sono già nulli.
0 0 −1 5 4 0 0 −2
1
0 0 0 0 7 0 −3 4 6
0 0 0 0 0 3 0 8 0
0 0 0 0 0 0 0 0 0
0 0 0 0 0 3 1 9 11
0 0 0 0 0 0 0 0 0
0 0 0 0 0 − 6 − 1 − 17 − 11
Al punto (9) ora è I = {4,5,6,7}.
Al punto (10), poiché
• a56 = 3 ≠ 0 sostituisco la quinta riga con A5 + (–1)A3
82
0 0 −1 5 4 0 0 −2 1
0 0 0 0 7 0 −3 4 6
0 0 0 0 0 3 0 8 0
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 1 1 11
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 −1 − 1 − 11
Tornati al punto (2) abbiamo j = 7 ≤ 9 = n.
Al punto (5) abbiamo due elementi a57 = 1 ≠ 0 e a77 = –1 non nulli. Scegliamo a57 e, quindi, i = 5.
Al punto (6) abbiamo che k = 4 < 7 = m
Al punto (8) scambiamo la quinta (i-esima) riga con la quarta (k-esima) riga e otteniamo
0 0 −1 5 4 0 0 −2 1
0 0 0 0 7 0 −3 4 6
0 0 0 0 0 3 0 8 0
0 0 0 0 0 0 1 1 11
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 −1 − 1 − 11
Al punto (9) ora è I = {5,6,7}.
Al punto (10), poiché a77 = –1 ≠ 0 sostituisco la settima riga con A7 + (–1)A4 e otteniamo
0 0 −1 5 4 0 0 −2 1
0 0 0 0 7 0 −3 4 6
0 0 0 0 0 3 0 8 0
0 0 0 0 0 0 1 1 11
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
Tornati al punto (2) abbiamo j = 8 ≤ 9 = n.
Il punto (4) ci rimanda al punto (2) poiché per ogni i∈I = {5,6,7} è ai8 = 0.
Quindi, ora è j = 9 ≤ 9 = n. Il punto (4) ci rimanda al punto (2) poiché per ogni i∈I è ai9 = 0.
Quindi, ora è j = 10 = (n + 1). Per il punto (3) l’algoritmo si ferma.
La matrice ottenuta è a scalini e il suo rango è 4. Quindi, anche la matrice iniziale ha rango 4.
83
11.27. Esempio. Calcolare il rango della matrice
2 −1 0
3 0 1
1 1 1
− 2 1 0
Al punto (4) è j = 1 ≤ 3 = n, poiché la prima colonna ha almeno un elemento non nullo.
Al punto (5) scegliamo l’elemento non nullo a31 = 1 della prima colonna, quindi i = 3.
Al punto (6) abbiamo k = 1 < 4 = m
Al punto (8) scambiamo la terza (i-esima) riga con la prima (k-esima) riga e otteniamo
1 1 1
3 0 1
2 −1 0
− 2 1 0
Al punto (9) ora è I = {2,3,4}.
Al punto (10), poiché:
• a21 = 3 ≠ 0 sostituisco la seconda riga con A2 + (–3)A1 = (0, –3, –2)
1 1 1
0 − 3 − 2
0 − 3 − 2
0 3 2
Tornati al punto (2) abbiamo j = 2 ≤ 3 = n.
Al punto (5) scegliamo l’elemento non nullo a22 = –3 della seconda colonna, quindi i = 2.
Al punto (6) abbiamo k = 2 < 4 = m
Al punto (8) non effettuiamo alcun scambio poiché i = 2 = k.
Al punto (9) ora è I = {3,4}.
Al punto (10), poiché:
• a32 = –3 ≠ 0 sostituisco la terza riga con A3 + (–1)A2 = (0, 0)
84
1 1 1
0 − 3 − 2
0 0 0
0 0 0
Tornati al punto (2) abbiamo j = 3 ≤ 3 = n.
Il punto (4) ci rimanda al punto (2) poiché per ogni i∈I = {3,4} è ai3 = 0.
Quindi, ora è j = 4 = (n + 1). Per il punto (3) l’algoritmo si ferma.
La matrice ottenuta è a scalini e il suo rango è 2. Quindi, anche la matrice iniziale ha rango 2.
2 3 0 1
1 2 −1 0
− 2 0 0 − 1
Al punto (4) è j = 1 ≤ 4 = n, poiché la prima colonna ha almeno un elemento non nullo.
Al punto (5) scegliamo l’elemento non nullo a21 = 1 della prima colonna, quindi i = 2.
Al punto (6) abbiamo k = 1 < 3 = m
Al punto (8) scambiamo la seconda (i-esima) riga con la prima (k-esima) riga e otteniamo
1 2 −1 0
2 3 0 1
− 2 0 0 − 1
Al punto (9) ora è I = {2,3}.
Al punto (10), poiché:
• a21 = 2 ≠ 0 sostituisco la seconda riga con A2 + (–2)A1 = (0, –1, 2, 1)
1 2 − 1 0
0 − 1 2 1
0 4 − 2 − 1
Tornati al punto (2) abbiamo j = 2 ≤ 4 = n.
Al punto (5) scegliamo l’elemento non nullo a22 = –1 della seconda colonna, quindi i = 2.
Al punto (6) abbiamo k = 2 < 3 = m
Al punto (8) non effettuiamo alcun scambio poiché i = 2 = k.
85
Al punto (9) ora è I = {3}.
Al punto (10), poiché a32 = 4 ≠ 0 sostituisco la terza riga con A3 + 4A2 = (0, 0, 6, 3)
Otteniamo
1 2 − 1 0
0 − 1 2 1
0 0 6 3
Tornati al punto (2) abbiamo j = 3 ≤ 4 = n.
Al punto (5) abbiamo solo 3∈I = {3} tale che a3j = a33 = 6 ≠ 0. Quindi, è i = 3.
Al punto (6) abbiamo k = 3 = m. Per il punto (3) l’algoritmo si ferma.
La matrice ottenuta è a scalini e il suo rango è 3. Quindi, anche la matrice iniziale ha rango 3.
86
12. Rango di una matrice: il caso delle matrici quadrate
Nel seguito A sarà una matrice ad elementi reali di tipo n×n rappresentata nel modo seguente:
12.3. Osservazione. Per ogni indice i di riga e ogni indice j di colonna si ha che:
• se i = j allora l’elemento aij di A si trova “sulla” diagonale principale;
a11
a 22
a 33
a 44
a 55
• se i > j allora l’elemento aij di A si trova “al di sotto” della diagonale principale;
a
21
a 31 a 32
a 41 a 42 a 43
a 51 a 52 a 53 a 54
• se i < j allora l’elemento aij di A si trova “al di sopra” della diagonale principale.
87
12.4. Definizione. Diremo che una matrice quadrata A è:
• triangolare superiore se sono nulli tutti gli elementi al di sotto della diagonale principale, cioè
0
i > j ⇒ aij = 0; 0 0
0 0 0
0 0 0 0
• triangolare inferiore se sono nulli tutti gli elementi al di sopra della diagonale principale, cioè
0 0 0 0
0 0 0
i < j ⇒ aij = 0; 0 0
0
• diagonale se sono nulli tutti gli elementi che non si trovano sulla diagonale principale, cioè
0 0 0 0
0 0 0 0
i ≠ j ⇒ aij = 0; 0 0 0 0
0 0 0 0
0 0 0 0
12.5. Osservazione. Una matrice quadrata A è diagonale se e solo se è sia triangolare superiore che
triangolare inferiore.
88
12.8. Osservazione. NON tutte le matrici triangolari superiori sono matrici a scalino.
12.9. Esempio. Si vede che delle seguenti quattro matrici triangolari superiori
0 1 −1 0
2
0 2 0 6 0
− 1 5 3 0 − 3 5 2 4 7
0 2 0 0 4 1 1
0 3
0 0 0 − 3 3
0 0 4 7
0 0 7 0 0 0 2 1
0 0 0 0
0 0 0 0 0
nessuna è una matrice a scalino.
Ricordiamo che nell’Osservazione 11.21 abbiamo stabilito di indicare col simbolo jx l’indice di
colonna del primo elemento non nullo della x-esima riga di una matrice a scalino A non nulla.
12.10. Definizione. Sia A una matrice quadrata di ordine n a scalino. Stabiliamo che:
• Sn := {s∈N 1 ≤ s ≤ n}
• JA := {jx∈Sn x è l’indice di colonna del primo elemento non nullo della x-esima riga di A}
12.12.2. le righe di A sono tutte non nulle se e solo se JA = n, ovvero se e solo se JA = Sn .
12.12.3. Le righe di A sono tutte non nulle se e solo se per ogni s∈Sn si ha che js = s.
89
12.13. Esempio. Consideriamo le seguenti matrici a scalino
0 1 − 1 2 0
9 2 0 6 0
− 1 5 3 0 0 0 4 7
0 0 0 1 1
A= B = 0 2 4 C= D = 0 0 0 0 3
0 0 0 0 0 7
0 0 7 0 0 0 0 0
0 0 0 0
0 0 0 0 0
12.14. Definizione. Diremo che A è una matrice quadrata di rango massimo se A è una matrice
quadrata avente rango uguale al suo ordine.
12.15. Osservazione. Una matrice quadrata a scalino ha rango massimo se e solo se tutte le sue
righe sono non nulle, ovvero se e solo se per ogni s∈Sn si ha che js = s.
12.16. Teorema. Una matrice quadrata a scalino ha rango massimo se e solo se tutti gli elementi
che si trovano sulla sua diagonale principale sono non nulli.
Dimostrazione. Se A è una matrice quadrata a scalino di rango massimo, allora (per l’Osservazione
12.15) per ogni s∈Sn si ha che js = s, ovvero per ogni s∈Sn si ha che l’elemento ass = asjs ≠ 0
(essendo il primo elemento non nullo della s-esima riga di A). Viceversa, sia A una matrice a
scalino avente tutti gli elementi della diagonale principale non nulli. Per l’Osservazione 12.6 la
matrice A è triangolare superiore. Quindi, per ogni s∈Sn l’elemento ass è il primo elemento non
nullo della s-esima riga, cioè per ogni s∈Sn si ha che js = s. Per cui A ha rango massimo.
12.17. Corollario. Una matrice quadrata a scalino ha rango massimo se e solo se è non nullo il
prodotto di tutti gli elementi che si trovano sulla sua diagonale principale.
90
12.18. Teorema. Sia VR uno spazio vettoriale reale di dimensione n.
Sia B = (u1, u2, u3, …, un-1, un) una base di VR.
Sia D = (v1, v2, v3, …, vn-1, vn) una n-upla ordinata di vettori di VR.
Per ogni s∈Sn sia as la n-upla di coordinate del vettore vs rispetto alla base B.
n
Cioè, se ΩB : VR → R è la coordinatizzazione di VR rispetto a B, allora per ogni s∈Sn è as= ΩB(vs).
Sia A la matrice avente come righe le n-uple a1, a2, a3, a4, …, an-1, an .
L’insieme D è una base di VR se e solo se la matrice A ha rango massimo.
Dimostrazione. Per il l’Osservazione 10.15.2 l’insieme D è una base di VR se e solo se gli n vettori
v1, v2, v3, …, vn-1, vn sono linearmente indipendenti. Per i Teoremi 10.23 e 10.24 gli n vettori
v1, v2, v3, …, vn-1, vn sono linearmente indipendenti se s solo se le n n-uple a1, a2, a3, a4, …, an-1, an
sono linearmente indipendenti, ovvero se e solo se le n righe di A sono linearmente indipendenti.
Quest’ultimo fatto accade se e solo se il rango di A è uguale a n, cioè è massimo.
Tenendo conto dei Teoremi 11.25, 12.16, 12.18 e del Corollario 12.17 si ha subito il seguente:
• Trovare dim(U).
• Posto r := dim(U), trovare una base B = (q1(x), …, qr(x)) di U.
• Trovare altri (6 – r) polinomi qr+1(x), …, q6(x) tali che ((q1(x), …, q6(x)) sia una base di R5[x].
91
La coordinatizzazione di R5[x] rispetto alla base canonica C = (x5 , x4 , x3 , x2 , x , 1 ) è la funzione
6
ΩB : R5[x] → R così definita: ΩB(ax5 + bx4 + cx3 + dx2 + ex + f) := (a, b, c, d, e, f)
Si ha che
ΩB(p1(x)) = ΩB(– x5 + x4 + 4x2+ x) = (– 1, 1, 0, 4, 1, 0) = a1
−1 1 0 4 1 0
2 0 0 − 11 − 2 4
Sia A la matrice avente a1, a2, a3, a4, a5 come righe, cioè A = − 3 7 0 0 5 12 .
4 0 0 2 − 12 − 8
− 5 7 0 23 3 0
− 1 1 0 4 1 0
0 2 0 − 3 0 4
Tramite operazioni elementari si trova la matrice A’ = 0 0 0 − 3 1 2 .
0 0 0 0 0 0
0 0 0 0 0 0
Si ha che lo spazio delle righe di A e di A’ coincidono. Quindi, dim(U) = rg(A) = rg(A’) = 3.
Le prime tre righe di A’ sono una base dello spazio delle righe di A’, quindi i polinomi
q1(x) = p1(x) = – x5 + x4 + 4x2+ x, q2(x) = 2x4 –3x2 + 4, q3(x) = –3x2 + x + 2 sono una base di U.
Tenendo conto del Corollario 12.19 possiamo prendere, a piacere, tre polinomi nel modo seguente:
q4(x) = a33x3 + a34x2 + a35x + a36, q5(x) = a55x + a56, q6(x) = a66,
− 1 1 0 4 1 0
0 2 0 −3 0 4
0 0 a 33 a 34 a 35 a 36
0 0 0 −3 1 2
0 0 0 0 a 55 a 56
0 0 0 0 0 a 66
92
13. Determinante di una matrice quadrata
13.1. Definizione. Dati i numeri reali x1, x2, x3, x4,…, x(n-2), x(n-1), xn col simbolo
n
∑ xi indicheremo la loro somma (x1 + x2 + x3 + x4 + … + x(n-2) + x(n-1) + xn). Quindi,
i =1
n
∑ xi := x1 + x2 + x3 + x4 + … + x(n-2) + x(n-1) + xn
i =1
13.2. Esempio.
n
• ∑ αyi = αy1 + αy2 + αy3 + αy4 + ….. + αy(n-2) + αy(n-1) + αyn
i =1
n
• ∑ (xi + yi ) = (x1 + y1 ) + (x2 + y2 ) + (x3 + y3 ) +…..+ (x(n-1) + y(n-1) ) + (xn + yn )
i =1
n
• ∑ xih = x1h + x2h + x3h + x4h + ….. + x(n-1),h + x(n-1),h + xnh
i =1
n
• ∑ (αyi + zih ) = (αy1 + z1h ) + (αy2 + z2h ) + (αy3 + z3h ) + ….. + (αy(n-1) + z(n-1),h ) + (αyn + znh )
i =1
n m m m m m m
• ∑ ( ∑ xhi ) = ( ∑ xh1 ) + ( ∑ xh2 ) + ( ∑ xh3 ) + ….. + ( ∑ xh,(n-1) ) + ( ∑ xhn )
i =1 h =1 h =1 h =1 h =1 h =1 h =1
n n n
(1) ∑ (xi + yi ) = ( ∑ xi ) + ( ∑ yi )
i =1 i =1 i =1
n n
(2) ∑ (αxi ) = α( ∑ xi )
i =1 i =1
n n n
(3) ∑ (αxi + βyi ) = α( ∑ xi ) + β( ∑ yi )
i =1 i =1 i =1
n m m n
(4) ∑ ( ∑ xhi ) = ∑ ( ∑ xhi )
i =1 h =1 h =1 i =1
93
Dimostrazione.
n
(0) ∑ xi = x1 + x2 + x3 + … + x(n-1) + xn = α + α + α + ….. + α + α = nα
i =1
n
(1) ∑ (xi + yi ) = (x1 + y1 ) + (x2 + y2 ) + (x3 + y3 ) +…..+ (x(n-1) + y(n-1) ) + (xn + yn ) =
i =1
[per le proprietà associativa e commutativa della somma]
n n
= (x1 + x2 + x3 + ….. + x(n-1) + xn) + (y1 + y2 + y3 + ..… + y(n-1) + xn) = ( ∑ xi ) + ( ∑ yi )
i =1 i =1
n
(2) ∑ (αxi ) = (αx1 ) + (αx2 ) + (αx3 ) + ….. + (αx(n-1) ) + (αxn ) =
i =1
[per le proprietà distributiva del prodotto rispetto alla somma]
n
= α(x1 + x2 + x3 + x4 + … + x(n-2) + x(n-1) + xn) = α( ∑ xi )
i =1
(3) Sia X la matrice di tipo m×n avente come elementi proprio i numeri reali xhi .
Per ogni indice di riga h∈{1, 2, 3, …, (m–1), m} indichiamo con rh il numero reale che si ottiene
sommando tutti gli elementi della h-esima riga. Quindi,
n
rh = xh1 + xh2 + xh3 + xh4 + … + xh,(n-2) + xh,(n-1) + xhn = ∑ xhi
i =1
Per ogni indice di colonna i∈{1, 2, 3, …, (n–1), n} indichiamo con si il numero reale che si ottiene
sommando tutti gli elementi della i-esima colonna. Quindi,
m
si = x1i + x2i + x3i + x4i + … + x(m-2),i + x(m-1),i + xmi = ∑ xhi
h =1
Se indichiamo con S la somma di tutti gli elementi della matrice X, è facile convincersi che
n m
∑ si = S = ∑ rh
i =1 h =1
n m n m m n
Quindi, ∑ ( ∑ xhi ) = ∑ si = S = ∑ rh = ∑ ( ∑ xhi ).
i =1 h =1 i =1 h =1 h =1 i =1
94
13.4. Definizione. Sia A una matrice quadrata di tipo m×n ad elementi reali. Se h < m e k < n con il
simbolo A{α1, α2, α3,…, αh},{β1, β2, β3,…, βk} indicheremo la matrice A’ di tipo (m–h)×(n–k) ottenuta
“cancellando” da A le righe di indici {α1, α2, α3, …, αh}, le colonne di indici {β1, β2, β3, …, βk} e
“eliminando gli spazi vuoti”. Diremo anche che A’ è una sottomatrice di A.
Se h = k = 1 invece di A{α},{β} scriveremo brevemente Aα,β e, talvolta, anche solamente Aαβ.
2 0 4 6 1 −7 08
1 1 4 3 − 2 0 − 1 2 ← 2a
A = 3 3 − 1 −3 0 0 0 2
5 − 5 5 − 5 5 − 5 5 − 5
0 1 0 −1 0 1 0 − 1 ← 5a
↑ ↑ ↑ ↑
1a 2a 4 a 7a
4 1 −7 0
A’ = A{2,5},{1,2,4,7}= − 1 0 0 2
5 5 − 5 − 5
5 2 0 2 0 5
Si ha che A11= , A12 = , A13 =
6 − 3 − 1 − 3 − 1 6
− 4 0 7 0 7 − 4
A21 = , A22 = , A23 =
6 − 3 − 1 − 3 − 1 6
− 4 0 7 0 7 − 4
A31 = , A32 = , A33 = .
5 2 0 2 0 5
95
13.7. Definizione. Sia A una matrice quadrata di ordine n ad elementi reali.
n
• se n ≥ 2 allora detA := ∑ (–1)1+ja1jdetA1j
j =1
a 11 a 12 2
det = ∑ (–1)1+ja1jdetA1j = (–1)1+1a11detA11 + (–1)1+2a12detA12 =
a 21 a 22 j =1
= a11a22 – a12a21
2 5 − 1 4 3 − 2
det = 12 – 15 = – 3 det = (–7) – (–12) = 5 det = 12 – (–12) = 0
3 6 − 3 7 − 6 4
5 2 0 2 0 5
detA11= det = –27 detA12= det = 2 detA13= det =5
6 − 3 − 1 − 3 − 1 6
− 4 0 7 0 7 − 4
detA21= det = 12 detA22= det = –21 detA23=det =38
6 − 3 − 1 − 3 − 1 6
− 4 0 7 0 7 − 4
detA31= det = –8 detA32= det = 14 detA33= det = 35.
5 2 0 2 0 5
96
13.11. Osservazione. Calcoliamo il determinante per una generica matrice di ordine 3.
a 11 a 12 a 13
3
det a 21 a 22 a 23 = ∑ (–1)1+ja1jdetA1j =
a 31 a 32 a 33 j =1
a 22 a 23 a 21 a 23 a 21 a 22
= (–1)2a11det + (–1)3a12det + (–1)4a13det =
a 32 a 33 a 31 a 33 a 31 a 32
Si può notare che i primi tre addendi corrispondono al prodotto degli elementi sulle tre diagonali
discendenti verso destra mentre i secondi tre addendi corrispondono al prodotto degli elementi sulle
tre diagonali ascendenti verso destra.
2 −1 5 2 −1 5 2 − 1
A = − 3 4
1 → − 3 4 1 − 3 4
11 7 − 6 11 7 − 6 11 7
3 − 1 7 3 − 1 7 3 − 1
B = 0 2 11 → 0 2 11 0 2 detB = (–30) + 0 + 0 – 0 – 0 – 0 = – 30
0 0 − 5 0 0 − 5 0 0
97
Omettiamo la dimostrazione del seguente:
13.15. Teorema (O.E.1). Effettuando s scambi di righe il determinante viene moltiplicato per (–1)s.
13.16. Corollario. Se una matrice quadrata ha due righe uguali, allora il suo determinante vale zero.
Dimostrazione. Sia A una matrice avente avente la i-esima riga uguale alla h-esima riga con i ≠ h.
Sia B la matrice ottenuta da A scambiando la i-esima riga con la h-esima riga. Per il Lemma 13.14 è
detB = –detA. D’altronde, è B = A per cui detB = detA. Quindi, si ha che detA = 0.
13.17. Teorema (1° di Laplace). Se A è una matrice quadrata di ordine n ≥ 2, allora per ogni indice
n
di riga h = 1, 2, 3, …, (n–1), n si ha che detA = ∑ (–1)h+jahjdetAhj
j =1
A1 Ah
A A
2 1
A3 A2
. A3
. .
Siano A = A h −1 e B = . . Si osservi che:
A A
h h −1
A h +1 A h +1
. .
. .
An An
• B si ottiene da A mediante (h – 1) scambi di righe, quindi, detA = (–1)h-1detB;
• per ogni j = 1, 2, 3, …, n è b1j=ahj
98
13.18. Teorema (O.E.2). Se si moltiplicano tutti gli elementi di una riga per uno scalare allora il
determinante risulta anch’esso moltiplicato per quello scalare.
(♥) Bh = αAh
A1 A1
A A
2 2
A3 A3
. .
. .
A = A h −1 B = A h −1
A (α A )
h h
A h +1 A h +1
. .
. .
An An
13.19. Corollario. Se una matrice ha una riga nulla, allora il suo determinante vale zero.
Dimostrazione. Avere una riga nulla è come avere tutti gli elementi di quella riga moltiplicati per
zero.
99
13.20. Lemma. Se A, B e C sono tre matrici quadrate di ordine n tali che:
(♣) per ogni i ≠ h è Ai = Bi = Ci (A, B e C hanno tutte le righe, esclusa la h-esima, uguali)
A1 A1 A1
A A A
2 2 2
A3 A3 A3
. . .
. . .
A = A h −1 B = A h −1 C = A h −1
A B A + B
h h h h
A h +1 A h +1 h +1
A
. . .
. . .
An An An
Dimostrazione. Si osservi che per ogni indice di colonna j = 1, 2, 3, …, n si ha che
13.21. Osservazione. Precisiamo ancora una volta che il Lemma precedente NON afferma che il
determinante di una somma di due matrici è uguale alla somma dei determinanti delle due matrici.
100
Dal Lemma 13.20 e dal Corollario 13.16 segue subito il seguente:
13.23. Teorema (O.E.3). Se ad una riga si aggiunge un’altra (diversa) riga moltiplicata per uno
scalare qualsiasi allora il determinante non cambia.
Dimostrazione. Sia B la matrice ottenuta dalla matrice A aggiungendo alla sua k-esima riga la sua
h-esima riga moltiplicata per α. Cioè,
(♣) per ogni i ≠ k è Bi = Ai.
(♥) Bk = Ak + αAh
A1 A1 A1 A1
A A A A
2 2 2 2
A3 A3 A3 A3
. . . .
Ah A h Ah A h
detB = det . = det . + det . = detA + αdet . = detA + α0 = detA
. . . .
A k + αA h A k α A h A h
. . . .
. . . .
An A n An A n
Dal teorema 13.23 e dal corollario 13.16 seguono subito i seguenti corollari.
13.24. Corollario. Se ad una riga aggiungiamo una combinazione lineare di altre (diverse) righe,
allora il determinante non cambia.
13.25. Corollario. Se una riga è combinazione lineare di altre righe, allora il determinante è nullo.
Tenendo conto dei Teoremi 13.15, 13.18 e 13.23 si prova subito il seguente:
13.26. TEOREMA. Sia A una matrice quadrata e sia B la matrice quadrata ottenuta da A tramite un
numero finito di operazioni elementari sulle righe di A. Se abbiamo effettuato s scambi di righe e
abbiamo moltiplicato le righe per gli scalari non nulli α1, α2, α3, …, α(t-1), αt allora
detB = (–1)s(α1α2α3…α(t-1)αt)detA
101
13.27. Teorema. Il determinante di una matrice triangolare superiore è uguale al prodotto degli
elementi che si trovano sulla sua diagonale principale.
Dimostrazione. (per induzione). Si verifica subito per matrici di ordine 1 e di ordine 2. Proviamo,
ora, che se l’enunciato è vero per matrici di ordine (n–1), allora è vero anche per matrici di ordine n.
Sia A una matrice quadrata di ordine n triangolare superiore. Per il 1° teorema di Laplace applicato
alla sua (ultima) n-esima riga si ha:
n
detA = ∑ (–1)n+janjdetAnj
j=1
13.28. Osservazione. I Teoremi 13.26 e 13.27 ci forniscono un modo comodo per calcolare il
determinante di una matrice di ordine “grande”. Infatti, se dobbiamo calcolare il determinante di
una matrice A possiamo procedere nel modo seguente:
(1) troviamo (tramite un numero finito di opportune operazioni elementari applicate alle righe di A)
una matrice B a scalino; ovviamente, la matrice B è anche triangolare superiore;
(2) calcoliamo il determinante di B che è uguale al prodotto degli elementi che si trovano sulla sua
diagonale principale;
(3) Se abbiamo effettuato s scambi di righe e abbiamo moltiplicato le righe per gli scalari non
nulli α1, α2, α3, …, α(t-1), αt allora detB = (–1)s(α1α2α3…α(t-1)αt)detA da cui
detA = (–1)s(α1α2α3…α(t-1)αt)-1detB
7 −4 0 − 1 6 − 3 − 1 6 − 3
13.29. Esempio. A = 0 5 2 → B = 0
5 2 → C = 0 5
2 →
− 1 6 − 3 7 − 4 0 0 38 − 21
− 1 6 −3 − 1 6 − 3
→ D= 0 5 2 → E = 0 5 2
0 190 − 105 0 0 − 181
905 = detE = detD = 5detC = 5detB = 5(– detA) ⇒ detA = – 905/5 = – 181.
102
Dal Teorema 13.27 e dal Corollario 12.17 si ha subito il seguente:
13.30. Corollario. Una matrice quadrata a scalino ha rango massimo se e solo se il suo
determinante è diverso da zero.
13.31. Teorema. Una matrice quadrata ha rango massimo se e solo se il suo determinante è diverso
da zero.
Dimostrazione. Sia A una matrice quadrata. Per il Teorema 11.25 è possibile trovare (tramite un
numero finito di opportune operazioni elementari applicate alle righe di A) una matrice B che abbia
lo stesso rango di A. Quindi, il rango di A è massimo se e solo se il rango di B è massimo, ovvero
(per il Corollario 13.30) se e solo se il determinante di B è diverso da zero e, quindi, (per il Teorema
13.26) se e solo se il determinante di A è diverso da zero.
− 2 0 5 − 2 1 5
= det 1 1 1 – 3det 1 1 1 = – 50 – 3(–40) = – 50 + 120 = 70 ≠ 0
7 − 1 4 7 0 4
103
13.34 Teorema (2° di Laplace). Se A è una matrice quadrata di ordine n ≥ 2, allora per ogni coppia
di indici di riga h,k = 1, 2, 3, …, (n–1), n con h ≠ k si ha che
n
∑ (–1)k+jahjdetAkj = 0.
j=1
Dimostrazione. Siano A e B due matrici tali che sia Bk = Ah e per ogni i ≠ k sia Bi = Ai. Cioè,
A1 A1
A A
2 2
A3 A3
. .
. .
A = A h B = Bh = A h
. .
A k Bk = A h
. .
. .
A n An
• bkj = ahj
• Bkj = Akj
Per il 1° teorema di Laplace applicato alla k-esima riga di B si ha:
n n
detB = ∑ (–1)k+jbkjdetBkj = ∑ (–1)k+jahjdetAkj
j=1 j=1
D’altronde, si ha anche che detB = 0 poiché B ha due righe uguali (la h-esima e la k-esima).
n
Quindi, ∑ (–1)k+jahjdetAkj = 0.
j=1
104
13.35. Definizione. Sia A una matrice quadrata di ordine n ad elementi reali. Per ogni i,j = 1,2,…,n
il numero reale Aij := (–1)i+jdetAij si dice complemento algebrico dell’elemento aij.
13.36. Definizione. Sia A una matrice quadrata di ordine n ad elementi reali. Chiamiamo matrice
cofattore della matrice A, e la indichiamo col simbolo cofA, la matrice quadrata di ordine n ad
elementi reali formata dai complementi algebrici Aij degli elementi aij di A.
13.37. Definizione. Sia A una matrice quadrata di ordine n ad elementi reali. Chiamiamo matrice
aggiunta di A, e la indichiamo sol simbolo aggA, la trasposta della matrice cofattore di A.
5 2 0 2 0 5
detA11= det = –27 detA12= det = 2 detA13= det =5
6 − 3 − 1 − 3 − 1 6
− 4 0 7 0 7 − 4
detA21= det = 12 detA22= det = –21 detA23=det =38
6 − 3 − 1 − 3 − 1 6
− 4 0 7 0 7 − 4
detA31= det = –8 detA32= det = 14 detA33= det = 35.
5 2 0 2 0 5
Quindi,
A11= (–1)1+1(–27) = –27 A12 = (–1)1+2(2) = –2 A13 = (–1)1+3(5) = 5
− 27 − 2 5 − 27 − 12 − 8
Per cui cofA = − 12 − 21 − 38 e aggA = (cofA)T =
− 2 − 21 − 14
− 8 − 14 35 5 − 38 35
105
13.39. Osservazione. Tenendo conto della Definizione 13.35 i due teoremi di Laplace si possono
brevemente sintetizzare nel modo seguente:
n
∑ ahjAkj = (detA)δhk
j=1
13.41. Teorema. Per ogni matrice A quadrata di ordine n ad elementi reali si ha che
dove (detA)In è la matrice diagonale avente come elementi δhkdetA, cioè avente tutti gli elementi
sulla diagonale principale uguali a detA.
Ricordiamo che il determinante di una somma di due matrici quadrate dello stesso ordine NON è,
in generale, uguale alla somma dei determinanti delle due matrici.
13.42. Teorema (Binet). Il determinante del prodotto di due matrici quadrate dello stesso ordine è
uguale al prodotto dei determinanti delle due matrici.
106
14. Matrici invertibili.
14.1. Definizione. Diremo che una matrice A quadrata di ordine n ad elementi reali è invertibile se
esiste una matrice B quadrata di ordine n ad elementi reali tale che
AB = In =BA
Ovviamente, anche la matrice B è invertibile.
14.2. Osservazione. Se A è una matrice quadrata di ordine n ad elementi reali invertibile allora
esiste ed è unica una matrice B quadrata di ordine n ad elementi reali tale che
AB = In =BA
Dimostrazione. Poiché A è per ipotesi invertibile, dobbiamo provare solamente che B è unica. Se
esistesse un’altra matrice C quadrata di ordine n ad elementi reali tale che AC = In =CA, si avrebbe:
AB = In ⇒ C(AB) = CIn ⇒ (CA)B = C ⇒ InB = C ⇒ B = C.
14.3. Definizione. Se A è una matrice invertibile, allora diremo matrice inversa della matrice A, e
la indicheremo con il simbolo A-1, l’unica matrice B tale che AB = In =BA. Quindi,
A A-1 = In = A-1A
14.4. Osservazione. Ovviamente, se A è invertibile, allora anche A-1 è invertibile. Inoltre, l’inversa
di A-1 è A stessa, cioè (A-1)-1 = A.
14.5. Teorema. Se A e B sono due matrici invertibili dello stesso ordine, allora anche la matrice
AB è invertibile ed è (AB)-1 = (B-1)(A-1). Quindi, l’inversa di un prodotto di due matrici invertibili
è uguale al prodotto delle inverse delle due matrici prese in ordine “inverso”.
Quindi, per la Definizione 14.1 AB è invertibile e la matrice C = B-1A-1 è, per l’Osservazione 14.2,
la sua unica inversa. Per cui (AB)-1 = (B-1)(A-1).
107
14.6. Definizione. Diremo che una matrice quadrata è singolare se il suo determinante è nullo.
Per il Teorema 13.41, per ogni matrice quadrata A di ordine n ad elementi reali si ha che
A(aggA) = (aggA)A = (detA)In
14.7. Lemma. Per ogni matrice A quadrata di ordine n non singolare (cioè detA ≠ 0) si ha che
A[(detA)-1(aggA)] = [(detA)-1(aggA)]A = In
14.8 Teorema. Se A è una matrice quadrata non singolare, allora A è invertibile e la sua (unica)
inversa è data dal prodotto dell’inverso del determinante di A per la matrice aggiunta di A, cioè
A-1 = (detA)-1(aggA)
7 −4 0
14.9 Esempio. Se esiste, trovare l’inversa della matrice A = 0 5 2 .
− 1 6 − 3
Nell’Esempio 13.29 abbiamo visto che detA = – 181 ≠ 0. Quindi, la matrice A è non singolare e,
per il Teorema 14.8, è invertibile. Inoltre, A-1 = (detA)-1(aggA).
Nell’Esempio 13.38 abbiamo visto che
− 27 − 12 − 8 − 27 − 12 − 8
aggA = − 2 − 21 − 14 . Per cui si ha che A = (– 1/181) − 2 − 21 − 14 .
-1
5 − 38 35 5 − 38 35
108
14.10 Esempio. Troviamo l’inversa di una generica matrice non singolare di ordine 2.
a11 a12
Sia A = con detA = (a11a22 – a21a12) ≠ 0.
a 21 a 22
A11 = (–1)1+1detA11 = (–1)2det[a22] = a22 A12 = (–1)1+2detA12 = (–1)3det[a21] = – a21
a 22 − a 21 a 22 − a12
Per cui cofA = e aggA = (cofA)T =
− a12 a11 − a
21 a11
a 22 a12
−
Infine, A-1 = det A det A .
a a11
− 21
det A det A
14.11 Corollario. Se A è una matrice invertibile, allora si ha che detA ≠ 0, cioè A è non singolare.
Inoltre, è det(A-1) = (detA)-1.
109
14.13 Osservazione. Siano A, B e C tre matrici quadrate di ordine n. Ovviamente, si ha che
B = C ⇒ AB = AC
1 − 2 − 1 3 − 5 − 5
A= , B= e C=
− 1 2 2 5 0 1
− 5 − 7 − 5 − 7
Con semplici calcoli si vede che AB = et AC = .
5 7 5 7
Quindi, si ha che AB = AC et B ≠ C
− 1 − 2 1 − 2 11 − 2 0 − 21
A= B= C= D=
3 − 5 − 3 6 5 − 1 0 17
2 − 1 0 1 0 − 2 1 1 1 0 0 1
E = 0 3 5 F = 3 − 1 1 G = 1 0 − 1 H = 1 2 0
1 0 1 0 − 1 7 0 1 1 0 1 0
2 − 1 1 3 0 0 7 0 0
L = 0 − 3 5
M= 2 1 0 N = 0 − 1 0
0 0 1 − 4 − 1 1 0 0 2
110
15. Cambiamenti di base in uno spazio vettoriale.
15.1 Esempio. Sia VR uno spazio vettoriale di dimensione 3 e sia B = (u1, u2, u3) una sua base.
5 2 − 1 2 −1 1
M = 0 − 1 3 N = − 1 3 − 4
16 5 1 5 1 − 7
Poiché detM = 0 la matrice M non ha rango massimo. Quindi, dimCM = dimRM = rgM ≤ 2. Per cui
le sue tre colonne sono linearmente dipendenti. Di conseguenza, anche i tre vettori v0, v1, v2 sono
linearmente dipendenti. Così l’insieme (v0, v1, v2) NON è una base di VR.
Poiché detN = −23 ≠ 0 la matrice N ha rango massimo. Quindi, dimCN = dimRN = rgN = 3. Per cui
le sue tre colonne sono linearmente indipendenti. Di conseguenza, anche i tre vettori v1, v2, v3 sono
linearmente indipendenti. Così l’insieme B = (v1, v2, v3) è un’altra base di VR.
Sia w il vettore di VR avente coordinate (4, 1, −6) rispetto alla base B, cioè w = 4v1 + v2 − 6v3.
w = 4v1 + v2 − 6v3 = 4(2u1 − u2 + 5u3) + (− u1 + 3u2 + u3) − 6(u1 − 4u2 − 7u3) = u1 + 23u2 + 63u3
Sia, ora, t il vettore di VR avente coordinate (4, −8, −3) rispetto a B, cioè t = 4u1 − 8u2 − 3u3.
Troviamo le coordinate (x, y, z) di t rispetto a B, cioè tali che t = xv1 + yv2 + zv3 . Si ha che
t = xv1 + yv2 + zv3 = x(2u1 − u2 + 5u3) + y(− u1 + 3u2 + u3) + z(u1 − 4u2 − 7u3)
Poichè la scrittura di t = 4u1 − 8u2 − 3u3 rispetto alla base B è unica deve essere
2x − y + z = 4
− x + 3y − 4z = −8
5x + y − 7z = −3
L’unica soluzione di tale sistema è la terna ordinata (x, y, z) = (1, −1, 1), cioè t = v1 − v2 + v3.
111
15.2 Esempio. Siano VR , B = (u1, u2, u3) e B = (v1, v2, v3) come nell’Esempio 15.1. Quindi,
Sia w un generico vettore di VR . Siccome B e B sono due basi, si ha che esistono, e sono uniche,
due terne (α1, α2, α3) e (β1, β2, β3) tali che
Ora, vedremo di trovare il “legame” che c’è tra le coordinate (β1, β2, β3) di w rispetto alla base B e
Si ha che w = β1v1 + β2v2 + β3v3 = β1(2u1 − u2 + 5u3) + β2(− u1 + 3u2 + u3) + β3(u1 − 4u2 − 7u3)
Si osservi che la (III) è una scrittura di w come combinazione lineare dei vettori della base B.
Per l’unicità della scrittura di w rispetto alla base B, da (I) e (III) si ha che deve essere:
2β1 − β2 + β3 = α1
(#) − β1 + 3β2 − 4β3 = α 2
5β + β − 7β = α
1 2 3 3
Queste equazioni sono il “legame” che c’è tra le coordinate (β1, β2, β3) di w rispetto alla base B e le
• Note le coordinate (β1, β2, β3) di un vettore w rispetto alla base B, con semplici calcoli si trovano
Se (come nell’Esempio 15.1) w = 4v1 + v2 − 6v3 cioè (β1, β2, β3) = (4, 1, −6), allora dal sistema
(#) si ha subito che (α1, α2, α3) = (1, 23, 63) e, quindi, w = u1 + 23u2 + 63u3.
• Note le coordinate (α1, α2, α3) di un vettore w rispetto alla base B, risolvendo un sistema lineare
di tre equazioni in tre incognite, si trovano le coordinate (β1, β2, β3) di w rispetto alla base B.
Se (come nell’Esempio 15.1) t = 4u1 − 8u2 − 3u3 cioè (α1, α2, α3) = (4, −8, −3), allora (#) diventa
2β1 − β2 + β3 = 4
− β1 + 3β2 − 4β3 = −8
5β + β − 7β = −3
1 2 3
L’unica soluzione di tale sistema è la terna ordinata (β1, β2, β3) = (1, −1, 1), cioè t = v1 − v2 + v3.
112
Nel seguito ci occuperemo di generalizzare quanto appena visto nell’Esempio 15.2.
Sia VR uno spazio vettoriale reale di dimensione finita n e B = (u1, u2, u3, u4, ….., un) una sua base.
Se w è un vettore di VR e (α1, α2, α3, α4, ….., αn) è l’unica n-upla ordinata di numeri reali tale che
α1
α
2
α3
wB := α 4
.
.
α
n
Sia, ora, B = (v1, v2, v3, v4, ….., vn) un’altra base di VR. Poiché B è una base di VR esiste un’unica
n-upla ordinata di numeri reali (β1, β2, β3, β4, ….., βn) tale che:
β1
β
2
β3
wB = β4
.
.
β
n
Poiché B = (u1, u2, u3, u4, ….., un) è una base di VR e v1, v2, v3, v4, ….., vn sono vettori di VR
allora ognuno di essi si può scrivere in modo unico come combinazione lineare dei vettori di B.
Poiché i coefficienti di tali combinazioni lineari dipendono sia dal vettore ui della base B che dal
vettore vj della base B, useremo un doppio indice con la convenzione che il primo sia l’indice i del
vettore ui di B mentre il secondo sia l’indice j del vettore vj di B. Quindi, scriveremo
113
(1) v1 = a11u1 + a21u2 + a31u3 + a41u4 + ….. + an1un
(2) v2 = a12u1 + a22u2 + a32u3 + a42u4 + ….. + an2un
(3) v3 = a13u1 + a23u2 + a33u3 + a43u4 + ….. + an3un
(4) v4 = a14u1 + a24u2 + a34u3 + a44u4 + ….. + an4un
…………………………………………………
(n) vn = a1nu1 + a2nu2 + a3nu3 + a4nu4 + ….. + annun
Si osservi che la (♦) è una scrittura di w come combinazione lineare dei vettori della base B.
Ricordiamo che
(♥) w = α1u1 + α2u2 + α3u3 + α4u4 + ….. + αnun
Per l’unicità della scrittura di w rispetto alla base B, dalle (♥) e (♦) si ha che deve essere:
114
(E1) α1 = β1a11 + β2a12 + β3a13 + β4a14 + ..… + βna1n
Il sistema di equazioni (E1), (E2), (E3), (E4), …., (En) è il “legame” che c’è tra le coordinate
(β1, β2, β3, β4, ….., βn) di w rispetto a B e le coordinate (α1, α2, α3, α4, ….., αn) di w rispetto a B.
Da (1), (2), (3), (4), ....., (n) si che le colonne delle coordinate dei vettori v1, v2, v3, v4, ….., vn
rispetto alla base B = (u1, u2, u3, u4, ….., un) sono
Stabiliamo che A(B→B) sia la matrice quadrata di ordine n avente come colonne ordinatamente le
colonne delle coordinate (rispetto alla base B) dei vettori della base B, cioè:
115
Osservando (E1), (E2), (E3), (E4), ….., (En) e tenendo conto di come è definito il prodotto riga per
colonna tra due matrici moltiplicabili e si ha che:
• l’elemento α1 di wB è uguale al prodotto della prima riga di A(B→B) per la colonna wB;
• l’elemento α2 di wB è uguale al prodotto della seconda riga di A(B→B) per la colonna wB;
• l’elemento α3 di wB è uguale al prodotto della terza riga di A(B→B) per la colonna wB;
• l’elemento α4 di wB è uguale al prodotto della quarta riga di A(B→B) per la colonna wB;
………………………………………
• l’elemento αn di wB è uguale al prodotto della n-esima riga di A(B→B) per la colonna wB;
Quindi, la colonna wB è uguale al prodotto della matrice A(B→B) per la colonna wB.
Per cui, il sistema di equazioni (E1), (E2), (E3), (E4), …., (En) si può scrivere nel modo seguente:
wB = A(B→B)wB
Tenendo conto che ognuna delle n colonne delle coordinate dei vettori della base B rispetto alla
base B è univocamente determinata, si ha subito la seguente:
15.3 Osservazione. Sia VR uno spazio vettoriale reale di dimensione finita n. Ogni volta che si
fissano due sue basi B = (u1, u2, u3, u4, ….., un) e B = (v1, v2, v3, v4, ….., vn) si ha che la matrice
A(B→B) quadrata di ordine n avente come colonne ordinatamente le colonne delle coordinate dei
vettori della base B rispetto alla base B è univocamente determinata.
116
15.4 Lemma. Sia VR uno spazio vettoriale reale di dimensione finita n.
Siano B = (u1, u2, u3, u4, ….., un) e B = (v1, v2, v3, v4, ….., vn) due sue basi.
Sia w un generico vettore di VR. Se H è una matrice tale che wB = HwB allora H = A(B→B).
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
(v1)B = 0 , (v2)B = 0 , (v3)B = 0 , (v1)B = 1 , …… , (v1)B = 0
. . . . .
. . . . .
0 0 0 0 1
E’ immediato verificare che per ogni vettore vi è H(vi)B = i-esima colonna di H. Quindi, si ha che
• prima colonna di A(B→B) = (v1)B = H(v1)B = prima colonna di H;
117
Tenendo conto che, per costruzione, le colonne di A(B→B) sono le n-uple delle coordinate di n
vettori linearmente indipendenti (gli elementi della base B) si ha che tali colonne sono linearmente
indipendenti e, quindi, la matrice A(B→B) ha rango massimo. Per il Teorema 13.31 il determinante
della matrice A(B→B) è diverso da zero, cioè la matrice A(B→B) è non singolare. Tenendo conto del
Teorema 14.12 abbiamo subito la seguente:
15.6 Osservazione. Sia VR uno spazio vettoriale reale di dimensione finita n. Fissate due sue basi
B = (u1, u2, u3, u4, ….., un) e B = (v1, v2, v3, v4, ….., vn) si ha che la matrice A(B→B) è invertibile.
15.7 TEOREMA. Sia VR uno spazio vettoriale reale di dimensione finita n. Fissate due sue basi
B = (u1, u2, u3, u4, ….., un) e B = (v1, v2, v3, v4, ….., vn) si ha che la matrice del cambiamento di
base da da B a B è uguale all’inversa della matrice del cambiamento di base da B a B. Cioè
A(B→B) = [A(B→B)]-1
15.8 TEOREMA. Sia VR uno spazio vettoriale reale di dimensione finita n. Fissate tre sue basi
B = (u1, u2, u3, u4, ….., un), C = (e1, e2, e3, e4, ….., en) e B = (v1, v2, v3, v4, ….., vn) si ha che:
A(B→B) = A(C→B)A(B→C)
15.9 Osservazione. Il Teorema 15.7 ci permette di trovare la matrice del cambiamento di base dalla
base B alla base B “transitando” per la base C. Inoltre, si noti l’ordine delle matrici nel prodotto
A(C→B)A(B→C)
La matrice che fa passare da B a C è il fattore a destra mentre la matrice che poi fa passare da C a B
è il fattore a sinistra. Questo è dovuto (come si vede nella dimostrazione del Teorema 15.7) al fatto
che prima la matrice A(B→C) “agisce” su wB e, poi, la matrice A(C→B) “agisce” su wC.
118
15.10 Esempio. Sia VR uno spazio vettoriale di dimensione 2 e sia B = (u1, u2) una sua base.
2 1 2 1
Sia M = la matrice avente come colonne ordinatamente (v1)B = e (v2)B = .
− 5 − 3 − 5 − 3
Poiché detM = −1 ≠ 0 le due colonne di M sono linearmente indipendenti. Quindi, anche i due
vettori v1, v2 sono linearmente indipendenti. Così l’insieme B = (v1, v2) è un’altra base di VR.
2 1
A(B→B) =
− 5 − 3
Per il Teorema 15.7 la matrice A(B→B) del cambiamento di base da B a B è [A(B→B)]-1. Quindi,
−1
2 1
A(B→B) =
− 5 − 3
−1
2 1 2 1 − 3 − 1 3 1
Poiché = (1/−1)(agg ) = − = si ha che
− 5 − 3 − 5 − 3 5 2 − 5 − 2
3 1
A(B→B) =
− 5 − 2
α1 2 1 β1
allora le equazioni del cambiamento di base da B a B sono =
α 2 − 5 − 3 β2
β1 3 1 α1
mentre le equazioni del cambiamento di base da B a B sono = α
β2 − 5 − 2 2
Con tali equazioni è molto veloce trovare come cambiano le coordinate di un vettore.
Se w = v1 + 2v2 cioè (β1, β2) = (1, 2) si ha subito che (α1, α2) = (4, −11) cioè w = 4u1 − 11u2 .
Se t = 3u1 − 2u2 cioè (α1, α2) = (3, −2) si ha subito che (β1, β2) = (7, −11), cioè t = 7v1 − 11v2.
119
15.11 Esempio. Sia VR = R3 lo spazio vettoriale reale delle terne ordinate di numeri reali.
Siano u1 = (2, 0, 1), u2 = (0, 5, 1), u3 = (−1, 3, 0), v1 = (1, 1, 0), v2 = (1, −1, 1), v3 = (1, 0, 1).
Dopo aver verificato che B = (u1, u2, u3) e B = (v1, v2, v3) sono due basi di R3 trovare la matrice
del cambiamento di base dalla base B alla base B.
(1) Sia M la matrice avente come colonne proprio le terne u1, u2, u3 e sia N la matrice avente come
2 0 − 1 1 1 1
colonne proprio le terne v1, v2, v3 , cioè M = 0 5 3 N = 1 − 1 0
1 1 0 0 1 1
Poiché detM = −1 ≠ 0 e detN = −1 ≠ 0 sia le tre terne u1, u2, u3 che le tre terne v1, v2, v3 sono
linearmente indipendenti. Quindi, B = (u1, u2, u3) e B = (v1, v2, v3) sono due basi di R3.
(2) Ricordiamo che se e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1) allora C = (e1, e2, e3) è una base
2 0 − 1 − 3 3 − 5 3 1 −5
Da cofM = cof 0 5 3 = − 1 1 − 2 si ha subito che M-1= − 3 − 1 6 .
1 1 0 5 − 6 10 5 2 − 10
3 1 −5 1 1 1 4 − 3 − 2
Si ha che A(B→B) = M-1N = − 3 − 1 6
1 − 1 0 = − 4 4
3 .
5 2 − 10 0 1 1 7 − 7 − 5
Tenendo conto che le colonne di A(B→B) sono le coordinate dei vettori della base B rispetto alla
base B, possiamo verificare la correttezza del risultato nel modo seguente:
v1 = 4u1 − 4u2 + 7u3 = 4(2, 0, 1) − 4(0, 5, 1) + 7(−1, 3, 0) = (1, 1, 0) ☺
120
Tenendo conto che per ogni numero reale ω si ha che (cos2ω + sin2ω) = 1, ogni matrice del tipo
cos ω − sin ω
sin ω cos ω
è non singolare e, quindi, è invertibile. Inoltre, è facile verificare che
−1
cos ω − sin ω cos ω sin ω
sin ω cos ω =
− sin ω cos ω
15.12 Osservazione. Sia VR = R2 lo spazio vettoriale reale delle coppie ordinate di numeri reali.
Per ogni numero reale ω, le due coppie w1 = (cosω, sinω) e w2 = (−sinω, cosω) sono linearmente
15.13 Esempio. Sia VR = R2 lo spazio vettoriale reale delle coppie ordinate di numeri reali.
Siano u1 = (cosα, sinα), u2 = (−sinα, cosα), v1 = (cosβ, sinβ) e v2 = (−sinβ, cosβ).
Per l’Osservazione 15.12 gli insiemi B = (u1, u2) e B = (v1, v2) sono due basi di R2.
Trovare la matrice A(B→B) del cambiamento di base dalla base B alla base B.
Per i Teoremi 15.8 e 15.7 si ha che A(B→B) = A(C→B)A(B→C) = [A(B→C)]-1A(B→C). Per cui
−1
cos β − sin β cos α − sin α
A(B→B)= sin α cos α
sin β cos β
121
15.10 Esempio. Sia VR uno spazio vettoriale di dimensione 2 e sia B = (u1, u2) una sua base.
Consideriamo i seguenti vettori v1 = 2u1 − 5u2 e v2 = u1 − 3u2 di VR.
2 1 2 1
Sia M = la matrice avente come colonne ordinatamente (v1)B = e (v2)B = .
− 5 − 3 − 5 − 3
Poiché detM = −1 ≠ 0 le due colonne di M sono linearmente indipendenti. Quindi, anche i due
vettori v1, v2 sono linearmente indipendenti. Così l’insieme B = (v1, v2) è un’altra base di VR.
2 1
A(B→B) =
− 5 − 3
Per il Teorema 15.7 la matrice A(B→B) del cambiamento di base da B a B è [A(B→B)]-1. Quindi,
−1
2 1
A(B→B) =
− 5 − 3
−1
2 1 2 1 − 3 − 1 3 1
Poiché = (1/−1)(agg ) = − = si ha che
− 5 − 3 − 5 − 3 5 2 − 5 − 2
3 1
A(B→B) =
− 5 − 2
α1 2 1 β1
allora le equazioni del cambiamento di base da B a B sono = β
α 2 − 5 − 3 2
β1 3 1 α1
mentre le equazioni del cambiamento di base da B a B sono = α
β2 − 5 − 2 2
Con tali equazioni è molto veloce trovare come cambiano le coordinate di un vettore.
Se w = v1 + 2v2 cioè (β1, β2) = (1, 2) si ha subito che (α1, α2) = (4, −11) cioè w = 4u1 − 11u2 .
Se t = 3u1 − 2u2 cioè (α1, α2) = (3, −2) si ha subito che (β1, β2) = (7, −11), cioè t = 7v1 − 11v2.
122
15.11 Esempio. Sia VR = R3 lo spazio vettoriale reale delle terne ordinate di numeri reali.
Siano u1 = (2, 0, 1), u2 = (0, 5, 1), u3 = (−1, 3, 0), v1 = (1, 1, 0), v2 = (1, −1, 1), v3 = (1, 0, 1).
Dopo aver verificato che B = (u1, u2, u3) e B = (v1, v2, v3) sono due basi di R3 trovare la matrice
del cambiamento di base dalla base B alla base B.
(1) Sia M la matrice avente come colonne proprio le terne u1, u2, u3 e sia N la matrice avente come
2 0 − 1 1 1 1
colonne proprio le terne v1, v2, v3 , cioè M = 0 5 3 N = 1 − 1 0
1 1 0 0 1 1
Poiché detM = −1 ≠ 0 e detN = −1 ≠ 0 sia le tre terne u1, u2, u3 che le tre terne v1, v2, v3 sono
linearmente indipendenti. Quindi, B = (u1, u2, u3) e B = (v1, v2, v3) sono due basi di R3.
(2) Ricordiamo che se e1 = (1, 0, 0), e2 = (0, 1, 0) e e3 = (0, 0, 1) allora C = (e1, e2, e3) è una base
2 0 − 1 − 3 3 − 5 3 1 −5
Da cofM = cof 0 5 3 = − 1 1 − 2 si ha subito che M-1= − 3 − 1 6 .
1 1 0 5 − 6 10 5 2 − 10
3 1 −5 1 1 1 4 − 3 − 2
Si ha che A(B→B) = M-1N = − 3 − 1 6
1 − 1 0 = − 4 4
3 .
5 2 − 10 0 1 1 7 − 7 − 5
Tenendo conto che le colonne di A(B→B) sono le coordinate dei vettori della base B rispetto alla
base B, possiamo verificare la correttezza del risultato nel modo seguente:
v1 = 4u1 − 4u2 + 7u3 = 4(2, 0, 1) − 4(0, 5, 1) + 7(−1, 3, 0) = (1, 1, 0) ☺
123
Tenendo conto che per ogni numero reale ω si ha che (cos2ω + sin2ω) = 1, ogni matrice del tipo
cos ω − sin ω
sin ω cos ω
è non singolare e, quindi, è invertibile. Inoltre, è facile verificare che
−1
cos ω − sin ω cos ω sin ω cos(−ω) − sin(−ω)
sin ω cos ω = =
− sin ω cos ω sin(−ω) cos(−ω)
15.12 Osservazione. Sia VR = R2 lo spazio vettoriale reale delle coppie ordinate di numeri reali.
Per ogni numero reale ω, le due coppie w1 = (cosω, sinω) e w2 = (−sinω, cosω) sono linearmente
15.13 Esempio. Sia VR = R2 lo spazio vettoriale reale delle coppie ordinate di numeri reali.
Siano u1 = (cosα, sinα), u2 = (−sinα, cosα), v1 = (cosβ, sinβ) e v2 = (−sinβ, cosβ).
Per l’Osservazione 15.12 gli insiemi B = (u1, u2) e B = (v1, v2) sono due basi di R2.
Trovare la matrice A(B→B) del cambiamento di base dalla base B alla base B.
Per i Teoremi 15.8 e 15.7 si ha che A(B→B) = A(C→B)A(B→C) = [A(B→C)]-1A(B→C). Per cui
−1
cos β − sin β cos α − sin α
A(B→B)= sin α cos α
sin β cos β
124
16. Teorema degli orlati e sue applicazioni.
Ricordiamo che se p∈N allora col simbolo Ip indichiamo l’insieme {1, 2, 3, 4, ….., p}.
Sia A una matrice ad elementi reali di tipo m×n e sia s un intero tale che 0 ≤ s ≤ min{m, n}.
Si scelgano s righe di A e s colonne di A.
Siano i1 < i2 < i3 < i4 < …. < is gli indici delle righe scelte.
Siano j1 < j2 < j3 < j4 < …. < js gli indici delle colonne scelte.
Sia B la sottomatrice di A che si ottiene “cancellando” da A
• le (m−s) righe aventi indice nell’insieme Im−{i1, i2, i3, i4, ….., is};
• le (n−s) colonne aventi indice nell’insieme In−{j1, j2, j3, j4, ….., js}.
Se poniamo RB := {i1, i2, i3, i4, ….., is} ⊆ Im e CB := {j1, j2, j3, j4, ….., js} ⊆ In allora
B = A(Im−RB),(In−RC)
Ovviamente, B è una matrice quadrata di ordine s.
1 0 − 2
B = A{1,4},{1,2,5,7} = 0 0 4
− 7 7 0
125
Per costruzione, l’elemento che si trova sulla h-esima riga e k-esima colonna di B è l’elemento che
si trova sulla ih-esima riga e sulla jk -esima colonna di A, cioè
bhk = aihjk
# # # # # # #
# #
# a 23 a 24 # a 26 a 23 a 24 a 26 b11 b12 b13
# # a 33 a 34 # a 36 # → a 33 a 34 a 36 → B = b
21 b 22 b 23
# # # # # # # a 53 a 54 a 56 b31 b32 b33
# # a 53 a 54 # a 56 #
Quindi,
b11 = a23 = ai1j1 b12 = a24 = ai1j2 b13 = a26 = ai1j3
cioè
126
Siano, ora, x∈(Im−RB) l’indice di una riga di A che non è stata scelta per costruire B e y∈(In−CB)
l’indice di una colonna di A che non è stata scelta per costruire B.
Siano x = 4 e y = 1 rispettivamente l’indice di una riga e l’indice di una colonna di A che non sono
state usate per costruire B.
2 #
1 b11 b12 b13 1 b11 b12 b13
0 b 21 b 22 b 23 → 0 b 21 b 22 b 23
9 0 −1 1 0 8 1 9 # −1 1 # 8 1
− 7 b31 b32 b33 − 7 b31 b32 b33
127
Omettiamo la dimostrazione del seguente:
16.5. Teorema (degli orlati). Sia A una matrice non nulla ad elementi reali di tipo m×n e sia B una
sua sottomatrice quadrata di ordine s non singolare. Il rango della matrice A è uguale a s se e solo se
ogni sottomatrice orlata di B è singolare.
16.6. Esempio. Al variare del parametro reale t, trovare il rango della matrice
1 0 t
A = − 1 2 t
0 1 3
1 0 #
1 0
Si vede subito che − 1 2 # → B = − 1 2 è una sottomatrice non singolare (detB = 2 ≠ 0).
# # #
16.7. Esempio. Al variare del parametro reale t, trovare il rango della matrice
1 0 1 0
A = t 1 0 1
1 t 0 −1
# 0 1 #
0 1
Si vede subito che # 1 0 # → B = 1 0 è una sottomatrice non singolare (detB = −1 ≠ 0).
# # # #
128
16.8. Esempio. Al variare del parametro reale t, trovare il rango della matrice
t t2 0 − 8
64
A = 1 8 0 t − 1
0 0 6 − 5 0
# # # # #
8 0
Si vede che # 8 0 # # → B = è una sottomatrice non singolare (detB = 48 ≠ 0).
0 6
# 0 6 # #
t t2 0 t 2 0 64 t 2 0 − 8
Esistono tre sottomatrici orlate di B C1 = 1 8 0 C2 = 8 0 t C3 = 8 0 − 1
0 0 6 0 6 − 5 0 6 0
Per cui, rg(A) = 2 se e solo se detC1 = 0 et detC2 = 0 et detC3 = 0, ovvero se e solo se
6t (8 − t ) = 0
2
6(8 − t )( t + 8t + 64) = 0
6( t − 8)( t + 8) = 0
Quindi, rg(A) = 2 solo per t = 8 e rg(A) = 3 per ogni altro valore di t.
w x yz
Sia A = la matrice avente come righe le quaterne v e u1 .
1 0 − 2 3
I vettori v e u1 sono linearmente dipendenti se e solo se rg(A) = 1.
# # # #
Si vede subito che → B = [1] è una sottomatrice non singolare (detB = 1 ≠ 0).
1 # # #
w x w y w z
Esistono tre sottomatrici orlate di B C1 = C2 = 1 − 2 C3 =
1 0
1 3
Per cui, rg(A) = 2 se e solo se detC1 = 0 et detC2 = 0 et detC3 = 0, ovvero se e solo se
x=0
2w + y = 0 . Quindi, U = {(w, x, y, z)∈R4 x = 2w + y = 3w − z = 0}.
3w − z = 0
129
16.10. Esempio. Sia VR = R4. Siano u1 = (1, 0, −2, 3) e u2 = (2, 0, 0, 1).
Trovare le equazioni del sottospazio U = <u1, u2>.
w x z
y
A = 1 0 − 2 3
2 0 0 1
# # # #
− 2 3
Si vede che # # − 2 3 → B = è una sottomatrice non singolare (detB = −2 ≠ 0).
0 1
# # 0 1
w y z x y z
Esistono due sottomatrici orlate di B C1 = 1 − 2 3 C2 = 0 − 2 3 .
2 0 1 0 0 1
x=0
Per cui, rg(A) = 2 se e solo se detC1 = 0 et detC2 = 0, ovvero se e solo se .
2 w − 5 y − 4 z = 0
Quindi, U = {(w, x, y, z)∈R4 x = 2w − 5y − 4z = 0}.
16.11. Esempio. Sia VR = R4. Siano u1 = (1, 0, −2, 3) , u2 = (2, 0, 0, 1) e u3 = (0, 1, 7, −4).
Trovare le equazioni del sottospazio U = <u1, u2, u3>.
w x y z
1 0 − 2 3
A=
2 0 0 1
0 1 7 − 4
I vettori v, u1, u2 e u3 sono linearmente dipendenti se e solo se rg(A) = 3, cioè A non ha rango
massimo, ovvero se e solo se (−2w − 19x + 5y + 4z) = detA = 0.
Quindi, U = {(w, x, y, z)∈R4 2w + 19x − 5y − 4z = 0}.
130
17. Sistemi lineari.
Ricordiamo che se p∈N allora col simbolo Ip indichiamo l’insieme {1, 2, 3, 4, ….., p}.
indici (i, j)∈Im×In il numero reale aij si dice coefficiente dell’incognita xj nella i-esima equazione.
131
Con riferimento a quanto visto nella Definizione 17.1 definiamo tre matrici A, X e B come segue
a11 a12 a13 a14 . . . . a1n x1 b1
a a 2n x b
21 a 22 a 23 a 24 . . . . 2 2
a 31 a 32 a 33 a 34 . . . . a 3n x3 b3
A := a 41 a 42 a 43 a 44 . . . . a 4n X := x 4 B := b 4
. . . . . . . . . . .
. . . . . . . . . . .
a a mn x b
m1 a m2 a m3 a m4 . . . . n m
Le colonne di A sono
a11 a12 a13 a14 a1n
a a a a a
21 22 23 24 2n
a 31 a 32 a 33 a 34 a 3n
1
A = a 41 , A2 = 3
a 42 , A =
4
a 43 , A =
n
a 44 , ….. , A = a 4n
. . . . .
. . . . .
a a a a a
m1 m2 m3 m4 mn
E’ facile convincersi che il sistema lineare della definizione si può rappresentare nei seguenti modi
a11 a12 a13 a14 . . . . a1n x1 b1
a a 2n x b
21 a 22 a 23 a 24 . . . . 2 2
a 31 a 32 a 33 a 34 . . . . a 3n x 3 b3
(I) a 41 a 42 a 43 a 44 . . . . a 4n x 4 = b4
. . . . . . . . . . .
. . . . . . . . . . .
a a mn x b
m1 a m2 a m3 a m4 . . . . n m
ovvero AX = B
a11 a12 a13 a14 a1n b1
a a a a a b
21 22 23 24 2n 2
a 31 a 32 a 33 a 34 a 3n b3
(II) a 41 x1 + a 42 x2 + a 43 x3 + a 44 x4 + ….. + a 4 n xn = b4
. . . . . .
. . . . . .
a a a a a b
m1 m2 m3 m4 mn m
17.3. Definizione. Quando useremo la rappresentazione (I) diremo che il sistema è scritto in forma
matriciale mentre quando useremo la (II) diremo che il sistema è scritto per colonne.
132
Sia C := [A|B] la matrice di tipo m×(n+1) che si ottiene “affiancando” la colonna B alla matrice A.
17.5.Osservazione. Per il Teorema 9.22, lo spazio <A1, A2, A3, A4, …, An> generato dalle colonne
di A è un sottospazio dello spazio <A1, A2, A3, A4, …, An, B> delle colonne di C. Per cui si ha che
17.5.1. CA ≤ CC
17.5.2. dimCA ≤ dimCC ovvero rg(A) ≤ rg(C)
17.5.3. CA = CC ⇔ dimCA = dimCC
133
17.7. Definizione. Dato un sistema lineare AX = B nelle incognite (x1, x2, x3, x4, ….., xn) diremo
che la n-upla ordinata di numeri reali (α1, α2, α3, α4, ….., αn) è UNA soluzione del sistema se
sostituendo ordinatamente i numeri reali α1, α2, α3, α4, ….., αn alle incognite x1, x2, x3, x4, ….., xn
in ognuna delle equazioni si ottengono sempre delle identità.
17.9. TEOREMA (Rouché - Capelli). Un sistema lineare ha almeno una soluzione se e solo se il
rango della sua matrice incompleta è uguale al rango della sua matrice completa.
Il sistema ha almeno una soluzione (α1, α2, α3, α4, ….., αn)∈Rn ⇔
⇔ <A1, A2, A3, A4, ….., An> = <A1, A2, A3, A4, ….., An, B> ⇔
⇔ CA = CC ⇔ dimCA = dimCC ⇔ rg(A) = rg(C)
non nullo (è uguale a +3). Quindi, rg(A) = 3. Da 3 = rg(A) ≤ rg(C) ≤ 3 si ha che rg(C) = 3.
134
17.11. Definizione. Un sistema lineare AX = B si dice normale se rg(A) = numero righe di A.
17.13. Lemma. In un sistema lineare normale il numero delle equazioni è minore o uguale al
numero delle incognite.
17.15. Definizione. Un sistema lineare AX = B normale con A quadrata si dice sistema di Cramer.
2 0 − 1
Si ha che A = 0 5 3 . Poichè detA = −1 ≠ 0 è rg(A) = 3. Quindi, il sistema è normale.
1 1 0
135
17.17. Teorema. (Cramer) Un sistema di Cramer ha un’unica soluzione.
2x − z = 3
5y + 3z = 1
x+y = 2
3 1 −5 3 0
Y = A-1B = − 3 − 1 6
1 = 2
5 2 − 10 2 − 3
Si noti che tale sistema ha UNA unica soluzione data dalla terna (0, 2, −3).
136
17.19. Teorema. Un sistema lineare normale non di Cramer ha infinite soluzioni.
(♣) A1x1 + A2x2 + A3x3 + ….. + Amxm + Am+1xm+1 + Am+2xm+2 + ….. + Anxn = B
Ora, scegliamo a piacere una (n − m)-upla ordinata di numeri reali (βm+1, βm+2, βm+3, ….., βn).
Sostituendo in tutte le equazioni del sistema i numeri reali βm+1, βm+2, βm+3, ….., βn ordinatamente
alle incognite xm+1, xm+2, xm+3, ….., xn otteniamo
si ottiene un nuovo sistema lineare di m equazioni nelle m incognite (x1, x2, x3, x4, ….., xm)
E’ immediato verificare che la n-upla (α1, α2, α3, α4, ….., αm, βm+1, βm+2, βm+3, ….., βn) è una
soluzione del sistema iniziale (♣). Infatti, sostituendola all’n-upla delle incognite si ha
Quindi, per ogni scelta della (n − m)-upla (βm+1, βm+2, βm+3, ….., βn), si ottiene un’unica soluzione
del sistema lineare (♣). Di conseguenza, il sistema lineare (♣) ha infinite soluzioni.
137
17.20. Definizione. Nel Teorema 17.12 abbiamo visto che un sistema lineare può avere infinite
soluzioni che dipendono dalla scelta di una (n − m)-upla di numeri reali.
terza e quarta colonna di A è uguale a +3. Per cui, la prime, terza e quarta colonna di A sono
linearmente indipendenti. Quindi, scegliamo la seconda incognita x, poniamola uguale a β e
portiamola a secondo membro. Si ottiene il seguente nuovo sistema nelle tre incognite (w, y, z)
2w − y + 3z = 15 − 2β
w − 3y + 2z = 7
3w − 17 y + 7z = 26 + 2β
Tale sistema è un sistema di Cramer.
2 − 1 3 w 15 − 2β 13 − 44 7
Si ha che A’= 1 − 3 2 , X’= y , B =
7 e (A’)-1= (1/3) − 1
5 − 1 .
3 − 17 7 z 26 + 2β − 8 31 − 5
13 − 44 7 15 − 2β 23 − 4β
(A’) B = (1/3) − 1
-1
5 − 1 7 = − 2
− 8 31 − 5 26 + 2β − 11 + 2β
138
17.22. Definizione. Dati due sistemi lineari AX =B e AX = B con A di tipo m×n, A di tipo m×n,
diremo che sono equivalenti se hanno le stesse soluzioni. Si noti che affinché due sistemi siano
equivalenti è necessario che abbiano lo stesso numero di incognite mentre, in generale, non è
necessario i due sistemi abbiano lo stesso numero di equazioni.
se la n-upla (α1, α2, α3, α4, ….., αn) è una soluzione dell’equazione (II).
Quindi, le equazioni (I) e (II) hanno le stesse soluzioni.
tale n-upla è anche soluzione dell’equazione (III). Inoltre, se la n-upla (β1, β2, β3, β4, ….., βn) è
soluzione delle equazioni (II) e (III) allora tale n-upla è anche soluzione dell’equazione (I).
Quindi, se (I) e (II) sono due equazioni di un sistema lineare AX = B allora esso è equivalente al
sistema lineare AX = B che si ottiene sostituendo l’equazione (I) con l’equazione (III).
139
Tenendo conto delle Osservazioni 17.23 e 17.24 si ha subito il seguente
17.25. Lemma. Sia AX =B un sistema lineare. Se agiamo su di esso con un numero finito di
operazioni elementari, allora otteniamo un sistema lineare AX = B equivalente a quello iniziale.
17.28. Osservazione. Si noti che ogni operazione elementare sulle righe di un sistema corrisponde
ad un’operazione elementare sulla matrice C = [A|B] completa del sistema, e viceversa.
17.29. Corollario. Sia AX =B un sistema lineare. Sia C = [A|B] la matrice completa del sistema. Se
la matrice C = [A|B] è stata ottenuta dalla matrice C con un numero finito di operazioni elementari
sulle sue righe, allora il sistema lineare AX =B è equivalente al sistema iniziale.
17.30. TEOREMA. Sia AX = B un sistema lineare non normale. Se tale sistema ha almeno una
soluzione, allora esso è equivalente ad un sistema lineare normale.
Dimostrazione. Sia AX = B un sistema lineare non normale con A di tipo m×n e sia C = [A|B].
Se esso ha almeno una soluzione allora (per il Teorema di Rouchè-Capelli) rg(C) = r = rg(A) < m.
Quindi, tra le m righe di C ve ne sono r linearmente indipendenti. Tali r righe sono una base dello
spazio delle righe di C. Per cui ognuna delle altre (m – r) si può scrivere come loro combinazione
lineare. Sia C = [A|B] la matrice che si ottiene da C cancellando queste (m – r). Il sistema lineare
AX =B (cioè quello ottenuto da quello iniziale eliminando le equazioni che sono combinazioni
lineari di altre equazioni) è equivalente, per il Corollario 17.27, al sistema iniziale. Inoltre, si ha che
numero righe di A = r = rg(A). Quindi, AX =B è un sistema lineare normale.
140
18. Sistemi lineari omogenei.
18.2. Osservazione. E’ immediato verificare che ogni sistema lineare omogeneo in n incognite ha
almeno una soluzione. Infatti, la n-upla nulla (0, 0, 0, 0, ….., 0), cioè la colonna 0, è una soluzione
del sistema lineare omogeneo AX = 0.
18.3. Definizione. Sia AX = 0 un sistema lineare omogeneo in n incognite. La sua soluzione data
dalla n-upla nulla (0, 0, 0, 0, ….., 0) viene detta soluzione banale. Ogni altra sua soluzione (quindi
diversa da quella banale) viene detta autosoluzione.
141
18.6. Teorema. Un sistema lineare omogeneo ha autosoluzioni se e solo se il rango della matrice
incompleta (matrice dei coefficienti) è minore del numero delle incognite.
Il sistema ha almeno una autosoluzione (α1, α2, α3, α4, ….., αn) ≠ (0, 0, 0, 0, ….., 0) ⇔
18.7. Esempio. Si consideri il sistema lineare omogeneo dell’Esempio 18.4. Esso aveva solo la
soluzione banale. Verifichiamo che il rango della sua matrice completa è uguale al numero delle sue
incognite. Si ha che detA = 2 ≠ 0 e, quindi, rg(A) = 3 = numero incognite.
18.8. Esempio. Si consideri il sistema lineare omogeneo dell’Esempio 18.5. Esso aveva almeno una
autosoluzione. Verifichiamo che il rango della sua matrice completa è minore del numero delle sue
incognite. Col metodo di Gauss-Jordan applicato alla matrice A si trova (vedi Esempio 18.17) una
matrice a scalino H avente una riga nulla. Quindi, rg (A) = rg(A’) = 3 < 4 = numero incognite.
18.9. Corollario. Se in un sistema lineare omogeneo il numero delle equazioni è minore del numero
delle incognite, allora esso ha sicuramente autosoluzioni.
Poiché una matrice quadrata ha rango massimo se e solo se è non singolare si ha il seguente
18.11. Corollario. Un sistema lineare omogeneo quadrato (cioè con tante equazioni quante
incognite) ha autosoluzioni se e solo se la sua matrice incompleta è singolare.
142
18.12. Esempio. Si consideri il seguente sistema lineare omogeneo di 3 equazioni in 3 incognite
x1 + 2x 3 = 0 1 0 2
x 2 + x 3 = 0 A = 0 1 1
x − 2x = 0 1 − 2 0
1 2
E’ facile verificare che detA = 0 e la terna (2, 1, −1) è una sua autosoluzione.
18.13. Tabella. Sia AX = 0 un sistema lineare omogeneo con A di tipo m×n. Si ha che:
18.14. Definizione. Con SAB indicheremo l’insieme delle soluzioni del sistema lineare AX = B.
Se il sistema ha n incognite, allora SAB è un sottoinsieme (può essere l’insieme vuoto) di Rn.
Dimostrazione. L’insieme SA0 è non vuoto poiché la n-upla nulla 0 è una soluzione di AX = 0.
Proviamo ora che SA0 è chiuso rispetto alla somma di due n-uple, cioè che se Y e Z sono due n-uple
Se Y e Z sono due n-uple di SA0 allora AY = 0 e AZ = 0 sono due identità. Sommandole membro a
membro si ottiene l’identità AY+AZ = 0 + 0 da cui l’identità A(Y+Z) = 0. Per cui (Y+Z) è una
soluzione di AX = 0 e, quindi, (Y+Z) è una n-upla di SA0.
Infine, proviamo che SA0 è chiuso rispetto al prodotto di un numero reale (scalare) per una n-upla,
cioè se α è un numero reale e Y è una n-upla di di SA0 allora anche (αY) è una n-upla di SA0.
identità per α si ottiene l’identità α(AY) = α0 da cui l’identità A(αY) = 0. Per cui αY è una
soluzione di AX = 0 e, quindi, (αY) è una n-upla di SA0.
143
Omettiamo la dimostrazione del seguente
x1 + 8x 3 + 7 x 4 = 0 1 0 8 7
(♣) x 2 − 12 x 3 − 13x 4 = 0 A’ = 0 1 − 12 − 13
x + x = 0 0 0 1 1
3 4
Poiché le prime tre colonne di A’ sono sicuramente linearmente indipendenti, portando l’incognita
x4 a secondo membro e ponendo x4 = β, otteniamo il seguente sistema di Cramer
x1 + 8x 3 = −7β 1 0 8
(♠) x 2 − 12x 3 = 13β A’’ = 0 1 − 12
x = −β 0 0 1
3
L’unica soluzione di (♠) è la terna (x1, x2, x3) = (β, β, −β). Per cui, per ogni valore reale di β la
quaterna (x1, x2, x3, x4) = (β, β, −β, β) è una soluzione del sistema (♣) e, quindi, del sistema (♥).
Per cui il sottospazio delle soluzioni di (♥) è SA0 = {(β, β, −β, β)∈R4 | β∈R}. Inoltre, poiché
(β, β, −β, β) = β(1, 1, −1, 1), la quaterna (1, 1, −1, 1) è un generatore del sottospazio SA0. Essendo
(1, 1, −1, 1) anche linearmente indipendente (è diversa dalla quaterna nulla) si ha che la quaterna
(1, 1, −1, 1) è una base di SA0. Quindi, dimSA0 = 1 = 4 − 3 = n − rg(A).
144
18.18. Esempio. Si consideri il sistema lineare omogeneo dell’Esempio 18.10
x1 + 4x 2 + 2x 3 − 3x 5 = 0 1 4 2 0 − 3
(♥) 2x1 + 9x 2 + 5x 3 + 2x 4 + x 5 = 0 A = 2 9 5 2 1
x + 3x + x − 2x − 9x = 0 1 3 1 − 2 − 9
1 2 3 4 5
x1 + 4x 2 + 2x 3 − 3x 5 = 0 1 4 2 0 − 3
(♣) x 2 + x 3 + 2x 4 + 7 x 5 = 0 A’ = 0 1 1 2 7
x = 0 0 0 0 0 1
5
Poiché le prima, la seconda e la quinta colonna di A’ sono sicuramente linearmente indipendenti,
portando le incognite x3 e x4 a secondo membro e ponendo x3 = α e x4 = β, otteniamo il seguente
sistema di Cramer
x1 + 4x 2 − 3x 5 = −2α 1 4 − 3
(♠) x 2 + 7 x 5 = −α − 2β A’’ = 0 1 7
x = 0 0 0 1
5
L’unica soluzione di (♠) è la terna (x1, x2, x3) = (2α+8β, −α−2β, 0). Per cui, per ogni valore reale
di α e β la 5-upla (x1, x2, x3, x4, x5) = (2α+8β, −α−2β, α, β, 0) è una soluzione del sistema (♣) e,
Per cui il sottospazio delle soluzioni di (♥) è SA0 = {(2α+8β, −α−2β, α, β, 0)∈R5 | α,β∈R}.
Inoltre, poiché (2α+8β, −α−2β, α, β, 0) = α(2, −1, 1, 0, 0) + β(8, −2, 0, 1, 0), le 5-uple (2, −1, 1, 0)
e (8, −2, 0, 1, 0) sono generatori del sottospazio SA0.
Essendo (2, −1, 1, 0) e (8, −2, 0, 1, 0) anche linearmente indipendenti (si verifica subito che non
sono proporzionali tra loro) si ha che B = ((2, −1, 1, 0), (8, −2, 0, 1, 0)) è una base di SA0.
145
18.19. Esempio. Si consideri il sistema lineare omogeneo seguente
2 x1 − 2 x 2 + 3x 3 + 6 x 4 + 5x 5 = 0 2 −2 3 6 5
4 x − 5 x + 7 x + 3x − 8 x = 0 4 −5 7 3 − 8
1 2 3 4 5
8x − 9 x 2 + 13x 3 + 15x 4 + 2 x 5 = 0 8 −9 13 15 2
(♥) 1 A=
10 x1 − 12 x 2 + 17 x 3 + 12 x 4 − 11x 5 = 0 10 − 12 17 12 − 11
6 x1 − 7 x 2 + 10 x 3 + 9 x 4 − 3x 5 = 0 6 −7 10 9 −3
14 x1 − 17 x 2 + 24 x3 + 15x 4 − 19 x 5 = 0 14 − 17 24 15 − 19
Inoltre, il sistema lineare omogeneo iniziale (♥) è equivalente al sistema lineare omogeneo
2x − 2 x 2 + 3x 3 + 6x 4 + 5x 5 = 0 2 − 2 3 6 5
(♣) 1 A’ =
x 2 − x 3 + 9x 4 + 18x 5 = 0 0 1 − 1 9 18
Poiché le prima e la seconda colonna di A’ sono linearmente indipendenti, portando le incognite x3 ,
x4 e x5 a secondo membro e ponendo x3 = 2α , x4 = β e x5 = 2γ, otteniamo il sistema di Cramer
reale di α, β e γ la 5-upla (x1, x2, x3, x4, x5) = (−α−12β−41γ, 2α−9β−36γ, 2α, β, 2γ) è una soluzione
del sistema (♣) e, quindi, del sistema (♥). Per cui il sottospazio delle soluzioni di (♥) è
Inoltre, poiché
(−α−12β−41γ, 2α−9β−36γ, 2α, β, 2γ) = α(−1, 2, 2, 0, 0) + β(−12, −9, 0, 1, 0) + γ(−41, −36, 0, 0, 2)
le 5-uple (−1, 2, 2, 0, 0), (−12, −9, 0, 1, 0) e (−41, −36, 0, 0, 2) sono generatori del sottospazio SA0.
−1 2 2 0 0
Inoltre, la matrice − 12 − 9 0 1 0 che ha come righe quelle tre 5-uple ha sicuramente
− 41 − 36 0 0 2
rango 3 poiché contiene una sottomatrice (quella formata dalle ultime tre colonne) di ordine 3 non
singolare. Quindi, quelle tre 5-uple sono linearmente indipendenti e formano una base di SA0. Per
146
La proprietà vista nel Teorema 18.15 non vale per i sistemi lineari non omogenei. Infatti,
neutro 0 rispetto alla somma non appartiene a SAB , esso non è un sottospazio Rn.
18.21. Definizione. Se AX = B è un sistema lineare non omogeneo (cioè con B ≠ 0), allora il
sistema lineare omogeneo AX = 0 (cioè avente la stessa matrice A dei coefficienti) viene detto
sistema omogeneo associato al sistema lineare non omogeneo AX = B.
18.22. Teorema. Sia AX = B un sistema lineare non omogeneo in n incognite avente almeno una
soluzione e sia Yp una qualsiasi di esse. Una n-upla Z∈Rn è una soluzione del sistema AX = B
(cioè Z∈SAB) se e solo se (⇔) esiste una n-upla X0∈Rn soluzione del sistema omogeneo associato
⇒) Supponiamo che Z∈SAB cioè che AZ = B sia un identità. Sottraendo membro a membro da tale
identità l’identità AYp = B otteniamo l’identità AZ−AYp = B−B da cui l’identità A(Z−Yp) = 0. Per
cui la n-upla (Z−Yp) è una soluzione del sistema omogeneo associato AX = 0, cioè (Z−Yp)∈SA0.
⇐) Consideriamo, ora, una n-upla di Rn del tipo Z = Yp + X0 dove X0 è una soluzione del sistema
a membro a tale identità l’identità AYp = B otteniamo l’identità AYp + AX0= B+0 da cui l’identità
A(Yp+X0) = B. Quindi, la n-upla Z = (Yp+X0) è una soluzione del sistema AX = B.
147
1. Esercizio. Il seguente sistema lineare
x1 − 5x 3 + 2 x 6 = 6
2 x + x + 3x = 6
2 4 5
2 x − 7 x 3 + 3x 6 = 4
(1) 1
3x 2 + 2 x 4 + 4 x 5 = 7
2 x1 − x 3 + x 6 = −12
4 x 2 + 3x 4 + 5x 5 = 9
non ha soluzioni.
ha come unica soluzione la quaterna (x1, x2, x3, x4) = (1, −1, −1, 1).
148
5. Esercizio. Il seguente sistema lineare
40 x1 + 5x 2 + 55x 3 − 25x 4 + 213x 5 = 35
8x + x + 11x − 5x − 11x = 7
1 2 3 4 5
56 x1 + 7 x 2 + 77 x 3 − 35x 4 − 197 x 5 = 49
24 x1 + 3x 2 + 33x 3 − 15x 4 − 29 x 5 = 21
149
9. Esercizio. Si consideri il seguente sistema lineare “simultaneo”
2x − 3y − z = 1; = 0; = 0 2 − 3 − 1
x + 2 y + z = 0; = 1; = 0 A = 1 2 1
3x + 6 y + 2z = 0; = 0; = 1 3 6 2
Il primo ha come unica soluzione la terna (x, y, z) = (2/7, −1/7, 0).
Il secondo ha come unica soluzione la terna (x, y, z) = (0, −1, 3).
Il terzo ha come unica soluzione la terna (x, y, z) = (1/7, 3/7, −1).
Si noti che la matrice B che ha come colonne ordinatamente le precedenti tre terne è l’inversa di A.
150
19. Autovalori e autovettori di una matrice quadrata.
19.1 Osservazione. Se A è una matrice quadrata ad elementi reali di ordine n e H è una matrice
(colonna) ad elementi reali di tipo n×1 (cioè una n-upla ordinata di numeri reali), allora la matrice
AH è una matrice (colonna) ad elementi reali di tipo n×1, cioè AH è dello stesso tipo di H.
Si osservi che non esiste un numero reale β tale che AH = βH, mentre AK = 7K.
19.4. Definizione. Sia A una matrice quadrata ad elementi reali di ordine n. Se esistono un numero
reale β e una matrice (colonna) ad elementi reali non nulla H di tipo n×1 tali che AH = βH allora
diremo che β è un autovalore di A e che H è un autovettore di A relativo all’autovalore β.
Quindi, H ≠ 0 è un autovettore di A se e solo se AH è un multiplo di H.
19.5 Esempio. Consideriamo ancora la matrice dell’Esempio 19.2 e i seguenti vettori colonna
1 2 0
K = 0 H2 = 0 H3 = 1
2 − 3 0
Abbiamo già visto che AK = 7K. Inoltre, è facile verificare che AH2 = 0H2 e AH3 = H3 . Quindi,
19.6. Osservazione. Si noti che, per definizione, un autovettore è un vettore non nullo mentre,
come abbiamo visto nell’Esempio 19.5, un autovalore può anche essere uguale a zero.
151
19.7. Lemma. Se A è una matrice quadrata ad elementi reali di ordine n, allora il determinante della
matrice (A − λIn) è un polinomio a coefficienti reali di grado n nella indeterminata λ.
Dimostrazione. (per induzione sull’ordine n della matrice A).
Se A = [a11] è una matrice quadrata di ordine 1 allora det(A − λI1) = (a11 − λ) è un polinomio di
elementi della prima riga di (A − λIn) sono (a11 − λ), a12 , a13 , a14 , ….., a1n
Poichè per ogni j = 1,2,3,4,…,n la matrice (A − λIn)1j è una matrice quadrata di ordine (n − 1)
allora, per ipotesi, il suo determinante det(A − λIn)1j è un polinomio di grado (n − 1).
Quindi, per ogni j = 2,3,…,n, a1jdet(A − λIn)1j o è uguale a zero o è un polinomio di grado (n − 1).
n
Per cui anche ∑ (–1)1+ja1jdet(A − λIn)1j o è uguale a zero o è un polinomio di grado (n − 1).
j= 2
Invece, (a11 − λ)det(A − λIn)11 è certamente un polinomio di grado n. Quindi, la somma dei due
n
polinomi (a11 − λ)det(A − λIn)11 e ∑ (–1)1+ja1jdet(A − λIn)1j è un polinomio di grado n.
j= 2
19.8 Definizione. Sia A una matrice quadrata ad elementi reali di ordine n. Il determinante della
matrice (A − λIn) viene detto polinomio caratteristico di A e viene indicato con il simbolo pA(λ).
5 2 λ 0 (5 − λ) 2
A= λI2 = (A − λI2) =
3 0 0 λ 3 − λ
152
19.10 Esempio. pA(λ) = det(A − λI3) = −λ3 + 8λ2 − 7λ = λ(λ − 1)(7 − λ)
3 0 2 λ 0 0 (3 − λ ) 0 2
A = 0 1 0 λI3 = 0 λ 0
(A − λI3) = 0 (1 − λ ) 0
6 0 4 0 0 λ 6 0 (4 − λ )
0 1 0 0 λ 0 0 0 − λ 1 0 0
3 0 2 0 0 λ 0 0 3 −λ 2 0
A= λI4 = (A − λI4) =
0 2 0 3 0 0 λ 0 0 2 −λ 3
0 0 1 0 0 0 0 λ 0 0 1 − λ
19.12. Teorema. Sia A una matrice quadrata ad elementi reali di ordine n. Un numero reale β è un
autovalore di A se e solo se esso è una radice del polinomio caratteristico di A, cioè pA(β) = 0.
Inoltre, gli autovettori di A relativi all’autovalore β sono tutte e sole le autosoluzioni del sistema
lineare omogeneo quadrato (A − βIn)X = 0.
5 2
19.13 Esempio. Gli autovalori di A = sono λ1 = −1, λ2 = 6.
3 0
3 0 2
19.14 Esempio. Gli autovalori di A = 0 1 0 sono λ1 = 0, λ2 = 1, λ3 = 7.
6 0 4
0 1 0 0
3 0 2 0
19.15 Esempio. Gli autovalori di A = sono λ1 = −1, λ2 = 1, λ3 = −3, λ4 = 3.
0 2 0 3
0 0 1 0
153
19.16 Esercizi Trovare i polinomi caratteristici e gli autovalori delle seguenti matrici:
2 1 1
A= 2 3 4 pA(λ) = −λ3 + 3λ2 + λ − 3 = (3 − λ)(λ − 1)(λ + 1)
− 1 − 1 − 2
2 − 1 1
B = 0 3 − 1 pB(λ) = −λ3 + 8λ2 − 20λ + 16 = (4 − λ)(λ − 2)2
2 1 3
2 1 1
C = 2 3 2 pC(λ) = −λ3 + 9λ2 − 15λ + 7 = (7 − λ)(λ − 1)2
3 3 4
1 0 1 0
1 1 0 1
D= pD(λ) = λ4 − 4λ3 + 4λ2 = λ2(λ − 2)2
1 0 1 0
0 1 1 1
1 2 0 3
− 1 − 2 0 − 3
E= pE(λ) = λ4 − 4λ3 + 4λ2 = λ2(λ − 2)2
0 0 2 0
1 2 0 3
3 − 1 0 0
0 3 0 0
F= pF(λ) = (λ − 3)4
1 0 3 1
0 1 0 3
154
19.17 Esercizi Trovare gli autovettori delle matrici precedenti.
1 1
B → λ1 = 2 , H1 = h − 1 λ2 = 4 , H2 = h − 1 ∀h∈R−{0}
− 1 1
1 1 0
C → λ1 = 7 , H1 = h 2 ∀h∈R−{0} λ2 = 1 , H2 = h 0 + k 1 ∀h,k∈R2−{(0,0)}
3 −1 −1
0 0
1 1
D → λ1 = 0 , H1 = h λ2 = 2 , H2 = h ∀h∈R−{0}
0 0
−1 1
− 2 − 3 0 1
1 0 0 − 1
E → λ1 = 0 , H1 = h + k λ2 = 2 , H2 = h + k ∀h,k∈R2−{(0,0)}
0 0 1 0
0 1 0 1
1 0
0 0
F → λ1 = 3 , H1 = h + k ∀h,k∈R2−{(0,0)}
0 1
−1 0
155
RICORDIAMO che se p(x)∈R[x] e il suo grado è n, allora
• un numero reale α è una sua radice (cioè p(α) = 0) se e solo se p(x) è divisibile per (x − α);
• α è una sua radice di molteplicità h se p(x) è divisibile per (x − α)h ma non per (x − α)h+1;
• la somma delle molteplicità delle radici reali a due a due distinte tra loro è minore o uguale a n;
• se n è dispari allora p(x) ha almeno una radice reale.
156
19.21 Osservazione. Se A è una matrice ad elementi reali quadrata di ordine n avente s autovalori
λ1, λ2, λ3, …, λs-1, λs a due a due distinti tra loro (cioè i ≠ j ⇔ λi ≠ λj), allora pA(λ) è divisibile
Si noti che in tutti i precedenti casi vale il segno di uguaglianza, in quanto ognuno dei polinomi
caratteristici ha solo radici reali.
Nel Teorema 19.12 abbiamo visto che gli autovettori relativi ad un autovalore β di una matrice A ad
elementi reali quadrata di ordine n sono tutte e sole le autosoluzioni del sistema lineare omogeneo
(A − βIn)X = 0. Tenendo conto del fatto l’insieme delle soluzioni di tale sistema lineare omogeneo
19.23 Definizione. Sia A una matrice ad elementi reali quadrata di ordine n e sia β un suo
autovalore. Lo spazio delle soluzioni del sistema lineare omogeneo (A − βIn)X = 0 viene detto
19.24 Osservazione. Se E(β) è un autospazio della matrice A ad elementi reali quadrata di ordine n,
allora un vettore di Rn appartiene ad E(β) se e solo se è il vettore nullo aut è un autovettore di A
relativo all’autovalore β.
157
Relativamente all’intersezione di due autospazi si ha il seguente
Se esistesse un autovettore H ≠ 0 tale che H∈E(λ1) ∩ E(λ2) allora si avrebbero le due identità
l’identità (λ2 − λ1)H = 0. Poiché (λ2 − λ1) ≠ 0, per la legge di annullamento del prodotto di uno
scalare per un vettore si avrebbe che H = 0. Ma ciò è assurdo. Quindi, E(λ1) ∩ E(λ2) = {0}.
19.26 Osservazione. Se E(β) è un autospazio della matrice A ad elementi reali quadrata di ordine n,
allora dimE(β) = n − rg(A − βIn). Inoltre, poiché det(A − βIn) = 0 si ha che rg(A − βIn) < n. Quindi
19.28. Teorema. Se β è un autovalore della matrice A ad elementi reali quadrata di ordine n, allora
la sua molteplicità geometrica è minore o uguale alla sua molteplicità algebrica, cioè
1 ≤ mg(β) ≤ ma(β)
19.29 Corollario. Sia β un autovalore di una matrice A ad elementi reali quadrata di ordine n.
Se ma(β) = 1 allora mg(β) = 1.
158
19.30 Esempio. Si considerino le matrici dell’Esercizio 19.17.
Matrice A ma(3) = ma(1) = ma(−1) = 1 ⇒ mg(3) = mg(1) = mg(−1) = 1
19.31 Corollario. Se A è una matrice ad elementi reali quadrata di ordine n avente s autovalori
λ1, λ2, λ3, …, λs-1, λs a due a due distinti tra loro (cioè i ≠ j ⇔ λi ≠ λj), allora
Se H1, H2, H3, …, Hs-1, Hs sono s autovettori di A relativi agli autovalori λ1, λ2, λ3, …, λs-1, λs
rispettivamente, allora gli autovettori H1, H2, H3, …, Hs-1, Hs sono linearmente indipendenti.
Dimostrazione. (per induzione sul numero s di autovalori a due a due distinti tra loro)
Se s = 1 allora l’autovettore H1 è certamente linearmente indipendente in quanto diverso dal vettore
nullo. Quindi, per s = 1 la tesi è vera (base induttiva). Ora, nell’ipotesi (induttiva) che la tesi sia vera
per (s − 1) proviamo la tesi per s. A tal fine dobbiamo provare che se
(♥) α1H1 + α2H2 + α3H3 + … + αs-1Hs-1 + αsHs = 0
159
Moltiplicando entrambe i membri dell’identità (♥) a sinistra per la matrice A otteniamo le identità
A(α1H1 + α2H2 + α3H3 + … + αs-1Hs-1 + αsHs) = A0
Poiché H1, H2, H3, …, Hs-1, Hs sono autovettori relativi agli autovalori λ1, λ2, λ3, …, λs-1, λs si ha
Poiché, per ipotesi, gli (s − 1) autovettori H1, H2, H3, …, Hs-1, sono linearmente indipendenti si ha
19.34 Corollario. Se A è una matrice ad elementi reali quadrata di ordine n avente n autovalori a
due a due distinti tra loro, allora esistono n autovettori di A linearmente indipendenti. Quindi, in tal
caso esiste sicuramente una base di Rn formata da autovettori della matrice A.
Se per ogni i∈{1, 2, 3, …, s} Hi1, Hi2, Hi3, ..., Himi sono mi autovettori relativi all’autovalore λi
160
Dimostrazione. Considerata una combinazione lineare di tutti gli autovettori
H11, H12, …, H1m1, H21, H22, …, H2m2, H31, H32, …, H3m3, ….., Hs1, Hs2, …, Hsms
si provi che se essa ha come risultato il vettore nullo, allora tutti i suoi coefficienti sono nulli.
s
(♥) Σ (αi1Hi1 + αi2Hi2 + αi3Hi3 + ….. + αimiHimi) = 0
i =1
Poiché Hi1, Hi2, Hi3, ..., Himi∈E(λi) si ha che Ki∈E(λi) e, dalla (♥), che
s
(♣) Σ Ki = K1 + K2 + K3 + ….. + Ks = 0
i =1
Sia J := {j∈{1, 2, 3, …, s} | Kj ≠ 0}. Se fosse J ≠ ∅ allora per ogni j∈J (per l’Osservazione 19.24)
sarebbe una combinazione lineare (con tutti i coefficienti uguali a uno) di autovettori linearmente
indipendenti (per il Lemma 19.33) avente come risultato il vettore nullo. Essendo ciò un assurdo, si
ha che J = ∅, cioè per ogni i∈{1, 2, 3, …, s} è Ki = 0.
161
Tenendo conto del Corollario 19.31 dal Teorema 19.35 si ha subito il seguente
19.36 Corollario. Sia A una matrice ad elementi reali quadrata di ordine n. Esiste una base di Rn
formata da autovettori di A se e solo se la somma delle molteplicità geometriche dei suoi autovalori
è uguale al suo ordine n.
19.37 Teorema. Sia A una matrice ad elementi reali quadrata di ordine n. Esiste una base di Rn
formata da autovettori di A se e solo se sono soddisfatte entrambe le condizioni seguenti:
(1) le radici del polinomio caratteristico di A sono tutte reali (non ci sono radici complesse);
(2) per ogni autovalore la sua molteplicità algebrica è uguale alla sua molteplicità geometrica.
• ((1, 2, 3), (1, 0, −1), (0, 1, −1)) è una base di R3 formata da autovettori di C;
• mg(2) = 1 < 2 = ma(2) quindi, NON esiste una base di R4 formata da autovettori di D;
• ((−2, 1, 0, 0), (−3, 0, 0, 1), (0, 0, 1, 0), (1, −1, 0, 1)) è una base di R4 formata da autovettori di E;
• mg(3) = 2 < 4 = ma(3) quindi, NON esiste una base di R4 formata da autovettori di F;
Relativamente ad una matrice avente un solo autovalore reale (come la matrice F dell’Esempio
19.38) possiamo provare il seguente
19.39 Teorema. Sia A una matrice ad elementi reali quadrata di ordine n avente un solo autovalore
β. Esiste una base di Rn formata da autovettori di A se e solo se A = βIn.
162
20. Diagonalizzazione di una matrice quadrata.
20.1 Definizione. Siano A e B due matrici ad elementi reali quadrate dello stesso ordine n.
Diremo che la matrice A è simile alla matrice B se esiste una matrice P ad elementi reali quadrata di
ordine n invertibile (cioè detP ≠ 0) tale che A = PBP-1, ovvero AP = PB.
Ricordiamo che una matrice quadrata A = [aij] si dice diagonale se sono nulli tutti gli elementi che
Con il simbolo diag(λ1, λ2, λ3, ….., λn-1, λn) indicheremo una matrice ad elementi reali diagonale
di ordine n avente i numeri reali λ1, λ2, λ3, ….., λn-1, λn sulla sua diagonale principale.
20.4 Definizione. Sia A una matrice ad elementi reali quadrata di ordine n. Diremo che la matrice A
è diagonalizzabile se A è simile ad una matrice diagonale. Cioè, A è diagonalizzabile se esistono
una matrice P invertibile ed una matrice diagonale Λ = diag(λ1, λ2, λ3, λ4, ….., λn-1, λn) tali che
A = PΛP-1. ovvero AP = PΛ
In tal caso si dice anche che le matrici P e Λ diagonalizzano la matrice A.
20.5 Osservazione. Per l’Osservazione 20.2.2 si ha che una matrice diagonale è diagonalizzabile
163
20.6 Osservazione. Siano A e P due matrici ad elementi reali quadrate aventi lo stesso ordine n e
sia Λ = diag(λ1, λ2, λ3, λ4, ….., λn-1, λn) una matrice ad elementi reali diagonale di ordine n.
Tenendo conto di come è stato definito il prodotto riga per colonna si ha subito che:
20.6.1. per ogni indice di colonna j∈{1, 2, 3, …, n} si ha che la j-esima colonna della matrice
prodotto (AP) è uguale al prodotto della matrice A per la j-esima colonna della matrice P. Cioè,
(AP)j = A(Pj)
20.6.2. per ogni indice di colonna j∈{1, 2, 3, …, n} si ha che la j-esima colonna della matrice
prodotto (PΛ) è uguale al prodotto dello scalare λj per la j-esima colonna della matrice P. Cioè,
(PΛ)j = λjPj
20.7 Teorema. Una matrice A ad elementi reali quadrata di ordine n è diagonalizzabile se e solo se
esiste una base di Rn formata da autovettori di A.
Dimostrazione. A è diagonalizzabile ⇔
⇔ esistono una matrice P invertibile ed una matrice diagonale Λ tali che A = PΛP-1 ⇔
⇔ esistono una matrice P invertibile ed una matrice diagonale Λ tali che AP = PΛ ⇔
⇔ esistono una matrice P invertibile ed una matrice diagonale Λ tali che per ogni j∈{1,2,3,…,n}
la j-esima colonna di AP è uguale alla j-esima colonna di PΛ ⇔
⇔ esistono una matrice P invertibile ed una matrice diagonale Λ tali che per ogni j∈{1,2,3,…,n}
si ha (AP)j = (PΛ)j ⇔
⇔ esistono n colonne P1, P2, P3, ..., Pn linearmente indipendenti e n numeri reali λ1, λ2, λ3, ..., λn
20.8 Osservazione. Se esiste una base B di Rn formata da autovettori di A, nella dimostrazione del
Teorema 20.7 abbiamo visto un modo pratico per trovare una matrice diagonale Λ ed una matrice
invertibile P che diagonalizzano A. La matrice Λ = diag(λ1, λ2, λ3, λ4, ….., λn-1, λn) è la matrice
che ha sulla diagonale principale gli autovalori di A ognuno ripetuto tante volte quanto è la sua
molteplicità algebrica. La matrice P è la matrice che ha come colonna j-esima un autovettore della
base B relativo all’autovalore λj.
164
20.9 Esempio. Si consideri la matrice
2 1 1
A= 2 3 4 pA(λ) = −λ3 + 3λ2 + λ − 3 = (3 − λ)(λ − 1)(λ + 1)
− 1 − 1 − 2
piacere) due autovettori linearmente indipendenti per l’autovalore λ2, ad esempio H2 = (1,0,−1) e
165
20.11 Esempio. Si consideri la matrice
1 2 0 3
− 1 − 2 0 − 3
E= pE(λ) = λ4 − 4λ3 + 4λ2 = λ2(λ − 2)2
0 0 2 0
1 2 0 3
Abbiamo già visto che gli autovettori di E sono
λ1 = 0 → H(λ1) = α(−2, 1, 0, 0) + β(−3, 0, 0, 1) ∀α,β∈R2−{(0,0)}
Scegliendo (a piacere) due autovettori linearmente indipendenti per l’autovalore λ1, ad esempio
a b
20.12 Teorema. Sia A = una matrice ad elementi reali quadrata di ordine 2 non diagonale.
c d
La matrice A è diagonalizzabile se e solo se ha due autovalori distinti, ovvero [(a − d)2 + 4bc] > 0.
Se ∆ > 0 allora A ha due autovalori distinti. Per cui, per il Corollario 19.34 esiste una base di R2
formata da autovettori di A. Quindi, per il Teorema 20.7 la matrice A è diagonalizzabile.
Se ∆ = 0 allora la matrice A ha un solo autovalore β avente molteplicità algebrica 2. Poiché A non è
uguale alla matrice diagonale βI2 (per il Teorema 19.39) la matrice A non è diagonalizzabile.
Se ∆ < 0 allora la matrice A non ha autovalori. Per cui, non esiste una base di R2 formata da
autovettori di A. Quindi, per il Teorema 20.7 la matrice A non è diagonalizzabile.
166
t ( t − 2)
20.13 Esempio. Si consideri la matrice A = .
2 2
Determinare per quali valori del parametro reale t la matrice A è diagonalizzabile.
pA(λ) = λ2 − (t + 2)λ + 4 ∆ = t2 + 4t − 12 = (t + 6)(t − 2)
5 7 0
20.14 Esempio. Si consideri la matrice A= 0 h 0
- 2 k 3
∈R−
Per ogni h∈ −{3,5} la matrice A ha tre autovalori a due a due distinti tra loro e, quindi, per il
Corollario 19.34 esiste una base di R3 formata da autovettori di A, ovvero A è diagonalizzabile.
5 7 0
Per h = 3 si ha la matrice A= 0 3 0 e i suoi autovalori sono λ1 = 5 e λ2 = 3. La molteplicità
- 2 k 3
2 7 0
rg(A − λ2I3 ) = rg(A − 3I3 ) = rg 0 0 0
- 2 k 0
5 7 0
Per h = 5 si ha la matrice A= 0 5 0 e i suoi autovalori sono λ1 = 5 e λ2 = 3. La molteplicità
- 2 k 3
0 7 0
rg(A − λ1I3 ) = rg(A − 5I3 ) = rg 0 0 0
- 2 k - 2
si ha che per ogni valore di k è rg(A − 5I3 ) = 2 ovvero è mg(λ1) = 1. Per cui non esiste una base di
167
20.15 Definizione. Una matrice C ad elementi reali quadrata C si dice ortogonale se CT = C−1.
20.16 Osservazione. Una matrice C ad elementi reali quadrata C è ortogonale se e solo se CTC= I.
Dimostrazione. Se C è ortogonale allora CTC = C−1C = I. Viceversa, se CTC= I allora detC ≠ 0 e,
quindi, C è invertibile. Si ha che CT = CTI = CT(CC−1) = (CTC)C−1 = IC−1 = C−1.
20.18 Teorema. Una matrice C ad elementi reali quadrata di ordine 2 è ortogonale se e solo se
Si osservi che nel primo caso è detC = 1 mentre nel secondo caso è detC = −1.
Si osservi, inoltre, che cambiando il segno della seconda colonna di una matrice del primo tipo si
ottiene una matrice del secondo tipo e viceversa.
x 2 + y2 = 1
x y x z 1 0 2
Da CTC = C−1C = I si ha che = ovvero il sistema: 2
z + w = 1
z w y w 0 1 zx + wy = 0
cosθ sin θ
Se ω = θ − π/2 allora cosω = sinθ e sinω = −cosθ e, quindi, C = .
sin θ − cos θ
168
20.19 Definizione. Una matrice A ad elementi reali quadrata si dice simmetrica se AT = A.
20.20 Teorema. Una matrice A ad elementi reali quadrata simmetrica di ordine 2 è sempre
diagonalizzabile tramite una matrice ortogonale C con detC = 1.
Dimostrazione. Sia A una generica matrice ad elementi reali quadrata simmetrica di ordine 2.
a b
A=
b c
Se b = 0 allora A è già una matrice diagonale. Se b ≠ 0 si consideri il polinomio caratteristico di A:
p (λ) = det(A−λI) = (a − λ)(c − λ) − b2 = λ2 − (a + c)λ + (ac − b2) (♥)
A
Poiché il suo discriminante ∆ = (a − c)2 + 4b2 è strettamente positivo, la matrice A ha due autovalori
λ1 e λ2 reali e distinti e, quindi, per il Teorema 20.12 la matrice A è diagonalizzabile.
a − λ1 b x1 0
(x, y) è un autosoluzione del sistema omogeneo = .
b c − λ1 x 2 0
a − λ2 b x1 0
(z, w) è un autosoluzione del sistema omogeneo x = 0 .
b c − λ2 2
Per cui, (x, y) = m(b, λ1−a) e (z, w) = n(b, λ2− a) con m ed n costanti (a piacere) non nulle.
Si ha che xz + yw = mn[b2 + (λ1 − a)(λ2 − a)] = mn[b2 + λ1λ2 − a(λ1 + λ2) + a2] =
= per (♠) = mn[b2 + (ac − b2) − a(a + c) + a2] = mn[b2 + ac − b2− a2− ac + a2] = 0
Si ha che x2 + y2 = m2[b2 + (λ1 − a)2] e z2 + w2 = n2[b2 + (λ2 − a)2].
x z T
Sia D = la matrice che ha come colonne gli autovettori (x, y) e (z, w). Si ha che D D = I.
y w
x z x − z
Se detD = 1 allora sia C := . Se, invece, detD = −1 sia C := y − w .
y w
In ogni caso, C è ortogonale con detC = 1 e la seconda colonna di C è un autovettore relativo a λ2.
λ1 0 −1
Posto Λ := T
si ha, poiché A è diagonalizzabile, che A = CΛC = CΛC .
0 λ2
169
7 − 2
20.21 Esercizio. Si consideri la seguente matrice simmetrica A = .
− 2 4
Trovare una matrice diagonale Λ ed una matrice ortogonale C con detC = 1 che diagonalizzano A.
Gli autovalori di A sono λ1 = 3 e λ2 = 8.
λ 0 3 0 α − 2β
Ponendo Λ = 1 = e C= si ha che A = CΛC−1.
0 λ 2 0 8 2α β
1 1 1 − 2
ORA, se scegliamo α = β = otteniamo C = . Con tale scelta si ha che detC = +1
5 5 2 1
7 − 2 1 1 − 2 3 0 1 1 2 1 1 − 2 3 0 1 2
− 2 4 = ( 2 1 ) 0 8 ( − 2 1 ) = 5 2 1 0 8 − 2 1
5 5
2 3 3
20.22 Esercizio. Si consideri la seguente matrice simmetrica A =
3 3 − 4
Trovare una matrice diagonale Λ ed una matrice ortogonale C con detC = 1 che diagonalizzano A.
Gli autovalori di A sono λ1 = 5 e λ2 = −7.
λ1 0 5 0 α 3 −β −1
Ponendo Λ = = e C= si ha che A = CΛC .
0 λ 2 0 − 7 α 3β
3 1
1 −
ORA, se scegliamo α = β = otteniamo C = 2 2 . Con tale scelta si ha che detC = +1 e
2 1 3
2 2
3 1 3 1
2 3 3 − 5 0
2 2 2 2
=
3 3 − 4 1 3 0 − 7 − 1 3
2 2 2 2
170
f ' = 3f − 4g
20.23 Esercizio. Si consideri il sistema di equazioni differenziali
g ' = −9f − 6g
3 − 4 f f '
Ponendo A := , X := g e X’ := g ' , il sistema si può scrivere così X’ = AX.
− 9 − 6
Relativamente alla matrice A si ha che
pA(λ) = λ2 + 3λ − 54 = (λ − 6)(λ + 9)
Si ha che
p1 p2 f p1f + p 2g
• P-1X = g = p f + p g
p3 p4 3 4
Ponendo F := p1f + p2g , G := p3f + p4g si ha che F’ := p1f’ + p2g’ , G’ := p3f’ + p4g’
p1 p2 f p1f + p 2g F
• P-1X = = =
p3 p4 g p3f + p 4g G
F F' -1 -1
Ponendo Y := e Y’ = G ' si ha P X = Y e P X’ = Y’. Quindi, X = PY
G
X’ = AX ⇒ X’ = (PΛP-1)X ⇒ X’ = PΛ(P-1X) ⇒ P-1X’ = Λ(P-1X) ⇒ Y’ = ΛY ⇒
f 4 1 F f = 4F + G f = 4αe6 x + β e −9 x
X = PY ⇒ = ⇒ ⇒
g − 3 3 G g = −3F + 3G g = −3αe6 x + 3β e−9 x
171
20.24 Esercizio. Si consideri l’equazione differenziale f’’ + 3f’ − 4f = 0.
f ' = 0f + 1g
Ponendo g := f’ si ha che g’ := f’’ e tale equazione è equivalente al sistema
g ' = 4f − 3g
0 1 f f '
Ponendo A := , X := e X’ := , il sistema si può scrivere così X’ = AX.
4 − 3 g g '
Relativamente alla matrice A si ha che
pA(λ) = λ2 + 3λ − 4 = (λ − 1)(λ + 4)
Si ha che
p1 p2 f p1f + p 2g
• P-1X = =
p3 p4 g p3f + p 4g
Ponendo F := p1f + p2g , G := p3f + p4g si ha che F’ := p1f’ + p2g’ , G’ := p3f’ + p4g’
p1 p2 f p1f + p 2g F
• P-1X = g = p f + p g = G
p3 p4 3 4
F F'
Ponendo Y := e Y’ = si ha P-1X = Y e P-1X’ = Y’. Quindi, X = PY
G G '
X’ = AX ⇒ X’ = (PΛP-1)X ⇒ X’ = PΛ(P-1X) ⇒ P-1X’ = Λ(P-1X) ⇒ Y’ = ΛY ⇒
f 1 1 F f = F + G f = αe x + βe − 4 x
X = PY ⇒ = ⇒ ⇒
g 1 − 4 G g = F − 4G g = αe x − 4β e − 4 x
172
21. Geometria affine del piano.
21.1. Definizione. Sia π un piano e sia O un suo punto. Siano i e j due vettori liberi linearmente
indipendenti e paralleli al piano π. Diremo che la terna ordinata (O, i, j) è un riferimento affine del
piano e lo indicheremo col simbolo RA(O, i, j).
21.2. Osservazione. La coppia (i, j) è una base dello spazio U := <i, j> generato dai vettori i e j. Per
il Teorema di caratterizzazione di una base, si ha che per ogni punto P del piano π esiste un’unica
coppia ordinata di numeri reali (xP, yP) tali che [(OP)] = xPi+ yPj. Inoltre, per ogni coppia ordinata
di numeri reali (α, β) esiste un unico vettore libero t = αi + βj appartenente allo spazio U e, quindi,
sul piano π esiste un unico punto Q tale che [(OQ)] = t.
21.3. Definizione. La funzione biettiva che ad ogni punto P del piano associa l’unica coppia
(xP, yP) ordinata di numeri reali tali che [(OP)] = xPi+ yPj si dice coordinatizzazione dei punti del
piano rispetto al riferimento affine RA(O, i, j).
21.4. Definizione. L’unica coppia ordinata di numeri reali (xP, yP) associata al punto P tramite la
funzione di coordinatizzazione viene detta coppia di coordinate del punto P rispetto al riferimento
affine RA(O, i, j). Il primo e secondo elemento della coppia (xP, yP) vengono detti rispettivamente
ascissa e ordinata del punto P.
Inoltre, diremo brevemente “il punto P(xP, yp)” invece che “il punto P di coordinate (xP, yP)”.
21.5. Osservazione. Se P1(x1, y1) e P2(x2, y2) sono due punti dello piano, allora
Dimostrazione. Per la Definizione 21.3 si ha che [OP1] = x1i + y1j e [OP2] = x2i + y2j.
Dall’identità vettoriale [OP1] + [P1P2] = [OP2] si ottiene [P1P2] = [OP2] – [OP1] da cui la tesi.
Ovviamente, essendo sottointesa la base (i, j), possiamo identificare il vettore libero [P1P2] con la
coppia ordinata delle sue componenti, per cui scriveremo brevemente [P1P2] = (x2 – x1 , y2 – y1)
173
21.6. Teorema. (equazioni parametriche di una retta nel piano).
Per ogni retta r del piano esiste un sistema di equazioni lineari del tipo
x = lt + x 0
(♣)
y = mt + y 0
nelle incognite (x, y; t) con (l, m) ≠ (0, 0) tale che un punto P1(x1, y1) del piano appartiene alla retta
r se e solo se esiste t1∈R tale che la terna (x1, y1; t1) è una soluzione del sistema (♣).
Le equazioni del sistema (♣) si dicono equazioni parametriche della retta r (il parametro è t).
(l, m) sono le componenti di un vettore parallelo ad r e si dicono parametri direttori della retta.
Dimostrazione. Sia P0(x0, y0) un punto della retta r e sia v = li + mj un vettore libero non nullo
parallelo alla retta r. Quindi, (l, m) ≠ (0, 0). Se P1(x1, y1) è un generico punto del piano si ha che
P1∈r ⇔ [(P0P1)] e v sono paralleli ⇔ [(P0P1)] e v sono linearmente dipendenti ⇔
⇔ ∃t1∈R : [(P0P1)] = t1v ⇔ ∃t1∈R : (x1 – x0 , y1 – y0) = t1(l, m) ⇔
x − x 0 = lt1
⇔ ∃t1∈R : (x1 – x0 , y1 – y0) = (lt1, mt1) ⇔ ∃t1∈R : 1 ⇔
y1 − y0 = mt1
x1 = lt1 + x 0 x = lt + x 0
⇔ ∃t1∈R : ⇔ la terna (x1, y1; t1) è una soluzione del sistema
y1 = mt1 + y 0 y = mt + y 0
21.7. Corollario. (equazioni parametriche di una retta passante per due punti distinti).
Siano P0(x0, y0) e P1(x1, y1) sono due punti distinti di una retta r. Poiché il vettore [P0P1] ≠ 0 è
parallelo alla retta r, per la retta r si hanno subito le seguenti equazioni parametriche
x = ( x1− x 0 ) t + x 0
y = ( y1 − y0 ) t + y 0
174
21.9. Osservazione. Tenendo conto delle seguenti uguaglianze
x 3 − x1 y3 − x1 0 x3 y3 1
x 3 − x1 y3 − y1
det = det x 2 − x1 y 2 − y1 0 = det x 2
y 2 1
x 2 − x1 y2 − y1 x1 y1 1 x1 y1 1
(si osservi ad essere uguali non sono le matrici ma solo i loro determinanti) si ha anche che
x3 y3 1
P1, P2 e P3 sono allineati ⇔ det x 2 y 2 1 = 0
x1 y1 1
21.12. Osservazione. Se (♥) ax + by + c = 0 con (a, b) ≠ (0, 0) è l’equazione cartesiana di una retta
r del piano, allora per ogni scalare α non nullo l’equazione αax + αby + αc = 0 è equivalente
all’equazione (♥). Quindi, ognuna di esse rappresenta sempre la stessa retta.
175
21.13. Osservazione. (equazione cartesiana di una retta passante per due punti distinti)
Sia r la retta passante per i due punti distinti P1(x1, y1) e P2(x2, y2) del piano.
x − x1 y − y1
L’equazione cartesiana di r è data da det =0
x 2 − x1 y 2 − x1
176
21.16. Definizione. Diremo fascio (improprio) di rette parallele alla retta r la totalità delle rette del
piano parallele ad r. Col simbolo ϕ(r) indicheremo l’insieme delle equazioni delle rette appartenenti
al fascio di rette parallele alla retta r.
21.18. Definizione. Sia P0 un punto del piano. Diremo fascio (proprio) di rette di centro P0 la
totalità delle rette “passanti” per il punto P0. Col simbolo F(P0) indicheremo l’insieme delle
equazioni delle rette appartenenti al fascio di rette di centro P0.
Dimostrazione. Sia r : ax + by + c = 0 una generica retta del piano π. Quindi, (a, b) ≠ (0, 0). La
retta r appartiene al fascio di rette di centro P0 se e solo se il punto P0 appartiene alla retta r ovvero
se e solo se vale l’identità seguente ax0 + by0 + c = 0 e, quindi, se e solo se c = – (ax0 + by0).
21.20. Definizione. Siano r1 : a1x + b1y + c1 = 0 e r2 : a2x + b2y + c2 = 0 due rette del piano.
Con il simbolo Ω(r1, r2) indicheremo lo spazio delle soluzioni del sistema lineare omogeneo
a1x + a 2 y = 0
b1x + b 2 y = 0
Si noti che se r1 non è parallela a r2 ovvero i vettori (a1, b1) e (a2, b2) sono linearmente indipendenti
allora tale sistema non ha autosoluzioni e, quindi, è Ω(r1, r2) = {(0, 0)}.
21.21. Osservazione. Siano r1 : a1x + b1y + c1 = 0 e r2 : a2x + b2y + c2 = 0 due rette del piano.
L’equazione ottenuta combinando linearmente le equazioni a1x + b1y + c1 = 0 e a2x + b2y + c2 = 0
λ(a1x + b1y + c1) + µ(a2x + b2y + c2) = (λa1 + µa2)x + (λb1 + µb2)y + (λc1 + µc2) = 0
è una retta del piano se e solo se (λa1 + µa2, λb1 + µb2) ≠ (0, 0) ovvero la coppia (λ, µ)∉Ω(r1, r2).
177
21.22. Teorema.
Siano r1 : a1x + b1y + c1 = 0 e r2 : a2x + b2y + c2 = 0 due rette distinte del piano.
L’insieme H = {λ(a1x + b1y + c1) + µ(a2x + b2y + c2) = 0 (λ, µ)∉Ω(r1, r2)} è un fascio di rette.
x + αy = 1
sistema lineare è di Cramer. Se (λ, µ) ≠ (0, 0) è la sua unica soluzione si ha che
c1x + c 2 y = t 3
r3 : (λ + µα)a1x + (λ + µα)b1y + (λc1 + µc2) = 0. Cioè r3∈H. Così e provato che ϕ(r1) ⊆ H.
(2 Caso - r1 non è parallela a r2). Proviamo che H = F(P0) con r1 ∩ r2 = {P0}.
Osserviamo che se P0(x0, y0) allora la soluzione (x0, y0) comune alle equazioni a1x + b1y + c1 = 0 e
a2x + b2y + c2 = 0 è anche soluzione dell’equazione λ(a1x + b1y + c1) + µ(a2x + b2y + c2) = 0.
Quindi, se ω∈H allora ω passa per il punto P0 per cui ω∈F(P0). Così e provato che H ⊆ F(P0).
Sia, ora, r3 : a3x + b3y + c3 = 0 una retta del piano passante per P0 cioè r3∈F(P0). Consideriamo il
seguente sistema lineare non omogeneo (poiché (a3, b3) ≠ (0, 0)) nelle incognite (x, y)
a1x + a 2 y = a 3
b1x + b 2 y = b3
Poiché r1 non è parallela a r2 i vettori (a1, b1) e (a2, b2) sono linearmente indipendenti. Quindi, tale
sistema è di Cramer. Sia (α, β) ≠ (0, 0) la sua unica soluzione. Poiché (α, β)∉{(0, 0)} = Ω(r1, r2) la
retta di r3 equazione α(a1x + b1y + c1) + β(a2x + b2y + c2) = a3x + b3y + (αc1 + βc2) = 0 è una retta
di H parallela alla retta r3. Da H ⊆ F(P0) si ha che ω∈F(P0). Quindi, r3 = ω (essendo due rette
parallele passanti per lo stesso punto P0). Per cui r3∈H. Così e provato che F(P0) ⊆ H.
21.23. Corollario. Siano r1 : a1x + b1y + c1 = 0 e r2 : a2x + b2y + c2 = 0 due rette non parallele.
Indicato con P0 il loro punto d’intersezione si ha che
F(P0) = {λ(a1x + b1y + c1) + µ(a2x + b2y + c2) = 0 (λ, µ) ≠ (0, 0)}
178
22. Geometria affine dello spazio.
22.1. Definizione. Siano O un punto dello spazio e (i, j, k) una base dello spazio dei vettori liberi.
Diremo che la quaterna ordinata (O, i, j, k) è un riferimento affine dello spazio e la indicheremo col
simbolo RA(O, i, j, k).
22.2. Osservazione. Per il Teorema di caratterizzazione di una base, si ha che per ogni punto P1
dello spazio esiste un’unica terna ordinata di numeri reali (x1, y1, z1) tali che il vettore libero
[OP1] = x1i+ y1j + z1k. Inoltre, per ogni terna ordinata (x2, y2, z2) esiste un unico vettore libero
t = x2i+ y2j + z2k e, nello spazio, esiste un unico punto P2 tale che il vettore [OP2] = t.
22.3. Definizione. La funzione biettiva che ad ogni punto P1 dello spazio associa l’unica terna
(x1, y1, z1) ordinata di numeri reali tali che [OP1] = x1i+ y1j + z1k si dice coordinatizzazione dei
punti dello spazio rispetto al riferimento affine RA(O, i, j, k).
22.4. Definizione. L’unica terna ordinata di numeri reali (x1, y1, z1) associata al punto P1 tramite la
funzione di coordinatizzazione viene detta terna delle coordinate del punto P1 rispetto al riferimento
affine RA(O, i, j, k). Il primo, secondo e terzo elemento della terna (x1, y1, z1) vengono detti
rispettivamente ascissa, ordinata e quota del punto P1.
Inoltre, scriveremo brevemente P1(x1, y1, z1) invece che “il punto P1 di coordinate (x1, y1, z1)”.
22.5. Osservazione. Se P1(x1, y1, z1) e P2(x2, y2, z2) sono due punti dello spazio, allora
Dimostrazione. Si ha che [OP1] = x1i + y1j + z1k e [OP2] = x2i + y2j + z2k.
Dalla relazione vettoriale [OP1] + [P1P2] = [OP2] si ottiene [P1P2] = [OP2] – [OP1] da cui la tesi.
Ovviamente, essendo sottointesa la base (i, j, k), possiamo identificare il vettore [P1P2] con la terna
ordinata delle sue componenti, per cui scriveremo brevemente [P1P2] = (x2 – x1 , y2 – y1 , z2 – z1)
179
22.6. Lemma. (complanarità di 4 punti).
Siano P1(x1, y1, z1), P2(x2, y2, z2), P3(x3, y3, z3) e P4(x4, y4, z4) quattro punti dello spazio.
x 4 − x1 y 4 − y1 z 4 − z1
P1, P2, P3 e P4 sono complanari ⇔ det x 3 − x1 y3 − y1 z3 − z1 = 0
x 2 − x1 y 2 − y1 z 2 − z1
Dimostrazione. Si ha che [P1P2] = (x2 – x1, y2 – y1, z2 – z1), [P1P3] = (x3 – x1, y3 – y1, z3 – z1) e
[P1P4] = (x4 – x1, y4 – y1, z4 – z1).
Sia H la matrice avente come righe le componenti dei tre vettori [P1P2], [P1P3] e [P1P4], cioè
x 4 − x1 y 4 − y1 z 4 − z1
H = x 3 − x1 y3 − y1 z3 − z1
x 2 − x1 y 2 − y1 z 2 − z1
(si osservi ad essere uguali non sono le matrici ma solo i loro determinanti) si ha anche che
x 4 y4 z4 1
x y3 z3 1
P1, P2, P3 e P4 sono complanari ⇔ det
3
=0
x 2 y2 z2 1
x1 y1 z1 1
180
Dimostrazione. Siano P1(x1, y1, z1), P2(x2, y2, z2) e P3(x3, y3, z3) tre punti non allineati di π.
Sia P4(x4, y4, z4) un punto dello spazio e sia H la matrice del Lemma 22.6.
Sviluppando il determinante di H secondo la sua prima riga si ottiene che
detH = (x4 – x1)detH11 – (y4 – y1)detH12 + (z4 – z1)detH13
Ponendo a := detH11 , b : –detH12 e c := detH13 si ha che
detH = a(x4 – x1) + b(y4 – y1) + c(z4 – z1)
da cui
detH = ax4 + by4 + cz4 + (– ax1 – by1 – cz1)
Ponendo d := – (ax1 + by1 + cz1) si ha infine
detH = ax4 + by4 + cz4 + d
Poichè, per ipotesi, i tre punti P1, P2 e P3 non sono allineati si ha che i vettori liberi [P1P2] e [P1P3]
non sono paralleli e, quindi, sono linearmente indipendenti. Per cui la matrice
x 3 − x1 y3 − y1 z3 − z1
x − x y − y z − z
2 1 2 1 2 1
ha rango uguale a due. Quindi, (detH11, detH12, detH13) ≠ (0, 0, 0) da cui (a, b, c) ≠ (0, 0, 0).
Ora, si osservi che
P4(x4, y4, z4)∈π ⇔ P1, P2, P3 e P4 sono complanari ⇔ (per il Lemma 22.6) ⇔ detH = 0 ⇔
⇔ ax4 + by4 + cz4 + d = 0 ⇔ (x4, y4, z4) è una soluzione di ax + by + cz + d = 0.
22.9. Teorema. Per ogni equazione lineare del tipo (♥) ax + by + cz + d = 0 con (a, b, c) ≠ (0, 0, 0)
esiste un piano π tale che la sua equazione cartesiana è proprio l’equazione (♥).
22.11. Osservazione. (equazione di un piano passante per tre punti non allineati)
Sia π il piano passante per i tre punti non allineati P1(x1, y1, z1), P2(x2, y2, z2) e P3(x3, y3, z3).
x − x1 y − y1 z − z1
L’equazione cartesiana π è data da det x 3 − x1 y3 − y1 z3 − z1 = 0
x 2 − x1 y2 − y1 z 2 − z1
181
22.12. Definizione. Sia P0 un punto dello spazio. Diremo stella di piani di centro P0 la totalità dei
piani “passanti” per il punto P0. Col simbolo S(P0) indicheremo l’insieme delle equazioni dei piani
della stella di piani di centro P0.
22.13. Osservazione. Un piano π appartiene alla stella di piani di centro P0 se e solo se il punto P0
appartiene al piano π.
a b1 c1 a b1 c1 d1
Ponendo A = 1 e C= 1 si ha che
a 2 b2 c2 a 2 b2 c2 d 2
Dimostrazione. Considerato il sistema lineare costituito dalle equazioni dei due piani si ha che A è
la matrice incompleta (matrice dei coefficienti) del sistema mentre C è quella completa.
Da (a1, b1, c1) ≠ (0, 0, 0) e (a2, b2, c2) ≠ (0, 0, 0) si ha che rgA ≥ 1.
Poiché 1 ≤ rgA ≤ 2 e rgA ≤ rgC ≤ min{2, (1+rgA)}, i casi possibili sono:
I) rgC = 1 (quindi anche rgA = 1)
II) rgC = 2 et rgA = 1
III) rgA = 2 (quindi anche rgC = 2)
I) rgC = 1 ⇔ ∃α∈R – {0} : (a2, b2, c2, d2) = α(a1, b1, c1, d1) ⇔
⇔ le equazioni dei due piani differiscono per un fattore moltiplicativo non nullo ⇔
⇔ le due equazioni sono equivalenti ⇔ i due piani sono lo stesso piano.
Per cui è completamente provata la (1).
II) rgA = 1 ≠ 2 = rgC ⇔ il sistema non ha soluzioni ⇔ i piani non hanno punti in comune.
Quindi, è completamente provata la (2).
182
III) Se rgA = 2 = rgC, allora il sistema ha infinite soluzioni. Quindi, i due piani hanno infiniti punti
in comune. Inoltre, essendo rgC ≠ 1, per la (1) i due piani sono distinti per cui sono incidenti in una
retta. Viceversa, se due piani hanno una retta in comune, allora (avendo già provato completamente
i casi precedenti) deve per forza essere rgA = 2. Quindi, è completamente provata anche la (3).
22.16. Definizione. Diremo che due piani π1 e π2 sono paralleli se sono lo stesso piano (π1 ≡ π2)
oppure non hanno alcun punto in comune (π1 ∩ π2 = ∅).
22.17. Corollario. Due piani π1 : a1x + b1y + c1z + d1 = 0 e π2 : a2x + b2y + c2z + d2 = 0 sono
paralleli se e solo se esiste un numero reale non nullo α tale che (a2, b2, c2) = α(a1, b1, c1).
Dimostrazione. Per il Teorema 22.15 si ha che i piani π1 e π2 sono paralleli se e solo se rgA = 1,
quindi, se e solo se le righe di A sono linearmente dipendenti ovvero sono proporzionali.
22.18. Definizione. Diremo fascio (improprio) di piani paralleli al piano π1 la totalità dei piani
paralleli a π1. Col simbolo F(π1) indicheremo l’insieme delle equazioni dei piani del fascio di piani
paralleli a π1.
183
22.21. Teorema. (mutua posizione di una retta e un piano).
Siano r una retta di equazioni a1x + b1y + c1z + d1 = a2x + b2y + c2z + d2 = 0
e π un piano di equazione a3x + b3y + c3z + d3 = 0.
a1 b1 c1 a1 b1 c1 d1
Ponendo A = a 2 b2 c 2 e C = a
2 b2 c2 d 2 si ha che
a 3 b3 c3 a 3 b3 c3 d3
1) r è contenuta in π (r ⊂ π) ⇔ rgC = 2
2) r e π non hanno alcun punto in comune (r ∩ π = ∅) ⇔ rgA = 2 et 3 = rgC
3) r è incidente π in un punto (r ∩ π = {P}) ⇔ rgA = 3
Dimostrazione. Considerato il sistema lineare costituito dalle due equazioni lineari della retta e
dall’equazione lineare del piano si ha che A è la matrice incompleta (matrice dei coefficienti) del
sistema mentre C è quella completa.
Poiché 2 ≤ rgA ≤ 3 e rgA ≤ rgC ≤ min{3, 1 + rgA} i casi possibili sono:
1) rgA = 2 = rgC ⇔ il sistema ha infinite soluzioni ⇔
⇔ r e π hanno infiniti punti in comune ⇔ r è contenuta in π;
2) rgA = 2 ≠ 3 = rgC ⇔ il sistema non ha alcuna soluzione ⇔
⇔ r e π non hanno alcun punto in comune;
3) rgA = 3 = rgC ⇔ il sistema è di Cramer ⇔ il sistema ha una sola soluzione ⇔
⇔ r e π hanno un solo punto P in comune ⇔ r è incidente π in un punto P.
22.22. Definizione. Diremo che una retta r e un piano π sono paralleli se non hanno alcun punto in
comune (r ∩ π = ∅) oppure la retta è contenuta nel piano (r ⊂ π).
22.24. Definizione. Diremo fascio (proprio) dei piani per la retta r la totalità dei piani contenenti la
retta r. Col simbolo F(r) indicheremo l’insieme delle equazioni di un fascio di piani per la retta r.
184
22.25. Lemma. Se π1 : a1x + b1y + c1z + d1 = 0 e π2 : a2x + b2y + c2z + d2 = 0 sono due piani non
paralleli, allora per ogni coppia (λ, µ)∈R2–{(0, 0)} l’equazione
ω : λ(a1x + b1y + c1z + d1) + µ(a2x + b2y + c2z + d2) = 0
rappresenta sempre un piano.
Dimostrazione. Riscriviamo l’equazione ω nel modo seguente:
ω : (λa1 + µa2)x + (λb1 + µb2)y + (λc1 + µc2)z + (λd1 + µd2) = 0
Poiché i due piani non sono paralleli, i vettori (a1, b1, c1) e (a2, b2, c2) sono linearmente indipendenti.
Quindi, la matrice dei coefficienti del sistema lineare omogeneo nelle incognite (x, y)
a1x + a 2 y = 0
b1x + b 2 y = 0
c x + c y = 0
1 2
ha rango 2 uguale al numero delle incognite. Per cui il sistema non ha autosoluzioni. Essendo
(λ, µ) ≠ (0, 0) si ha che (λa1 + µa2 , λb1 + µb2 , λc1 + µc2) ≠ (0, 0, 0). Dunque, ω è un piano.
F(r) = {λ(a1x + b1y + c1z + d1) + µ(a2x + b2y + c2z + d2) = 0 (λ, µ)∈R2–{(0, 0)}}.
Dimostrazione. Posto
H := {λ(a1x + b1y + c1z + d1) + µ(a2x + b2y + c2z + d2) = 0 (λ, µ)∈R2–{(0, 0)}}.
per il Lemma 22.25, H è un insieme di piani. Proviamo che H = F(r).
Sia ω∈H, cioè ω : λ(a1x + b1y + c1z + d1) + µ(a2x + b2y + c2z + d2) = 0.
Osserviamo che ogni soluzione (x0, y0, z0) comune alle equazioni della retta r è anche una soluzione
dell’equazione del piano ω, cioè ogni punto di r appartiene al piano ω. Quindi, la retta r è contenuta
nel piano ω. Per cui ω∈F(r). Abbiamo così provato che H ⊆ F(r).
Sia ora π : a3x + b3y + c3z + d3 = 0 l’equazione di un piano di F(r). Il seguente sistema lineare non
tale sistema è equivalente ad un sistema di Cramer. Sia (α, β) ≠ (0, 0) la sua unica soluzione. Sia ω
il piano di H di equazione (αa1 + βa2)x + (αb1 + βb2)y + (αc1 + βc2)z + (αd1 + βd2) = 0. Quindi,
ω : a3x + b3y + c3z + (αd1 + βd2) = 0. Per cui ω e π sono paralleli. Da r ⊂ π ∩ ω si ha che π ≡ ω.
Dunque, il piano π appartiene all’insieme H. Abbiamo così provato che F(r) ⊆ H.
185
22.27. Osservazione. Siano π1 : a1x + b1y + c1z + d1 = 0 e π2 : a2x + b2y + c2z + d2 = 0 due piani
non paralleli e sia r = π1 ∩ π2 : a1x + b1y + c1z + d1 = a2x + b2y + c2z + d2 = 0. Poniamo
Ur := L((a1, b1, c1), (a2, b2, c2)) ≤ R3
Abbiamo già visto che per ogni coppia (λ, µ)∈R2–{(0, 0)} l’equazione
ω : (λa1 + µa2)x + (λb1 + µb2)y + (λc1 + µc2)z + (λd1 + µd2) = 0
rappresenta sempre un piano di F(r).
Se (a3, b3, c3) = λ(a1, b1, c1) + µ(a2, b2, c2) e (a4, b4, c4) = λ’(a1, b1, c1) + µ’(a2, b2, c2) allora i piani
π3 : a3x + b3y + c3z + (λd1 + µd2) = 0 e π4 : a4x + b4y + c4z + (λ’d1 + µ’d2) = 0 appartengono a F(r).
Se (a3, b3, c3) e (a4, b4, c4) sono linearmente indipendenti allora r può anche essere rappresentata
con le equazioni cartesiane r : a3x + b3y + c3z + (λd1 + µd2) = a4x + b4y + c4z + (λ’d1 + µ’d2) = 0
22.28. Lemma. Siano π1 : a1x + b1y + c1z + d1 = 0 e π2 : a2x + b2y + c2z + d2 = 0 due piani non
paralleli e sia r = π1 ∩ π2 : a1x + b1y + c1z + d1 = a2x + b2y + c2z + d2 = 0.
Siano π3 : a3x + b3y + c3z + d3 = 0 e π4 : a4x + b4y + c4z + d4 = 0 due piani non paralleli e sia
s = π3 ∩ π4 : a3x + b3y + c3z + d3 = a4x + b4y + c4z + d4 = 0.
Le rette r e s sono parallele se e solo se Us = Ur.
Dimostrazione. Poiché la retta r è parallela alla retta s = π3∩π4 esistono due piani distinti π5 e π6 di
F(r) tali che π5 // π3 e π6 // π4 cioè, π5 : a3x + b3y + c3z + d5 = 0 e π6 : a4x + b4y + c4z + d6 = 0. Da
r : a3x + b3y + c3z + d5 = a4x + b4y + c4z + d6 = 0 si ha che Ur = L((a3, b3, c3), (a4, b4, c4)) = Us.
Viceversa, se Us = Ur allora (a3, b3, c3),(a4, b4, c4)∈L((a1, b1, c1), (a2, b2, c2)). Quindi,
(a3, b3, c3) = λ(a1, b1, c1) + µ(a2, b2, c2) e (a4, b4, c4) = λ’(a1, b1, c1) + µ’(a2, b2, c2)
Poiché (a3, b3, c3) e (a4, b4, c4) sono linearmente indipendenti allora la retta r può anche essere
rappresentata come l’intersezione dei piani
π5 : a3x + b3y + c3z + (λd1 + µd2) = 0 e π6 : a4x + b4y + c4z + (λ’d1 + µ’d2) = 0
Da r = π5 ∩ π6 , s = π3 ∩ π4 , π5 // π3 e π6 // π4 si ha che r // s.
186
22.30. Teorema. (mutua posizione di due rette nello spazio).
Consideriamo due rette r : a1x + b1y + c1z + d1 = a2x + b2y + c2z + d2 = 0 e
s : a3x + b3y + c3z + d3 = a4x + b4y + c4z + d4 = 0.
a1 b1 c1 a1 b1 c1 d1
a b2 c 2 a b2 c2 d 2
Ponendo A = 2
2
e C= si ha che le due rette sono
a 3 b3 c3 a 3 b3 c3 d3
a 4 b4 c4 a 4 b4 c4 d4
1) coincidenti ⇔ rgC = 2
2) parallele in senso stretto ⇔ rgA = 2 ≠ 3 = rgC
3) incidenti in un punto ⇔ rgA = 3 = rgC
4) sghembe ⇔ rgC = 4
187
22.32. Teorema. (equazioni parametriche di una retta nello spazio).
Per ogni retta r dello spazio esiste un sistema di equazioni lineari del tipo
x = lt + x 0
(♣) y = mt + y0
z = nt + z
0
nelle incognite (x, y, z; t) con (l, m, n) ≠ (0, 0, 0) tale che un punto P1(x1, y1, z1) appartiene alla
retta r se e solo se esiste t1∈R tale che la quaterna (x1, y1, z1; t1) è una soluzione del sistema (♣).
Le equazioni del sistema (♣) si dicono equazioni parametriche della retta r (il parametro è t).
(l, m, n) sono le componenti di un vettore parallelo ad r e si dicono parametri direttori della retta.
Dimostrazione. Sia P0(x0, y0, z0) un punto della retta r e sia v = li + mj + nk un vettore libero non
nullo parallelo alla retta r. Quindi, (l, m, n) ≠ (0, 0, 0). Se P1(x1, y1, z1) è un generico punto dello
spazio si ha che
P1∈r ⇔ [(P0P1)] e v sono paralleli ⇔ [(P0P1)] e v sono linearmente dipendenti ⇔
⇔ ∃t1∈R : [(P0P1)] = t1v ⇔ ∃t1∈R : (x1 – x0, y1 – y0, z1 – z0) = t1(l, m, n) ⇔
x − x 0 = lt1
⇔ ∃t1∈R : (x1 – x0, y1 – y0, z1 – z0) = (lt1, mt1, nt1) ⇔ ∃t1∈R : y − y0 = mt1 ⇔
z − z = nt
0 1
x = lt1 + x 0 x = lt + x 0
⇔ ∃t1∈R : y = mt1 + y0 ⇔ la terna (x1, y1; t1) è una soluzione del sistema y = mt + y0
z = nt + z z = nt + z
1 0 0
22.33. Corollario. (equazioni parametriche di una retta dello spazio per due punti distinti).
Siano P0(x0, y0, z0) e P1(x1, y1, z1) sono due punti distinti di una retta r. Poiché il vettore [P0P1] ≠ 0
è parallelo alla retta r, per la retta r si hanno subito le seguenti equazioni parametriche
x = ( x1 − x 0 ) t + x 0
r : y = ( y1 − y0 ) t + y0
z = ( z − z ) t + z
1 0 0
Tenendo conto del significato dei parametri direttori di una retta si ha subito il seguente
188
22.35. Teorema. (condizione di parallelismo retta-piano con i parametri direttori della retta)
Sia π un piano di equazione ax + by + cz + d = 0 e sia r una retta di equazioni parametriche
x = lt + x 0
y = mt + y0
z = nt + z
0
22.36. Corollario. (parametri direttori di una retta dai coefficienti delle sue equazioni cartesiane)
Se r è una retta avente equazioni cartesiane a1x + b1y + c1z + d1 = a2x + b2y + c2z + d2 = 0, allora i
suoi parametri direttori (l, m, n) sono proporzionali alla terna
b c1 a c1 a b1
(det 1 , − det 1 , det 1 )
b 2 c2 a 2 c2 a 2 b2
a b1 c1
ovvero sono proporzionali ai minori di ordine due della matrice A = 1 .
a 2 b2 c 2
189
Dimostrazione. Un vettore non nullo v = (l, m, n) parallelo alla retta r è parallelo sia al piano π1 di
equazione a1x + b1y + c1z + d1 = 0 che al piano π2 di equazione a2x + b2y + c2z + d2 = 0. Quindi, per
il Teorema 22.35 si ha che
a1l + b1m + c1n = 0
a 2l + b 2m + c 2n = 0
quindi la terna non nulla (l, m, n) è un’autosoluzione del sistema lineare omogeneo
a1x + b1y + c1z = 0
(♦)
a 2 x + b 2 y + c 2z = 0
Ora, consideriamo le seguenti due matrici:
a1 b1 c1 a 2 b2 c2
H1 = a1 b1 c1 H2 = a1 b1 c1
a 2 b2 c 2 a 2 b2 c 2
b c1 a c1 a b1
detH2 = a2det 1 + b2(− det 1 ) + c2det 1
b 2 c2 a 2 c2 a 2 b2
Siccome sia H1 che H2 hanno due righe uguali entrambe i loro determinanti sono nulli. Quindi,
b1 c1 a c1 a b1
a1det + b1(− det 1 ) + c1det 1 =0
b 2 c2 a 2 c2 a 2 b2
b c1 a c1 a b1
a2det 1 + b2(− det 1 ) + c2det 1 =0
b 2 c2 a 2 c2 a 2 b2
b c1 a c1 a b1
Per cui la terna non nulla (det 1 , − det 1 , det 1 ) è un’altra autosoluzione
b 2 c2 a 2 c2 a 2 b2
del sistema (♦). Dal momento che lo spazio delle soluzioni del sistema (♦) ha dimensione
n − rgA = 3 − 2 = 1
b c1 a c1 a b1
si ha che le terne (l, m, n) e (det 1 , − det 1 , det 1 ) sono proporzionali.
b 2 c2 a 2 c2 a 2 b2
190
7.2) Determinare le coordinate del punto medio del segmento di estremi
P1(1/2, –1, 2/3) e P2(1, –1/2, 0).
7.17) Determinare l’equazione del piano passante per il punto A(2, −1, 1) e per la
retta r : x + 2z − 1 = 0 del piano y = 0.
7.19) Determinare le equazioni della retta passante per il punto P(1, 2, 3) che si
appoggia alle rette r : x − 3z −2 = y − z + 3 = 0 e all’asse Z.
7.20) Determinare le equazioni della retta passante per P(–1, 0, 0) che si appoggia
alle rette r : x – 2y + 1 = 2x – 3z – 1 = 0 e s : x – z + 3 = y – 2z + 2 = 0.
7.22) Determinare l’equazione del piano passante per il punto A(2, 0, 1/2) e parallelo
al piano π : 3x – y + z – 1 = 0.
191
7.24) Determinare l’equazione del piano passante per i punti P1(2, 1, 0) e P2(−1, 0, 1)
e parallelo alla retta r : x − z = y − 3z − 1 = 0.
7.26) Determinare le equazioni della retta passante per il punto A(2, 1, 0) e parallela
alla retta r : x − y − z − 2 = 2x − y − 3z = 0.
7.29) Determinare le equazioni della retta passante per il punto A(1, 0, −2), parallela
al piano π : x − 2z + 3 = 0 e incidente la retta r : x − 2z = y + z + 3 = 0.
7.30) Determinare le equazioni della retta parallela all’asse Y e appoggiata alle rette
r : x − y = y − z + 2 = 0 e s : x − 3z − 1 = y + 2z − 3 = 0.
7.31) Determinare l’equazione del piano passante per il punto A(2, 1, 3) e parallelo
all’asse Z e alla retta r : 2x − z − 2 = y − 2z + 1 = 0.
192
23. (cenni di) Geometria euclidea del piano.
23.1. Definizione. Diremo riferimento cartesiano ortonormale del piano, e lo indicheremo con il
simbolo RC(O, i, j), un riferimento affine RA(O, i, j) del piano con (i, j) base ortonormale, cioè tale
che i e j sono due versori ortogonali tra loro.
23.3. Osservazione. Siano r una retta, u un vettore libero non nullo e (OA) un rappresentante di u.
Se il segmento (OA) è perpendicolare alla retta r, allora ogni segmento orientato appartenente a
u = [(OA)] è perpendicolare alla retta r.
23.4. Definizione. Diremo che un vettore libero non nullo u è perpendicolare ad una retta r se un
rappresentante di u è perpendicolare ad r.
23.5. Teorema. (significato dei coefficienti delle incognite nell’equazione cartesiana di una retta)
Se ax + by + c = 0 con (a, b) ≠ (0, 0) è l’equazione cartesiana di una retta r, allora il vettore libero
non nullo u := ai + bj è perpendicolare alla retta r.
Dimostrazione. Siano P1(x1, y1) e P2(x2, y2) due punti distinti della retta r. Si hanno le seguenti
identità ax1 + by1 + c = 0 e ax2 + by2 + c = 0. Inoltre, [P1P2] = (x2 – x1)i + (y2 – y1)j. Si ha che
u • [P1P2] = a(x2 – x1) + b(y2 – y1) = (ax2 + by2) + (– ax1 – by1) = – c + c = 0
Da u • [P1P2] = 0 si ha che u ⊥ [P1P2] ovvero u ⊥ r.
193
23.6. Corollario. Sia r una retta di equazione cartesiana ax + by + c = 0. Se (l, m) è una coppia di
parametri direttori di r, allora si ha che al + bm = 0.
Dimostrazione. Siano ur := a1i + b1j , vr := l1i + m1j , us := a2i + b2j e vs := l2i + m2j.
Tenendo conto che ur ⊥ r , us ⊥ s , vr // r e vs // s si ha subito che:
1) r ⊥ s ⇔ ur ⊥ us ⇔ ur•us = 0 ⇔ a1a2 + b1b2 = 0;
2) r ⊥ s ⇔ vr ⊥ vs ⇔ vr•vs = 0 ⇔ l1l2 + m1m2 = 0.
Dimostrazione. Si ha che la distanza tra P1 e P2 è uguale alla lunghezza del vettore libero [P1P2].
Da [P1P2] = (x2 – x1)i + (y2 – y1)j e [P1P2]•[P1P2] = ||[P1P2]||2 si ha che
194
23.11. Teorema. (distanza fra una retta e un punto)
La distanza tra un punto P0(x0, y0) e una retta r di equazione cartesiana ax + by + c = 0 è data da
ax 0 + by0 + c
d(P0, r) =
a 2 + b2
Dimostrazione. Sia A un punto (qualsiasi) della retta r. Si vede subito che la distanza tra P0 e r è
uguale alla lunghezza della proiezione del vettore libero [AP0] lungo la direzione perpendicolare a r.
u•[AP0] = a(x0 – xA) + b(y0 – yA) = ax0 + by0 + (– axA – byA) = ax0 + by0 + c
Dimostrazione. Si vede subito che la distanza tra r e s è uguale alla distanza tra r e un (qualsiasi)
punto P0(x0, y0) della retta s. Per cui, d(r s) = d(P0, r) = |ax0 + by0 + c|/ a 2 + b 2 . Dall’identità
23.13. Corollario.
Se r e s sono due rette parallele di equazioni rispettivamente ax + by + c = 0 e ax + by + d = 0,
allora la distanza tra r e s è data da
c−d
d(r s) =
a 2 + b2
195
23.14. Osservazione. Due rette r e s non parallele dividono il piano in 4 angoli convessi.
r
A
4
2
Si noti che:
- angolo(1) = angolo(3) e angolo(2) = angolo(4) in quanto opposti al vertice A;
- angolo(1) + angolo(2) = angolo piatto = angolo(3) + angolo(4);
Quindi, cos(1) = cos(3), cos(2) = cos(4), cos(1) = – cos(2) e cos(3) = – cos(4).
23.15. Definizione. Siano r e s due rette del piano. Se r e s non sono parallele, allora diremo angolo
tra le rette r e s ciascuno dei quattro angoli in cui il piano è diviso da r e s. Se r e s sono parallele,
allora stabiliamo che gli angoli tra r e s siano l’angolo nullo e l’angolo piatto.
Un angolo tra due rette r e s lo indicheremo con il simbolo (r, s).
23.16. Osservazione. Se vr = l1i+m1j e vs = l2i+m2j sono due vettori paralleli rispettivamente a due
rette r e s, allora l’angolo tra i vettori vr e vs è uguale ad uno degli angoli formati da r e s.
23.17. Teorema. Se r e s sono due rette di parametri direttori rispettivamente (l1, m1) e (l2, m2) si ha
l1l 2 + m1m 2
cos(r, s) = ± cos(v1, v2) = ±
l12 + m12 l 22 + m 22
23.19. Teorema. Se r e s sono due rette di equazioni a1x + b1y + c1 = 0 e a2x + b2y + c2 = 0 allora
a1a 2 + b1b 2
cos(r, s) = ± cos(u1, u2) = ±
a12 + b12 a 22 + b 22
196
24. (cenni di) Geometria euclidea dello spazio.
24.1. Definizione. Diremo riferimento cartesiano ortonormale dello spazio, e lo indicheremo con il
simbolo RC(O, i, j, k), un riferimento affine RA(O, i, j, k) dello spazio con (i, j, k) base
ortonormale, cioè tale che i, j e k sono tre versori a due a due ortogonali tra loro.
24.3. Definizione. Diremo che un vettore libero non nullo u è perpendicolare ad un piano π se u è
perpendicolare ad ogni retta del piano π.
24.4. Teorema. (significato dei coefficienti delle incognite nell’equazione cartesiana di un piano)
Se ax + by + cz + d = 0 con (a, b, c) ≠ (0, 0, 0) è l’equazione cartesiana di un piano π, allora il
vettore libero non nullo u := ai + bj + ck è perpendicolare al piano π.
Dimostrazione. Sia r una (qualsiasi) retta di π. Siano P1(x1, y1, z1) e P2(x2, y2, z2) due punti distinti
della retta r. Si hanno le seguenti identità ax1 + by1 + cz1 + d = 0 e ax2 + by2 + cz2 + d = 0. Inoltre,
[P1P2] = (x2 – x1)i + (y2 – y1)j + (z2 – z1)k. Si ha che
u • [P1P2] = a(x2 – x1) + b(y2 – y1) + c(z2 – z1) = (ax2 + by2 + cz2) + (– ax1 – by1 – cz1) = – d + d = 0
Da u • [P1P2] = 0 si ha che u ⊥ [P1P2] ovvero u ⊥ r. Quindi, u ⊥ π.
197
24.5. Corollario. (perpendicolarità retta-piano)
Sia π un piano di equazione ax + by + cz + d = 0 e sia r una retta di parametri direttori (l, m, n).
La retta e il piano π sono perpendicolari tra loro se e solo se esiste un numero reale α ≠ 0 tale che
(a, b, c) = α(l, m, n)
Dimostrazione. Siano u := ai + bj + ck e v := li + mj + nk. Tenendo conto che u ⊥ π e v // r si ha
r ⊥ π ⇔ u // v ⇔ (a, b, c) // (l, m, n) ⇔ ∃α∈R–{0} : (a, b, c) = α(l, m, n).
Dimostrazione. Si ha che la distanza tra P1 e P2 è uguale alla lunghezza del vettore libero [P1P2].
Da [P1P2] = (x2 – x1)i + (y2 – y1)j + (z2 – z1)k e [P1P2]•[P1P2] = ||[P1P2]||2 si ha che
198
24.10. Osservazione. (distanza fra una retta e un punto)
Dati un punto A e una retta r, siano π il piano passante per A e perpendicolare a r e B il punto
d’intersezione tra la retta r e il piano π. La distanza tra A e r è uguale alla distanza fra i punti A e B.
d(A, r) = d(A, B)
r A
s π
P0
r
199
24.14. Teorema. (calcolo della distanza fra un punto e un piano)
La distanza tra un punto P0(x0, y0, z0) e un piano π di equazione ax + by + cz + d = 0 è data da
ax 0 + by0 + cz0 + d
d(P0, π) =
a 2 + b2 + c2
Dimostrazione. Sia H la proiezione ortogonale del punto P0 sul piano π e sia A un punto (qualsiasi)
del piano π. Si vede subito che la distanza tra P0 e π è uguale alla lunghezza della proiezione AB
del vettore [AP0] lungo la direzione perpendicolare a π.
Dall’identità axA + byA + czA + d = 0 si ha che d = – axA – byA – czA. Per cui
u•[AP0] = a(x0 – xA) + b(y0 – yA) + c(z0 – zA) = ax0 + by0 + cz0 + (– axA – byA – zA)
P0
π A
H
π
200
24.16. Definizione. (distanza fra due piani paralleli)
La distanza fra due piani paralleli è uguale alla distanza di un punto di uno di essi dall’altro.
P0
π'
Dimostrazione. Si vede subito che la distanza tra π e π’ è uguale alla distanza tra π e un (qualsiasi)
punto P0(x0, y0, z0) del piano π’. Per cui, d(π, π’) = d(P0, π) = |ax0 + by0 + cz0 + d|/ a 2 + b 2 + c 2 .
Dall’identità αax0 + αby0 + αcz0 + d’ = 0 si ha che (ax0 + by0 + cz0) = – d’/α.
24.18. Corollario.
Se π : ax + by + cz + d = 0 e π’ : ax + by + cz + d’ = 0, allora la distanza tra π e π’ è data da
d − d'
d(π, π’) =
a 2 + b 2 + c2
Ωπ
201
24.20. Osservazione. Siano r una retta e π un piano.
24.20.1. Se la retta r è perpendicolare al piano π, allora la proiezione ortogonale dell’insieme dei
punti di r su π coincide con il punto P0 d’intersezione di r con π.
24.20.2. Se la retta r non è perpendicolare al piano π allora esiste un unico piano π⊥ contenente r
che sia perpendicolare al piano π. Siccome i piani π e π⊥ non sono paralleli, la loro intersezione è
sempre una retta. La proiezione ortogonale dell’insieme dei punti della retta r sul piano π coincide
con l’insieme dei punti della retta rπ := π ∩ π⊥.
P0 rπ
π
24.22. Osservazione. Una retta r coincide con la sua proiezione ortogonale rπ su di un piano π se e
solo se la retta r è contenuta nel piano π.
A P0
B rπ H
s
π
202
24.24. Definizione. (retta di minima distanza fra due rette sghembe)
Siano r e s due rette sghembe. Sia π un piano (qualsiasi) parallelo ad entrambe le rette. Sia π1 il
piano contenente la retta r e perpendicolare a π. Sia π2 il piano contenente la retta s e perpendicolare
a π. Sia t la retta che si ottiene come intersezione dei due piani π1 e π2 . La retta t è incidente e
perpendicolare sia alla retta r che alla retta s. Indicati con A e B i punti d’intersezione di t con le
rette r e s rispettivamente si vede subito che la distanza tra r e s è uguale alla distanza tra A e B.
t
π2 π1
r Α
Β
s
sπ
rπ
π
24.26. Osservazione. Se vr = l1i + m1j + n1k e vs = l2i + m2j + n2k sono due vettori paralleli a due
rette r e s, allora l’angolo tra i vettori vr e vs è uguale ad uno degli angoli formati da r e s.
203
Tenendo conto dell’Osservazione 24.26 si ha il seguente:
24.29. Osservazione. Sia t la retta intersezione di due piani π1 e π2 non paralleli. Un piano π è
perpendicolare ad entrambe i piani π1 e π2 se e solo se il piano π è perpendicolare alla retta t.
π2 t
π2
π1
π1
s
s
r
π r π
24.31. Osservazione. Se u1 = a1i + b1j + c1k e u2 = a2i + b2j + c2k sono due vettori perpendicolari
a due piani π1 e π2 rispettivamente, allora l’angolo tra i vettori u1 e u2 è uguale ad uno degli angoli
formati da π1 e π2.
204
24.33. Definizione. (angolo fra una retta e un piano). Siano r una retta e π un piano.
Sia π’ un piano contenente r e perpendicolare a π e sia rπ := π ∩ π’. Si osservi che:
- se r non è perpendicolare a π allora rπ è la proiezione ortogonale di r su π;
r r
π' π'
rπ rπ
π π
- se r è perpendicolare a π allora rπ è una delle rette di π appartenenti al fascio di rette di centro P0.
r
π'
rπ
P0
π
Diremo angolo fra la retta r e il piano π, e lo indicheremo con il simbolo (r, π), l’angolo minore o
uguale all’angolo retto formato dalle due rette r e rπ nel piano π’ (secondo la Definizione 23.15).
24.35. Teorema. (calcolo del seno dell’angolo fra una retta e un piano)
Sia π un piano di equazione ax + by + cz + d = 0 e sia r una retta di parametri direttori (l, m, n).
al + bm + cn
sin(r, π) = |cos(u, v)| =
a 2 + b2 + c2 l2 + m 2 + n 2
205
2.2) Determinare il coseno dell’angolo formato dalle due rette
r : x − z + 1 = y − z − 3 = 0 s : x − y − 2z + 1 = x − 3z − 3 = 0.
β : 3x – 2y + z = 0
2.4) Determinare le equazioni delle rette passanti per il punto A(1, 2, 1) incidenti
2.5) Determinare le equazioni delle rette passanti per l’origine, parallele al piano
2.7) Determinare le equazioni dei piani passanti per l’asse Z e formanti un angolo di
piano α : x + 2y – z + 1 = 0.
2.9) Determinare l’equazione del piano passante per il punto A(−3, 2, –1) e
piano π : x − 2y + 3z + 5 = 0.
2.11) Determinare le equazioni della retta passante per l’origine O(0, 0, 0), incidente
e perpendicolare alla retta passante per i punti A(2, 1, 1) e B(0, −1, 0).
α : 2x – z – 1 = 0 della retta r : x = y = z.
206
2.13) Determinare l’equazione del piano passante per il punto A(0, 0, 3), parallelo
π : x − 2y + 3z = 0.
β : x – 2y + z – 3 = 0
r : x + y − 1 = 2x − y − z = 0
s : x – 2z + 1 = y – 3z – 1 = 0.
s : x − z − 2 = y − z − 3 = 0.
2.21) Determinare le equazioni della retta di minima distanza delle due rette
sghembe r : asse Y e s : y = x + z − 1 = 0.
2.22) Determinare le equazioni delle bisettrici degli angoli formati dalle due rette
incidenti r : x + z = y + z + 1 = 0 e s : x − y − 1 = 2x − z − 1 = 0.
207
25. La classificazione delle coniche del piano euclideo.
RICORDIAMO CHE
(Capitolo 15)
• Sia ω un (qualsiasi) numero reale e siano w1 = (cosω, sinω) e w2 = (−sinω, cosω). Poiché
cos ω − sin ω
det = cos2ω + sin2ω = 1
sin ω cos ω
le colonne (cosω, sinω) e (−sinω, cosω) di tale matrice sono (sempre) linearmente indipendenti.
Considerate le basi B = (u1, u2), B = (v1, v2) e C = ((1, 0), (0, 1)) di R2 si ha che:
(Capitolo 20)
• Definizione. Una matrice C ad elementi reali quadrata C si dice ortogonale se CT = C−1.
Si osservi che nel primo caso è detC = 1 mentre nel secondo caso è detC = −1.
Si osservi, inoltre, che cambiando il segno della seconda colonna di una matrice del primo tipo si
ottiene una matrice del secondo tipo e viceversa.
208
25.1. Lemma. Sia RA(O, u, v) un riferimento affine del piano.
Sia RC(O’, i, j) un riferimento cartesiano ortonormale del piano.
Sia C la matrice del cambiamento di base dalla base (u, v) alla base (i, j).
Il RA(O, u, v) è un riferimento cartesiano ortonormale se e solo se C è una matrice ortogonale.
α γ
Dimostrazione. Se u = αi + βj e v = γi + δj allora C = .
β δ
Il RA(O, u, v) è un riferimento cartesiano ortonormale se e solo se (u, v) è una base ortonormale,
cioè se e solo se ||u|| = 1, ||v|| = 1 e u•v = 0, ovvero α2 + β2 = 1, γ2 + δ2 = 1 e αγ + βδ = 0. Queste
ultime relazioni sono equivalenti a CTC = I, cioè al fatto che C sia una matrice ortogonale.
25.2. Teorema. Siano RC(O, i, j) e RC(O, i’, j’) due riferimenti cartesiani ortonormali del piano
aventi la stessa origine O. Sia C la matrice del cambiamento di base dalla base (i’, j’) alla base (i, j).
Il RC(O, i’, j’) si può “ottenere tramite un’opportuna rotazione” del RC(O, i, j), attorno al punto O,
SE E SOLO SE la matrice C (ortogonale per il Lemma 25.1) ha detC = 1.
α γ α β
Dimostrazione. Se i’ = αi + βj e j’ = γi + δj allora C = e C-1 = CT = γ δ .
β δ
i j k
Se poniamo k := i∧j allora i’∧j’ = α β 0 = (detCT)k = (detC)k .
γ δ 0
Il RC(O, i’, j’) si può ottenere tramite una rotazione (attorno ad O) del RC(O, i, j) se e solo se
i∧j = i’∧j’ (poiché la rotazione non cambia il verso del prodotto vettoriale), cioè se e solo se
cosθ − sin θ
k = (detC)k ovvero se e solo se detC = 1. Quindi, esiste un unico θ∈(−π, π] : C = .
sin θ cos θ
Da i•i’ = cosθ = j•j’ si ha che |θ| è proprio l’ampiezza dell’angolo convesso compreso tra i e i’ e
tra j e j’. Quindi, |θ| è proprio l’ampiezza della rotazione che porta la base (i, j) sulla base (i’, j’).
Se sinθ > 0, allora θ∈(0, π]. Quindi, il verso della rotazione è quello antiorario.
Se sinθ < 0, allora θ∈(−π, 0). Quindi, il verso della rotazione è quello orario.
cosθ − sin θ
25.3. Definizione. Una matrice del tipo si dice matrice associata ad una rotazione.
sin θ cos θ
209
anti
orario anti
j j
j' i' orario
θ i'
θ i
θ θ
O i j' O
(1) rotazione della base (i, j) in senso ANTIORARIO (1) rotazione della base (i, j) in senso ANTIORARIO
(1a) angolo ACUTO tra i versori i e i' (1b) angolo OTTUSO tra i versori i e i'
j orario j orario
j'
−θ
−θ i
O
O −θ i −θ
(2) rotazione della base (i, j) in senso ORARIO
j'
(2a) angolo ACUTO tra i versori i e i'
(2) rotazione della base (i, j) in senso ORARIO
i'
i' (2b) angolo OTTUSO tra i versori i e i'
α γ
25.4. Corollario. Sia RC(O, i, j) un riferimento cartesiano ortonormale del piano. Se C = è
β δ
una matrice ortogonale con detC = 1, allora ponendo i’ := αi + βj e j’ := γi + δj si ha che:
• la terna (O, i’, j’) è un riferimento cartesiano ortonormale del piano;
• il riferimento RC(O, i’, j’) si ottiene “ruotando attorno al punto O” il riferimento RC(O, i, j);
• l’ampiezza della rotazione è data da |θ| dove θ∈(−π, π] è l’angolo tale che cosθ = α e sinθ = β;
• il verso della rotazione è antiorario/orario a seconda che β = sinθ sia positivo/negativo;
• C è proprio la matrice del cambiamento di base dalla base B’ = (i’, j’) alla base B = (i, j).
Se (x’, y’) sono le coordinate di P rispetto a RC(O, i’, j’), allora [OP]B’ = x’i’ + y’j’.
Ponendo X = [x y]T e Y = [x’ y’]T le equazioni del cambiamento di base sono X = CY, ovvero
x = x ' cos θ + y' sin θ
(equazioni della rotazione)
y = − x ' sin θ + y' cos θ
210
Y Y'
P
y y'
j
δ
O i x X
j
γ
O' i x' X'
211
25.8. Definizione. Sia RC(O, i, j) un riferimento cartesiano ortonormale del piano. Diremo curva
l’insieme F di tutti e soli i punti del piano (ovvero il luogo dei punti del piano) le cui coordinate
soddisfano un’equazione del tipo F(x, y) = 0. Diremo anche che F(x, y) = 0 è l’equazione cartesiana
della curva F e scriveremo, brevemente, F : F(x, y) = 0.
25.12. Definizione. Date due curve F : F(x, y) = 0 e G : G(x, y) = 0 del piano, diremo
25.12.1. curva intersezione di F e G,e la indicheremo col simbolo F ∩ G, l’insieme di tutti e soli i
punti del piano che appartengono ad entrambe le curve;
25.12.2. curva unione di F e G, e la indicheremo col simbolo F ∪ G, l’insieme di tutti e soli i punti
del piano che appartengono ad almeno una delle due curve.
25.13. Osservazione. Date due curve F : F(x, y) = 0 e G : G(x, y) = 0 del piano, si ha che
F( x , y) = 0
25.13.1. F ∩ G :
G ( x , y) = 0
25.13.2. F ∪ G : F(x, y)G(x, y) = 0
212
25.15. Definizione. Diremo conica ogni curva algebrica di ordine 2.
Quindi, una conica è il luogo dei punti del piano le cui coordinate soddisfano un’equazione del tipo
ax2 + bxy + cy2 + dx + ey + f = 0 con (a, b, c) ≠ (0, 0, 0)
25.16. Lemma. Se rispetto ad un riferimento RC(O, i, j) del piano C è una conica di equazione
(♥) ax2 + bxy + cy2 + dx + ey + f = 0 con (a, b, c) ≠ (0, 0, 0)
allora esiste un riferimento RC(O, i’, j’) tale che rispetto ad esso la la conica C ha equazione
(♣) λ1(x’)2 + λ2(y’)2+ gx’+ hy’+ f = 0 con (λ1, λ2) ≠ (0, 0)
Inoltre, il riferimento RC(O, i’, j’) si ottiene tramite una rotazione del riferimento RC(O, i, j).
Dimostrazione. Ponendo
a b/2 x
A := ≠ 0 , X := y e G := [ d e ]
b/2 c
si verifica subito che:
(1) XTAX = ax2 + bxy + cy2
(2) GX = dx + ey
per cui la (♥) si può riscrivere così
(♠) XTAX + GX + f = 0
λ1 0
Poiché A è simmetrica, esistono una matrice diagonale Λ = ed una matrice ortogonale
0 λ2
α γ
con detC = 1 tali che A = CΛC . Se consideriamo i vettori i’ := αi + βj e j’ := γi + δj,
T
C=
β δ
allora la terna (O, i’, j’) un riferimento cartesiano ortonormale che si ottene “ruotando” RC(O, i, j).
x'
Ponendo Y := le equazioni della rotazione sono X = CY, da cui Y = C-1X = CTX. Si ha che:
y'
(I) XTAX = XT(CΛCT)X = (XTC)Λ(CTX) = (CTX)TΛ(CTX) = YTΛY = λ1(x’)2 + λ2(y’)2.
213
25.17. Teorema. (classificazione delle coniche nel piano euclideo)
Sia RC(O, i, j) un riferimento cartesiano ortonormale del piano. Se C è una conica
allora esiste un riferimento RC(O’, i’, j’), ottenuto con una rototraslazione di RC(O, i, j), tale che
rispetto ad esso la la conica C ha una delle seguenti nove equazioni:
1) (x’’)2+ n = 0 con n > 0 conica senza punti reali
2) (x’’)2 = 0 due rette reali e coincidenti
3) (x’’− p)(x’’+ p) = 0 con p ≠ 0 due rette reali distinte parallele
4) y’’= q(x’’)2 parabola
5) |λ1|(x’’)2 + |λ2|(y’’)2= 0 con λ1λ2 ≠ 0 conica con un solo punto reale
6) ( λ1 x’’+ λ2 y’’)( λ1 x’’− λ2 y’’) = 0 con λ1λ2 ≠ 0 due rette reali distinte incidenti
Inoltre, il riferimento RC(O, i’, j’) si ottiene tramite una rotazione del riferimento RC(O, i, j).
• Se uno dei due autovalori è zero, allora sia λ2 = 0. Ovviamente, λ1 ≠ 0.
tale che rispetto ad esso l’equazione (♠) della conica C diventa (x’’)2 + n = 0.
1) Se n > 0, allora l’equazione (x’’)2 + n = 0 non ha soluzioni reali. Quindi, C non ha punti reali.
1) Se n = 0, allora l’equazione diventa (x’’)2 = 0. Quindi, C è l’unione di due rette reali coincidenti.
3) Se n < 0, allora ponendo n := −p2 con p ≠ 0 l’equazione diventa (x’’− p)(x’’+ p) = 0.
Quindi, C è l’unione di due rette reali distinte parallele.
214
4) Se m ≠ 0, allora ponendo q := −(1/m) e γ = (n/m) l’equazione (♠) della conica C diventa
y’ + γ = q(x’+ δ)2
x ' ' = x '+ δ
Effettuando la traslazione dal RC(O, i’, j’) si ottiene un RC(O’, i’, j’) tale che rispetto
y' ' = y'+ γ
ad esso l’equazione (♠) della conica C diventa y’’ = q(x’’)2. Quindi, C è una parabola.
• Se λ1λ2 ≠ 0, allora ponendo δ := g/2λ1 , γ := h/2λ2 e n = f − λ1δ2− λ2γ2 l’equazione (♣) diventa
5) Se λ1λ2 > 0, allora l’equazione diventa |λ1|(x’’)2 + |λ2|(y’’)2 = 0 che ha la coppia (0, 0) come
allora (−λ1/n)(−λ2/n) = λ1λ2 /n2 > 0. Invece, se λ1λ2 < 0, allora (−λ1/n)(−λ2/n) = λ1λ2 /n2 < 0.
7) Se (−λ1/n) > 0 e (−λ2/n) > 0, allora ponendo α2 := (−n/λ1) e β2 := (−n/λ2) l’equazione (♦)
8) Se (−λ1/n) < 0 e (−λ2/n) < 0, allora ponendo α2 := (n/λ1) e β2 := (n/λ2) l’equazione (♦) diventa
(−λ1/n) > 0 e (−λ2/n) < 0. Ponendo α2 := (−n/λ1) e β2 := (n/λ2) l’equazione (♦) diventa
215
Esercizio 1. Classificare la conica: x2 − 10xy + y2 + 10x − 2y + 1 = 0.
1 2
Dato che ||(1, −1)|| = 2 , prendendo t = ± =± otteniamo un autoVERSORE.
2 2
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne
2
di C sono autoversori di A. Se scegliamo i’ = (i − j) come primo autoversore (cioè scegliamo le
2
sue componenti come prima colonna di C) è semplice vedere che il secondo autoversore (cioè
2
quello relativo a λ2 = −4) è necessariamente j’ = (i + j).
2
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne
2 1 1 cosθ − sin θ
C= − 1 1 = sin θ cos θ
2
è ortogonale con detC = 1. Si osservi anche che θ = −π/4 radianti. Cioè, il RC(O, i’, j’) si ottiene
“ruotando” il RC(O, i, j) attorno ad O di 45° in senso orario.
x x'
Posto X := e Y := le equazioni della rotazione sono X = CY.
y y'
La rotazione trasforma il complesso dei termini di secondo grado
ax2 + bxy + cy2 = x2 − 10xy + y2
nel complesso
λ1(x’)2 + λ2(y’)2 = 6(x’)2 − 4(y’)2
2 1 1 2 1 1 2
[ 10 −2 ] − 1 1 = 2 [ 10 −2 ] − 1 1 = 2 [ 12 8 ] = [ 6 2 4 2 ].
2
Quindi, la rotazione trasforma il complesso dei termini di primo grado 10x − 2y
216
Per cui, rispetto al RC(O, i’, j’) la conica ha equazione
6(x’)2 − 4(y’)2 + 6 2 x’ + 4 2 y’ + 1 = 0
6(x’)2 + 6 2 x’ − 4(y’)2 + 4 2 y’ + 1 = 0
2 2 2 2
6(x’ + ) − 3 − 4(y’ − ) +2+1=0
2 2
2 2 2 2
6(x’ + ) − 4(y’ − ) + 2 + 1 −3 = 0
2 2
2 2 2 2
6(x’ + ) − 4(y’ − ) =0
2 2
2
x ' ' = x '+
Effettuando la traslazione 2 otteniamo l’equazione
y' ' = y'− 2
2
6(x’’)2 − 4(y’’)2 = 0
( 6 x’’)2 − (2y’’)2 = 0
217
Esercizio 2. Classificare la conica: 8x2 − 12xy + 17y2 + 60x − 70y + 105 = 0.
1 5
Dato che ||(2, 1)|| = 5 , prendendo t = ± =± otteniamo un autoVERSORE.
5 5
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne
5
di C sono autoversori di A. Se scegliamo i’ = (2i + j) come primo autoversore (cioè scegliamo
5
le sue componenti come prima colonna di C) è semplice vedere che il secondo autoversore (cioè
5
quello relativo a λ2 = 20) è necessariamente j’ = (− i + 2j).
5
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne
5 2 − 1
C= 1 2
5
è ortogonale con detC = 1.
x x'
Posto X := e Y := y' le equazioni della rotazione sono X = CY.
y
La rotazione trasforma il complesso dei termini di secondo grado
ax2 + bxy + cy2 = 8x2 − 12xy + 17y2
nel complesso
λ1(x’)2 + λ2(y’)2 = 5(x’)2 + 20(y’)2
5 2 − 1 5 2 − 1 5
[ 60 −70 ] = [ 60 −70 ] = [50 −200 ] = [ 10 5 −40 5 ].
5 1 2 5 1 2 5
Quindi, la rotazione trasforma il complesso dei termini di primo grado 60x − 70y
nel complesso 10 5 x’ − 40 5 y’ .
218
Per cui, rispetto al RC(O, i’, j’) la conica ha equazione
5(x’)2 + 20(y’)2 + 10 5 x’ − 40 5 y’ + 105 = 0
5(x’ + 5 )2 + 20(y’ − 5 )2 − 20 = 0
5(x’’)2 + 20(y’’)2 = 20
1
(x’’)2 + (y’’)2 = 1
4
219
Esercizio 3. Classificare la conica: 3x2 + 10 3 xy − 7y2 + 4 3 x − 44y − 52 = 0.
a b/2 3 5 3
⇒ pA(λ) = λ + 4λ − 96 = (λ − 8)(λ + 12) ⇒ λ1 = 8 , λ2 = −12
2
A= =
b/2 c 5 3 − 7
− 5 5 3 − 5 x + 5 3 y = 0
(A − 8I) = ⇒ ⇒ x− 3 y = 0 ⇒ (x, y) = t( 3 , 1) ∀t∈R−{0}
5 3 − 15 5 3x − 15 y = 0
1
Dato che ||( 3 , 1)|| = 2, prendendo t = ± otteniamo un autoVERSORE.
2
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne
1
di C sono autoversori di A. Se scegliamo i’ = ( 3 i + j) come primo autoversore (cioè scegliamo
2
le sue componenti come prima colonna di C) è semplice vedere che il secondo autoversore (cioè
1
quello relativo a λ2 = −12) è necessariamente j’ = (−i + 3 j).
2
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne
1 3 − 1 cosθ − sin θ
C= =
2 1 3 sin θ cos θ
è ortogonale con detC = 1. Si osservi anche che θ = π/6 radianti. Cioè, il RC(O, i’, j’) si ottiene
“ruotando” il RC(O, i, j) attorno ad O di 30° in senso antiorario.
x x'
Posto X := e Y := y' le equazioni della rotazione sono X = CY.
y
La rotazione trasforma il complesso dei termini di secondo grado
ax2 + bxy + cy2 = 3x2 + 10 3 xy − 7y2
nel complesso
λ1(x’)2 + λ2(y’)2 = 8(x’)2 − 12(y’)2
220
La rotazione trasforma il complesso dei termini di primo grado dx + ey = 4 3 x − 44y
nel complesso gx’+ hy’ dove (ricordiamo) è [ d e ]C = [ g h ]. Quindi,
1 3 − 1 1 3 − 1 1
[ 4 3 − 44] = [ 4 3 − 44] = [ −32 − 48 3 ] = [ − 16 −24 3 ].
2 1 3 2 1 3 2
221
Esercizio 4. Classificare la conica: 3x2 − 4 3 xy + 4y2 + 2 3 x − 4y + 1 = 0.
a b/2 3 − 2 3
⇒ pA(λ) = λ − 7λ = λ(λ − 7) ⇒ λ1 = 7 , λ2 = 0
2
A= =
b/2 c − 2 3 4
−4 − 2 3 − 4 x − 2 3 y = 0
(A − 7I) = ⇒ ⇒ 2x + 3 y = 0 ⇒ (x, y) = t( 3 , −2) ∀t≠0
− 2 3 −3 − 2 3x − 3 y = 0
1 7
Dato che ||( 3 , −2)|| = 7 , prendendo t = ± =± otteniamo un autoVERSORE.
7 7
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne
7
di C sono autoversori di A. Se scegliamo i’ = ( 3 i − 2j) come primo autoversore (cioè
7
scegliamo le sue componenti come prima colonna di C) è semplice vedere che il secondo
7
autoversore (cioè quello relativo a λ2 = 0) è necessariamente j’ = (2i + 3 j).
7
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne
7 3 2
C=
7 − 2 3
222
La rotazione trasforma il complesso dei termini di primo grado dx + ey = 2 3 x − 4y
nel complesso gx’+ hy’ dove (ricordiamo) è [ d e ]C = [ g h ]. Quindi,
7 3 2 7 3 2 7
[ 2 3 − 4] = [ 2 3 − 4] = [ 14 0 ] = [ 2 7 0 ].
7 − 2 3 7 − 2 3 7
7 2
7(x’ + ) =0
7
7 2
(x’ + ) =0
7
x ' ' = x '+ 7
Effettuando la traslazione 7 otteniamo l’equazione
y' ' = y'
(x’’)2 = 0
223
Esercizio 5. Classificare la conica: 4x2 + 4xy + y2 + 2 5 x + 6 5 y + 5 + 2 3 = 0.
1 5
Dato che ||(2, 1)|| = 5 , prendendo t = ± =± otteniamo un autoVERSORE.
5 5
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne
5
di C sono autoversori di A. Se scegliamo i’ = (2i + j) come primo autoversore (cioè scegliamo
5
le sue componenti come prima colonna di C) è semplice vedere che il secondo autoversore (cioè
5
quello relativo a λ2 = 0) è necessariamente j’ = (−i + 2j).
5
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne
5 2 − 1
C= 1 2
5
è ortogonale con detC = 1.
x x'
Posto X := e Y := y' le equazioni della rotazione sono X = CY.
y
La rotazione trasforma il complesso dei termini di secondo grado
ax2 + bxy + cy2 = 4x2 + 4xy + y2
nel complesso (ricordiamo che λ2 = 0)
λ1(x’)2 + λ2(y’)2 = 5(x’)2
224
La rotazione trasforma il complesso dei termini di primo grado dx + ey = 2 5 x + 6 5 y
nel complesso gx’+ hy’ dove (ricordiamo) è [ d e ]C = [ g h ]. Quindi,
5 2 − 1 5 2 − 1 2 − 1
[2 5 6 5] 1 2 = 5 [ 2 5 6 5 ] 1 2 = [ 2 6 ] 1 2 = [ 10 10 ].
5
Quindi, la rotazione trasforma il complesso 2 5 x + 6 5 y
nel complesso 10x’ + 10y’.
Per cui, rispetto al RC(O, i’, j’) la conica ha equazione
5(x’)2 + 10x’ + 10y’ + 5 + 2 3 = 0
3 1
y’ + = − (x’ + 1)2
5 2
x ' ' = x '+1
Effettuando la traslazione 3 otteniamo l’equazione
y ' ' = y '+
5
1
y’’ = − (x’’)2
2
225
Esercizio 6. Classificare la conica: 5x2 − 2 3 xy + 7y2 − 12 3 x + 20y + 36 = 0.
a=5 b = −2 3 c=7 d = 12 3 e = 20 f = 36
a b/2 5 − 3
⇒ pA(λ) = λ − 12λ + 32 = (λ − 4)(λ − 8) ⇒ λ1 = 4 , λ2 = 8
2
A= =
b/2 c − 3 7
1 − 3 x − 3y = 0
(A − 4I) = ⇒ ⇒ x− 3 y = 0 ⇒ (x, y) = t( 3 , 1) ∀t∈R−{0}
− 3 3 − 3 x + 3 y = 0
1
Dato che ||( 3 , 1)|| = 2, prendendo t = ± otteniamo un autoVERSORE.
2
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne
1
di C sono autoversori di A. Se scegliamo i’ = ( 3 i + j) come primo autoversore (cioè scegliamo
2
le sue componenti come prima colonna di C) è semplice vedere che il secondo autoversore (cioè
1
quello relativo a λ2 = 8) è necessariamente j’ = (− i + 3 j).
2
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne
1 3 − 1
C=
2 1 3
1 3 − 1 1 3 − 1 1
[ −12 3 20 ] = [ −12 3 20 ] = [ −16 32 3 ] = [ −8 16 3 ]
2 1 3 2 1 3 2
226
Per cui, rispetto al RC(O, i’, j’) la conica ha equazione
4(x’)2 + 8(y’)2 − 8x’ + 16 3 y’ + 36 = 0
227
Esercizio 7. Classificare la conica: 9x2 + 6xy + y2 − 6x − 2y − 39 = 0.
1 10
Dato che ||(3, 1)|| = 10 , prendendo t = ± =± otteniamo un autoVERSORE.
10 10
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne
10
di C sono autoversori di A. Se scegliamo i’ = (3i + j) come primo autoversore (cioè scegliamo
10
le sue componenti come prima colonna di C) è semplice vedere che il secondo autoversore (cioè
10
quello relativo a λ2 = 0) è necessariamente j’ = (− i + 3j).
10
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne
10 3 − 1
C= 1 3
10
è ortogonale con detC = 1.
x x'
Posto X := e Y := y' le equazioni della rotazione sono X = CY.
y
La rotazione trasforma il complesso dei termini di secondo grado
ax2 + bxy + cy2 = 9x2 + 6xy + y2
nel complesso (ricordiamo che λ2 = 0)
λ1(x’)2 + λ2(y’)2 = 10(x’)2
10 3 − 1 10 3 − 1 10
[ −6 −2 ] 1 3 = 10 [ −6 −2 ] 1 3 = 10 [ −20 0 ] = [ −2 10 0]
10
Quindi, la rotazione trasforma il complesso dei termini di primo grado − 6x − 2y
228
Per cui, rispetto al RC(O, i’, j’) la conica ha equazione
10(x’)2 − 2 10 x’ − 39 = 0
10 2
10(x’ − ) − 1 − 39 = 0
10
10 2
10(x’ − ) − 40 = 0
10
10 2
(x’ − ) −4=0
10
10
Effettuando la traslazione x ' ' = x '− 10 otteniamo l’equazione
y' ' = y'
(x’’)2 − 4 = 0
(x’’ − 2)(x’’ + 2) = 0
229
Esercizio 8. Classificare la conica: 3x2 + 2xy + 3y2 − 4x − 12y + 12 = 0.
1 2
Dato che ||(1, 1)|| = 2 , prendendo t = ± =± otteniamo un autoVERSORE.
2 2
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne
2
di C sono autoversori di A. Se scegliamo i’ = (i + j) come primo autoversore (cioè scegliamo le
2
sue componenti come prima colonna di C) è semplice vedere che il secondo autoversore (cioè
2
quello relativo a λ2 = 2) è necessariamente j’ = (−i + j).
2
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne
2 1 − 1 cosθ − sin θ
C= =
2 1 1 sin θ cos θ
è ortogonale con detC = 1. Si osservi anche che θ = π/4 radianti. Cioè, il RC(O, i’, j’) si ottiene
“ruotando” il RC(O, i, j) attorno ad O di 45° in senso antiorario.
x x'
Posto X := e Y := y' le equazioni della rotazione sono X = CY.
y
La rotazione trasforma il complesso dei termini di secondo grado
ax2 + bxy + cy2 = 3x2 + 2xy + 3y2
nel complesso
λ1(x’)2 + λ2(y’)2 = 4(x’)2 + 2(y’)2
230
La rotazione trasforma il complesso dei termini di primo grado dx + ey = −4x − 12y
nel complesso gx’+ hy’ dove (ricordiamo) è [ d e ]C = [ g h ]. Quindi,
2 1 − 1 2 1 − 1 2
[ −4 − 12 ] 1 1 = 2 [ −4 − 12] 1 1 = 2 [ −16 −8 ] = [ −8 2 −4 2 ].
2
Quindi, la rotazione trasforma il complesso dei termini di primo grado −4x − 12y
4(x’)2 − 8 2 x’ + 2(y’)2 − 4 2 y’ + 12 = 0
4(x’− 2 )2 − 8 + 2(y’− 2 )2 − 4 + 12 = 0
4(x’− 2 )2 + 2(y’− 2 )2 − 4 + 12 − 8 = 0
4(x’− 2 )2 + 2(y’− 2 )2 = 0
2(x’− 2 )2 + (y’− 2 )2 = 0
2(x’’)2 + (y’’)2 = 0
Utilizzando i numeri complessi, indicata con i l’unità immaginaria (tale che i2 = −1, ovvero −i2 = 1)
possiamo scrivere l’equazione 2(x’’)2 + (y’’)2 = 0 come segue
2(x’’)2 − i2(y’)2 = 0
( 2 x’’)2 − (iy’)2 = 0
231
Esercizio 9. Classificare la conica: 4x2 − 12xy + 9y2 − 4x + 6y + 53 = 0.
1 13
Dato che ||(2, −3)|| = 13 , prendendo t = ± =± otteniamo un autoVERSORE.
13 13
Per il Teorema 20.20, esiste una matrice ortogonale C con detC = 1 che diagonalizza A. Le colonne
13
di C sono autoversori di A. Se scegliamo i’ = (2i − 3j) come primo autoversore (cioè
13
scegliamo le sue componenti come prima colonna di C) è semplice vedere che il secondo
13
autoversore (cioè quello relativo a λ2 = 0) è necessariamente j’ = (3i + 2j).
13
Infatti, si vede subito che la matrice C che ha le loro componenti come colonne
13 2 3 cosθ − sin θ
C= − 3 2 = sin θ cos θ
13
è ortogonale con detC = 1.
x x'
Posto X := e Y := y' le equazioni della rotazione sono X = CY.
y
La rotazione trasforma il complesso dei termini di secondo grado
ax2 + bxy + cy2 = 4x2 − 12xy + 9y2
nel complesso (ricordiamo che λ2 = 0)
λ1(x’)2 + λ2(y’)2 = 13(x’)2
232
La rotazione trasforma il complesso dei termini di primo grado dx + ey = −4x + 6y
nel complesso gx’+ hy’ dove (ricordiamo) è [ d e ]C = [ g h ]. Quindi,
13 2 3 13 2 3 13
[ −4 6 ] − 3 2 = 13 [ −4 6 ] − 3 2 = 13 [ −26 0 ] = [ −2 13 0 ].
13
Quindi, la rotazione trasforma il complesso dei termini di primo grado −4x + 6y
13 2
13(x’− ) − 1 + 53 = 0
13
13 2
13(x’− ) + 52 = 0
13
13 2
(x’− ) +4=0
13
13
Effettuando la traslazione x ' ' = x '− 13 otteniamo l’equazione
y' ' = y'
(x’’)2 + 4 = 0
Poiché questa equazione non ha soluzioni reali, la conica non ha alcun punto reale.
Utilizzando i numeri complessi, indicata con i l’unità immaginaria (tale che i2 = −1, ovvero −i2 = 1)
possiamo scrivere l’equazione (x’’)2 + 4 = 0 come segue
(x’’)2 − 4i2 = 0
(x’’)2 − (2i)2 = 0
(x’’ − 2i)(x’’ + 2i) = 0
Quindi, la conica è unione di due rette immaginarie coniugate non aventi punti (propri) in comune.
Per cui le possiamo pensare come ”parallele”.
233
26. La sfera e la circonferenza nello spazio.
26.1. Definizione. Diremo sfera l’insieme di tutti e soli i (il luogo dei) punti dello spazio che hanno
la stessa distanza R > 0 (detta raggio della sfera) da un fissato punto (detto centro della sfera).
234
26.4. Osservazione. Per ogni numero reale δ non nullo, l’equazione
δx2 + δy2 + δz2 + (δa)x + (δb)y + (δc)z + (δd) = 0
è equivalente (cioè ha le stesse soluzioni) all’equazione
x2 + y2 + z2 + ax + by + cz + d = 0.
Tenendo conto del Teorema 26.3 e dell’Osservazione 26.4 è ben posta la seguente
π P0
π
Σ R
C
C
π
235
26.8. Osservazione. (mutua posizione di un retta e una sfera).
Sia RC(O, i, j, k) un riferimento cartesiano ortonormale dello spazio. Siano s una retta e Σ una sfera
di centro C(xC, yC, zC) e raggio R > 0. Si ha che:
(1) d(C, s) > R ⇔ s∩Σ=∅ la retta è esterna alla sfera;
(2) d(C, s) = R ⇔ s ∩ Σ = {P0} la retta è tangente alla sfera in un punto P0;
(3) d(C, s) < R ⇔ s ∩ Σ = {A, B} la retta incide la sfera in due punti A e B.
P0 s
s
Σ
C
R
A
B
s
Σ C
R
R R R R
(2) C C C C
C P0
R
Σ Σ Σ (4) Σ
(3)
C
Σ
236
26.10. Osservazione. (mutua posizione di due sfere aventi due raggi diversi).
Sia RC(O, i, j, k) un riferimento cartesiano ortonormale dello spazio. Siano Σ e Σ’ due sfere aventi
raggi R e R’ tali che R > R’ > 0. Indicati con C(xC, yC, zC) e C’(xC’, yC’, zC’) i loro centri, si ha che:
(1) d(C, C’) = 0 ⇔ la sfera Σ’ è interna e concentrica alla sfera Σ;
(2) 0 < d(C, C’) < R − R’ ⇔ la sfera Σ’ è interna alla sfera Σ;
(3) d(C, C’) = R − R’ ⇔ la sfera Σ’ è interna e tangente in P0 alla sfera Σ;
(4) R − R’ < d(C, C’) < R + R’ ⇔ l’intersezione delle due sfere è una circonferenza C;
(5) d(C, C’) = R + R’ ⇔ le sfere sono tangenti esternamente in un punto P0;
(6) d(C, C’) > R + R’ ⇔ le sfere sono esterne fra loro.
Σ Σ Σ
R
Σ R
Σ
Σ C C' R' C C' R'
P0
Σ Σ
R R'
C R R'
Σ P0 Σ
C C' C C'
(4) (5)
R R'
C C'
Σ
(6)
237
26.11. Osservazione. (equazioni cartesiane di una circonferenza nello spazio).
Nell’Osservazione 26.6 abbiamo visto che l’intersezione di una sfera Σ di centro C e raggio R > 0
ed un piano π tale che d(C, π) < R è una circonferenza C. Per cui se a’x + b’y + c’z + d’ = 0 è
l’equazione del piano π e x2 + y2 + z2 + ax + by + cz + d = 0 è l’equazione della sfera Σ allora i
punti della circonferenza C sono tutti e soli i punti le cui coordinate soddisfano il sistema
x 2 + y 2 + z 2 + ax + by + cz + d = 0
(♥)
a ' x + b' y + c' z + d ' = 0
Le equazioni (♥) vengono dette equazioni cartesiane di una circonferenza nello spazio.
x = a ' t + x c
s : y = b' t + y c .
z = c' t + z
c
Σ (a',b',c')
(a',b',c')
C
R d(C, π )
r C' C
π
s
238
26.12. Osservazione. (retta tangente ad una circonferenza nello spazio).
Sia C una circonferenza dello spazio avente equazioni cartesiane
x 2 + y 2 + z 2 + ax + by + cz + d = 0
C:
a ' x + b' y + c' z + d ' = 0
Σ
π'
C
C P0
π t
239
26.13. Osservazione. (ancora sull’intersezione di due sfere).
Siano Σ : x2 + y2 + z2 + ax + by + cz + d = 0 e Σ’ : x2 + y2 + z2 + a’x + b’y + c’z + d’ = 0 due sfere.
Se le sfere sono concentriche (cioè hanno lo stesso centro), allora o coincidono (se hanno lo stesso
raggio) o non hanno punti in comune (se hanno raggi diversi). Supponiamo, ora, che le due sfere
non siano concentriche, cioè (a, b, c) ≠ (a’, b’, c’). I punti che appartengono all’intersezione delle
due sfere sono tutti e soli i punti le cui coordinate soddisfano il sistema
x 2 + y 2 + z 2 + ax + by + cz + d = 0
Σ ∩ Σ’ : 2
x + y 2 + z 2 + a ' x + b' y + c' z + d ' = 0
26.14. Definizione.
Se Σ : x2 + y2 + z2 + ax + by + cz + d = 0 e Σ’ : x2 + y2 + z2 + a’x + b’y + c’z + d’ = 0 sono due
sfere non concentriche, allora diremo che il piano (a’− a)x + (b’− b)y + (c’− c)z + (d’− d) = 0 è il
piano radicale delle sfere Σ e Σ’
240
8.1. Esercizio. Trovare le coordinate del centro e il raggio delle seguenti sfere:
a) x2 + y2 + z2 − 12x + 4y − 1 = 0.
b) x2 + y2 + z2 − 6y + 8z − 3 = 0.
c) 2x2 + 2y2 + 2z2 − 16x + 6y − 14z + 61 = 0.
8.2. Esercizio. Trovare per quali valori del parametro reale k il piano 2x − z + k’ = 0 risulta
rispettivamente secante, tangente o esterno alla sfera x2 + y2 + z2 − 2x + 6z − 3 = 0.
1
8.4. Esercizio. Scrivere l’equazione del piano tangente nel punto A( , 1, 2 3 ) alla sfera
2
4x2 + 4y2 + 4z2 − 48x − 16y − 13 = 0
8.5. Esercizio. Scrivere l’equazione della sfera di centro C(1, 0, −2) e raggio R = 1.
8.6. Esercizio. Scrivere l’equazione della sfera di centro C(−2, 1, 3) e passante per l’origine .
8.7. Esercizio. Scrivere l’equazione della sfera passante per i quattro punti A(0, 0, 1), B(1, −1, 1),
C(−1, 2, 0) e D(2, 1, −1).
8.8. Esercizio. Scrivere l’equazione della sfera passante per l’origine e per il punto P(2, −3, −1) e
con il centro sull’asse Z.
8.9. Esercizio. Scrivere l’equazione della sfera tangente all’asse X nel punto A(2, 0, 0) e tangente
alla retta x − z + 1 = y − 2z + 1 = 0 nel punto B(−1, −1, 0).
8.10. Esercizio. Scrivere l’equazione della sfera tangente al piano 2x + 3y − 7z = 0 nel suo punto
A(2, 1, 1) e passante per il punto B(1, −2, 3).
8.11. Esercizio. Scrivere l’equazione della sfera tangente al piano x − z − 1 = 0 nel suo punto
A(0, 1, −1) e avente il centro sul piano XY.
241
8.12. Esercizio. Scrivere l’equazione della sfera tangente nell’origine O(0, 0, 0) al piano x − 2y = 0
e passante per il punto A(2, 3, 1).
8.13. Esercizio. Scrivere le equazioni delle sfere di raggio R = 2 e passanti per la circonferenza
x2 + y2 + z2 − 1 = x + 2y − z = 0
8.14. Esercizio. Scrivere l’equazione della sfera passante per la circonferenza comune alle due sfere
x2 + y2 + z2 − 2 = 0 e x2 + y2 + z2 + 4x = 0 e con il centro C sul piano x + 2y − 3z − 1 = 0.
8.15. Esercizio. Scrivere l’equazione della sfera passante per il punto A(2, −3, −1) e passante per la
circonferenza di equazioni x2 + y2 + z2 − x + 2y = 3x − z = 0.
8.16. Esercizio. Scrivere l’equazione della sfera tangente al piano x + 2y + 3z − 7 = 0 nel suo
punto P(2, 1, 1) e passante per l’origine.
8.21. Esercizio. Scrivere le equazioni della circonferenza passante per i tre punti A(1, 0, 0),
B(0, 2, 0) e C(0, 0, 3).
8.22. Esercizio. Scrivere le equazioni della circonferenza tangente alla retta x = y = z nel suo
punto A(1, 1, 1) e passante per il punto P(3, 1, 0).
242