Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Versione 26.03.2011
1
I - STRUTTURE ALGEBRICHE ELEMENTARI
A × B = {(a, b) | a ∈ A, b ∈ B}.
1.1.1. Esempio. Sia A l’insieme i cui elementi sono i simboli ⋄, ⋆, •, cioè A = {⋄, ⋆, •}.
Allora il prodotto cartesiano di A per se stesso è dato da:
A2 = A × A = {(⋄, ⋄), (⋄, ⋆), (⋄, •), (⋆, ⋄), (⋆, ⋆), (⋆, •), (•, ⋄), (•, ⋆), (•, •)}.
2
N
4
0 1 2 3 4 5
N
Figura 1
nRm ⇔ m = n − 1,
1.4. Definizione. Sia A un insieme dotato di una relazione d’equivalenza R. Per ogni
a ∈ A, l’insieme {x ∈ A | xRa} si dice classe d’equivalenza di a e si denota con [a]. Ogni
elemento x di [a] si dice rappresentante della classe [a] (ovviamente una classe ha tanti
rappresentanti quanti sono i suoi elementi).
3
3) A = ∪a∈A [a] , e tale unione è disgiunta.
Dimostrazione. 1) Proviamo che [a] ⊆ [b]; sia x ∈ [a], allora xRa; d’altra parte, per ipotesi
aRb. Dunque, per la proprietà transitiva, xRb, cioè x ∈ [b]. Analogamente si verifica
l’altra inclusione [a] ⊇ [b].
2) Supponiamo per assurdo che x ∈ [a] ∩ [b]. Allora vale xRa e xRb; per la proprietà
simmetrica aRx e quindi, per la transitività, aRb, contro l’ipotesi.
3) è ovvio, usando la 2). !
2. Gruppi
f : G × G −→ G.
Il risultato f ((a, b)) dell’operazione tra due elementi a e b si denota con a ∗ b. In tal caso
si dice che G è chiuso rispetto all’operazione ∗.
Notazione. Per indicare che si considera la struttura algebrica data dall’insieme G con
l’operazione ∗, spesso si scrive (G, ∗).
2.1.1. Esempi. E’ ben noto che la somma ed il prodotto in N sono operazioni bina-
rie. Costruiamo un esempio di insieme “non numerico” dotato di operazione binaria. Si
consideri un triangolo equilatero ABC e sia R l’insieme delle sue rotazioni che portano a
sovrapporre vertici a vertici. Usiamo la seguente notazione: per designare la rotazione (di
2π/3) che porta il vertice A in B, B in C e C in A, scriveremo:
! "
A B C
.
B C A
4
Quindi gli elementi di R sono 3 ed esattamente:
! " ! " ! "
A B C A B C A B C
e= x= y= .
A B C B C A C A B
◦ e x y
e e x y
x x y e
y y e x
tabella 1
2.2. Osservazione. Le strutture (N, +), (N, ·) godono delle ben note proprietà:
a + (b + c) = (a + b) + c , per ogni a, b, c ∈ N.
a + b = b + a, per ogni a, b ∈ N.
Inoltre vi sono elementi dal comportamento speciale: 0 e 1; infatti
0 + a = a e 1a = a, per ogni a ∈ N.
a ∗ b = b ∗ a, per ogni a, b ∈ G.
2.4. Definizione. Sia (G, ∗) come sopra. Un elemento e di G è detto elemento neutro
rispetto a ∗ se
a ∗ e = e ∗ a = a, per ogni a ∈ G.
Se (G, ∗) ha elemento neutro e, scriveremo: (G, ∗, e).
Si osservi che l’elemento e della tabella 1 è elemento neutro di R. Inoltre, ancora dalla
tabella 1, si vede che per ogni elemento r ∈ R, esiste r′ ∈ R tale che r ◦ r′ = r′ ◦ r = e ,
infatti e ◦ e = e, x ◦ y = y ◦ x = e.
5
2.5. Definizione. Sia (G, ∗, e) come sopra e sia a un suo elemento. Un elemento a ∈ G
tale che
a ∗ a = a ∗ a = e.
si dice, a seconda dell’operazione ∗, inverso di a e si indica con a−1 (ad esempio se ∗ è un
prodotto); oppure opposto di a e si indica con −a (ad esempio se ∗ è una somma).
2.5.1. Esempi. Osserviamo che negli esempi precedenti ogni insieme con operazione
ammette un elemento neutro: (N, +, 0), (N, ·, 1), (R, ◦, e). Osserviamo che, in R, y è
l’inverso di x e x è l’inverso di y; mentre in (N, +, 0) e in (N, ·, 1) nessun elemento, eccetto
quello neutro, ha opposto (risp. inverso).
Come è ben noto, si può ampliare in modo naturale (N, +, 0) affinché ogni elemento
abbia opposto; l’insieme cosı̀ ottenuto è quello degli interi relativi che si denota con Z ed
è definito da Z = {±n | n ∈ N}.
6
3. Anelli e Campi
Vogliamo definire una nuova nozione per insiemi dotati di due operazioni che si com-
portano come la somma e il prodotto di Z.
3.1. Definizione. Sia (A, +, 0A , ·, 1A ) un insieme dotato di due operazioni binarie, dette
somma (denotata con +) e prodotto (denotato con ·), e di due elementi 0A e 1A , tali che :
a) (A, +, 0A ) è un gruppo commutativo ;
b) il prodotto è associativo;
c) 1A è elemento neutro rispetto al prodotto;
d) a · (b + c) = a · b + a · c , per ogni a, b, c ∈ A.
In tal caso A si dice anello. Se inoltre il prodotto è commutativo, A si dice anello commu-
tativo.
3.1.2. Esempio. Un altro esempio fondamentale di anello è dato da Z[X]. Con tale
simbolo si denota l’insieme dei polinomi in una variabile X a coefficienti in Z, cioè l’insieme
delle espressioni:
n
#
ai X i = an X n + an−1 X n−1 + . . . + a1 X + a0
i=0
7
3.3. Definizione. Se K è un anello commutativo tale che ogni elemento non nullo
ammette inverso moltiplicativo, allora K si dice campo.
Equivalentemente K è un campo se e solo se (K, +, 0K ) e (K ∗ , ·, 1K ) sono gruppi abeliani
e il prodotto è distributivo rispetto alla somma.
Da quanto visto prima, si deduce che Q è un campo. Altri esempi di campi sono
l’insieme R dei numeri reali e l’insieme C dei numeri complessi.
4.1. Definizione. Un’applicazione tra due strutture algebriche dello stesso tipo si dice
omomorfismo se preserva le operazioni definite nelle strutture medesime. Più precisamente:
i) se (G, +, 0G ) e (G′ , +, 0G′ ) sono due gruppi, un’applicazione f : G → G′ è un omo-
morfismo di gruppi se
f (x + y) = f (x) + f (y)
per ogni x, y ∈ G.
ii) se (A, +, 0A , ·, 1A ) e (B, +, 0B , ·, 1B ) sono due anelli, un’applicazione f : A → B è un
omomorfismo di anelli se
per ogni x, y ∈ A.
8
4.2. Proposizione. Siano (G, +, 0G ) e (G′ , +, 0G′ ) due gruppi e sia f : G → G′ un
omomorfismo di gruppi. Allora:
i) f (0G ) = 0G′ , cioè l’immagine dell’elemento neutro di G è l’elemento neutro di G′ ;
ii) per ogni g ∈ G si ha f (−g) = −f (g), cioè l’immagine dell’opposto di un elemento è
l’opposto dell’immagine dell’elemento stesso. !
nRm ⇔ n − m = 2q
per qualche intero q. E’ facile vedere che R è una relazione d’equivalenza; ovviamente le
classi di equivalenza sono due: una costituita da tutti gli interi pari e l’altra da tutti i
dispari. Pertanto l’insieme quoziente Z/R è costituito da queste due sole classi:
[0] = [2] = [4] = [−2] = . . . e [1] = [3] = [5] = [−1] = . . ..
9
Pertanto il più piccolo intero non negativo appartente a [n] è il resto r della sua divisione
per p. La classe d’equivalenza di 0 è costituita dagli interi n tali che nRp 0, cioè tali che
n = pq. Analogamente si vede che la classe di 1 è costituita dagli interi n che danno resto
1 dalla divisione per p, e cosı̀ via. Proseguendo si vede che la classe di p − 1 è costituita
dagli elementi che danno resto p − 1 dalla divisione per p. Ma la classe di p è uguale alla
classe di 0, poiché pRp 0. Dunque l’insieme quoziente è costituito da p classi distinte, dette
classi di resto modulo p, e precisamente
Notazione. Solitamente l’insieme quoziente Z/Rp si denota con uno dei seguenti simboli:
Z/pZ, Z/(p) o Zp ; inoltre se [n] = [m] in Zp si dice che n e m sono congrui modulo p e si
scrive n ≡ m (mod p).
5.0.1. Esempio. In Z3 , [7] = [1] , [29] = [2], [−14] = [1], poiché −14 = (−5)3 + 1.
Gli insiemi Zp “ereditano” la struttura algebrica di Z, cioè si può definire in essi una
somma e un prodotto naturali:
Verifichiamo che tali operazioni sono “ben definite”, cioè che non dipendono dalla scelta
dei rappresentanti. Siano [n] = [n′ ] e [m] = [m′ ]; vogliamo provare che [n + m] = [n′ + m′ ]
e che [nm] = [n′ m′ ]. Per ipotesi, esistono q1 e q2 tali che n − n′ = pq1 e m − m′ = pq2 .
Dunque (n + m) − (n′ + m′ ) = p(q1 + q2 ) e quindi [n + m] = [n′ + m′ ]. Poiché n = n′ + pq1
e m = m′ + pq2 , nm − n′ m′ = p(n′ q2 + m′ q1 + pq1 q2 ).
+ [0] [1]
[0] [0] [1]
[1] [1] [0]
tabella 2
· [0] [1]
[0] [0] [0]
[1] [0] [1]
tabella 3
10
5.1. Proposizione. Zp è un anello per ogni p ∈ N.
11
II - VETTORI GEOMETRICI E SISTEMI DI RIFERIMENTO
1. Vettori applicati
Il lettore avrà certamente familiarità col concetto di vettore, usato nei corsi di fisica
per individuare alcune grandezze (velocità, accelerazione, forza, ecc.).
Si ricordi che con il termine “vettore” o, più precisamente “vettore applicato”, si indica
un oggetto che è completamente individuato da una direzione, un verso, una lunghezza (o
modulo) e un punto di applicazione. Per fissare le notazioni, un vettore applicato verrà
denotato con B − A, ove A e B sono due punti dello spazio (a volte anche con il simbolo
AB); in tal caso la sua direzione è quella della retta per A e B, il suo verso è quello da A
a B, il suo modulo, denotato usualmente con ∥ B − A ∥ è la lunghezza del segmento AB
(rispetto ad una fissata unità di misura), ed A è il suo punto di applicazione.
Indichiamo con W 3 (rispettivamente W 2 ) l’insieme di tutti i vettori applicati nello
spazio (rispettivamente nel piano), cioè, indicato con S lo spazio ordinario, si ha:
W 3 = {B − A | A, B ∈ S}.
3
Si può considerare il sottoinsieme VA di W 3 costituito da tutti i vettori aventi lo stesso
punto di applicazione A:
3
VA = {B − A | B ∈ S}.
Si osservi che %
W3 = 3
VA .
A∈S
3
1.1. Osservazione. Fissato un punto O dello spazio, è evidente che VO = {B−O | B ∈ S}
3
è naturalmente in corrispondenza biunivoca con S, in quanto, ad ogni vettore B − O ∈ VO
resta associato l’estremo B, e viceversa.
3
E’ noto che in VO è definita una somma di vettori, mediante la “regola del parallelo-
gramma”. Più precisamente,
(A − O) + (B − O) = (C − O),
ove C è il quarto vertice del parallelogramma i cui altri tre vertici sono A, O, B.
B C
O A
Figura 2
12
Il vettore O − O si dice vettore nullo e si denoterà con 0 (osserviamo che 0 ha direzione e
verso indeterminati e modulo nullo).
3
E’ evidente che VO è chiuso rispetto alla somma di vettori; inoltre si ha la seguente:
3
1.2. Proposizione. (VO , +, 0) è un gruppo abeliano.
Dimostrazione. E’ chiaro che 0 è elemento neutro; per ogni vettore A − O, esiste il suo
opposto A′ − O , dove A′ è il punto simmetrico di A rispetto ad O.
O
A
A'
Figura 3
La proprietà commutativa segue direttamente dalla definizione di somma di vettori. Resta
da verificare la proprietà associativa di cui diamo una dimostrazione grafica. !
v 1 + v2
v1
O v2
v3 v2 + v3
Figura 4
Dalla fisica è ben noto che si possono considerare i multipli di vettori (ad esempio
considerando un oggetto che si muove a velocità doppia di un altro, ecc.).
3
Questo fatto si può interpretare nel gruppo VO definendo una seconda operazione che
3
coinvolge gli elementi di VO ed i numeri reali, che, in questo contesto, per differenziarli dai
vettori, vengono anche chiamati scalari (reali).
1.3. Definizione. Si dice prodotto di uno scalare λ ∈ R per un vettore A − O il vettore
B − O, in simboli:
B − O = λ(A − O),
tale che :
i) B, A, O sono allineati;
ii) B − O e A − O hanno lo stesso verso (e si dicono concordi) se λ > 0,
13
B − O e A − O hanno verso opposto (e si dicono discordi) se λ < 0;
iii) ∥ B − O ∥= |λ| ∥ A − O ∥.
B' C'
B C
A O A'
Figura 5
Poiché OA è parallelo a OA′ per definizione, anche BC è parallelo a B ′ C ′ ; inoltre OB è
parallelo a OB ′ , dunque gli angoli OBC e OB ′ C ′ sono uguali. Inoltre λ = OB ′ /OB =
OA′ /OA = B ′ C ′ /BC. Quindi i triangoli OBC e OB ′ C ′ sono simili. Da cui i vettori OC
e OC ′ sono paralleli e concordi e |OC ′ | = λ|OC|. Quindi OC ′ = λ(OC).
3) Si dimostra in modo analogo alla 4). !
3
Quanto precede mette in evidenza che VO , rispetto alle operazioni di somma e di
prodotto per uno scalare, ha una struttura più ricca di quella di gruppo abeliano. Tale
struttura prende il nome “naturale” di spazio vettoriale, nozione che verrà trattata in
detaglio nel Capitolo III.
14
2. Sistemi di riferimento
E’ ben noto il concetto di sistema di riferimento; riprendiamo brevemente i punti
fondamentali, utilizzando il linguaggio vettoriale.
2.1. Definizione. Data una retta r, un sistema di riferimento Λ su r è il dato di un
punto O ∈ r e di un vettore i = A − O, con A ∈ r e A ̸= O. Il punto O si dice origine del
sistema di riferimento, la lunghezza del segmento A − O è l’unità di misura di Λ e il verso
di i si dice orientamento di Λ.
Attraverso Λ si stabilisce una corrispondenza biunivoca tra i punti di r ed i numeri reali;
più precisamente, ad ogni punto P ∈ r si associa il numero reale x tale che P − O = xi.
Viceversa, dato x ∈ R, rimane individuato il punto P di r che è estremo del vettore xi,
qualora lo si intenda applicato in O.
Il numero x si dice ascissa del punto P e si scrive P = (x). Il sistema di riferimento
Λ si denoterà anche con (O; x) oppure con (O; i).
2.2. Definizione. Dato un piano α, un sistema di riferimento Π su α è il dato di un punto
O ∈ α e di due vettori non nulli i = A − O e j = B − O, con A, B ∈ α, ∥ A − O ∥=∥ B − O ∥
e tali che i si sovrappone a j ruotando di un angolo φ in senso antiorario, con 0 < φ < π.
Il punto O si dice origine del sistema di riferimento, la lunghezza del segmenti A − O
e OB − O è l’unità di misura di Π. La retta orientata passante per O e avente stessa
direzione e stesso verso di i si dice asse x o asse delle ascisse. Analogamente, si definisce
l’asse y o asse delle ordinate come la retta orientata individuata da j.
Analogamente a quanto visto in precedenza, attraverso Π si stabilisce una corrispon-
denza biunivoca tra i punti di α e le coppie di numeri reali; più precisamente, ad ogni
punto P ∈ α si associa la coppia ordinata (x, y) tale che P − O = xi + yj (regola del
parallelogramma). Viceversa, dato (x, y) ∈ R2 , rimane individuato il punto P di α che è
estremo del vettore xi + yj.
Tale corrispondenza è descritta dalla seguente figura
yj
P(x,y)
O i xi
Figura 6
I numeri x e y si dicono coordinate di P e, più precisamente x si dice ascissa e y si dice
ordinata del punto P ; scriveremo P = (x, y). I vettori i, j si dicono versori fondamentali,
dove la parola versore indica un vettore di modulo 1.
Il sistema di riferimento Π si denoterà anche con (O; x, y) oppure con (O; i, j).
15
2.3. Definizione. Un sistema di riferimento Π = (O; i, j) su un piano α si dice sistema
di riferimento cartesiano ortogonale se l’angolo tra i e j è di π/2.
In modo del tutto analogo si definisce un sistema di riferimento cartesiano (ortogonale)
Σ nello spazio S. Introduciamo dapprima la seguente nozione.
3
2.4. Definizione. Una terna ordinata di vettori applicati non complanari u, v, w ∈ VO
si dice destrorsa se, guardando il piano individuato da u e v (risp. v e w, risp. w e u)
dalla parte di w (risp. u, risp. v), u si sovrappone a v (risp. v si sovrappone a w, risp.
w si sovrappone a u) ruotando in senso antiorario di un angolo minore di π.
2.5. Definizione. Dato lo spazio S, un sistema di riferimento cartesiano Σ su S è il
dato di un punto O ∈ S e di tre vettori non nulli i = A − O, j = B − O e k = C − O
con A, B, C ∈ S, ∥ A − O ∥=∥ B − O ∥=∥ C − O ∥ e tali che i, j, k formano una terna
destrorsa.
In particolare Σ si dice sistema di riferimento cartesiano ortogonale se i, j, k sono a due a
due ortogonali.
Il punto O si dice origine del sistema di riferimento, la lunghezza del segmenti A − O,
OB e OC è l’unità di misura di Σ. La retta orientata passante per O e avente stessa
direzione e stesso verso di i si dice asse x o asse delle ascisse. Analogamente, si definiscono
l’asse y o asse delle ordinate e l’asse z o asse delle quote. In particolare useremo la
notazione P = (x, y, z), chiamando, rispettivamente, tali coordinate: ascissa, ordinata e
quota del punto P . Porremo, infine, Σ = (O; i, j, k) = (O; x, y, z).
I vettori i, j, k si dicono versori fondamentali.
zk
P(x,y,z)
k
O yj
j
i
xi
Figura 7
Come visto in precedenza, si stabilisce una corrispondenza biunivoca tra i punti di S
3
e le terne di numeri reali, attraverso VO ; più precisamente:
3
S ←→ VO ←→ R3 ,
e tali corrispondenze sono definite da
P ↔ P − O ↔ (x, y, z)
16
dove P − O = xi + yj + zk.
2.6. Definizione. Con le notazioni precedenti, se P = (x, y, z), quindi P −O = xi+yj+zk,
i numeri x, y, z si dicono componenti del vettore applicato P − O.
Notazione. In generale, useremo anche la notazione v per un vettore, v = P − O, ed
avremo quindi v = xi + yj + zk. Spesso è conveniente indicare le componenti di v con
vx , vy , vz , quindi
v = vx i + vy j + vz k.
In seguito, per semplificare la notazione, scriveremo
v = (vx , vy , vz ),
sottointendendo che tali componenti sono riferite al sistema di riferimento (O; i, j, k).
2.7. Osservazione. Mentre un vettore v è un oggetto geometrico invariante, le sue
componenti dipendono dal particolare sistema di riferimento fissato.
2.7.1. Esempi. 1) Il vettore nullo 0 = O − O ha componenti (0, 0, 0) in tutti i sistemi di
riferimento di origine O ed è l’unico vettore che gode di tale proprietà.
2) I versori fondamentali hanno le seguenti componenti:
e anche
λv = λvx i + λvy j + λvz k.
17
Dimostrazione. Poiché
3
Dall’osservazione precedente e dalla corrispondenza biunivoca VO ←→ R3 si definiscono in
modo naturale le seguenti operazioni in R3 :
2.11. Definizione. Siano (x1 , x2 , x3 ) e (y1 , y2 , y3 ) due elementi di R3 e sia λ ∈ R; allora
Nello studio della fisica, il lettore avrà già incontrato i concetti di prodotto scalare,
prodotto vettoriale e prodotto misto di vettori. In questo paragrafo riprendiamo breve-
mente tali operazioni.
3.1. Definizione. Siano v, w ∈ V 2 (risp. V 3 ) due vettori. Si dice prodotto scalare di v e
w e si indica con v · w il numero reale
v · w =∥ v ∥ ∥ w ∥ cos α
'
dove α = v w, 0 ≤ α ≤ π, è l’angolo formato da v e w.
Nel resto del paragrafo, considereremo per brevità soltanto vettori di V 3 , essendo la trat-
tazione di V 2 del tutto analoga.
18
3.2. Osservazione. Dalla definizione si ha chiaramente che, se v è il vettore nullo, allora
v · w = 0. Inoltre si hanno immediatamente le ulteriori proprietà:
i) se v e w sono due vettori non nulli, allora
v·w =0 ⇐⇒ cos α = 0 ⇐⇒ v ⊥ w.
w vw
Figura 8
Dimostrazione. a) Due casi sono possibili, a seconda che uw e vw siano concordi o discordi.
In figura 9 è rappresentato il primo caso. La dimostrazione è immediata, osservando che
OA′ = vw e A′ B ′ = uw .
B
u
A
v C
u
O w
vw A' uw B'
19
Figura 9
! α′′ = v(λw)
dove α′ = (λv)w, ! eα=v ' w.
Si noti che, se λ = 0, a = b = c = 0.
Se λ > 0, allora |λ| = λ e α = α′ = α′′ ; dunque, dalle proprietà commutativa e associativa
del prodotto in R, si ottiene a = b = c.
Infine, λ < 0, allora |λ| = −λ e α′ = α′′ = π − α e quindi cos α′ = cos α′′ == − cos α.
Pertanto, dalla commutatività e associatività del prodotto in R, si ottiene a = b = c.
iii) Supponiamo dapprima che u, v, w siano paralleli. Si possono presentare vari casi, a
seconda dei versi dei tre vettori. Ad esempio, se sono tutti concordi, si ha:
u · (v + w) =∥ u ∥ ∥ v + w ∥=∥ u ∥ (∥ v ∥ + ∥ w ∥) =
=∥ u ∥ ∥ v ∥ + ∥ u ∥ ∥ w ∥= u · v + u · w.
Se invece v e w sono concordi, ma discordi da u, si ha
u · (v + w) = − ∥ u ∥ ∥ v + w ∥= − ∥ u ∥ (∥ v ∥ + ∥ w ∥) =
= − ∥ u ∥ ∥ v ∥ − ∥ u ∥ ∥ w ∥= u · v + u · w.
20
Gli altri casi sono lasciati al lettore.
Proviamo ora il caso generale; da 3.4 si ha
u · (v + w) = u · (v + w)u = u · (vu + wu ) = u · vu + u · wu = u · v + u · w
dove la terza eguaglianza segue dalla dimostrazione appena vista per il caso particolare,
tenendo conto del fatto che u, vu , wu sono paralleli. !
v · w = vx wx + vy wy + vz wz .
v · w = (vx i + vy j + vz k) · (wx i + wy j + wz k) =
= vx wx i · i + vy wx j · i + vz wx k · i + +vx wy i · j + vy wy j · j + vz wy k · j+
+ vx wz i · k + vy wz j · k + vz wz k · k
3.6.1. Esempio. Vogliamo verificare che i vettori v = (2, 3, 1) e w = (1, −1, 1) sono
ortogonali. Per 3.2 i) basta provare che v · w = 0. D’altra parte, per 3.6 si ha: v · w =
2 · 1 + 3 · (−1) + 1 · 1 = 0.
3.7. Osservazione. Il prodotto scalare tra vettori dello spazio individua un’applicazione
σ : V 3 × V 3 −→ R
definita da σ(v, w) = v · w.
Analogamente il prodotto scalare tra vettori del piano individua una applicazione
σ : V 2 × V 2 −→ R
definita da σ(v, w) = v · w.
∥ v ∧ w ∥=∥ v ∥ ∥ w ∥ sin α
21
'
dove α = v w, 0 ≤ α ≤ π, è l’angolo formato da v e w; la sua direzione è ortogonale sia a
v che a w e il suo verso è tale che v, w, v ∧ w è una terna destrorsa.
Dimostrazione. La i) e la ii) sono di facile verifica. Più elaborata è invece la iii) di cui
omettiamo la dimostrazione. !
Dimostrazione. Del tutto analoga a quella di 3.6, tenendo conto di 3.10 e di 3.9 ii). !
3.12.1. Esempio. Vogliamo verificare che i vettori v = (1, 0, −1) e w = (−2, 0, 2) sono
paralleli. Per 3.9 i) basta verificare che v ∧ w = 0. D’altra parte, per 3.12 si ha:
!* * * * * *"
* 0 −1 * * −1 1 * * 1 0 *
v∧w = * * * , * * , * * = (0, 0, 0).
0 2 * * 2 −2 * * −2 0 *
22
3.14. Proposizione. Siano u = (ux , uy , uz ), v = (vx , vy , vz ) e w = (wx , wy , wz ) tre
vettori di V 3 ; allora
* * * * * *
* vy vz * * vz vx * * vx vy *
*
u · v ∧ w = ux * * u * * *
+ uz * *.
wy wz * y * w z wx * wx wy *
23
III - SPAZI VETTORIALI
1.1. Definizione. Sia V un insieme non vuoto. V si dice spazio vettoriale su R o R-spazio
vettoriale o spazio vettoriale reale, se:
a) in V è definita un’operazione di somma
s : V × V −→ V
p : R × V −→ V
2 3
1.1.1. Esempio. Come già visto nel Capitolo II, gli insiemi VO e VO dei vettori geometrici
del piano (rispettivamente dello spazio) applicati nell’origine sono spazi vettoriali reali.
1.1.2. Proposizione. L’insieme R3 delle terne di numeri reali munito delle operazioni
I. (x1 , x2 , x3 ) + (y1 , y2 , y3 ) = (x1 + y1 , x2 + y2 , x3 + y3 )
24
II. a(x1 , x2 , x3 ) = (ax1 , ax2 , ax3 )
ove a ∈ R, (x1 , x2 , x3 ), (y1 , y2 , y3 ) ∈ R3 .
è un R-spazio vettoriale.
Dimostrazione. Verifichiamo che valgono le proprietà elencate in 1.1.
Chiaramente a) e b) sono soddisfatte, in quanto R3 è chiuso rispetto alle operazione di
somma e prodotto per uno scalare reale.
c) 1) Esiste l’elemento neutro rispetto alla somma: 0R3 = (0, 0, 0), in quanto, per come è
definita la somma
(x1 , x2 , x3 ) + (0, 0, 0) = (x1 , x2 , x3 ).
Inoltre (R3 , +, 0R3 ) è un gruppo commutativo; valgono infatti:
- proprietà associativa:
25
Queste ultime verifiche vengono lasciate al lettore. !
Rn = {X = (x1 , . . . , xn ) | xi ∈ R}.
R[x] = {f (x) = a0 + a1 x + a2 x2 + · · · + an xn | ai ∈ R, n ∈ N}
26
grado dei polinomi addendi (per 4.12, Cap. 1), R[x]r è chiuso rispetto all’operazione A;
inoltre, poiché il grado di λf (x) è uguale al grado di f (x), per ogni λ ̸= 0, il sottoinsieme
R[x]r è chiuso rispetto all’operazione B. Si verifica facilmente che R[x]r è anch’esso un
R-spazio vettoriale.
1.3. Osservazione. Il lettore si sarà probabilmente accorto che, nel verificare che gli
insiemi Rn , R[X] e R[X]r sono R-spazi vettoriali, si utilizza essenzialmente la struttura
di campo di R. Cioè le proprietà delle operazioni definite in tali spazi si riconducono alle
corrispondenti proprietà delle operazioni in R.
27
per i); da cui la prima uguaglianza. Analogamente
da cui la seconda. !
1.6. Osservazione. Le proprietà i), ii), iii) si possono riassumere con la seguente legge
di annullamento del prodotto
kv = 0V ⇐⇒ k = 0R o v = 0V .
2. Sottospazi vettoriali
28
che se 0V ∈ W allora 0V è zero di W , infatti per ogni w ∈ W si ha 0V + w = w + 0V = w
poiché w ∈ V . Per ii), b, 0R w ∈ W , per ogni w ∈ W . D’altra parte, per 1.6, 0R w = 0V ;
dunque 0V ∈ W . Infine, se w ∈ W , sempre per 1.6, −w = (−1)w ∈ W . !
2.2.2. Esempio. Abbiamo già visto che R[x]r ⊆ R[x] sono R-spazi vettoriali rispetto alle
stesse operazioni; dunque R[x]r è sottospazio di R[x].
αw + α′ w′ = (αa + α′ a′ )v ∈ L(v)
per ogni α, α′ ∈ R, allora, per 2.2, iii), L(v) è un sottospazio vettoriale di V e si dice retta
vettoriale generata da v.
Dati due o più sottospazi vettoriali di un R-spazio vettoriale V , vediamo ora come sia
possibile, mediante opportune “operazioni”, costruirne altri.
2.4. Osservazione. L’unione di due sottospazi vettoriali non è, in generale, un sottospazio
vettoriale. Si considerino, ad esempio due rette vettoriali distinte, L(v) e L(v ′ ), di R2 . È
29
evidente che L(v) ∪ L(v ′ ) non è un sottospazio di R2 , in quanto non è chiuso rispetto alla
somma, come si può vedere dalla figura.
L(v')
v' v+v'
v L(v)
Figura 10
tenendo conto del fatto che W1 e W2 sono sottospazi, si ha aw1 +a′ w1′ ∈ W1 e aw2 +a′ w2′ ∈
W2 . Ne segue che W1 + W2 è un sottospazio vettoriale di V .
Inoltre W1 + W2 ⊇ (W1 ∪ W2 ), infatti se w1 ∈ W1 , allora w1 = w1 + 0V appartiene a
W1 + W2 ; analogamente si prova che W2 ⊂ W1 + W2 .
Sia ora Z un sottospazio di V contenente W1 ∪ W2 . Allora, per ogni w1 ∈ W1 e w2 ∈ W2
deve essere w1 + w2 ∈ Z. Da cui: Z ⊇ W1 + W2 . !
W1 + · · · + Wn = {v ∈ V | v = w1 + · · · + wn ; wi ∈ Wi , i = 1, . . . , n}
30
2.8. Definizione. Siano W1 , W2 due sottospazi di un R-spazio vettoriale V . La somma
W = W1 + W2 si dice diretta se ogni suo elemento v si scrive in modo unico nella forma
v = w1 + w2 con wi ∈ Wi , i = 1, 2. In tal caso scriveremo W = W1 ⊕ W2 .
3. Combinazioni lineari
3
Studiando VO , abbiamo visto come ogni vettore geometrico v si possa rappresentare
nella forma v = ai + bj + ck. Brevemente diremo che v è “combinazione lineare” di i, j, k.
Inoltre tale scrittura è unica; tale proprietà si esprime usualmente dicendo che i, j, k sono
“linearmente indipendenti”. In questo paragrafo cercheremo di estendere ad uno spazio
vettoriale qualunque i precedenti concetti.
v = λ1 v 1 + · · · + λn v n .
31
3.2. Teorema. L(v1 , . . . , vn ) è un sottospazio vettoriale di V , detto spazio generato da
v1 , . . . , vn .
2 3
3.2.1. Esempi. 1) È chiaro che VO = L(i, j); VO = L(i, j, k).
2) Siano v = (1, 0, −1) e w = (2, 0, 0) due vettori di R3 . Allora L(v, w) è contenuto
propriamente in R3 ; infatti, ad esempio, (0, 1, 0) ̸∈ L(v, w). Altrimenti, dovrebbero esistere
α, β ∈ R tali che
(0, 1, 0) = α(1, 0, −1) + β(2, 0, 0) = (α + 2β, 0, −α).
Eguagliando le componenti, si ottiene la relazione 1 = 0, che è palesemente falsa.
3.2.2. Esempio. Lo spazio vettoriale reale R[x] non è generato da un numero finito di
vettori. Si cominci osservando che R[x] è generato dall’insieme infinito {1, x, x2 , . . . , xi , . . .}.
Supponiamo ora che esistano f1 , . . . , fs , con fi ∈ R[x] tali che R[x] = L(f1 , . . . , fs ). Posto
di = deg(fi ) e d = max{d1 , . . . , ds }, allora ogni p(x) ∈ L(f1 , . . . , fs ) ha grado ≤ d. Quindi
non può essere R[x] = L(f1 , . . . , fs ), in quanto, ad esempio, xd+1 ̸∈ L(f1 , . . . , fs ).
3.4. Osservazione. Non è difficile convincersi del fatto seguente. Sia I un sottoinsieme
di V e sia v ∈ V . Allora
L({v} ∪ I) = L(I) ⇐⇒ v ∈ L(I).
32
3.5. Definizione. Dato un insieme I = {v1 , . . . , vn } di vettori di un R-spazio vettoriale
V , tali vettori si dicono linearmente indipendenti su R se il vettore nullo si ottiene come
loro combinazione lineare soltanto con coefficienti nulli, cioè
λ1 v1 + · · · + λn vn = 0V =⇒ λ1 = · · · = λn = 0R .
In tal caso l’insieme I si dice libero. Un insieme infinito I ⊆ V si dice libero se ogni suo
sottoinsieme finito è libero, nel senso definito sopra.
Viceversa, n vettori si dicono linearmente dipendenti se non sono linearmente indipendenti,
cioè se esistono n scalari (λ1 , . . . , λn ) ̸= (0, . . . , 0) tali che λ1 v1 + · · · + λn vn = 0V .
3
3.5.1. Esempio. Ovviamente i, j, k sono linearmente indipendenti in VO . Mentre i vettori
v1 = i+j, v2 = j−k e v3 = 2i−j+3k sono linearmente dipendenti; infatti 2v1 −3v2 −v3 = 0.
4. Basi
33
4.1. Teorema. Sia V un R-spazio vettoriale e v1 , . . . , vn ∈ V . Sono equivalenti i seguenti
fatti:
i) v1 , . . . , vn sono linearmente indipendenti;
ii) v1 ̸= 0V e vi non è combinazione lineare di v1 , . . . , vi−1 , per ogni i ≥ 2.
4.2. Teorema. (Metodo degli scarti successivi). Ogni insieme finito di generatori di
uno spazio vettoriale contiene un sistema libero di generatori.
4.4. Corollario. Ogni insieme finito di generatori di uno spazio vettoriale contiene (al-
meno) una base; quindi ogni spazio vettoriale finitamente generato ammette una base.
!
34
al secondo passo.
Dato che v2 = −2v1 , v2 ∈ L(v1 ) e quindi si elimina. Mentre v3 ̸∈ L(v1 ), dunque v3 non
si elimina. Passiamo a v4 : è chiaro che v4 ∈ L(v1 , v3 ) se e solo se esistono α, β ∈ R tali
che v4 = αv1 + βv3 , cioè (1, −1, 2) == (α + 2β, α, −α + β). Uguagliando le componenti, si
ricava α = −1, β = 1. Dunque v4 = −v1 + v3 ∈ L(v1 , v3 ); pertanto v4 si elimina.
Analogamente si verifica che v5 ̸∈ L(v1 , v3 ); pertanto la base richiesta è (v1 , v3 , v5 ).
Dimostrazione. Supponiamo che I sia libero e che esista un vettore v ∈ L(v1 , . . . , vn ) che
si possa scrivere in due modi:
v = λ1 v1 + · · · + λn vn = µ1 v1 + · · · + µn vn .
Allora (λ1 − µ1 )v1 + · · · + (λn − µn )vn = 0. Dal fatto che v1 , . . . , vn sono linearmente
indipendenti segue che tutti i coefficienti si devono annullare, ovvero
λ1 − µ 1 = · · · = λn − µ n = 0
v = (λ1 , . . . , λn )I .
4.7. Osservazione. Si noti che gli insiemi liberi e i sistemi di generatori non sono insiemi
ordinati, mentre le basi lo sono. In seguito il lettore si renderà conto di questa scelta,
dovuta al fatto che spesso conviene lavorare con le componenti di un vettore rispetto ad
una base, piuttosto che col vettore stesso. Per tale scelta, le componenti di un vettore
rispetto ad una base sono n-uple ordinate di scalari. Ad esempio se I = (v1 , v2 ) è una base
di V , allora anche J = (v2 , v1 ) è una base di V . Si osservi che I e J sono uguali come
sistemi di generatori, ma distinti come basi.
35
4.7.1. Esempio. Poste E = (i, j) e E ′ = (j, i) due basi di VO
2
, il vettore v = 2i + 3j ha
componenti diverse rispetto alle due basi:
4.7.2. Esempio. Si possono presentare casi “curiosi” di vettori che non solo si rapp-
resentano con componenti diverse, ma addirittura con un numero diverso di componenti,
a seconda dello spazio in cui vengono considerati. Ad esempio il vettore v = 2i + 3j ha
2
componenti (2, 3)E , rispetto alla base E = (i, j) di VO , mentre ha componenti (2, 3, 0)F ,
3
rispetto alla base F = (i, j, k) di VO ; infine ha componente (1)V , rispetto alla base V = (v)
dello spazio vettoriale L(v).
(x1 , . . . , xn ) = x1 e1 + · · · + xn en .
b1 = (1, 0, . . . , 0)
c1 = (i, 0, . . . , 0)
...
bn = (0, 0, . . . , 1)
cn = (0, 0, . . . , i)
36
4.7.5. Esempio. Lo spazio vettoriale reale R[x]r ha una base naturale, costituita dai
monomi di grado ≤ r: (1, x, x2 , . . . , xr ). Infatti ogni polinomio p(x) ∈ R[x]r è della forma
(unicamente determinata):
p(x) = a0 + a1 x + a2 x2 + · · · ar xr
con ai ∈ R.
3
4.8. Osservazione. Abbiamo visto nel Cap.2 come le operazioni tra vettori di VO possono
essere descritte in termini di componenti. Tale situazione si generalizza come segue.
Sia I = (v1 , . . . , vn ) una base di V . Siano v, w ∈ V e a ∈ R; con la notazione precedente
siano v = (λ1 , . . . , λn )I e w = (µ1 , . . . , µn )I . Calcoliamo le componenti, rispetto ad I, di
v + w e di av.
v + w = (λ1 v1 + · · · + λn vn ) + (µ1 v1 + · · · + µn vn ) =
= (λ1 + µ1 )v1 + · · · + (λn + µn )vn .
Dunque
v + w = (λ1 + µ1 , . . . , λn + µn )I .
Inoltre
av = a(λ1 v1 + · · · + λn vn ) = (aλ1 )v1 + · · · + (aλn )vn .
Dunque
av = (aλ1 , . . . , aλn )I .
Pertanto le componenti del vettore somma di due vettori sono la somma delle componenti
corrispondenti degli addendi; le componenti del vettore prodotto di uno scalare per un
vettore dato si comportano nello stesso modo. Infine, dalle proprietà precedenti di somma
e prodotto, si ha che, se z = av + bw e, rispetto alla base I, z = (ξ1 , . . . , ξn )I , allora
o, equivalentemente
ξi = aλi + bµi
per ogni i = 1, . . . , n.
Quest’ultimo fatto si generalizza immediatamente con la seguente
37
cioè la i-esima componente di una combinazione lineare di vettori è data dalla combinazione
lineare (con i medesimi coefficienti) delle i-esime componenti dei vettori considerati. !
Vediamo infine come un insieme libero possa essere completato ad una base.
4.13. Teorema. Sia V un R-spazio vettoriale avente una base di n elementi. Allora:
i) ogni insieme libero di V è finito ed ha al più n elementi;
ii) ogni base di V ha n elementi;
iii) ogni sistema di generatori di V ha almeno n elementi. !
5. Dimensione
38
3
Lo spazio vettoriale VO ha, intuitivamente, “dimensione” 3, in quanto è in corrispon-
denza biunivoca con i punti dello spazio (vedi Cap.2). D’altra parte abbiamo visto che
3
(i, j, k) sono una base di VO e, dal teorema 4.13, ogni altra base è costituita da 3 ele-
menti; quindi il numero di elementi di una base coincide col numero che intuitivamente
rappresenta la dimensione.
Siamo quindi indotti ad introdurre il seguente concetto:
5.1. Definizione. Se esiste un intero positivo n tale che lo spazio vettoriale reale V
ammetta una base di n elementi, diremo che V ha dimensione n e scriveremo dimR (V ) =
n o più semplicemente dim(V ) = n. Se invece V non è finitamente generato, si pone
dim(V ) = ∞. Infine se V = {0V } poniamo dim(V ) = 0.
È evidente che, per il teorema 4.13, tale definizione ha senso, in quanto il numero
di vettori costituenti una qualunque base è costante, si tratta cioè di un invariante dello
spazio vettoriale.
39
Proviamo che I = (v1 , . . . , vp , u1 , . . . , ur−p , w1 , . . . , ws−p ) è una base dello spazio vettoriale
U + W . Poiché ogni vettore di U + W è della forma u + w, con u ∈ U e w ∈ W e
poiché u si scrive come combinazione lineare di v1 , . . . , vp , u1 , . . . , ur−p e w si scrive come
combinazione lineare di v1 , . . . , vp , w1 , . . . , ws−p , ovviamente I genera U + W .
Sia ora
α1 v1 + · · · + αp vp + β1 u1 + · · · + βr−p ur−p + γ1 w1 + · · · + γs−p ws−p = 0V .
$p $r−p $s−p
Per brevità poniamo v = i=1 αi vi , u = j=1 βj uj e w = k=1 γk wk .
Dunque l’uguaglianza precedente diventa
v + u + w = 0V , con v ∈ U ∩ W, u ∈ U, w ∈ W.
Visto che v, u ∈ U , allora w = −v − u ∈ U ; dunque w ∈ (U ∩ W ). Ciò implica che
w = γ1 w1 + · · · + γs−p ws−p = λ1 v1 + · · · + λp vp
per opportuni scalari λi ; ma {v1 , . . . , vp , w1 , . . . , ws−p } è un insieme libero, quindi tutti i
γk sono nulli. Basta dunque provare che da
α1 v1 + · · · + αp vp + β1 u1 + · · · + βr−p ur−p = 0V
segue che tutti i coefficienti αi e βj sono nulli; ma ciò è vero in quanto (v1 , . . . , vp , u1 , . . . , ur−p )
è una base di U .
Pertanto I è un insieme libero. !
Più in generale:
40
IV - SPAZI EUCLIDEI
3
È ben noto che in VO si possono considerare strutture più ricche di quella di spazio
vettoriale; si pensi ad esempio alle operazioni di prodotto scalare e prodotto vettoriale di
due vettori.
Aggiungendo, ad esempio, alla struttura di R-spazio vettoriale di VO 3
il prodotto scalare
di vettori si introducono essenzialmente i concetti di ortogonalità di vettori e distanza tra
3
punti; cosı̀ facendo si fornisce a VO la struttura classica usata nella geometria euclidea.
In questo capitolo estenderemo ad un R-spazio vettoriale qualunque la struttura di
3
VO pensato come R-spazio vettoriale dotato di prodotto scalare. Vedremo inoltre come in
tali spazi si possano definire delle basi “speciali” (quelle ortonormali).
3 ∼ 3
3
1.1. Esempio. Il prodotto scalare usuale in VO , tenuto conto dell’isomorfismo VO =R ,
induce naturalmente un’applicazione
· : R3 × R3 −→ R.
definita da:
(x1 , x2 , x3 ) · (y1 , y2 , y3 ) = x1 y1 + x2 y2 + x3 y3 .
Si verificano le seguenti proprietà, per ogni (x1 , x2 , x3 ), (y1 , y2 , y3 ) ∈ R3 e a, b ∈ R:
(x1 , x2 , x3 ) · (y1 , y2 , y3 ) = x1 y1 + x2 y2 + x3 y3
i)
= y1 x1 + y2 x2 + y3 x3 = (y1 , y2 , y3 ) · (x1 , x2 , x3 )
· : V × V −→ R
41
denotata da (v, w) .→ v · w tale che, per ogni v, w, v1 , v2 ∈ V e per ogni a1 , a2 ∈ R si ha:
i) v · w = w · v;
ii) (a1 v1 + a2 v2 ) · w = a1 (v1 · w) + a2 (v2 · w);
iii) v · v ≥ 0;
iv) v · v = 0 ⇔ v = 0V .
In tal caso utilizzeremo la notazione (V, ·), intendendo che V è un R-spazio vettoriale
dotato di prodotto scalare e diremo che (V, ·) è uno spazio euclideo.
Dagli assiomi i) e ii) si deduce che i prodotti scalari sono forme bilineari simmetriche: la
linearità sul secondo vettore è assicurata dalla linearità sul primo vettore e dalla simmetria.
3
1.2.1. Esempio. E’ ovvio che il prodotto scalare definito in VO è un prodotto scalare nel
senso di 1.2. Analogamente il’ applicazione dell’ Esempio 1.1. è un prodotto scalare per lo
spazio R3 . Tale prodotto scalare in R3 non è l’unico come si vede dall’esempio seguente.
Infatti, poiché p è bilineare simmetrica (come si verifica facilmente) soddisfa alle proprietà
i) e ii) della Definizione 1.2. Resta da provare che p(v, v) ≥ 0 ed è nullo se e solo se v = 0.
Ciò vale in quanto p(v, v) = 2vx2 + 3vy2 + vz2 , dove v = (vx , vy , vz ).
· : Rn × Rn −→ R
definito da
(x1 , . . . , xn ) · (y1 , . . . , yn ) = x1 y1 + · · · + xn yn .
Gli assiomi di prodotto scalare sono di facile verifica:
i) (x1 , . . . , xn ) · (y1 , . . . , yn ) = x1 y1 + · · · + xn yn = y1 x1 + · · · + yn xn = (y1 , . . . , yn ) ·
(x1 , . . . , xn );
ii) è lasciata al lettore; $n
iii), iv) (x1 , . . . , xn ) · (x1 , . . . , xn ) = i=1 x2i ≥ 0.
1.3. Definizione. Il precedente si dice prodotto scalare canonico e (Rn , ·) si dice spazio
euclideo E n .
∥ − ∥: V −→ R
42
definita da √
∥ v ∥= v·v
si dice norma; il numero reale ∥ v ∥ si dice norma di v, per ogni v ∈ V .
Si hanno immediatamente le proprietà:
.
In particolare in E 3 si ha ∥ (x1 , x2 , x3 ) ∥= x21 + x22 + x23 .
1.6. Teorema. (Disuguaglianza di Schwarz). Sia (V, ·) uno spazio euclideo e siano v, w ∈
V . Allora
(v · w)2 ≤ ∥ v ∥2 ∥ w ∥2 .
1.7. Teorema. (Disuguaglianza triangolare o di Minkowski). Sia (V, ·) uno spazio euclideo
e siano v, w ∈ V . Allora
∥v+w ∥≤∥v ∥+∥w ∥.
∥ v + w ∥2 = (v + w) · (v + w) =∥ v ∥2 +2v · w+ ∥ w ∥2 .
43
D’altra parte
(∥ v ∥ + ∥ w ∥)2 =∥ v ∥2 +2 ∥ v ∥ ∥ w ∥ + ∥ w ∥2 .
Quindi basta provare che
v · w ≤∥ v ∥ ∥ w ∥ .
Dalla disuguaglianza di Schwarz si ha
|v · w| ≤∥ v ∥ ∥ w ∥,
da cui la tesi. !
1.8. Definizione. Sia (V, ·) uno spazio euclideo e siano v, w ∈ V ; v e w si dicono ortogonali
se v · w = 0.
Dimostrazione. Per ipotesi v · wi = 0 per ogni i; dunque per la bilinearità del prodotto
scalare, per ogni scelta di scalari λ1 , . . . , λs , si ha
v · (λ1 w1 + . . . + λs ws ) = λ1 (v · w1 ) + . . . + λs (v · ws ) = 0.
λ1 v 1 + . . . + λs v s = 0 V .
1.11. Definizione. Sia (V, ·) uno spazio euclideo e sia W ⊆ V un sottospazio vettoriale.
Si dice ortogonale di W l’insieme:
W ⊥ = {v ∈ V | v · w = 0, ∀w ∈ W }.
44
per ogni w ∈ W ; pertanto λ1 v1 + λ2 v2 ∈ W ⊥ . !
W ⊥ = {v ∈ V | v · wi = 0, ∀i = 1, . . . , s}.
45
In uno spazio euclideo, avendo introdotto i concetti di ortogonalità e norma, si può
richiedere ad una base di verificare le analoghe proprietà geometriche della terna fonda-
3
mentale (la base) di VO , ovvero essere di norma 1 e mutuamente ortogonali.
3
E’ chiaro che la base (i, j, k) di VO e la base canonica di Rn sono basi ortonormali.
v = (v · e1 )e1 + · · · + (v · en )en .
Infatti, se
v = a 1 e1 + · · · + a n en
basta considerare i prodotti scalari di v con i vettori della base E:
v · e1 = a 1 , ... , v · en = a n .
Si osservi che una base ortonormale gioca un ruolo fondamentale in uno spazio eu-
clideo, infatti attraverso di essa il prodotto scalare assume la stessa forma del prodotto
scalare canonico in E n .
v · w = a1 b1 + · · · + an bn .
Dimostrazione. Dalla bilinearità del prodotto scalare e dal fatto che ei · ej = δij . !
46
Il seguente metodo non solo permette il calcolo di una base ortonormale negli es-
empi, ma prova anche, in generale, l’esistenza di una tale base. Esso prende il nome di
procedimento di ortonormalizzazione di Gram–Schmidt.
1.21. Metodo di Gram–Schmidt. Sia B = (v1 , . . . , vn ) una base di uno spazio euclideo
(V, ·). Posti
v1
e1 = ,
∥ v1 ∥
v2 − (v2 · e1 )e1
e2 = ,
∥ v2 − (v2 · e1 )e1 ∥
···
$n−1
vn − i=1 (vn · ei )ei
en = $n−1 ,
∥ vn − i=1 (vn · ei )ei ∥
vogliamo dimostrare che e1 , . . . , en costituiscono una base ortonormale.
Chiaramente e1 , . . . , en hanno norma 1.
Verificheremo che e1 , . . . , en sono a due a due ortogonali per induzione; cioè supporremo
che e1 , . . . , eh siano a due a due ortogonali e proveremo allora che anche e1 , . . . , eh+1 lo
sono. Per l’ipotesi induttiva, basta provare che eh+1 è ortogonale a e1 , . . . , eh . Sia dunque
k un intero tale che 1 ≤ k ≤ h, allora
$h
vh+1 − i=1 (vh+1 · ei )ei
eh+1 · ek = $h · ek =
∥ vh+1 − i=1 (v h+1 · e i )e i ∥
$h
vh+1 · ek − i=1 ((vh+1 · ei )(ei · ek ))
= $h =
∥ vh+1 − i=1 (vh+1 · ei )ei ∥
vh+1 · ek − vh+1 · ek
= $h =0
∥ vh+1 − i=1 (vh+1 · ei )ei ∥
dove l’ultima uguaglianza segue dal fatto che ei · ek = 0 per l’ipotesi induttiva.
Inoltre per 1.16 sono linearmente indipendenti e pertanto costituiscono una base ortonor-
male di V .
1.21.1. Esempio. Sia V = L(v1 , v2 ) ⊂ R4 , dove v1 = (1, 1, 0, 0), v2 = (0, 2, 1, 1); vogliamo
determinare una base ortonormale di V con il metodo di Gram–Schmidt.
! "
v1 1 1
e1 = = √ , √ , 0, 0 ;
∥ v1 ∥ 2 2
47
Quindi ! "
1 1 1 1
e2 = − , , , .
2 2 2 2
1.22. Teorema. Sia (V, ·) uno spazio euclideo. Allora V ha una base ortonormale.
Dimostrazione. Poiché V ha dimensione finita, ammette una base che basta ortonormaliz-
zare con Gram–Schmidt. !
1.23. Teorema. Sia (V, ·) uno spazio euclideo e sia {e1 , . . . , er } un insieme ortonor-
male di vettori di V ; allora si può completare tale insieme ad una base ortonormale
(e1 , . . . , er , er+1 , . . . , en ) di V .
Dimostrazione. Per il teorema di completamento ad una base (vedi 4.11. Capitolo III), si
completi l’insieme libero {e1 , . . . , er } ad una base
B = (e1 , . . . , er , vr+1 , . . . , vn )
1.24. Corollario. Sia (V, ·) uno spazio euclideo di dimensione n e sia W un sottospazio
vettoriale di V . Allora:
i) dim(W ) + dim(W ⊥ ) = n;
ii) V = W ⊕ W ⊥ ;
iii) (W ⊥ )⊥ = W .
dim(W ⊥ ) + dim((W ⊥ )⊥ ) = n
48
V - MATRICI
1. Concetti fondamentali
Spesso accade che si debbano esaminare insiemi finiti di vettori (generatori di un sot-
tospazio vettoriale, basi, ecc.); è conveniente rappresentare tali insiemi in forma compatta.
Ciò risulta particolarmente semplice se i vettori considerati sono elementi di Rn . In tal
caso l’idea, molto naturale, è quella di disporre le componenti dei vettori stessi in una
opportuna tabella, che prende il nome di “matrice”. Le matrici saranno loro stesse oggetto
di studio e sono uno strumento fondamentale nell’algebra lineare (sistemi lineari e appli-
cazioni lineari, ad esempio), ma anche in geometra (intersezioni di rette e piani, coniche e
quadriche, ad esempio).
Come per gli spazi vettoriali le matrici possono essere date su qualsiasi campo K. Noi
la daremo per il caso K = R (campo dei numeri reali). Il lettore avvertito può facilmente
astrarre la definizione al caso generale.
In tal caso si dirà che M è una matrice a m righe ed n colonne (o brevemente di tipo
m × n) e si denoterà anche con M = (aij ), ove aij è l’elemento appartenente all’i-esima
riga e alla j-esima colonna.
49
Gli elementi in grassetto della seguente matrice formano la sua diagonale:
⎛ ⎞
1 2 2
A = ⎝ −1 0 3 ⎠ .
2 4 7
Si possono definire in modo naturale le seguenti operazioni in Rm,n : per ogni A = (aij ),
B = (bij ) ∈ Rm,n e per ogni λ ∈ R, si definisce
"! ! "
1 2 1 −1
1.2.1. Esempio. Siano A = eB= due matrici di R2,2 . Si verifica
1 −1 1 0
che ! " ! " ! "
1 2 1 −1 2 1
A+B = + = .
1 −1 1 0 2 −1
Dimostrazione. Lasciamo al lettore la verifica del fatto che Rm,n è un R-spazio vettoriale,
osservando che lo zero di Rm,n è dato dalla matrice i cui elementi sono tutti uguali a 0R ,
50
detta matrice nulla.
Per provare che dim(Rm,n ) = mn, si considerino le seguenti matrici:
)
(hk) (hk) 1, se (i, j) = (h, k) ;
Ehk = (eij ) , dove eij =
0, se (i, j) ̸= (h, k) .
In altre parole Ehk è la matrice costituita da tutti zeri, eccetto l’elemento di posto hk, che
è uguale a 1.
Si verifica facilmente che {Ehk |1 ≤ h ≤ m, 1 ≤ k ≤ n} è una base per Rm,n . !
1.4. Definizione. Date due matrici A = (aij ) ∈ Rm,n , B = (bjk ) ∈ Rn,p si definisce
prodotto di A e B la matrice
n
#
m,p
C = (cik ) = AB ∈ R , ove cik = RiA · CkB = aij bjk ,
j=1
1.5. Osservazione. Chiaramente il prodotto AB, chiamato anche prodotto righe per
colonne, è definito solo se il numero delle colonne di A è uguale al numero delle righe di
B, cioè se e solo se A è di tipo m × n e B è di tipo n × p.
51
1.7. Proposizione. Il prodotto di matrici è associativo e distributivo rispetto alla somma,
ovvero
i) A(BC) = (AB)C, ∀ A ∈ Rm,n , B ∈ Rn,p , C = (ckj ) ∈ Rp,q ;
ii) A(B + C) = AB + AC, ∀ A ∈ Rm,n , B, C ∈ Rn,p ;
iii) λ(AB) = (λA)B = A(λB) , ∀ A ∈ Rm,n , B ∈ Rn,p , λ ∈ R .
p p
6 n 7 p #
n
# # # #
dik ckj = aih bhk ckj = (aih bhk ckj )
k=1 k=1 h=1 k=1 h=1
con l’ultima uguaglianza che discende dalla distributività del prodotto rispetto alla somma
(in R).
D’altro canto, l’elemento di posto ij di A(BC) è
n n
6 p
7 p
n #
# # # #
aih ehj = aih bhk ckj = (aih bhk ckj ),
h=1 h=1 k=1 h=1 k=1
In altre parole gli elementi di In sono tutti nulli, eccetto quelli della diagonale, che sono
uguali a 1.
52
1.9. Osservazione. Si verifica facilmente che, se A ∈ Rm,n , allora
AIn = A e Im A = A.
1.10. Proposizione. L’insieme Rn,n delle matrici quadrate di ordine n, con le operazioni
di somma e prodotto sopra definite, è un anello (non commutativo).
1.11. Definizione. La matrice A ∈ Rn,n si dice invertibile se esiste B ∈ Rn,n tale che
AB = BA = In . In tal caso la matrice B si denota con A−1 e si dice inversa di A.
Nell’anello Rn,n delle matrici quadrate di ordine n, non tutti gli elementi hanno inverso
moltiplicativo. Ad esempio la matrice
! "
1 1
A= ∈ R2,2
0 1
non ha soluzione.
53
AA−1 = In . Dunque (AB)−1 = B −1 A−1 .
E’ chiaro che In ∈ GL(n, R), in quanto In−1 = In . Inoltre In è l’elemento neutro di
GL(n, R).
Infine, se A ∈ GL(n, R), allora A−1 ∈ GL(n, R); infatti l’inversa di A−1 è A. !
Si noti che GL(n, R) non è commutativo: ad esempio si può verificare che le matrici
A e B dell’osservazione 1.6 sono invertibili.
In seguito vedremo come sia utile al fine di semplificare alcune dimostrazioni associare
ad una matrice A una matrice da essa ottenuta scambiando le righe con le colonne. Più
precisamente:
t
(A−1 ) t A = t (AA−1 ) = t (In ) = In .
54
2.1. Definizione. Sia A = (aij ) ∈ Rm,n . Abbiamo visto che le m righe di A:
2.2. Osservazione. E’ evidente che lo spazio delle righe di una matrice A è uguale allo
spazio delle colonne di t A e viceversa.
55
Dunque C è generato dalle r colonne
⎛ ⎞ ⎛ ⎞
1 0
⎜ 0 ⎟ ⎜ 0 ⎟
⎜ . ⎟ ⎜ . ⎟
⎜ .. ⎟ ⎜ .. ⎟
⎜ ⎟ ⎜ ⎟
⎜ 0 ⎟ ⎜ 1 ⎟
⎜ ⎟ , · · · , ⎜ ⎟.
⎜ λr+1 ⎟ ⎜ λr+1 ⎟
⎜ 1 ⎟ ⎜ r ⎟
⎜ . ⎟ ⎜ . ⎟
⎝ .. ⎠ ⎝ .. ⎠
λm
1 λm
r
pertanto dim(C) ≤ r.
L’altra disuguaglianza dim(C) ≥ dim(R) si dimostra in modo del tutto analogo, scam-
biando le righe con le colonne e quindi si ha la tesi. !
2.4. Definizione. Data una matrice A ∈ Rm,n , si dice rango di A e si indica con ρ(A) il
numero dim(R) = dim(C), cioè la dimensione dello spazio delle sue righe (coincidente con
la dimensione dello spazio delle sue colonne).
Dimostrazione. Evidente dal fatto che ρ(A) è la dimensione dello spazio delle righe di A, il
quale coincide con lo spazio delle colonne di t A; tale spazio ha dimensione uguale a ρ(t A)
per definizione. !
E’ evidente che ρ(A) ≤ min(m, n). D’altra parte abbiamo la definizione seguente.
56
⎛ ⎞
1 1 1 1 1
⎜1 2 1 1⎟2
2.7.1. Esempio. Sia A = ⎝ ⎠; la sottomatrice di A ottenuta intersecando
1 2 1 1 2
1 1 1 1 1 ! "
2 2
la seconda e la quarta colonna con la seconda e la terza riga è B = .
2 2
2.10. Osservazioni. Aggiungendo righe e colonne nulle ad una matrice, il rango non
cambia. Inoltre, date le matrici
⎛ ⎞ ⎛ ⎞
R1 RΠ(1)
⎜ R2 ⎟ ⎜ RΠ(2) ⎟
⎜ ⎟ ⎜ ⎟
A = ⎝ .. ⎠ e B = ⎜ . ⎟,
. ⎝ . ⎠.
Rm RΠ(m)
2.11. Definizione. Una matrice A = (aij ) ∈ Rn,n si dice diagonale se aij = 0 per i ̸= j.
57
Ad esempio la matrice
⎛ ⎞
1 0 0 0
⎜0 2 0 0 ⎟
A=⎝ ⎠
0 0 0 0
0 0 0 −3
è diagonale.
Si osservi che il rango di una matrice diagonale è uguale al numero delle righe (o
delle colonne) non nulle, poiché i vettori riga non nulli sono multipli di vettori della base
canonica di Rn e quindi indipendenti. Infatti, nell’esempio precedente si ha R1 = e1 ,
R2 = 2e2 , R3 = 0, R4 = −3e4 , quindi R = L(e1 , e2 , e4 ), da cui ρ(A) = 3.
Una classe più ampia di matrici per le quali è ancora semplice calcolare il rango è la
seguente:
2.12. Definizione. Sia A = (aij ) ∈ Rn,n una matrice quadrata; A si dice triangolare
superiore se aij = 0 per i > j. Si dice invece che A è triangolare inferiore se aij = 0 per
i < j. Inoltre, se aii ̸= 0 per ogni i, allora A si dice triangolare superiore (o inferiore)
completa.
2.13. Teorema. Sia A ∈ Rn,n una matrice triangolare superiore completa. Allora
ρ(A) = n.
Dimostrazione. Sia
⎛ ⎞
a11 a12 ··· a1n
⎜ 0 a22 ··· a2n ⎟
A=⎜
⎝ ... .. .. ⎟ .
. . ⎠
0 0 ··· ann
Basta provare che le n colonne C1 , . . . , Cn sono linearmente indipendenti.
Sia dunque λ1 C1 + · · · + λn Cn = 0, cioè, per esteso,
⎛λ a + ··· + λ ⎞ ⎛ ⎞
1 11 n−1 a1n−1 + λn a1n 0
⎜ .. ⎟ ⎜ ... ⎟
⎜ . ⎟ = ⎜ ⎟.
⎝ ⎠ ⎝0⎠
λn−1 an−1 n−1 + λn an−1 n
λn ann 0
58
Da tale relazione, uguagliando le n-esime componenti di ambo i membri, si ha
λn ann = 0
Si può generalizzare il concetto di matrice triangolare nel caso di matrici non quadrate:
2.14. Definizione. Una matrice A = (aij ) ∈ Rm,n si dice triangolare superiore (breve-
mente TS) se aij = 0 per i > j. A si dice triangolare superiore completa (brevemente TSC)
se, inoltre, aii ̸= 0 per ogni i. Del tutto analoghe sono le definizioni di matrice triangolare
inferiore (TI) e di triangolare inferiore completa (TIC).
59
Sia B la sottomatrice di A costituita dalle prime m colonne di A. Poiché, per 2.15, B è
TSC, allora dal teorema 2.13 segue che C1 , . . . , Cm sono linearmente indipendenti. Quindi
ρ(A) ≥ m e dunque la tesi. Se, invece, n < m, allora ρ(A) ≤ n, sempre per 2.6, ed A è
della forma, ⎛ ⎞
a11 a12 a13 . . . a1n
⎜ 0 a22 a23 . . . a2n ⎟
⎜ ⎟
⎜ 0 0 a33 . . . a3n ⎟
⎜ . .. .. .. ⎟
⎜ . ⎟
⎜ . . . . ⎟
A=⎜ ⎟. (∗∗)
⎜ 0 0 0 . . . ann ⎟
⎜ ⎟
⎜ 0 0 0 ... 0 ⎟
⎜ . .. .. .. ⎟
⎝ .. . . . ⎠
0 0 0 ... 0
Eliminando le righe nulle si ha una matrice di tipo (∗), quindi ρ(A) = n. !
3. Matrici ridotte
Osserviamo che la matrice (∗∗) della dimostrazione di 2.16 è ridotta per righe.
60
quindi ρ(A) = ρ(A′ ) = 3.
Si ha dunque il seguente
3.2. Teorema. Se A è una matrice ridotta per righe, allora le sue righe non nulle sono
linearmente indipendenti. In particolare, ρ(A) è uguale al numero di righe non nulle di A.
Partendo dalle matrici ridotte per righe, si può costruire un’altra classe di matrici il
cui rango è facilmente calcolabile: si tratta delle matrici ottenute trasponendo una matrice
ridotta per righe. Infatti, se A è una matrice ridotta per righe, la matrice trasposta t A
si dirà “ridotta per colonne”. Si osservi che, per 2.5, ρ(t A) = ρ(A) e pertanto il calcolo
del rango di una matrice ridotta per colonne è immediato, in quanto uguale al numero di
colonne non nulle. Più precisamente:
3.3. Definizione. Una matrice A si dice ridotta per colonne se, eliminando le colonne
nulle e permutando opportunamente le righe, si ottiene una matrice del tipo B, con
⎛ ⎞
a11 0 0 ... 0
⎜ a21 a22 0 ... 0 ⎟
⎜ ⎟
⎜ a31 a32 a33 ... 0 ⎟
⎜ .. .. .. .. ⎟
⎜ ⎟
⎜ . . . . ⎟
B=⎜ ⎟.
⎜ am1 am2 am3 ... amm ⎟
⎜ ⎟
⎜ ∗ ∗ ∗ ... ∗ ⎟
⎜ . .. .. .. ⎟
⎝ .. . . . ⎠
∗ ∗ ∗ ... ∗
61
(PC ) : in ogni colonna non nulla esiste almeno un elemento non nullo alla destra del quale
ci sono solo zeri.
3.6. Definizione. Se una matrice è ridotta per righe, un elemento non nullo della riga i-
esima al di sotto del quale ci sono solo zeri è detto elemento speciale di Ri . Analogamente si
definisce un elemento speciale di una colonna non nulla di una matrice ridotta per colonne.
4. Riduzione di matrici
Avendo ora a disposizione una “buona” classe di matrici (quelle ridotte) delle quali
sappiamo calcolare il rango, cerchiamo un procedimento che ci permetta di associare ad
una matrice qualsiasi una matrice ridotta che abbia lo stesso rango.
Vediamo alcune procedure che mostreremo preservare lo spazio delle righe di una
matrice e che vengono dette trasformazioni elementari sulle righe:
D) sostituzione di una riga Ri con Ri + aRj , ove a ∈ R e j ̸= i;
s) scambio di Ri con Rj ;
λ) sostituzione di una riga Ri con λRi , ove λ ∈ R∗ = R \ {0R }.
Notiamo che nella trasformazione s) la lettera s sta per scambio; nella trasformazione
λ) la lettera λ sta per prodotto per uno scalare λ; infine D sta per “determinante” e il
motivo di tale scelta sarà chiaro in seguito.
4.1. Definizione. Date due matrici A, A′ ∈ Rm,n , A′ si dice trasformata per righe di A
se A′ è ottenuta da A mediante un numero finito di successive trasformazioni elementari
sulle righe di tipo D), s), λ).
62
4.2. Proposizione. Siano A, A′ ∈ Rm,n , con A′ trasformata per righe di A. Allora lo
spazio R(A) delle righe di A e lo spazio R(B) delle righe di A′ coincidono; in particolare
ρ(A) = ρ(A′ ).
e
R(A) = L(R1 , . . . , Ri−1 , Ri , Ri+1 , . . . , Rm ).
Proveremo ora che R(A) ⊆ R(A′ ). Poiché le righe di A′ sono uguali a quelle di A eccetto
la i-esima, basterà provare che la i-esima riga Ri di A è combinazione lineare delle righe
di A′ . Infatti si ha Ri = (Ri + aRj ) − aRj , da cui la tesi.
I casi s) e λ) sono evidenti. Ne segue che operando successivamente un numero finito di
trasformazioni D), s), λ), lo spazio delle righe non varia. !
4.3. Proposizione. Sia A una matrice; esiste una opportuna successione di trasformazioni
elementari di tipo D) sulle righe, tale che la matrice B ottenuta da tale procedimento è
ridotta per righe.
Dimostrazione. Sia A = (aij ) ∈ Rm,n . Vogliamo individuare una possibile serie di trasfor-
mazioni elementari che ci permettano di passare da A ad una matrice B che goda della
proprietà (PR ).
Sia Ri la prima riga non nulla di A e sia aij il primo elemento non nullo di Ri . Per ottenere
una matrice A′ che abbia tutti zeri sotto l’elemento aij si opera, con trasformazioni di tipo
D), come segue:
Rk −→ Rk − akj aij −1 Ri
per ogni k > i.
Si consideri ora la matrice A′ = (a′ij ) cosı̀ ottenuta. Si osservi che le prime i righe di A′
63
sono uguali alle corrisponenti righe di A; inoltre l’elemento a′ij = aij ha tutti zeri al di
sotto. Sia ora Rh′ la prima riga non nulla di A′ , con h > i. Sia a′hp il primo elemento non
nullo di Rh′ . Procedendo come prima, si operano le trasformazioni di tipo D):
−1
Rk′ −→ Rk′ − a′kp a′hp Rh′
4.4. Definizione. Si dice riduzione per righe (rispettivamente riduzione per colonne) di
una matrice A, una successione di trasformazioni elementari sulle righe (risp. colonne) tale
che la matrice A′ ottenuta alla fine del procedimento è ridotta per righe (risp. colonne).
Tale matrice si può ridurre operando come in 4.3 con sole trasformazioni di tipo D). In
questo caso è però conveniente scambiare la prima con la quarta riga. Infatti si ha:
⎛ ⎞
1 3 1 5
R1 ↔R4
⎜ 0 1 2 −1 ⎟
A −−−−−−−→ ⎝ ⎠ = B.
0 0 0 9
0 1 0 0
Come si può osservare, B è già ridotta per righe; segue che ρ(A) = ρ(B) = 4.
Per ridurre A si può operare iniziando con la trasformazione di tipo D): R2 → R2 − 3/2R1
ottenendo ⎛ ⎞
2 1 −1 1
A′ = ⎝ 0 −1/2 5/2 −5/2 ⎠ .
0 1 1 9
64
E’ evidente che, continuando la riduzione come al solito, i calcoli si complicano sempre più,
poiché i coefficienti della matrice non sono interi. A tale fatto si può ovviare, ad esempio,
come segue:
⎛ ⎞ ⎛ ⎞
R2 →2R2 2 1 −1 1 R3′ →R2′ +R3′ 2 1 −1 1
A −−−−−−−→ ⎝ 0 −1 5 −5 ⎠ −−−−−−−→ ⎝ 0 −1 5 −5 ⎠
0 1 1 9 0 0 6 4
Quanto visto sopra risolve il problema iniziale del calcolo del rango di una matrice
qualsiasi; infatti si ha:
Da 4.6 abbiamo: dim(V ) = dim(R(A)) = ρ(A) = ρ(A′ ), cioè dim(V ) è uguale al numero
di righe non nulle di A′ . Inoltre le righe non nulle di A′ costituiscono una base di V , in
quanto V = R(A) = R(A′ ).
65
a) determinare una base B di V , con B ⊂ I;
b) completare B ad una base C di R4 .
a) Sia A la matrice le cui righe sono costituite dai vettori di I, cioè
⎛ ⎞ ⎛ ⎞
v1 1 −1 2 1
⎜ v2 ⎟ ⎜ −2 2 −4 −2 ⎟
⎜ ⎟ ⎜ ⎟
A = ⎜ v3 ⎟ = ⎜ 1 1 1 −1 ⎟ .
⎝ ⎠ ⎝ ⎠
v4 −1 3 −3 −3
v5 1 2 1 2
Riducendo A per righe si ha:
⎛ ⎞
R2 →R2 +2R1 1 −1 2 1
R3 →R3 −R1 ⎜0 0 0 0 ⎟
⎜ ⎟
A −−−−−−−→ ⎜0 2 −1 −2 ⎟ = A′
⎝ ⎠
R4 →R4 +R1 0 2 −1 −2
R5 →R5 −R1 0 3 −1 1
e ancora ⎛ ⎞
1 −1 2 1
R4′ →R4′ −R3′ ⎜0 0 0 0 ⎟
⎜ ⎟
A′ −−−−−−−→ ⎜0 2 −1 −2 ⎟ = A′′
⎝ ⎠
R5′ →2R5′ −3R3′ 0 0 0 0
0 0 1 8
da cui segue ρ(A) = 3 e quindi dim(V ) = 3. Inoltre una base per V è ad esempio data
dalle 3 righe non nulle di A′′ , poiché R(A) = R(A′′ ). Invece la base B richiesta è data dai
vettori di A corrispondenti alle 3 righe non nulle di A′′ , cioè B = (v1 , v3 , v5 ). Si consideri
infatti la matrice ⎛ ⎞
v1
B = v3 ⎠
⎝
v5
e si osservi che con le stesse trasformazioni operate nella riduzione precedente si ottiene la
matrice ⎛ ⎞
1 −1 2 1
B ′′ = ⎝ 0 2 −1 −2 ⎠ .
0 0 1 8
b) Completiamo B ad una base di R4 utilizzando vettori (in questo caso ne basta uno)
della base canonica. E’ sufficiente aggiungere alla matrice B ′′ una riga costituita dalle
componenti di un vettore della base canonica in modo che la matrice ottenuta sia ancora
ridotta; ad esempio con e4 si ha:
⎛ ⎞ ⎛ ⎞
v1 1 −1 2 1
⎜ v3 ⎟ ⎜ 0 2 −1 −2 ⎟
⎝ ⎠ −→ ⎝ ⎠.
v5 0 0 1 8
e4 0 0 0 1
66
Quindi C = (v1 , v3 , v5 , e4 ).
4.6.3. Esempio. Con i dati di 4.6.2, vogliamo determinare una base B ⊂ I con il metodo
degli scarti successivi.
Risolveremo tale esercizio con la riduzione di matrici; come al solito sia
⎛ ⎞ ⎛ ⎞
v1 0 1 2 1
⎜v ⎟ ⎜0 1 1 1⎟
A=⎝ 2⎠=⎝ ⎠.
v3 0 2 3 2
v4 1 2 2 1
Si osservi che in 4.6.2 si è operato lo scambio R1 ↔ R4 per semplificare i calcoli; tale
operazione non è in questo caso consentita, poichè condurrebbe ad una base che non
contiene v1 che, invece, essendo non nullo, fa parte della base ottenuta con il metodo degli
scarti successivi. Riduciamo quindi A per righe:
⎛ ⎞ ⎛ ⎞
R2 →R2 −R1 0 1 2 1 0 1 2 1
−−−−−−−→ ⎜ 0 0 −1 0 ⎟ −−−−−−−→ ⎜ 0 0 −1 0 ⎟
A ⎝ ⎠ ⎝ ⎠.
R3 →R3 −2R1 0 0 −1 0 R3′ →R3′ −R2′ 0 0 0 0
R4 →R4 −R1 1 1 0 0 1 1 0 0
67
La base ottenuta è dunque (v1 , v2 , v4 ). Infatti si verifica facilmente che v3 è combinazione
lineare di v1 e v2 . Per vederlo si osservi che R3′ − R2′ = 0, che R3′ = R3 − 2R1 e che
R2′ = R2 − R1 ; da cui risulta R3 − R2 − R1 = 0 e quindi v3 = v1 + v2 .
Il metodo introdotto per ottenere una base di un sottospazio di Rn (ed un suo eventuale
completamento ad una base di Rn ) si può estendere ad uno spazio vettoriale qualunque,
passando attraverso le componenti dei vettori in esame, rispetto ad una base fissata.
68
VI - SISTEMI LINEARI
1. Concetti fondamentali
a1 α1 + · · · + an αn = b.
Una soluzione di un dato sistema lineare è una n-upla (α1 , . . . , αn ) di Rn che è soluzione
di ogni equazione del sistema. L’insieme delle soluzioni del sistema Σ è un sottoinsieme di
Rn , detto spazio delle soluzioni di Σ e denotato con SΣ .
Un sistema si dirà compatibile o risolubile se ammette soluzioni (cioè se SΣ ̸= ∅); se invece
non ha soluzioni, cioè SΣ = ∅, si dirà incompatibile.
1.3. Osservazione. Non tutti i sistemi lineari hanno soluzioni. Ad esempio, il sistema
<
x+y =0
x+y =1
69
non ha soluzioni.
o, più brevemente,
Σ : AX = B
dove X = t (x1 , . . . , xn ) è la matrice formale delle incognite (il termine “formale” significa
che X non è un elemento di Rn,1 , ma un simbolo che denota una n-upla di incognite).
70
2. Risoluzione dei sistemi ridotti
è ridotto ed ammette una sola soluzione (x, y, z) = (−1, 1, 2), come si verifica facilmente
sostituendo il valore di z = 2 nella seconda equazione, determinando y = 1; infine si
sostituiscono tali valori di y e z nella prima equazione, ottenendo x = −1.
2.2. Osservazione. Negli esempi 2.1.1 e 2.1.2 si sono “eliminate” le incognite corrispon-
denti agli elementi speciali selezionati nella matrice A, qui riportati in grassetto, partendo
dal basso verso l’alto:
⎛ * ⎞
1 1 2 ** 4
(A, B) = ⎝ 0 1 −2 ** −3 ⎠ =⇒ si elimina z, poi y e poi x.
0 0 1 * 2
71
Nell’altro esempio
⎛ * ⎞
2 1 2 1 *1
*
(A, B) = ⎝ 2 3 −1 0 *3 ⎠ =⇒ si elimina z, poi y e poi t.
*
1 0 1 0 *0
xm = −a−1
mm (amm+1 xm+1 + · · · + amn xn − bm );
xm−1 = −a−1
m−1m−1 (am−1m xm + am−1m+1 xm+1 + · · · + am−1n xn − bm−1 ).
72
nulle e A ∈ Rm,n sia TSC. Abbiamo visto che le m incognite x1 , . . . , xm sono espresse
in funzione delle restanti n − m : xm+1 , . . . , xn ; queste ultime si dicono incognite libere.
Infatti, ogni qualvolta fissiamo xm+1 = λ1 , . . . , xn = λn−m con λi ∈ R, otteniamo una
particolare soluzione del sistema.
Questo accade in generale, anche se A è ridotta ma non necessariamente TSC. In tal modo
si definisce una corrispondenza biunivoca
1−1
Rn−m −−−−→ SΣ
3.1. Teorema. Sia Σ : AX = B un sistema lineare e sia (A′ , B ′ ) una matrice trasformata
per righe di (A, B). Allora i sistemi Σ e Σ′ : A′ X = B ′ sono equivalenti.
ai1 x1 + · · · + ain xn = bi
è equivalente all’equazione
per ogni λ ̸= 0.
Sia ora (A′ , B ′ ) ottenuta da (A, B) con una trasformazione di tipo D:
Ri −→ Ri + λRj
73
Sia ora α = (α1 , . . . , αn ) una soluzione di Σ, cioè valgono le identità:
si ha:
⎛ * ⎞ ⎛ * ⎞
R2 →R2 +R1 2 1 1 ** 1 2 1 1 ** 1
(A, B) −−−−−−−−→ ⎝ 3 0 0 ** 1 ⎠ R3 →R3 +R2 ⎝ 3 0 0 ** 1 ⎠ = (A′ , B ′ ).
−−−−−−−−→
R3 →R3 −2R1 −3 0 0 * −1 0 0 0* 0
74
Poiché A′ è ridotta, il sistema Σ′ : A′ X = B ′ è ridotto e quindi risolubile col metodo delle
eliminazioni successive:
) )
′ 2x + y + z = 1 y + z = 1/3
Σ : =⇒ .
3x = 1 x = 1/3
E’ chiaro che tale sistema ha una sola incognita libera e dunque il sistema ha ∞1 soluzioni;
si può scegliere, ad esempio, z e in tal caso, ponendo z = λ, lo spazio delle soluzioni di Σ
ha la forma:
Se, invece, si sceglie y come incognita libera, posto y = α, lo spazio delle soluzioni di Σ ha
la forma:
SΣ = {(x, y, z) ∈ R3 | (x, y, z) = (1/3, α, 1/3 − α), α ∈ R}.
Ovviamente le due espressioni precedenti rappresentano, in modi diversi, lo stesso sottoin-
sieme SΣ di R3 . Si noti che il numero delle incognite libere coincide con la differenza tra
il numero delle incognite ed il rango di A.
si ha:
⎛ * ⎞ ⎛ * ⎞
1 1 −1 ** 0 1 1 −1 ** 0
(A, B) R2 →R2 −2R1 ⎝ 0 −3 2 ** 1 ⎠ R3 →R3 −R2 ⎝ 0 −3 2 ** 1 ⎠ = (A′ , B ′ ).
−−−−−−−−→ −−−−−−−−→
0 1 2 * 2 0 4 0 * 1
da cui (x, y, z) = (5/8, 1/4, 7/8). Ancora una volta si noti che il numero delle incognite
libere è dato da 3 − ρ(A) = 0, dove 3 è il numero delle incognite.
75
L’esempio seguente riguarda la discussione di un sistema con parametro: i coefficienti
non sono numeri reali, come nei casi visti in precedenza, ma possono contenere un simbolo
(parametro) che varia in R. La discussione di tali sistemi consiste nel determinare tutti i
valori del parametro per i quali il sistema è risolubile e nel trovare tutte le soluzioni del
sistema in corrispondenza di tali valori.
Se si vuole risolvere il sistema con il solito metodo della riduzione per righe, bisogna fare
attenzione quando vengono usate espressioni che coinvolgono il parametro λ:
⎛ ⎞ ⎛ ⎞
1 2 1 1 −1 1 2 1 1 −1
⎜1 1 −1 2 1 ⎟ R2 →R2 −R1 ⎜0 −1 −2 1 2 ⎟
(A, B) = ⎝ ⎠ −−−−−−−→ ⎝ ⎠ −→
2 λ 0 λ 0 0 λ − 4 −2 λ − 2 2
R3 →R3 −2R1
0 −λ −2 λ 2 0 −λ −2 λ 2
⎛ ⎞
1 2 1 1 −1
R3 →R3 −R2
⎜0 −1 −2 1 2 ⎟ ′ ′
−−−−−−−→ ⎝ ⎠ = (A , B ).
0 λ−3 0 λ−3 0
R4 →R4 −R2
0 −λ + 1 0 λ − 1 0
A questo punto è utile eliminare da una delle ultime due righe il parametro λ. Ad esempio,
operando la trasformazione R3 → R3 + R4 e, successivamente, R4 → 2R4 − (λ − 1)R3 , la
matrice (A′ , B ′ ) (dopo aver ulteriormente diviso la terza riga per 2 e la quarta per −2)
diventa:
⎛ ⎞ ⎛ ⎞
1 2 1 1 −1 1 2 1 1 −1
⎜0 −1 −2 1 2 ⎟ ⎜0 −1 −2 1 2 ⎟
⎝ ⎠ −→ ⎝ ⎠
0 −2 0 2λ − 4 0 0 −2 0 λ − 2 0
0 −λ + 1 0 λ−1 0 0 0 0 a44 0
dove a44 = (λ − 3)(λ − 1). Si osservi che l’ultima trasformazione effettuata è corretta per
ogni λ ∈ R; infatti l’unico caso dubbio si ha per λ = 1, per il quale la trasformazione
diventa R4 → 2R4 , che è ancora accettabile.
Si noti ora che a44 = 0 se e solo se λ = 1 oppure λ = 3.
Si conclude dunque che Σλ è sempre risolubile per 2.2; inoltre:
- λ = 1, 3 ⇒ a44 = 0 ⇒ ρ(A) = 3 ⇒ Σλ ha ∞1 soluzioni;
- λ ̸= 1, 3 ⇒ a44 ̸= 0 ⇒ ρ(A) = 4 ⇒ Σλ ha una sola soluzione.
76
I) λ ̸= 1 e λ ̸= 3
⎧
⎪ x + 2y + z + t = −1
⎨
− y − 2z + t = 2
Σλ : .
⎪
⎩ − y + (λ − 2)t = 0
(λ − 3)(λ − 1)t = 0
Come già osservato, tale sistema ammette un’unica soluzione per ogni λ in R. Possiamo
determinarla col metodo delle eliminazioni successive: poiché (λ − 3)(λ − 1) ̸= 0, possiamo
dividere l’ultima equazione per (λ−3)(λ−1) e dunque ottenere y = 0; risalendo le equazioni
si ottiene: ⎧
⎪ x = 0
⎨
z = −1
.
⎩t = 0
⎪
y = 0
In questo esempio specifico l’unica soluzione di ogni sistema Σλ , che in generale varia con
il parametro, non dipende da λ.
II) λ = 1
In questo caso l’ultima equazione si riduce all’identità 0 = 0 e quindi viene eliminata. Si
ha quindi il sistema particolare:
⎧
⎨ x + 2y + z + t = −1
Σ1 : − y − 2z + t = 2 .
⎩
y + t = 0
Ancora col metodo delle eliminazioni successive si ottiene:
⎧
⎨x = 0
z = t−1 .
⎩
y = −t
quindi le soluzioni del sistema hanno la forma
(x, y, z, t) = (0, −α, α − 1, α).
III) λ = 3
Anche in questo caso l’ultima equazione si riduce all’identità 0 = 0 e quindi viene eliminata.
Si ha quindi il sistema particolare:
⎧
⎨ x + 2y + z + t = −1
Σ3 : − y − 2z + t = 2
⎩
− y + t = 0
da cui ⎧
⎨x = −3t
z = −1
⎩
y = t
pertanto le soluzioni di Σ3 : sono (x, y, z, t) = (−3α, α, −1, α).
77
3.3. Teorema. (Rouché–Capelli). Dato il sistema lineare Σ : AX = B, si ha:
a) Σ ha soluzioni se e solo se ρ(A) = ρ(A, B).
Nel caso in cui il sistema abbia soluzioni, posti ρ := ρ(A) = ρ(A, B) e n il numero
delle incognite di Σ, si hanno i seguenti fatti:
b) le incognite libere sono n − ρ;
c) si possono scegliere come incognite libere certe n − ρ incognite se e solo se le restanti
sono corrispondenti a ρ colonne di A linearmente indipendenti.
x 1 C1 + · · · + x n Cn = B
78
riducendo opportunamente (A, B) per righe (scegliendo gli elementi speciali in A), per-
mutando eventualmente le equazioni, la matrice del sistema ottenuto è della forma:
⎛ ⎞
a11 ... a1ρ ∗ ... ∗
⎜ .. .. .. .. ⎟
⎜ . . . .⎟
⎜ ⎟
⎜ ∗ ∗⎟.
(A , B ) = ⎜ aρ−1 1
′ ′ ... aρ−1 ρ ...
⎟
⎜ 0 ... 0 ∗ ... ∗⎟
⎜ . .. .. .. ⎟
⎝ .. . . .⎠
0 ... 0 ∗ ... ∗
Poiché ρ(A′ , B ′ ) = ρ(A, B) = ρ, esiste una riga non nulla Ri di (A′ , B ′ ), con i ≥ ρ.
L’equazione corrispondente, non comprendendo le prime ρ incognite, fornisce una relazione
tra xρ+1 , . . . , xn , che pertanto non sono libere. !
79
I) λ ̸= 1, λ ̸= 0:
⎧ ⎧
⎨ λx + z = −1 ⎨z = −1
′
Σ : (1 − 2λ)x + (λ − 1)y = 3 ⇒ y = 3/(λ − 1)
⎩ ⎩
−λx = 0 x = 0
Tale matrice è ridotta per righe ed ha 3 righe non nulle, dunque il suo rango è 3.
In particolare v1 , v2 , v3 sono 3 vettori indipendenti in R3 , quindi sono una base. Pertanto
esiste un’unica terna di coefficienti x, y, z tali che
per ogni v ∈ R3 . Tale terna corrisponde all’unica soluzione del sistema lineare avente come
matrice completa (A, B) = (v1 v2 v3 v) (qui scritta per colonne). In questo caso particolare
⎛ * ⎞
1 0 1 ** 1
(A, B) = ⎝ 1 1 0 ** 1 ⎠ .
0 1 1 *1
80
Riducendo come al solito per righe si ha:
⎛ ⎞ ⎛ ⎞
1 0 1 1 1 0 1 1
(A, B) −→ ⎝ 0 1 −1 0 ⎠ −→ ⎝ 0 1 −1 0⎠
0 1 1 1 0 2 0 1
da cui ⎧ ⎧
⎨x + z = 1 ⎨x = 1/2
y − z = 0 e quindi z = 1/2
⎩ ⎩
2y = 1 y = 1/2
infatti 1/2(1, 1, 0) + 1/2(0, 1, 1) + 1/2(1, 0, 1) = (1, 1, 1).
cioè ⎧
⎪ λx + z = 1
⎨
x + λz = 0
Σ: .
⎪
⎩ λy + t = 0
y + λt = 1
Da cui, riducendo la matrice del sistema:
⎛ ⎞ ⎛ ⎞
λ 0 1 0 1 λ 0 1 0 1
⎜1 0 λ 0 0 ⎟ R2 →R2 −λR1 ⎜ 1 − λ2 0 0 0 −λ ⎟
(A, B) = ⎝ ⎠ ⎝ ⎠→
0 λ 0 1 0 −−−−−−−→ 0 λ 0 1 0
0 1 0 λ 1 0 1 0 λ 1
⎛ ⎞
λ 0 1 0 1
2
R4 →R4 −λR3 ⎜ 1 − λ 0 0 0 −λ ⎟ ′ ′
⎝ ⎠ = (A , B ).
−−−−−−−→ 0 λ 0 1 0
0 1 − λ2 0 0 1
Si noti che le trasformazioni di tipo D) effettuate sopra sono ammissibili per ogni λ ∈ R;
infatti, se λ = 0, lasciano le matrici inalterate. Infine è chiaro che, se 1 − λ2 ̸= 0, allora la
matrice (A′ , B ′ ) è ridotta ed inoltre il sistema è risolubile in quanto ρ(A) = ρ(A, B) = 4.
81
In tal caso esiste una sola soluzione (infatti l’inversa di una matrice è unica).
Poniamo dunque λ ̸= 1 e λ ̸= −1. Il sistema ridotto è:
⎧
⎪ λx + z = 1
⎨ 2
(1 − λ )x = −λ
Σ′ :
⎪
⎩ λy + t = 0
(1 − λ2 )y = 1
quindi ⎧
⎪ z = 1/(1 − λ2 )
⎨
x = −λ/(1 − λ2 )
.
⎩t
⎪ = −λ/(1 − λ2 )
y = 1/(1 − λ2 )
Pertanto ! "
−λ/(1 − λ2 ) 1/(1 − λ2 )
Mλ−1 = .
1/(1 − λ2 ) −λ/(1 − λ2 )
Sia ora 1 − λ2 = 0, cioè λ = ±1; la matrice (A′ , B ′ ) diventa
⎛ ⎞
±1 0 1 0 1
⎜ 0 0 0 0 ∓1 ⎟
(A′ , B ′ ) = ⎝ ⎠.
0 ±1 0 1 0
0 0 0 0 1
Dall’ultima equazione segue che il sistema è incompatibile. Abbiamo quindi provato che
Mλ−1 esiste (e l’abbiamo ricavata) se e solo se λ ̸= ±1.
Una classe interessante di sistemi lineari è costituita dai sistemi lineari omogenei.
82
AX1 = 0 e AX2 = 0, dunque λ(AX1 ) + µ(AX2 ) = 0. Per le proprietà del prodotto e
somma di matrici λ(AX1 ) + µ(AX2 ) = A(λX1 + µX2 ), quindi λX1 + µX2 è soluzione di
AX = 0. Pertanto SΣ è sottospazio vettoriale di Rn .
Per il teorema di Rouché–Capelli, il sistema Σ ha n − ρ(A) incognite libere; proviamo che
tale numero coincide con la la dimensione dello spazio SΣ , determinandone esplicitamente
una base di n − ρ(A) elementi.
Denotiamo al solito ρ = ρ(A). Per semplicità, supponiamo che le incognite libere siano
xρ+1 , . . . , xn e quindi che la generica soluzione del sistema abbia la forma
⎧ $n (1)
⎪
⎪ x1 = i=ρ+1 λi τi
⎪
⎪
⎪
⎪ .. ..
⎪
⎨ .
⎪ $n .
(ρ)
xρ = i=ρ+1 λi τi
⎪
⎪ xρ+1 = τρ+1
⎪
⎪
⎪
⎪ .. ..
⎪
⎩ .
⎪ .
xn = τn
Quindi lo spazio delle soluzioni è generato dai vettori v1 , . . . , vn−ρ ; inoltre è chiaro che tali
vettori sono linearmente indipendenti e ciò conclude la dimostrazione. !
Per risolvere un sistema lineare omogeneo si procede, come nel caso generale, mediante
la riduzione della matrice associata dei coefficienti. A differenza del caso generale, poiché lo
spazio delle soluzioni è un sottospazio vettoriale di Rn , è anche interessante determinarne
una base. Dalla dimostrazione di 4.3, si deduce un modo semplice per determinare tale
base: si attribuiscono, successivamente, alle n − ρ incognite libere i valori corrispondenti
alla base canonica di Rn−ρ .
83
Riducendo la matrice associata
⎛ ⎞
1 0 −2 0 1 1
⎝
A= 1 −1 −1 1 −1 1 ⎠
1 −1 0 2 −2 2
si ottiene:
⎛ ⎞ ⎛ ⎞
1 0 −2 0 1 1 1 0 −2 0 1 1
⎝
A→ 0 −1 1 1 −2 ⎠ ⎝
0 → 0 −1 1 1 −2 0 ⎠ = A′ .
0 −1 2 2 −3 1 0 0 1 1 −1 1
Si osservi che ρ(A) = ρ(A′ ) = 3. Inoltre, poiché le prime 3 colonne di A′ e quindi di A sono
linearmente indipendenti, per il teorema di Rouché–Capelli, si possono scegliere x4 , x5 , x6
come incognite libere.
Si consideri ora il sistema
⎧
⎨ x1 − 2x3 + x5 + x6 = 0
′
Σ : x2 − x3 − x4 + 2x5 =0
⎩
x3 + x4 − x5 + x6 = 0
ottenendo la base:
((−2, 0, −1, 1, 0, 0), (1, −1, 1, 0, 1, 0), (−3, −1, −1, 0, 0, 1)) .
84
VII - APPLICAZIONI LINEARI
1. Concetti fondamentali
situazioni, studiando relazioni tra spazi vettoriali. Tali relazioni saranno implementate da
matrici: una matrice viene usata come una operazione che trasforma vettori in uno spazio
vettoriale in altri vettori che, in generale, appartengono ad un differente spazio vettoriale.
! "
a b
1.1.1. Esempio. Sia A = ∈ R2,2 . Consideriamo l’applicazione
c d
ove X = t (x, y) è un vettore colonna e AX indica l’usuale prodotto righe per colonne:
! "! " ! "
a b x ax + by
f (X) = = = t (ax + by, cx + dy).
c d y cx + dy
f (X + Y ) = A(X + Y ) = AX + AY = f (X) + f (Y ).
(L1 ) f (X + Y ) = f (X) + f (Y ) ∀ X, Y ∈ Rn
(L2 ) f (λX) = λf (X) ∀ X ∈ Rn , ∀ λ ∈ R
85
1.3. Proposizione. Sia f : V −→ W un’applicazione lineare; valgono i seguenti fatti:
i) f (0V ) = 0W ;
ii) f (−v) = −f (v), per ogni v ∈ V ;
iii) f (a1 v1 + · · · + ap vp ) = a1 f (v1 ) + · · · + ap f (vp ),
per ogni v1 , . . . , vp ∈ V , per ogni a1 , . . . , ap ∈ R.
Negli esempi 1.1.1 e 1.1.2 abbiamo visto come associare ad una matrice A ∈ Rm,n una
applicazione lineare tra Rn e Rm . Tale procedimento si può generalizzare a spazi vettoriali
qualunque usando due basi, una del dominio e una del codominio.
Infatti, siano V e W due R-spazi vettoriali e siano B = (v1 , . . . , vn ), C = (w1 , . . . , wm ) due
rispettive basi. Ad una matrice A = (aij ) ∈ Rm,n si associ l’applicazione f : V −→ W
definita come segue: per ogni v ∈ V , si può scrivere univocamente v = x1 v1 + · · · + xn vn
cioè v = (x1 , . . . , xn )B . Posto X = t (x1 , . . . , xn ), si consideri il vettore AX ∈ Rm ; si ponga
t
(y1 , . . . , ym ) = AX. Definiamo
f (v) = y1 w1 + · · · + ym wm .
86
In sintesi: ⎛ ⎛⎞⎞
x1
.
f ((x1 , . . . , xn )B ) = ⎝A ⎝ .. ⎠⎠ .
xn C
! "
1 2 1
1.3.1. Esempio. Sia A = ∈ R2,3 e siano V = R[X]2 e W = R[X]1 . Siano
1 −1 0
inoltre B = (1, X, X 2 ) e C = (1, X) basi di V e W , rispettivamente. Allora l’applicazione
lineare associata ad A è definita da
dunque
f (a + bX + cX 2 ) = (a + 2b + c, a − b)C = a + 2b + c + (a − b)X.
1.5. Definizione. Siano V e W due R-spazi vettoriali con rispettive basi B = (v1 , . . . , vn )
e C = (w1 , . . . , wm ); sia A = (aij ) ∈ Rm,n . L’applicazione lineare
fAB,C : V −→ W
87
quindi f (v1 ) = a11 w1 + · · · + am1 wm .
Analogamente si verifica che f (vi ) = (a1i , . . . , ami )C , per ogni i.
In particolare, se A = (aij ) ∈ Rm,n e f : Rn −→ Rm è l’applicazione lineare definita
da f (X) = AX, allora le colonne di A concidono con le immagini attraverso f dei vettori
(e1 , . . . en ) della base canonica En di Rn . Cioè, scrivendo A per colonne:
⎛ ⎞
1 1 −1
1.6.1. Esempio. Sia A = ⎝ 0 1 2 ⎠ e sia B = C = E3 la base canonica di R3 .
1 1 0
Consideriamo l’applicazione associata f = fAE3 ,E3 : R3 −→ R3 . Sia (x, y, z) ∈ R3 ; allora
per definizione f ((x, y, z)) = At (x, y, z) quindi f è data dalle equazioni
Osserviamo che f (e1 ), f (e2 ), f (e3 ) corrispondono, rispettivamente, alle colonne della ma-
trice A. Ribadiamo che tale situazione è molto particolare: infatti in generale le colonne
di A sono le componenti di f (e1 ), f (e2 ), f (e3 ) rispetto alla base C; in tale esempio C è la
base canonica e dunque le componenti di f (e1 ), f (e2 ), f (e3 ) rispetto alla base C coincidono
con le loro componenti, come vettori di R3 .
La proposizione 1.4 mostra che le applicazioni del tipo fAB,C , associate a matrici, sono
lineari. Vogliamo adesso mostrare che tutte le applicazioni lineari sono di questo tipo, cioè
vogliamo provare che, per ogni applicazione lineare f : V −→ W , fissando due basi B e C
di V e W , rispettivamente, esiste un’opportuna matrice A tale che f = fAB,C .
L’osservazione 1.6 mostra che, data una matrice A, le immagini attraverso fAB,C degli
elementi di una fissata base B di V sono individuate dalle colonne di A. Operiamo dunque
il procedimento inverso da un’appicazione lineare ad una matrice.
1.7. Definizione. Siano V e W due R-spazi vettoriali con rispettive basi B = (v1 , . . . , vn )
e C = (w1 , . . . , wm ); sia f : V −→ W un’applicazione lineare. Si dice matrice associata
ad f rispetto alle basi B e C, e si denota con MfB,C , la matrice di Rm,n le cui colonne
sono costituite dalle componenti, rispetto a C, delle immagini dei vettori della base B.
Esplicitamente, dalle espressioni
f (v1 ) = a11 w1 + · · · + am1 wm
..
.
f (vn ) = a1n w1 + · · · + amn wm
88
viene individuata la matrice A = (aij ) e si pone MfB,C = A.
1.8. Osservazione. Come nella teoria degli insiemi, due applicazioni lineari tra gli stessi
spazi f, g : V −→ W sono uguali se e solo se f (v) = g(v), per ogni v ∈ V . Da ciò segue il
seguente risultato di cui omettiamo la dimostrazione.
fAB,C = f ;
MfB,C = A.
1.10. Proposizione. Siano V e W due R-spazi vettoriali e sia (v1 , . . . , vn ) una base di V .
Si considerino n vettori qualunque di W : {u1 , . . . , un }. Allora esiste un’unica applicazione
lineare f : V −→ W tale che f (vi ) = ui , per i = 1, . . . , n.
Dimostrazione. Si estende l’applicazione per linearità una volta definita sui vettori della
base scelta per V . Sia v un qualunque vettore di V . Allora v si scrive in modo unico come
v = a1 v1 + · · · + an vn .
Definiamo
f (v) = a1 f (v1 ) + · · · + an f (vn ) = a1 u1 + · · · + an un .
Tale applicazione è lineare per costruzione e chiaramente f (vi ) = ui per ogni i.
Per provare l’unicità, osserviamo che, se esistesse un’altra applicazione lineare g : V −→ W
tale che g(vi ) = ui , per i = 1, . . . , n, allora per 1.3 dovrebbe essere
Dalle considerazioni precedenti, ribadiamo due modi equivalenti per definire una ap-
plicazione lineare tra due spazi vettoriali V e W .
I. Si fissano una base B di V e una base C di W ed una matrice A = (aij ) ∈ Rm,n . Per
la proposizione 1.9 è univocamente determinata l’applicazione lineare fAB,C .
89
II. Si fissa una base B = (v1 , . . . , vn ) di V ed n vettori {u1 , . . . , un } di W . Da 1.10 esiste
un’unica applicazione lineare f : V −→ W tale che f (vi ) = ui , per i = 1, . . . , n.
f ((x1 , . . . , xn )) = At (x1 , . . . , xn )
oppure
f ((x1 , . . . , xn )) = (a11 x1 + · · · + a1n xn , . . . , am1 x1 + · · · + amn xn ).
1.10.2. Esempio. Sia idV : V −→ V l’applicazione identica definita da idV (v) = v, per
ogni v ∈ V e sia B = (v1 , . . . , vn ) una qualunque base di V . Allora
B,B B,C
Dunque la matrice Mid V
è la matrice identica In . Si noti che, se B ̸= C, allora Mid V
non
è la matrice identica.
Allora ⎛ ⎞ ⎛ ⎞
0 1 1 −1 1 1
B,E3 ⎝ E3 ,B 1⎝
Mid = 1 0 1⎠, Mid = 1 −1 1 ⎠ .
2
1 1 0 1 1 −1
Si osservi che queste due matrici sono una l’inversa dell’altra. Ritorneremo a questo tipo
di matrici in seguito a proposito della procedura di cambio di base in uno spazio vettoriale.
90
2. Sottospazi associati ad una applicazione lineare
In questo paragrafo vedremo come ad ogni applicazione lineare sia possibile associare
in modo “canonico” un sottospazio del dominio ed un sottospazio del codominio.
ker(f ) = {v ∈ V | f (v) = 0W }.
dim(ker(f )) = n − ρ(A).
91
Allora si ha:
ker(f ) = {v ∈ V | f (v) = 0W } =
⎧ * ⎛ ⎛ ⎞⎞ ⎛ ⎞ ⎫
⎪ * x 0 ⎪
⎨ * 1 ⎬
* ⎝ ⎝ .. ⎠⎠ ⎝ .
. ⎠
= v = (x1 , . . . , xn )B ∈ V * A . = . =
⎪
⎩ * ⎪
⎭
* xn 0 C
C
⎧ * ⎛ ⎞ ⎛ ⎞⎫
⎨ * x1 0 ⎬
* .. ⎠ ⎝ .. ⎠
*
= (x1 , . . . , xn )B ∈ V * A ⎝ = . =
⎩ . ⎭
* 0
xn
= {(x1 , . . . , xn )B ∈ V | (x1 , . . . , xn ) ∈ SΣ }
α : SΣ −→ ker(f )
definita da
(x1 , . . . , xn ) .→ (x1 , . . . , xn )B .
Inoltre, per 4.10, Capitolo III, α “manda” una base in una base, cioè:
⎧ ⎫
⎪
⎨ v 1 →
. (v 1 ) B ⎪
⎬
base di SΣ .
.. .
.. base di ker(f ).
⎪
⎩ ⎪
⎭
vp .→ (vp )B
In particolare
dim(ker(f )) = dim(SΣ ) = n − ρ(A)
dove l’ultima uguaglianza segue da 4.3, Capitolo VI. !
2.4. Metodo per il calcolo del nucleo. Siano V e W due R-spazi vettoriali, con basi
rispettive B e C e sia f : V −→ W un’applicazione lineare. Si ponga A = MfB,C . Per
determinare ker(f ) e una sua base, si procede come segue:
1. Si considera il sistema lineare omogeneo Σ : AX = 0 e si determina una base
(v1 , . . . , vp ) per il suo spazio delle soluzioni SΣ ;
2. per quanto visto,
92
e una base di ker(f ) è data da
((v1 )B , . . . , (vp )B ).
Quindi
ker(f ) = {(0, a, a)B | a ∈ R}
e una sua base è ((0, 1, 1)B ).
Poiché
(0, 1, 1)B = (0, 1, 1) + (1, 0, 1) = (1, 1, 2)
ne segue che la stessa base di ker(f ), espressa ora su E, è ((1, 1, 2)).
93
Infatti si ha:
94
2.6. Proposizione. Sia f : V −→ W un’applicazione lineare tra R-spazi vettoriali asso-
ciata alla matrice A. Allora dim(Im(f )) = ρ(A).
β : C(A) −→ Im(f )
definita da
(y1 , . . . , ym ) .→ (y1 , . . . , ym )C .
Inoltre, sempre per 4.10, Capitolo III, β “manda” una base in una base, cioè:
⎧ ⎫
⎪
⎨ w1 .→ (w1 )C ⎪
⎬
. .
base di C(A)
⎪ .. ..
⎪
base di Im(f ).
⎩ ⎭
wq .→ (wq )C
Pertanto
dim(Im(f )) = dim(C(A)) = ρ(A).
!
((w1 )C , . . . , (wq )C ).
95
2.7.1. Esempio. Sia f : R3 −→ R3 l’applicazione lineare associata alla matrice
⎛ ⎞
1 −1 2
A = MfB,C = ⎝ 0 1 −3 ⎠
2 −1 1
con B base canonica e C = (w1 , w2 , w3 ), dove w1 = (1, 1, 0), w2 = (0, 1, 1), w3 = (1, 0, 1).
Riduciamo quindi A per colonne:
⎛ ⎞ ⎛ ⎞
C2 →C2 +C1 1 0 0 1 0 0
A −−−−−−−→ ⎝ 0 1 −3 ⎠ C3 →C3 +3C1 ⎝ 0 1 0 ⎠ = A′ .
−−−−−−−→
C3 →C3 −2C1 2 1 −3 2 1 0
Poiché A′ è ridotta per colonne, le sue colonne non nulle sono una base per lo spazio delle
colonne C(A′ ). Dunque C(A) = C(A′ ) = L((1, 0, 2), (0, 1, 1)).
Per 2.7 una base di Im(f ) è quindi (u1 , u2 ), ove
Dimostrazione. Per 2.3 dim(ker(f )) = dim(V )−ρ(A); inoltre, per 2.6, dim(Im(f )) = ρ(A),
da cui la tesi. !
Il lettore avrà già incontrato, ad esempio nella teoria degli insiemi, i concetti di iniet-
tività, suriettività e biiettività (o biunivocità) di una applicazione f . Nel caso in cui f sia
un’applicazione lineare tra spazi vettoriali, vedremo come tali proprietà siano caratterizz-
abili in termini del rango di una matrice qualunque associata ad f .
96
ii) ⇒ i). Viceversa siano v, v ′ ∈ V tali che f (v) = f (v ′ ). Allora, per la linearità di f , si ha
f (v − v ′ ) = 0W , dunque v − v ′ ∈ ker(f ). Per ipotesi, quindi, v − v ′ = 0V ovvero v = v ′ .
ii) ⇔ iii). Segue da 2.3, poiché dim(ker(f )) = dim(V ) − ρ(A). !
2.9.1. Esempio. Sia f : R[X]2 −→ R2,2 l’applicazione lineare associata alla matrice
⎛ ⎞
2 1 0
⎜ −1 0 1⎟
A=⎝ ⎠
2 1 1
1 0 0
rispetto a due basi fissate. Osserviamo che A è ridotta per colonne, dunque ρ(A) è il
numero delle colonne non nulle, cioè ρ(A) = 3. D’altro canto dim(R[X]2 ) = 3. Pertanto,
per 2.9, f è iniettiva.
f (x, y, z) = (x + y − z, 2x − y + 2z).
97
2.12. Proposizione. Sia f : V −→ W un’applicazione lineare. Allora:
a) se f è iniettiva allora dim(V ) ≤ dim(W );
b) se f è suriettiva allora dim(V ) ≥ dim(W );
c) se f è isomorfismo allora dim(V ) = dim(W );
98
1. f : R3 −→ R4 data da (x, y, z) .→ (x − y + 2z, y + z, −x + z, 2x + y). Posta A la
matrice associata ad f rispetto alle basi canoniche, calcoliamo il rango di A riducendola,
ad esempio, per righe:
⎛ ⎞ ⎛ ⎞
1 −1 2 1 −1 2
⎜ 0 1 1⎟ ⎜0 1 1⎟
A=⎝ ⎠ −→ ⎝ ⎠.
−1 0 1 0 0 1
2 1 0 0 0 0
2.16. Teorema. Siano V e W due R-spazi vettoriali della stessa dimensione. Allora V e
W sono isomorfi.
99
2.17. Corollario. Se V è un R-spazio vettoriale di dimensione n, allora V ∼
= Rn . !
g ◦ f : V −→ Z
Dimostrazione. Dalla teoria generale delle funzioni è noto che un’applicazione è invertibile
se e solo se è biettiva (iniettiva e suriettiva). Quindi se un’applicazione lineare è invertibile
essa è un isomorfismo. Viceversa, supponiamo f isomorfismo; dobbiamo solo verificare che
la sua inversa è a sua volta un’applicazione lineare. Siano allora w1 , w2 ∈ W . Poiché f è
biettiva, esistono v1 , v2 ∈ V univocamente determinati tali che w1 = f (v1 ) e w2 = f (v2 ).
Siani ora λ1 , λ2 ∈ R. Allora, poichè f è lineare:
λ1 w1 + λ1 w2 = f (λ1 v1 + λ1 v2 )
da cui, applicando f −1 :
100
3.5. Corollario. Sia f : V −→ W un’applicazione lineare invertibile. Allora
dim(V ) = dim(W ).
i) ⇒ iii) Per 3.5 si ha dim(V ) = dim(W ), dunque MfB,C è quadrata. Per ipotesi esiste
f −1 ; basta dunque provare che
MfC,B B,C
−1 · Mf = In
fAB,C
−1 : W −→ V
101
3.7.1. Esempio. Sia f : R3 −→ R3 data da
⎧ ⎧
⎨ x2 − y2 + z2 = 0 ⎨ x2 = 1/2
2y2 + z2 = 1 ⇒ y = 1/2
⎩ ⎩ 2
z2 = 0 z2 = 0
⎧ ⎧
⎨ x3 − y3 + z3 = 0 ⎨ x3 = −3/2
2y3 + z3 = 0 ⇒ y = −1/2
⎩ ⎩ 3
z3 = 1 z3 = 1
102
Pertanto ⎛ ⎞
1 1/2 −3/2
A−1 = ⎝ 0 1/2 −1/2 ⎠ .
0 0 1
103
4.1. Proposizione. Sia V un R-spazio vettoriale di dimensione n, B e C due sue basi.
Denotando con (x1 , . . . , xn )B e con (y1 , . . . , yn )C le componenti di un vettore v, rispetto a
B e C rispettivamente, si ha
t B,C t
(y1 , . . . , yn ) = MidV
(x1 , . . . , xn ).
B,C t
(Mid V
(x1 , . . . , xn ))C = (t (y1 , . . . , yn ))C .
B,C
4.2. Definizione. La matrice Mid V
si dice matrice del cambio di base da B a C e si indica
B,C
anche con M .
Ne segue che
v = (y1 , y2 , y3 )C = (M B,C t (x1 , x2 , x3 ))C =
⎛⎛ ⎞⎛ ⎞⎞
0 −1 −1 1
= ⎝⎝ −1 0 3 ⎠ ⎝ −1 ⎠⎠ = (0, 2, −1)C
1 1 −1 1 C
quindi v = 2w2 − w3 .
104
4.3. Teorema. Sia V un R-spazio vettoriale, B e C due sue basi. Allora M B,C è invertibile
e la sua inversa è F B,C G−1
M = M C,B .
D E−1
B,C B,C B,C C,B
Dimostrazione. Basta ricordare che M = MidV
; inoltre per 3.6 MidV
= M(id V)
−1 .
4.4. Teorema. Sia A ∈ Rn,n una matrice invertibile. Allora, denotando con v1 , . . . , vn i
vettori colonna di A e ponendo B = (v1 , . . . , vn ), si ha:
i) B è una base di Rn ;
ii) A = M B,E , ove E è la base canonica di Rn .
4.5. Osservazione. Da 4.3 e da 4.4, segue che le matrici invertibili di ordine n, cioè gli
elementi di GL(n, R), sono tutte e sole le matrici di cambiamento di base di Rn .
Nel seguito useremo una notazione sintetica: nel caso che si operi in V rispetto alla
base B, con VB intenderemo semplicemente lo spazio vettoriale V riferito alla base B.
105
4.6. Teorema. Siano V e W due R-spazi vettoriali, B e B ′ basi di V , C e C ′ basi di W .
Sia f : V −→ W un’applicazione lineare; allora
′ ′ ′ ′
MfB ,C = M C,C · MfB,C · M B ,B .
f
VB −−−−−−→ WC
H ⏐
⏐ ⏐
⏐ ⏐
idV ⏐ J idW
VB ′ −−−−−−→ WC ′
f
che è commutativo, cioè il “percorso” fatto in un senso equivale a quello fatto nell’altro:
più precisamente
f = idW ◦ f ◦ idV .
In termini di matrici: ′ ′ ′ ′
MfB ,C = Mid
B ,C
W ◦f ◦idV
.
Applicando l’associatività della composizione di applicazioni lineari e 3.2 si ha:
′ ′ ′ ′
B ,C C,C
Mid W ◦f ◦idV
= Mid W
· MfB,C · Mid
B ,B
V
.
4.6.1. Esempio. Si consideri l’applicazione lineare f : R2B −→ R3C associata alla matrice
⎛ ⎞
1 2
A = MfB,C = ⎝ −1 0 ⎠
1 1
dove B = ((1, 1), (0, 1)) e C = ((1, 1, 0), (1, 0, 1), (0, 1, 1)). Vogliamo determinare la matrice
B = MfE2 ,E3 , dove E2 è la base canonica di R2 e E3 è la base canonica di R3 .
Il diagramma visto nella dimostrazione di 4.6 diventa dunque:
B,C
fA
R B
2
−−−−−−→ R3 C
H ⏐
⏐ ⏐
⏐ ⏐
idR2 ⏐ J idR3
R 2 E2 −−−−−−→ R3 E3
E ,E3
fB2
106
Da cui
B = MfE2 ,E3 = M C,E3 A M E2 ,B .
Dobbiamo quindi calcolare M C,E3 e M E2 ,B . Si ha immediatamente che
⎛ ⎞
1 1 0
M C,E3 = ⎝ 1 0 1 ⎠
0 1 1
F G−1
mentre per determinare M E2 ,B basta osservare che M E2 ,B = M B,E2 , per 4.3; poiché
! "
B,E2 1 0
M =
1 1
! " ! "! " ! "
x z 1 0 x z 1 0
la sua inversa si calcola ponendo = e risolvendo il
y t 1 1 y t 0 1
sistema associato. Si determina dunque
! "
E2 ,B 1 0
M =
−1 1
e quindi ⎛ ⎞⎛ ⎞ ⎛ ⎞
1 1 0 1 2 ! " −2 2
⎝ 1 0
B= 1 0 1 ⎠ ⎝ −1 0 ⎠ = ⎝ −1 3 ⎠ .
−1 1
0 1 1 1 1 −1 1
Come applicazione della teoria svolta in questo capitolo, concludiamo con un esempio
di costruzione di applicazione lineare:
Poniamo v1 = (1, 0, 2), v2 = (1, 1, 0), v3 = (2, −1, 0). Poiché f è individuata dai valori
che assume su una base del dominio, scegliamo una base opportuna di R3 ; ad esempio
completiamo v1 ad una base usando elementi della base canonica. Consideriamo dunque
(v1 , e1 , e2 ); tale insieme è una base visto che la matrice che ha tali vettori come righe:
⎛ ⎞
1 0 2
⎝1 0 0⎠.
0 1 0
ha rango 3, cosi si vede notando che tale matrice è ridotta per righe. Quindi, poichè
B = (v1 , e1 , e2 ) una base di R3 ; possiamo determinare f ponendo
107
Tale applicazione verifica le condizioni richieste, infatti
Im(f ) = L(f (v1 ), f (e1 ), f (e2 )) = L(v2 , v3 ).
Se vogliamo determinare una matrice associata ad f , abbiamo
⎛ ⎞
0 1 2
MfB,E = ⎝ 0 1 −1 ⎠ .
0 0 0
Abbiamo visto che MgB,E = M C,E MgC,C M B,C e anche MgB,E = MgC,E M B,C ; questa seconda
uguaglianza ci permette di evitare un prodotto di matrici, in quanto la determinazione di
MgC,E è immediata: le sue colonne sono esattamente g(v1 ), g(v2 ), g(v3 ), cioè:
⎛ ⎞
0 1 2
MgC,E = ⎝ 0 1 −1 ⎠ .
0 0 0
Inoltre M B,C ha per colonne le componenti di v1 , e1 , e2 rispetto a C.
Ovviamente v1 = 1v1 + 0v2 + 0v3 ; per i restanti vettori, operiamo come al solito e troviamo
e1 = 1/3v2 + 1/3v3 ed e2 = 2/3v2 − 1/3v3 ; quindi
⎛ ⎞
1 0 0
M B,C = ⎝ 0 1/3 2/3 ⎠ ,
0 1/3 −1/3
quindi
⎛ ⎞⎛ ⎞ ⎛ ⎞
0 1 2 1 0 0 0 1 0
MgB,E = MgC,E M B,C = ⎝ 0 1 −1 ⎠ ⎝ 0 1/3 2/3 ⎠ = ⎝ 0 0 1 ⎠
0 0 0 0 1/3 −1/3 0 0 0
dunque MgB,E ̸= MfB,E , quindi g ̸= f .
108
VIII - DIAGONALIZZAZIONE DI MATRICI
End(V ) −→ Rn,n
definita da
φ .→ MφB,B
E’ naturale chiedersi se esistano delle basi per le quali una matrice del tipo MφB,B ha
una forma particolarmente “semplice”, ad esempio diagonale. A tale scopo introduciamo
la seguente nozione:
1.2. Definizione. Due matrici A, B ∈ Rn,n si dicono simili se sono associate ad uno
stesso endomorfismo di Rn e si scrive A ∼ B.
1.3. Proposizione. Due matrici A, B ∈ Rn,n sono simili se e solo se esiste una matrice
P ∈ GL(n) tale che P −1 AP = B.
109
quindi φ = fAE,E l’endomorfismo di Rn associato alla matrice A rispetto alla base canonica
E, da cui A = MφE,E . Pertanto
Data una matrice A ∈ Rn,n , indichiamo con [A] = {B ∈ Rn,n | B ∼ A} la sua classe di
equivalenza. Ci chiediamo se in [A] esiste una matrice diagonale o, in altri termini, quando
una matrice A è simile ad una matrice diagonale.
1.7. Proposizione. Sia V un R-spazio vettoriale e sia φ ∈ End(V ); sono fatti equivalenti:
Dimostrazione. i) ⇒ ii) Per ipotesi MφB,B è simile ad una matrice diagonale ∆. Sia ora D
una qualunque base di V ; poiché MφD,D ∼ MφB,B per definizione e ∼ è transitiva, ne segue
che MφD,D ∼ ∆, cioè MφD,D è diagonalizzabile.
ii) ⇒ i) Ovvio.
i) ⇒ iii) Per ipotesi MφB,B è simile ad una matrice diagonale ∆, cioè ∆ = MφC,C per
un’opportuna base C di V .
110
iii) ⇒ ii) Viceversa, sia C una base di V tale che MφC,C = ∆ sia diagonale. Allora, per
ogni base D, si ha che MφD,D ∼ ∆, cioè è diagonalizzabile. !
I vettori della base C e gli scalari λi giocano un ruolo centrale nella teoria che stiamo
sviluppando. Diamo quindi la seguente
1.10. Osservazione. a) Con la terminologia ora introdotta, 1.8 si riformula nel seguente
modo: sia φ ∈ End(V ) e sia C una base di V ; allora
Vλ = {v ∈ V | φ(v) = λv}
111
è un sottospazio vettoriale di V e viene detto autospazio associato all’autovalore λ.
Dimostrazione. Come al solito si prova che Vλ è chiuso per combinazioni lineari. Siano
allora v1 e v2 due elementi in Vλ ed a1 , a2 ∈ R. Poichè φ è un’applicazione lineare, dalle
proprietà chiamate L1) ed L2) nella definizione 1.2 Cap. 7, si ha che:
1.11.2. Esempio. Sia φ ∈ End(R2 ) definito da φ((x, y)) = (y, x); ci chiediamo se φ è
semplice. Contrariamente all’esempio precedente, la matrice associata a φ rispetto alla
base canonica è ! "
E,E 0 1
Mφ =
1 0
che non è diagonale. Cerchiamo quindi una base rispetto alla quale la matrice associata lo
sia (v. 1.7). Ma, per 1.10, è sufficiente che tale base sia costituita da autovettori. Pertanto
studiamo gli autospazi di φ.
Affinché v = (a, b) sia un autovettore, deve essere φ((a, b)) = λ(a, b) per qualche λ ∈ R;
cioè deve esistere un λ tale che )
b = λa
.
a = λb
Segue che λ2 = 1 ovvero gli autovalori sono λ = ±1. I corrispondenti autospazi sono:
V−1 = {(x, y) ∈ R2 | φ((x, y)) = −(x, y)} = {(x, −x) ∈ R2 } = L((1, −1)).
I due vettori (1, 1), (1, −1) sono chiaramente linearmente indipendenti e costituiscono la
base B = ((1, 1), (1, −1)) rispetto a cui la matrice associata a φ è diagonale:
! "
B,B 1 0
Mφ = .
0 −1
112
Pertanto φ è semplice. Osserviamo inoltre che MφB,B e MφE,E sono simili, in quanto associate
allo stesso endomorfismo di R2 . Per verificarlo algebricamente, sia
! "
B,E 1 1
P =M =
1 −1
1.11.3. Esempio. Non tutti gli endomorfismi sono semplici. Ad esempio φ ∈ End(R2 )
definito da φ((x, y)) = (−y, x) non è semplice. Infatti se v = (a, b) fosse un autovettore,
φ((a, b)) = λ(a, b) per qualche λ ∈ R, si avrebbe (−b, a) = λ(a, b). Ma il sistema
)
−b = λa
a = λb
113
i) φ ha al più n autovalori distinti;
ii) se λ1 , . . . , λs ∈ R sono autovalori distinti, allora Vλ1 + · · · + Vλs è somma diretta.
v = w1 + · · · + ws
2. Polinomio caratteristico
(φ − λ idV )(v) = 0,
114
2.2. Lemma. Sia A ∈ Rn,n una matrice quadrata; allora l’espressione det(A − T In ) è un
polinomio pA (T ) di grado n in T a coefficienti in R.
2.4. Esempio. Se n = 2 si ha
pA (T ) = T 2 − (a11 + a22 )T + det(A).
D’altra parte, dette λ1 e λ2 le radici di pA (T ), l’espressione di un’equazione di secondo
grado in funzione della somma e del prodotto delle sue radici è
pA (T ) = T 2 − (λ1 + λ2 )T + λ1 λ2 ,
dunque
λ1 + λ2 = a11 + a22 , λ1 λ2 = det(A).
115
2.7. Corollario. Gli autovalori di φ sono le radici di pφ (T ) che appartengono a R.
2.8. Osservazione. Dalla teoria generale delle radici di un polinomio, sappiamo che un
polinonio a coefficienti reali può essere sempre fattorizzato su C. Quindi, dette λ1 , . . . , λs
le radici distinte del polinomio caratteristico, esso si può scrivere nella seguente forma:
pφ (T ) = (T − λ1 )m1 · · · (T − λs )ms .
1 ≤ dim(Vλ ) ≤ m(λ).
116
Tale relazione si ottiene sviluppando ripetutamente il determinante col teorema di Laplace
secondo la prima colonna, ad esempio. Quindi r è minore o uguale di m(λ). !
Concludiamo con due semplici osservazioni, che seguono immediatamente dalla dis-
cussione precedente, particolarmente utili nella risoluzione degli esercizi.
2.11. Osservazione.
(a) Si osservi che, se λ ∈ R non è un autovalore, si può ancora considerare l’insieme
Vλ = {v ∈ V | φ(v) = λv}, ma esso è costituito dal solo vettore nullo (non è quindi
un autospazio) e viceversa. In breve, se λ ∈ R
λ autovalore ⇐⇒ Vλ ̸= {0V }.
(b) Se λ = 0R è un autovalore di φ, allora l’autospazio associato V0 coincide con ker(φ).
3. Diagonalizzazione
l’altra inclusione è ovvia. Poiché la somma degli autospazi è diretta per 1.13, si ha la tesi.
117
iii) ⇒ ii) Sia Bi una base di Vλi , per ogni i; allora B = B1 ∪ . . . ∪ Bs è una base di V ,
ovviamente costituita da autovettori.
iii) ⇒ iv) Per ipotesi
dove la penultima disuguaglianza segue da 2.9 e l’ultima da 2.8. Pertanto da 2.8 segue che
ogni λi ∈ R e che dim(Vλi ) = m(λi ) per ogni i.
iv) ⇒ iii) Poiché λi ∈ R per ogni i, per 2.8 si ha
Osserviamo che per endomorfismi di spazi vettoriali su C la prima parte della con-
dizione iv) è sempre verificata, poiché tutte le radici di un polinomio a coefficienti complessi
appartengono a C.
Dimostrazione. i) Sia C una base di V tale che ∆ = MφC,C . Per 1.10, C è una base di
autovettori. La tesi segue dal fatto che P = M C,B .
ii) Sia n = dim(V ). Per 1.8, la matrice ∆ = MφC,C ∈ Rn,n ha gli autovalori λ1 , . . . , λs
sulla diagonale; ognuno di essi ripetuto un certo numero di volte, diciamo d1 , . . . , ds volte
rispettivamente. Ciò equivale a dire che la base C (costituita di autovettori) contiene d1
vettori di Vλ1 , d2 vettori di Vλ2 , ecc. Poiché di ≤ dim(Vλi ) = m(λi ) in quanto φ è semplice,
si ha
d1 + · · · + ds ≤ m(λ1 ) + · · · + m(λs ).
118
Ma d1 +· · ·+ds = n poiché ∆ ∈ Rn,n ; d’altra parte anche m(λ1 )+· · ·+m(λs ) = n, come si
deduce dalla dimostrazione di 3.1. Dunque i due membri della disuguaglianza precedente
sono uguali, pertanto di = m(λi ), per ogni i.
iii) Ovvio. !
Data una matrice A ∈ Rn,n , alla luce della teoria precedente, è possibile dare una
risposta al problema della diagonalizzazione di A.
Il polinomio caratteristico di A è
* *
*3 − T 1 1 *
* *
pA (T ) = |A − T I| = ** 1 −T 2 *=
*
* 1 2 −T *
= −T 3 + 3T 2 + 6T − 8 = (T − 1)(T − 4)(T + 2).
119
Dunque gli autovalori sono λ1 = 1, λ2 = 4, λ3 = −2; da cui segue che una matrice diagonale
simile ad A è la seguente: ⎛ ⎞
1 0 0
∆= 0⎝ 4 0 ⎠.
0 0 −2
Volendo determinare una base B di autovettori e quindi una matrice invertibile P , si
procede come segue: poiché V1 = ker(φ − id), V1 coincide con lo spazio delle soluzioni del
sistema lineare omogeneo (A − I)t (x, y, z) = 0 associato alla matrice
⎛ ⎞ ⎛ ⎞
2 1 1 2 1 1
A − I = ⎝1 −1 2 ⎠ −→ ⎝ 3 0 3⎠.
1 2 −1 0 0 0
Pertanto le soluzioni del precedente sistema sono (x, y, z) = (x, −x, −x), quindi
V1 = L((−1, 1, 1)).
Analogamente si calcolano
120
IX - ENDOMORFISMI AUTOAGGIUNTI
1. Matrici ortogonali
Ricordiamo che, nel Cap. VII, abbiamo studiato le matrici di cambio di base in un
R–spazio vettoriale. In tale occasione, abbiamo osservato che ogni matrice di cambio di
base è invertibile e che, viceversa, ogni matrice n × n invertibile si può interpretare come
matrice di cambio di base in Rn (vedi 4.3 e 4.4 Cap. VII). Più precisamente abbiamo
provato che, se A ∈ Rn,n è invertibile, allora A = M B,E , dove B è costituita dalle colonne
di A ed E è la base canonica.
In questo capitolo studieremo gli endomorfismi di uno spazio vettoriale euclideo (V, ·).
In tale ambiente, come visto nel Cap. IV, la nozione significativa di base è quella di base
ortonormale. Quindi la corrispondenza ricordata all’inizio (tra matrici invertibili e quelle
di cambio di base) va specificata nel caso delle basi ortonormali, dando luogo alla seguente
cioè se tA = A−1 .
121
Abbiamo la seguente catena di equivalenze:
A è ortogonale ⇔ (v1 , . . . , vn ) è base ortonormale di E n ⇔ vi · vj = δij , per ogni i, j ⇔
(tAA)ij = δij , per ogni i, j ⇔ tAA = In . !
e si ha tAA = I2 .
Ma det(tA) = det(A) (per 5.9, Cap. V), pertanto (det(A))2 = 1 e quindi si ha la tesi. !
1.5. Definizione. Una matrice ortogonale con determinante 1 si dice ortogonale speciale.
122
è un gruppo rispetto all’usuale prodotto di matrici. Inoltre il suo sottoinsieme
1.7. Definizione. Il gruppo O(n) si dice gruppo ortogonale di ordine n e il suo sottogruppo
SO(n) ⊂ O(n) si dice gruppo ortogonale speciale.
1.8. Teorema. Sia φ un endomorfismo dello spazio euclideo E n e sia E la base canonica.
Sono fatti equivalenti:
i) la matrice A = MφE,E è ortogonale;
ii) φ(v) · φ(w) = v · w per ogni v, w ∈ E n ;
iii) se (f1 , . . . , fn ) è una qualunque base ortonormale di E n , allora (φ(f1 ), . . . , φ(fn )) è
ancora una base ortonormale.
v · w = φ(v) · φ(w)
123
1.9. Corollario. Sia φ ∈ End(E n ) associato ad una matrice ortogonale rispetto alla base
canonica; allora
∥ φ(v) ∥=∥ v ∥
per ogni v ∈ V . !
Torniamo ora all’interpretazione iniziale delle matrici ortogonali, cioè come matrici
particolari di cambio di base e vediamo un’importante fatto che le caratterizza.
Prima di tutto ricordiamo una proprietà delle basi ortonormali: in un qualunque spazio
euclideo (V, ·) sia C una base ortonormale. Se v, w ∈ V sono due vettori di componenti
note sulla base C, cioè v = (x1 , . . . , xn )C e w = (y1 , . . . , yn )C , allora v ·w = x1 y1 +· · ·+xn yn
(vedi 1.20, Cap. IV).
1.10. Teorema. Siano B una qualunque base e C una base ortonormale dello spazio
euclideo E n . Posta P = M B,C la matrice del relativo cambio di base, allora si ha:
P è ortogonale ⇐⇒ B è una base ortonormale.
Dimostrazione. Se ⎛ ⎞
p11 ··· p1n
⎜ .. .. ⎟
P =⎝ . . ⎠
pn1 ··· pnn
allora B = (b1 , . . . , bn ) è data da
b1 = (p11 , . . . , pn1 )C , ... , bn = (p1n , . . . , pnn )C .
Inoltre si denotino le colonne di P con
v1 = (p11 , . . . , pn1 ), ... , vn = (p1n , . . . , pnn ).
Per quanto ricordato sopra (1.20, Cap. IV) si ha: bi · bj = vi · vj per ogni i, j.
Quindi si ha la seguente catena di equivalenze:
P è ortogonale ⇐⇒ (v1 , . . . , vn ) è una base ortonormale di E n ⇐⇒ vi · vj = δi,j ⇐⇒
bi · bj = δi,j ⇐⇒ (b1 , . . . , bn ) è una base ortonormale di E n . !
2. Endomorfismi autoaggiunti
124
2.2. Teorema. Sia (V, ·) uno spazio euclideo, B una sua base ortonormale, φ ∈ End(V )
e sia A = MφB,B . Allora φ è autoaggiunto se e solo se A è simmetrica.
125
2.3. Teorema. Sia A ∈ Rn,n una matrice simmetrica; allora il suo polinomio caratteristico
ha solo radici reali.
t
v̄Av = (tv̄A)v = t(Av̄)v = t(λ̄v̄)v = λ̄ tv̄v,
da cui, eguagliando,
(λ − λ̄) t v̄v = 0.
D’altra parte, v̄v = v 1 v1 + v 2 v2 + · · · + v n vn è un numero reale positivo in quanto v ̸= 0Cn ,
da cui si deduce che λ = λ̄, dunque λ è reale. !
126
Le radici λ1 , λ2 di p(T ) sono reali in quanto ∆ ≥ 0. Inoltre, se ∆ > 0, allora le radici
sono distinte e quindi, per 2.11, A è diagonalizzabile. Se, invece, ∆ = 0, allora a11 = a22
e a12 = 0, cioè la matrice A è già diagonale.
Dimostrariamo infine che A è diagonalizzabile con una matrice ortogonale P .
Se ∆ = 0, basta prendere P = I. Gli autospazi sono generati dalla base canonica di R2 .
Sia ora ∆ > 0; calcoliamo gli autospazi dell’endomorfismo
φ = fAE,E : R2 −→ R2 .
Dall’espressione (∗) di p(T ) e da 2.5, segue che λ1 + λ2 = a11 + a22 e λ1 λ2 = a11 a22 − a212 .
Sostituendo nella precedente espressione si ha v1 · v2 = 0.
Osserviamo infine, che la matrice ortogonale P può essere scelta speciale, semplicemente
scambiando l’ordine di Vλ1 e Vλ2 .
2.4. Teorema. Sia A ∈ Rn,n una matrice simmetrica; allora esiste una matrice ortogonale
P tale che tP AP è diagonale, ovvero le matrici simmetriche sono diagonalizzabili mediante
matrici ortogonali.
127
simmetrica, il polinomio caratteristico di φ ha radici reali che sono tutti autovalori. Sia λ
un tale autovalore con corrispondente autovettore b1 che possiamo supporre di norma uno.
Sia V1⊥ = b⊥
1 il suo complemento ortogonale. Poiché φ è autoaggiunto, per ogni v ∈ V1 :
⊥
φ(v) · b1 = v · φ(b1 ) = λ (v · b1 ) = 0,
ovvero φ si restringe ad un endomorfismo autoaggiunto φ|V1⊥ : V1⊥ → V1⊥ . Per l’ipotesi
induttiva esistono n − 1 vettori (b2 , . . . , bn ) ortonormali che diagonalizzano φ|V1⊥ . Quindi
i vettori (b1 , b2 , . . . , bn ) formano una base B di autovettori ortonormali di φ. Dal Teorema
1.10, la matrice del cambio di baseP = M B,E è ortogonale. D’altra parte P è la matrice
che diagonalizza la matrice di partenza A. Questo prova la tesi. !
2.6. Teorema. Sia φ ∈ End(V ); allora φ è autoaggiunto se e solo se esiste una base
ortonormale di V costituita da autovettori.
Dimostrazione. Immediata: per 2.6, se φ è autoaggiunto allora esiste una base ortonormale
di V costituita da autovettori. Si conclude con 1.10, b), Cap. VIII. !
128
2.8. Proposizione. Sia φ un endomorfismo autoaggiunto di uno spazio vettoriale euclideo
(V, ·); siano λ1 , λ2 ∈ R due suoi autovalori distinti e 0V ̸= vi ∈ Vλi , i = 1, 2, allora v1 , v2
sono ortogonali.
Quindi:
(λ2 − λ1 )(v1 · v2 ) = 0R .
Essendo gli autovalori distinti per ipotesi, ne segue che v1 · v2 = 0R , ovvero gli autovettori
sono ortogonali. !
2.9. Teorema. Sia φ ∈ End(V ) un endomorfismo semplice e siano Vλ1 , . . . , Vλs i suoi
autospazi. Allora:
C = (v11 , . . . , vm
1
1
, . . . , v1s , . . . , vm
s
s
)
Concludiamo con due esempi di costruzione di applicazioni lineari nei quali intervien-
gono le nozioni di endomorfismo semplice e autoaggiunto.
V = Vλ 1 ⊕ Vλ 2 ⊕ Vλ 3 .
129
Inoltre, affinché f sia autoaggiunto, dovrà essere:
Vλi ⊥ Vλj , i ̸= j.
In particolare,
(ker(f ))⊥ = (Vλ3 )⊥ = Vλ1 ⊕ Vλ2 .
Con semplici calcoli si determina (ker(f ))⊥ = {(x, y, z) = (α, β, −α − 2β)} e quindi, ad
esempio, si possono scegliere
Scelta come base di autovettori la base B = ((1, 0, −1), (1, −1, 1), (1, 2, 1)), si ha
⎛ ⎞
1 0 0
MfB,B ⎝
= 0 2 0⎠.
0 0 0
Infine, posta B = ((1, −1, 1), (1, 1, 0), (0, 1, 1)), si ha:
⎛ ⎞
0 0 0
MfB,B = ⎝ 0 λ2 0 ⎠.
0 0 λ3
130
X - GEOMETRIA LINEARE AFFINE
1. Spazi affini
In maniera intuitiva si può pensare ad uno spazio affine come ad uno spazio vettoriale
‘senza l’origine’, ovvero come ad un insieme di punti ad ognuno dei quali viene associata
una copia di uno spazio vettoriale modello.
α : Rn × Rn −→ Rn
definita da
α((a1 , . . . , an ), (b1 , . . . , bn )) = (b1 − a1 , . . . , bn − an )
si dice spazio affine reale di dimensione n e si denota con An (R) o semplicemente con An
se è chiaro dal contesto. Le n-uple di Rn viste come elementi di An (R) si dicono punti.
Si noti che il dominio di α è il prodotto cartesiano dell’insieme Rn per se stesso, mentre
il codominio è lo spazio vettoriale Rn . Qui l’insieme Rn , lo spazio vettoriale Rn e la
spazio affine coincidono come insiemi; il simbolo An (R) si usa per differenziare la struttura
di spazio affine da quella di spazio vettoriale.
In particolare, A1 (R) indicherà la retta affine reale, A2 (R) il piano affine reale mentre
A3 (R) è lo spazio affine reale che verranno quindi denotati anche solo con A1 , A2 , A3 .
Esiste un concetto analogo di spazio affine complesso An (C) modellato sullo spazio vet-
toriale Cn e, per un qualsiasi campo K, di spazio affine An (K) modellato sullo spazio
vettoriale K n .
P Q
131
Figura 11
1.3. Notazioni. Tenuto conto della definizione di α, dati due punti P, Q ∈ An , il vettore
v = α(P, Q) verrà denotato semplicemente con
v = Q − P.
Q = P + v.
(Q − P ) + (R − Q) = R − Q.
1.4. Osservazione.
a) Per ogni P ∈ An (R), si ha α(P, P ) = 0Rn : segue da p2 ponendo P = Q = R.
b) Comunque scelti P, Q ∈ An (R), si ha α(P, Q) = −α(Q, P ): segue da p2 ponendo R = P .
In generale, negli spazi affini si può introdurre un sistema di riferimento, con la scelta
di una base B = (e1 , . . . , en ) di Rn e di un punto di O of An (R). Osserviamo intanto che
per la proprietà p1 in 1.3, fissato un punto O di An (R), si ottiene un’applicazione biettiva
αO : An (R) −→ Rn
definita da
αO (Q) = α(O, Q) = Q − O. (∗)
1.5. Definizione. Fissato un sistema di riferimento (O, B) di An (R), diremo che il punto
P ∈ An (R) ha coordinate (x1 , . . . , xn ) rispetto ad (O, B) se
αO (P ) = P − O = (x1 , . . . , xn )B = x1 e1 + · · · + xn en .
−1
Equivalentemente, il punto P = αO (x1 , . . . , xn ) ha coordinate (x1 , . . . , xn ). In tal caso
scriveremo semplicemente P = (x1 , . . . , xn ).
1.6. Definizione. Il dato (O, B) del punto O ∈ An (R) e della base B di Rn si dice sistema
di coordinate affini o sistema di riferimento affine su An (R), avente origine Il punto O.
In particolare, se B è la base canonica di Rn , allora (O, B) si dice sistema di riferimento
cartesiano ortogonale di An (R).
Ai = O + ei
132
si dicono punti coordinati di An (R) e hanno ovviamente coordinate
Tw ((x1 , . . . , xn )) = (x1 + w1 , . . . , xn + wn ).
φ : Rn −→ Rn definito da P − O .→ Tw (P ) − Tw (O).
133
quindi
Tw (P ) − Tw (O) = (Tw (P ) − O) − (Tw (O) − O) =
= ((x1 + w1 )e1 + · · · (xn + wn )en ) − (w1 e1 + · · · + wn en ) =
= x1 e1 + · · · + xn en = P − O.
1.11. Osservazione. Ad essere più precisi, l’isomorfismo precedente è tra due copie
‘distinte’ dello spazio vettoriale Rn associate ai due punti O e O′ = Tw (O) di An che
possono essere pensati come le origini di due sistemi di riferimento per An .
Q=Tw(P)
P
w
O'=Tw(O)
O
Figura 12
2. Rette e piani
Partendo dalla nozione di retta vettoriale nello spazio vettoriale R2 e dalla corrispondenza
biunivoca αO : A2 −→ R2 , ove αO (P ) = P − O, è naturale definire come “retta per
l’origine” il sottoinsieme di A2 che corrisponde ad una retta vettoriale L(v) di R2 .
Si consideri, ad esempio, la retta vettoriale di R2 generata da v = (1, 2). Allora la
corrispondente retta per l’origine di A2 è
2.1. Definizione. Nello spazio affine An , si dice retta per l’origine un sottoinsieme del
tipo
rO = {P ∈ An | (P − O) ∈ L(v)}, per qualche v ∈ Rn \ {0}.
134
Usando l’identificazione tra An ed Rn espressa dalla corrispondenza in (*), dalla
definizione si ha anche che
o, in breve
rO : P = λv , λ∈R
(dove λ è quindi un parametro reale) e tale scrittura verrà detta equazione vettoriale di rO .
Fissando un riferimento cartesiano (O, B) di An e tenendo conto dell’identificazione tra le
coordinate di un punto P e le componenti del vettore P − O rispetto alla base B, quest’
ultima equazione si scrivera anche come
2.2. Osservazione. Come insiemi, la retta per l’origine rO e la retta vettoriale L(v)
coincidono, anche se vengono visti in due ambienti diversi: rO ⊂ An mentre L(v) ⊂ Rn .
Chiarita questa distinzione, i due insiemi verranno talvolta identificati.
Geometricamente, è chiaro che r è una “retta”; è infatti la retta parallela all’asse delle
ordinate e di ascissa x = 1. D’altra parte, operando la traslazione Tu , con u = (−1, −2),
si ottiene l’insieme
che è chiaramente una retta per l’origine (geometricamente l’asse delle ascisse x = 0). Se
indichiamo con rO la retta per l’origine Tu (r), è chiaro che r = Tw (rO ), dove w = −u.
135
Dalle equazioni viste prima per una retta per l’origine, si hanno immediatamente le
seguenti equazioni per una retta qualunque. Consideriamo la retta per l’origine
rO : P = λv , λ∈R
r = {P ∈ An | P = Tw (PO ), PO ∈ rO } = {P ∈ An | P = Q + λv, λ ∈ R}
r: P = Q + λv. (1)
oppure:
⎧
⎨ x1
⎪ = q1 + λv1
r: .. .. . (2)
⎪ . .
⎩
xn = qn + λvn
2.4. Definizione. L’equazione (1) (o anche (1′ )) si dice equazione vettoriale della retta
r, mentre l’equazione (2) si dice equazione parametrica di r.
2.5. Osservazione.
a) Nell’equazione vettoriale di una retta r : P = Q + λv, per ogni valore di λ si ottiene
un punto di r (e viceversa). Per λ = 0 si ottiene ovviamente il punto Q.
b) Il punto Q non è unico, in quanto individuato da una traslazione Tw (che manda r
in una retta rO passante per l’origine) e tale traslazione non è ovviamente unica. Più
precisamente ci sono infinite traslazioni tali che Tw (r) = rO ; si può vedere che tali
traslazioni Tw sono tutte e sole quelle per cui w = w′ + v ′ , con v ′ ∈ L(v) e Tw′ è una
particolare traslazione.
c) Inoltre è chiaro che il vettore v, essendo una base di L(v), non è unico. Tuttavia è
unica la giacitura Sr = L(v)
136
v'
w'
w r
O
rO
Figura 13
Si osservi dapprima che le due rette hanno la stessa giacitura: Sr = Sr′ = L((1, −1)) = rO ;
in particolare, posti Q = (1, 2) ∈ r e Q′ = (2, 1) ∈ r′ :
Si conclude con 2.5 b), notando che w−w′ = (−1, 1) è un vettore del sottospazio L((1, −1)).
oppure, in breve
πO : P = λu + µv
137
dove λ, µ sono ora due parametri reali.
2.8. Definizione. L’equazione (3) si dice equazione vettoriale del piano π, mentre
l’equazione (4) si dice equazione parametrica di π.
2.8.1. Esempio. Dati i vettori di R3 : v1 = (1, 0, 1) e v2 = (1, −1, 0), il piano πO , per
l’origine da essi individuato è costituito dal luogo dei punti P ∈ A3 tali che
P = λ1 v 1 + λ 2 v 2 , λ 1 , λ2 ∈ R
o anche, fissato un sistema di riferimento (O, B), l’insieme dei punti P = (x, y, z) tali che
⎧
⎨ x = λ1 + λ 2
(x, y, z) = λ1 (1, 0, 1) + λ2 (1, −1, 0), cioè π : y = −λ2 .
⎩
z = λ1
2.8.2. Esempio. Data la traslazione di A3 associata al vettore w = (1, −1, 2), il piano
πO di 2.8.1 dà luogo al piano π = Tw (πO ) la cui equazione è:
π: P = Q + λ1 v 1 + λ2 v 2 ,
dove Q = Tw (O) = (1, −1, 2). Esplicitamente:
π: (x, y, z) = (1, −1, 2) + λ1 (1, 0, 1) + λ2 (1, −1, 0).
138
e quindi equazione parametrica
⎧
⎪ x = 2 + λ1 + 2λ2
⎨ 1
x2 = 1 + λ2
π: .
⎩ x3
⎪ = 1 + λ1
x4 = 2 − λ2
π : P = Q + λu + µv e π ′ : P = Q′ + λu′ + µv ′
2.10. Proposizione. Dati due punti distinti A e B in An , esiste una ed una sola retta
passante per A e per B ed una sua equazione vettoriale è data da:
Dimostrazione.
Esistenza. L’equazione precedente rappresenta una retta, in quanto B − A è un vettore
non nullo poiché A e B sono distinti per ipotesi. Inoltre la retta rAB passa per A (che si
ottiene per λ = 0) e per B (che si ottiene per λ = 1).
Unicità. Se r è un’altra retta per A, la sua equazione sarà del tipo P = A + µv. Inoltre r
passa per B se e solo se B = A+µ0 v, per un opportuno µ0 , quindi se e solo se B −A = µ0 v.
Dunque Sr = L(v) = L(B − A) = SrAB , da cui la tesi. !
139
Per concludere, basta determinare un λ che verifichi il sistema
⎧
⎨1 = 1
0=1+λ .
⎩
4 = 1 − 3λ
Ovviamente λ = −1 è soluzione.
Dimostrazione.
Esistenza. L’equazione precedente rappresenta un piano, in quanto B − A e C − A sono
vettori linearmente indipendenti poiché A, B, C non sono allineati per ipotesi. Inoltre il
piano πABC passa per A (che si ottiene per λ = 0 e µ = 0), per B (che si ottiene per λ = 1
e µ = 0) e per C (che si ottiene per λ = 0 e µ = 1).
Unicità. Sia π ′ un altro piano per A, B, C. Allora avrà equazione del tipo
π ′ : P = A + λu + µv.
Per 2.9 è sufficiente mostrare che L(B − A, C − A) = L(u, v); anzi basta una sola inclusione
essendo entrambi sottospazi di dimensione 2 di An . Ma A, B ∈ π ′ , dunque (sempre per
2.9) B − A ∈ Sπ′ = L(u, v) e, analogamente, C − A ∈ Sπ′ = L(u, v). Pertanto si ha
l’inclusione L(B − A, C − A) ⊆ L(u, v), come volevamo. !
L = {P ∈ An | (P − Q) ∈ V }
140
dove Q ∈ An è un particolare punto dello spazio affine e V ⊂ Rn è un sottospazio vettoriale
di dimensione k. Se V = L(v1 , . . . , vp ) allora una equazione vettoriale di L è data da:
L : P = Q + λ1 v 1 + · · · + λ k v k .
3.2. Osservazione. Una retta è una varietà lineare affine di dimensione 1, mentre un
piano è una varietà lineare affine di dimensione 2.
3.4. Definizione. Siano L, L′ ⊆ An due varietà lineare affini della stessa dimensione.
Diremo che L ed L′ sono parallele se hanno la stessa giacitura, cioè se SL = SL′ .
3.4.1. Esempio. Sia LO ⊂ A2 (R) una retta passante per l’origine; le rette L parallele a
LO sono tutte e sole le rette del piano del tipo Tw (LO ), con w variabile in R2 . Si osservi
infine che, per 3.15, L = LO se e solo w ∈ SL .
Sia, ad esempio, LO : (x, y) = λ(3, −2). Allora tutte e sole le rette parallele ad LO sono
del tipo:
L : (x, y) = (α, β) + λ(3, −2),
141
con (α, β) ∈ R2 . Inoltre una tale retta L è distinta da LO se e solo se (α, β) ̸∈ SL , cioè se
(α, β) non è un multiplo di (3, −2).
Tale nozione non è utilizzabile per due varietà lineari di dimensione diversa; diamo
dunque una definizione apposita in un caso particolare:
3.5. Definizione. Una retta r ed un piano π nello spazio affine An (K) si dicono paralleli
se la giacitura della prima è inclusa nella giacitura del secondo, cioè se Sr ⊂ Sπ .
Indichiamo con w1 e w2 due vettori che sono una base per la giacitura Sπ del piano π e
con vi , per i = 1, 2, 3, un vettore che genera la giacitura Sri di ogni retta ri ; ad esempio:
w1 = (1, 0, 1), w2 = (0, 1, 1), v1 = (1, −1, 0), v2 = (1, 1, 2), v3 = (1, 1, 1).
Per verificare se Sri è contenuta o meno in Sπ , basta calcolare il rango della matrice le cui
righe sono, rispettivamente, date dalle componenti di w1 , w2 , vi .
Nel primo caso la matrice
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
w1 1 0 1 1 0 1
⎝ w2 ⎠ = ⎝ 0 1 1 ⎠ −→ ⎝ 0 1 1 ⎠
v1 1 −1 0 0 1 1
ha rango 2, dunque v1 ∈ L(w1 , w2 ), quindi Sr1 ⊂ Sπ , cioè r1 è parallela a π. Inoltre r1 ̸⊂ π,
in quanto (0, 0, 0) ∈ r1 ma (0, 0, 0) ̸∈ π. Infatti, dovrebbero esistere λ1 e λ2 tali che
⎧
⎨ 0 = λ1
(0, 0, 0) = (0, 2, −1) + λ1 (1, 0, 1) + λ2 (0, 1, 1) ⇒ 0 = 2 + λ2
⎩
0 = −1 + λ1 + λ2
e tale sistema non ha ovviamente soluzioni.
Nel secondo caso, la matrice
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
w1 1 0 1 1 0 1
⎝ w2 ⎠ = ⎝ 0 1 1 ⎠ −→ ⎝ 0 1 1⎠
v2 1 1 2 0 1 1
ha ancora rango 2, dunque v2 ∈ L(w1 , w2 ), quindi r2 è parallela a π. Tuttavia r2 ⊂ π in
quanto il seguente sistema (ottenuto uguagliando le coordinate del generico punto di r2 e
del generico punto di π)
⎧ ⎧
⎨λ = λ1 ⎨ λ1 = λ
λ + 3 = 2 + λ2 ⇒ λ = λ+1
⎩ ⎩ 2
2λ = −1 + λ1 + λ2 2λ = −1 + λ + λ + 1
142
ha soluzioni (λ1 , λ2 ) per ogni λ ∈ R.
Nel terzo caso, la matrice
⎛ ⎞ ⎛ ⎞ ⎛ ⎞
w1 1 0 1 1 0 1
⎝ w2 ⎠ = ⎝ 0 1 ⎠ ⎝
1 −→ 0 1 1⎠
v3 1 1 1 0 1 0
3.6. Definizione. Siano L, L′ ⊆ An due varietà lineare affini distinte. Diciamo che L ed
L′ sono incidenti se la loro intersezione è non vuota; si dicono, invece, sghembe se non sono
né incidenti né parallele.
3.7. Definizione. In particolare due rette oppure una retta ed un piano sono incidenti
se hanno un punto in comune; due piani sono incidenti se hanno una retta in comune.
3.7.1. Esempio. Poichè sono dati nello spazio A3 (K) la retta r3 ed il π dell’esempio 3.5.1
si intersecano in un punto che si trova come soluzione del sistema ottenuto uguagliando le
coordinate del generico punto di r3 e del generico punto di π:
⎧ ⎧
⎨1 + λ = λ1 ⎨ λ1 = 5
−1 + λ = 2 + λ2 ⇒ λ2 = 1
⎩ ⎩
1+λ = −1 + λ1 + λ2 λ = 4
143
XI - VARIETÀ LINEARI AFFINI IN FORMA CARTESIANA
1. Equazioni cartesiane
Nel Cap. X abbiamo visto come una V.L.A. si possa definire mediante un’equazione
vettoriale o un’equazione parametrica. In questo capitolo, utilizzando la teoria dei sistemi
lineari, vedremo come si possa associare ad una V.L.A. un’equazione senza parametri.
Si ricorderà che una retta r nel piano è definita come il luogo dei punti di coordinate
(x, y) che verificano una equazione lineare, cioè una equazione del tipo ax + by + c = 0.
Proviamo l’equivalenza di tale nozione con quella introdotta in 2.3 del Cap. X. Cominciamo
con un esempio:
x = 1 + (2 − y) ⇒ x + y − 3 = 0.
Posto s il luogo dei punti che soddisfano tale equazione, proviamo che s coincide con r.
Chiaramente r ⊆ s in quanto il generico punto (1 + λ, 2 − λ) ∈ r verifica l’equazione di s:
(1 + λ) + (2 − λ) − 3 ≡ 0.
α = 1 + t, β =2−t
1.2. Proposizione. Le rette del piano sono tutti i soli i luoghi di punti le cui coordinate
verificano una equazione del tipo
ax + by + c = 0, (1)
144
dove a, b, c ∈ R e (a, b) ̸= (0, 0).
Dimostrazione.
i) Proviamo dapprima che una retta r ⊂ A2 di equazione parametrica
)
x = x0 + λu
r: , (u, v) ̸= (0, 0)
y = y0 + λv
è il luogo dei punti le cui coordinate verificano un’opportuna equazione del tipo (1).
Infatti basta eliminare il parametro λ. Poiché (u, v) ̸= (0, 0), almeno uno tra u e v è non
nullo; ad esempio, se v ̸= 0, si ricava λ dalla seconda equazione e si procede come in 1.1.1:
<
x = x0 + λu y − y0
y − y0 ⇒ x = x0 + u ⇒ vx − uy − vx0 + uy0 = 0,
λ= v
v
che è un’equazione cartesiana di r della forma ax + by + c = 0, dove a = v, b = −u,
c = −vx0 + uy0 . Sia ora s il luogo dei punti le cui coordinate verificano l’equazione:
s: vx − uy − vx0 + uy0 = 0.
s: ax + by + c = 0 , (a, b) ̸= (0, 0)
145
si vede subito che r ⊆ s, in quanto ogni punto (−c/a − λb, λa) ∈ r soddisfa l’equazione di
s. La verifica che s ⊆ r è analoga a quella vista in i). !
1.5. Osservazione. Si noti che una retta non individua univocamente un’equazione
cartesiana. Infatti, se ax + by + c = 0 è un’equazione di r, allora ogni equazione
ρax + ρby + ρc = 0 , ρ ̸= 0
146
Quest’ultima equazione rappresenta ancora il piano π: infatti ogni punto di π soddisfa tale
equazione, come si verifica immediatamente, sostituendo in essa le coordinate di un punto
P = (1 + 2λ + µ, 2 − λ − µ, µ) ∈ π. D’altra parte x + 2y + z − 5 = 0 è un sistema lineare di
un’equazione in tre incognite, avente ∞2 soluzioni, che sono dunque date dai punti di π.
Il procedimento visto sopra vale in generale, per ogni piano dello spazio affine. In
modo analogo a quanto visto per le rette del piano si prova la seguente:
1.6. Proposizione. I piani dello spazio affine sono tutti e soli i luoghi di punti le cui
coordinate verificano un’equazione del tipo
ax + by + cz + d = 0. (2)
Nello stesso modo di 1.5. per una rette nel piano, l’equazione cartesiana di un piano nello
spazio non è univocamente determinata: moltiplicando per un qualunque numero reale
non nullo si ottiene un’equazione cartesiana che descrive lo stesso piano.
Sπ : ax + by + cz = 0.
Lo spazio delle soluzioni dell’ultimo sistema lineare coincide con r; infatti ogni punto di r
soddisfa tale sistema (come si verifica facilmente per sostituzione). D’altra parte, il sistema
in questione ha ∞1 soluzioni (essendo di rango 2 in 3 incognite); quindi le sue soluzioni
rappresentano tutti e soli i punti di r.
In generale, in modo analogo a quanto fatto in 1.2 e 1.6, si prova facilmente la seguente
147
1.8. Proposizione. Le rette dello spazio affine sono tutti e soli i luoghi di punti le cui
coordinate verificano un’equazione del tipo
)
a1 x + b1 y + c1 z + d1 = 0
r: (3)
a2 x + b2 y + c2 z + d2 = 0
! "
a1 b1 c1
dove ρ = 2. Tale equazione di dice equazione cartesiana della retta r. !
a2 b2 c2
148
Pertanto la prima equazione del precedente sistema fornisce:
H: x − y − 2z + t − 1 = 0.
L: P = Q + λv1 + µv2 ,
dove Q = (2, 3, 0), v1 = (1, 0, 1), v2 = (1, −1, 0). Esplicitando le componenti di P = (x, y, z)
si ha: ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎧
x 2 1 1 ⎨x = 2 + λ + µ
⎝ y ⎠ = ⎝ 3 ⎠ + λ ⎝ 0 ⎠ + µ ⎝ −1 ⎠ =⇒ y=3 −µ
⎩
z 0 1 0 z= λ
ed eliminando i parametri si ottiene
⎧
⎨λ = z
µ=3−y
⎩
x=2+z+3−y
149
1.11.1. Esempio. Si consideri il piano π ⊆ A3 di equazione:
π : 2x − y + z − 1 = 0.
Per determinare una sua equazione vettoriale si risolve il precedente sistema, ottenendo:
)
y = −2x − 2
z = −3x − 3
e dunque
(x, y, z) = (a, −2a − 2, −3a − 3) = (0, −2, −3) + a(1, −2, −3).
2. Intersezioni
In questo paragrafo studieremo l’intersezione ( o meglio la posizione reciproca) di varietà
lineari affini. Consideriamo alcuni casi particolari.
r: ax + by + c = 0, r′ : a′ x + b′ y + c′ = 0.
150
- ρ(A) = ρ(A, B) = 1: il sistema ha ∞1 soluzioni, dunque r = r′ ;
- ρ(A) = ρ(A, B) = 2: il sistema ha una sola soluzione (x0 , y0 ), dunque r interseca r′
nel punto di coordinate (x0 , y0 );
- ρ(A) = 1 e ρ(A, B) = 2: il sistema non ha soluzioni, pertanto r ∩ r′ = ∅. In tal caso
si tratta di due rette parallele e distinte di giacitura L((−b, a)).
In sintesi, si ha la tabella:
2.2. Corollario. Siano r e r′ due rette del piano affine, di equazioni cartesiane:
r: ax + by + c = 0, r′ : a′ x + b′ y + c′ = 0.
Allora ! "
′ a b c
r=r ⇐⇒ ρ = 1.
a′ b′ c′
!
r: x + y − 1 = 0, s: x + 2y + 2 = 0.
Riducendo la matrice:
! " ! "
1 1 1 1 1 1
(A, B) = −→ = (A′ , B ′ )
1 2 −2 0 1 −3
r: x + y − 1 = 0, sα : x + αy + 2 = 0,
151
con α ∈ R. Vogliamo determinare la posizione reciproca di r ed sα , al variare di α ∈ R.
Basta discutere il sistema lineare
)
x+y = 1
.
x + αy = −2
Riducendo la matrice:
! " ! "
1 1 1 1 1 1
(A, B) = −→ = (A′ , B ′ )
1 α −2 0 α−1 −3
Può capitare di intersecare due rette non entrambe in forma cartesiana: ad esempio
date entrambe in forma parametrica oppure una in forma parametrica e l’altra in carte-
siana. Per determinarne l’intersezione, invece di ricavare le loro equazioni cartesiane e
quindi procedere come sopra, si può operare direttamente, come nei seguenti esempi.
2.2.3. Esempio. Vogliamo determinare la posizione reciproca delle seguenti rette, date,
rispettivamente, in forma parametrica e in forma cartesiana:
nell’equazione di s, ottenendo
2(1 + λ) − (2 − λ) − 6 = 0 ⇒ 3λ − 6 = 0 ⇒ λ = 2.
Quindi r ed s sono incidenti e precisamente si intersecano nel punto che si ottiene dall’
equazione di r per λ = 2; dunque r ∩ s = (3, 0).
(1 + 2λ) + 2(−1 − λ) − 3 = 0 ⇒ −4 = 0.
152
Dunque nessun valore di λ soddisfa la relazione precedente e pertanto r ∩ s = ∅. Poiché le
due rette sono nel piano affine, ciò implica che r ed s sono parallele.
153
2.4. Corollario. Siano π e π ′ due piani dello spazio affine, di equazioni cartesiane:
π: ax + by + cz + d = 0, π′ : a′ x + b′ y + c′ z + d′ = 0.
Allora ! "
′ a b c d
π=π ⇐⇒ ρ = 1.
a′ b′ c′ d′
!
π: x − y + 3z + 2 = 0 π′ : x − y + z + 1 = 0.
2.4.2. Esempio. Come prima, vogliamo determinare l’intersezione dei due piani di A3 :
π: x−y+z+2=0 π′ : 2x − 2y + 2z + 1 = 0.
si vede che ρ(A) = 1 mentre ρ(A, B) = 2, pertanto il sistema non ha soluzioni ed i due
piani non hanno punti in comune. Poiché siamo in A3 , ciò significa che π e π ′ sono paralleli.
π : x − 2y − z + 1 = 0, π ′ : x + y − 2 = 0, π ′′ : 2x − 4y − 2z − 5 = 0.
154
Poiché ! "
1 −2 −1 −1
(A, B) =
1 1 0 2
ρ(A) = ρ(A, B) = 2, pertanto π∩π ′ è la retta avente il sistema Σ per equazione cartesiana.
Per determinare l’intersezione π ∩ π ′′ , si consideri invece il sistema
)
′ x − 2y − z = −1
Σ : .
2x − 4y − 2z = 5
Poiché ! "
′ ′ 1 −2 1 −1
(A , B ) =
2 −4 −2 5
si ha ρ(A′ ) = 1 e ρ(A′ , B ′ ) = 2, dunque Σ non ha soluzioni e i piani π e π ′′ sono paralleli,
di comune giacitura Sπ : x − 2y − z = 0.
Dette ⎛ ⎞ ⎛ ⎞
a1 b1 c1 a1 b1 c1 −d1
⎝
A = a2 b2 c2 ⎠ ⎝
e (A, B) = a2 b2 c2 −d2 ⎠
a b c a b c −d
le matrici associate a tale sistema, sono possibili i seguenti casi, tenuto conto del fatto che
le prime due righe di A e di (A, B) sono linearmente indipendenti in quanto corrispondono
all’equazione cartesiana di una retta:
Si noti che, nel primo caso, r ⊂ π, mentre nell’ultimo r è parallela a π; infatti le rispettive
giaciture sono
)
a1 x + b1 y + c1 z = 0
Sr : Sπ : ax + by + cz = 0.
a2 x + b2 y + c2 z = 0
155
Proviamo che Sr ⊂ Sπ . Per ipotesi, (a, b, c) = λ1 (a1 , b1 , c1 ) + λ2 (a2 , b2 , c2 ). Consideriamo
il punto P = (x0 , y0 , z0 ) ∈ Sr , cioè tale che ai x0 + bi y0 + ci z0 = 0, per i = 1, 2. Quindi
ax0 + by0 + cz0 = λ1 (a1 x0 + b1 y0 + c1 z0 ) + λ2 (a2 x0 + b2 y0 + c2 z0 ) = 0, cioè P ∈ Sπ .
2.5.1. Esempio. Vogliamo determinare la posizione reciproca della retta r e del piano π
di A3 , dove
)
x − 2y − z = −1
r: , π : 2x + y − 2z − 5 = 0.
x+y = 2
Consideriamo quindi la matrice associata al sistema costituito dalle tre equazioni prece-
denti:
⎛ ⎞ ⎛ ⎞
1 −2 −1 −1 1 −2 −1 −1
(A, B) = ⎝ 1 1 0 2 ⎠ −→ ⎝ 1 1 0 2 ⎠ = (A′ , B ′ ).
2 1 −2 5 0 5 0 7
Pertanto ρ(A) = 3 = ρ(A, B), quindi r e π sono incidenti nel punto (3/5, 7/5, −6/5)
soluzione del sistema A′ X = B ′ .
2.5.2. Esempio. Vogliamo determinare la posizione reciproca della retta r e del piano
πh di A3 , al variare di h in R, dove
)
x − 2y − z = −1
r: , πh : 2x + hy − 2z − 5 = 0.
x+y = 2
Consideriamo quindi la matrice associata al sistema costituito dalle tre equazioni prece-
denti: ⎛ ⎞
1 −2 −1 −1
(Ah , B) = ⎝ 1 1 0 2 ⎠.
2 h −2 5
Per calcolare il rango di Ah , basta osservare che esso è sicuramente almeno 2 e che ρ(Ah ) =
3 se e solo se det(Ah ) ̸= 0. Ma det(Ah ) = h + 4, dunque se h ̸= −4, ρ(Ah ) = 3 = ρ(Ah , B),
pertanto r e πh sono incidenti nel punto soluzione del sistema Ah X = B.
Se h = −4, allora ρ(A−4 ) = 2 e inoltre
⎛ ⎞ ⎛ ⎞
1 −2 −1 −1 1 −2 −1 −1
(A−4 , B) = ⎝ 1 1 0 2 ⎠ −→ ⎝ 1 1 0 2 ⎠
2 −4 −2 5 0 0 0 7
quindi ρ(A−4 , B) = 3, pertanto il sistema A−4 X = B non è risolubile; ciò significa che r e
π sono paralleli.
156
Sostituendo le coordinate del generico punto P = (3 + λ, −1 − λ, 5 + 2λ) di r nell’equazione
di π si ha
Dette
⎛ ⎞ ⎛ ⎞
a1 b1 c1 a1 b1 c1 −d1
⎜a b2 c2 ⎟ ⎜a b2 c2 −d2 ⎟
A = ⎝ 2′ ⎠ e (A, B) = ⎝ 2′ ⎠
a1 b′1 c′1 a1 b′1 c′1 −d′1
a′2 b′2 c′2 a′2 b′2 c′2 −d′2
Nel primo caso r ≡ r′ ; nel secondo le due rette sono incidenti. Vogliamo distinguere gli
ultimi due casi: nel terzo caso le righe R3 e R4 di A sono combinazione lineare di R1 e R2 ,
dunque i sistemi
) )
a 1 x + b1 y + c 1 z = 0 a′1 x + b′1 y + c′1 z = 0
a 2 x + b2 y + c 2 z = 0 a′2 x + b′2 y + c′2 z = 0
sono equivalenti, cioè Sr = Sr′ , quindi r ed r′ sono parallele. Nell’ultimo caso ciò non
accade: r ed r′ non hanno punti in comune e non sono parallele, cioè sono sghembe.
2.6.1. Esempio. Siano r ed r′ le due rette dello spazio affine, di equazioni cartesiane:
) )
x − y + 2z + 1 = 0 ′ y−z+2=0
r: r :
x + z−1=0 x+y+z =0
157
Per determinare la posizione reciproca di r e r′ basta ridurre per righe la matrice completa
del sistema associato a r ∩ r′ :
⎛ ⎞ ⎛ ⎞
1 −1 2 −1 1 −1 2 −1
⎜1 0 1 1 ⎟ ⎜0 1 −1 2 ⎟
(A, B) = ⎝ ⎠ −→ ⎝ ⎠ −→
0 1 −1 −2 0 1 −1 −2
1 1 1 0 0 2 −1 1
⎛ ⎞
1 −1 2 −1
⎜0 1 −1 2 ⎟ ′ ′
−→ ⎝ ⎠ = (A , B ).
0 0 0 −4
0 0 1 −3
158
XII - GEOMETRIA LINEARE AFFINE EUCLIDEA
1.1. Definizione. Lo spazio affine An (R) associato allo spazio euclideo E n si dice spazio
affine euclideo e si denota con En .
Poiché in uno spazio euclideo si può parlare di basi ortonormali e rispetto a tali basi
molti calcoli sono particolarmente semplici, introduciamo dei sistemi di riferimento che
si riconducono al concetto di base ortonormale. Si noti, inoltre, che se B è una base
ortonormale di E n , allora la matrice che ha per colonne i vettori di B, cioè M B,E , dove E
è la base canonica, è ortogonale per definizione (Cap. IX); in particolare det(M B,E ) = ±1.
1.2.1. Esempio. Sia r la retta di equazione (x, y) = (1, −2) + λ(1, −1). Per deter-
minare una equazione cartesiana di r possiamo operare nel modo consueto (eliminando il
parametro) oppure osservando che un vettore ortogonale ad r è, ad esempio, u = (1, 1);
dunque, posti A = (1, −2) ∈ r e v = (1, −1), si ha:
P = (x, y) ∈ r ⇐⇒ P − A ∈ L(v) ⇐⇒
⇐⇒ (P − A) · u = 0 ⇐⇒ (x − 1, y + 2) · (1, 1) = 0,
da cui
r: x + y + 1 = 0.
In generale, se r è la retta di E2 di equazione vettoriale P = A + λv ed u è un vettore
ortogonale ad r, cioè Sr⊥ = L(u) (ricordando che Sr denota la giacitura di r) si ha
P ∈ r ⇐⇒ (P − A) · u = 0.
159
1.3. Proposizione. Siano H ⊂ En un iperpiano e A un suo punto. Se u ∈ Rn è un
⊥
vettore non nullo ortogonale alla giacitura SH di H, cioè L(u) = SH , allora
P ∈H ⇐⇒ (P − A) · u = 0.
H: (P − A) · u = 0
SH = {(x1 , . . . , xn ) ∈ Rn | a1 x1 + · · · + an xn = 0} =
= {(x1 , . . . , xn ) ∈ Rn | (a1 , . . . , an ) · (x1 , . . . , xn ) = 0}
⊥
dunque SH = L((a1 , . . . , an )) e quindi l’equazione normale di H è
(P − A) · (a1 , . . . , an ) = 0
π: (x − 1, y, z + 1) · (1, 2, 3) = 0,
da cui
π: x + 2y + 3z + 2 = 0.
1.6.2. Esempio. Vogliamo determinare l’equazione normale di una retta del piano a
partire dalla sua equazione cartesiana. Sia ad esempio r : 2x − 3y + 3 = 0; poiché, da 1.6,
un vettore normale ad r è u = (2, −3) e (0, 1) è un suo punto, un’equazione normale di r è
160
Come abbiamo visto, l’equazione normale di un iperpiano è strettamente legata alla
sua equazione cartesiana. Non è quindi sorprendente il fatto che per dare in forma normale
una generica VLA che non sia un iperpiano si abbia bisogno di più relazioni. Illustriamo
questo fatto con un esempio.
2.1. Definizione. Siano L ed L′ due rette nel piano affine E2 oppure una retta ed un piano
nello spazio affine E3 . Diremo che L ed L′ sono ortogonali se SL = SL⊥′ o, equivalentemente,
se SL′ = SL⊥ ; cioè se le rispettive giaciture sono sottospazi tra loro ortogonali.
161
Vogliamo determinare l’equazione cartesiana del piano π ortogonale ad r e passante per il
punto A = (−1, −1, −1).
Conviene ricavare un’equazione parametrica di r: ponendo, ad esempio, y = λ, si ha
⎧
⎨ x = −λ
r: y=λ
⎩
z = 1 + 3λ
π: (x + 1, y + 1, z + 1) · (−1, 1, 3) = 0
dunque
π: x − y − 3z − 3 = 0.
Tale sistema ha una ed una sola soluzione in quanto la sua matrice dei coefficienti ha rango
3, poiché coincide con quella del sistema omogeneo
⎧
⎨ x − 2y + z = 0
Σ0 : x+y =0
⎩
x − y − 3z = 0
che ha per unica soluzione la soluzione nulla, essendo quello che descrive S ∩ S ⊥ .
162
Ad esempio, la retta r e il piano π di 2.1.3, ottenuti ponendo A = (1, −1, −2) e
B = (0, 0, −1), si intersecano in un solo punto P ottenuto come soluzione del sistema:
⎧
⎨ x − 2y + z = 1
x+y =0 .
⎩
x − y − 3z = 3
Si verifica che P = (6/11, −6/11, −7/11). Infine, se B = A = (1, −1, −2), allora (A + S) ∩
(A + S ⊥ ) = A, come si verifica risolvendo il sistema
⎧
⎨ x − 2y + z = 1
x+y =0 .
⎩
x − y − 3z = 8
La nozione di varietà ortogonali può essere estesa anche a V.L.A. non complementari.
Noi ci limiteremo a due soli semplici esempi: due rette in En o due piani in E3 .
163
dove d è un parametro reale. Chiaramente πd ⊃ r se e solo se le coordinate dei punti di r
soddisfano la precedente equazione per ogni valore di λ, cioè se
(1 + 3λ) − 2 · 2 + 3(1 − λ) + d = 0 ⇒ d = 0.
Pertanto π ha equazione x − 2y + 3z = 0.
π: 2x + y − z − 3 = 0 , π′ : x + y + 3z − 1 = 0.
Anche in questo caso è naturale dire che i due piani sono ortogonali.
Ricordando che Sπ⊥ = L((2, 1, −1)), si noti che
2.5. Osservazione. Si vede facilmente che due piani π, π ′ ⊂ E3 sono ortogonali se e solo
se Sπ⊥ ⊂ Sπ′ e, analogamente, se Sπ⊥′ ⊂ Sπ .
164
d) le rette ortogonali ad r contenute nel piano y − 2 = 0.
ottenuta per a = c = 0.
b) Poiché il vettore (0, 1, 0) non è parallelo a π, la retta l non può essere r e va quindi
ricercata tra le rette rα . Basta imporre dunque che il vettore (1, α, 3) appartenga alla
giacitura di π, cioè che sia ortogonale al vettore (1, −1, 1). Da cui (1, α, 3) · (1, −1, 1) =
4 − α = 0 e quindi α = 4. Pertanto
Richiedere che rα sia ortogonale ad s equivale a imporre che i vettori (1, α, 3) e (1, 2, 1)
siano ortogonali, cioè (1, α, 3) · (1, 2, 1) = 4 + 2α = 0, dunque α = −2; pertanto
165
Possiamo ricavare anche la loro equazione cartesiana eliminando λ:
)
3x − z − 3x0 + z0 = 0
, dove x0 , z0 ∈ R.
y=2
È ben noto che la distanza di due punti A e B nel piano è definita come la lunghezza
del segmento avente per estremi A e B, cioè il modulo del vettore B − A. Diamo dunque
in generale la seguente:
3.1.1. Esempio. Siano A = (1, 2, 0, −1) e B = (0, −1, 2, 2) due punti di E4 ; allora
√
d(A, B) =∥ (−1, −3, 2, 3) ∥= 23.
Vediamo ora come estendere la nozione di distanza tra due punti a quella di distanza
tra un punto e una varietà lineare. Si consideri ad esempio la retta r di equazione (x, y) =
(1, 1) + λ(1, −1) e il punto A = (0, 0) del piano E2 ; denotando con Pλ il generico punto di
r: Pλ = (1 + λ, 1 − λ) si ha .
d(A, Pλ ) = 2 + 2λ2 .
√
Si verifica che tale funzione di λ assume tutti i valori compresi tra√ 2 e +∞. E’ naturale
quindi chiamare distanza tra r ed A il minimo di tali valori, cioè 2.
166
3.3. Definizione. Siano L una varietà lineare e A un punto di En ; si definisce distanza
di A da L e si denota con d(A, L) il numero reale non negativo
e A + SL⊥ denota la varietà lineare affine di giacitura SL⊥ e passante per il punto A.
Quindi
(d(A, B))2 ≥∥ A − A0 ∥2 = (d(A, A0 ))2
per ogni B ∈ L, da cui la tesi. !
Dunque
A0 = r ∩ (A + Sr⊥ ) : 2(1 + 2λ) + (−1 + λ) + 4 = 0
167
da cui risulta λ = −1 e quindi A0 = (−1, −2). Pertanto
√
d(A, r) = d(A, A0 ) =∥ (2, 1) ∥= 5.
x − y + 2z + d = 0.
(1 + λ) − (2 − λ) + 2(1 + 2λ) − 2 = 0,
Si può determinare una formula che permette di calcolare in modo più rapido la
distanza di un punto da un iperpiano.
d(A, H) = |(A − B) · u|
A − B = (A − A0 ) + (A0 − B),
⊥
dove A0 è la proiezione ortogonale di A su H e quindi A − A0 ∈ SH = L(u). Si noti anche
che
A − A0
u=±
∥ A − A0 ∥
quindi
A − A0
|(A − A0 ) · u| = (A − A0 ) · =∥ A − A0 ∥ .
∥ A − A0 ∥
168
D’altra parte A0 − B è ortogonale a u, quindi:
|(A − B) · u| = |((A − A0 ) + (A0 − B)) · u| = |(A − A0 ) · u| =
=∥ A − A0 ∥= d(A, A0 ) = d(A, H).
!
⊥
Dimostrazione. Si ricordi che SH = L((a1 , . . . , an )) per 1.6. Sia ora B = (y1 , . . . , yn ) un
qualunque punto di H. Per 3.7
* *
* (a1 , . . . , an ) **
*
d(A, H) = |(A − B) · u| = *(α1 − y1 , . . . , αn − yn ) · . 2 *=
* a1 + · · · + a2n *
.
|a1 α1 + · · · + an αn − (a1 y1 + · · · + an yn )|
= .
a21 + · · · + a2n
La tesi segue dal fatto che a1 y1 + · · · + an yn = −b in quanto B ∈ H. !
r : ax + by + c = 0, r′ : ax + by + c′ = 0.
169
Da tale relazione e dalla definizione 3.3 si ha, per ogni A ∈ r, per ogni A′ ∈ r′ :
|c′ − c| |c′ − c|
d(A, A′ ) ≥ d(A, r′ ) = √ ⇒ d(r, r′ ) = √
a2 + b2 a2 + b2
allora
|2 − (−3)| √
d(r, r′ ) = √ = 5.
5
In modo analogo si prova una formula per la distanza tra due iperpiani paralleli:
H : a1 x1 + · · · + an xn + b = 0, H ′ : a1 x1 + · · · + an xn + b′ = 0,
π : x + 2y − z + 2 = 0, π ′ : x + 2y − z − 4 = 0.
Tuttavia due V.L.A. parallele non hanno necessariamente la stessa dimensione; vedi-
amo un primo risultato in un caso particolare:
d(r, π) = d(P, π)
170
dove P è un qualunque punto di r.
Poiché r e π sono paralleli, per determinare la loro distanza basta scegliere un punto P ∈ r
e calcolare d(P, π); ad esempio sia P = (1, 0, 0), quindi
5
d(r, π) = d(P, π) = √ .
6
Tale distanza si può determinare usando la precedente proposizione, cioè il fatto che
d(r, r′ ) = d(A, r′ ) = d(B, r) dove A è un qualunque punto di r e B è un qualunque
punto di r′ . Un metodo alternativo si basa sul fatto (facile da provare) che, se si fissa un
qualunque piano π ortogonale ad entrambe le rette, allora
171