Esplora E-book
Categorie
Esplora Audiolibri
Categorie
Esplora Riviste
Categorie
Esplora Documenti
Categorie
Versione 26.03.2011
1
I - STRUTTURE ALGEBRICHE ELEMENTARI
A × B = {(a, b) | a ∈ A, b ∈ B}.
1.1.1. Esempio. Sia A l’insieme i cui elementi sono i simboli ⋄, ⋆, •, cioè A = {⋄, ⋆, •}.
Allora il prodotto cartesiano di A per se stesso è dato da:
A2 = A × A = {(⋄, ⋄), (⋄, ⋆), (⋄, •), (⋆, ⋄), (⋆, ⋆), (⋆, •), (•, ⋄), (•, ⋆), (•, •)}.
2
N
4
0 1 2 3 4 5
N
Figura 1
nRm ⇔ m = n − 1,
1.4. Definizione. Sia A un insieme dotato di una relazione d’equivalenza R. Per ogni
a ∈ A, l’insieme {x ∈ A | xRa} si dice classe d’equivalenza di a e si denota con [a]. Ogni
elemento x di [a] si dice rappresentante della classe [a] (ovviamente una classe ha tanti
rappresentanti quanti sono i suoi elementi).
3
3) A = ∪a∈A [a] , e tale unione è disgiunta.
Dimostrazione. 1) Proviamo che [a] ⊆ [b]; sia x ∈ [a], allora xRa; d’altra parte, per ipotesi
aRb. Dunque, per la proprietà transitiva, xRb, cioè x ∈ [b]. Analogamente si verifica
l’altra inclusione [a] ⊇ [b].
2) Supponiamo per assurdo che x ∈ [a] ∩ [b]. Allora vale xRa e xRb; per la proprietà
simmetrica aRx e quindi, per la transitività, aRb, contro l’ipotesi.
3) è ovvio, usando la 2). !
2. Gruppi
f : G × G −→ G.
Il risultato f ((a, b)) dell’operazione tra due elementi a e b si denota con a ∗ b. In tal caso
si dice che G è chiuso rispetto all’operazione ∗.
Notazione. Per indicare che si considera la struttura algebrica data dall’insieme G con
l’operazione ∗, spesso si scrive (G, ∗).
2.1.1. Esempi. E’ ben noto che la somma ed il prodotto in N sono operazioni bina-
rie. Costruiamo un esempio di insieme “non numerico” dotato di operazione binaria. Si
consideri un triangolo equilatero ABC e sia R l’insieme delle sue rotazioni che portano a
sovrapporre vertici a vertici. Usiamo la seguente notazione: per designare la rotazione (di
2π/3) che porta il vertice A in B, B in C e C in A, scriveremo:
! "
A B C
.
B C A
4
Quindi gli elementi di R sono 3 ed esattamente:
! " ! " ! "
A B C A B C A B C
e= x= y= .
A B C B C A C A B
◦ e x y
e e x y
x x y e
y y e x
tabella 1
2.2. Osservazione. Le strutture (N, +), (N, ·) godono delle ben note proprietà:
a + (b + c) = (a + b) + c , per ogni a, b, c ∈ N.
a + b = b + a, per ogni a, b ∈ N.
Inoltre vi sono elementi dal comportamento speciale: 0 e 1; infatti
0 + a = a e 1a = a, per ogni a ∈ N.
a ∗ b = b ∗ a, per ogni a, b ∈ G.
2.4. Definizione. Sia (G, ∗) come sopra. Un elemento e di G è detto elemento neutro
rispetto a ∗ se
a ∗ e = e ∗ a = a, per ogni a ∈ G.
Se (G, ∗) ha elemento neutro e, scriveremo: (G, ∗, e).
Si osservi che l’elemento e della tabella 1 è elemento neutro di R. Inoltre, ancora dalla
tabella 1, si vede che per ogni elemento r ∈ R, esiste r′ ∈ R tale che r ◦ r′ = r′ ◦ r = e ,
infatti e ◦ e = e, x ◦ y = y ◦ x = e.
5
2.5. Definizione. Sia (G, ∗, e) come sopra e sia a un suo elemento. Un elemento a ∈ G
tale che
a ∗ a = a ∗ a = e.
si dice, a seconda dell’operazione ∗, inverso di a e si indica con a−1 (ad esempio se ∗ è un
prodotto); oppure opposto di a e si indica con −a (ad esempio se ∗ è una somma).
2.5.1. Esempi. Osserviamo che negli esempi precedenti ogni insieme con operazione
ammette un elemento neutro: (N, +, 0), (N, ·, 1), (R, ◦, e). Osserviamo che, in R, y è
l’inverso di x e x è l’inverso di y; mentre in (N, +, 0) e in (N, ·, 1) nessun elemento, eccetto
quello neutro, ha opposto (risp. inverso).
Come è ben noto, si può ampliare in modo naturale (N, +, 0) affinché ogni elemento
abbia opposto; l’insieme cosı̀ ottenuto è quello degli interi relativi che si denota con Z ed
è definito da Z = {±n | n ∈ N}.
6
3. Anelli e Campi
Vogliamo definire una nuova nozione per insiemi dotati di due operazioni che si com-
portano come la somma e il prodotto di Z.
3.1. Definizione. Sia (A, +, 0A , ·, 1A ) un insieme dotato di due operazioni binarie, dette
somma (denotata con +) e prodotto (denotato con ·), e di due elementi 0A e 1A , tali che :
a) (A, +, 0A ) è un gruppo commutativo ;
b) il prodotto è associativo;
c) 1A è elemento neutro rispetto al prodotto;
d) a · (b + c) = a · b + a · c , per ogni a, b, c ∈ A.
In tal caso A si dice anello. Se inoltre il prodotto è commutativo, A si dice anello commu-
tativo.
3.1.2. Esempio. Un altro esempio fondamentale di anello è dato da Z[X]. Con tale
simbolo si denota l’insieme dei polinomi in una variabile X a coefficienti in Z, cioè l’insieme
delle espressioni:
n
#
ai X i = an X n + an−1 X n−1 + . . . + a1 X + a0
i=0
7
3.3. Definizione. Se K è un anello commutativo tale che ogni elemento non nullo
ammette inverso moltiplicativo, allora K si dice campo.
Equivalentemente K è un campo se e solo se (K, +, 0K ) e (K ∗ , ·, 1K ) sono gruppi abeliani
e il prodotto è distributivo rispetto alla somma.
Da quanto visto prima, si deduce che Q è un campo. Altri esempi di campi sono
l’insieme R dei numeri reali e l’insieme C dei numeri complessi.
4.1. Definizione. Un’applicazione tra due strutture algebriche dello stesso tipo si dice
omomorfismo se preserva le operazioni definite nelle strutture medesime. Più precisamente:
i) se (G, +, 0G ) e (G′ , +, 0G′ ) sono due gruppi, un’applicazione f : G → G′ è un omo-
morfismo di gruppi se
f (x + y) = f (x) + f (y)
per ogni x, y ∈ G.
ii) se (A, +, 0A , ·, 1A ) e (B, +, 0B , ·, 1B ) sono due anelli, un’applicazione f : A → B è un
omomorfismo di anelli se
per ogni x, y ∈ A.
8
4.2. Proposizione. Siano (G, +, 0G ) e (G′ , +, 0G′ ) due gruppi e sia f : G → G′ un
omomorfismo di gruppi. Allora:
i) f (0G ) = 0G′ , cioè l’immagine dell’elemento neutro di G è l’elemento neutro di G′ ;
ii) per ogni g ∈ G si ha f (−g) = −f (g), cioè l’immagine dell’opposto di un elemento è
l’opposto dell’immagine dell’elemento stesso. !
nRm ⇔ n − m = 2q
per qualche intero q. E’ facile vedere che R è una relazione d’equivalenza; ovviamente le
classi di equivalenza sono due: una costituita da tutti gli interi pari e l’altra da tutti i
dispari. Pertanto l’insieme quoziente Z/R è costituito da queste due sole classi:
[0] = [2] = [4] = [−2] = . . . e [1] = [3] = [5] = [−1] = . . ..
9
Pertanto il più piccolo intero non negativo appartente a [n] è il resto r della sua divisione
per p. La classe d’equivalenza di 0 è costituita dagli interi n tali che nRp 0, cioè tali che
n = pq. Analogamente si vede che la classe di 1 è costituita dagli interi n che danno resto
1 dalla divisione per p, e cosı̀ via. Proseguendo si vede che la classe di p − 1 è costituita
dagli elementi che danno resto p − 1 dalla divisione per p. Ma la classe di p è uguale alla
classe di 0, poiché pRp 0. Dunque l’insieme quoziente è costituito da p classi distinte, dette
classi di resto modulo p, e precisamente
Notazione. Solitamente l’insieme quoziente Z/Rp si denota con uno dei seguenti simboli:
Z/pZ, Z/(p) o Zp ; inoltre se [n] = [m] in Zp si dice che n e m sono congrui modulo p e si
scrive n ≡ m (mod p).
5.0.1. Esempio. In Z3 , [7] = [1] , [29] = [2], [−14] = [1], poiché −14 = (−5)3 + 1.
Gli insiemi Zp “ereditano” la struttura algebrica di Z, cioè si può definire in essi una
somma e un prodotto naturali:
Verifichiamo che tali operazioni sono “ben definite”, cioè che non dipendono dalla scelta
dei rappresentanti. Siano [n] = [n′ ] e [m] = [m′ ]; vogliamo provare che [n + m] = [n′ + m′ ]
e che [nm] = [n′ m′ ]. Per ipotesi, esistono q1 e q2 tali che n − n′ = pq1 e m − m′ = pq2 .
Dunque (n + m) − (n′ + m′ ) = p(q1 + q2 ) e quindi [n + m] = [n′ + m′ ]. Poiché n = n′ + pq1
e m = m′ + pq2 , nm − n′ m′ = p(n′ q2 + m′ q1 + pq1 q2 ).
+ [0] [1]
[0] [0] [1]
[1] [1] [0]
tabella 2
· [0] [1]
[0] [0] [0]
[1] [0] [1]
tabella 3
10
5.1. Proposizione. Zp è un anello per ogni p ∈ N.
11
II - VETTORI GEOMETRICI E SISTEMI DI RIFERIMENTO
1. Vettori applicati
Il lettore avrà certamente familiarità col concetto di vettore, usato nei corsi di fisica
per individuare alcune grandezze (velocità, accelerazione, forza, ecc.).
Si ricordi che con il termine “vettore” o, più precisamente “vettore applicato”, si indica
un oggetto che è completamente individuato da una direzione, un verso, una lunghezza (o
modulo) e un punto di applicazione. Per fissare le notazioni, un vettore applicato verrà
denotato con B − A, ove A e B sono due punti dello spazio (a volte anche con il simbolo
AB); in tal caso la sua direzione è quella della retta per A e B, il suo verso è quello da A
a B, il suo modulo, denotato usualmente con ∥ B − A ∥ è la lunghezza del segmento AB
(rispetto ad una fissata unità di misura), ed A è il suo punto di applicazione.
Indichiamo con W 3 (rispettivamente W 2 ) l’insieme di tutti i vettori applicati nello
spazio (rispettivamente nel piano), cioè, indicato con S lo spazio ordinario, si ha:
W 3 = {B − A | A, B ∈ S}.
3
Si può considerare il sottoinsieme VA di W 3 costituito da tutti i vettori aventi lo stesso
punto di applicazione A:
3
VA = {B − A | B ∈ S}.
Si osservi che %
W3 = 3
VA .
A∈S
3
1.1. Osservazione. Fissato un punto O dello spazio, è evidente che VO = {B−O | B ∈ S}
3
è naturalmente in corrispondenza biunivoca con S, in quanto, ad ogni vettore B − O ∈ VO
resta associato l’estremo B, e viceversa.
3
E’ noto che in VO è definita una somma di vettori, mediante la “regola del parallelo-
gramma”. Più precisamente,
(A − O) + (B − O) = (C − O),
ove C è il quarto vertice del parallelogramma i cui altri tre vertici sono A, O, B.
B C
O A
Figura 2
12
Il vettore O − O si dice vettore nullo e si denoterà con 0 (osserviamo che 0 ha direzione e
verso indeterminati e modulo nullo).
3
E’ evidente che VO è chiuso rispetto alla somma di vettori; inoltre si ha la seguente:
3
1.2. Proposizione. (VO , +, 0) è un gruppo abeliano.
Dimostrazione. E’ chiaro che 0 è elemento neutro; per ogni vettore A − O, esiste il suo
opposto A′ − O , dove A′ è il punto simmetrico di A rispetto ad O.
O
A
A'
Figura 3
La proprietà commutativa segue direttamente dalla definizione di somma di vettori. Resta
da verificare la proprietà associativa di cui diamo una dimostrazione grafica. !
v 1 + v2
v1
O v2
v3 v2 + v3
Figura 4
Dalla fisica è ben noto che si possono considerare i multipli di vettori (ad esempio
considerando un oggetto che si muove a velocità doppia di un altro, ecc.).
3
Questo fatto si può interpretare nel gruppo VO definendo una seconda operazione che
3
coinvolge gli elementi di VO ed i numeri reali, che, in questo contesto, per differenziarli dai
vettori, vengono anche chiamati scalari (reali).
1.3. Definizione. Si dice prodotto di uno scalare λ ∈ R per un vettore A − O il vettore
B − O, in simboli:
B − O = λ(A − O),
tale che :
i) B, A, O sono allineati;
ii) B − O e A − O hanno lo stesso verso (e si dicono concordi) se λ > 0,
13
B − O e A − O hanno verso opposto (e si dicono discordi) se λ < 0;
iii) ∥ B − O ∥= |λ| ∥ A − O ∥.
B' C'
B C
A O A'
Figura 5
Poiché OA è parallelo a OA′ per definizione, anche BC è parallelo a B ′ C ′ ; inoltre OB è
parallelo a OB ′ , dunque gli angoli OBC e OB ′ C ′ sono uguali. Inoltre λ = OB ′ /OB =
OA′ /OA = B ′ C ′ /BC. Quindi i triangoli OBC e OB ′ C ′ sono simili. Da cui i vettori OC
e OC ′ sono paralleli e concordi e |OC ′ | = λ|OC|. Quindi OC ′ = λ(OC).
3) Si dimostra in modo analogo alla 4). !
3
Quanto precede mette in evidenza che VO , rispetto alle operazioni di somma e di
prodotto per uno scalare, ha una struttura più ricca di quella di gruppo abeliano. Tale
struttura prende il nome “naturale” di spazio vettoriale, nozione che verrà trattata in
detaglio nel Capitolo III.
14
2. Sistemi di riferimento
E’ ben noto il concetto di sistema di riferimento; riprendiamo brevemente i punti
fondamentali, utilizzando il linguaggio vettoriale.
2.1. Definizione. Data una retta r, un sistema di riferimento Λ su r è il dato di un
punto O ∈ r e di un vettore i = A − O, con A ∈ r e A ̸= O. Il punto O si dice origine del
sistema di riferimento, la lunghezza del segmento A − O è l’unità di misura di Λ e il verso
di i si dice orientamento di Λ.
Attraverso Λ si stabilisce una corrispondenza biunivoca tra i punti di r ed i numeri reali;
più precisamente, ad ogni punto P ∈ r si associa il numero reale x tale che P − O = xi.
Viceversa, dato x ∈ R, rimane individuato il punto P di r che è estremo del vettore xi,
qualora lo si intenda applicato in O.
Il numero x si dice ascissa del punto P e si scrive P = (x). Il sistema di riferimento
Λ si denoterà anche con (O; x) oppure con (O; i).
2.2. Definizione. Dato un piano α, un sistema di riferimento Π su α è il dato di un punto
O ∈ α e di due vettori non nulli i = A − O e j = B − O, con A, B ∈ α, ∥ A − O ∥=∥ B − O ∥
e tali che i si sovrappone a j ruotando di un angolo φ in senso antiorario, con 0 < φ < π.
Il punto O si dice origine del sistema di riferimento, la lunghezza del segmenti A − O
e OB − O è l’unità di misura di Π. La retta orientata passante per O e avente stessa
direzione e stesso verso di i si dice asse x o asse delle ascisse. Analogamente, si definisce
l’asse y o asse delle ordinate come la retta orientata individuata da j.
Analogamente a quanto visto in precedenza, attraverso Π si stabilisce una corrispon-
denza biunivoca tra i punti di α e le coppie di numeri reali; più precisamente, ad ogni
punto P ∈ α si associa la coppia ordinata (x, y) tale che P − O = xi + yj (regola del
parallelogramma). Viceversa, dato (x, y) ∈ R2 , rimane individuato il punto P di α che è
estremo del vettore xi + yj.
Tale corrispondenza è descritta dalla seguente figura
yj
P(x,y)
O i xi
Figura 6
I numeri x e y si dicono coordinate di P e, più precisamente x si dice ascissa e y si dice
ordinata del punto P ; scriveremo P = (x, y). I vettori i, j si dicono versori fondamentali,
dove la parola versore indica un vettore di modulo 1.
Il sistema di riferimento Π si denoterà anche con (O; x, y) oppure con (O; i, j).
15
2.3. Definizione. Un sistema di riferimento Π = (O; i, j) su un piano α si dice sistema
di riferimento cartesiano ortogonale se l’angolo tra i e j è di π/2.
In modo del tutto analogo si definisce un sistema di riferimento cartesiano (ortogonale)
Σ nello spazio S. Introduciamo dapprima la seguente nozione.
3
2.4. Definizione. Una terna ordinata di vettori applicati non complanari u, v, w ∈ VO
si dice destrorsa se, guardando il piano individuato da u e v (risp. v e w, risp. w e u)
dalla parte di w (risp. u, risp. v), u si sovrappone a v (risp. v si sovrappone a w, risp.
w si sovrappone a u) ruotando in senso antiorario di un angolo minore di π.
2.5. Definizione. Dato lo spazio S, un sistema di riferimento cartesiano Σ su S è il
dato di un punto O ∈ S e di tre vettori non nulli i = A − O, j = B − O e k = C − O
con A, B, C ∈ S, ∥ A − O ∥=∥ B − O ∥=∥ C − O ∥ e tali che i, j, k formano una terna
destrorsa.
In particolare Σ si dice sistema di riferimento cartesiano ortogonale se i, j, k sono a due a
due ortogonali.
Il punto O si dice origine del sistema di riferimento, la lunghezza del segmenti A − O,
OB e OC è l’unità di misura di Σ. La retta orientata passante per O e avente stessa
direzione e stesso verso di i si dice asse x o asse delle ascisse. Analogamente, si definiscono
l’asse y o asse delle ordinate e l’asse z o asse delle quote. In particolare useremo la
notazione P = (x, y, z), chiamando, rispettivamente, tali coordinate: ascissa, ordinata e
quota del punto P . Porremo, infine, Σ = (O; i, j, k) = (O; x, y, z).
I vettori i, j, k si dicono versori fondamentali.
zk
P(x,y,z)
k
O yj
j
i
xi
Figura 7
Come visto in precedenza, si stabilisce una corrispondenza biunivoca tra i punti di S
3
e le terne di numeri reali, attraverso VO ; più precisamente:
3
S ←→ VO ←→ R3 ,
e tali corrispondenze sono definite da
P ↔ P − O ↔ (x, y, z)
16
dove P − O = xi + yj + zk.
2.6. Definizione. Con le notazioni precedenti, se P = (x, y, z), quindi P −O = xi+yj+zk,
i numeri x, y, z si dicono componenti del vettore applicato P − O.
Notazione. In generale, useremo anche la notazione v per un vettore, v = P − O, ed
avremo quindi v = xi + yj + zk. Spesso è conveniente indicare le componenti di v con
vx , vy , vz , quindi
v = vx i + vy j + vz k.
In seguito, per semplificare la notazione, scriveremo
v = (vx , vy , vz ),
sottointendendo che tali componenti sono riferite al sistema di riferimento (O; i, j, k).
2.7. Osservazione. Mentre un vettore v è un oggetto geometrico invariante, le sue
componenti dipendono dal particolare sistema di riferimento fissato.
2.7.1. Esempi. 1) Il vettore nullo 0 = O − O ha componenti (0, 0, 0) in tutti i sistemi di
riferimento di origine O ed è l’unico vettore che gode di tale proprietà.
2) I versori fondamentali hanno le seguenti componenti:
e anche
λv = λvx i + λvy j + λvz k.
17
Dimostrazione. Poiché
3
Dall’osservazione precedente e dalla corrispondenza biunivoca VO ←→ R3 si definiscono in
modo naturale le seguenti operazioni in R3 :
2.11. Definizione. Siano (x1 , x2 , x3 ) e (y1 , y2 , y3 ) due elementi di R3 e sia λ ∈ R; allora
Nello studio della fisica, il lettore avrà già incontrato i concetti di prodotto scalare,
prodotto vettoriale e prodotto misto di vettori. In questo paragrafo riprendiamo breve-
mente tali operazioni.
3.1. Definizione. Siano v, w ∈ V 2 (risp. V 3 ) due vettori. Si dice prodotto scalare di v e
w e si indica con v · w il numero reale
v · w =∥ v ∥ ∥ w ∥ cos α
'
dove α = v w, 0 ≤ α ≤ π, è l’angolo formato da v e w.
Nel resto del paragrafo, considereremo per brevità soltanto vettori di V 3 , essendo la trat-
tazione di V 2 del tutto analoga.
18
3.2. Osservazione. Dalla definizione si ha chiaramente che, se v è il vettore nullo, allora
v · w = 0. Inoltre si hanno immediatamente le ulteriori proprietà:
i) se v e w sono due vettori non nulli, allora
v·w =0 ⇐⇒ cos α = 0 ⇐⇒ v ⊥ w.
w vw
Figura 8
Dimostrazione. a) Due casi sono possibili, a seconda che uw e vw siano concordi o discordi.
In figura 9 è rappresentato il primo caso. La dimostrazione è immediata, osservando che
OA′ = vw e A′ B ′ = uw .
B
u
A
v C
u
O w
vw A' uw B'
19
Figura 9
! α′′ = v(λw)
dove α′ = (λv)w, ! eα=v ' w.
Si noti che, se λ = 0, a = b = c = 0.
Se λ > 0, allora |λ| = λ e α = α′ = α′′ ; dunque, dalle proprietà commutativa e associativa
del prodotto in R, si ottiene a = b = c.
Infine, λ < 0, allora |λ| = −λ e α′ = α′′ = π − α e quindi cos α′ = cos α′′ == − cos α.
Pertanto, dalla commutatività e associatività del prodotto in R, si ottiene a = b = c.
iii) Supponiamo dapprima che u, v, w siano paralleli. Si possono presentare vari casi, a
seconda dei versi dei tre vettori. Ad esempio, se sono tutti concordi, si ha:
u · (v + w) =∥ u ∥ ∥ v + w ∥=∥ u ∥ (∥ v ∥ + ∥ w ∥) =
=∥ u ∥ ∥ v ∥ + ∥ u ∥ ∥ w ∥= u · v + u · w.
Se invece v e w sono concordi, ma discordi da u, si ha
u · (v + w) = − ∥ u ∥ ∥ v + w ∥= − ∥ u ∥ (∥ v ∥ + ∥ w ∥) =
= − ∥ u ∥ ∥ v ∥ − ∥ u ∥ ∥ w ∥= u · v + u · w.
20
Gli altri casi sono lasciati al lettore.
Proviamo ora il caso generale; da 3.4 si ha
u · (v + w) = u · (v + w)u = u · (vu + wu ) = u · vu + u · wu = u · v + u · w
dove la terza eguaglianza segue dalla dimostrazione appena vista per il caso particolare,
tenendo conto del fatto che u, vu , wu sono paralleli. !
v · w = vx wx + vy wy + vz wz .
v · w = (vx i + vy j + vz k) · (wx i + wy j + wz k) =
= vx wx i · i + vy wx j · i + vz wx k · i + +vx wy i · j + vy wy j · j + vz wy k · j+
+ vx wz i · k + vy wz j · k + vz wz k · k
3.6.1. Esempio. Vogliamo verificare che i vettori v = (2, 3, 1) e w = (1, −1, 1) sono
ortogonali. Per 3.2 i) basta provare che v · w = 0. D’altra parte, per 3.6 si ha: v · w =
2 · 1 + 3 · (−1) + 1 · 1 = 0.
3.7. Osservazione. Il prodotto scalare tra vettori dello spazio individua un’applicazione
σ : V 3 × V 3 −→ R
definita da σ(v, w) = v · w.
Analogamente il prodotto scalare tra vettori del piano individua una applicazione
σ : V 2 × V 2 −→ R
definita da σ(v, w) = v · w.
∥ v ∧ w ∥=∥ v ∥ ∥ w ∥ sin α
21
'
dove α = v w, 0 ≤ α ≤ π, è l’angolo formato da v e w; la sua direzione è ortogonale sia a
v che a w e il suo verso è tale che v, w, v ∧ w è una terna destrorsa.
Dimostrazione. La i) e la ii) sono di facile verifica. Più elaborata è invece la iii) di cui
omettiamo la dimostrazione. !
Dimostrazione. Del tutto analoga a quella di 3.6, tenendo conto di 3.10 e di 3.9 ii). !
3.12.1. Esempio. Vogliamo verificare che i vettori v = (1, 0, −1) e w = (−2, 0, 2) sono
paralleli. Per 3.9 i) basta verificare che v ∧ w = 0. D’altra parte, per 3.12 si ha:
!* * * * * *"
* 0 −1 * * −1 1 * * 1 0 *
v∧w = * * * , * * , * * = (0, 0, 0).
0 2 * * 2 −2 * * −2 0 *
22
3.14. Proposizione. Siano u = (ux , uy , uz ), v = (vx , vy , vz ) e w = (wx , wy , wz ) tre
vettori di V 3 ; allora
* * * * * *
* vy vz * * vz vx * * vx vy *
*
u · v ∧ w = ux * * u * * *
+ uz * *.
wy wz * y * w z wx * wx wy *
23
III - SPAZI VETTORIALI
1.1. Definizione. Sia V un insieme non vuoto. V si dice spazio vettoriale su R o R-spazio
vettoriale o spazio vettoriale reale, se:
a) in V è definita un’operazione di somma
s : V × V −→ V
p : R × V −→ V
2 3
1.1.1. Esempio. Come già visto nel Capitolo II, gli insiemi VO e VO dei vettori geometrici
del piano (rispettivamente dello spazio) applicati nell’origine sono spazi vettoriali reali.
1.1.2. Proposizione. L’insieme R3 delle terne di numeri reali munito delle operazioni
I. (x1 , x2 , x3 ) + (y1 , y2 , y3 ) = (x1 + y1 , x2 + y2 , x3 + y3 )
24
II. a(x1 , x2 , x3 ) = (ax1 , ax2 , ax3 )
ove a ∈ R, (x1 , x2 , x3 ), (y1 , y2 , y3 ) ∈ R3 .
è un R-spazio vettoriale.
Dimostrazione. Verifichiamo che valgono le proprietà elencate in 1.1.
Chiaramente a) e b) sono soddisfatte, in quanto R3 è chiuso rispetto alle operazione di
somma e prodotto per uno scalare reale.
c) 1) Esiste l’elemento neutro rispetto alla somma: 0R3 = (0, 0, 0), in quanto, per come è
definita la somma
(x1 , x2 , x3 ) + (0, 0, 0) = (x1 , x2 , x3 ).
Inoltre (R3 , +, 0R3 ) è un gruppo commutativo; valgono infatti:
- proprietà associativa:
25
Queste ultime verifiche vengono lasciate al lettore. !
Rn = {X = (x1 , . . . , xn ) | xi ∈ R}.
R[x] = {f (x) = a0 + a1 x + a2 x2 + · · · + an xn | ai ∈ R, n ∈ N}
26
grado dei polinomi addendi (per 4.12, Cap. 1), R[x]r è chiuso rispetto all’operazione A;
inoltre, poiché il grado di λf (x) è uguale al grado di f (x), per ogni λ ̸= 0, il sottoinsieme
R[x]r è chiuso rispetto all’operazione B. Si verifica facilmente che R[x]r è anch’esso un
R-spazio vettoriale.
1.3. Osservazione. Il lettore si sarà probabilmente accorto che, nel verificare che gli
insiemi Rn , R[X] e R[X]r sono R-spazi vettoriali, si utilizza essenzialmente la struttura
di campo di R. Cioè le proprietà delle operazioni definite in tali spazi si riconducono alle
corrispondenti proprietà delle operazioni in R.
27
per i); da cui la prima uguaglianza. Analogamente
da cui la seconda. !
1.6. Osservazione. Le proprietà i), ii), iii) si possono riassumere con la seguente legge
di annullamento del prodotto
kv = 0V ⇐⇒ k = 0R o v = 0V .
2. Sottospazi vettoriali
28
che se 0V ∈ W allora 0V è zero di W , infatti per ogni w ∈ W si ha 0V + w = w + 0V = w
poiché w ∈ V . Per ii), b, 0R w ∈ W , per ogni w ∈ W . D’altra parte, per 1.6, 0R w = 0V ;
dunque 0V ∈ W . Infine, se w ∈ W , sempre per 1.6, −w = (−1)w ∈ W . !
2.2.2. Esempio. Abbiamo già visto che R[x]r ⊆ R[x] sono R-spazi vettoriali rispetto alle
stesse operazioni; dunque R[x]r è sottospazio di R[x].
αw + α′ w′ = (αa + α′ a′ )v ∈ L(v)
per ogni α, α′ ∈ R, allora, per 2.2, iii), L(v) è un sottospazio vettoriale di V e si dice retta
vettoriale generata da v.
Dati due o più sottospazi vettoriali di un R-spazio vettoriale V , vediamo ora come sia
possibile, mediante opportune “operazioni”, costruirne altri.
2.4. Osservazione. L’unione di due sottospazi vettoriali non è, in generale, un sottospazio
vettoriale. Si considerino, ad esempio due rette vettoriali distinte, L(v) e L(v ′ ), di R2 . È
29
evidente che L(v) ∪ L(v ′ ) non è un sottospazio di R2 , in quanto non è chiuso rispetto alla
somma, come si può vedere dalla figura.
L(v')
v' v+v'
v L(v)
Figura 10
tenendo conto del fatto che W1 e W2 sono sottospazi, si ha aw1 +a′ w1′ ∈ W1 e aw2 +a′ w2′ ∈
W2 . Ne segue che W1 + W2 è un sottospazio vettoriale di V .
Inoltre W1 + W2 ⊇ (W1 ∪ W2 ), infatti se w1 ∈ W1 , allora w1 = w1 + 0V appartiene a
W1 + W2 ; analogamente si prova che W2 ⊂ W1 + W2 .
Sia ora Z un sottospazio di V contenente W1 ∪ W2 . Allora, per ogni w1 ∈ W1 e w2 ∈ W2
deve essere w1 + w2 ∈ Z. Da cui: Z ⊇ W1 + W2 . !
W1 + · · · + Wn = {v ∈ V | v = w1 + · · · + wn ; wi ∈ Wi , i = 1, . . . , n}
30
2.8. Definizione. Siano W1 , W2 due sottospazi di un R-spazio vettoriale V . La somma
W = W1 + W2 si dice diretta se ogni suo elemento v si scrive in modo unico nella forma
v = w1 + w2 con wi ∈ Wi , i = 1, 2. In tal caso scriveremo W = W1 ⊕ W2 .
3. Combinazioni lineari
3
Studiando VO , abbiamo visto come ogni vettore geometrico v si possa rappresentare
nella forma v = ai + bj + ck. Brevemente diremo che v è “combinazione lineare” di i, j, k.
Inoltre tale scrittura è unica; tale proprietà si esprime usualmente dicendo che i, j, k sono
“linearmente indipendenti”. In questo paragrafo cercheremo di estendere ad uno spazio
vettoriale qualunque i precedenti concetti.
v = λ1 v 1 + · · · + λn v n .
31
3.2. Teorema. L(v1 , . . . , vn ) è un sottospazio vettoriale di V , detto spazio generato da
v1 , . . . , vn .
2 3
3.2.1. Esempi. 1) È chiaro che VO = L(i, j); VO = L(i, j, k).
2) Siano v = (1, 0, −1) e w = (2, 0, 0) due vettori di R3 . Allora L(v, w) è contenuto
propriamente in R3 ; infatti, ad esempio, (0, 1, 0) ̸∈ L(v, w). Altrimenti, dovrebbero esistere
α, β ∈ R tali che
(0, 1, 0) = α(1, 0, −1) + β(2, 0, 0) = (α + 2β, 0, −α).
Eguagliando le componenti, si ottiene la relazione 1 = 0, che è palesemente falsa.
3.2.2. Esempio. Lo spazio vettoriale reale R[x] non è generato da un numero finito di
vettori. Si cominci osservando che R[x] è generato dall’insieme infinito {1, x, x2 , . . . , xi , . . .}.
Supponiamo ora che esistano f1 , . . . , fs , con fi ∈ R[x] tali che R[x] = L(f1 , . . . , fs ). Posto
di = deg(fi ) e d = max{d1 , . . . , ds }, allora ogni p(x) ∈ L(f1 , . . . , fs ) ha grado ≤ d. Quindi
non può essere R[x] = L(f1 , . . . , fs ), in quanto, ad esempio, xd+1 ̸∈ L(f1 , . . . , fs ).
3.4. Osservazione. Non è difficile convincersi del fatto seguente. Sia I un sottoinsieme
di V e sia v ∈ V . Allora
L({v} ∪ I) = L(I) ⇐⇒ v ∈ L(I).
32
3.5. Definizione. Dato un insieme I = {v1 , . . . , vn } di vettori di un R-spazio vettoriale
V , tali vettori si dicono linearmente indipendenti su R se il vettore nullo si ottiene come
loro combinazione lineare soltanto con coefficienti nulli, cioè
λ1 v1 + · · · + λn vn = 0V =⇒ λ1 = · · · = λn = 0R .
In tal caso l’insieme I si dice libero. Un insieme infinito I ⊆ V si dice libero se ogni suo
sottoinsieme finito è libero, nel senso definito sopra.
Viceversa, n vettori si dicono linearmente dipendenti se non sono linearmente indipendenti,
cioè se esistono n scalari (λ1 , . . . , λn ) ̸= (0, . . . , 0) tali che λ1 v1 + · · · + λn vn = 0V .
3
3.5.1. Esempio. Ovviamente i, j, k sono linearmente indipendenti in VO . Mentre i vettori
v1 = i+j, v2 = j−k e v3 = 2i−j+3k sono linearmente dipendenti; infatti 2v1 −3v2 −v3 = 0.
4. Basi
33
4.1. Teorema. Sia V un R-spazio vettoriale e v1 , . . . , vn ∈ V . Sono equivalenti i seguenti
fatti:
i) v1 , . . . , vn sono linearmente indipendenti;
ii) v1 ̸= 0V e vi non è combinazione lineare di v1 , . . . , vi−1 , per ogni i ≥ 2.
4.2. Teorema. (Metodo degli scarti successivi). Ogni insieme finito di generatori di
uno spazio vettoriale contiene un sistema libero di generatori.
4.4. Corollario. Ogni insieme finito di generatori di uno spazio vettoriale contiene (al-
meno) una base; quindi ogni spazio vettoriale finitamente generato ammette una base.
!
34
al secondo passo.
Dato che v2 = −2v1 , v2 ∈ L(v1 ) e quindi si elimina. Mentre v3 ̸∈ L(v1 ), dunque v3 non
si elimina. Passiamo a v4 : è chiaro che v4 ∈ L(v1 , v3 ) se e solo se esistono α, β ∈ R tali
che v4 = αv1 + βv3 , cioè (1, −1, 2) == (α + 2β, α, −α + β). Uguagliando le componenti, si
ricava α = −1, β = 1. Dunque v4 = −v1 + v3 ∈ L(v1 , v3 ); pertanto v4 si elimina.
Analogamente si verifica che v5 ̸∈ L(v1 , v3 ); pertanto la base richiesta è (v1 , v3 , v5 ).
Dimostrazione. Supponiamo che I sia libero e che esista un vettore v ∈ L(v1 , . . . , vn ) che
si possa scrivere in due modi:
v = λ1 v1 + · · · + λn vn = µ1 v1 + · · · + µn vn .
Allora (λ1 − µ1 )v1 + · · · + (λn − µn )vn = 0. Dal fatto che v1 , . . . , vn sono linearmente
indipendenti segue che tutti i coefficienti si devono annullare, ovvero
λ1 − µ 1 = · · · = λn − µ n = 0
v = (λ1 , . . . , λn )I .
4.7. Osservazione. Si noti che gli insiemi liberi e i sistemi di generatori non sono insiemi
ordinati, mentre le basi lo sono. In seguito il lettore si renderà conto di questa scelta,
dovuta al fatto che spesso conviene lavorare con le componenti di un vettore rispetto ad
una base, piuttosto che col vettore stesso. Per tale scelta, le componenti di un vettore
rispetto ad una base sono n-uple ordinate di scalari. Ad esempio se I = (v1 , v2 ) è una base
di V , allora anche J = (v2 , v1 ) è una base di V . Si osservi che I e J sono uguali come
sistemi di generatori, ma distinti come basi.
35
4.7.1. Esempio. Poste E = (i, j) e E ′ = (j, i) due basi di VO
2
, il vettore v = 2i + 3j ha
componenti diverse rispetto alle due basi:
4.7.2. Esempio. Si possono presentare casi “curiosi” di vettori che non solo si rapp-
resentano con componenti diverse, ma addirittura con un numero diverso di componenti,
a seconda dello spazio in cui vengono considerati. Ad esempio il vettore v = 2i + 3j ha
2
componenti (2, 3)E , rispetto alla base E = (i, j) di VO , mentre ha componenti (2, 3, 0)F ,
3
rispetto alla base F = (i, j, k) di VO ; infine ha componente (1)V , rispetto alla base V = (v)
dello spazio vettoriale L(v).
(x1 , . . . , xn ) = x1 e1 + · · · + xn en .
b1 = (1, 0, . . . , 0)
c1 = (i, 0, . . . , 0)
...
bn = (0, 0, . . . , 1)
cn = (0, 0, . . . , i)
36
4.7.5. Esempio. Lo spazio vettoriale reale R[x]r ha una base naturale, costituita dai
monomi di grado ≤ r: (1, x, x2 , . . . , xr ). Infatti ogni polinomio p(x) ∈ R[x]r è della forma
(unicamente determinata):
p(x) = a0 + a1 x + a2 x2 + · · · ar xr
con ai ∈ R.
3
4.8. Osservazione. Abbiamo visto nel Cap.2 come le operazioni tra vettori di VO possono
essere descritte in termini di componenti. Tale situazione si generalizza come segue.
Sia I = (v1 , . . . , vn ) una base di V . Siano v, w ∈ V e a ∈ R; con la notazione precedente
siano v = (λ1 , . . . , λn )I e w = (µ1 , . . . , µn )I . Calcoliamo le componenti, rispetto ad I, di
v + w e di av.
v + w = (λ1 v1 + · · · + λn vn ) + (µ1 v1 + · · · + µn vn ) =
= (λ1 + µ1 )v1 + · · · + (λn + µn )vn .
Dunque
v + w = (λ1 + µ1 , . . . , λn + µn )I .
Inoltre
av = a(λ1 v1 + · · · + λn vn ) = (aλ1 )v1 + · · · + (aλn )vn .
Dunque
av = (aλ1 , . . . , aλn )I .
Pertanto le componenti del vettore somma di due vettori sono la somma delle componenti
corrispondenti degli addendi; le componenti del vettore prodotto di uno scalare per un
vettore dato si comportano nello stesso modo. Infine, dalle proprietà precedenti di somma
e prodotto, si ha che, se z = av + bw e, rispetto alla base I, z = (ξ1 , . . . , ξn )I , allora
o, equivalentemente
ξi = aλi + bµi
per ogni i = 1, . . . , n.
Quest’ultimo fatto si generalizza immediatamente con la seguente
37
cioè la i-esima componente di una combinazione lineare di vettori è data dalla combinazione
lineare (con i medesimi coefficienti) delle i-esime componenti dei vettori considerati. !
Vediamo infine come un insieme libero possa essere completato ad una base.
4.13. Teorema. Sia V un R-spazio vettoriale avente una base di n elementi. Allora:
i) ogni insieme libero di V è finito ed ha al più n elementi;
ii) ogni base di V ha n elementi;
iii) ogni sistema di generatori di V ha almeno n elementi. !
5. Dimensione
38
3
Lo spazio vettoriale VO ha, intuitivamente, “dimensione” 3, in quanto è in corrispon-
denza biunivoca con i punti dello spazio (vedi Cap.2). D’altra parte abbiamo visto che
3
(i, j, k) sono una base di VO e, dal teorema 4.13, ogni altra base è costituita da 3 ele-
menti; quindi il numero di elementi di una base coincide col numero che intuitivamente
rappresenta la dimensione.
Siamo quindi indotti ad introdurre il seguente concetto:
5.1. Definizione. Se esiste un intero positivo n tale che lo spazio vettoriale reale V
ammetta una base di n elementi, diremo che V ha dimensione n e scriveremo dimR (V ) =
n o più semplicemente dim(V ) = n. Se invece V non è finitamente generato, si pone
dim(V ) = ∞. Infine se V = {0V } poniamo dim(V ) = 0.
È evidente che, per il teorema 4.13, tale definizione ha senso, in quanto il numero
di vettori costituenti una qualunque base è costante, si tratta cioè di un invariante dello
spazio vettoriale.
39
Proviamo che I = (v1 , . . . , vp , u1 , . . . , ur−p , w1 , . . . , ws−p ) è una base dello spazio vettoriale
U + W . Poiché ogni vettore di U + W è della forma u + w, con u ∈ U e w ∈ W e
poiché u si scrive come combinazione lineare di v1 , . . . , vp , u1 , . . . , ur−p e w si scrive come
combinazione lineare di v1 , . . . , vp , w1 , . . . , ws−p , ovviamente I genera U + W .
Sia ora
α1 v1 + · · · + αp vp + β1 u1 + · · · + βr−p ur−p + γ1 w1 + · · · + γs−p ws−p = 0V .
$p $r−p $s−p
Per brevità poniamo v = i=1 αi vi , u = j=1 βj uj e w = k=1 γk wk .
Dunque l’uguaglianza precedente diventa
v + u + w = 0V , con v ∈ U ∩ W, u ∈ U, w ∈ W.
Visto che v, u ∈ U , allora w = −v − u ∈ U ; dunque w ∈ (U ∩ W ). Ciò implica che
w = γ1 w1 + · · · + γs−p ws−p = λ1 v1 + · · · + λp vp
per opportuni scalari λi ; ma {v1 , . . . , vp , w1 , . . . , ws−p } è un insieme libero, quindi tutti i
γk sono nulli. Basta dunque provare che da
α1 v1 + · · · + αp vp + β1 u1 + · · · + βr−p ur−p = 0V
segue che tutti i coefficienti αi e βj sono nulli; ma ciò è vero in quanto (v1 , . . . , vp , u1 , . . . , ur−p )
è una base di U .
Pertanto I è un insieme libero. !
Più in generale:
40
IV - SPAZI EUCLIDEI
3
È ben noto che in VO si possono considerare strutture più ricche di quella di spazio
vettoriale; si pensi ad esempio alle operazioni di prodotto scalare e prodotto vettoriale di
due vettori.
Aggiungendo, ad esempio, alla struttura di R-spazio vettoriale di VO 3
il prodotto scalare
di vettori si introducono essenzialmente i concetti di ortogonalità di vettori e distanza tra
3
punti; cosı̀ facendo si fornisce a VO la struttura classica usata nella geometria euclidea.
In questo capitolo estenderemo ad un R-spazio vettoriale qualunque la struttura di
3
VO pensato come R-spazio vettoriale dotato di prodotto scalare. Vedremo inoltre come in
tali spazi si possano definire delle basi “speciali” (quelle ortonormali).
3 ∼ 3
3
1.1. Esempio. Il prodotto scalare usuale in VO , tenuto conto dell’isomorfismo VO =R ,
induce naturalmente un’applicazione
· : R3 × R3 −→ R.
definita da:
(x1 , x2 , x3 ) · (y1 , y2 , y3 ) = x1 y1 + x2 y2 + x3 y3 .
Si verificano le seguenti proprietà, per ogni (x1 , x2 , x3 ), (y1 , y2 , y3 ) ∈ R3 e a, b ∈ R:
(x1 , x2 , x3 ) · (y1 , y2 , y3 ) = x1 y1 + x2 y2 + x3 y3
i)
= y1 x1 + y2 x2 + y3 x3 = (y1 , y2 , y3 ) · (x1 , x2 , x3 )
· : V × V −→ R
41
denotata da (v, w) .→ v · w tale che, per ogni v, w, v1 , v2 ∈ V e per ogni a1 , a2 ∈ R si ha:
i) v · w = w · v;
ii) (a1 v1 + a2 v2 ) · w = a1 (v1 · w) + a2 (v2 · w);
iii) v · v ≥ 0;
iv) v · v = 0 ⇔ v = 0V .
In tal caso utilizzeremo la notazione (V, ·), intendendo che V è un R-spazio vettoriale
dotato di prodotto scalare e diremo che (V, ·) è uno spazio euclideo.
Dagli assiomi i) e ii) si deduce che i prodotti scalari sono forme bilineari simmetriche: la
linearità sul secondo vettore è assicurata dalla linearità sul primo vettore e dalla simmetria.
3
1.2.1. Esempio. E’ ovvio che il prodotto scalare definito in VO è un prodotto scalare nel
senso di 1.2. Analogamente il’ applicazione dell’ Esempio 1.1. è un prodotto scalare per lo
spazio R3 . Tale prodotto scalare in R3 non è l’unico come si vede dall’esempio seguente.
Infatti, poiché p è bilineare simmetrica (come si verifica facilmente) soddisfa alle proprietà
i) e ii) della Definizione 1.2. Resta da provare che p(v, v) ≥ 0 ed è nullo se e solo se v = 0.
Ciò vale in quanto p(v, v) = 2vx2 + 3vy2 + vz2 , dove v = (vx , vy , vz ).
· : Rn × Rn −→ R
definito da
(x1 , . . . , xn ) · (y1 , . . . , yn ) = x1 y1 + · · · + xn yn .
Gli assiomi di prodotto scalare sono di facile verifica:
i) (x1 , . . . , xn ) · (y1 , . . . , yn ) = x1 y1 + · · · + xn yn = y1 x1 + · · · + yn xn = (y1 , . . . , yn ) ·
(x1 , . . . , xn );
ii) è lasciata al lettore; $n
iii), iv) (x1 , . . . , xn ) · (x1 , . . . , xn ) = i=1 x2i ≥ 0.
1.3. Definizione. Il precedente si dice prodotto scalare canonico e (Rn , ·) si dice spazio
euclideo E n .
∥ − ∥: V −→ R
42
definita da √
∥ v ∥= v·v
si dice norma; il numero reale ∥ v ∥ si dice norma di v, per ogni v ∈ V .
Si hanno immediatamente le proprietà:
.
In particolare in E 3 si ha ∥ (x1 , x2 , x3 ) ∥= x21 + x22 + x23 .
1.6. Teorema. (Disuguaglianza di Schwarz). Sia (V, ·) uno spazio euclideo e siano v, w ∈
V . Allora
(v · w)2 ≤ ∥ v ∥2 ∥ w ∥2 .
1.7. Teorema. (Disuguaglianza triangolare o di Minkowski). Sia (V, ·) uno spazio euclideo
e siano v, w ∈ V . Allora
∥v+w ∥≤∥v ∥+∥w ∥.
∥ v + w ∥2 = (v + w) · (v + w) =∥ v ∥2 +2v · w+ ∥ w ∥2 .
43
D’altra parte
(∥ v ∥ + ∥ w ∥)2 =∥ v ∥2 +2 ∥ v ∥ ∥ w ∥ + ∥ w ∥2 .
Quindi basta provare che
v · w ≤∥ v ∥ ∥ w ∥ .
Dalla disuguaglianza di Schwarz si ha
|v · w| ≤∥ v ∥ ∥ w ∥,
da cui la tesi. !
1.8. Definizione. Sia (V, ·) uno spazio euclideo e siano v, w ∈ V ; v e w si dicono ortogonali
se v · w = 0.
Dimostrazione. Per ipotesi v · wi = 0 per ogni i; dunque per la bilinearità del prodotto
scalare, per ogni scelta di scalari λ1 , . . . , λs , si ha
v · (λ1 w1 + . . . + λs ws ) = λ1 (v · w1 ) + . . . + λs (v · ws ) = 0.
λ1 v 1 + . . . + λs v s = 0 V .
1.11. Definizione. Sia (V, ·) uno spazio euclideo e sia W ⊆ V un sottospazio vettoriale.
Si dice ortogonale di W l’insieme:
W ⊥ = {v ∈ V | v · w = 0, ∀w ∈ W }.
44
per ogni w ∈ W ; pertanto λ1 v1 + λ2 v2 ∈ W ⊥ . !
W ⊥ = {v ∈ V | v · wi = 0, ∀i = 1, . . . , s}.
45
In uno spazio euclideo, avendo introdotto i concetti di ortogonalità e norma, si può
richiedere ad una base di verificare le analoghe proprietà geometriche della terna fonda-
3
mentale (la base) di VO , ovvero essere di norma 1 e mutuamente ortogonali.
3
E’ chiaro che la base (i, j, k) di VO e la base canonica di Rn sono basi ortonormali.
v = (v · e1 )e1 + · · · + (v · en )en .
Infatti, se
v = a 1 e1 + · · · + a n en
basta considerare i prodotti scalari di v con i vettori della base E:
v · e1 = a 1 , ... , v · en = a n .
Si osservi che una base ortonormale gioca un ruolo fondamentale in uno spazio eu-
clideo, infatti attraverso di essa il prodotto scalare assume la stessa forma del prodotto
scalare canonico in E n .
v · w = a1 b1 + · · · + an bn .
Dimostrazione. Dalla bilinearità del prodotto scalare e dal fatto che ei · ej = δij . !
46
Il seguente metodo non solo permette il calcolo di una base ortonormale negli es-
empi, ma prova anche, in generale, l’esistenza di una tale base. Esso prende il nome di
procedimento di ortonormalizzazione di Gram–Schmidt.
1.21. Metodo di Gram–Schmidt. Sia B = (v1 , . . . , vn ) una base di uno spazio euclideo
(V, ·). Posti
v1
e1 = ,
∥ v1 ∥
v2 − (v2 · e1 )e1
e2 = ,
∥ v2 − (v2 · e1 )e1 ∥
···
$n−1
vn − i=1 (vn · ei )ei
en = $n−1 ,
∥ vn − i=1 (vn · ei )ei ∥
vogliamo dimostrare che e1 , . . . , en costituiscono una base ortonormale.
Chiaramente e1 , . . . , en hanno norma 1.
Verificheremo che e1 , . . . , en sono a due a due ortogonali per induzione; cioè supporremo
che e1 , . . . , eh siano a due a due ortogonali e proveremo allora che anche e1 , . . . , eh+1 lo
sono. Per l’ipotesi induttiva, basta provare che eh+1 è ortogonale a e1 , . . . , eh . Sia dunque
k un intero tale che 1 ≤ k ≤ h, allora
$h
vh+1 − i=1 (vh+1 · ei )ei
eh+1 · ek = $h · ek =
∥ vh+1 − i=1 (v h+1 · e i )e i ∥
$h
vh+1 · ek − i=1 ((vh+1 · ei )(ei · ek ))
= $h =
∥ vh+1 − i=1 (vh+1 · ei )ei ∥
vh+1 · ek − vh+1 · ek
= $h =0
∥ vh+1 − i=1 (vh+1 · ei )ei ∥
dove l’ultima uguaglianza segue dal fatto che ei · ek = 0 per l’ipotesi induttiva.
Inoltre per 1.16 sono linearmente indipendenti e pertanto costituiscono una base ortonor-
male di V .
1.21.1. Esempio. Sia V = L(v1 , v2 ) ⊂ R4 , dove v1 = (1, 1, 0, 0), v2 = (0, 2, 1, 1); vogliamo
determinare una base ortonormale di V con il metodo di Gram–Schmidt.
! "
v1 1 1
e1 = = √ , √ , 0, 0 ;
∥ v1 ∥ 2 2
47
Quindi ! "
1 1 1 1
e2 = − , , , .
2 2 2 2
1.22. Teorema. Sia (V, ·) uno spazio euclideo. Allora V ha una base ortonormale.
Dimostrazione. Poiché V ha dimensione finita, ammette una base che basta ortonormaliz-
zare con Gram–Schmidt. !
1.23. Teorema. Sia (V, ·) uno spazio euclideo e sia {e1 , . . . , er } un insieme ortonor-
male di vettori di V ; allora si può completare tale insieme ad una base ortonormale
(e1 , . . . , er , er+1 , . . . , en ) di V .
Dimostrazione. Per il teorema di completamento ad una base (vedi 4.11. Capitolo III), si
completi l’insieme libero {e1 , . . . , er } ad una base
B = (e1 , . . . , er , vr+1 , . . . , vn )
1.24. Corollario. Sia (V, ·) uno spazio euclideo di dimensione n e sia W un sottospazio
vettoriale di V . Allora:
i) dim(W ) + dim(W ⊥ ) = n;
ii) V = W ⊕ W ⊥ ;
iii) (W ⊥ )⊥ = W .
dim(W ⊥ ) + dim((W ⊥ )⊥ ) = n
48
V - MATRICI
1. Concetti fondamentali
Spesso accade che si debbano esaminare insiemi finiti di vettori (generatori di un sot-
tospazio vettoriale, basi, ecc.); è conveniente rappresentare tali insiemi in forma compatta.
Ciò risulta particolarmente semplice se i vettori considerati sono elementi di Rn . In tal
caso l’idea, molto naturale, è quella di disporre le componenti dei vettori stessi in una
opportuna tabella, che prende il nome di “matrice”. Le matrici saranno loro stesse oggetto
di studio e sono uno strumento fondamentale nell’algebra lineare (sistemi lineari e appli-
cazioni lineari, ad esempio), ma anche in geometra (intersezioni di rette e piani, coniche e
quadriche, ad esempio).
Come per gli spazi vettoriali le matrici possono essere date su qualsiasi campo K. Noi
la daremo per il caso K = R (campo dei numeri reali). Il lettore avvertito può facilmente
astrarre la definizione al caso generale.
In tal caso si dirà che M è una matrice a m righe ed n colonne (o brevemente di tipo
m × n) e si denoterà anche con M = (aij ), ove aij è l’elemento appartenente all’i-esima
riga e alla j-esima colonna.
49
Gli elementi in grassetto della seguente matrice formano la sua diagonale:
⎛ ⎞
1 2 2
A = ⎝ −1 0 3 ⎠ .
2 4 7
Si possono definire in modo naturale le seguenti operazioni in Rm,n : per ogni A = (aij ),
B = (bij ) ∈ Rm,n e per ogni λ ∈ R, si definisce
"! ! "
1 2 1 −1
1.2.1. Esempio. Siano A = eB= due matrici di R2,2 . Si verifica
1 −1 1 0
che ! " ! " ! "
1 2 1 −1 2 1
A+B = + = .
1 −1 1 0 2 −1
Dimostrazione. Lasciamo al lettore la verifica del fatto che Rm,n è un R-spazio vettoriale,
osservando che lo zero di Rm,n è dato dalla matrice i cui elementi sono tutti uguali a 0R ,
50
detta matrice nulla.
Per provare che dim(Rm,n ) = mn, si considerino le seguenti matrici:
)
(hk) (hk) 1, se (i, j) = (h, k) ;
Ehk = (eij ) , dove eij =
0, se (i, j) ̸= (h, k) .
In altre parole Ehk è la matrice costituita da tutti zeri, eccetto l’elemento di posto hk, che
è uguale a 1.
Si verifica facilmente che {Ehk |1 ≤ h ≤ m, 1 ≤ k ≤ n} è una base per Rm,n . !
1.4. Definizione. Date due matrici A = (aij ) ∈ Rm,n , B = (bjk ) ∈ Rn,p si definisce
prodotto di A e B la matrice
n
#
m,p
C = (cik ) = AB ∈ R , ove cik = RiA · CkB = aij bjk ,
j=1
1.5. Osservazione. Chiaramente il prodotto AB, chiamato anche prodotto righe per
colonne, è definito solo se il numero delle colonne di A è uguale al numero delle righe di
B, cioè se e solo se A è di tipo m × n e B è di tipo n × p.
51
1.7. Proposizione. Il prodotto di matrici è associativo e distributivo rispetto alla somma,
ovvero
i) A(BC) = (AB)C, ∀ A ∈ Rm,n , B ∈ Rn,p , C = (ckj ) ∈ Rp,q ;
ii) A(B + C) = AB + AC, ∀ A ∈ Rm,n , B, C ∈ Rn,p ;
iii) λ(AB) = (λA)B = A(λB) , ∀ A ∈ Rm,n , B ∈ Rn,p , λ ∈ R .
p p
6 n 7 p #
n
# # # #
dik ckj = aih bhk ckj = (aih bhk ckj )
k=1 k=1 h=1 k=1 h=1
con l’ultima uguaglianza che discende dalla distributività del prodotto rispetto alla somma
(in R).
D’altro canto, l’elemento di posto ij di A(BC) è
n n
6 p
7 p
n #
# # # #
aih ehj = aih bhk ckj = (aih bhk ckj ),
h=1 h=1 k=1 h=1 k=1
In altre parole gli elementi di In sono tutti nulli, eccetto quelli della diagonale, che sono
uguali a 1.
52
1.9. Osservazione. Si verifica facilmente che, se A ∈ Rm,n , allora
AIn = A e Im A = A.
1.10. Proposizione. L’insieme Rn,n delle matrici quadrate di ordine n, con le operazioni
di somma e prodotto sopra definite, è un anello (non commutativo).
1.11. Definizione. La matrice A ∈ Rn,n si dice invertibile se esiste B ∈ Rn,n tale che
AB = BA = In . In tal caso la matrice B si denota con A−1 e si dice inversa di A.
Nell’anello Rn,n delle matrici quadrate di ordine n, non tutti gli elementi hanno inverso
moltiplicativo. Ad esempio la matrice
! "
1 1
A= ∈ R2,2
0 1
non ha soluzione.
53
AA−1 = In . Dunque (AB)−1 = B −1 A−1 .
E’ chiaro che In ∈ GL(n, R), in quanto In−1 = In . Inoltre In è l’elemento neutro di
GL(n, R).
Infine, se A ∈ GL(n, R), allora A−1 ∈ GL(n, R); infatti l’inversa di A−1 è A. !
Si noti che GL(n, R) non è commutativo: ad esempio si può verificare che le matrici
A e B dell’osservazione 1.6 sono invertibili.
In seguito vedremo come sia utile al fine di semplificare alcune dimostrazioni associare
ad una matrice A una matrice da essa ottenuta scambiando le righe con le colonne. Più
precisamente:
t
(A−1 ) t A = t (AA−1 ) = t (In ) = In .
54
2.1. Definizione. Sia A = (aij ) ∈ Rm,n . Abbiamo visto che le m righe di A:
2.2. Osservazione. E’ evidente che lo spazio delle righe di una matrice A è uguale allo
spazio delle colonne di t A e viceversa.
55
Dunque C è generato dalle r colonne
⎛ ⎞ ⎛ ⎞
1 0
⎜ 0 ⎟ ⎜ 0 ⎟
⎜ . ⎟ ⎜ . ⎟
⎜ .. ⎟ ⎜ .. ⎟
⎜ ⎟ ⎜ ⎟
⎜ 0 ⎟ ⎜ 1 ⎟
⎜ ⎟ , · · · , ⎜ ⎟.
⎜ λr+1 ⎟ ⎜ λr+1 ⎟
⎜ 1 ⎟ ⎜ r ⎟
⎜ . ⎟ ⎜ . ⎟
⎝ .. ⎠ ⎝ .. ⎠
λm
1 λm
r
pertanto dim(C) ≤ r.
L’altra disuguaglianza dim(C) ≥ dim(R) si dimostra in modo del tutto analogo, scam-
biando le righe con le colonne e quindi si ha la tesi. !
2.4. Definizione. Data una matrice A ∈ Rm,n , si dice rango di A e si indica con ρ(A) il
numero dim(R) = dim(C), cioè la dimensione dello spazio delle sue righe (coincidente con
la dimensione dello spazio delle sue colonne).
Dimostrazione. Evidente dal fatto che ρ(A) è la dimensione dello spazio delle righe di A, il
quale coincide con lo spazio delle colonne di t A; tale spazio ha dimensione uguale a ρ(t A)
per definizione. !
E’ evidente che ρ(A) ≤ min(m, n). D’altra parte abbiamo la definizione seguente.
56
⎛ ⎞
1 1 1 1 1
⎜1 2 1 1⎟2
2.7.1. Esempio. Sia A = ⎝ ⎠; la sottomatrice di A ottenuta intersecando
1 2 1 1 2
1 1 1 1 1 ! "
2 2
la seconda e la quarta colonna con la seconda e la terza riga è B = .
2 2
2.10. Osservazioni. Aggiungendo righe e colonne nulle ad una matrice, il rango non
cambia. Inoltre, date le matrici
⎛ ⎞ ⎛ ⎞
R1 RΠ(1)
⎜ R2 ⎟ ⎜ RΠ(2) ⎟
⎜ ⎟ ⎜ ⎟
A = ⎝ .. ⎠ e B = ⎜ . ⎟,
. ⎝ . ⎠.
Rm RΠ(m)
2.11. Definizione. Una matrice A = (aij ) ∈ Rn,n si dice diagonale se aij = 0 per i ̸= j.
57
Ad esempio la matrice
⎛ ⎞
1 0 0 0
⎜0 2 0 0 ⎟
A=⎝ ⎠
0 0 0 0
0 0 0 −3
è diagonale.
Si osservi che il rango di una matrice diagonale è uguale al numero delle righe (o
delle colonne) non nulle, poiché i vettori riga non nulli sono multipli di vettori della base
canonica di Rn e quindi indipendenti. Infatti, nell’esempio precedente si ha R1 = e1 ,
R2 = 2e2 , R3 = 0, R4 = −3e4 , quindi R = L(e1 , e2 , e4 ), da cui ρ(A) = 3.
Una classe più ampia di matrici per le quali è ancora semplice calcolare il rango è la
seguente:
2.12. Definizione. Sia A = (aij ) ∈ Rn,n una matrice quadrata; A si dice triangolare
superiore se aij = 0 per i > j. Si dice invece che A è triangolare inferiore se aij = 0 per
i < j. Inoltre, se aii ̸= 0 per ogni i, allora A si dice triangolare superiore (o inferiore)
completa.
2.13. Teorema. Sia A ∈ Rn,n una matrice triangolare superiore completa. Allora
ρ(A) = n.
Dimostrazione. Sia
⎛ ⎞
a11 a12 ··· a1n
⎜ 0 a22 ··· a2n ⎟
A=⎜
⎝ ... .. .. ⎟ .
. . ⎠
0 0 ··· ann
Basta provare che le n colonne C1 , . . . , Cn sono linearmente indipendenti.
Sia dunque λ1 C1 + · · · + λn Cn = 0, cioè, per esteso,
⎛λ a + ··· + λ ⎞ ⎛ ⎞
1 11 n−1 a1n−1 + λn a1n 0
⎜ .. ⎟ ⎜ ... ⎟
⎜ . ⎟ = ⎜ ⎟.
⎝ ⎠ ⎝0⎠
λn−1 an−1 n−1 + λn an−1 n
λn ann 0
58
Da tale relazione, uguagliando le n-esime componenti di ambo i membri, si ha
λn ann = 0
Si può generalizzare il concetto di matrice triangolare nel caso di matrici non quadrate:
2.14. Definizione. Una matrice A = (aij ) ∈ Rm,n si dice triangolare superiore (breve-
mente TS) se aij = 0 per i > j. A si dice triangolare superiore completa (brevemente TSC)
se, inoltre, aii ̸= 0 per ogni i. Del tutto analoghe sono le definizioni di matrice triangolare
inferiore (TI) e di triangolare inferiore completa (TIC).
59
Sia B la sottomatrice di A costituita dalle prime m colonne di A. Poiché, per 2.15, B è
TSC, allora dal teorema 2.13 segue che C1 , . . . , Cm sono linearmente indipendenti. Quindi
ρ(A) ≥ m e dunque la tesi. Se, invece, n < m, allora ρ(A) ≤ n, sempre per 2.6, ed A è
della forma, ⎛ ⎞
a11 a12 a13 . . . a1n
⎜ 0 a22 a23 . . . a2n ⎟
⎜ ⎟
⎜ 0 0 a33 . . . a3n ⎟
⎜ . .. .. .. ⎟
⎜ . ⎟
⎜ . . . . ⎟
A=⎜ ⎟. (∗∗)
⎜ 0 0 0 . . . ann ⎟
⎜ ⎟
⎜ 0 0 0 ... 0 ⎟
⎜ . .. .. .. ⎟
⎝ .. . . . ⎠
0 0 0 ... 0
Eliminando le righe nulle si ha una matrice di tipo (∗), quindi ρ(A) = n. !
3. Matrici ridotte
Osserviamo che la matrice (∗∗) della dimostrazione di 2.16 è ridotta per righe.
60
quindi ρ(A) = ρ(A′ ) = 3.
Si ha dunque il seguente
3.2. Teorema. Se A è una matrice ridotta per righe, allora le sue righe non nulle sono
linearmente indipendenti. In particolare, ρ(A) è uguale al numero di righe non nulle di A.
Partendo dalle matrici ridotte per righe, si può costruire un’altra classe di matrici il
cui rango è facilmente calcolabile: si tratta delle matrici ottenute trasponendo una matrice
ridotta per righe. Infatti, se A è una matrice ridotta per righe, la matrice trasposta t A
si dirà “ridotta per colonne”. Si osservi che, per 2.5, ρ(t A) = ρ(A) e pertanto il calcolo
del rango di una matrice ridotta per colonne è immediato, in quanto uguale al numero di
colonne non nulle. Più precisamente:
3.3. Definizione. Una matrice A si dice ridotta per colonne se, eliminando le colonne
nulle e permutando opportunamente le righe, si ottiene una matrice del tipo B, con
⎛ ⎞
a11 0 0 ... 0
⎜ a21 a22 0 ... 0 ⎟
⎜ ⎟
⎜ a31 a32 a33 ... 0 ⎟
⎜ .. .. .. .. ⎟
⎜ ⎟
⎜ . . . . ⎟
B=⎜ ⎟.
⎜ am1 am2 am3 ... amm ⎟
⎜ ⎟
⎜ ∗ ∗ ∗ ... ∗ ⎟
⎜ . .. .. .. ⎟
⎝ .. . . . ⎠
∗ ∗ ∗ ... ∗
61
(PC ) : in ogni colonna non nulla esiste almeno un elemento non nullo alla destra del quale
ci sono solo zeri.
3.6. Definizione. Se una matrice è ridotta per righe, un elemento non nullo della riga i-
esima al di sotto del quale ci sono solo zeri è detto elemento speciale di Ri . Analogamente si
definisce un elemento speciale di una colonna non nulla di una matrice ridotta per colonne.
4. Riduzione di matrici
Avendo ora a disposizione una “buona” classe di matrici (quelle ridotte) delle quali
sappiamo calcolare il rango, cerchiamo un procedimento che ci permetta di associare ad
una matrice qualsiasi una matrice ridotta che abbia lo stesso rango.
Vediamo alcune procedure che mostreremo preservare lo spazio delle righe di una
matrice e che vengono dette trasformazioni elementari sulle righe:
D) sostituzione di una riga Ri con Ri + aRj , ove a ∈ R e j ̸= i;
s) scambio di Ri con Rj ;
λ) sostituzione di una riga Ri con λRi , ove λ ∈ R∗ = R \ {0R }.
Notiamo che nella trasformazione s) la lettera s sta per scambio; nella trasformazione
λ) la lettera λ sta per prodotto per uno scalare λ; infine D sta per “determinante” e il
motivo di tale scelta sarà chiaro in seguito.
4.1. Definizione. Date due matrici A, A′ ∈ Rm,n , A′ si dice trasformata per righe di A
se A′ è ottenuta da A mediante un numero finito di successive trasformazioni elementari
sulle righe di tipo D), s), λ).
62
4.2. Proposizione. Siano A, A′ ∈ Rm,n , con A′ trasformata per righe di A. Allora lo
spazio R(A) delle righe di A e lo spazio R(B) delle righe di A′ coincidono; in particolare
ρ(A) = ρ(A′ ).
e
R(A) = L(R1 , . . . , Ri−1 , Ri , Ri+1 , . . . , Rm ).
Proveremo ora che R(A) ⊆ R(A′ ). Poiché le righe di A′ sono uguali a quelle di A eccetto
la i-esima, basterà provare che la i-esima riga Ri di A è combinazione lineare delle righe
di A′ . Infatti si ha Ri = (Ri + aRj ) − aRj , da cui la tesi.
I casi s) e λ) sono evidenti. Ne segue che operando successivamente un numero finito di
trasformazioni D), s), λ), lo spazio delle righe non varia. !
4.3. Proposizione. Sia A una matrice; esiste una opportuna successione di trasformazioni
elementari di tipo D) sulle righe, tale che la matrice B ottenuta da tale procedimento è
ridotta per righe.
Dimostrazione. Sia A = (aij ) ∈ Rm,n . Vogliamo individuare una possibile serie di trasfor-
mazioni elementari che ci permettano di passare da A ad una matrice B che goda della
proprietà (PR ).
Sia Ri la prima riga non nulla di A e sia aij il primo elemento non nullo di Ri . Per ottenere
una matrice A′ che abbia tutti zeri sotto l’elemento aij si opera, con trasformazioni di tipo
D), come segue:
Rk −→ Rk − akj aij −1 Ri
per ogni k > i.
Si consideri ora la matrice A′ = (a′ij ) cosı̀ ottenuta. Si osservi che le prime i righe di A′
63
sono uguali alle corrisponenti righe di A; inoltre l’elemento a′ij = aij ha tutti zeri al di
sotto. Sia ora Rh′ la prima riga non nulla di A′ , con h > i. Sia a′hp il primo elemento non
nullo di Rh′ . Procedendo come prima, si operano le trasformazioni di tipo D):
−1
Rk′ −→ Rk′ − a′kp a′hp Rh′
4.4. Definizione. Si dice riduzione per righe (rispettivamente riduzione per colonne) di
una matrice A, una successione di trasformazioni elementari sulle righe (risp. colonne) tale
che la matrice A′ ottenuta alla fine del procedimento è ridotta per righe (risp. colonne).
Tale matrice si può ridurre operando come in 4.3 con sole trasformazioni di tipo D). In
questo caso è però conveniente scambiare la prima con la quarta riga. Infatti si ha:
⎛ ⎞
1 3 1 5
R1 ↔R4
⎜ 0 1 2 −1 ⎟
A −−−−−−−→ ⎝ ⎠ = B.
0 0 0 9
0 1 0 0
Come si può osservare, B è già ridotta per righe; segue che ρ(A) = ρ(B) = 4.
Per ridurre A si può operare iniziando con la trasformazione di tipo D): R2 → R2 − 3/2R1
ottenendo ⎛ ⎞
2 1 −1 1
A′ = ⎝ 0 −1/2 5/2 −5/2 ⎠ .
0 1 1 9
64
E’ evidente che, continuando la riduzione come al solito, i calcoli si complicano sempre più,
poiché i coefficienti della matrice non sono interi. A tale fatto si può ovviare, ad esempio,
come segue:
⎛ ⎞ ⎛ ⎞
R2 →2R2 2 1 −1 1 R3′ →R2′ +R3′ 2 1 −1 1
A −−−−−−−→ ⎝ 0 −1 5 −5 ⎠ −−−−−−−→ ⎝ 0 −1 5 −5 ⎠
0 1 1 9 0 0 6 4
Quanto visto sopra risolve il problema iniziale del calcolo del rango di una matrice
qualsiasi; infatti si ha:
Da 4.6 abbiamo: dim(V ) = dim(R(A)) = ρ(A) = ρ(A′ ), cioè dim(V ) è uguale al numero
di righe non nulle di A′ . Inoltre le righe non nulle di A′ costituiscono una base di V , in
quanto V = R(A) = R(A′ ).
65
a) determinare una base B di V , con B ⊂ I;
b) completare B ad una base C di R4 .
a) Sia A la matrice le cui righe sono costituite dai vettori di I, cioè
⎛ ⎞ ⎛ ⎞
v1 1 −1 2 1
⎜ v2 ⎟ ⎜ −2 2 −4 −2 ⎟
⎜ ⎟ ⎜ ⎟
A = ⎜ v3 ⎟ = ⎜ 1 1 1 −1 ⎟ .
⎝ ⎠ ⎝ ⎠
v4 −1 3 −3 −3
v5 1 2 1 2
Riducendo A per righe si ha:
⎛ ⎞
R2 →R2 +2R1 1 −1 2 1
R3 →R3 −R1 ⎜0 0 0 0 ⎟
⎜ ⎟
A −−−−−−−→ ⎜0 2 −1 −2 ⎟ = A′
⎝ ⎠
R4 →R4 +R1 0 2 −1 −2
R5 →R5 −R1 0 3 −1 1
e ancora ⎛ ⎞
1 −1 2 1
R4′ →R4′ −R3′ ⎜0 0 0 0 ⎟
⎜ ⎟
A′ −−−−−−−→ ⎜0 2 −1 −2 ⎟ = A′′
⎝ ⎠
R5′ →2R5′ −3R3′ 0 0 0 0
0 0 1 8
da cui segue ρ(A) = 3 e quindi dim(V ) = 3. Inoltre una base per V è ad esempio data
dalle 3 righe non nulle di A′′ , poiché R(A) = R(A′′ ). Invece la base B richiesta è data dai
vettori di A corrispondenti alle 3 righe non nulle di A′′ , cioè B = (v1 , v3 , v5 ). Si consideri
infatti la matrice ⎛ ⎞
v1
B = v3 ⎠
⎝
v5
e si osservi che con le stesse trasformazioni operate nella riduzione precedente si ottiene la
matrice ⎛ ⎞
1 −1 2 1
B ′′ = ⎝ 0 2 −1 −2 ⎠ .
0 0 1 8
b) Completiamo B ad una base di R4 utilizzando vettori (in questo caso ne basta uno)
della base canonica. E’ sufficiente aggiungere alla matrice B ′′ una riga costituita dalle
componenti di un vettore della base canonica in modo che la matrice ottenuta sia ancora
ridotta; ad esempio con e4 si ha:
⎛ ⎞ ⎛ ⎞
v1 1 −1 2 1
⎜ v3 ⎟ ⎜ 0 2 −1 −2 ⎟
⎝ ⎠ −→ ⎝ ⎠.
v5 0 0 1 8
e4 0 0 0 1
66
Quindi C = (v1 , v3 , v5 , e4 ).
4.6.3. Esempio. Con i dati di 4.6.2, vogliamo determinare una base B ⊂ I con il metodo
degli scarti successivi.
Risolveremo tale esercizio con la riduzione di matrici; come al solito sia
⎛ ⎞ ⎛ ⎞
v1 0 1 2 1
⎜v ⎟ ⎜0 1 1 1⎟
A=⎝ 2⎠=⎝ ⎠.
v3 0 2 3 2
v4 1 2 2 1
Si osservi che in 4.6.2 si è operato lo scambio R1 ↔ R4 per semplificare i calcoli; tale
operazione non è in questo caso consentita, poichè condurrebbe ad una base che non
contiene v1 che, invece, essendo non nullo, fa parte della base ottenuta con il metodo degli
scarti successivi. Riduciamo quindi A per righe:
⎛ ⎞ ⎛ ⎞
R2 →R2 −R1 0 1 2 1 0 1 2 1
−−−−−−−→ ⎜ 0 0 −1 0 ⎟ −−−−−−−→ ⎜ 0 0 −1 0 ⎟
A ⎝ ⎠ ⎝ ⎠.
R3 →R3 −2R1 0 0 −1 0 R3′ →R3′ −R2′ 0 0 0 0
R4 →R4 −R1 1 1 0 0 1 1 0 0
67
La base ottenuta è dunque (v1 , v2 , v4 ). Infatti si verifica facilmente che v3 è combinazione
lineare di v1 e v2 . Per vederlo si osservi che R3′ − R2′ = 0, che R3′ = R3 − 2R1 e che
R2′ = R2 − R1 ; da cui risulta R3 − R2 − R1 = 0 e quindi v3 = v1 + v2 .
Il metodo introdotto per ottenere una base di un sottospazio di Rn (ed un suo eventuale
completamento ad una base di Rn ) si può estendere ad uno spazio vettoriale qualunque,
passando attraverso le componenti dei vettori in esame, rispetto ad una base fissata.
68
VI - SISTEMI LINEARI
1. Concetti fondamentali
a1 α1 + · · · + an αn = b.
Una soluzione di un dato sistema lineare è una n-upla (α1 , . . . , αn ) di Rn che è soluzione
di ogni equazione del sistema. L’insieme delle soluzioni del sistema Σ è un sottoinsieme di
Rn , detto spazio delle soluzioni di Σ e denotato con SΣ .
Un sistema si dirà compatibile o risolubile se ammette soluzioni (cioè se SΣ ̸= ∅); se invece
non ha soluzioni, cioè SΣ = ∅, si dirà incompatibile.
1.3. Osservazione. Non tutti i sistemi lineari hanno soluzioni. Ad esempio, il sistema
<
x+y =0
x+y =1
69
non ha soluzioni.
o, più brevemente,
Σ : AX = B
dove X = t (x1 , . . . , xn ) è la matrice formale delle incognite (il termine “formale” significa
che X non è un elemento di Rn,1 , ma un simbolo che denota una n-upla di incognite).
70
2. Risoluzione dei sistemi ridotti
è ridotto ed ammette una sola soluzione (x, y, z) = (−1, 1, 2), come si verifica facilmente
sostituendo il valore di z = 2 nella seconda equazione, determinando y = 1; infine si
sostituiscono tali valori di y e z nella prima equazione, ottenendo x = −1.
2.2. Osservazione. Negli esempi 2.1.1 e 2.1.2 si sono “eliminate” le incognite corrispon-
denti agli elementi speciali selezionati nella matrice A, qui riportati in grassetto, partendo
dal basso verso l’alto:
⎛ * ⎞
1 1 2 ** 4
(A, B) = ⎝ 0 1 −2 ** −3 ⎠ =⇒ si elimina z, poi y e poi x.
0 0 1 * 2
71
Nell’altro esempio
⎛ * ⎞
2 1 2 1 *1
*
(A, B) = ⎝ 2 3 −1 0 *3 ⎠ =⇒ si elimina z, poi y e poi t.
*
1 0 1 0 *0
xm = −a−1
mm (amm+1 xm+1 + · · · + amn xn − bm );
xm−1 = −a−1
m−1m−1 (am−1m xm + am−1m+1 xm+1 + · · · + am−1n xn − bm−1 ).
72
nulle e A ∈ Rm,n sia TSC. Abbiamo visto che le m incognite x1 , . . . , xm sono espresse
in funzione delle restanti n − m : xm+1 , . . . , xn ; queste ultime si dicono incognite libere.
Infatti, ogni qualvolta fissiamo xm+1 = λ1 , . . . , xn = λn−m con λi ∈ R, otteniamo una
particolare soluzione del sistema.
Questo accade in generale, anche se A è ridotta ma non necessariamente TSC. In tal modo
si definisce una corrispondenza biunivoca
1−1
Rn−m −−−−→ SΣ
3.1. Teorema. Sia Σ : AX = B un sistema lineare e sia (A′ , B ′ ) una matrice trasformata
per righe di (A, B). Allora i sistemi Σ e Σ′ : A′ X = B ′ sono equivalenti.
ai1 x1 + · · · + ain xn = bi
è equivalente all’equazione
per ogni λ ̸= 0.
Sia ora (A′ , B ′ ) ottenuta da (A, B) con una trasformazione di tipo D:
Ri −→ Ri + λRj
73
Sia ora α = (α1 , . . . , αn ) una soluzione di Σ, cioè valgono le identità:
si ha:
⎛ * ⎞ ⎛ * ⎞
R2 →R2 +R1 2 1 1 ** 1 2 1 1 ** 1
(A, B) −−−−−−−−→ ⎝ 3 0 0 ** 1 ⎠ R3 →R3 +R2 ⎝ 3 0 0 ** 1 ⎠ = (A′ , B ′ ).
−−−−−−−−→
R3 →R3 −2R1 −3 0 0 * −1 0 0 0* 0
74
Poiché A′ è ridotta, il sistema Σ′ : A′ X = B ′ è ridotto e quindi risolubile col metodo delle
eliminazioni successive:
) )
′ 2x + y + z = 1 y + z = 1/3
Σ : =⇒ .
3x = 1 x = 1/3
E’ chiaro che tale sistema ha una sola incognita libera e dunque il sistema ha ∞1 soluzioni;
si può scegliere, ad esempio, z e in tal caso, ponendo z = λ, lo spazio delle soluzioni di Σ
ha la forma:
Se, invece, si sceglie y come incognita libera, posto y = α, lo spazio delle soluzioni di Σ ha
la forma:
SΣ = {(x, y, z) ∈ R3 | (x, y, z) = (1/3, α, 1/3 − α), α ∈ R}.
Ovviamente le due espressioni precedenti rappresentano, in modi diversi, lo stesso sottoin-
sieme SΣ di R3 . Si noti che il numero delle incognite libere coincide con la differenza tra
il numero delle incognite ed il rango di A.
si ha:
⎛ * ⎞ ⎛ * ⎞
1 1 −1 ** 0 1 1 −1 ** 0
(A, B) R2 →R2 −2R1 ⎝ 0 −3 2 ** 1 ⎠ R3 →R3 −R2 ⎝ 0 −3 2 ** 1 ⎠ = (A′ , B ′ ).
−−−−−−−−→ −−−−−−−−→
0 1 2 * 2 0 4 0 * 1
da cui (x, y, z) = (5/8, 1/4, 7/8). Ancora una volta si noti che il numero delle incognite
libere è dato da 3 − ρ(A) = 0, dove 3 è il numero delle incognite.
75
L’esempio seguente riguarda la discussione di un sistema con parametro: i coefficienti
non sono numeri reali, come nei casi visti in precedenza, ma possono contenere un simbolo
(parametro) che varia in R. La discussione di tali sistemi consiste nel determinare tutti i
valori del parametro per i quali il sistema è risolubile e nel trovare tutte le soluzioni del
sistema in corrispondenza di tali valori.
Se si vuole risolvere il sistema con il solito metodo della riduzione per righe, bisogna fare
attenzione quando vengono usate espressioni che coinvolgono il parametro λ:
⎛ ⎞ ⎛ ⎞
1 2 1 1 −1 1 2 1 1 −1
⎜1 1 −1 2 1 ⎟ R2 →R2 −R1 ⎜0 −1 −2 1 2 ⎟
(A, B) = ⎝ ⎠ −−−−−−−→ ⎝ ⎠ −→
2 λ 0 λ 0 0 λ − 4 −2 λ − 2 2
R3 →R3 −2R1
0 −λ −2 λ 2 0 −λ −2 λ 2
⎛ ⎞
1 2 1 1 −1
R3 →R3 −R2
⎜0 −1 −2 1 2 ⎟ ′ ′
−−−−−−−→ ⎝ ⎠ = (A , B ).
0 λ−3 0 λ−3 0
R4 →R4 −R2
0 −λ + 1 0 λ − 1 0
A questo punto è utile eliminare da una delle ultime due righe il parametro λ. Ad esempio,
operando la trasformazione R3 → R3 + R4 e, successivamente, R4 → 2R4 − (λ − 1)R3 , la
matrice (A′ , B ′ ) (dopo aver ulteriormente diviso la terza riga per 2 e la quarta per −2)
diventa:
⎛ ⎞ ⎛ ⎞
1 2 1 1 −1 1 2 1 1 −1
⎜0 −1 −2 1 2 ⎟ ⎜0 −1 −2 1 2 ⎟
⎝ ⎠ −→ ⎝ ⎠
0 −2 0 2λ − 4 0 0 −2 0 λ − 2 0
0 −λ + 1 0 λ−1 0 0 0 0 a44 0
dove a44 = (λ − 3)(λ − 1). Si osservi che l’ultima trasformazione effettuata è corretta per
ogni λ ∈ R; infatti l’unico caso dubbio si ha per λ = 1, per il quale la trasformazione
diventa R4 → 2R4 , che è ancora accettabile.
Si noti ora che a44 = 0 se e solo se λ = 1 oppure λ = 3.
Si conclude dunque che Σλ è sempre risolubile per 2.2; inoltre:
- λ = 1, 3 ⇒ a44 = 0 ⇒ ρ(A) = 3 ⇒ Σλ ha ∞1 soluzioni;
- λ ̸= 1, 3 ⇒ a44 ̸= 0 ⇒ ρ(A) = 4 ⇒ Σλ ha una sola soluzione.
76
I) λ ̸= 1 e λ ̸= 3
⎧
⎪ x + 2y + z + t = −1
⎨
− y − 2z + t = 2
Σλ : .
⎪
⎩ − y + (λ − 2)t = 0
(λ − 3)(λ − 1)t = 0
Come già osservato, tale sistema ammette un’unica soluzione per ogni λ in R. Possiamo
determinarla col metodo delle eliminazioni successive: poiché (λ − 3)(λ − 1) ̸= 0, possiamo
dividere l’ultima equazione per (λ−3)(λ−1) e dunque ottenere y = 0; risalendo le equazioni
si ottiene: ⎧
⎪ x = 0
⎨
z = −1
.
⎩t = 0
⎪
y = 0
In questo esempio specifico l’unica soluzione di ogni sistema Σλ , che in generale varia con
il parametro, non dipende da λ.
II) λ = 1
In questo caso l’ultima equazione si riduce all’identità 0 = 0 e quindi viene eliminata. Si
ha quindi il sistema particolare:
⎧
⎨ x + 2y + z + t = −1
Σ1 : − y − 2z + t = 2 .
⎩
y + t = 0
Ancora col metodo delle eliminazioni successive si ottiene:
⎧
⎨x = 0
z = t−1 .
⎩
y = −t
quindi le soluzioni del sistema hanno la forma
(x, y, z, t) = (0, −α, α − 1, α).
III) λ = 3
Anche in questo caso l’ultima equazione si riduce all’identità 0 = 0 e quindi viene eliminata.
Si ha quindi il sistema particolare:
⎧
⎨ x + 2y + z + t = −1
Σ3 : − y − 2z + t = 2
⎩
− y + t = 0
da cui ⎧
⎨x = −3t
z = −1
⎩
y = t
pertanto le soluzioni di Σ3 : sono (x, y, z, t) = (−3α, α, −1, α).
77
3.3. Teorema. (Rouché–Capelli). Dato il sistema lineare Σ : AX = B, si ha:
a) Σ ha soluzioni se e solo se ρ(A) = ρ(A, B).
Nel caso in cui il sistema abbia soluzioni, posti ρ := ρ(A) = ρ(A, B) e n il numero
delle incognite di Σ, si hanno i seguenti fatti:
b) le incognite libere sono n − ρ;
c) si possono scegliere come incognite libere certe n − ρ incognite se e solo se le restanti
sono corrispondenti a ρ colonne di A linearmente indipendenti.
x 1 C1 + · · · + x n Cn = B
78
riducendo opportunamente (A, B) per righe (scegliendo gli elementi speciali in A), per-
mutando eventualmente le equazioni, la matrice del sistema ottenuto è della forma:
⎛ ⎞
a11 ... a1ρ ∗ ... ∗
⎜ .. .. .. .. ⎟
⎜ . . . .⎟
⎜ ⎟
⎜ ∗ ∗⎟.
(A , B ) = ⎜ aρ−1 1
′ ′ ... aρ−1 ρ ...
⎟
⎜ 0 ... 0 ∗ ... ∗⎟
⎜ . .. .. .. ⎟
⎝ .. . . .⎠
0 ... 0 ∗ ... ∗
Poiché ρ(A′ , B ′ ) = ρ(A, B) = ρ, esiste una riga non nulla Ri di (A′ , B ′ ), con i ≥ ρ.
L’equazione corrispondente, non comprendendo le prime ρ incognite, fornisce una relazione
tra xρ+1 , . . . , xn , che pertanto non sono libere. !
79
I) λ ̸= 1, λ ̸= 0:
⎧ ⎧
⎨ λx + z = −1 ⎨z = −1
′
Σ : (1 − 2λ)x + (λ − 1)y = 3 ⇒ y = 3/(λ − 1)
⎩ ⎩
−λx = 0 x = 0
Tale matrice è ridotta per righe ed ha 3 righe non nulle, dunque il suo rango è 3.
In particolare v1 , v2 , v3 sono 3 vettori indipendenti in R3 , quindi sono una base. Pertanto
esiste un’unica terna di coefficienti x, y, z tali che
per ogni v ∈ R3 . Tale terna corrisponde all’unica soluzione del sistema lineare avente come
matrice completa (A, B) = (v1 v2 v3 v) (qui scritta per colonne). In questo caso particolare
⎛ * ⎞
1 0 1 ** 1
(A, B) = ⎝ 1 1 0 ** 1 ⎠ .
0 1 1 *1
80
Riducendo come al solito per righe si ha:
⎛ ⎞ ⎛ ⎞
1 0 1 1 1 0 1 1
(A, B) −→ ⎝ 0 1 −1 0 ⎠ −→ ⎝ 0 1 −1 0⎠
0 1 1 1 0 2 0 1
da cui ⎧ ⎧
⎨x + z = 1 ⎨x = 1/2
y − z = 0 e quindi z = 1/2
⎩ ⎩
2y = 1 y = 1/2
infatti 1/2(1, 1, 0) + 1/2(0, 1, 1) + 1/2(1, 0, 1) = (1, 1, 1).
cioè ⎧
⎪ λx + z = 1
⎨
x + λz = 0
Σ: .
⎪
⎩ λy + t = 0
y + λt = 1
Da cui, riducendo la matrice del sistema:
⎛ ⎞ ⎛ ⎞
λ 0 1 0 1 λ 0 1 0 1
⎜1 0 λ 0 0 ⎟ R2 →R2 −λR1 ⎜ 1 − λ2 0 0 0 −λ ⎟
(A, B) = ⎝ ⎠ ⎝ ⎠→
0 λ 0 1 0 −−−−−−−→ 0 λ 0 1 0
0 1 0 λ 1 0 1 0 λ 1
⎛ ⎞
λ 0 1 0 1
2
R4 →R4 −λR3 ⎜ 1 − λ 0 0 0 −λ ⎟ ′ ′
⎝ ⎠ = (A , B ).
−−−−−−−→ 0 λ 0 1 0
0 1 − λ2 0 0 1
Si noti che le trasformazioni di tipo D) effettuate sopra sono ammissibili per ogni λ ∈ R;
infatti, se λ = 0, lasciano le matrici inalterate. Infine è chiaro che, se 1 − λ2 ̸= 0, allora la
matrice (A′ , B ′ ) è ridotta ed inoltre il sistema è risolubile in quanto ρ(A) = ρ(A, B) = 4.
81
In tal caso esiste una sola soluzione (infatti l’inversa di una matrice è unica).
Poniamo dunque λ ̸= 1 e λ ̸= −1. Il sistema ridotto è:
⎧
⎪ λx + z = 1
⎨ 2
(1 − λ )x = −λ
Σ′ :
⎪
⎩ λy + t = 0
(1 − λ2 )y = 1
quindi ⎧
⎪ z = 1/(1 − λ2 )
⎨
x = −λ/(1 − λ2 )
.
⎩t
⎪ = −λ/(1 − λ2 )
y = 1/(1 − λ2 )
Pertanto ! "
−λ/(1 − λ2 ) 1/(1 − λ2 )
Mλ−1 = .
1/(1 − λ2 ) −λ/(1 − λ2 )
Sia ora 1 − λ2 = 0, cioè λ = ±1; la matrice (A′ , B ′ ) diventa
⎛ ⎞
±1 0 1 0 1
⎜ 0 0 0 0 ∓1 ⎟
(A′ , B ′ ) = ⎝ ⎠.
0 ±1 0 1 0
0 0 0 0 1
Dall’ultima equazione segue che il sistema è incompatibile. Abbiamo quindi provato che
Mλ−1 esiste (e l’abbiamo ricavata) se e solo se λ ̸= ±1.
Una classe interessante di sistemi lineari è costituita dai sistemi lineari omogenei.
82
AX1 = 0 e AX2 = 0, dunque λ(AX1 ) + µ(AX2 ) = 0. Per le proprietà del prodotto e
somma di matrici λ(AX1 ) + µ(AX2 ) = A(λX1 + µX2 ), quindi λX1 + µX2 è soluzione di
AX = 0. Pertanto SΣ è sottospazio vettoriale di Rn .
Per il teorema di Rouché–Capelli, il sistema Σ ha n − ρ(A) incognite libere; proviamo che
tale numero coincide con la la dimensione dello spazio SΣ , determinandone esplicitamente
una base di n − ρ(A) elementi.
Denotiamo al solito ρ = ρ(A). Per semplicità, supponiamo che le incognite libere siano
xρ+1 , . . . , xn e quindi che la generica soluzione del sistema abbia la forma
⎧ $n (1)
⎪
⎪ x1 = i=ρ+1 λi τi
⎪
⎪
⎪
⎪ .. ..
⎪
⎨ .
⎪ $n .
(ρ)
xρ = i=ρ+1 λi τi
⎪
⎪ xρ+1 = τρ+1
⎪
⎪
⎪
⎪ .. ..
⎪
⎩ .
⎪ .
xn = τn
Quindi lo spazio delle soluzioni è generato dai vettori v1 , . . . , vn−ρ ; inoltre è chiaro che tali
vettori sono linearmente indipendenti e ciò conclude la dimostrazione. !
Per risolvere un sistema lineare omogeneo si procede, come nel caso generale, mediante
la riduzione della matrice associata dei coefficienti. A differenza del caso generale, poiché lo
spazio delle soluzioni è un sottospazio vettoriale di Rn , è anche interessante determinarne
una base. Dalla dimostrazione di 4.3, si deduce un modo semplice per determinare tale
base: si attribuiscono, successivamente, alle n − ρ incognite libere i valori corrispondenti
alla base canonica di Rn−ρ .
83
Riducendo la matrice associata
⎛ ⎞
1 0 −2 0 1 1
⎝
A= 1 −1 −1 1 −1 1 ⎠
1 −1 0 2 −2 2
si ottiene:
⎛ ⎞ ⎛ ⎞
1 0 −2 0 1 1 1 0 −2 0 1 1
⎝
A→ 0 −1 1 1 −2 ⎠ ⎝
0 → 0 −1 1 1 −2 0 ⎠ = A′ .
0 −1 2 2 −3 1 0 0 1 1 −1 1
Si osservi che ρ(A) = ρ(A′ ) = 3. Inoltre, poiché le prime 3 colonne di A′ e quindi di A sono
linearmente indipendenti, per il teorema di Rouché–Capelli, si possono scegliere x4 , x5 , x6
come incognite libere.
Si consideri ora il sistema
⎧
⎨ x1 − 2x3 + x5 + x6 = 0
′
Σ : x2 − x3 − x4 + 2x5 =0
⎩
x3 + x4 − x5 + x6 = 0
ottenendo la base:
((−2, 0, −1, 1, 0, 0), (1, −1, 1, 0, 1, 0), (−3, −1, −1, 0, 0, 1)) .
84
VII - APPLICAZIONI LINEARI
1. Concetti fondamentali
situazioni, studiando relazioni tra spazi vettoriali. Tali relazioni saranno implementate da
matrici: una matrice viene usata come una operazione che trasforma vettori in uno spazio
vettoriale in altri vettori che, in generale, appartengono ad un differente spazio vettoriale.
! "
a b
1.1.1. Esempio. Sia A = ∈ R2,2 . Consideriamo l’applicazione
c d
ove X = t (x, y) è un vettore colonna e AX indica l’usuale prodotto righe per colonne:
! "! " ! "
a b x ax + by
f (X) = = = t (ax + by, cx + dy).
c d y cx + dy
f (X + Y ) = A(X + Y ) = AX + AY = f (X) + f (Y ).
(L1 ) f (X + Y ) = f (X) + f (Y ) ∀ X, Y ∈ Rn
(L2 ) f (λX) = λf (X) ∀ X ∈ Rn , ∀ λ ∈ R
85
1.3. Proposizione. Sia f : V −→ W un’applicazione lineare; valgono i seguenti fatti:
i) f (0V ) = 0W ;
ii) f (−v) = −f (v), per ogni v ∈ V ;
iii) f (a1 v1 + · · · + ap vp ) = a1 f (v1 ) + · · · + ap f (vp ),
per ogni v1 , . . . , vp ∈ V , per ogni a1 , . . . , ap ∈ R.
Negli esempi 1.1.1 e 1.1.2 abbiamo visto come associare ad una matrice A ∈ Rm,n una
applicazione lineare tra Rn e Rm . Tale procedimento si può generalizzare a spazi vettoriali
qualunque usando due basi, una del dominio e una del codominio.
Infatti, siano V e W due R-spazi vettoriali e siano B = (v1 , . . . , vn ), C = (w1 , . . . , wm ) due
rispettive basi. Ad una matrice A = (aij ) ∈ Rm,n si associ l’applicazione f : V −→ W
definita come segue: per ogni v ∈ V , si può scrivere univocamente v = x1 v1 + · · · + xn vn
cioè v = (x1 , . . . , xn )B . Posto X = t (x1 , . . . , xn ), si consideri il vettore AX ∈ Rm ; si ponga
t
(y1 , . . . , ym ) = AX. Definiamo
f (v) = y1 w1 + · · · + ym wm .
86
In sintesi: ⎛ ⎛⎞⎞
x1
.
f ((x1 , . . . , xn )B ) = ⎝A ⎝ .. ⎠⎠ .
xn C
! "
1 2 1
1.3.1. Esempio. Sia A = ∈ R2,3 e siano V = R[X]2 e W = R[X]1 . Siano
1 −1 0
inoltre B = (1, X, X 2 ) e C = (1, X) basi di V e W , rispettivamente. Allora l’applicazione
lineare associata ad A è definita da
dunque
f (a + bX + cX 2 ) = (a + 2b + c, a − b)C = a + 2b + c + (a − b)X.
1.5. Definizione. Siano V e W due R-spazi vettoriali con rispettive basi B = (v1 , . . . , vn )
e C = (w1 , . . . , wm ); sia A = (aij ) ∈ Rm,n . L’applicazione lineare
fAB,C : V −→ W
87
quindi f (v1 ) = a11 w1 + · · · + am1 wm .
Analogamente si verifica che f (vi ) = (a1i , . . . , ami )C , per ogni i.
In particolare, se A = (aij ) ∈ Rm,n e f : Rn −→ Rm è l’applicazione lineare definita
da f (X) = AX, allora le colonne di A concidono con le immagini attraverso f dei vettori
(e1 , . . . en ) della base canonica En di Rn . Cioè, scrivendo A per colonne:
⎛ ⎞
1 1 −1
1.6.1. Esempio. Sia A = ⎝ 0 1 2 ⎠ e sia B = C = E3 la base canonica di R3 .
1 1 0
Consideriamo l’applicazione associata f = fAE3 ,E3 : R3 −→ R3 . Sia (x, y, z) ∈ R3 ; allora
per definizione f ((x, y, z)) = At (x, y, z) quindi f è data dalle equazioni
Osserviamo che f (e1 ), f (e2 ), f (e3 ) corrispondono, rispettivamente, alle colonne della ma-
trice A. Ribadiamo che tale situazione è molto particolare: infatti in generale le colonne
di A sono le componenti di f (e1 ), f (e2 ), f (e3 ) rispetto alla base C; in tale esempio C è la
base canonica e dunque le componenti di f (e1 ), f (e2 ), f (e3 ) rispetto alla base C coincidono
con le loro componenti, come vettori di R3 .
La proposizione 1.4 mostra che le applicazioni del tipo fAB,C , associate a matrici, sono
lineari. Vogliamo adesso mostrare che tutte le applicazioni lineari sono di questo tipo, cioè
vogliamo provare che, per ogni applicazione lineare f : V −→ W , fissando due basi B e C
di V e W , rispettivamente, esiste un’opportuna matrice A tale che f = fAB,C .
L’osservazione 1.6 mostra che, data una matrice A, le immagini attraverso fAB,C degli
elementi di una fissata base B di V sono individuate dalle colonne di A. Operiamo dunque
il procedimento inverso da un’appicazione lineare ad una matrice.
1.7. Definizione. Siano V e W due R-spazi vettoriali con rispettive basi B = (v1 , . . . , vn )
e C = (w1 , . . . , wm ); sia f : V −→ W un’applicazione lineare. Si dice matrice associata
ad f rispetto alle basi B e C, e si denota con MfB,C , la matrice di Rm,n le cui colonne
sono costituite dalle componenti, rispetto a C, delle immagini dei vettori della base B.
Esplicitamente, dalle espressioni
f (v1 ) = a11 w1 + · · · + am1 wm
..
.
f (vn ) = a1n w1 + · · · + amn wm
88
viene individuata la matrice A = (aij ) e si pone MfB,C = A.
1.8. Osservazione. Come nella teoria degli insiemi, due applicazioni lineari tra gli stessi
spazi f, g : V −→ W sono uguali se e solo se f (v) = g(v), per ogni v ∈ V . Da ciò segue il
seguente risultato di cui omettiamo la dimostrazione.
fAB,C = f ;
MfB,C = A.
1.10. Proposizione. Siano V e W due R-spazi vettoriali e sia (v1 , . . . , vn ) una base di V .
Si considerino n vettori qualunque di W : {u1 , . . . , un }. Allora esiste un’unica applicazione
lineare f : V −→ W tale che f (vi ) = ui , per i = 1, . . . , n.
Dimostrazione. Si estende l’applicazione per linearità una volta definita sui vettori della
base scelta per V . Sia v un qualunque vettore di V . Allora v si scrive in modo unico come
v = a1 v1 + · · · + an vn .
Definiamo
f (v) = a1 f (v1 ) + · · · + an f (vn ) = a1 u1 + · · · + an un .
Tale applicazione è lineare per costruzione e chiaramente f (vi ) = ui per ogni i.
Per provare l’unicità, osserviamo che, se esistesse un’altra applicazione lineare g : V −→ W
tale che g(vi ) = ui , per i = 1, . . . , n, allora per 1.3 dovrebbe essere
Dalle considerazioni precedenti, ribadiamo due modi equivalenti per definire una ap-
plicazione lineare tra due spazi vettoriali V e W .
I. Si fissano una base B di V e una base C di W ed una matrice A = (aij ) ∈ Rm,n . Per
la proposizione 1.9 è univocamente determinata l’applicazione lineare fAB,C .
89
II. Si fissa una base B = (v1 , . . . , vn ) di V ed n vettori {u1 , . . . , un } di W . Da 1.10 esiste
un’unica applicazione lineare f : V −→ W tale che f (vi ) = ui , per i = 1, . . . , n.
f ((x1 , . . . , xn )) = At (x1 , . . . , xn )
oppure
f ((x1 , . . . , xn )) = (a11 x1 + · · · + a1n xn , . . . , am1 x1 + · · · + amn xn ).
1.10.2. Esempio. Sia idV : V −→ V l’applicazione identica definita da idV (v) = v, per
ogni v ∈ V e sia B = (v1 , . . . , vn ) una qualunque base di V . Allora
B,B B,C
Dunque la matrice Mid V
è la matrice identica In . Si noti che, se B ̸= C, allora Mid V
non
è la matrice identica.
Allora ⎛ ⎞ ⎛ ⎞
0 1 1 −1 1 1
B,E3 ⎝ E3 ,B 1⎝
Mid = 1 0 1⎠, Mid = 1 −1 1 ⎠ .
2
1 1 0 1 1 −1
Si osservi che queste due matrici sono una l’inversa dell’altra. Ritorneremo a questo tipo
di matrici in seguito a proposito della procedura di cambio di base in uno spazio vettoriale.
90
2. Sottospazi associati ad una applicazione lineare
In questo paragrafo vedremo come ad ogni applicazione lineare sia possibile associare
in modo “canonico” un sottospazio del dominio ed un sottospazio del codominio.
ker(f ) = {v ∈ V | f (v) = 0W }.
dim(ker(f )) = n − ρ(A).
91
Allora si ha:
ker(f ) = {v ∈ V | f (v) = 0W } =
⎧ * ⎛ ⎛ ⎞⎞ ⎛ ⎞ ⎫
⎪ * x 0 ⎪
⎨ * 1 ⎬
* ⎝ ⎝ .. ⎠⎠ ⎝ .
. ⎠
= v = (x1 , . . . , xn )B ∈ V * A . = . =
⎪
⎩ * ⎪
⎭
* xn 0 C
C
⎧ * ⎛ ⎞ ⎛ ⎞⎫
⎨ * x1 0 ⎬
* .. ⎠ ⎝ .. ⎠
*
= (x1 , . . . , xn )B ∈ V * A ⎝ = . =
⎩ . ⎭
* 0
xn
= {(x1 , . . . , xn )B ∈ V | (x1 , . . . , xn ) ∈ SΣ }
α : SΣ −→ ker(f )
definita da
(x1 , . . . , xn ) .→ (x1 , . . . , xn )B .
Inoltre, per 4.10, Capitolo III, α “manda” una base in una base, cioè:
⎧ ⎫
⎪
⎨ v 1 →
. (v 1 ) B ⎪
⎬
base di SΣ .
.. .
.. base di ker(f ).
⎪
⎩ ⎪
⎭
vp .→ (vp )B
In particolare
dim(ker(f )) = dim(SΣ ) = n − ρ(A)
dove l’ultima uguaglianza segue da 4.3, Capitolo VI. !
2.4. Metodo per il calcolo del nucleo. Siano V e W due R-spazi vettoriali, con basi
rispettive B e C e sia f : V −→ W un’applicazione lineare. Si ponga A = MfB,C . Per
determinare ker(f ) e una sua base, si procede come segue:
1. Si considera il sistema lineare omogeneo Σ : AX = 0 e si determina una base
(v1 , . . . , vp ) per il suo spazio delle soluzioni SΣ ;
2. per quanto visto,
92
e una base di ker(f ) è data da
((v1 )B , . . . , (vp )B ).
Quindi
ker(f ) = {(0, a, a)B | a ∈ R}
e una sua base è ((0, 1, 1)B ).
Poiché
(0, 1, 1)B = (0, 1, 1) + (1, 0, 1) = (1, 1, 2)
ne segue che la stessa base di ker(f ), espressa ora su E, è ((1, 1, 2)).
93
Infatti si ha:
94
2.6. Proposizione. Sia f : V −→ W un’applicazione lineare tra R-spazi vettoriali asso-
ciata alla matrice A. Allora dim(Im(f )) = ρ(A).
β : C(A) −→ Im(f )
definita da
(y1 , . . . , ym ) .→ (y1 , . . . , ym )C .
Inoltre, sempre per 4.10, Capitolo III, β “manda” una base in una base, cioè:
⎧ ⎫
⎪
⎨ w1 .→ (w1 )C ⎪
⎬
. .
base di C(A)
⎪ .. ..
⎪
base di Im(f ).
⎩ ⎭
wq .→ (wq )C
Pertanto
dim(Im(f )) = dim(C(A)) = ρ(A).
!
((w1 )C , . . . , (wq )C ).
95
2.7.1. Esempio. Sia f : R3 −→ R3 l’applicazione lineare associata alla matrice
⎛ ⎞
1 −1 2
A = MfB,C = ⎝ 0 1 −3 ⎠
2 −1 1
con B base canonica e C = (w1 , w2 , w3 ), dove w1 = (1, 1, 0), w2 = (0, 1, 1), w3 = (1, 0, 1).
Riduciamo quindi A per colonne:
⎛ ⎞ ⎛ ⎞
C2 →C2 +C1 1 0 0 1 0 0
A −−−−−−−→ ⎝ 0 1 −3 ⎠ C3 →C3 +3C1 ⎝ 0 1 0 ⎠ = A′ .
−−−−−−−→
C3 →C3 −2C1 2 1 −3 2 1 0
Poiché A′ è ridotta per colonne, le sue colonne non nulle sono una base per lo spazio delle
colonne C(A′ ). Dunque C(A) = C(A′ ) = L((1, 0, 2), (0, 1, 1)).
Per 2.7 una base di Im(f ) è quindi (u1 , u2 ), ove
Dimostrazione. Per 2.3 dim(ker(f )) = dim(V )−ρ(A); inoltre, per 2.6, dim(Im(f )) = ρ(A),
da cui la tesi. !
Il lettore avrà già incontrato, ad esempio nella teoria degli insiemi, i concetti di iniet-
tività, suriettività e biiettività (o biunivocità) di una applicazione f . Nel caso in cui f sia
un’applicazione lineare tra spazi vettoriali, vedremo come tali proprietà siano caratterizz-
abili in termini del rango di una matrice qualunque associata ad f .
96
ii) ⇒ i). Viceversa siano v, v ′ ∈ V tali che f (v) = f (v ′ ). Allora, per la linearità di f , si ha
f (v − v ′ ) = 0W , dunque v − v ′ ∈ ker(f ). Per ipotesi, quindi, v − v ′ = 0V ovvero v = v ′ .
ii) ⇔ iii). Segue da 2.3, poiché dim(ker(f )) = dim(V ) − ρ(A). !
2.9.1. Esempio. Sia f : R[X]2 −→ R2,2 l’applicazione lineare associata alla matrice
⎛ ⎞
2 1 0
⎜ −1 0 1⎟
A=⎝ ⎠
2 1 1
1 0 0
rispetto a due basi fissate. Osserviamo che A è ridotta per colonne, dunque ρ(A) è il
numero delle colonne non nulle, cioè ρ(A) = 3. D’altro canto dim(R[X]2 ) = 3. Pertanto,
per 2.9, f è iniettiva.
f (x, y, z) = (x + y − z, 2x − y + 2z).
97
2.12. Proposizione. Sia f : V −→ W un’applicazione lineare. Allora:
a) se f è iniettiva allora dim(V ) ≤ dim(W );
b) se f è suriettiva allora dim(V ) ≥ dim(W );
c) se f è isomorfismo allora dim(V ) = dim(W );
98
1. f : R3 −→ R4 data da (x, y, z) .→ (x − y + 2z, y + z, −x + z, 2x + y). Posta A la
matrice associata ad f rispetto alle basi canoniche, calcoliamo il rango di A riducendola,
ad esempio, per righe:
⎛ ⎞ ⎛ ⎞
1 −1 2 1 −1 2
⎜ 0 1 1⎟ ⎜0 1 1⎟
A=⎝ ⎠ −→ ⎝ ⎠.
−1 0 1 0 0 1
2 1 0 0 0 0
2.16. Teorema. Siano V e W due R-spazi vettoriali della stessa dimensione. Allora V e
W sono isomorfi.
99
2.17. Corollario. Se V è un R-spazio vettoriale di dimensione n, allora V ∼
= Rn . !
g ◦ f : V −→ Z
Dimostrazione. Dalla teoria generale delle funzioni è noto che un’applicazione è invertibile
se e solo se è biettiva (iniettiva e suriettiva). Quindi se un’applicazione lineare è invertibile
essa è un isomorfismo. Viceversa, supponiamo f isomorfismo; dobbiamo solo verificare che
la sua inversa è a sua volta un’applicazione lineare. Siano allora w1 , w2 ∈ W . Poiché f è
biettiva, esistono v1 , v2 ∈ V univocamente determinati tali che w1 = f (v1 ) e w2 = f (v2 ).
Siani ora λ1 , λ2 ∈ R. Allora, poichè f è lineare:
λ1 w1 + λ1 w2 = f (λ1 v1 + λ1 v2 )
da cui, applicando f −1 :
100
3.5. Corollario. Sia f : V −→ W un’applicazione lineare invertibile. Allora
dim(V ) = dim(W ).
i) ⇒ iii) Per 3.5 si ha dim(V ) = dim(W ), dunque MfB,C è quadrata. Per ipotesi esiste
f −1 ; basta dunque provare che
MfC,B B,C
−1 · Mf = In
fAB,C
−1 : W −→ V
101
3.7.1. Esempio. Sia f : R3 −→ R3 data da
⎧ ⎧
⎨ x2 − y2 + z2 = 0 ⎨ x2 = 1/2
2y2 + z2 = 1 ⇒ y = 1/2
⎩ ⎩ 2
z2 = 0 z2 = 0
⎧ ⎧
⎨ x3 − y3 + z3 = 0 ⎨ x3 = −3/2
2y3 + z3 = 0 ⇒ y = −1/2
⎩ ⎩ 3
z3 = 1 z3 = 1
102
Pertanto ⎛ ⎞
1 1/2 −3/2
A−1 = ⎝ 0 1/2 −1/2 ⎠ .
0 0 1
103
4.1. Proposizione. Sia V un R-spazio vettoriale di dimensione n, B e C due sue basi.
Denotando con (x1 , . . . , xn )B e con (y1 , . . . , yn )C le componenti di un vettore v, rispetto a
B e C rispettivamente, si ha
t B,C t
(y1 , . . . , yn ) = MidV
(x1 , . . . , xn ).
B,C t
(Mid V
(x1 , . . . , xn ))C = (t (y1 , . . . , yn ))C .
B,C
4.2. Definizione. La matrice Mid V
si dice matrice del cambio di base da B a C e si indica
B,C
anche con M .
Ne segue che
v = (y1 , y2 , y3 )C = (M B,C t (x1 , x2 , x3 ))C =
⎛⎛ ⎞⎛ ⎞⎞
0 −1 −1 1
= ⎝⎝ −1 0 3 ⎠ ⎝ −1 ⎠⎠ = (0, 2, −1)C
1 1 −1 1 C
quindi v = 2w2 − w3 .
104
4.3. Teorema. Sia V un R-spazio vettoriale, B e C due sue basi. Allora M B,C è invertibile
e la sua inversa è F B,C G−1
M = M C,B .
D E−1
B,C B,C B,C C,B
Dimostrazione. Basta ricordare che M = MidV
; inoltre per 3.6 MidV