Sei sulla pagina 1di 89

Algebra Lineare e Geometria

Francesco Bottacin
Indice
Capitolo 1. Teoria degli Insiemi 1
1. Insiemi niti e inniti 1
2. Cardinalit`a 10
3. Il teorema del Buon Ordinamento 24
Capitolo 2. Spazi Vettoriali 27
1. Vettori Geometrici 27
2. Spazi Vettoriali 31
Capitolo 3. Applicazioni Lineari e Matrici 61
1. Applicazioni Lineari 61
2. Matrici 70
iii
CAPITOLO 1
Teoria degli Insiemi
1. Insiemi niti e inniti
Nel seguito assumeremo che il lettore abbia una certa familiarit`a con
alcune nozioni elementari della teoria degli insiemi, quali il concetto
stesso di insieme, di funzione tra insiemi, di relazione di equivalenza e
di relazione dordine.
Indicheremo con N = 0, 1, 2, . . . linsieme dei numeri naturali e
con J
n
il sottoinsieme di N costituito dai numeri naturali compresi tra
1 e n,
J
n
= x N[ 1 x n.
Definizione 1.1. Un insieme S `e nito se `e vuoto oppure se esiste
una biiezione tra J
n
e S, per qualche n N. Un insieme `e detto innito
se non `e nito.
La seguente proposizione ci assicura che il numero di elementi di
un insieme nito `e ben denito.
Proposizione 1.2. Se S `e un insieme nito e non vuoto esiste un
unico n N tale che S sia in biiezione con J
n
.
Dimostrazione. Se, per assurdo, esistessero delle biiezioni tra S
e J
m
e tra S e J
n
, con n ,= m, si potrebbe trovare una biiezione tra
J
m
e J
n
. Possiamo supporre che sia n > m (altrimenti basta scambiare
i ruoli di m e n). Sia dunque f : J
n
J
m
una funzione biiettiva.
Componendo f con una opportuna permutazione di J
m
si pu`o ot-
tenere una funzione biiettiva F = f : J
n
J
m
con la propriet`a
che F(1) = 1, F(2) = 2, . . . , F(m) = m. Ma allora F(m + 1) deve
necessariamente coincidere con F(i), per qualche i = 1, . . . , m, il che
contraddice lipotesi che F sia biiettiva.
Linsieme N non `e, ovviamente, nito.
Definizione 1.3. Un insieme S `e detto numerabile se esiste una
biiezione tra S e N.
Un insieme nito non pu`o essere messo in corrispondenza biunivoca
con un suo sottoinsieme proprio (vedi la Proposizione 1.2). Lesempio
seguente mostra che ci`o non vale nel caso di un insieme innito:
Esempio 1.4. Sia P = 0, 2, 4, . . . il sottoinsieme di N costituito
dai numeri pari e sia D il sottoinsieme dei numeri dispari. Le funzioni
f : N P, n 2n, e g : N D, n 2n + 1, sono biiettive.
1
2 1. TEORIA DEGLI INSIEMI
Se noi accettiamo il fatto che due insiemi tra i quali esiste una fun-
zione biiettiva hanno lo stesso numero di elementi, allora dobbiamo
necessariamente accettare il fatto che un insieme innito quale N pu`o
avere lo stesso numero di elementi di un suo sottoinsieme proprio
(tale numero di elementi `e allora necessariamente innito).
Questi concetti verranno precisati nella prossima sezione.
Un insieme numerabile `e, in un certo senso, il pi` u piccolo degli
insiemi inniti:
Proposizione 1.5. Sia S un sottoinsieme di un insieme numera-
bile. Allora S `e nito o numerabile.
Dimostrazione. Sia X un insieme numerabile e S X. Dato
che X `e numerabile esiste una biiezione f : X N. S pu`o quindi
essere identicato con un sottoinsieme di N.
`
E quindi suciente di-
mostrare che ogni sottoinsieme di N `e nito o numerabile. Sia dunque
D un sottoinsieme di N. Se D `e nito la dimostrazione `e conclusa.
Supponiamo quindi che D sia innito. Sia d
1
il pi` u piccolo elemento di
D (che esiste poiche N `e bene ordinato). Deniamo poi d
2
come il pi` u
piccolo elemento di Dd
1
, etc. Supponiamo quindi, induttivamente,
di avere gi`a denito d
1
< d
2
< < d
n
. Deniremo d
n+1
come il pi` u
piccolo elemento di D d
1
, . . . , d
n
. Si ottiene in questo modo una
sequenza innita di elementi distinti di D. La funzione f : N D,
n d
n
`e dunque iniettiva. Dimostriamo che essa `e anche suriettiva.
Sia d D. Linsieme D
d
= x D[ x d `e nito, dato che `e
un sottoinsieme dellinsieme 0, 1, . . . , d. Sia m il numero di elementi
di D
d
. Dalle denizioni precedenti si deduce che D
d
contiene gli m
elementi d
1
< d
2
< < d
m
e che necessariamente d = d
m
. Ma ci`o
equivale a dire che d = f(m), quindi f `e suriettiva. La funzione f `e
dunque una biiezione tra N e D.
Enunciamo ora un assioma che risulta essere di fondamentale im-
portanza quando si lavora con insiemi inniti:
Assioma della scelta. Sia X un insieme di insiemi non vuoti.
Allora `e possibile scegliere un singolo elemento da ogni insieme che
appartiene a X.
Una formulazione equivalente `e la seguente: dato un qualsiasi in-
sieme di insiemi non vuoti a due a due disgiunti, esiste almeno un
insieme che ha esattamente un elemento in comune con ciascuno degli
insiemi non vuoti.
In altri termini, lassioma della scelta aerma che, data una qua-
lunque collezione di insiemi non vuoti, `e possibile scegliere un elemento
in ciascuno di questi insiemi, anche se questi sono in numero innito
e anche se non c`e nessuna regola che permetta di stabilire quale
elemento scegliere in ciascun insieme.
1. INSIEMI FINITI E INFINITI 3
Esempio 1.6. Utilizzando lassioma della scelta `e possibile dimo-
strare che ogni funzione suriettiva tra due insiemi, f : X Y , ammette
una sezione, cio`e esiste una funzione g : Y X tale che f g = id
Y
. In-
fatti, per ogni y Y possiamo considerare il sottoinsieme f
1
(y) X.
Lassioma della scelta garantisce che, per ogni y Y , `e possibile sceglie-
re un elemento x
y
f
1
(y). La funzione g : Y X denita ponendo
g(y) = x
y
`e una sezione di f.
Esempio 1.7. Come altra applicazione dellassioma della scelta di-
mostriamo ora che un prodotto cartesiano arbitrario di insiemi non
vuoti `e non vuoto.
Sia A un insieme non vuoto e, per ogni A, sia X

un insieme
non vuoto. Un elemento del prodotto cartesiano

A
X

`e (x

)
A
,
dove x

, per ogni A. Lassioma della scelta aerma proprio


che, per ogni A, `e possibile scegliere un elemento x

. In
questo modo si ottiene un elemento (x

)
A

A
X

.
Osservazione 1.8. Notiamo che, se il numero degli insiemi in que-
stione `e nito, non `e necessario ricorrere allassioma della scelta. Siano
infatti A
1
, A
2
, . . . , A
n
degli insiemi non vuoti. Poiche A
1
,= , esiste
un elemento a
1
A
1
. Se a
1
A
2
allora scegliamo lo stesso a
1
quale ele-
mento di A
2
, altrimenti, dato che A
2
,= , esiste un elemento a
2
A
2
,
con a
2
,= a
1
. Ora, se A
3
contiene a
1
oppure a
2
scegliamo questo come
elemento di A
3
, altrimenti, essendo A
3
,= , esiste un elemento a
3
A
3
,
con a
3
,= a
1
e a
3
,= a
2
. Continuando in questo modo, dopo un numero
nito di passi si ottiene un insieme di elementi a
1
, a
2
, a
3
, . . . con la
propriet`a richiesta.
Questo ragionamento non funziona pi` u se il numero di insiemi `e
innito.
Osservazione 1.9. Si pu`o dimostrare che lassioma della scelta `e
indipendente dagli altri assiomi usuali della teoria degli insiemi (As-
siomi di ZermeloFraenkel). La scelta di accettarlo quale assioma `e
dettata dal fatto che esso appare intuitivamente evidente. Facciamo
per`o notare che lassioma della scelta ha, tuttavia, delle conseguenze
controintuitive, come vedremo in seguito.
Continuando la nostra discussione sugli insiemi inniti, possiamo
ora dimostrare il seguente risultato:
Proposizione 1.10. Ogni insieme innito contiene un sottoinsie-
me numerabile.
Dimostrazione. Sia S un insieme innito. Sia s
1
un elemento
di S. Allora S s
1
`e ancora un insieme innito. Scegliamo un
elemento s
2
S s
1
, etc. Possiamo cos` supporre, induttivamente,
di avere gi`a denito gli n elementi distinti s
1
, . . . , s
n
S. Linsieme
Ss
1
, . . . , s
n
`e ancora un insieme innito, quindi possiamo scegliere
1
1
Si noti che in questa dimostrazione si utilizza lassioma della scelta.
4 1. TEORIA DEGLI INSIEMI
un elemento s
n+1
S s
1
, . . . , s
n
. Per induzione otteniamo cos` una
sequenza innita di elementi distinti di S, cio`e una funzione iniettiva
N S, n s
n
. Limmagine di questa funzione `e un sottoinsieme
numerabile di S.
Proposizione 1.11. Sia S un insieme numerabile e f : S Y
una funzione suriettiva. Allora Y `e nito o numerabile.
Dimostrazione. Per ogni y Y la sua immagine inversa f
1
(y) `e
un sottoinsieme non vuoto di S. In base allassioma della scelta possia-
mo scegliere un elemento s
y
f
1
(y), per ogni y Y . Si ottiene cos`
una funzione g : Y S, y s
y
(g `e detta una sezione di f). La funzio-
ne g `e evidentemente iniettiva, quindi permette di identicare Y con il
sottoinsieme g(Y ) di S. Poiche S `e numerabile, dalla Proposizione 1.5
discende che g(Y ), e quindi anche Y , `e nito o numerabile.
Proposizione 1.12. Sia S un insieme numerabile. Allora S S `e
numerabile.
Dimostrazione. Poiche S `e numerabile esiste una biiezione tra S
e N, da cui si ottiene una biiezione tra S S e NN. Dunque `e su-
ciente dimostrare che N N `e numerabile. Una biiezione tra N N e
N pu`o essere costruita come suggerito nella gura 1: ad ogni coppia di
numeri naturali viene associato un numero naturale ottenuto contando
le coppie lungo le diagonali, nel modo indicato dalle frecce (nella gu-
ra 1, ad ogni coppia (m, n) `e associato il numero scritto in grassetto in
basso a sinistra). Si verichi, come esercizio, che lespressione esplicita
di tale biiezione f : N N N `e la seguente:
f : (m, n)
(m+n)(m+n + 1)
2
+n.

Osservazione 1.13. Unaltra dimostrazione del risultato prece-


dente si pu`o ottenere utilizzando il Teorema 2.2 (Teorema di Cantor
BernsteinShroeder).
Consideriamo la funzione f : N N N denita da f(m, n) =
2
m
3
n
.
`
E immediato vericare che f `e iniettiva. Poiche esiste anche
una funzione iniettiva di N in NN, ad esempio la funzione n (n, 0),
il Teorema 2.2 permette di concludere che esiste una funzione biiettiva
tra N N e N.
Dalla proposizione precedente si deduce che un qualsiasi prodotto
nito di insiemi numerabili `e numerabile:
Corollario 1.14. Se S
i
, per i = 1, . . . , n, sono insiemi numera-
bili, allora il prodotto S
1
S
n
`e numerabile.
1. INSIEMI FINITI E INFINITI 5

(0,0)
0

(0,1)
2

(0,2)
5

(0,3)
9

(0,4)
14

(1,0)
1

(1,1)
4

(1,2)
8

(1,3)
13

(1,4)

(2,0)
3

(2,1)
7

(2,2)
12

(2,3)

(2,4)

(3,0)
6

(3,1)
11

(3,2)

(3,3)

(3,4)

(4,0)
10

(4,1)

(4,2)

(4,3)

(4,4)

c
c
c
c
c
c
c
c
c

c
c
c
c
c
c
c
c
c

c
c
c
c
c
c
c
c
c

c
c
c
c
c
c
c
c
c

c
c
c
c
c
c
c
c
c

c
c
c
c
c
c
c
c
c

c
c
c
c
c
c
c
c
c

c
c
c
c
c
c
c
c
c

c
c
c
c
c
c
c
c
c

c
c
c
c
c
c
c
c
c

c
c
c
c
c

c
c
c
c
c

c
c
c
c
c
Figura 1. Numerazione di N N
Proposizione 1.15. Lunione di una famiglia numerabile di in-
siemi numerabili `e numerabile, cio`e, se I `e un insieme numerabile e
se, per ogni i I `e dato un insieme numerabile S
i
, allora linsieme
S =

iI
S
i
`e numerabile.
Dimostrazione. Poiche I `e numerabile non `e restrittivo supporre
che I = N. Per ogni i N possiamo enumerare gli elementi dellinsieme
S
i
utilizzando due indici, nel modo seguente:
S
i
= x
i0
, x
i1
, x
i2
, . . . , x
ij
, . . . .
Consideriamo ora la funzione f : N N

iI
S
i
denita ponendo
f(i, j) = x
ij
. Questa funzione `e ovviamente suriettiva (anche se non
necessariamente iniettiva) e, dato che linsieme N N `e numerabile,
utilizzando la Proposizione 1.11 si deduce che

iI
S
i
`e numerabile.
1.1. Il Lemma di Zorn. In questa sezione dimostreremo un ri-
sultato di estrema utilit`a per lavorare con insiemi inniti, noto come
Lemma di Zorn.
Ricordiamo che un ordine parziale (o preordine) su un insieme S `e
una relazione tra coppie di elementi di S, che indicheremo con , la
quale soddisfa le tre seguenti propriet`a:
(i) x x, per ogni x S.
(ii) Per ogni x, y S, se x y e y x, allora x = y.
(iii) Per ogni x, y, z S, se x y e y z, allora x z.
La scrittura x < y equivale a x y e x ,= y.
Se per ogni x, y S si ha x y oppure y x, allora lordine si dice
totale. Un insieme S dotato di una relazione dordine parziale si dice
insieme ordinato. S `e detto totalmente ordinato se lordine `e totale.
6 1. TEORIA DEGLI INSIEMI
Un sottoinsieme totalmente ordinato di un insieme ordinato S `e
detto una catena di S.
Se S `e un insieme ordinato, un elemento massimale `e un elemento
m S tale che, se m s per qualche s S, allora deve necessariamen-
te essere m = s. In altre parole, in S non ci sono elementi pi` u grandi
di m.
Sia S un insieme ordinato e T un suo sottoinsieme. Un maggiorante
di T (in S) `e un elemento s S tale che, per ogni t T, si ha t s.
Un estremo superiore di T in S `e un maggiorante s di T tale che, per
ogni altro maggiorante r di T si abbia s r (lestremo superiore `e
dunque il minimo dei maggioranti). Si noti che lestremo superiore,
quando esiste, `e necessariamente unico.
Un insieme ordinato S `e detto induttivo se ogni catena non vuota
di S ammette un maggiorante. S `e detto strettamente induttivo se ogni
catena non vuota di S ammette estremo superiore.
Possiamo ora enunciare il lemma di Zorn:
Lemma 1.16 (Lemma di Zorn). Sia S un insieme ordinato non
vuoto e induttivo. Allora esiste un elemento massimale in S.
Osservazione 1.17. Come vedremo nel corso della dimostrazione,
il Lemma di Zorn dipende dallAssioma della Scelta. In eetti si pu`o
dimostrare che esso `e equivalente allAssioma della Scelta.
Noi dimostreremo una versione leggermente pi` u forte del Lemma di
Zorn, la quale aerma che per ogni elemento a S esiste un elemento
massimale m S tale che a m. Questo risultato sar`a ottenuto come
corollario del Teorema 1.19.
Premettiamo una denizione che useremo nella dimostrazione del
prossimo teorema.
Definizione 1.18. Sia A un insieme non vuoto, parzialmente or-
dinato e strettamente induttivo. Sia f : A A una funzione tale che
x f(x), per ogni x A (una tale f sar`a detta crescente). Fissato un
elemento a A, diremo che un sottoinsieme B A `e a-ammissibile se:
(i) a B,
(ii) f(B) B,
(iii) per ogni catena non vuota T in B, lestremo superiore di T in
A appartiene a B.
Teorema 1.19. Sia A un insieme non vuoto, parzialmente ordinato
e strettamente induttivo. Sia f : A A una funzione tale che x
f(x), per ogni x A. Allora, per ogni a A, esiste un elemento
x
a
A tale che a x
a
e f(x
a
) = x
a
.
Dimostrazione. Fissiamo a A. Se A fosse totalmente ordinato
esso avrebbe un estremo superiore b A. Poiche f `e crescente, deve
essere b f(b) ma, dato che b `e lestremo superiore di A, si deve anche
1. INSIEMI FINITI E INFINITI 7
avere f(b) b, da cui segue che f(b) = b. Dato che a b, ponendo
x
a
= b si ottiene lelemento cercato.
Cercheremo allora di ridurre la dimostrazione del teorema a questo
caso. Per fare ci`o basta trovare un sottoinsieme totalmente ordinato
a-ammissibile di A. Infatti, se B A `e un tale sottoinsieme, il suo
estremo superiore b soddisfa le due condizioni a b e f(b) = b.
Consideriamo quindi il sottoinsieme
B = x A[ a x.
Dimostriamo che B `e a-ammissibile. Infatti a B e se y f(B), allora
y = f(x) per qualche x B. Ma allora si ha a x f(x) = y (perche
f `e crescente), quindi y B. Questo dimostra che f(B) B. Inne,
se T `e una catena non vuota in B e se b `e il suo estremo superiore in
A, si ha certamente a b, quindi b B. Questo dimostra che B `e
a-ammissibile.
Arrivati a questo punto `e suciente trovare un sottoinsieme total-
mente ordinato a-ammissibile di B (questo sar`a anche un sottoinsieme
totalmente ordinato a-ammissibile di A).
Indichiamo con M lintersezione di tutti i sottoinsiemi a-ammissibili
di B. M non `e vuoto, dato che B stesso `e a-ammissibile e che tutti i
sottoinsiemi a-ammissibili di B contengono a.
Dimostriamo ora che M `e a-ammissibile. Infatti a M e, se scri-
viamo M =

iI
C
i
, ove gli insiemi C
i
B sono a-ammissibili, si ha
f(M) = f(

iI
C
i
)

iI
f(C
i
)

iI
C
i
= M. Inoltre, se T `e una
catena non vuota in M, essa `e anche una catena in ogni C
i
, quindi il suo
estremo superiore appartiene ad C
i
, per ogni i I e, di conseguenza,
appartiene anche a M.
In base alla denizione, M `e dunque il pi` u piccolo sottoinsieme a-
ammissibile di B, nel senso che ogni sottoinsieme a-ammissibile di B
contenuto in M coincide necessariamente con M.
Per concludere la dimostrazione del teorema `e ora suciente dimo-
strare che M `e totalmente ordinato. Per fare ci`o avremo bisogno di
due risultati intermedi, che ora dimostreremo.
Prima di enunciarli ci servono alcune denizioni.
Sia c M. Diremo che c `e un punto estremo di M se
x M, x < c f(x) c.
Notiamo che a M `e un punto estremo, dato che non esiste alcun
x M tale che x < a.
Per ogni punto estremo c M poniamo
M
c
= x M [ x c oppure f(c) x.
Lemma 1.20. Per ogni punto estremo c M si ha M
c
= M.
Dimostrazione. Ricordiamo che M `e il pi` u piccolo sottoinsieme
a-ammissibile di B e che M
c
M. Basta quindi dimostrare che M
c
8 1. TEORIA DEGLI INSIEMI
`e a-ammissibile. Certamente si ha a M
c
, dato che a `e il minimo
di B. Sia ora x M
c
. Se x < c allora f(x) c (per denizione
di punto estremo), quindi f(x) M
c
. Se x = c allora f(x) = f(c),
quindi anche in questo caso f(x) M
c
. Se invece f(c) x allora si ha
f(c) x f(x) (perche f `e crescente), quindi anche in questo caso
f(x) M
c
. Sia ora T una catena non vuota in M
c
. T `e anche una
catena in M, quindi il suo estremo superiore b appartiene a M. Se
per tutti gli elementi x T si ha x c, allora si ha anche b c (per
denizione di estremo superiore), quindi b M
c
. Se invece qualche
x T `e tale che f(c) x, allora f(c) x b, quindi anche in questo
caso b M
c
. Questo dimostra che M
c
`e a-ammissibile, quindi coincide
con M.
Lemma 1.21. Ogni elemento di M `e un punto estremo.
Dimostrazione. Sia E linsieme dei punti estremi di M. Basta
dimostrare che E `e a-ammissibile (dalla minimalit`a di M segue allora
che E = M). Certamente a E (abbiamo gi`a osservato in precedenza
che a `e un punto estremo di M). Dimostriamo ora che f(E) E. Sia
dunque c E e consideriamo f(c). Sia x M e supponiamo che x <
f(c). Dobbiamo dimostrare che f(x) f(c). Per il lemma precedente,
M = M
c
, quindi si deve avere x < c oppure x = c oppure f(c) x.
Poiche questultima possibilit`a contraddice lipotesi x < f(c), si pu`o
solo avere x < c oppure x = c. Se x < c allora f(x) c (perche
c `e un punto estremo), ma c f(c) (perche f `e crescente), quindi
f(x) f(c), che `e ci`o che si voleva dimostrare. Se invece x = c, allora
f(x) = f(c), il che va altrettanto bene. Abbiamo cos` dimostrato che
f(E) E.
Per nire, sia T una catena non vuota in E. T `e anche una catena in
M, quindi esiste il suo estremo superiore b M. Dobbiamo dimostrare
che b E. Sia dunque x M, con x < b. Dobbiamo dimostrare che
f(x) b. Se, per ogni c T si avesse f(c) x, allora sarebbe
c f(c) x (perche f `e crescente), quindi x sarebbe un maggiorante
di T e, di conseguenza, b x (per denizione di estremo superiore), il
che contraddice lipotesi x < b.
Dato che M
c
= M, per ogni c E, si deve allora necessariamente
avere x c, per qualche c T. Infatti, se fosse c < x, c T, allora si
avrebbe anche b x, il che contraddice lipotesi x < b. Se fosse x < c
allora si avrebbe f(x) c b, quindi b sarebbe un punto estremo, cio`e
b E, che `e esattamente ci`o che si voleva ottenere. Se invece x = c
allora, dato che c `e un punto estremo (perche c T E) e dato che
M
c
= M, si deduce che f(x) = f(c) b (in base alla denizione di M
c
,
e cio`e perche altrimenti b sarebbe un elemento di M compreso tra c e
f(c), il che non `e possibile per il lemma precedente). Questo dimostra
che, anche in questo caso, b E, quindi E `e a-ammissibile.
1. INSIEMI FINITI E INFINITI 9
Ritornando alla dimostrazione del teorema, ricordo che dovevamo
dimostrare che M `e totalmente ordinato. Siano quindi x, y M. In
base al Lemma 1.21, x `e un punto estremo di M, quindi y M = M
x
,
per il Lemma 1.20. Ma, dalla denizione di M
x
segue che o y x,
oppure x f(x) y (perche f `e crescente). Quindi x e y sono
confrontabili tra loro, il che dimostra che M `e totalmente ordinato.
Questo termina la dimostrazione del teorema.
Come corollario possiamo, dapprima, ottenere una versione debole
del Lemma di Zorn:
Corollario 1.22. Sia S un insieme non vuoto, parzialmente or-
dinato e strettamente induttivo. Per ogni s S esiste un elemento
massimale m S tale che s m.
Dimostrazione. Supponiamo, per assurdo, che esista s S per il
quale non esiste alcun elemento massimale m S con s m. Sia A =
x S [ s x. A `e un insieme non vuoto (contiene s) e parzialmente
ordinato. Sia T una catena non vuota in A e sia b il suo estremo
superiore in S. Dato che s b, si ha che b A, quindi A`e strettamente
induttivo. Dallipotesi che non esista alcun elemento massimale m S
con s m, si deduce che per ogni x A esiste
2
un elemento y
x
A
tale che x < y
x
. La funzione f : A A, x y
x
soddisfa le ipotesi del
Teorema 1.19, il quale garantisce lesistenza di un elemento x A per
cui si ha f(x) = x. Ma ci`o contraddice il fatto che x < y
x
, per ogni
x A.
Il Lemma di Zorn si pu`o ora dedurre dal corollario precedente:
Corollario 1.23 (Lemma di Zorn). Sia S un insieme non vuoto,
parzialmente ordinato e induttivo. Per ogni s S esiste un elemento
massimale m S tale che s m.
Dimostrazione. Sia A linsieme di tutte le catene non vuote di S.
A non `e linsieme vuoto perche a A, per ogni a S. Se X, Y
A, poniamo X Y se X Y (ordiniamo A per inclusione). In
questo modo A diventa un insieme parzialmente ordinato strettamente
induttivo. Infatti, se T = X
i

iI
`e una catena in A e se poniamo Z =

iI
X
i
, Z risulta essere una catena in S. Infatti, se x, y Z, allora
x X
i
e y X
j
, per qualche i, j I. Ma, dato che T `e una catena, si
deve avere X
i
X
j
oppure X
j
X
i
. In ogni caso, i due elementi x e y
appartengono ad uno stesso insieme X
k
(dove k = i o k = j). Ma X
k
`e
una catena in S, quindi si ha che x y oppure y x. Ora `e chiaro che
Z `e lestremo superiore di T e che Z A, quindi A `e strettamente
induttivo. Applicando la versione debole del Lemma di Zorn (corollario
precedente) allinsieme A si conclude che, per ogni X A, esiste un
elemento massimale X
0
A tale che X X
0
. Linsieme X
0
`e dunque
2
Si noti che in questo punto si usa lAssioma della Scelta.
10 1. TEORIA DEGLI INSIEMI
una catena non vuota di S, massimale rispetto allinclusione. Dato
che S `e induttivo, linsieme X
0
ammette dei maggioranti. Sia dunque
m S un maggiorante di X
0
. Dimostreremo ora che m `e un elemento
massimale di S. Infatti, se esistesse x S con m x, linsieme X
0
x
sarebbe totalmente ordinato, cio`e sarebbe una catena in S. Ma X
0
`e
massimale tra tali catene, pertanto si deve avere X
0
x = X
0
, cio`e
x X
0
. Ma ci`o signica che x m, dato che m `e un maggiorante di
X
0
. Si conclude quindi che x = m, il che dimostra che m `e massimale.
Abbiamo dunque dimostrato lesistenza di un elemento massimale
in S.
Per terminare la dimostrazione osserviamo che, se s S `e un ele-
mento ssato, basta porre X = s nel ragionamento precedente per
dedurre che s X
0
. Dato che m era un maggiorante di X
0
, si ha
s m, come richiesto.
2. Cardinalit`a
Il processo intuitivo di contare gli elementi di un insieme nito e non
vuoto S consiste nello stabilire una biiezione tra S e J
n
= 1, 2, . . . , n,
per qualche n N. Lunico numero n per il quale esiste una funzione
biiettiva tra S e J
n
`e proprio il numero di elementi di S, che chiameremo
la cardinalit`a di S e indicheremo con [S[. Nel caso dellinsieme vuoto
porremo naturalmente [[ = 0.
Ci`o che ora vogliamo fare `e estendere la nozione di cardinalit`a agli
insiemi inniti.
Naturalmente, nel caso di un insieme innito, non `e pi` u possibile
contare i suoi elementi! Tuttavia abbiamo gi`a osservato che per stabilire
se due insiemi niti abbiano o meno lo stesso numero di elementi non `e
necessario contarli; basta infatti stabilire se esiste o meno una biiezione
tra i due insiemi in questione. Possiamo quindi pensare di fare una
cosa analoga nel caso degli insiemi inniti.
3
Diamo quindi la seguente
denizione:
Definizione 2.1. Due insiemi A e B (niti o inniti) sono equipo-
tenti se esiste una funzione biiettiva tra A e B.
Si verica facilmente che la relazione di equipotenza gode delle pro-
priet`a riessiva, simmetrica e transitiva, quindi denisce una relazione
di equivalenza.
Nel caso di un insieme innito non possiamo pi` u denire la car-
dinalit`a come il numero dei suoi elementi (poiche innito non `e un
numero), tuttavia possiamo risolvere questo problema identicando la
cardinalit`a con una classe di equivalenza per la relazione di equipo-
tenza. In altre parole, la cardinalit`a di un insieme S (nito o meno),
3
Notiamo tuttavia che il fatto di accettare che delle propriet`a che valgono per
gli insiemi niti valgano anche per insiemi inniti, su cui non abbiamo esperienza
diretta, pu`o portare a conseguenze controintuitive.
2. CARDINALIT
`
A 11
indicata sempre con [S[, `e ora pensata come la classe di tutti
4
gli insiemi
equipotenti a S. A parte questa denizione tecnica, la cardinalit`a pu`o
essere intuitivamente pensata come quella cosa che hanno in comune
tutti gli insiemi che sono equipotenti tra loro.
Possiamo anche pensare di confrontare due cardinalit`a stabilendo
che, dati due insiemi A e B, sar`a [A[ [B[ quando esiste una funzione
iniettiva da A in B (si verichi che, nel caso di insiemi niti, questa
denizione coincide con quella naturale data dal confronto tra numeri).
Arrivati a questo punto, sarebbe piuttosto utile sapere che se A e
B sono due insiemi tali che [A[ [B[ e [B[ [A[, allora deve neces-
sariamente essere [A[ = [B[. Ci`o non `e aatto ovvio perche, in base
alle denizioni date, richiede di sapere che lesistenza di una funzione
iniettiva f : A B e di una funzione iniettiva g : B A implica
lesistenza di una funzione biiettiva h : A B. Per fortuna ci`o `e vero:
Teorema 2.2 (CantorBernsteinShroeder). Siano X e Y due
insiemi tali che [X[ [Y [ e [Y [ [X[. Allora si ha [X[ = [Y [.
Per la dimostrazione avremo bisogno del seguente risultato:
Lemma 2.3. Sia X un insieme e sia P(X) linsieme dei sottoin-
siemi di X. Sia f : P(X) P(X) una funzione tale che per
ogni A, B X con A B, si ha f(A) f(B). Allora esiste un
sottoinsieme Y X tale che f(Y ) = Y .
Dimostrazione. Sia S = A P(X) [ f(A) A. Linsieme
S non `e vuoto, dato che sicuramente contiene X. Poniamo allora
Y =

AS
A. Allora Y A, per ogni A S, da cui segue che
f(Y ) f(A) A, per ogni A S, quindi f(Y ) Y . Applicando
f ad ambo i membri di questa inclusione si ottiene f(f(Y )) f(Y ),
da cui segue che f(Y ) S. Ma allora Y f(Y ), il che dimostra che
f(Y ) = Y .
Possiamo ora dimostrare il Teorema 2.2:
Dimostrazione. (T. di CantorBernsteinShroeder). Sia-
no f : X Y e g : Y X due funzioni iniettive. Deniamo
F : P(X) P(X) ponendo
F(A) = X
_
g
_
Y f(A)
_
_
.
Si verica immediatamente che, se A B, allora F(A) F(B). Dal
lemma precedente si deduce che esiste un sottoinsieme Z X tale che
F(Z) = Z. Ci`o signica che X Z = g(Y f(Z)). Pertanto f[
Z
`e una biiezione tra Z e la sua immagine f(Z), mentre g[
Y f(Z)
`e una
biiezione tra Y f(Z) e X Z. Usando queste due biiezioni (pi` u
4
Quando si parla della classe di tutti gli insiemi. . . bisogna stare attenti
a non incorrere in paradossi, quali il paradosso di Russell. Per andare sul sicuro
conviene sempre considerare insiemi contenuti in un qualche universo U pressato.
12 1. TEORIA DEGLI INSIEMI
precisamente, usando f[
Z
e linversa di g[
Y f(Z)
) si pu`o costruire una
funzione biiettiva da X a Y .
Da questo teorema segue quindi che la relazione tra cardinalit`a de-
nita in precedenza `e, in eetti, un ordine parziale. Come ora vedremo,
utilizzando il Lemma di Zorn si pu`o dimostrare che si tratta di un
ordine totale.
Proposizione 2.4. Dati due insiemi X e Y , si ha [X[ [Y [ oppure
[Y [ [X[.
Dimostrazione. Possiamo supporre che X e Y non siano vuoti,
altrimenti lasserzione `e banale. Sia A linsieme di tutte le coppie
(A, f), dove A X e f : A Y `e una funzione iniettiva. A `e non
vuoto poiche contiene almeno una coppia in cui A = a, con a X.
Deniamo un ordine parziale su A ponendo (A, f) (B, g) se A B
e la restrizione di g ad A coincide con f. Linsieme A `e induttivo,
anzi `e addirittura strettamente induttivo. Infatti se T = (A
i
, f
i
)
iI
`e una catena in A basta porre V =

iI
A
i
e denire h : V Y
ponendo h(x) = f
i
(x) se x A
i
, per qualche indice i I (si noti che
tale denizione non dipende dal particolare indice i scelto).
Dal Lemma di Zorn si deduce quindi che in A esiste un elemento
massimale, che indicheremo con (M, k). Se k : M Y `e suriettiva,
allora essa `e biiettiva; pertanto componendo linversa di k con linclu-
sione di M in X si ottiene una funzione iniettiva Y X, il che signica
che [Y [ [X[.
Se invece k non `e suriettiva allora si deve avere M = X. Infatti,
se esistesse un elemento x X M, poiche esiste anche un elemento
y Y k(M) (dato che abbiamo supposto che k non sia suriettiva), si
potrebbe costruire una coppia (M

, k

) ponendo M

= M x e de-
nendo k

: M

Y ponendo k

(x) = y e stabilendo poi che k

coincida
con k sugli elementi di M. Ma questo sarebbe in contraddizione con
la massimalit`a di (M, k). Essendo pertanto M = X, k `e una funzione
iniettiva di X in Y , il che signica che [X[ [Y [.
Nella sezione precedente abbiamo studiato alcune propriet`a degli
insiemi numerabili. In particolare abbiamo dimostrato che ogni insie-
me innito contiene un sottoinsieme numerabile (Proposizione 1.10),
mentre un sottoinsieme di un insieme numerabile deve necessariamente
essere nito o numerabile (Proposizione 1.5).
Ci`o signica che la cardinalit`a di un insieme numerabile `e la pi` u
piccola tra tutte le cardinalit`a innite: una cardinalit`a strettamente
minore della cardinalit`a di un insieme numerabile `e necessariamente
nita.
Vista la sua importanza, la cardinalit`a di un insieme numerabile `e
indicata con un simbolo particolare:
0
(aleph
5
zero).
5
Aleph, , `e la prima lettera dellalfabeto ebraico.
2. CARDINALIT
`
A 13
Veniamo ora allo studio di alcune propriet`a delle cardinalit`a innite.
Premettiamo una denizione:
Definizione 2.5. Sia S un insieme. Un ricoprimento di S `e un
insieme di sottoinsiemi di S tale che si abbia S =

C
C. Diremo
che `e un ricoprimento disgiunto di S se esso `e un ricoprimento di S
e se, per ogni C, C

, con C ,= C

, si ha C C

= .
Lemma 2.6. Sia S un insieme innito. Allora esiste un ricopri-
mento disgiunto di S costituito da insiemi numerabili.
Dimostrazione. Sia S linsieme delle coppie (A, ), dove A `e un
sottoinsieme di S e `e un ricoprimento disgiunto di A costituito da
insiemi numerabili. Linsieme S non `e vuoto; infatti, dato che S `e
innito, esso contiene un sottoinsieme numerabile D, quindi la coppia
(D, D) appartiene a S. Deniamo un ordine parziale in S ponendo
(A, ) (A

) se A A

. Sia ora T un sottoinsieme non


vuoto totalmente ordinato di S. Possiamo scrivere T = (A
i
,
i
)
iI
,
per qualche insieme di indici I. Poniamo A =

iI
A
i
e =

iI

i
.
Se C, C

, con C ,= C

, allora esistono due indici i, j I tali che


C
i
e C


j
. Dato che T `e totalmente ordinato, si ha (A
i
,
i
)
(A
j
,
j
) oppure (A
j
,
j
) (A
i
,
i
). Supponiamo che valga la prima
disuguaglianza (altrimenti basta scambiare il ruolo dei due indici i e
j). Se ne deduce che C, C


j
e quindi C C

= , dato che
j
`e un ricoprimento disgiunto di A
j
. Se x A, allora x A
i
, per
qualche indice i, quindi x appartiene a qualche C
i
, dato che
i
`e
un ricoprimento disgiunto di A
i
. Da ci`o segue che `e un ricoprimento
disgiunto di A. Dato che gli elementi di ciascun
i
sono sottoinsiemi
numerabili di S, `e un ricoprimento disgiunto di Acostituito da insiemi
numerabili, quindi (A, ) S ed `e, ovviamente, un maggiorante di
T (anzi, ne `e proprio lestremo superiore). Ci`o dimostra che S `e
induttivamente ordinato. Sia allora (M, ) un elemento massimale di
S, la cui esistenza `e garantita dal Lemma di Zorn. Se M = S abbiamo
nito. Supponiamo quindi che M sia diverso da S. Se il complementare
di M in S `e innito, esso contiene un insieme numerabile D. Allora la
coppia (MD, D) `e un elemento di S pi` u grande di (M, ), il che
contraddice la massimalit`a di questultimo. Quindi il complementare
di M in S deve essere un insieme nito F. Sia D
0
un elemento di .
Poniamo D
1
= D
0
F. Allora D
1
`e un insieme numerabile. Sia
1
linsieme costituito da tutti gli elementi di eccetto D
0
, assieme a
D
1
. Allora
1
`e un ricoprimento disgiunto di S costituito da insiemi
numerabili, come volevasi dimostrare.
Teorema 2.7. Sia S un insieme innito e sia D un insieme nu-
merabile. Allora [S D[ = [S[.
14 1. TEORIA DEGLI INSIEMI
Dimostrazione. Per il lemma precedente possiamo esprimere S
come unione disgiunta di insiemi numerabili S =

iI
D
i
. Allora si ha:
S D =
_
iI
(D
i
D).
Per ogni i I esiste una biiezione tra D
i
D e D
i
, in base alla Propo-
sizione 1.12. Dato che gli insiemi D
i
D sono a due a due disgiunti, si
ottiene una biiezione tra S D e S.
Corollario 2.8. Sia S un insieme innito. Per ogni insieme
nito non vuoto F, si ha [S F[ = [S[.
Dimostrazione. Sia D un insieme numerabile contenente F. Si
ha:
[S[ [S F[ [S D[ = [S[.
Il Teorema 2.2 permette di concludere.
Corollario 2.9. Sia S un insieme innito e R un insieme non
vuoto. Se [R[ [S[ allora si ha [S R[ = [S[.
Dimostrazione. Possiamo scrivere S R = S T, per qualche
T R tale che S T = . Allora [T[ [R[ [S[. Possiamo allora
costruire una funzione iniettiva di S T in S 1, 2. Infatti si ha
una biiezione tra S e S 1 nel modo ovvio, ed esiste una funzione
iniettiva di T in S 2 per il fatto che [T[ [S[. Si ha pertanto
[S T[ [S 1, 2[ = [S[. Poiche si ha, ovviamente, anche [S[
[S T[, dal Teorema 2.2 si conclude che deve valere luguaglianza.
Corollario 2.10. Sia S un insieme innito e R S. Se [R[ < [S[
allora si ha [S R[ = [S[.
Dimostrazione. Osserviamo che si ha S = (S R) R. Dalle
ipotesi segue che [R[ < [S R[. Infatti, se fosse [S R[ [R[, dal
corollario precedente si avrebbe [S[ = [(S R) R[ = [R[, il che
contraddice lipotesi [R[ < [S[. Sempre dal corollario precedente segue
allora che [S[ = [(S R) R[ = [S R[.
Proposizione 2.11. Sia S un insieme innito. Per ogni i N sia
A
i
un insieme tale che [A
i
[ [S[. Supponiamo inoltre che gli insiemi
A
i
siano a due a due disgiunti, cio`e che A
i
A
j
= , se i ,= j e poniamo
A =

iN
A
i
. Allora si ha [A[ [S[.
Dimostrazione. Per ogni i N sia f
i
: A
i
S una funzione
iniettiva. Osserviamo che, per ogni x A esiste un unico indice i
tale che x A
i
(qui si usa lipotesi che gli insiemi A
i
siano a due a
due disgiunti). Possiamo quindi denire una funzione F : A S N
associando a tale x A la coppia (f
i
(x), i). La funzione F `e iniettiva,
quindi si ha [A[ [S N[. Dal Teorema 2.7 si ha che [S N[ = [S[,
quindi [A[ [S[, come volevasi dimostrare.
2. CARDINALIT
`
A 15
Osservazione 2.12. La proposizione precedente continua a valere
anche se gli insiemi A
i
non sono a due a due disgiunti. Infatti se
A =

iN
A
i
, `e sempre possibile trovare dei sottoinsiemi B
i
A
i
tali
che B
i
B
j
= , per ogni i ,= j, e tali che A =

iN
B
i
.
Teorema 2.13. Sia S un insieme innito. Allora [S S[ = [S[.
Dimostrazione. Sia S linsieme delle coppie (A, f), ove A `e un
sottoinsieme innito di S e f : A AA `e una funzione biiettiva. S
non `e vuoto perche S contiene un sottoinsieme numerabile D e, dato
che D `e numerabile, `e sempre possibile trovare una funzione biiettiva
f : D D D. Dati due elementi (A, f) e (A

, f

) in S, poniamo
(A, f) (A

, f

) se A A

e f

[
A
= f. In questo modo linsieme S
risulta essere parzialmente ordinato. Sia ora T una catena non vuota
in S. Possiamo scrivere T = (A
i
, f
i
)
iI
, per qualche insieme di
indici I. Sia M =

iI
A
i
. Deniremo ora una biiezione g : M
M M. Se x M allora x A
i
per qualche i I; poniamo allora
g(x) = f
i
(x). Questa `e una buona denizione in quanto il valore f
i
(x)
non dipende dalla scelta di A
i
. Infatti se x A
j
, per qualche j ,= i,
allora si avr`a (A
i
, f
i
) (A
j
, f
j
) oppure (A
j
, f
j
) (A
i
, f
i
), perche T
`e totalmente ordinato. A meno di scambiare i ruoli di i e j possiamo
allora supporre che sia (A
i
, f
i
) (A
j
, f
j
). In tal caso di ha x A
i
A
j
e f
j
[
A
i
= f
i
, il che signica che f
j
(x) = f
i
(x). Per dimostrare che g `e
suriettiva, sia (x, y) M M. Allora x A
i
e y A
j
, per qualche
i, j I. Esattamente come prima, non `e restrittivo supporre che sia
(A
i
, f
i
) (A
j
, f
j
), da cui si deduce che x, y A
j
. Allora esiste un
elemento b A
j
tale che f
j
(b) = (x, y), perche f
j
`e biiettiva. Dalla
denizione di g si deduce che g(b) = (x, y), quindi g `e suriettiva. La
dimostrazione delliniettivit`a di g `e analoga. Supponiamo infatti che
x, y M siano tali che g(x) = g(y). Si ha x A
i
e y A
j
, per qualche
i, j I. Dato che T `e totalmente ordinato, non `e restrittivo supporre
che (A
i
, f
i
) (A
j
, f
j
). Da ci`o segue che x, y A
j
e che f
i
(x) = f
j
(x).
Ma allora si ha g(x) = f
j
(x) e g(y) = f
j
(y), quindi f
j
(x) = f
j
(y). Dato
che f
j
`e iniettiva si deve avere x = y, il che dimostra che g `e iniettiva.
Abbiamo cos` dimostrato che g `e biiettiva. Da ci`o segue subito che
(M, g) `e un maggiorante di T in S (anzi `e proprio lestremo superiore
di T). Questo dimostra che linsieme S `e induttivo. Sia quindi (M, g)
un elemento massimale di S (esiste per il Lemma di Zorn) e sia C il
complemento di M in S. Se [C[ [M[, si ha
[M[ [S[ = [M C[ = [M[,
per il Corollario 2.9, da cui segue che [M[ = [S[ per il Teorema 2.2.
Dato che [M[ = [MM[, abbiamo concluso la dimostrazione. Rimane
solo da analizzare il caso in cui [M[ [C[. In questo caso esiste un
sottoinsieme M
1
di C avente la stessa cardinalit`a di M. Consideriamo
16 1. TEORIA DEGLI INSIEMI
allora
(MM
1
)(MM
1
) = (MM)(M
1
M)(MM
1
)(M
1
M
1
).
Per lipotesi su M gli ultimi tre insiemi in parentesi alla destra di questa
equazione hanno la stessa cardinalit`a di M, quindi, per il Corollario 2.9,
possiamo scrivere
(M M
1
) (M M
1
) = (M M) M
2
,
dove M
2
`e disgiunto da M M e ha la stessa cardinalit`a di M.
Ora deniamo una biiezione
g
1
: M M
1
(M M
1
) (M M
1
).
Poniamo g
1
(x) = g(x) se x M, e deniamo g
1
in M
1
come una
qualunque biiezione tra M
1
e M
2
. In questo modo abbiamo esteso g da
M a MM
1
ottenendo una coppia (MM
1
, g
1
) S, il che contraddice
la massimalit`a di (M, g). Questo dimostra che non pu`o essere [M[
[C[, pertanto deve necessariamente essere [C[ [M[ (infatti abbiamo
gi` a dimostrato che le cardinalit`a sono totalmente ordinate). Questo
conclude la dimostrazione del teorema.
Corollario 2.14. Sia S un insieme innito e indichiamo con S
n
il prodotto cartesiano di S per se stesso n volte. Allora si ha [S
n
[ = [S[,
per ogni n 1.
Dimostrazione. Induzione su n.
Corollario 2.15. Se S
1
, S
2
, . . . , S
n
sono insiemi non vuoti, con
S
n
innito, e se [S
i
[ [S
n
[, per i = 1, . . . , n1, allora [S
1
S
n
[ =
[S
n
[.
Dimostrazione. Si ha:
[S
n
[ [S
1
S
n
[ [S
n
S
n
[ = [S
n
[,
per il corollario precedente. Il Teorema 2.2 permette di concludere.
Corollario 2.16. Sia S un insieme innito e sia linsieme dei
sottoinsiemi niti di S. Allora [[ = [S[.
Dimostrazione. Sia
n
linsieme dei sottoinsiemi di S aventi esat-
tamente n elementi, per n = 0, 1, 2, . . . . Dimostriamo dapprima che
[
n
[ [S[. Per n = 0,
0
contiene solo linsieme vuoto, quindi [
0
[ = 1.
Supponiamo quindi che n 1. Per ogni elemento F di
n
ssiamo un
qualche ordinamento dei suoi elementi,
F = x
1
, . . . , x
n
.
A tale sottoinsieme possiamo quindi associare lelemento (x
1
, . . . , x
n
)
S
n
. Otteniamo cos` una funzione
n
S
n
, F (x
1
, . . . , x
n
).
2. CARDINALIT
`
A 17
Questa funzione `e iniettiva; infatti se G = y
1
, . . . , y
n
`e un al-
tro sottoinsieme di S avente n elementi e se G ,= F, allora si ha
necessariamente (y
1
, . . . , y
n
) ,= (x
1
, . . . , x
n
). Da ci`o segue che
[
n
[ [S
n
[ = [S[,
per il Corollario 2.14. Ora osserviamo che `e lunione disgiunta dei

n
, per n = 0, 1, 2, . . . . Dalla Proposizione 2.11 segue che [[ [S[.
Poiche si ha anche [S[ [[ (basta osservare che si ha [S[ = [
1
[), dal
Teorema 2.2 si conclude.
Possiamo osservare che, no a questo punto, non abbiamo mai in-
contrato delle cardinalit`a pi` u grandi di
0
. Il prossimo teorema mostra
che, dato un qualsiasi insieme innito S, esiste sempre un insieme la
cui cardinalit`a `e strettamente maggiore di quella di S.
Teorema 2.17. Sia S un insieme innito e sia M linsieme di
tutte le funzioni da S nellinsieme 0, 1. Allora si ha [S[ < [M[.
Dimostrazione. Per ogni x S sia f
x
: S 0, 1 la funzione
denita da f
x
(x) = 1 e f
x
(y) = 0 per ogni y ,= x. Allora la funzione x
f
x
`e una funzione iniettiva di S in M, pertanto [S[ [M[. Supponiamo
che sia [S[ = [M[. Sia dunque x g
x
una biiezione tra S e M.
Deniamo ora una funzione h : S 0, 1 ponendo
h(x) =
_
0 se g
x
(x) = 1,
1 se g
x
(x) = 0.
Allora si ha certamente h ,= g
x
, per ogni x S, ma ci`o contraddice
lipotesi che la funzione x g
x
sia biiettiva. Quindi deve essere [S[ ,=
[M[, come volevasi dimostrare.
Osservazione 2.18. Se S e T sono due insiemi, linsieme di tutte
le funzioni f : S T `e indicato con il simbolo T
S
. Tale notazione `e
consistente con il fatto che [T
S
[ = [T[
|S|
(quando S e T sono insiemi
niti). Usando questa notazione, il risultato del teorema precedente
pu`o essere espresso dicendo che, per ogni insieme S (nito o innito),
si ha
[S[ < 2
|S|
.
Corollario 2.19. Sia S un insieme innito e sia P(S) linsieme
di tutti i sottoinsiemi di S. Allora si ha [S[ < [P(S)[.
Dimostrazione. Sia M linsieme di tutte le funzioni da S in
0, 1. Per ogni sottoinsieme A S deniamo la sua funzione ca-
ratteristica
A
: S 0, 1 ponendo

A
(x) =
_
1 se x A,
0 se x , A.
18 1. TEORIA DEGLI INSIEMI
Si verica facilmente che la funzione P(S) M, A
A
, `e una
biiezione, quindi [P(S)[ = [M[. Il teorema precedente permette allora
di concludere.
2.1. La cardinalit`a del continuo. In questa sezione studieremo
le cardinalit`a degli usuali insiemi numerici Z, Q e R.
Iniziamo con losservare che linsieme Z dei numeri interi `e nume-
rabile. Esso `e infatti unione dei due insiemi numerabili 0, 1, 2, 3, . . .
e 1, 2, 3, . . . (cf. Proposizione 1.15).
Pi` u direttamente, `e suciente osservare che la funzione f : N Z
denita ponendo
f(n) =
_
n
2
se n `e pari,

n+1
2
se n `e dispari
`e biiettiva.
Passiamo ora dellinsieme Q dei numeri razionali.
Proposizione 2.20. Linsieme Q `e numerabile.
Dimostrazione. Poniamo Q
+
= q Q[ q > 0 e Q

= q
Q[ q < 0. La funzione Q
+
Q

, q q, `e biiettiva, quindi [Q
+
[ =
[Q

[. Dato che Q = Q
+
0 Q

, dalla Proposizione 1.15 si deduce


che [Q[ = [Q
+
[.
`
E quindi suciente dimostrare che Q
+
`e numerabile.
Poniamo N

= N0 e osserviamo che ogni q Q


+
si pu`o scrivere
in modo unico nella forma q = m/n, ove m, n N

sono due interi


relativamente primi. Se associamo a q la coppia (m, n) otteniamo una
funzione iniettiva F : Q
+
N

. Poiche N

`e numerabile, dalla
Proposizione 1.12 si deduce che N

`e numerabile, quindi si ha
[Q
+
[ [N

[ = [N[.
Dallovvia inclusione N

Q
+
data da n n/1, segue che [N

[
[Q
+
[. Per il Teorema 2.2, si ha quindi [Q
+
[ = [N[.
Consideriamo ora linsieme R dei numeri reali. Avremo bisogno di
richiamare alcuni fatti elementari riguardanti la rappresentazione di un
numero reale in una base N arbitraria.
Fissiamo quindi un numero naturale N 2 (la base) e consideria-
mo un insieme S di simboli, contenente N elementi. Assegniamo a
ciascuno degli elementi di S un valore numerico distinto, preso nellin-
sieme 0, 1, 2, . . . , N 1. In tal modo `e possibile identicare S con
linsieme dei numeri naturali 0, 1, . . . , N1. Non `e quindi restrittivo
supporre che sia S = 0, 1, . . . , N 1.
Esempio 2.21. Nel caso in cui N = 2 (numerazione in base 2, o bi-
naria), solitamente si prende S = 0, 1, mentre nella usuale notazione
decimale (N = 10), si ha S = 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. Nella cosiddetta
notazione esadecimale (N = 16), si ha
S = 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F,
2. CARDINALIT
`
A 19
dove i valori numerici dei nuovi simboli sono: A = 10, B = 11, C = 12,
D = 13, E = 14 e F = 15.
Un numero reale r `e rappresentato (in base N) da una sequenza di
simboli del tipo
(2.1) a
m
a
m1
. . . a
2
a
1
a
0
, b
1
b
2
. . . b
j
. . .
ove gli a
i
e i b
j
sono elementi di S. La corrispondenza tra r R e la
sua rappresentazione simbolica (2.1) `e data dalla seguente formula:
(2.2)
r = a
m
N
m
+a
m1
N
m1
+ +a
1
N
1
+a
0
N
0
+b
1
N
1
+b
2
N
2
+ +b
j
N
j
+
=
m

i=0
a
i
N
i
+
+

j=1
b
j
N
j
.
Si osservi che le sequenze che stiamo considerando hanno sempre un
numero nito di simboli a
i
a sinistra della virgola, quindi le espressioni
del tipo

m
i=0
a
i
N
i
sono in ogni caso delle somme nite. I simboli b
j
che compaiono a destra della virgola possono invece essere in nume-
ro innito, quindi unespressione del tipo

+
j=1
b
j
N
j
rappresenta, in
realt`a, una serie numerica.
`
E per`o molto facile dimostrare che questo
tipo di serie numeriche hanno sempre una somma nita (per ogni base
N 2).
Purtroppo lespressione in una qualsiasi base N di un numero reale
non `e, in generale, unica.
Esempio 2.22. A titolo di esempio, consideriamo lusuale rappre-
sentazione decimale (N = 10). Sia r il numero reale corrispondente
alla sequenza 0, 999 . . . (inniti 9 dopo la virgola)
r = 0, 999 . . .
Moltiplicando per 10 si ottiene 10 r = 9, 999 . . . , e quindi
9 r = 10 r r = 9
da cui si deduce che r = 1. Si ha pertanto
0, 999 . . . = 1.
Un fenomeno analogo avviene anche in base N, quando i simboli
b
h
, per h maggiore o uguale a un qualche indice j, corrispondono tutti
al numero N 1.
Pertanto, se vogliamo che lespressione di un numero reale in base
N sia unica, `e necessario richiedere che nellespressione (2.1) non esista
alcun indice j per cui si abbia b
h
= N1, h j (si consiglia al lettore
di dimostrarlo, come esercizio).
Come vedremo, questo fatto ci creer`a qualche complicazione in
seguito.
20 1. TEORIA DEGLI INSIEMI
Osservazione 2.23. Facciamo notare che si potrebbe anche de-
nire linsieme R dei numeri reali come linsieme di tutte le sequenze di
simboli del tipo sopra descritto, per le quali che non esiste alcun indice
j tale che b
h
= N 1, h j.
Consideriamo ora lintervallo dei numeri reali compresi tra 0 e 1,
I = x R[ 0 < x < 1.
Osserviamo che, in una qualsiasi base N, la rappresentazione di un
numero r I `e del tipo
r = 0, b
1
b
2
. . . b
j
. . .
Cominciamo col dimostrare che I e R hanno la stessa cardinalit`a:
Lemma 2.24. Si ha [R[ = [I[.
Dimostrazione.
`
E suciente osservare che la funzione f : I R
denita da f(x) = tan((x 1/2)) `e biiettiva.
Siamo ora in grado di dimostrare che la cardinalit`a dellinsieme dei
numeri reali `e strettamente maggiore della cardinalit`a di N.
Teorema 2.25. Linsieme R dei numeri reali non `e numerabile.
Dimostrazione. In base al lemma precedente, basta dimostrare
che I non `e numerabile. Per fare ci`o utilizzeremo lusuale rappresenta-
zione dei numeri reali in base 10.
Come gi`a osservato, ogni r I ha una rappresentazione decimale
della forma
r = 0, b
1
b
2
b
3
. . . b
j
. . .
ove i b
j
0, 1, 2, . . . , 9 non sono tutti nulli e ove non esiste alcun
indice j tale che b
h
= 9, h j.
Ragioniamo per assurdo, supponendo che I sia numerabile. Esister`a
quindi una funzione biiettiva N

I, i r
i
. Questo ci permette di
enumerare gli elementi di I:
I = r
1
, r
2
, r
3
, . . . , r
j
, . . .
e utilizzando la rappresentazione in base 10 possiamo anche scrivere:
r
1
= 0, b
11
b
12
b
13
. . . b
1l
. . .
r
2
= 0, b
21
b
22
b
23
. . . b
2l
. . .
r
3
= 0, b
31
b
32
b
33
. . . b
3l
. . .

r
j
= 0, b
j1
b
j2
b
j3
. . . b
jl
. . .

2. CARDINALIT
`
A 21
Deniamo ora un numero reale s = 0, c
1
c
2
c
3
. . . c
l
. . . ponendo, per
ogni i 1,
c
i
=
_
7 se b
ii
5,
3 se b
ii
> 5.
Si noti che, per costruzione, c
i
,= b
ii
, per ogni i 1.
Poiche abbiamo supposto che la funzione i r
i
, sia biiettiva, e
poiche ovviamente s I, deve essere s = r
h
, per qualche h 1.
Tuttavia, dalla costruzione di s, risulta che s ,= r
h
, per ogni h N

;
infatti lh-esima cifra decimale c
h
di s `e, per costruzione, diversa dalla
h-esima cifra decimale b
hh
di r
h
. Questa contraddizione deriva dallaver
supposto che I sia numerabile, quindi I non pu`o essere numerabile.
Dato che N R e dato che R non `e numerabile, si ha quindi
[N[ < [R[.
Definizione 2.26. La cardinalit`a di R `e indicata con c, e detta la
cardinalit`a del continuo.
Possiamo quindi scrivere

0
< c.
Ora ci proponiamo di dimostrare che, per la precisione, `e c = 2

0
, cio`e
che [R[ = [P(N)[.
Teorema 2.27. La cardinalit`a c dellinsieme dei numeri reali `e
uguale alla cardinalit`a 2

0
dellinsieme delle parti di N.
Dimostrazione. Dato che [R[ = [I[, `e suciente dimostrare che
esiste una biiezione tra I e P(N).
Sia M linsieme di tutte le funzioni f : N 0, 1. Abbiamo gi`a
osservato (nel corso della dimostrazione del Corollario 2.19) che esiste
una biiezione tra M e P(N). Basta quindi dimostrare che [M[ = [I[.
Per fare ci`o utilizzeremo la rappresentazione dei numeri reali in base 2.
Osserviamo che ogni r I ha una rappresentazione della forma
r = 0, b
0
b
1
b
2
. . . b
j
. . .
con b
j
0, 1, per ogni j 0, e ove i b
j
non sono tutti nulli (dato
che 0 , I). Inoltre, anche una tale rappresentazione sia unica, `e
necessario richiedere che non esista alcun indice j tale che b
h
= 1 per
ogni h j.
Al numero r = 0, b
0
b
1
b
2
. . . b
j
. . . possiamo quindi associare la fun-
zione f
r
: N 0, 1, i b
i
. In questo modo si ottiene una fun-
zione F : I M, denita ponendo F(r) = f
r
. Dallunicit`a della
rappresentazione di r si deduce che F `e iniettiva.
Indichiamo con M

limmagine di F. M

`e il sottoinsieme di M
costituito da tutte le funzioni f : N 0, 1, non identicamente nulle,
tali che non esista alcun indice j per cui si abbia f(h) = 1, per ogni
h j.
22 1. TEORIA DEGLI INSIEMI
Vogliamo ora dimostrare che [M

[ = [M[.
Per ogni j N poniamo
V
j
= f M [ f(h) = 1, h j.
Si noti che V
j
V
j+1
, per ogni j.
Poniamo V =

jN
V
j
e indichiamo inne con f
0
M la funzione
identicamente nulla, f
0
(h) = 0, per ogni h N. Da quanto osservato
in precedenza, si deduce che
M

= M (V f
0
).
Tutti gli insiemi V
j
hanno un numero nito di elementi. Pi` u preci-
samente, [V
j
[ = 2
j
, per ogni j 0. Di conseguenza, linsieme V `e
numerabile, in quanto unione numerabile di insiemi niti (cf. Proposi-
zione 1.15). Anche V f
0
`e dunque numerabile e, per il Teorema 2.17,
si ha
[V f
0
[ =
0
< [M[ = 2

0
.
Ma allora, per il Corollario 2.10, si ha
[M

[ = [M (V f
0
)[ = [M[.
Poiche abbiamo gi`a dimostrato che linsieme M

`e in biiezione con I,
si ha
[I[ = [M

[ = [M[ = [P(N)[ = 2

0
,
come volevasi dimostrare.
Osservazione 2.28. Possiamo osservare come la dimostrazione
precedente risulti complicata dalla mancanza di unicit`a della rappre-
sentazione di un numero reale in base 2 (ci`o ci obbligava a considerare
il sottoinsieme M

di M).
Un modo diverso per contornare questo ostacolo `e il seguente. Ad
ogni funzione f M, associamo la sequenza
0, b
0
b
1
b
2
. . . b
j
. . . ,
ove b
i
= f(i), ma ora interpretiamo questa come lespressione di un
numero reale r in base 3 e non in base 2. Poiche le sequenze cos`
ottenute non contengono il numero 2, sequenze diverse rappresentano
numeri reali diversi. In questo modo si ottiene una funzione iniettiva
M R, da cui si deduce che [M[ [R[. Dato che [M[ = [P(N)[ = 2

0
,
si ha quindi 2

0
c.
Consideriamo ora la funzione F : R P(Q) denita ponendo
F(r) = q Q[ q r.
Dalla densit`a di Q in R segue che F `e iniettiva, quindi [R[ [P(Q)[.
Ma Q `e numerabile, cio`e [Q[ =
0
, da cui si deduce che [P(Q)[ = 2

0
.
Abbiamo cos` dimostrato che `e anche c 2

0
.
Da queste due disuguaglianze, e dal Teorema 2.2, si deduce lugua-
glianza c = 2

0
.
2. CARDINALIT
`
A 23
Per terminare questa sezione, vogliamo ora studiare la cardinalit`a
del sottoinsieme di R costituito dai numeri algebrici.
Definizione 2.29. Un numero reale r `e detto algebrico se esiste
un polinomio non nullo a coecienti razionali p(x) Q[x] tale che
p(r) = 0. Un numero reale `e detto trascendente se esso non `e algebrico.
Indicheremo con Q il sottoinsieme di R costituito dai numeri alge-
brici.
Osservazione 2.30. Ogni numero razionale q Q `e un numero
algebrico; esso `e infatti lo zero del polinomio p(x) = x q. Quindi
Q Q.
Q `e un sottoinsieme proprio di Q; indatti moltissimi numeri irra-
zionali sono algebrici. Ad esempio

2 `e uno zero del polinomio x


2
2,
quindi `e algebrico. Anche un numero quale

2 +

3 `e algebrico; esso
`e infatti uno zero del polinomio x
4
10x
2
+ 1. In eetti, trovare dei
numeri trascendenti non `e unimpresa molto facile. Un esempio di tali
numeri `e dato da e e , ma la dimostrazione della loro trascendenza `e
complicata.
Come ora vedremo, anche linsieme dei numeri algebrici `e numera-
bile.
Teorema 2.31. Linsieme Q `e numerabile.
Dimostrazione. Sia Q[x] linsieme dei polinomi in una indeter-
minata a coecienti razionali e indichiamo con Q[x]
n
linsieme dei po-
linomi di grado n (compreso il polinomio nullo). Dato che ogni
polinomio in Q[x]
n
pu`o essere scritto in modo unico nella forma
p(x) = a
0
+a
1
x +a
2
x
2
+ +a
n
x
n
,
con a
0
, a
1
, . . . a
n
Q, la funzione
Q[x]
n
Q
n+1
, p(x) (a
0
, a
1
, . . . , a
n
)
`e biiettiva, il che signica che [Q[x]
n
[ = [Q
n+1
[.
Poiche Q `e numerabile, si ha [Q
n+1
[ = [N[ (cf. Corollario 1.14),
quindi linsieme Q[x]
n
`e numerabile. Di conseguenza, linsieme
Q[x] =
_
nN
Q[x]
n
`e anchesso numerabile, in quanto unione numerabile di insiemi nume-
rabili (cf. Proposizione 1.15).
Per ogni polinomio non nullo f Q[x] indichiamo con
Z(f) = r R[ f(r) = 0
il suo insieme degli zeri. Osserviamo che gli insiemi Z(f) sono niti, in
quanto un polinomio non nullo di grado n possiede, al pi` u, n zeri reali.
24 1. TEORIA DEGLI INSIEMI
Dalla denizione di numero algebrico si ha
Q =
_
0=fQ[x]
Z(f).
Poiche abbiamo dimostrato in precedenza che Q[x] `e numerabile, Q
`e dunque ununione numerabile di insiemi niti, quindi `e anchesso
numerabile, come volevasi dimostrare.
Corollario 2.32. Sia T = R Q linsieme dei numeri trascen-
denti. Allora [T[ = [R[.
Dimostrazione. Poiche R = TQ, T deve necessariamente essere
innito, altrimenti si avrebbe [R[ = [Q[ =
0
, il che non `e vero. Per la
Proposizione 1.10 si ha quindi [N[ [T[. Dato che [Q[ `e numerabile,
dal Corollario 2.9 segue che [TQ[ = [T[. Ma ci`o signica proprio che
[R[ = [T[.
Questo corollario mostra che i numeri trascendenti non solo esistono
ma sono, in realt`a, molti di pi` u dei numeri algebrici!
Osservazione 2.33. Poiche abbiamo dimostrato che la cardinalit`a

0
di N `e strettamente minore della cardinalit`a c di R, sorge spontanea
la domanda se esistano o meno delle cardinalit`a strettamente comprese
tra
0
e c, cio`e se esista una cardinalit`a, che potremmo chiamare
1
,
tale che

0
<
1
< c
(la non esistenza di una tale cardinalit`a `e nota come ipotesi del con-
tinuo).
La sorprendente risposta a questa domanda, trovata da P. Cohen
6
nel 1963, `e che tale questione `e indipendente dagli assiomi usuali della
teoria degli insiemi (assiomi di ZermeloFraenkel) e anche dallAssioma
della Scelta. In altre parole, allinterno della teoria classica degli in-
siemi non `e possibile dimostrare che una tale cardinalit`a
1
esiste, ma
nemmeno che essa non esiste! Sia lesistenza di una tale
1
, che la sua
non esistenza, possono quindi essere accettate come un nuovo assioma,
ottenendo due diverse teorie entrambe prive di contraddizioni.
3. Il teorema del Buon Ordinamento
In questa sezione dimostreremo un risultato, per nulla intuitivo, che
dipende dallAssioma della Scelta.
Definizione 3.1. Un insieme parzialmente ordinato S `e detto bene
ordinato se esso `e totalmente ordinato e se ogni suo sottoinsieme non
vuoto ammette minimo. Cio`e, se per ogni A S esiste un elemento a
A tale che a x, per ogni x A (tale elemento `e allora necessariamente
6
P.J. Cohen, The independence of the continuum hypothesis, Proc. Nat. Acad.
of Sci. USA (1963), 11431148, (1964), 105110.
3. IL TEOREMA DEL BUON ORDINAMENTO 25
unico). Una relazione dordine su un insieme S `e detta un buon
ordinamento se (S, ) `e un insieme bene ordinato.
Definizione 3.2. Sia S un insieme totalmente ordinato e sia T un
sottoinsieme di S dotato dellordine indotto da S. Diremo che T `e un
segmento iniziale di S se
x T, y S, y x y T.
Esempio 3.3. Ogni insieme nito pu`o essere bene ordinato, basta
scegliere un qualsiasi ordine totale tra i suoi elementi.
Linsieme N dei numeri naturali `e bene ordinato. Da ci`o si deduce
che ogni insieme numerabile pu`o essere bene ordinato. Infatti, se D
`e un insieme numerabile e se f : D N `e una funzione biiettiva,
ponendo, per ogni d
1
, d
2
D,
d
1
d
2
f(d
1
) f(d
2
)
si denisce un ordine totale su D che risulta essere un buon ordina-
mento.
Esempio 3.4. Sia S un insieme bene ordinato e sia y un elemento
di qualche insieme, tale che y , S. Sia S

= S y. Estendiamo la
relazione dordine a S

ponendo x y, per ogni x S. Linsieme S

risulta essere totalmente ordinato e anche bene ordinato.


Teorema 3.5 (T. del Buon Ordinamento). Ogni insieme non vuoto
pu`o essere bene ordinato.
Dimostrazione. Sia S un insieme non vuoto. Indichiamo con S
linsieme di tutte le coppie (X, ), dove X `e un sottoinsieme di S e `e
un buon ordinamento su X. Si noti che S non `e vuoto dato che ogni
singolo elemento di S da luogo a una tale coppia. Se (X, ) e (X

)
sono due elementi di S, poniamo (X, ) (X

) se X X

, se
lordine indotto su X da

`e uguale a e se (X, ) `e un segmento


iniziale di (X

). In questo modo risulta denito un ordine parziale


su S. Dimostriamo ora che S `e un insieme induttivo.
Sia T = (X
i
,
i
)
iI
una catena in S e poniamo X =

iI
X
i
.
Se a, b X allora a e b appartengono a uno stesso X
i
, per qualche
indice i. Deniamo allora a b in X se `e a b rispetto allordine

i
di X
i
. Si verica facilmente che ci`o non dipende dal particolare
indice i scelto. Linsieme X risulta cos` essere totalmente ordinato.
In eetti, esso `e anche bene ordinato. Infatti, se Y `e un sottoinsieme
non vuoto di X, allora esiste un elemento y Y , quindi y X
i
,
per qualche i I. Consideriamo allora il sottoinsieme Y X
i
di X
i
.
Dato che X
i
`e bene ordinato, esiste un elemento c che `e il minimo di
Y X
i
. Si verica che tale elemento non dipende dallindice i scelto
ed `e, in eetti, il minimo di Y . Possiamo dunque applicare il Lemma
di Zorn allinsieme S. Sia (X, ) un elemento massimale in S. Se
fosse X ,= S allora esisterebbe un elemento s S tale che s , X.
26 1. TEORIA DEGLI INSIEMI
Utilizzando il metodo descritto nellEsempio 3.4, si pu`o denire un
buon ordinamento sullinsieme X

= X s. Ma questo contraddice
la massimalit`a di (X, ). Si deve quindi avere X = S, il che dimostra
che esiste un buon ordinamento su S, come volevasi dimostrare.
Come abbiamo visto, il Teorema del Buon Ordinamento dipende
dallAssioma della Scelta. Esso infatti `e una conseguenza diretta del
Lemma di Zorn, il quale, a sua volta, dipende dallAssioma della Scelta.
Ora dimostreremo che il Teorema del Buon Ordinamento implica
lAssioma della Scelta. In questo modo si prova che lAssioma della
Scelta, il Lemma di Zorn e il Teorema del Buon Ordinamento sono tra
loro equivalenti.
Proposizione 3.6. Se ogni insieme non vuoto pu`o essere bene
ordinato allora vale lAssioma della Scelta.
Dimostrazione. Sia X un insieme di insiemi non vuoti e conside-
riamo linsieme S =

AX
A. Per ipotesi esiste un buon ordinamento
su S, quindi ogni sottoinsieme non vuoto di S ammette minimo. Per
ogni A X indichiamo dunque con m
A
il suo minimo rispetto allor-
dine ssato su S. In questo modo si ottiene una regola che permette
di scegliere un singolo elemento da ogni insieme A che appartiene a X.
Ci`o dimostra che vale lAssioma della Scelta.
CAPITOLO 2
Spazi Vettoriali
1. Vettori Geometrici
Il concetto di vettore viene spesso introdotto ricorrendo a delle moti-
vazioni che provengono dalla sica. In sica infatti, accanto a grandez-
ze che possono essere adeguatamente espresse con un singolo numero,
come ad esempio la temperatura o il tempo, ce ne sono altre la cui
descrizione richiede pi` u informazioni. Per descrivere, ad esempio, lo
spostamento di un punto, la sola informazione numerica relativa alla
misura di tale spostamento non basta; `e necessario specicare anche
la retta lungo la quale avviene lo spostamento e, per nire, occorre
specicare anche il verso di percorrenza di tale retta. In modo analogo,
per specicare una forza, occorre fornire il valore numerico dellentit`a
di tale forza (in una qualche unit`a di misura) assieme alla direzione
e al verso di applicazione della forza (in molti casi ci`o non `e ancora
suciente, ed occorre specicare anche il punto di applicazione della
forza).
Per motivare le considerazioni che faremo nel seguito, ricorreremo al
concetto geometrico di movimento o, pi` u precisamente, alla nozione
di traslazione in un piano.
In base a ci`o che abbiamo appena detto, per descrivere una trasla-
zione `e necessario specicare una retta (la direzione in cui avviene lo
spostamento), un verso di percorrenza di tale retta e, inne, un numero
che, in qualche modo, misura lentit`a di tale traslazione.
Un modo particolarmente comodo per esprimere gracamente tutte
queste informazioni `e quello di utilizzare un segmento orientato

I
v
La retta su cui giace questo segmento individua la direzione, la frec-
cia posta in una delle estremit`a specica il verso di percorrenza e la
lunghezza del segmento stesso (espressa in qualche unit`a di misura)
determina lentit`a dello spostamento.
Un oggetto di questo tipo `e chiamato vettore. Dato un vettore v,
rappresentato da un segmento orientato come sopra, la lunghezza di
tale segmento `e detta il modulo (o la norma) di v, ed `e indicata con [v[
(oppure con |v|).
A questo punto `e forse necessaria una precisazione. Un vettore v
non descrive lo spostamento di un qualche punto ssato A verso un
27
28 2. SPAZI VETTORIALI
qualche altro punto B; esso descrive una traslazione di tutto il piano
(o di tutto lo spazio). In tal senso, non ha alcuna importanza dove
si disegni il segmento che rappresenta gracamente il vettore. In altre
parole, due diversi segmenti orientati che abbiamo, tuttavia, la stessa
direzione (cio`e che si trovino su due rette parallele), lo stesso verso
e la stessa lunghezza, sono due rappresentazioni grache diverse dello
stesso vettore.
Questa idea pu`o essere resa matematicamente precisa nel modo
seguente.
Definizione 1.1. Due segmenti orientati sono detti equipollenti se
hanno la stessa direzione (cio`e sono contenuti in due rette parallele),
lo stesso verso e la stessa lunghezza.
Si verica facilmente che la relazione di equipollenza `e una relazio-
ne di equivalenza nellinsieme di tutti i segmenti orientati. Possiamo
quindi dare la seguente denizione di vettore:
Definizione 1.2. Un vettore (geometrico) `e una classe di equipol-
lenza di segmenti orientati.
Osservazione 1.3. Come abbiamo gi`a fatto notare, a volte `e im-
portante specicare anche il punto in cui un vettore si intende appli-
cato (come nel caso di una forza). Ci`o porta alla denizione della no-
zione di vettore applicato, che deve essere inteso come una coppia (P, v)
costituita da un punto P (il punto di applicazione) e da un vettore v.
Nellinsieme dei vettori geometrici sono denite, in modo del tutto
naturale, due operazioni. La prima consiste nella moltiplicazione di un
vettore v per un numero (reale) . Se v rappresenta una determinata
traslazione e se > 0, il vettore v rappresenta una traslazione che av-
viene nella stessa direzione e nello stesso verso di quella rappresentata
da v, ma determina uno spostamento pari a volte quello eettuato
dalla traslazione rappresentata da v. Il vettore v `e quindi rappresen-
tato da un segmento orientato che ha la stessa direzione e verso di v,
ma una lunghezza pari alla lunghezza di v moltiplicata per .

I
v

I
1
2
v

I
2v
Se = 0 si ottiene un vettore di lunghezza nulla, che corrisponde a una
traslazione nulla. In questo caso le nozioni di direzione e verso non
hanno pi` u alcun signicato; il segmento orientato si riduce a un punto,
il quale non ha pi` u alcuna direzione e alcun verso.
Se < 0 si intende che il vettore v rappresenta una traslazione che
avviene nella stessa direzione ma nel verso opposto a quella rappresen-
tata da v, per uno spostamento pari al valore assoluto di moltiplicato
1. VETTORI GEOMETRICI 29
per lo spostamento eettuato dalla traslazione rappresentata da v.

I
v

A
v
In questo modo si ha che la composizione delle traslazioni corrispon-
denti ai vettori v e v `e la traslazione nulla: v + (v) = 0.
La seconda operazione che consideriamo `e la somma di due vettori;
essa corrisponde alla composizione di due traslazioni. Se u e v sono
due vettori, la loro somma w = u + v `e, per denizione, il vettore che
rappresenta la traslazione che si ottiene eettuando prima la traslazione
rappresentata da u e poi quella rappresentata da v. Leetto di questa
composizione di traslazioni `e rappresentato nella gura seguente.

I
&
&
&
&
&
&
&
&
&
&
&
&b

!
A
B
C
u
v w
Se la traslazione rappresentata da u porta il punto A nel punto B e la
traslazione rappresentata da v porta il punto B nel punto C, allora la
composizione delle due traslazioni, rappresentata da w = u + v, porta
il punto A nel punto C.
Si verica immediatamente che la somma di vettori gode della pro-
priet`a commutativa, cio`e u+v = v +u, come si pu`o vedere nella gura
seguente.

!
&
&
&
&
&
&
&
&
&
&
&
&b

I
A
B
C
D
u
u
v
v
w
Questa gura illustra la cosiddetta regola del parallelogramma: il vet-
tore w = u + v `e la diagonale del parallelogramma che ha come lati i
vettori u e v.
Se ssiamo un sistema di coordinate cartesiane ortogonali OXY nel
piano, ogni vettore v pu`o essere rappresentato da una coppia di numeri
reali (v
x
, v
y
), che individuano le proiezioni di v sugli assi coordinati
(vedi gura 1).
Possiamo quindi identicare il vettore v con la coppia (v
x
, v
y
) R
2
.
In termini di questa identicazione, la somma dei due vettori u =
(u
x
, u
y
) e v = (v
x
, v
y
) `e data da
u +v = (u
x
+v
x
, u
y
+v
y
),
30 2. SPAZI VETTORIALI
-
6

Q
v
v
x
v
y
X
Y
Figura 1. Decomposizione di un vettore nelle sue componenti
mentre il prodotto di un numero reale per il vettore v = (v
x
, v
y
) `e
dato da
v = (v
x
, v
y
).
Usando queste formule `e ora immediato vericare che la somma di
vettori gode delle propriet`a associativa e commutativa. Esiste poi un
elemento neutro per la somma, il vettore nullo, le cui componenti sono
tutte nulle, e che indicheremo con 0 = (0, 0). Inoltre, per ogni vettore
v = (v
x
, v
y
) esiste il suo opposto v = (v
x
, v
y
), tale che v +(v) =
0.
Tutto ci`o si pu`o riassumere dicendo che linsieme dei vettori, con
loperazione di somma, forma un gruppo abeliano.
Consideriamo ora loperazione di prodotto tra un numero reale e
un vettore.
`
E immediato vericare che questa operazione soddisfa le
seguenti propriet`a:
(i) ()v = (v),
(ii) (u +v) = u +v,
(iii) ( +)v = v +v,
(iv) 1v = v,
per ogni , R e per ogni coppia di vettori u e v.
Linsieme dei vettori ha quindi una struttura pi` u ricca di quella
di un semplice gruppo abeliano. A questo tipo di struttura daremo il
nome di spazio vettoriale.
Prima di concludere osserviamo che delle considerazioni del tutto
analoghe si possono fare per vettori nellusuale spazio tridimensionale.
Ad ogni tale vettore v si pu`o associare una terna di numeri (v
x
, v
y
, v
z
)
R
3
, i quali rappresentano le proiezioni di v sui tre assi coordinati di un
opportuno sistema di riferimento OXY Z ssato, come mostrato nella
gura 2.
Si ottiene in questo modo unidenticazione tra vettori dello spazio
tridimensionale e terne di numeri reali, in termini della quale la somma
di due vettori u = (u
x
, u
y
, u
z
) e v = (v
x
, v
y
, v
z
) `e data da
u +v = (u
x
+v
x
, u
y
+v
y
, u
z
+v
z
),
2. SPAZI VETTORIALI 31
X
Y
Z
v
v
x
v
y
v
z

















1
1
1
1
1
1
1
1
1
1
w
w
w
w
w
w
w
w
w
w
w
w






w
w
w
w
w
w
Figura 2. Decomposizione di un vettore nelle sue componenti
e il prodotto di un numero reale per un vettore v = (v
x
, v
y
, v
z
) `e dato
da
v = (v
x
, v
y
, v
z
).
Osservazione 1.4. Prendendo spunto dalle considerazioni prece-
denti possiamo denire dei vettori a n componenti (vettori di uno spa-
zio n-dimensionale) semplicemente identicandoli con delle n-uple di
numeri reali, v = (a
1
, a
2
, . . . , a
n
) R
n
. Le operazioni di somma di due
vettori e di prodotto di un numero reale per un vettore saranno denite
in modo analogo a quanto abbiamo gi`a visto nel caso di R
2
e di R
3
:
(a
1
, a
2
, . . . , a
n
) + (b
1
, b
2
, . . . , b
n
) = (a
1
+b
1
, a
2
+b
2
, . . . , a
n
+b
n
)
e
(a
1
, a
2
, . . . , a
n
) = (a
1
, a
2
, . . . , a
n
).
Questa costruzione verr`a ampiamente studiata (e opportunamente ge-
neralizzata) nelle prossime sezioni.
2. Spazi Vettoriali
Nella sezione precedente abbiamo dunque visto che i vettori sono degli
oggetti che possono essere sommati tra loro e possono anche essere
moltiplicati per dei numeri, in modo tale che le operazioni cos` denite
soddisno tutta una serie di propriet`a, essenzialmente analoghe alle
usuali propriet`a che valgono per la somma e il prodotto tra numeri.
Se ora concentriamo la nostra attenzione non tanto sulla natura
di tali oggetti (deniti in precedenza come classi di equipollenza di
segmenti orientati), quanto piuttosto sullesistenza di determinate ope-
razioni tra di essi e sulle propriet`a che, ragionevolmente, dovrebbero
essere soddisfatte da queste operazioni, possiamo fornire una denizio-
ne astratta di insieme di vettori come un qualche insieme nel quale
32 2. SPAZI VETTORIALI
sono denite unoperazione di somma tra i suoi elementi ed unope-
razione di prodotto tra un elemento di tale insieme ed un numero,
in modo tale che siano soddisfatte delle propriet`a analoghe a quelle
elencate nella sezione precedente.
Cerchiamo ora di rendere precise le idee espresse nora.
Sia K un campo
1
(tanto per ssare le idee, si pu`o supporre che K
sia il campo Q dei numeri razionali, oppure il campo R dei numeri reali,
oppure ancora il campo C dei numeri complessi).
Definizione 2.1. Uno spazio vettoriale su K `e un insieme non
vuoto V dotato di unoperazione +
V
, detta somma,
+
V
: V V V, (v
1
, v
2
) v
1
+
V
v
2
,
e di unoperazione
V

V
: K V V, (, v)
V
v,
detta prodotto per uno scalare, che soddisfano le seguenti propriet`a:
per ogni ,
1
,
2
K e ogni v, v
1
, v
2
V si ha
(1) (v
1
+
V
v
2
) +
V
v
3
= v
1
+
V
(v
2
+
V
v
3
);
(2) v
1
+
V
v
2
= v
2
+
V
v
1
;
(3) esiste un elemento 0
V
V tale che v +
V
0
V
= 0
V
+
V
v = v;
(4) per ogni v V esiste un elemento v

V tale che v +
V
v

=
v

+
V
v = 0
V
. Tale elemento v

viene indicato con v e detto


lopposto di v;
(5)
V
(v
1
+
V
v
2
) = (
V
v
1
) +
V
(
V
v
2
);
(6) (
1
+
2
)
V
v = (
1

V
v) +
V
(
2

V
v);
(7) (
1

2
)
V
v =
1

V
(
2

V
v);
(8) 1
V
v = v.
Gli elementi di uno spazio vettoriale V sono detti vettori. Gli
elementi del campo K sono detti scalari.
Osservazione 2.2. Dalle propriet`a sopra elencate segue che, in
ogni spazio vettoriale V , si ha 0
V
v = 0
V
, per ogni v V . Infatti si
ha:
v + 0
V
v = 1
V
v + 0
V
v = (1 + 0)
V
v = v.
Sommando ad ambo i membri di questa uguaglianza lopposto di v, si
ottiene
v +v + 0
V
v = v +v = 0
V
,
da cui segue 0
V
v = 0
V
.
Da ci`o possiamo ora dedurre che (1)
V
v = v. Infatti, si ha:
0
V
= 0
V
v = (1 1)
V
v = 1
V
v + (1)
V
v = v + (1)
V
v,
1
Ricordiamo che un campo `e un insieme dotato di due operazioni, che indi-
cheremo con + e , le quali soddisfano delle propriet`a del tutto analoghe a quelle
della somma e del prodotto di numeri razionali. Pi` u precisamente, un campo `e un
anello commutativo con unit`a in cui ogni elemento diverso da 0 ammette un inverso
moltiplicativo.
2. SPAZI VETTORIALI 33
da cui segue che il vettore (1)
V
v `e lopposto di v.
Dora in poi loperazione di somma in uno spazio vettoriale V sar`a
indicata semplicemente con + mentre il simbolo del prodotto per uno
scalare sar`a omesso: si scriver`a quindi v
1
+v
2
al posto di v
1
+
V
v
2
e v
al posto di
V
v.
Esempio 2.3. Sia V = K
n
e deniamo unoperazione di somma tra
elementi di V ponendo
(a
1
, a
2
, . . . , a
n
) + (b
1
, b
2
, . . . , b
n
) = (a
1
+b
1
, a
2
+b
2
, . . . , a
n
+b
n
),
e unoperazione di prodotto tra elementi dal campo K ed elementi di
V ponendo
(a
1
, a
2
, . . . , a
n
) = (a
1
, a
2
, . . . , a
n
).
`
E immediato vericare che V , con le operazioni appena denite, `e uno
spazio vettoriale su K.
Esempio 2.4. Sia K un campo e indichiamo con K[X] linsieme
dei polinomi a coecienti in K nellindeterminata X. Un generico
elemento di K[X] si scrive nella forma
p(X) = a
0
+a
1
X +a
2
X
2
+ +a
n
X
n
,
per qualche n 0, ove tutti i coecienti a
i
sono elementi di K.
Rispetto alle operazioni di somma di polinomi e di prodotto di un
polinomio per un elemento di K, linsieme K[X] `e uno spazio vettoriale.
Esempio 2.5. Sia K un campo e sia S un insieme (non vuoto)
qualsiasi. Indichiamo con K
S
linsieme di tutte le funzioni f : S K.
Date due funzioni f, g K
S
possiamo denire la loro somma po-
nendo
(f +g)(s) = f(s) +g(s),
e possiamo denire il prodotto di una funzione f per uno scalare K
ponendo,
(f)(s) = (f(s)),
per ogni s S.
Anche in questo caso `e immediato vericare che linsieme K
S
, con
le operazioni appena denite, `e uno spazio vettoriale su K.
Esempio 2.6. Sia K = Q il campo dei numeri razionali e sia V = R.
Rispetto alle usuali operazioni di somma e prodotto tra numeri, V
risulta essere uno spazio vettoriale su K.
Pi` u in generale, per ogni campo K e ogni estensione di campi K
L, L risulta essere uno spazio vettoriale su K.
Osservazione 2.7. Vogliamo far notare che, nella denizione di
spazio vettoriale, la propriet`a (8) `e necessaria. Infatti luguaglianza
1
V
v = v non discende dalle prime sette propriet`a, come si pu`o vedere
dal seguente esempio.
34 2. SPAZI VETTORIALI
Sia V = K
n
. Deniamo la somma di vettori componente per com-
ponente (come nellEsempio 2.3) e deniamo il prodotto di un vettore
per un elemento di K come segue:
(a
1
, a
2
, . . . , a
n
) = (0, 0, . . . , 0),
per ogni K e ogni (a
1
, a
2
, . . . , a
n
) V .
`
E immediato vericare che le due operazioni cos` denite verica-
no tutte le propriet`a elencate nella denizione di spazio vettoriale, ad
eccezione della (8).
Osservazione 2.8. Si noti che nella denizione di spazio vettoriale
non si usa mai il fatto che K sia un campo.
Una denizione del tutto analoga si pu`o dare supponendo solo che
K sia un anello commutativo (con unit`a). Lanalogo di uno spazio
vettoriale `e chiamato, in questo caso, un modulo sullanello K.
Tuttavia, come avremo occasione di osservare in seguito, molti ri-
sultati che dimostreremo per gli spazi vettoriali dipendono in modo
essenziale dal fatto che K sia un campo e non valgono, invece, per
un modulo su un anello. In eetti, la teoria dei moduli risulta essere
profondamente diversa dalla teoria degli spazi vettoriali.
Terminiamo questa sezione con la seguente denizione:
Definizione 2.9. Sia V uno spazio vettoriale su K. Una combina-
zione lineare di elementi di V `e una somma nita del tipo

1
v
1
+
2
v
2
+ +
n
v
n
,
con
1
, . . . ,
n
K e v
1
, . . . , v
n
V .
2.1. Sottospazi vettoriali. Sia V uno spazio vettoriale denito
sul campo K.
Definizione 2.10. Un sottospazio vettoriale W di V `e un sottoin-
sieme non vuoto W V tale che la restrizione a W delle operazioni di
somma e di prodotto per uno scalare denite su V rende W uno spazio
vettoriale sul campo K.
Dalla denizione si deduce che, anche un sottoinsieme non vuoto
W di V sia un sottospazio vettoriale, `e necessario e suciente che
valgano le seguenti propriet`a:
(1) per ogni w
1
, w
2
W, si ha w
1
+w
2
W;
(2) per ogni w W, anche w W;
(3) 0
V
W;
(4) per ogni K e ogni w W, si ha w W.
In eetti, `e suciente richiedere che W sia chiuso per le operazioni di
somma e di prodotto per uno scalare, cio`e che si abbia
w
1
+w
2
W, w
1
, w
2
W
2. SPAZI VETTORIALI 35
e
w W, K, w W.
Queste due condizioni possono essere raggruppate in una sola:
Proposizione 2.11. Un sottoinsieme non vuoto W di uno spazio
vettoriale V sul campo K `e un sottospazio vettoriale di V se e solo se

1
w
1
+
2
w
2
W,
per ogni
1
,
2
K e ogni w
1
, w
2
W.
Dimostrazione.
`
E immediato vericare che, sotto questa ipotesi,
le operazioni di somma di vettori e di prodotto di un vettore per uno
scalare denite in V rendono W un sottospazio vettoriale.
Osservazione 2.12. Ogni spazio vettoriale V `e, naturalmente, un
sottospazio vettoriale di se stesso. Inoltre 0
V
`e banalmente un sot-
tospazio vettoriale di V , detto il sottospazio nullo. A volte scriveremo
semplicemente 0 per indicare il sottospazio 0
V
(il signicato sar`a
chiaro dal contesto).
Esempio 2.13. Sia V = K
n
e sia W linsieme dei vettori w =
(x
1
, x
2
, . . . , x
n
) che sono soluzioni di unequazione lineare del tipo
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0,
con a
1
, . . . , a
n
K ssati.
`
E immediato vericare che una combinazione lineare di due elementi
di W fornisce ancora una soluzione della precedente equazione, quindi
appartiene a W. Ci`o signica che W `e un sottospazio vettoriale di V .
Al contrario, linsieme delle soluzioni di unequazione del tipo
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= k,
con k ,= 0, non `e un sottospazio vettoriale di V , dato che non contiene
il vettore nullo 0.
Proposizione 2.14. Se W
i

iI
`e una famiglia di sottospazi vet-
toriali di uno spazio vettoriale V , allora anche la loro intersezione
W
W =

iI
W
i
`e un sottospazio vettoriale di V .
Dimostrazione. Siano
1
,
2
K e w
1
, w
2
W. Allora w
1
, w
2

W
i
, per ogni i I, quindi anche
1
w
1
+
2
w
2
W
i
, dato che W
i
`e un
sottospazio vettoriale di V . Da ci`o segue che
1
w
1
+
2
w
2
W.
Osservazione 2.15. Una propriet`a analoga non vale invece per
lunione: se W
1
e W
2
sono due sottospazi vettoriali di V , la loro unione
W
1
W
2
non `e, in generale, un sottospazio vettoriale di V .
36 2. SPAZI VETTORIALI
A titolo di esempio, consideriamo lo spazio vettoriale V = K
2
.
Poniamo W
1
= (a, 0) [ a K e W
2
= (0, b) [ b K.
`
E immediato
vericare che essi sono due sottospazi vettoriali di V . Si ha (1, 0) W
1
e (0, 1) W
2
, tuttavia la loro somma (1, 1) non appartiene ne a W
1
ne
a W
2
. Ci`o dimostra che linsieme W
1
W
2
non `e chiuso per loperazione
di somma, quindi non pu`o essere un sottospazio vettoriale.
Definizione 2.16. Sia S un sottoinsieme di uno spazio vettoriale
V . Il sottospazio vettoriale generato da S, che indicheremo con L(S),
`e il pi` u piccolo
2
sottospazio vettoriale di V contenente S (se S `e vuoto
`e quindi L(S) = 0).
Dato che lintersezione di una famiglia di sottospazi vettoriali di V `e
un sottospazio vettoriale di V , `e immediato vericare che L(S) coincide
con lintersezione di tutti i sottospazi vettoriali di V che contengono S.
Unaltra descrizione, ancora pi` u esplicita, di L(S) `e data dalla
seguente proposizione.
Proposizione 2.17. Il sottospazio vettoriale L(S) generato da S `e
linsieme di tutte le combinazioni lineari nite di elementi di S, cio`e
L(S) =
_
n

i=1

i
v
i
[ n N,
i
K, v
i
S
_
,
dove si intende che la combinazione lineare di zero elementi di S `e il
vettore nullo 0 V .
Dimostrazione. Poniamo
(S) =
_
n

i=1

i
v
i
[ n N,
i
K, v
i
S
_
.
Ovviamente S (S). Notiamo che ogni sottospazio vettoriale di
V contenente S contiene anche tutte le combinazioni lineari nite di
elementi di S, quindi contiene (S). Da ci`o segue che (S) `e contenuto
nellintersezione di tutti i sottospazi vettoriali di V che contengono S,
quindi (S) L(S).
Daltra parte `e evidente che (S) `e anchesso un sottospazio vetto-
riale di V : infatti la combinazione lineare di due combinazioni lineari
nite di elementi di S `e essa stessa una combinazione lineare nita
di elementi di S. Poiche L(S) `e il pi` u piccolo sottospazio vettoria-
le di V contenente S, si ha dunque L(S) (S), da cui segue che
L(S) = (S).
Osservazione 2.18. Se S = v
1
, v
2
, . . . , v
n
, il sottospazio vetto-
riale L(S) viene anche indicato con v
1
, v
2
, . . . , v
n
).
2
Pi` u piccolo, inteso rispetto alla relazione dordine data dallinclusione.
2. SPAZI VETTORIALI 37
Come abbiamo gi`a osservato, nel contesto degli spazi vettoriali lo-
perazione di unione di due sottospazi non ha delle buone propriet`a:
infatti lunione di due sottospazi vettoriali non `e, in generale, un sot-
tospazio vettoriale (vedi lOsservazione 2.15). Tale operazione viene
quindi sostituita dalloperazione di somma:
Definizione 2.19. Se W
1
e W
2
sono sottospazi vettoriali di V , la
loro somma W
1
+W
2
`e il sottospazio vettoriale L(W
1
W
2
) generato da
W
1
W
2
. Tale denizione si generalizza, in modo ovvio, al caso della
somma di una famiglia qualsiasi (anche innita) di sottospazi di V .
Una descrizione esplicita della somma di due sottospazi vettoriali `e
fornita dalla seguente proposizione:
Proposizione 2.20. Si ha
W
1
+W
2
= w
1
+w
2
[ w
1
W
1
, w
2
W
2
.
Dimostrazione.
`
E immediato vericare che linsieme
w
1
+w
2
[ w
1
W
1
, w
2
W
2

`e un sottospazio vettoriale di V che contiene W


1
e W
2
, quindi contiene
anche la loro unione. Poiche W
1
+W
2
`e, per denizione, il pi` u piccolo
sottospazio vettoriale di V contenente W
1
W
2
, si ha linclusione
W
1
+W
2
w
1
+w
2
[ w
1
W
1
, w
2
W
2
.
Daltra parte, ogni vettore del tipo w
1
+w
2
appartiene necessariamente
a W
1
+ W
2
. Questo dimostra che vale anche linclusione opposta e
quindi luguaglianza.
Osservazione 2.21. Un risultato del tutto analogo vale anche per
la somma di una famiglia nita di sottospazi vettoriali di V . Si ha cio`e
W
1
+ +W
n
= w
1
+ +w
n
[ w
i
W
i
, per i = 1, . . . , n.
Nel caso invece di una famiglia innita W
i

iI
di sottospazi vettoriali,
`e facile vericare che la somma

iI
W
i
coincide con linsieme di tutte le somme nite di vettori w
i
W
i
.
Definizione 2.22. La somma di due sottospazi vettoriali W
1
e W
2
di V si dice diretta, e si indica con W
1
W
2
, se W
1
W
2
= 0.
Pi` u in generale, la somma di una famiglia qualsiasi W
i

iI
di sot-
tospazi vettoriali di V si dice diretta se W
i
W
j
= 0, per ogni i, j I
con i ,= j. La somma diretta di una famiglia W
i

iI
di sottospazi di
V si indica con

iI
W
i
.
38 2. SPAZI VETTORIALI
Proposizione 2.23. Ogni vettore v W
1
W
2
si scrive in modo
unico nella forma v = w
1
+w
2
, per qualche w
1
W
1
e qualche w
2
W
2
(un risultato analogo vale anche per una somma diretta di un numero
qualunque di sottospazi di V ).
Dimostrazione. Nella proposizione precedente abbiamo visto che
ogni v W
1
W
2
si pu`o scrivere nella forma v = w
1
+w
2
, per qualche
w
1
W
1
e qualche w
2
W
2
. Dobbiamo solo dimostrare che tale
scrittura `e unica.
Supponiamo che si abbia
v = w
1
+w
2
= w

1
+w

2
,
con w
1
, w

1
W
1
e w
2
, w

2
W
2
. Allora si ha
w
1
w

1
= w

2
w
2
W
1
W
2
.
Poiche la somma di W
1
e W
2
`e diretta, si ha W
1
W
2
= 0, quindi
w
1
w

1
= w

2
w
2
= 0, da cui si deduce che w
1
= w

1
e w
2
= w

2
.
Osservazione 2.24. La somma diretta di due sottospazi di uno
spazio vettoriale V , denita in precedenza, `e anche detta somma di-
retta interna. Ora vedremo come sia possibile denire anche la somma
diretta di due spazi vettoriali V e W qualunque, in modo tale che V e
W si possano poi identicare con due sottospazi vettoriali di V W.
Una tale somma `e detta somma diretta esterna.
Siano dunque V e W due spazi vettoriali sul campo K. Sul prodotto
cartesiano V W deniamo unoperazione di somma ponendo
(v
1
, w
1
) + (v
2
, w
2
) = (v
1
+v
2
, w
1
+w
2
),
e unoperazione di prodotto per un elemento di K ponendo
(v
1
, w
1
) = (v
1
, w
1
),
per ogni (v
1
, w
1
), (v
2
, w
2
) V W e ogni K.
`
E immediato vericare
che queste operazioni deniscono una struttura di spazio vettoriale su
V W. Indichiamo con V W lo spazio vettoriale cos` ottenuto.
Le due funzioni i
V
: V V W, v (v, 0
W
) e i
W
: W
V W, w (0
V
, w) sono iniettive e permettono di identicare i
due spazi vettoriali V e W con i due sottospazi vettoriali i
V
(V ) =
V 0
W
e i
W
(W) = 0
V
W di V W. Si verica facilmente che lo
spazio vettoriale V W appena denito coincide con la somma diretta
(interna) dei suoi due sottospazi i
V
(V ) e i
W
(W).
Pi` u in generale, se V
1
, V
2
, . . . , V
n
sono una famiglia nita di spa-
zi vettoriali sul campo K `e possibile denire, in modo naturale, una
struttura di spazio vettoriale sul prodotto cartesiano V
1
V
2
V
n
,
ponendo
(v
1
, v
2
, . . . , v
n
) + (w
1
, w
2
, . . . , w
n
) = (v
1
+w
1
, v
2
+w
2
, . . . , v
n
+w
n
)
e
(v
1
, v
2
, . . . , v
n
) = (v
1
, v
2
, . . . , v
n
),
2. SPAZI VETTORIALI 39
per ogni K e ogni (v
1
, . . . , v
n
), (w
1
, . . . , w
n
) V
1
V
n
.
Ogni V
i
si identica in modo naturale con il sottospazio V

i
del pro-
dotto cartesiano V
1
V
n
che consiste di tutti gli elementi del
tipo (0, . . . , 0, v, 0, . . . , 0), al variare di v V
i
(il vettore v si trova
nella i-esima posizione).
`
E ora immediato vericare che la somma di-
retta di tutti questi sottospazi V

i
coincide con il prodotto cartesiano
V
1
V
n
. Si denisce pertanto la somma diretta esterna della
famiglia di spazi vettoriali V
1
, V
2
, . . . , V
n
ponendo
n

i=1
V
i
=
n

i=1
V
i
.
In conclusione, possiamo riassumere quanto visto nora, dicendo che,
nel caso di una famiglia nita di spazi vettoriali, la somma diretta
coincide con il prodotto cartesiano. Come vedremo in seguito, tale
uguaglianza non vale nel caso della somma diretta di una famiglia di
inniti spazi vettoriali.
2.2. Spazi vettoriali quoziente. Sia V uno spazio vettoriale sul
campo K e sia W un sottospazio di V . Deniamo una relazione di
equivalenza su V , che indicheremo con
W
, ponendo
v
W
v

se e solo se v v

W.
Se indichiamo con [v] la classe di equivalenza di un vettore v V , si
ha
[v] = v +W = v +w[ w W.
Linsieme quoziente V/
W
sar`a indicato con V/W. Vedremo ora che
V/W ha una struttura naturale di spazio vettoriale su K.
Dati due elementi [v
1
], [v
2
] V/W, deniamo la loro somma po-
nendo
[v
1
] + [v
2
] = [v
1
+v
2
].
Naturalmente, ache questa sia una buona denizione, bisogna ve-
ricare che se [v
1
] = [v

1
] e [v
2
] = [v

2
], allora `e anche [v
1
+ v
2
] =
[v

1
+v

2
].
Dire che [v
1
] = [v

1
] e [v
2
] = [v

2
] equivale ad aermare che esistono
due vettori w
1
, w
2
W tali che v
1
v

1
= w
1
e v
2
v

2
= w
2
. Da ci`o
segue che (v
1
+v
2
)(v

1
+v

2
) = w
1
+w
2
W, quindi [v
1
+v
2
] = [v

1
+v

2
].
Deniamo poi il prodotto di un elemento K per una classe di
equivalenza [v] V/W ponendo
[v] = [v].
Anche in questo caso `e facile controllare che si tratta di una buona
denizione.
`
E ora del tutto immediato vericare che linsieme V/W, con le due
operazioni appena denite, `e uno spazio vettoriale sul campo K. Esso
`e detto lo spazio vettoriale quoziente di V modulo il sottospazio W.
40 2. SPAZI VETTORIALI
2.3. Insiemi di generatori e basi. Sia V uno spazio vettoriale
su un campo K.
Definizione 2.25. Un sottoinsieme S V `e detto un insieme di
generatori di V se L(S) = V . In tal caso si dice anche che S genera V .
Notiamo che ogni spazio vettoriale possiede dei sistemi di gene-
ratori: lintero spazio V `e banalmente un insieme di generatori di
V .
Dalla Proposizione 2.17 segue che, se S `e un insieme di generatori
di V , ogni vettore v V si pu`o scrivere come combinazione lineare
nita di elementi di S:
v =
1
v
1
+
2
v
2
+ +
n
v
n
,
per qualche v
1
, . . . , v
n
S e
1
, . . . ,
n
K. Una tale espressione non
`e per`o, in generale, unica.
Definizione 2.26. Un sottoinsieme S V `e detto un insieme
libero di vettori se esso ha la seguente propriet`a: una combinazione
lineare nita di elementi di S `e il vettore nullo se e solo se tutti i
coecienti
i
sono nulli. Cio`e

1
v
1
+
2
v
2
+ +
n
v
n
= 0
con v
1
, . . . , v
n
S, implica
1
=
2
= =
n
= 0.
Se S = v
1
, v
2
, . . . , v
n
`e un insieme libero, diremo anche che i
vettori v
1
, v
2
, . . . , v
n
sono linearmente indipendenti.
Quindi i vettori v
1
, v
2
, . . . , v
n
V sono linearmente indipendenti se
e solo se lequazione

1
v
1
+
2
v
2
+ +
n
v
n
= 0
ha come unica soluzione
1
=
2
= =
n
= 0.
Osservazione 2.27. Se S `e linsieme costituito da un unico vettore
v, dire che S `e libero equivale a dire che v ,= 0.
Analogamente, si trova che se i vettori v
1
, v
2
, . . . , v
n
sono linearmen-
te indipendenti, essi devono essere tutti diversi da zero.
Definizione 2.28. I vettori v
1
, v
2
, . . . , v
n
V si dicono linearmente
dipendenti se essi non sono linearmente indipendenti, cio`e se esistono
degli scalari
1
,
2
, . . . ,
n
K, non tutti nulli, per cui si abbia

1
v
1
+
2
v
2
+ +
n
v
n
= 0.
Proposizione 2.29. I vettori v
1
, v
2
, . . . , v
n
V sono linearmente
dipendenti se e solo se uno di essi pu`o essere espresso come combina-
zione lineare dei rimanenti, cio`e se e solo se esiste un indice i tale che
si abbia
v
i
=
n

j=1, j=i

j
v
j
,
con
j
K.
2. SPAZI VETTORIALI 41
Dimostrazione. Se i vettori v
1
, v
2
, . . . , v
n
sono linearmente dipen-
denti, esiste una combinazione lineare

1
v
1
+
2
v
2
+ +
n
v
n
= 0
in cui i coecienti
j
non sono tutti nulli. Sia dunque i un indice tale
che
i
,= 0. Possiamo quindi scrivere

i
v
i
=
1
v
1

i1
v
i1

i+1
v
i+1

n
v
n
,
da cui si ricava
v
i
=

i
v
1


i1

i
v
i1


i+1

i
v
i+1


n

i
v
n
.
Viceversa, supponiamo che un vettore v
i
sia combinazione lineare dei
rimanenti, cio`e che si abbia
v
i
=
1
v
1
+ +
i1
v
i1
+
i+1
v
i+1
+ +
n
v
n
.
Allora si ha

1
v
1
+ +
i1
v
i1
v
i
+
i+1
v
i+1
+ +
n
v
n
= 0,
il che dimostra che i vettori v
1
, . . . , v
n
sono linearmente dipendenti.
Osservazione 2.30. Notiamo che la dimostrazione della proposi-
zione precedente dipende in modo essenziale dalla possibilit`a di poter
dividere per un elemento non nullo
i
K; `e pertanto indispensabile
che K sia un campo. Nel caso in cui V sia un modulo su un anello un
analogo risultato non vale, come illustrato dal seguente esempio.
Sia K = Z e V = Z
2
. Consideriamo i tre elementi u = (1, 2),
v = (2, 1) e w = (3, 4). Essi sono linearmente dipendenti, infatti
5 (1, 2) + 2 (2, 1) 3 (3, 4) = 0,
tuttavia `e facile vericare che nessuno di essi pu`o essere espresso come
combinazione lineare degli altri due.
Dimostriamo ora che, se un vettore si pu`o scrivere come combi-
nazione lineare di un insieme di vettori linearmente indipendenti, tale
espressione `e unica.
Proposizione 2.31. Siano v
1
, v
2
, . . . , v
n
V dei vettori linearmen-
te indipendenti. Se v V si pu`o scrivere come combinazione lineare
dei vettori v
1
, v
2
, . . . , v
n
,
v =
1
v
1
+
2
v
2
+ +
n
v
n
,
allora gli scalari
1
,
2
, . . . ,
n
sono determinati in modo unico.
Dimostrazione. Supponiamo che sia possibile scrivere v in due
modi, come
v =
1
v
1
+
2
v
2
+ +
n
v
n
,
e come
v =
1
v
1
+
2
v
2
+ +
n
v
n
.
42 2. SPAZI VETTORIALI
Allora si ha

1
v
1
+
2
v
2
+ +
n
v
n
=
1
v
1
+
2
v
2
+ +
n
v
n
,
che si pu`o riscrivere come
(
1

1
)v
1
+ (
2

2
)v
2
+ + (
n

n
)v
n
= 0.
Poiche i vettori v
1
, v
2
, . . . , v
n
sono linearmente indipendenti, si ha dun-
que

1
= 0,
2

2
= 0, . . . ,
n

n
= 0,
il che dimostra che
i
=
i
, per ogni i = 1, . . . , n.
Dalla proposizione appena dimostrata discende quindi che, se con-
sideriamo un insieme di generatori S di V con la propriet`a aggiuntiva
che i vettori di S siano linearmente indipendenti, allora ogni vettore di
V si pu`o scrivere, in modo unico, come combinazione lineare nita di
elementi di S.
Definizione 2.32. Un insieme libero di generatori di uno spazio
vettoriale V `e detto una base di V . In altri termini, una base di V `e
un insieme di vettori linearmente indipendenti i quali generano lintero
spazio V .
Da quanto visto in precedenza, si deduce il seguente risultato:
Corollario 2.33. Sia S una base di V . Ogni vettore v V si pu`o
scrivere, in modo unico, come combinazione lineare nita di elementi
di S.
Osservazione 2.34. Supponiamo che S = v
1
, v
2
, . . . , v
n
sia una
base di uno spazio vettoriale V . Allora, per ogni v V , si ha
v =
1
v
1
+
2
v
2
+ +
n
v
n
,
e gli scalari
i
K sono unicamente determinati da v. Tali scalari sono
anche detti le coordinate del vettore v rispetto alla base v
1
, v
2
, . . . , v
n
ssata.
2.4. Spazi vettoriali nitamente generati. Nella sezione pre-
cedente non abbiamo fatto nessuna ipotesi sul numero di generatori di
uno spazio vettoriale. Ora ci occuperemo in dettaglio del caso in cui
tale numero `e nito.
Definizione 2.35. Uno spazio vettoriale V `e detto nitamente
generato se esiste un insieme nito di generatori di V .
Cominciamo col dimostrare che ogni uno spazio vettoriale V ni-
tamente generato ammette una base. Pi` u precisamente, dimostreremo
che da ogni insieme di generatori di V si pu`o estrarre una base.
Proposizione 2.36. Sia S = v
1
, v
2
, . . . , v
n
un insieme di gene-
ratori di V . Allora S contiene dei vettori v
i
1
, v
i
2
, . . . , v
i
r
, per qualche
r n, che formano una base di V .
2. SPAZI VETTORIALI 43
Dimostrazione. Se i vettori v
1
, v
2
, . . . , v
n
sono linearmente indi-
pendenti, essi sono una base di V e la dimostrazione `e cos` terminata.
Se invece essi sono linearmente dipendenti, uno di essi pu`o essere espres-
so come combinazione lineare dei rimanenti. A meno di rinominarli,
possiamo supporre che questo vettore sia v
n
. Possiamo quindi scrivere
v
n
=
1
v
1
+
2
v
2
+ +
n1
v
n1
.
Da ci`o segue che i vettori v
1
, v
2
, . . . , v
n1
generano lo spazio vettoria-
le V ; infatti ogni vettore che si scrive come combinazione lineare dei
vettori v
1
, v
2
, . . . , v
n
si pu`o anche scrivere come combinazione lineare
dei soli vettori v
1
, v
2
, . . . , v
n1
. Ora, se i vettori v
1
, v
2
, . . . , v
n1
sono
linearmente indipendenti, essi sono una base di V e la dimostrazione
`e terminata. In caso contrario uno di essi pu`o essere espresso come
combinazione lineare dei rimanenti. Anche in questo caso, a meno di
riordinare i vettori, possiamo supporre che sia v
n1
a potersi scrivere
come combinazione lineare dei vettori v
1
, v
2
, . . . , v
n2
. Ma ci`o signica
che i vettori v
1
, v
2
, . . . , v
n2
sono un insieme di generatori di V .
Ripetendo il ragionamento sopra descritto si arriver`a, prima o poi,
ad un insieme di vettori v
1
, v
2
, . . . , v
r
, per qualche r n, che generano
tutto lo spazio V e sono linearmente indipendenti. Essi costituiscono
quindi una base di V .
Il seguente risultato chiarisce le relazioni che esistono tra insiemi di
vettori linearmente indipendenti, basi e insiemi di generatori.
Proposizione 2.37. Sia V uno spazio vettoriale nitamente ge-
nerato. Consideriamo un insieme v
1
, v
2
, . . . , v
n
di generatori di V e
siano w
1
, w
2
, . . . , w
r
dei vettori linearmente indipendenti. Allora r n.
Dimostrazione. Poiche i vettori v
1
, v
2
, . . . , v
n
generano V , il vet-
tore w
1
si pu`o scrivere come una loro combinazione lineare,
w
1
=
1
v
1
+
2
v
2
+ +
n
v
n
.
Dato che w
1
,= 0, gli scalari
1
, . . . ,
n
non possono essere tutti nulli,
quindi esiste un indice i tale che
i
,= 0. Da ci`o si deduce che il
vettore v
i
pu`o essere espresso come combinazione lineare dei vettori
w
1
, v
1
, . . . , v
i1
, v
i+1
, . . . , v
n
.
A meno di rinominare i vettori v
j
, possiamo supporre che sia i = n,
cio`e che v
n
si possa scrivere come combinazione lineare dei vettori
w
1
, v
1
, . . . , v
n1
; ma ci`o signica che anche w
1
, v
1
, . . . , v
n1
`e un in-
sieme di generatori di V . Il vettore w
2
si pu`o quindi scrivere come
combinazione lineare dei vettori w
1
, v
1
, . . . , v
n1
:
w
2
=
1
w
1
+
1
v
1
+ +
n1
v
n1
,
e gli scalari
1
, . . . ,
n1
non possono essere tutti nulli, perche altrimenti
i vettori w
1
e w
2
sarebbero linearmente dipendenti, contro lipotesi.
Esiste quindi un indice i per il quale
i
,= 0 e, ancora una volta, pos-
siamo supporre che sia i = n1 (a meno di riordinare i vettori v
j
). Da
44 2. SPAZI VETTORIALI
ci`o segue che il vettore v
n1
si pu`o scrivere come combinazione lineare
dei vettori w
1
, w
2
, v
1
, . . . , v
n2
, quindi anche w
1
, w
2
, v
1
, . . . , v
n2
`e un
insieme di generatori di V .
Continuando in questo modo, si dimostra che tutti gli insiemi
w
1
, w
2
, . . . , w
h
, v
1
, . . . , v
nh

sono insiemi di generatori di V .


Se, per assurdo, fosse n < r, ponendo h = n si avrebbe che i vettori
w
1
, w
2
, . . . , w
n
generano tutto lo spazio V , quindi il vettore w
n+1
si
potrebbe scrivere come combinazione lineare dei vettori w
1
, w
2
, . . . , w
n
,
il che contraddice lipotesi che i vettori w
1
, w
2
, . . . , w
r
siano linearmente
indipendenti. Deve quindi essere r n.
Corollario 2.38. Sia V uno spazio vettoriale nitamente gene-
rato e sia v
1
, v
2
, . . . , v
n
una base di V . Allora, per ogni insieme di
vettori linearmente indipendenti w
1
, w
2
, . . . , w
r
, si ha r n e, per
ogni insieme u
1
, u
2
, . . . , u
s
di generatori di V , si ha s n.
Dimostrazione. Questo risultato `e una conseguenza immediata
della proposizione precedente; basta ricordare che i vettori v
1
, v
2
, . . . , v
n
sono linearmente indipendenti e sono anche un insieme di generatori di
V .
Corollario 2.39. Due basi qualunque di uno spazio vettoriale V
(nitamente generato) hanno lo stesso numero di elementi.
Dimostrazione. Siano v
1
, v
2
, . . . , v
r
e w
1
, w
2
, . . . , w
s
due basi
di V . Allora, dato che i vettori v
1
, v
2
, . . . , v
r
sono linearmente indipen-
denti e i vettori w
1
, w
2
, . . . , w
s
sono dei generatori di V , si ha r s.
Scambiando il ruolo delle due basi, si ottiene anche s r, da cui segue
luguaglianza r = s.
Il numero di vettori che compongono una base di uno spazio vetto-
riale nitamente generato V `e dunque indipendente dalla base scelta e
dipende dunque solo dallo spazio V . Possiamo quindi dare la seguente
denizione:
Definizione 2.40. La dimensione di uno spazio vettoriale (nita-
mente generato) V , che indicheremo con dimV , `e il numero di elementi
di una base di V .
Esempio 2.41. Consideriamo lo spazio vettoriale V = K
n
, denito
nellEsempio 2.3. Per ogni i = 1, . . . , n, indichiamo con e
i
la n-upla di
elementi di K le cui componenti sono tutte nulle tranne la i-esima, che
2. SPAZI VETTORIALI 45
`e uguale a 1:
e
1
= (1, 0, 0, 0, . . . , 0, 0),
e
2
= (0, 1, 0, 0, . . . , 0, 0),
e
3
= (0, 0, 1, 0, . . . , 0, 0),
. . .
e
n
= (0, 0, 0, 0, . . . , 0, 1).
Notiamo che, per ogni
1
, . . . ,
n
K, si ha

1
e
1
+
2
e
2
+ +
n
e
n
= (
1
,
2
, . . . ,
n
).
Da questa uguaglianza si deduce che i vettori e
1
, e
2
, . . . , e
n
sono linear-
mente indipendenti e generano lo spazio vettoriale V ; essi sono pertanto
una base di V = K
n
. Questa base `e detta la base canonica di K
n
. Si
ha pertanto dimK
n
= n.
Esempio 2.42. Lo spazio vettoriale nullo, V = 0, ha dimensione
pari a zero. Esso infatti contiene un solo vettore v = 0, ma tale vettore
non forma una base di V dato che esso non `e linearmente indipendente!
Infatti un insieme costituito da un solo vettore v `e un insieme libero
(cio`e v `e linearmente indipendente) se e solo se v ,= 0.
Dalla Proposizione 2.37 derivano anche i prossimi due risultati.
Corollario 2.43. Sia V uno spazio vettoriale nitamente gene-
rato. Allora ogni sottospazio vettoriale W di V `e nitamente generato
e si ha dimW dimV .
Dimostrazione. Poniamo n = dimV . Se w
1
, . . . , w
r
`e un in-
sieme di vettori linearmente indipendenti di W, essi sono anche dei
vettori linearmente indipendenti di V ; deve quindi essere r n. Se
questi vettori non sono un insieme di generatori di W, ci`o signica che
esiste un vettore w
r+1
W che non pu`o essere espresso come combina-
zione lineare di w
1
, . . . , w
r
. Da ci`o segue che i vettori w
1
, . . . , w
r
, w
r+1
sono linearmente indipendenti. Se essi non sono ancora un insieme di
generatori di W, deve esistere un vettore w
r+2
W che non pu`o esse-
re espresso come combinazione lineare di w
1
, . . . , w
r
, w
r+1
. Ma allora
anche i vettori w
1
, . . . , w
r
, w
r+1
, w
r+2
sono linearmente indipendenti.
Poiche il numero di vettori linearmente indipendenti non pu`o ecce-
dere n, ripetendo il ragionamento precedente si arriva, dopo un numero
nito di passi, a costruire un insieme di vettori linearmente indipen-
denti w
1
, . . . , w
s
, con s n, i quali generano il sottospazio W e sono
quindi una base di W. Ci`o dimostra che dimW dimV .
Corollario 2.44. Sia V uno spazio vettoriale nitamente gene-
rato. Allora ogni insieme di vettori linearmente indipendenti v
1
, . . . , v
r
pu`o essere completato a una base di V . In altri termini, esistono dei
vettori v
r+1
, . . . , v
n
tali che linsieme v
1
, . . . , v
r
, v
r+1
, . . . , v
n
sia una
base di V .
46 2. SPAZI VETTORIALI
Dimostrazione. La dimostrazione di questo risultato `e essenzial-
mente analoga a quella del corollario precedente. Supponiamo che
v
1
, . . . , v
r
V siano dei vettori linearmente indipendenti. Se questi
vettori non sono un insieme di generatori di V , ci`o signica che esiste
un vettore v
r+1
V che non pu`o essere espresso come combinazione
lineare di v
1
, . . . , v
r
. Da ci`o segue che i vettori v
1
, . . . , v
r
, v
r+1
sono
linearmente indipendenti. Se essi non sono ancora un insieme di ge-
neratori di V , deve esistere un vettore v
r+2
V che non pu`o essere
espresso come combinazione lineare di v
1
, . . . , v
r
, v
r+1
. Ma allora an-
che i vettori v
1
, . . . , v
r
, v
r+1
, v
r+2
sono linearmente indipendenti. Con-
tinuando in questo modo, si deve necessariamente ottenere un insieme
di vettori linearmente indipendenti v
1
, . . . , v
r
, v
r+1
, . . . , v
n
che sono
anche un insieme di generatori di V , altrimenti si otterrebbe un insie-
me innito di vettori linearmente indipendenti, contro lipotesi che V
sia nitamente generato.
Se la dimensione di uno spazio vettoriale V `e nota, la verica che un
determinato insieme di vettori di V forma una base risulta semplicata.
Vale infatti il seguente risultato:
Proposizione 2.45. Sia V uno spazio vettoriale di dimensione n
e siano v
1
, . . . , v
n
dei vettori di V .
(a) Se i vettori v
1
, . . . , v
n
sono linearmente indipendenti, allora
essi sono anche un sistema di generatori di V , quindi sono
una base di V .
(b) Se i vettori v
1
, . . . , v
n
sono un sistema di generatori di V , allo-
ra essi sono anche linearmente indipendenti, quindi sono una
base di V .
Dimostrazione. (a) Supponiamo che i vettori v
1
, . . . , v
n
siano li-
nearmente indipendenti. Per il corollario precedente, essi sono conte-
nuti in una base v
1
, . . . , v
n
, v
n+1
, . . . , v
n+r
di V . Ma, poiche V ha
dimensione n, ogni base di V deve avere n elementi. Da ci`o si deduce
che r = 0 e quindi i vettori v
1
, . . . , v
n
sono, in eetti, una base di V .
(b) Supponiamo che i vettori v
1
, . . . , v
n
siano un insieme di genera-
tori di V . Se, per assurdo, essi fossero linearmente dipendenti, uno di
essi sarebbe combinazione lineare dei rimanenti. A meno di riordinare
i vettori, non `e restrittivo supporre che v
n
sia combinazione lineare di
v
1
, . . . , v
n1
. Ma allora i vettori v
1
, . . . , v
n1
sarebbero anchessi un in-
sieme di generatori di V . Questo per`o `e assurdo; infatti la cardinalit`a
di un insieme di generatori di V deve essere dimV (vedi Corolla-
rio 2.38). Quindi i vettori v
1
, . . . , v
n
sono linearmente indipendenti,
cio`e sono una base di V .
Corollario 2.46. Sia V uno spazio vettoriale nitamente ge-
nerato e sia W V un suo sottospazio proprio. Allora dimW <
dimV .
2. SPAZI VETTORIALI 47
Dimostrazione. Nel Corollario 2.43 abbiamo dimostrato che si
ha dimW dimV . Supponiamo, per assurdo, che si abbia dimW =
dimV = n. Consideriamo quindi una base w
1
, . . . , w
n
di W. Dato
che questi sono n vettori linearmente indipendenti di V , e dato che
n `e proprio la dimensione di V , per il punto (a) della proposizione
precedente essi sono una base di V . Ma da ci`o segue che W = V ,
contro lipotesi che W sia un sottospazio proprio di V .
Occupiamoci ora della dimensione di uno spazio vettoriale quozien-
te.
Proposizione 2.47. Sia V uno spazio vettoriale di dimensione n
sul campo K e sia W un sottospazio vettoriale di dimensione r di V .
Allora lo spazio vettoriale quoziente V/W ha dimensione n r.
Dimostrazione. Sia w
1
, . . . , w
r
una base di W. Per il Corolla-
rio 2.44, `e possibile completare questo insieme di vettori ad una base
w
1
, . . . , w
r
, v
r+1
, . . . , v
n
di V .
Se consideriamo le classi di equivalenza di questi vettori nel quo-
ziente V/W, si ha
[w
1
] = [w
2
] = = [w
r
] = [0].
Dimostriamo ora che gli elementi [v
r+1
], [v
r+2
], . . . , [v
n
] sono una base
di V/W.
Che essi siano un insieme di generatori `e del tutto ovvio: dato che
ogni vettore v V si pu`o scrivere come una combinazione lineare del
tipo
v =
1
w
1
+ +
r
w
r
+
1
v
r+1
+ +
nr
v
n
,
da ci`o si deduce che
[v] =
1
[v
r+1
] + +
nr
[v
n
].
Se, per assurdo, i vettori [v
r+1
], . . . , [v
n
] fossero linearmente dipendenti,
esisterebbe una combinazione lineare (con coecienti non tutti nulli)

1
[v
r+1
] + +
nr
[v
n
] = [0],
il che equivale a

1
v
r+1
+ +
nr
v
n
W.
Ma ci`o signica che `e possibile scrivere

1
v
r+1
+ +
nr
v
n
=
1
w
1
+ +
r
w
r
,
per qualche
1
, . . . ,
r
K. I vettori w
1
, . . . , w
r
, v
r+1
, . . . , v
n
sarebbero
quindi linearmente dipendenti, il che non `e possibile dato che essi sono
una base di V .
Avendo cos` dimostrato che i vettori [v
r+1
], [v
r+2
], . . . , [v
n
] sono una
base di V/W, si deduce che dimV/W = n r.
48 2. SPAZI VETTORIALI
Osservazione 2.48. Se K L `e una estensione
3
di campi, ogni
spazio vettoriale V sul campo L pu`o essere anche considerato come
spazio vettoriale sul campo K. Se v
1
, . . . , v
n
`e una base di V in
quanto K-spazio vettoriale, questi stessi vettori generano V anche in
quanto spazio vettoriale su L, tuttavia, in questo caso, essi potrebbero
non essere pi` u linearmente indipendenti, come vedremo nel successivo
esempio. In generale, possiamo pertanto aermare che la dimensione
di V in quanto L-spazio vettoriale `e minore o uguale alla dimensione
di V considerato come spazio vettoriale su K, cio`e
dim
L
V dim
K
V.
Illustriamo quanto appena aermato con un esempio concreto. Sia
K = R il campo dei numeri reali e L = C il campo dei numeri complessi.
Linsieme C`e identicato in modo naturale con linsieme R
2
, associando
ad ogni numero complesso z = x + iy la coppia di numeri reali (x, y).
Poniamo quindi V = C

= R
2
. Lo spazio vettoriale V = C, in quanto
spazio vettoriale sul campo C, ha naturalmente dimensione 1, e una
sua base `e costituita dal vettore v = 1. Se invece consideriamo C in
quanto spazio vettoriale su R, esso ha dimensione 2. Una sua base `e
infatti costituita dai vettori v
1
= 1 e v
2
= i, i quali corrispondono,
nellidenticazione C

= R
2
descritta in precedenza, ai due vettori (1, 0)
e (0, 1) della base canonica di R
2
.
Notiamo che i vettori v
1
= 1 e v
2
= i sono linearmente indipendenti
sul campo R dei numeri reali; infatti se v
1
+ v
2
= + i = 0, con
, R, si deve necessariamente avere = = 0.
Essi sono invece linearmente dipendenti sul campo C: si ha infatti
v
1
+iv
2
= 1 +i
2
= 1 1 = 0.
Pi` u in generale, se V = C
n
, si ha dim
C
V = n e dim
R
V = 2n.
Osservazione 2.49. Sia V uno spazio vettoriale di dimensione n
sul campo K. Se ssiamo una base v
1
, . . . , v
n
di V , ad ogni vettore v
V possiamo associare lunica n-upla di elementi di K, (
1
, . . . ,
n
)
K
n
, per cui si ha v =
1
v
1
+ +
n
v
n
. Si ottiene in questo modo una
funzione biiettiva
V K
n
, v (
1
, . . . ,
n
),
da cui si deduce che la cardinalit`a di V coincide con la cardinalit`a
dellinsieme K
n
:
[V [ = [K
n
[ = n[K[.
Se K `e un campo innito, si ha [K
n
[ = [K[ (vedi Capitolo 1, Corolla-
rio 2.14).
Abbiamo cos` dimostrato che ogni spazio vettoriale di dimensione
nita su un campo innito K ha cardinalit`a pari alla cardinalit`a di K.
3
Ci`o signica semplicemente che L `e un campo e K `e un suo sottocampo.
2. SPAZI VETTORIALI 49
Terminiamo questa sezione dimostrando un risultato che mette in
relazione le dimensioni di due sottospazi vettoriali di V con le dimen-
sioni della loro somma e della loro intersezione:
Proposizione 2.50. Siano W
1
e W
2
due sottospazi vettoriali di
uno spazio vettoriale nitamente generato V . Allora si ha:
dim(W
1
+W
2
) = dimW
1
+ dimW
2
dim(W
1
W
2
).
Dimostrazione. Poniamo
r = dimW
1
, s = dimW
2
, t = dim(W
1
W
2
).
Consideriamo una base v
1
, . . . , v
t
di W
1
W
2
. Per il Corollario 2.44,
questo insieme di vettori pu`o essere completato, tramite aggiunta di
altri vettori, in modo da ottenere una base v
1
, . . . , v
t
, v
t+1
, . . . , v
r
di
W
1
e una base v
1
, . . . , v
t
, v

t+1
, . . . , v

s
di W
2
.
Dato che ogni vettore di W
1
+ W
2
pu`o essere scritto come somma
di un vettore di W
1
e di uno di W
2
, esso pu`o quindi essere espresso co-
me combinazione lineare dei vettori v
1
, . . . , v
t
, v
t+1
, . . . , v
r
, v

t+1
, . . . , v

s
.
Vogliamo ora dimostrare che questi vettori, oltre a essere dei generatori
di W
1
+W
2
, sono anche linearmente indipendenti.
Supponiamo quindi che sia

1
v
1
+ +
t
v
t
+
1
v
t+1
+ +
rt
v
r
+
1
v

t+1
+ +
st
v

s
= 0.
Da ci`o segue che

1
v
1
+ +
t
v
t
+
1
v
t+1
+ +
rt
v
r
= (
1
v

t+1
+ +
st
v

s
).
Se chiamiamo w il vettore precedente, si ha che w W
1
W
2
. Poiche
v
1
, . . . , v
t
`e una base di W
1
W
2
, il vettore w si pu`o scrivere, in modo
unico, nella forma
w =
1
v
1
+ +
t
v
t
.
Si hanno quindi le seguenti uguaglianze:

1
v
1
+ +
t
v
t
=
1
v
1
+ +
t
v
t
+
1
v
t+1
+ +
rt
v
r
e

1
v
1
+ +
t
v
t
= (
1
v

t+1
+ +
st
v

s
).
Poiche, per ipotesi, i vettori v
1
, . . . , v
t
, v
t+1
, . . . , v
r
sono una base di W
1
e i vettori v
1
, . . . , v
t
, v

t+1
, . . . , v

s
sono una base di W
2
, dalle uguaglianze
precedenti segue che

1
= =
t
= 0,

1
= =
rt
= 0,

1
= =
t
= 0,

1
= =
st
= 0.
Abbiamo cos` dimostrato che linsieme dei vettori
v
1
, . . . , v
t
, v
t+1
, . . . , v
r
, v

t+1
, . . . , v

`e una base di W
1
+W
2
. Si ha pertanto
dim(W
1
+W
2
) = r +s t = dimW
1
+ dimW
2
dim(W
1
W
2
).

50 2. SPAZI VETTORIALI
Osservazione 2.51. Sia V uno spazio vettoriale nitamente gene-
rato. Notiamo che, per ogni sottospazio W V , `e possibile trovare
un sottospazio W

di V tale che V = W W

, cio`e tale che si abbia


V = W + W

e W W

= 0. Un tale W

`e detto un sottospazio
complementare di W.
A tal ne, `e suciente considerare una base w
1
, . . . , w
r
di W
e completarla ad una base w
1
, . . . , w
r
, v
r+1
, . . . , v
n
di V (cf. Corol-
lario 2.44). Il sottospazio W

= v
r+1
, . . . , v
n
), generato dai vettori
v
r+1
, . . . , v
n
, `e il sottospazio cercato.
Notiamo inne che un tale sottospazio W

non `e unico. Ad esempio,


se V = K
2
e se W `e il sottospazio generato dal vettore (1, 0), qualunque
vettore (a, b), con b ,= 0, genera un sottospazio W

tale che V = WW

.
2.5. Spazi vettoriali non nitamente generati. Nella sezione
precedente ci siamo occupati esclusivamente di spazi vettoriali di di-
mensione nita. Ora vedremo che alcuni risultati, come ad esempio il
fatto che ogni spazio vettoriale ammetta una base e che due basi dello
stesso spazio vettoriale abbiano la stessa cardinalit`a, valgono anche per
spazi vettoriali non nitamente generati. Le dimostrazioni, tuttavia,
sono pi` u complicate.
Cominciamo col dimostrare lanalogo della Proposizione 2.36 e del
Corollario 2.44 per uno spazio vettoriale V non necessariamente ni-
tamente generato; dimostriamo cio`e che ogni insieme di generatori di
V contiene una base e che ogni insieme libero di vettori pu`o essere
completato ad una base di V .
Teorema 2.52. Sia V uno spazio vettoriale (non nitamente ge-
nerato) sul campo K. Allora:
(a) Ogni insieme libero S di vettori di V `e contenuto in una base.
Cio`e, esiste una base B di V tale che S B.
(b) Ogni insieme S di generatori di V contiene una base. Cio`e,
esiste una base B di V tale che B S.
Dimostrazione. (a) Indichiamo con S il sottoinsieme di P(V )
formato da tutti i sottoinsiemi liberi S di V . Notiamo che S non
`e linsieme vuoto, perche in V esiste almeno un vettore non nullo.
Deniamo un ordine parziale su S ponendo S
1
S
2
se S
1
S
2
. Ora
dimostreremo che linsieme S `e (strettamente) induttivo.
Sia T una catena non vuota in S, e scriviamo T = S
i

iI
. Ponia-
mo
S =
_
iI
S
i
.
Dimostriamo che S `e un sottoinsieme libero di V . Se cos` non fos-
se, S conterrebbe un insieme nito di vettori linearmente dipendenti
v
1
, v
2
, . . . , v
n
. Per denizione di S, ogni v
i
deve appartenere a un
insieme S
j
, per qualche indice j I. Poiche T `e una catena, e poiche
i vettori v
1
, v
2
, . . . , v
n
sono in numero nito, esiste un indice h I tale
2. SPAZI VETTORIALI 51
che v
1
, v
2
, . . . , v
n
S
h
. Ma S
h
`e un sottoinsieme libero di V , quindi
i vettori v
1
, v
2
, . . . , v
n
non possono essere linearmente dipendenti. Da
ci`o si deduce che S `e un insieme libero, quindi appartiene a S.
`
E ora immediato vericare che S `e proprio lestremo superiore di
T, il che dimostra che S `e un insieme strettamente induttivo.
Possiamo quindi applicare il Lemma di Zorn, il quale aerma che
per ogni insieme libero S S esiste un elemento massimale M S,
con S M. Si tratta ora di dimostrare che M `e una base di V .
Osserviamo, innanzitutto, che M `e un insieme libero, dato che M
S; bisogna quindi dimostrare che M `e un insieme di generatori di V .
Se cos` non fosse, esisterebbe un vettore v V che non pu`o essere
espresso come combinazione lineare nita di elementi di M. Ma, in tal
caso, linsieme M

= M v sarebbe un insieme libero che contiene


strettamente M, il che contraddice la massimalit`a di M. M `e pertanto
una base di V .
(b) La dimostrazione `e simile a quella del punto (a). In questo
caso deniamo S come linsieme di tutti i sottoinsiemi di V che sono
insiemi di generatori di V ; S non `e linsieme vuoto dato che V S.
Ordiniamo S per inclusione rovesciata, cio`e poniamo S
1
S
2
se S
1

S
2
. In questo modo S risulta essere un insieme parzialmente ordinato
(strettamente) induttivo. Infatti, se T = S
i

iI
`e una catena non
vuota in S, si verica facilmente che linsieme
S =

iI
S
i
`e proprio lestremo superiore di T (la verica `e lasciata al lettore, per
esercizio).
Anche in questo caso possiamo dunque applicare il Lemma di Zorn,
il quale, nella sua versione pi` u forte, aerma che per ogni insieme di
generatori S S, esiste un elemento massimale M S, con S M,
il che equivale a dire S M. Ora dimostreremo che M `e, in eetti,
una base di V .
Dato che, per denizione di S, M genera V , `e suciente dimostrare
che M `e un insieme libero. Per assurdo, supponiamo che M contenga
dei vettori linearmente dipendenti, v
1
, v
2
, . . . , v
n
. In tal caso, uno di
questi vettori si pu`o scrivere come combinazione lineare dei rimanenti.
A meno di riordinarli, non `e restrittivo supporre che sia
v
n
=
1
v
1
+
2
v
2
+ +
n1
v
n1
.
Da ci`o si deduce che anche M

= M v
n
`e un insieme di generatori
di V . Ma M

`e contenuto propriamente in M, il che signica che


M < M

. Ci`o, tuttavia, contraddice la massimalit`a di M. Abbiamo


cos` dimostrato che M `e una base di V .
Da questo risultato si ottiene immediatamente lesistenza di una
base di V .
52 2. SPAZI VETTORIALI
Corollario 2.53. Ogni spazio vettoriale V su un campo K pos-
siede una base.
Osservazione 2.54. Notiamo che la dimostrazione dellesistenza
di una base per uno spazio vettoriale non nitamente generato utilizza
il Lemma di Zorn e quindi dipende dallAssioma della Scelta.
Esempio 2.55. Sia V = K[X] lo spazio vettoriale dei polinomi
in una indeterminata, a coecienti nel campo K (che `e gi`a stato
introdotto nellEsempio 2.4).
Ricordando che ogni polinomio in K[X], per denizione, si scrive
in modo unico nella forma
p(X) = a
0
+a
1
X +a
2
X
2
+ +a
n
X
n
,
per qualche n 0, e per qualche a
1
, . . . , a
n
K, si deduce che linsieme
degli inniti polinomi
q
0
(X) = 1, q
1
(X) = X, q
2
(X) = X
2
, . . . , q
i
(X) = X
i
, . . .
`e una base di V . Lo spazio vettoriale V = K[X] non `e quindi nita-
mente generato. Pi` u precisamente, abbiamo dimostrato che V ha una
base costituita da un insieme numerabile di vettori.
Osservazione 2.56. Sia V uno spazio vettoriale sul campo K e
supponiamo che V abbia una base numerabile
v
1
, v
2
, . . . , v
i
, . . . .
Per ogni intero n 1 indichiamo con V
n
il sottospazio di V generato
dai vettori v
1
, v
2
, . . . , v
n
; si ha quindi dimV
n
= n. Notiamo che
V =
_
n1
V
n
.
Se K `e un campo nito, tutti gli insiemi V
n
sono niti, come dimostra-
to nellOsservazione 2.49. Linsieme V `e dunque numerabile, essendo
unione numerabile di insiemi niti (vedi Cap. 1, Proposizione 1.15).
Se invece K `e un campo innito, abbiamo gi`a dimostrato nellOs-
servazione 2.49 che [V
n
[ = [K[, per ogni n 1. Poiche V `e unione dei
sottospazi V
n
, dalla Proposizione 2.11 del Cap. 1 (e dallosservazione
successiva), si deduce che la cardinalit`a di V coincide con la cardinalit`a
di K, esattamente come accade nel caso in cui V ha dimensione nita.
Esempio 2.57. Sia K = Q il campo dei numeri razionali e sia
V = R linsieme dei numeri reali. Consideriamo V in quanto spazio
vettoriale su K. Se esistesse una base nita o numerabile di V si
avrebbe, in base allosservazione precedente, [V [ = [K[ =
0
, il che `e
falso, dato che R non `e numerabile. In eetti, `e facile dimostrare che
ogni base di V deve avere la stessa cardinalit`a di R.
2. SPAZI VETTORIALI 53
Esempio 2.58. Sia K = Z/2Z il campo nito con due elementi e
sia V linsieme di tutte le funzioni da N

= N0 in K. V `e, in modo
naturale, uno spazio vettoriale su K (vedi Esempio 2.5).
Ad ogni funzione f : N

K possiamo associare una sequenza


innita (a
1
, a
2
, . . . , a
i
, . . . ) di elementi di K, ponendo a
i
= f(i), per
ogni i 1. Lo spazio vettoriale V pu`o quindi essere identicato con
linsieme di tali sequenze, cio`e con il prodotto cartesiano
K

i=1
K.
di innite copie di K.
Per ogni intero i 1 indichiamo con e
i
la sequenza i cui elementi
sono tutti nulli tranne quello nella i-esima posizione, che `e uguale a 1
(la sequenza e
i
corrisponde alla funzione f
i
denita da f
i
(n) = 0 per
ogni n ,= i e f
i
(i) = 1).
Per analogia con quanto accade nel caso degli spazi vettoriali K
n
,
si potrebbe, ingenuamente, pensare che linsieme degli inniti vettori
e
1
, e
2
, . . . , e
i
, . . .
costituisse una base numerabile di V

= K

. Ci`o `e falso! Infatti se


consideriamo il vettore v = (1, 1, . . . , 1, . . . ), esso non pu`o, in nessun
modo, essere espresso come combinazione lineare nita dei vettori e
i
;
infatti ogni tale combinazione lineare nita produce una sequenza che
ha solo un numero nito di elementi diversi da zero.
Formalmente si avrebbe
v =

i=1
e
i
,
ma, nelle denizioni relative agli spazi vettoriali, non sono ammesse
delle combinazioni lineari innite
4
di vettori.
In realt`a lo spazio vettoriale V che abbiamo considerato non pos-
siede una base numerabile. Infatti, se esistesse una base numerabile
di V , V stesso sarebbe un insieme numerabile. Invece linsieme V pu`o
essere identicato con linsieme delle parti di N, la cui cardinalit`a `e
2

0
= c. Da ci`o si deduce che ogni base di V deve avere la cardinalit`a
c del continuo.
Ora dimostreremo che, anche nel caso di spazi vettoriali non ni-
tamente generati, due basi di uno stesso spazio vettoriale sono equipo-
tenti.
`
E quindi ancora possibile denire la dimensione di uno spazio
vettoriale, identicandola con la cardinalit`a di una base.
4
Per dare un senso ad una somma innita occorre introdurre una topologia e
denire la somma innita come un limite di opportune somme nite. Dopodiche
bisogna stabilire se un tale limite esiste oppure no.
54 2. SPAZI VETTORIALI
Teorema 2.59. Siano B
1
e B
2
due basi di uno spazio vettoriale V
sul campo K. Allora [B
1
[ = [B
2
[.
Dimostrazione. Dato che la dimostrazione `e piuttosto lunga, ri-
teniamo utile descrivere subito la strategia che seguiremo. Quello che
vogliamo dimostrare `e che esiste una funzione iniettiva : B
1
B
2
.
Dopodiche, scambiando i ruoli delle due basi, si ottiene anche lesi-
stenza di una funzione iniettiva da B
2
in B
1
. Il Teorema di Cantor
BernsteinShroeder (Cap. 1, Teorema 2.2) permette quindi di conclu-
dere che esiste una funzione biiettiva B
1
B
2
, il che equivale a dire
che B
1
e B
2
hanno la stessa cardinalit`a.
Per ottenere lesistenza di una funzione iniettiva : B
1
B
2
,
considereremo un opportuno insieme di coppie (S, ), ove S `e un sot-
toinsieme di B
1
e : S B
2
`e una funzione iniettiva.
`
E possibile
ordinare parzialmente tale insieme di coppie in modo da ottenere un
insieme induttivo a cui si pu`o applicare il Lemma di Zorn. Se indi-
chiamo con (M, ) un elemento massimale di tale insieme, baster`a solo
dimostrare che M = B
1
per ottenere la funzione iniettiva : B
1
B
2
cercata.
Sia dunque S linsieme delle coppie (S, ), dove S B
1
e : S
B
2
`e una funzione iniettiva, che soddisfano la seguente condizione:
(B
1
S) (S) `e un insieme libero.
Innanzitutto dimostriamo che S non `e linsieme vuoto.
Consideriamo un vettore v B
1
. Dato che B
2
`e una base di V ,
esistono dei vettori w
1
, . . . , w
n
B
2
e degli scalari
1
, . . . ,
n
K tali
che
v =
1
w
1
+
2
w
2
+ +
n
w
n
.
Poniamo C = B
1
v; C `e un insieme libero in quanto sottoinsieme
della base B
1
. Tra i vettori w
1
, . . . , w
n
che compaiono nellespressione
di v ce ne deve essere almeno uno, chiamiamolo w
k
, che non appartiene
allinsieme C e tale che C w
k
sia un insieme libero. Infatti, in caso
contrario, si avrebbe che ogni w
i
o appartiene a C oppure si pu`o scrivere
come combinazione lineare di elementi di C. Ma da ci`o seguirebbe che
il vettore v `e combinazione lineare di elementi di C, quindi linsieme
C v = B
1
non sarebbe libero, contro lipotesi che B
1
sia una base.
Deniamo ora una funzione : v B
2
, ponendo (v) = w
k
.
Questa funzione `e ovviamente iniettiva, inoltre si ha che linsieme
(B
1
v) (v) = C w
k

`e libero. Ci`o signica che la coppia (v, ) appartiene allinsieme S,


che non `e dunque linsieme vuoto.
Possiamo ora denire un ordine parziale su S ponendo
(S
1
,
1
) (S
2
,
2
) se S
1
S
2
e
2
[
S
1
=
1
.
2. SPAZI VETTORIALI 55
Il prossimo passo consiste nel dimostrare che S `e un insieme (stretta-
mente) induttivo.
Sia T = (S
i
,
i
)
iI
una catena non vuota in S. Poniamo
S =
_
iI
S
i
e deniamo una funzione : S B
2
ponendo (v) =
i
(v) per qualche
indice i I per cui si abbia v S
i
. Notiamo che se i ,= j sono due
indici tali che v S
i
e v S
j
, dato che T `e una catena deve essere
(S
i
,
i
) (S
j
,
j
) oppure (S
j
,
j
) (S
i
,
i
). In entrambi i casi si ha
dunque
i
(v) =
j
(v), il che dimostra che la funzione : S B
2
`e
ben denita.
Verichiamo ora che `e iniettiva. Siano dunque v, v

S tali che
(v) = (v

). Esisteranno due indici i, j I tali che v S


i
e

S
j
ma,
dato che T `e una catena, deve necessariamente essere S
i
S
j
oppure
S
j
S
i
. In entrambi i casi, esiste un indice h I tale che v, v

S
h
e si ha quindi (v) =
h
(v) e (v

) =
h
(v

). Poiche
h
`e iniettiva,
dalluguaglianza
h
(v) =
h
(v

) segue che v = v

. Ci`o dimostra che la


funzione `e iniettiva.
Per concludere che la coppia (S, ) appartiene a S rimane solo da
vericare che linsieme (B
1
S) (S) `e libero. Per assurdo, suppo-
niamo che ci`o sia falso. Questo insieme contiene quindi una famiglia
nita di vettori linearmente dipendenti. Possiamo quindi supporre che
esistano dei vettori v
1
, . . . , v
r
B
1
S e dei vettori w
1
, . . . , w
s
(S)
tali che linsieme
v
1
, . . . , v
r
, w
1
, . . . , w
s

non sia libero. Notiamo inoltre che non `e restrittivo supporre che
w
1
, . . . , w
s
, B
1
S. Dallipotesi w
1
, . . . , w
s
(S) segue che esi-
stono dei vettori u
1
, . . . , u
s
S tali che w
1
= (u
1
), w
2
= (u
2
), . . . ,
w
s
= (u
s
). Poiche i vettori u
1
, . . . , u
s
sono in numero nito, dallipo-
tesi che T sia una catena si deduce che deve esistere un indice h I
tale che u
1
, . . . , u
s
S
h
. Ci`o signica che w
1
, . . . , w
s
(S
h
) e, poi-
che si ha anche v
1
, . . . , v
r
B
1
S
h
, linsieme di vettori linearmente
indipendenti
v
1
, . . . , v
r
, w
1
, . . . , w
s

`e contenuto in (B
1
S
h
) (S
h
), il che `e assurdo perche, per ipotesi,
questo insieme `e libero.
Abbiamo cos` dimostrato che (S, ) S. Dato che, dalla deni-
zione di S e di , si deduce immediatamente che la coppia (S, ) `e
lestremo superiore di T, questo dimostra che S `e un insieme stret-
tamente induttivo. Per il Lemma di Zorn esiste dunque un elemento
massimale (M, ) in S. Come gi`a spiegato allinizio, si tratta ora di
dimostrare che M = B
1
.
56 2. SPAZI VETTORIALI
Supponiamo, per assurdo, che M sia un sottoinsieme proprio di B
1
.
In tal caso esiste un vettore v B
1
M. Poiche B
2
`e una base, si ha
v =
1
w
1
+
2
w
2
+ +
n
w
n
,
per qualche w
1
, . . . , w
n
B
2
e qualche
1
, . . . ,
n
K.
Se tutti i vettori w
1
, . . . , w
n
appartenessero al sottospazio generato
dallinsieme (B
1
(M v)) (M), anche v dovrebbe appartenere
a tale sottospazio. Ma da ci`o seguirebbe che linsieme
(B
1
(M v)) (M) v = (B
1
M) (M)
non `e libero, il che contraddice il fatto che (M, ) S.
Si conclude pertanto che almeno uno dei vettori w
1
, . . . , w
n
, che
chiameremo w
h
, non appartiene a L((B
1
(M v)) (M)). Ora
poniamo M

= M v e deniamo una funzione

: M

B
2
ponendo

(u) = (u) per ogni u M e

(v) = w
h
. Vogliamo
dimostrare che

`e iniettiva.
Supponiamo, per assurdo, che

non sia iniettiva. Dato che

[
M
=
`e iniettiva, si deve avere

(v) =

(u), per qualche u M, il che


equivale a dire che (u) = w
h
. Quindi w
h
(M), il che `e assurdo dato
che avevamo supposto che il vettore w
h
non appartenesse al sottospazio
vettoriale generato dallinsieme (B
1
(M v)) (M).
Per concludere che la coppia (M

) appartiene a S rimane ora


solo da dimostrare che (B
1
M

(M

) `e un insieme libero. Per


assurdo, supponiamo che tale insieme non sia libero. Ricordando che
(B
1
M) (M) `e un insieme libero e che

(M

) = (M) w
h
, si
deduce che devono esistere dei vettori u
1
, . . . , u
m
(B
1
M

) (M)
e una combinazione lineare
w
r
+
1
u
1
+
2
u
2
+ +
m
u
m
= 0,
con ,= 0 (e naturalmente con
1
, . . . ,
m
non tutti nulli). Ma da
ci`o segue che w
r
si pu`o scrivere come combinazione lineare dei vettori
u
1
, . . . , u
m
, quindi w
r
L((B
1
M

) (M)) = L((B
1
(M v))
(M)), il che `e assurdo, dato che w
r
`e stato scelto proprio in modo da
non appartenere a tale sottospazio.
Abbiamo cos` dimostrato che (M

) S, ma ci`o contraddice il
fatto che la coppia (M, ) `e un elemento massimale di S. Si conclude
pertanto che M = B
1
e quindi `e una funzione iniettiva di B
1
in B
2
,
come volevasi dimostrare.
Osservazione 2.60. Ci sono, naturalmente, altri modi di dimo-
strare il teorema precedente. Una dimostrazione per certi aspetti pi` u
semplice `e la seguente.
5
Innanzitutto notiamo che se lo spazio vettoriale V `e nitamente
generato, il fatto che due basi di V abbiano la stessa cardinalit`a `e gi`a
5
Questa dimostrazione `e tratta da Jacobson, Lectures in Abstract Algebra,
vol. 2.
2. SPAZI VETTORIALI 57
stato dimostrato (vedi Corollario 2.39). Possiamo quindi supporre che
V non sia nitamente generato e quindi che le due basi B
1
e B
2
siano
insiemi inniti. Poniamo quindi B
1
= v
i

iI
e B
2
= w
j

jJ
, per
opportuni insiemi inniti di indici I e J.
Dato che B
2
`e una base di V , ogni vettore v
i
B
1
si pu`o scrivere
come combinazione lineare di un numero nito di vettori di B
2
v
i
=
1
w
j
1
+
2
w
j
2
+ +
m
w
j
m
,
per qualche w
j
1
, . . . , w
j
m
B
2
e qualche
1
, . . . ,
m
K.
Si noti che ogni vettore w
j
B
2
deve comparire in almeno una di
queste espressioni. Infatti, se esistesse un vettore w
h
B
2
che non
compare nellespressione di nessun v
i
B
1
, sarebbe possibile esprimere
tale w
h
come combinazione lineare di un numero nito di tali v
i
(perche
B
1
`e una base) e quindi, poiche tutti questi v
i
sarebbero a loro volta
combinazioni lineari nite dei w
j
B
2
, con j ,= h, il vettore w
h
sarebbe
una combinazione lineare nita di vettori w
j
B
2
, con j ,= h. Ma ci`o `e
assurdo, perche B
2
`e una base quindi, in particolare, `e un insieme libero.
Si conclude quindi che, per ogni w
h
B
2
, esiste almeno un vettore
v
i
B
1
il quale contiene w
h
nella sua espressione come combinazione
lineare nita di elementi di B
2
. Possiamo allora denire una funzione
f : B
2
B
1
ponendo f(w
h
) = v
i
, per qualche v
i
come sopra descritto
(naturalmente una siatta funzione f non sar`a, in generale, ne iniettiva,
ne suriettiva).
Indichiamo con B

1
B
1
limmagine di f e, per ogni v
i
B

1
consi-
deriamo limmagine inversa f
1
(v
i
) B
2
. Questi insiemi costituiscono
una partizione di B
2
:
B
2
=
_
v
i
B

1
f
1
(v
i
).
Notiamo che tutte le immagini inverse dei vettori v
i
B

1
sono insiemi
niti; f
1
(v
i
) consiste infatti di alcuni tra i vettori w
h
che compaiono
nellespressione di v
i
come combinazione lineare nita di elementi della
base B
2
.
Dato che B
2
`e un insieme innito, anche B

1
deve essere innito e,
dai risultati sulle cardinalit`a dimostrati nel Cap. 1 (vedi in particolare
la Proposizione 2.11), si deduce che
[B
2
[ =

_
v
i
B

1
f
1
(v
i
)

= [B

1
[.
Inne, poiche B

1
B
1
, si ha [B

1
[ [B
1
[, e quindi [B
2
[ [B
1
[.
Per concludere basta notare che scambiando i ruoli di B
1
e B
2
si
ottiene anche la disuguaglianza [B
1
[ [B
2
[ e, dal Teorema di Cantor
BernsteinShroeder, si deduce inne che [B
1
[ = [B
2
[.
2.5.1. Somma diretta e prodotto cartesiano. Per terminare questa
sezione occupiamoci della somma diretta (esterna) di una famiglia
innita di spazi vettoriali.
58 2. SPAZI VETTORIALI
NellOsservazione 2.24, abbiamo gi`a visto che, nel caso di una fami-
glia nita di spazi vettoriali V
1
, V
2
, . . . , V
n
sul campo K, la loro somma
diretta coincide con il loro prodotto cartesiano, cio`e si ha
n

i=1
V
i
=
n

i=1
V
i
.
Vedremo ora che, nel caso di una famiglia innita V
i

iI
questa ugua-
glianza non vale.
Iniziamo considerando il prodotto cartesiano innito

iI
V
i
. Tale
prodotto `e non vuoto (a causa dellAssioma della Scelta, vedi Cap. 1,
Esempio 1.7) ed `e, in modo naturale, uno spazio vettoriale su K, per
le operazioni denite da
(v
i
)
iI
+ (w
i
)
iI
= (v
i
+w
i
)
iI
e
(v
i
)
iI
= (v
i
)
iI
,
per ogni K e ogni (v
i
)
iI
, (w
i
)
iI

iI
V
i
.
Esattamente come nel caso di una famiglia nita (cf. Osservazio-
ne 2.24), ogni V
i
si identica in modo naturale con il sottospazio V

i
del prodotto

iI
V
i
che consiste di tutte le sequenze innite (v
i
)
iI
in cui i vettori v
j
sono il vettore nullo di V
j
, per ogni indice j ,= i.
Deniremo quindi la somma diretta esterna della famiglia di spazi vet-
toriali V
i

iI
come la somma diretta interna della famiglia V

iI
di
sottospazi vettoriali del prodotto cartesiano

iI
V
i
, cio`e come il pi` u
piccolo sottospazio vettoriale di

iI
V
i
che contiene tutti i sottospazi
V

i
, per ogni i I.
Ora dimostreremo che questa somma diretta coincide con il sot-
toinsieme proprio del prodotto cartesiano

iI
V
i
costituito da tutte
le sequenze innite (v
i
)
iI
quasi-ovunque nulle, cio`e quelle sequenze
che contengono solo un numero nito di elementi v
i
diversi dal vettore
nullo.
Sia dunque W

iI
V
i
linsieme delle sequenze quasi-ovunque
nulle. Poiche una combinazione lineare di due sequenze quasi-ovunque
nulle `e ancora una sequenza quasi-ovunque nulla, linsieme W `e, in
eetti, un sottospazio vettoriale del prodotto

iI
V
i
.
Dato che W contiene tutti i sottospazi V

i
esso contiene anche la loro
somma diretta. Daltra parte, ogni sottospazio del prodotto

iI
V
i
che
contiene tutti i sottospazi V

i
deve contenere anche tutte le combinazioni
lineari nite di loro elementi, ma queste sono precisamente tutte le
sequenze (v
i
)
iI
quasi-ovunque nulle. Ci`o dimostra che
W =

iI
V

i
=

iI
V
i
.
Da quanto sopra detto, si deduce che se, per ogni i I, B
i
`e una base
di V
i
, allora linsieme di tutte le sequenze (v
i
)
iI
tali che esiste j I per
2. SPAZI VETTORIALI 59
cui v
j
B
j
e v
i
= 0, per ogni i ,= j, costituisce una base dello spazio
vettoriale

iI
V
i
, ma non `e invece una base del prodotto

iI
V
i
.
CAPITOLO 3
Applicazioni Lineari e Matrici
1. Applicazioni Lineari
In questo capitolo ci occuperemo dello studio delle funzioni, denite tra
due spazi vettoriali, che rispettano la struttura di spazio vettoriale,
cio`e che sono compatibili con le operazioni di somma di vettori e di
prodotto di un vettore per uno scalare.
Definizione 1.1. Siano V e W due spazi vettoriali su un campo
K. Una funzione f : V W `e detta additiva se
f(v
1
+v
2
) = f(v
1
) +f(v
2
),
per ogni v
1
, v
2
V .
Una tale funzione `e detta K-lineare (o, pi` u semplicemente, lineare)
se, oltre ad essere additiva, essa soddisfa la seguente uguaglianza:
f(v) = f(v),
per ogni v V e ogni K.
Una funzione lineare tra due spazi vettoriali `e anche detta un omo-
morsmo di spazi vettoriali.
Osservazione 1.2. Supponiamo che f sia una funzione additiva
tra due spazi vettoriali V e W deniti sul campo K, e supponiamo che
Q K. Per ogni intero positivo n ed ogni v V , si ha
f(nv) = f(v +v + +v
. .
n
) = f(v) +f(v) + +f(v)
. .
n
= nf(v).
Si ha inoltre f(0
V
) = 0
W
: infatti dalladditivit`a di f si deduce che
f(v) = f(v +0
V
) = f(v) +f(0
V
),
da cui, sommando ad ambo i membri il vettore f(v), si conclude.
Utilizzando questo risultato si pu`o dimostrare che f(v) = f(v):
si ha infatti
0
W
= f(0
V
) = f(v + (v)) = f(v) +f(v),
da cui segue che f(v) `e lopposto di f(v).
Combinando questi risultati, si conclude che luguaglianza f(nv) =
nf(v) vale per ogni vettore v V ed ogni n Z: una funzione additiva
`e quindi automaticamente Z-lineare.
61
62 3. APPLICAZIONI LINEARI E MATRICI
In eetti una funzione additiva `e anche Q-lineare. Infatti, per ogni
n ,= 0, si ha
f(v) = f(n
1
n
v) = nf(
1
n
v),
da cui segue che f(
1
n
v) =
1
n
f(v). Inne, per ogni
m
n
Q, si ha
f(
m
n
v) = mf(
1
n
v) =
m
n
f(v).
Tuttavia, se K contiene propriamente Q, dalladditivit`a di una fun-
zione non si pu`o dedurre, in generale, la sua K-linearit`a. Ad esempio,
dimostreremo in seguito (vedi Esempio 1.22) che esistono delle funzioni
additive (e quindi Q-lineari) che non sono R-lineari!
Veniamo ora alla denizione di isomorsmo di spazi vettoriali.
Definizione 1.3. Sia f : V W un omomorsmo di spazi vetto-
riali. f `e un isomorsmo se esiste un omomorsmo g : W V tale
che g f = id
V
e f g = id
W
.
In altre parole, dire che f `e un isomorsmo di spazi vettoriali equi-
vale a dire che f `e un omomorsmo invertibile e che la sua funzione
inversa `e lineare.
Due spazi vettoriali V e W su K si dicono isomor se esiste un
isomorsmo f : V W. Quando vorremo indicare che V e W sono
isomor senza specicare quale sia lisomorsmo, scriveremo semplice-
mente V

= W.
Dalla denizione data segue che un isomorsmo di spazi vettoriali
`e una funzione biiettiva. Dimostriamo ora il viceversa:
Proposizione 1.4. Sia f : V W un omomorsmo di spazi
vettoriali. Se la funzione f `e biiettiva essa `e un isomorsmo.
Dimostrazione. Poiche f `e biiettiva essa `e invertibile. Rimane
quindi solo da dimostrare che la funzione inversa f
1
: W V `e
lineare.
Siano dunque w
1
, w
2
W e poniamo v
1
= f
1
(w
1
) e v
2
= f
1
(w
2
).
Dalladditivit`a di f si deduce che f(v
1
+v
2
) = f(v
1
) +f(v
2
) = w
1
+w
2
,
da cui segue che f
1
(w
1
+ w
2
) = v
1
+ v
2
= f
1
(w
1
) + f
1
(w
2
); ci`o
dimostra che f
1
`e additiva.
Consideriamo ora uno scalare K. Dalla linearit`a di f segue
che f(v
1
) = f(v
1
) = w
1
, da cui si deduce che f
1
(w
1
) = v
1
=
f
1
(w
1
). Abbiamo cos` dimostrato che f
1
`e lineare.
Osservazione 1.5. Un omomorsmo iniettivo di spazi vettoriali
`e anche detto un monomorsmo, mentre un omomorsmo suriettivo `e
chiamato epimorsmo. Un monomorsmo che sia anche epimorsmo
`e dunque un omomorsmo biiettivo e quindi, in base alla proposizione
precedente, `e un isomorsmo.
1. APPLICAZIONI LINEARI 63
Limportanza della nozione di isomorsmo `e data dal fatto che esso
permette di identicare spazi vettoriali diversi, a patto che siano iso-
mor. Si pu`o cos` arrivare ad una classicazione degli spazi vettoriali,
come descritto nel seguente risultato:
Proposizione 1.6. Sia V uno spazio vettoriale di dimensione n
sul campo K. Allora V `e isomorfo (non canonicamente) allo spazio
vettoriale K
n
.
Dimostrazione. Fissiamo una base v
1
, v
2
, . . . , v
n
di V . Faccia-
mo notare che ci`o `e sempre possibile, anche se non c`e, in generale,
nessuna scelta canonica per una tale base.
Ora possiamo denire una funzione f : V K
n
la quale associa
ad un vettore v V lunica n-upla (
1
, . . . ,
n
) K
n
per cui si ha
v =
1
v
1
+ +
n
v
n
.
`
E immediato vericare che la funzione f `e lineare. Essa `e inoltre biiet-
tiva, dato che v
1
, v
2
, . . . , v
n
`e una base di V . Dalla Proposizione 1.4
si deduce quindi che f `e un isomorsmo.
Vogliamo far notare che la funzione f dipende dalla base di V che
`e stata scelta. La non esistenza, in generale, di una base canonica ha
quindi come conseguenza la non esistenza di una scelta canonica di un
isomorsmo tra V e K
n
.
Corollario 1.7. Due spazi vettoriali di dimensione nita sul cam-
po K sono isomor (non in modo canonico) se e solo se hanno la stessa
dimensione.
1.1. Nucleo, Conucleo e Immagine. Introduciamo ora alcu-
ni sottospazi vettoriali particolarmente importanti associati ad una
funzione lineare:
Definizione 1.8. Sia f : V W una funzione lineare tra due
spazi vettoriali. Il nucleo di f `e linsieme
Ker(f) = v V [ f(v) = 0.
Limmagine di f `e linsieme
Im(f) = w W [ w = f(v), per qualche v V .
Proposizione 1.9. Il nucleo di una funzione lineare f : V W `e
un sottospazio vettoriale di V , mentre limmagine di f `e un sottospazio
vettoriale di W.
Dimostrazione. Siano v
1
, v
2
Ker(f) e consideriamo una com-
binazione lineare
1
v
1
+
2
v
2
, con
1
,
2
K. Dalla linearit`a di f segue
che
f(
1
v
1
+
2
v
2
) =
1
f(v
1
) +
2
f(v
2
) = 0,
quindi
1
v
1
+
2
v
2
Ker(f). Questo dimostra che Ker(f) `e un sotto-
spazio vettoriale di V .
64 3. APPLICAZIONI LINEARI E MATRICI
Passiamo ora allimmagine di f. Siano w
1
, w
2
Im(f) e siano
v
1
, v
2
V tali che w
1
= f(v
1
) e w
2
= f(v
2
). Dalla linearit`a di f segue
che
f(
1
v
1
+
2
v
2
) =
1
f(v
1
) +
2
f(v
2
) =
1
w
1
+
2
w
2
,
il che signica che
1
w
1
+
2
w
2
Im(f), per ogni
1
,
2
K. Ci`o
dimostra che Im(f) `e un sottospazio vettoriale di W.
Poiche limmagine di f `e un sottospazio vettoriale di W, possiamo
considerare lo spazio vettoriale quoziente W/ Im(f):
Definizione 1.10. Il conucleo di una funzione lineare f : V W
`e lo spazio vettoriale quoziente
Coker(f) = W/ Im(f).
Il seguente risultato fornisce una caratterizzazione dei monomor-
smi e degli epimorsmi in termini di annullamento del nucleo e del
conucleo, rispettivamente.
Proposizione 1.11. Sia f : V W una funzione lineare. Allora:
(i) f `e iniettiva se e solo se Ker(f) = 0,
(ii) f `e suriettiva se e solo se Coker(f) = 0.
Dimostrazione. (i) Supponiamo che f sia iniettiva. Sia v
Ker(f): si ha quindi f(v) = 0. Ricordando che f(0) = 0, dalli-
niettivit`a di f si deduce che v = 0, il che dimostra che Ker(f) =
0.
Viceversa, supponiamo che Ker(f) = 0. Siano v
1
, v
2
V tali che
f(v
1
) = f(v
2
). Dalla linearit`a di f si ha
f(v
1
v
2
) = f(v
1
) f(v
2
) = 0,
quindi v
1
v
2
Ker(f). Poiche, per ipotesi, Ker(f) = 0, si ha
v
1
v
2
= 0, cio`e v
1
= v
2
. Questo dimostra che f `e iniettiva.
(ii) Dire che f `e suriettiva equivale a dire che Im(f) = W. Ma,
per la denizione del conucleo di f, ci`o equivale ad aermare che
Coker(f) = 0.
Dimostriamo ora un importante risultato, noto anche come il Pri-
mo Teorema di Isomorsmo per gli spazi vettoriali.
Teorema 1.12 (Primo Teorema di Isomorsmo). Sia f : V W
un omomorsmo di spazi vettoriali. Esiste un unico omomorsmo

f :
V/ Ker(f) W che rende commutativo il seguente diagramma
V
f

t
t
t
t
t
t
t
t
t
t
W
V/ Ker(f)

t
t
t
t
t
t
t
t
t
t
cio`e tale che

f = f, ove : V V/ Ker(f) `e la proiezione canonica.
1. APPLICAZIONI LINEARI 65
Inoltre, la funzione

f `e iniettiva e induce un isomorsmo
V/ Ker(f)

= Im(f).
Dimostrazione. Per ogni v V indichiamo con [v] = (v) la sua
classe di equivalenza nel quoziente V/ Ker(f). Ricordiamo che
[v] = v +u[ u Ker(f).
Deniamo la funzione

f ponendo

f([v]) = f(v). La funzione

f `e ben
denita: infatti se [v
1
] = [v
2
] si ha v
1
= v
2
+u, per qualche u Ker(f),
quindi
f(v
1
) = f(v
2
+u) = f(v
2
) +f(u) = f(v
2
),
il che dimostra che

f([v
1
]) =

f([v
2
]). Dalla denizione segue inoltre che
(

f )(v) =

f([v]) = f(v), per ogni v V .
La linearit`a di

f `e conseguenza della linearit`a di f:

f(
1
[v
1
] +
2
[v
2
]) =

f([
1
v
1
+
2
v
2
])
= f(
1
v
1
+
2
v
2
)
=
1
f(v
1
) +
2
f(v
2
)
=
1

f([v
1
]) +
2

f([v
2
]).
Dimostriamo ora che

f `e iniettiva. Per la Proposizione 1.11, basta
dimostrare che se

f([v]) = 0 allora deve essere [v] = 0. Ma

f([v]) =
f(v) = 0 equivale a dire che v Ker(f), che signica proprio [v] = 0.
Inne, la funzione indotta

f : V/ Ker(f) Im(f) `e ovviamente
suriettiva, per denizione di Im(f). Essa `e quindi un omomorsmo
biiettivo e dunque un isomorsmo.
Corollario 1.13. Sia f : V W una funzione lineare. Se V ha
dimensione nita, si ha
dim(V ) = dimKer(f) + dimIm(f).
Dimostrazione. Il teorema precedente aerma che gli spazi vet-
toriali V/ Ker(f) e Im(f) sono isomor; essi hanno quindi la stessa
dimensione. Ricordando che (vedi Cap. 2, Proposizione 2.47)
dim(V/ Ker(f)) = dim(V ) dimKer(f),
si ha dim(V ) dimKer(f) = dimIm(f).
Osservazione 1.14. Sia f : V W una funzione lineare tra due
spazi vettoriali.
La dimensione dellimmagine di f `e detta il rango di f,
rk(f) = dimIm(f)
mentre la dimensione del nucleo di f `e detta la nullit`a di f,
null(f) = dimKer(f).
66 3. APPLICAZIONI LINEARI E MATRICI
Il corollario precedente aerma quindi che, per ogni omomorsmo f :
V W, si ha
rk(f) + null(f) = dim(V ).
Dimostriamo ora altri due teoremi di isomorsmo, che sono delle
facili conseguenze del primo.
Teorema 1.15 (Secondo Teorema di Isomorsmo). Sia V uno spa-
zio vettoriale e siano U e W due sottospazi di V , con U W V .
Allora esiste un isomorsmo
V/U
W/U

=
V
W
.
Dimostrazione. Per ogni vettore v V indichiamo con [v]
U
la
sua classe di equivalenza in V/U e con [v]
W
la sua classe di equivalenza
in V/W.
Consideriamo la funzione
f : V/U V/W
denita ponendo f([v]
U
) = [v]
W
. Si verica facilmente che f `e ben
denita e che `e un omomorsmo.
Consideriamo ora un elemento [v]
U
V/U che appartenga al nu-
cleo di f. Ci`o signica che f([v]
U
) = [v]
W
= 0, il che equivale a
dire che v W. Da ci`o segue che Ker(f) = W/U. Dal primo teo-
rema di isomorsmo si deduce allora lesistenza di un isomorsmo
tra (V/U)/ Ker(f) = (V/U)/(W/U) e Im(f). A questo punto basta
osservare che Im(f) = V/W, dato che f `e suriettiva.
Teorema 1.16 (Terzo Teorema di Isomorsmo). Sia V uno spazio
vettoriale e siano U e W due sottospazi di V . Esiste un isomorsmo
U +W
U

=
W
U W
.
Dimostrazione. Osserviamo che, poiche W U + W, la restri-
zione a W della proiezione canonica : U +W (U +W)/U denisce
una funzione lineare
f : W
U +W
U
.
Per prima cosa dimostriamo che f `e suriettiva. Ricordiamo che ogni
elemento di U + W pu`o essere scritto nella forma u + w, per qualche
u U e qualche w W. Indichiamo dunque con [u + w]
U
la classe di
equivalenza dellelemento u + w nel quoziente (U + W)/U. Dato che
u U, si ha [u]
U
= 0, da cui segue che [u+w]
U
= [w]
U
. Si ha pertanto
[u +w]
U
= [w]
U
= f(w), il che dimostra che Im(f) = (U +W)/U.
Determiniamo ora il nucleo di f. Sia w W tale che f(w) = [w]
U
=
0. Ci`o equivale a dire che w U, il che prova che Ker(f) = U W.
Applicando ora il primo teorema di isomorsmo alla funzione lineare
f si conclude.
1. APPLICAZIONI LINEARI 67
Osservazione 1.17. Siano V e W due spazi vettoriali su K e
indichiamo con Hom(V, W) linsieme delle applicazioni lineari da V a
W. Deniamo la somma di due applicazioni lineari f, g Hom(V, W)
ponendo (f + g)(v) = f(v) + g(v), per ogni v V ; essa `e ancora una
funzione lineare. Deniamo poi il prodotto di uno scalare K per
una funzione lineare f Hom(V, W) ponendo (f)(v) = (f(v)), per
ogni v V . Si verica facilmente che linsieme Hom(V, W), dotato
delle due operazioni appena denite, `e uno spazio vettoriale su K.
Notiamo inne che, se W = V , la composizione di due applicazio-
ni lineari f, g : V V `e ancora una funzione lineare, cio`e g f
Hom(V, V ), per ogni f, g Hom(V, V ). Linsieme Hom(V, V ), dotato
delloperazione di somma e delloperazione di composizione, risulta es-
sere un anello (unitario) non commutativo. Se, in aggiunta a queste
due operazioni, consideriamo anche il prodotto di una funzione lineare
per uno scalare K, si ottiene una struttura nota con il nome di
K-algebra.
Osservazione 1.18. Un omomorsmo di uno spazio vettoriale V in
se stesso, f : V V , `e anche detto endomorsmo. Se esso `e invertibile,
si parla allora di automorsmo. Linsieme degli endomorsmi di uno
spazio vettoriale V `e indicato con End(V ) e il sottoinsieme costituito
dagli automorsmi `e indicato con Aut(V ).
Osservazione 1.19. Nellenunciato del Teorema 1.12 abbiamo usa-
to lespressione diagramma commutativo. Riteniamo utile precisarne
il signicato.
Un diagramma costituito da spazi vettoriali e omomorsmi tra di
essi `e detto commutativo se, per ogni coppia di spazi vettoriali, tutte
le funzioni tra di essi che si possono ottenere come composizione di
omomorsmi del diagramma, sono uguali.
A titolo di esempio, consideriamo il seguente diagramma:
V
1
f
1

f
3

f
4

d
d
d
d
d
d
d
V
2
f
5

f
2

V
3
f
6

V
4
f
7

V
5
f
8

V
6
Dire che esso `e commutativo signica che f
5
f
1
= f
4
, f
7
f
3
= f
4
,
f
6
f
2
= f
8
f
5
, etc.
1.2. Applicazioni lineari e basi. Ci proponiamo ora di studiare
le propriet`a di una funzione lineare f : V W, in relazione alla scelta
di basi per gli spazi vettoriali V e W.
Iniziamo col dimostrare che una funzione lineare f : V W `e
completamente determinata dalla conoscenza delle immagini dei vettori
di una base di V , le quali possono essere scelte arbitrariamente in W.
68 3. APPLICAZIONI LINEARI E MATRICI
Proposizione 1.20. Siano V e W due spazi vettoriali sul campo
K e sia v
i

iI
una base (non necessariamente nita) di V .
(i) Un omomorsmo f : V W `e determinato, in modo unico,
dalle immagini dei vettori v
i
, per ogni i I.
(ii) Scelti arbitrariamente dei vettori w
i

iI
in W, esiste un unico
omomorsmo f : V W tale che f(v
i
) = w
i
, per ogni i I.
Dimostrazione. (i) Sia f : V W una funzione lineare e suppo-
niamo di conoscere f(v
i
), per ogni i I. Poiche v
i

iI
`e una base di V ,
ogni vettore v V si pu`o scrivere, in modo unico, come combinazione
lineare nita dei vettori v
i
:
v =
1
v
i
1
+
2
v
i
2
+ +
n
v
i
n
.
Dalla linearit`a di f segue che
(1.1) f(v) =
1
f(v
i
1
) +
2
f(v
i
2
) + +
n
f(v
i
n
),
il che dimostra che la conoscenza di f(v
i
), per ogni i I, determina,
in modo unico, f(v), per ogni v V . In altre parole, se g : V W `e
un omomorsmo tale che g(v
i
) = f(v
i
), per ogni i I, da (1.1) segue
che g(v) = f(v), per ogni v V .
(ii) Per ogni i I scegliamo arbitrariamente un vettore w
i
W.
Deniamo una funzione f : V W ponendo f(v
i
) = w
i
, per ogni
i I, ed estendendo f per linearit`a a tutto V , cio`e ponendo
f(v) =
1
f(v
i
1
) +
2
f(v
i
2
) + +
n
f(v
i
n
),
se v =
1
v
i
1
+
2
v
i
2
+ +
n
v
i
n
.
Si verica immediatamente che f `e ben denita ed `e lineare. Lu-
nicit`a di una tale f discende dal punto (i).
Corollario 1.21. Siano V e W due spazi vettoriali sul campo K,
sia v
i

iI
una base (non necessariamente nita) di V e sia f : V W
unapplicazione lineare.
(i) f `e iniettiva se e solo se f(v
i
)
iI
`e un insieme libero;
(ii) f `e suriettiva se e solo se f(v
i
)
iI
`e un insieme di generatori
di W;
(iii) f `e un isomorsmo se e solo se f(v
i
)
iI
`e una base di W.
Dimostrazione. (i) Ricordiamo, dalla Proposizione 1.11, che f `e
iniettiva se e solo se Ker(f) = 0. Dimostriamo quindi limplicazione
Ker(f) = 0 f(v
i
)
iI
`e un insieme libero.
Consideriamo una combinazione lineare

1
f(v
i
1
) +
2
f(v
i
2
) + +
n
f(v
i
n
) = 0.
Si ha

1
f(v
i
1
) +
2
f(v
i
2
) + +
n
f(v
i
n
) = f(
1
v
i
1
+
2
v
i
2
+ +
n
v
i
n
),
da cui segue

1
v
i
1
+
2
v
i
2
+ +
n
v
i
n
Ker(f).
1. APPLICAZIONI LINEARI 69
Dato che, per ipotesi, Ker(f) = 0, si ha

1
v
i
1
+
2
v
i
2
+ +
n
v
i
n
= 0,
da cui segue

1
=
2
= =
n
= 0,
perche i vettori v
i

iI
sono una base di V .
Dimostriamo ora limplicazione opposta. Sia v Ker(f) e scrivia-
mo
v =
1
v
i
1
+
2
v
i
2
+ +
n
v
i
n
,
per qualche n e qualche
1
, . . . ,
n
K. Poiche f(v) = 0, dalla linearit`a
di f si deduce che

1
f(v
i
1
) +
2
f(v
i
2
) + +
n
f(v
i
n
) = 0.
Poiche, per ipotesi, linsieme f(v
i
)
iI
`e libero, si ha

1
=
2
= =
n
= 0
e dunque v = 0, il che dimostra che Ker(f) = 0.
(ii) Ricordiamo che aermare che f `e suriettiva equivale a dire che
Im(f) = W. Osserviamo inoltre che Im(f) `e generata dai vettori f(v
i
),
al variare di i I. Infatti, per ogni w Im(f) esiste un vettore v V
tale che w = f(v). Poiche v
i

iI
`e una base di V , `e possibile esprimere
v come combinazione lineare di un numero nito di v
i
,
v =
1
v
i
1
+
2
v
i
2
+ +
n
v
i
n
.
Si ha dunque
w = f(v) =
1
f(v
i
1
) +
2
f(v
i
2
) + +
n
f(v
i
n
),
il che dimostra che linsieme dei vettori f(v
i
)
iI
genera limmagine
di f.
Da quanto detto segue quindi che Im(f) = W se e solo se f(v
i
)
iI
`e un insieme di generatori di W.
(iii) Poiche f `e un isomorsmo se e solo se essa `e biiettiva (vedi
Proposizione 1.4), dai punti (i) e (ii) segue che f `e un isomorsmo se e
solo se f(v
i
)
iI
`e un insieme libero di generatori di W, cio`e una base
di W.
Esempio 1.22. In questo esempio vedremo come si possa costruire
una funzione additiva f : R R che non sia R-lineare.
Consideriamo R come spazio vettoriale sul campo Q. I due vettori
v
1
= 1 e v
2
= sono linearmente indipendenti su Q (ci`o deriva dal
fatto che `e irrazionale), quindi esiste una base v
i

iI
di R su Q che
contiene i numeri 1 e (osserviamo che una base di R su Q non pu`o
essere numerabile).
Per la Proposizione 1.20 `e possibile denire una funzione Q-lineare
f : R R ssando arbitrariamente i valori di f(v
i
), per ogni i I. Se
poniamo f(1) = 1 e f() = 2 (e ssiamo arbitrariamente i rimanenti
70 3. APPLICAZIONI LINEARI E MATRICI
f(v
i
) R), otteniamo una funzione additiva (e quindi Q-lineare) la
quale non `e R-lineare. Se lo fosse si avrebbe infatti
f() = f( 1) = f(1) = ,
contro lipotesi che f() = 2.
2. Matrici
Siano V e W due spazi vettoriali sul campo K, di dimensioni n e m,
rispettivamente, e ssiamo delle basi v
1
, . . . , v
n
di V e w
1
, . . . , w
m

di W.
In base alla Proposizione 1.20, una funzione lineare f : V W `e
determinata, in modo unico, dalla conoscenza dei vettori f(v
j
), per j =
1, . . . , n. Poiche w
1
, . . . , w
m
`e una base di W, per ogni j = 1, . . . , n
possiamo scrivere
f(v
j
) =
m

i=1
a
ij
w
i
,
per degli opportuni a
ij
K, con i = 1, . . . , m e j = 1, . . . , n.
Da quanto detto si deduce quindi che una funzione lineare f : V
W `e determinata in modo unico dal dato di mn elementi a
ij
del campo
K. Tali elementi costituiscono ci`o che va sotto il nome di matrice.
Definizione 2.1. Una matrice, con m righe e n colonne (o matrice
m n) a coecienti in K `e il dato di mn elementi di K, scritti soli-
tamente sotto forma di tabella rettangolare costituita da m righe e n
colonne:
A =
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
Una matrice A di questo tipo sar`a spesso indicata semplicemente con
la scrittura
A = (a
ij
),
dove i = 1, . . . , m `e detto indice di riga mentre j = 1, . . . , n `e detto
indice di colonna.
Ad ogni funzione lineare f : V W pu`o dunque essere associata
una matrice m n a coecienti in K. Naturalmente tale matrice
dipende, oltre che dalla funzione f, anche dalla scelta delle basi di V e
W.
Osservazione 2.2. Ricordiamo che se un vettore v V si scrive
come combinazione lineare
v =
1
v
1
+
2
v
2
+ +
n
v
n
2. MATRICI 71
degli elementi di una base v
1
, . . . , v
n
di V , i coecienti
1
, . . . ,
n
che
compaiono in una tale espressione si dicono le coordinate di v rispetto
alla base ssata.
Possiamo allora osservare che, dalla denizione della matrice A asso-
ciata ad un omomorsmo f : V W, rispetto a delle basi v
1
, . . . , v
n

di V e w
1
, . . . , w
m
W, segue che le coordinate del vettore f(v
j
), ri-
spetto alla base di W ssata, costituiscono la j-esima colonna della ma-
trice A. Questa osservazione si rivela utile quando `e necessario scrivere
esplicitamente la matrice associata ad una data funzione lineare.
Osservazione 2.3. In tutta questa sezione supporremo sempre che
gli spazi vettoriali abbiano dimensione nita. Facciamo comunque no-
tare che molti risultati si possono estendere, con opportune modiche,
anche a spazi vettoriali di dimensione innita.
Consideriamo ora due applicazioni lineari f, g : V W e indichia-
mo con A = (a
ij
) e B = (b
ij
) le matrici ad esse associate. La somma di
f e g `e lapplicazione lineare denita da (f +g)(v) = f(v) +g(v), per
ogni v V . In particolare, per ogni vettore v
j
della base di V , si ha
(f +g)(v
j
) = f(v
j
) +g(v
j
) =
m

i=1
a
ij
w
i
+
m

i=1
b
ij
w
i
=
m

i=1
(a
ij
+b
ij
)w
i
.
La matrice associata alla funzione f + g ha quindi come coecien-
ti le somme a
ij
+ b
ij
dei coecienti delle matrici A e B, associate
rispettivamente a f e g. Questo risultato motiva la seguente denizione:
Definizione 2.4. Siano A = (a
ij
) e B = (b
ij
) due matrici mn a
coecienti in K. La loro somma `e la matrice
A +B = (a
ij
+b
ij
),
ottenuta sommando i coecienti di A e B che si trovano nelle stesse
posizioni.
Sia ora K e consideriamo la funzione f denita da (f)(v) =
f(v), per ogni v V . Valutando questa funzione sui vettori della
base di V , si ha
(f)(v
j
) = f(v
j
) =
m

i=1
a
ij
w
i
=
m

i=1
(a
ij
)w
i
,
da cui si deduce che la matrice associata alla funzione f `e la matrice i
cui coecienti sono dati dal prodotto di per i coecienti della matrice
A di f.
72 3. APPLICAZIONI LINEARI E MATRICI
Definizione 2.5. Per ogni K, il prodotto di per una matrice
A = (a
ij
) a coecienti in K `e la matrice
A = (a
ij
).
Indicheremo con M
m,n
(K) linsieme delle matrici con m righe e
n colonne, a coecienti in K. Da quanto visto sopra si deduce che
esiste una biiezione tra linsieme Hom(V, W) e M
m,n
(K). Dato che
Hom(V, W), con le operazioni di somma di funzioni e di prodotto di una
funzione per uno scalare, `e uno spazio vettoriale su K, anche linsieme
M
m,n
(K), con le due operazioni sopra denite, risulta essere un K-
spazio vettoriale. Inoltre, i due spazi vettoriali Hom(V, W) e M
m,n
(K)
sono isomor.
Per analogia con la denizione della base canonica di K
n
, deniamo
delle matrici E
ij
, con i = 1, . . . , m e j = 1, . . . , n, i cui coecienti sono
tutti nulli eccetto quello di posto (i, j) (cio`e quello che si trova sulla
i-esima riga e sulla j-esima colonna), che `e uguale a 1.
`
E immediato
vericare che le mn matrici E
ij
appena denite formano una base dello
spazio vettoriale M
m,n
(K). Ci`o `e conseguenza del fatto che ogni matrice
A = (a
ij
) si scrive, in modo unico, come segue:
A =

i,j
a
ij
E
ij
.
Possiamo riassumere quanto appena visto nel seguente risultato:
Proposizione 2.6. M
m,n
(K) `e uno spazio vettoriale di dimensione
mn su K. Se V e W sono due K-spazi vettoriali di dimensioni n e
m rispettivamente, vi `e un isomorsmo Hom(V, W)

= M
m,n
(K). Tale
isomorsmo non `e canonico, in quanto dipende dalla scelta di una base
di V e di una base di W.
In particolare, se V = W e quindi m = n, lo spazio vettoriale
End(V ) = Hom(V, V ) `e isomorfo a M
n
(K) = M
n,n
(K) ed ha dimen-
sione n
2
.
Vediamo ora quale operazione tra matrici corrisponde alla composi-
zione di due funzioni lineari. A tal ne consideriamo tre spazi vettoriali
U, V e W, di dimensioni rispettivamente r, n e m, e ssiamo delle loro
basi u
1
, . . . , u
r
, v
1
, . . . , v
n
e w
1
, . . . , w
m
. Siano f : V W e
g : U V due applicazioni lineari e indichiamo con A la matrice di f,
con B la matrice di g e con C la matrice di f g : U W, rispetto
alle basi indicate. Ricordiamo che A `e una matrice m n, B `e una
matrice n r, mentre C `e una matrice mr.
2. MATRICI 73
Per ogni vettore u
j
della base di U si ha:
(f g)(u
j
) = f(g(u
j
)) = f
_
n

h=1
b
hj
v
h
_
=
n

h=1
b
hj
f(v
h
) =
n

h=1
b
hj
_
m

i=1
a
ih
w
i
_
=
m

i=1
_
n

h=1
a
ih
b
hj
_
w
i
.
Poiche C = (c
ij
) `e la matrice di f g, si ha anche
(f g)(u
j
) =
m

i=1
c
ij
w
i
.
Dalluguaglianza di queste due ultime espressioni (e dal fatto che i
vettori w
1
, . . . , w
m
sono una base di W) segue che
c
ij
=
n

h=1
a
ih
b
hj
,
per ogni i = 1, . . . , m e j = 1, . . . , r. Utilizzeremo dunque questa
formula per denire un prodotto di matrici, in modo che il prodotto
delle matrici A e B associate agli omomorsmi f e g fornisca proprio
la matrice associata allomomorsmo composto f g.
Definizione 2.7. Date due matrici A M
m,n
(K) e B M
n,r
(K),
il loro prodotto `e la matrice C M
m,r
(K) i cui coecienti sono dati da
(2.1) c
ij
=
n

h=1
a
ih
b
hj
,
per ogni i = 1, . . . , m e j = 1, . . . , r. Questo prodotto di matrici `e
anche detto prodotto righe per colonne.
Vediamo pi` u in dettaglio come si calcola un tale prodotto di ma-
trici. Siano A e B due matrici come sopra e vogliamo determinare il
loro prodotto C = AB. Per calcolare lelemento c
ij
, che si trova sulla
i-esima riga e sulla j-esima colonna della matrice C, dobbiamo selezio-
nare la i-esima riga della matrice A e la j-esima colonna della matrice
B:
(a
i1
, a
i2
, . . . , a
in
)
_
_
_
_
b
1j
b
2j
.
.
.
b
nj
_
_
_
_
dopodiche dobbiamo moltiplicare questa riga per questa colonna nel
modo indicato dalla formula (2.1), cio`e dobbiamo eettuare la somma
74 3. APPLICAZIONI LINEARI E MATRICI
dei prodotti componente per componente dei due vettori indicati:
c
ij
= a
i1
b
1j
+a
i2
b
2j
+ +a
in
b
nj
.
Osserviamo che per fare ci`o `e indispensabile che la lunghezza delle righe
di A coincida con la lunghezza delle colonne di B. La matrice risultante
dal prodotto di A per B avr`a un numero di righe pari a quello della
matrice A e un numero di colonne pari a quello della matrice B.
Un caso particolare di prodotto tra matrici si ha quando la matrice
B ha una sola colonna, cio`e quando B si riduce ad un vettore (scritto in
colonna): si ottiene in questo modo il prodotto di una matrice per un
vettore, il cui risultato `e ancora un vettore. Pi` u precisamente, data una
matrice A M
m,n
(K) e un vettore v = (x
1
, x
2
, . . . , x
n
) K
n
(che scri-
veremo in colonna), il prodotto Av `e un vettore w = (y
1
, y
2
, . . . , y
m
)
K
m
dato da
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
=
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
Si ottiene in questo modo unapplicazione lineare
F : K
n
K
m
, v w = F(v) = Av.
La matrice associata a questa applicazione lineare (rispetto alle basi
canoniche di K
n
e K
m
) `e proprio la matrice A.
Osservazione 2.8. In modo del tutto equivalente si pu`o conside-
rare il caso particolare del prodotto di A per B, quando la matrice A
si riduce ad un vettore (questa volta scritto in riga).
Consideriamo dunque una matrice B M
n,r
(K) ed un vettore v =
(x
1
, x
2
, . . . , x
n
) K
n
(che scriveremo in riga), il prodotto vB `e un
vettore w = (y
1
, y
2
, . . . , y
r
) K
r
dato da
(y
1
, y
2
, . . . , y
r
) = (x
1
, x
2
, . . . , x
n
)
_
_
_
_
b
11
b
12
. . . b
1r
b
21
b
22
. . . b
2r
.
.
.
.
.
.
.
.
.
.
.
.
b
n1
b
n2
. . . b
nr
_
_
_
_
Anche in questo caso si ottiene unapplicazione lineare
g : K
n
K
r
, v w = g(v) = vB.
Si conclude pertanto che un omomorsmo tra due spazi vettoriali quali
K
n
e K
m
pu`o essere descritto sia dal prodotto di un vettore riga per
una certa matrice, sia dal prodotto di unaltra matrice per un vettore
colonna. Naturalmente si passa da una descrizione allaltra semplice-
mente scambiando tra loro i ruoli delle righe con quelli delle colonne.
Loperazione che trasforma una matrice m n in una matrice n m
scambiando tra di loro le righe con le colonne si chiama trasposizione.
2. MATRICI 75
Definizione 2.9. Sia A = (a
ij
) M
m,n
(K). La trasposta di A `e
la matrice
t
A M
n,m
(K) il cui coeciente di posto (i, j) `e a
ji
, cio`e `e
il coeciente di posto (j, i) della matrice A.
Il trasposto di un vettore scritto in colonna `e dunque un vettore
scritto in riga, e viceversa. Per comodit`a di notazione, dora in poi i
vettori di K
n
verranno sempre pensati come vettori colonna:
v =
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
Per indicare invece un analogo vettore pensato come vettore riga, scri-
veremo quindi
t
v:
t
v = (x
1
, x
2
, . . . , x
n
).
Come ultimo caso particolare del prodotto di due matrici, vediamo
cosa succede quando sia A che B si riducono a dei vettori (scritti,
naturalmente, il primo in riga e il secondo in colonna). In questo caso
il risultato del prodotto `e uno scalare, cio`e un elemento di K:
(a
1
, a
2
, . . . , a
n
)
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
= a
1
b
1
+a
2
b
2
+ +a
n
b
n
K.
Si ottiene in questo modo la denizione di un prodotto tra due vettori
di K
n
, il cui risultato `e uno scalare: questo `e il cosiddetto prodotto
scalare di due vettori.
Definizione 2.10. Siano v = (x
1
, x
2
, . . . , x
n
) e w = (y
1
, y
2
, . . . , y
n
)
due elementi di K
n
. Il loro prodotto scalare, che indicheremo con v w
(o, a volte, con v, w)) `e denito da
v w =
t
vw =
n

i=1
x
i
y
i
.
Di questa nozione di prodotto scalare, e delle sue generalizzazioni,
ci occuperemo in seguito.
Vediamo ora alcune propriet`a delloperazione di trasposizione.
Proposizione 2.11. Siano A, B M
m,n
(K) e sia K. Si ha:
(i)
t
(
t
A) = A;
(ii)
t
(A +B) =
t
A +
t
B;
(iii)
t
(A) =
t
A;
(iv)
t
(AB) =
t
B
t
A.
Dimostrazione. Le prime tre propriet`a sono ovvie, dimostriamo
quindi la quarta. Indichiamo con a
ij
i coecienti di A e con a
ij
i
coecienti di
t
A: si ha quindi a
ij
= a
ji
. Analogamente indichiamo con
76 3. APPLICAZIONI LINEARI E MATRICI
b
ij
e con

b
ij
i coecienti di B e
t
B, rispettivamente. Indichiamo poi
con c
ij
i coecienti del prodotto AB e con c
ij
i coecienti di
t
(AB).
Inne, indichiamo con d
ij
i coecienti della matrice
t
B
t
A.
Ricordando la denizione del prodotto di due matrici, si ha:
c
ij
= c
ji
=

h
a
jh
b
hi
,
mentre
d
ij
=

b
ih
a
hj
=

h
a
jh
b
hi
,
da cui segue che d
ij
= c
ij
, per ogni i e j.
Ritorniamo ora al prodotto di matrici e studiamo pi` u in dettaglio
alcune delle sue propriet`a.
Proposizione 2.12. Siano A, B e C tre matrici e siano , K.
Ogni volta che le somme e i prodotti indicati sono deniti, si ha:
(i) (AB)C = A(BC);
(ii) (A +B)C = AC +BC;
(iii) A(B +C) = AB +AC;
(iv) (AB) = (A)B = A(B);
(v) ( +)A = A +A;
(vi) ()A = (A).
Dimostrazione. Tutte queste propriet`a discendono dalle analo-
ghe propriet`a delle operazioni denite sulle funzioni lineari: ad esempio,
la propriet`a associativa del prodotto di matrici (AB)C = A(BC) equi-
vale alla propriet`a associativa del prodotto di composizione (f g)h =
f (g h) delle funzioni. In ogni caso, si possono dimostrare diretta-
mente mediante un semplice calcolo. A titolo di esempio, dimostriamo
la prima.
Indichiamo con a
ij
i coecienti della matrice A, con b
ij
quelli di
B e con c
ij
i coecienti di C. Indichiamo inoltre con d
ij
i coecienti
della matrice prodotto di A e B e con e
ij
quelli del prodotto (AB)C.
Dalla denizione del prodotto di due matrici si ha:
e
ij
=

h
d
ih
c
hj
=

h
_

k
a
ik
b
kh
_
c
hj
=

h,k
a
ik
b
kh
c
hj
.
Ora basta osservare che se calcoliamo, in modo analogo, i coecienti
del prodotto A(BC), troviamo esattamente la stessa espressione.
Sia f : V W unapplicazione lineare tra due spazi vettoriali
di dimensioni n e m rispettivamente. Abbiamo gi`a osservato che la
scelta di una base v = v
1
, . . . , v
n
di V determina un isomorsmo

v
: V

K
n
che associa ad ogni vettore v V la n-upla (
1
, . . . ,
n
)
delle sue coordinate rispetto alla base v. Analogamente la scelta di una
base w = w
1
, . . . , w
m
di W determina un isomorsmo
w
: W

K
m
2. MATRICI 77
che associa ad ogni vettore w W la m-upla (
1
, . . . ,
m
) delle sue
coordinate rispetto alla base w.
Sia dunque A la matrice di f rispetto alle basi scelte. Essa deter-
mina unapplicazione lineare F : K
n
K
m
, denita da
F :
_
_

1
.
.
.

n
_
_

_
_

1
.
.
.

m
_
_
= A
_
_

1
.
.
.

n
_
_
.
Proposizione 2.13. Con le notazioni precedenti, il diagramma
(2.2)
V
f

K
n
F

K
m
`e commutativo
Dimostrazione. Dobbiamo dimostrare che
w
f = F
v
. Sia
dunque v V ed esprimiamo v come combinazione lineare dei vettori
della base v:
v =
1
v
1
+
2
v
2
+ +
n
v
n
.
Per denizione della funzione
v
, si ha
v
(v) =
t
(
1
, . . . ,
n
) (si ricordi
che abbiamo deciso di scrivere gli elementi di K
n
come vettori colonna).
Calcolando ora F(
v
(v)) si ottiene il vettore
A
_
_

1
.
.
.

n
_
_
,
la cui i-esima componente `e
(2.3) a
i1

1
+a
i2

2
+ +a
in

n
=
n

j=1
a
ij

j
.
Calcoliamo ora f(v). Dalla linearit`a di f e dalla denizione della
matrice A = (a
ij
) associata a f, si ha:
f(v) = f(
1
v
1
+
2
v
2
+ +
n
v
n
)
=
n

j=1

j
f(v
j
)
=
n

j=1

j
_
m

i=1
a
ij
w
i
_
=
m

i=1
_
n

j=1
a
ij

j
_
w
i
.
78 3. APPLICAZIONI LINEARI E MATRICI
Poniamo
(2.4)
i
=
n

j=1
a
ij

j
,
per i = 1, . . . , m, in modo che si abbia
f(v) =
m

i=1

i
w
i
.
La m-upla (
1
, . . . ,
m
) rappresenta le coordinate del vettore f(v) ri-
spetto alla base w e si ha pertanto
w
(f(v)) =
t
(
1
, . . . ,
m
). A que-
sto punto basta osservare che lespressione di
i
in (2.4) coincide con
lespressione (2.3) per la i-esima componente del vettore F(
v
(v)).
Abbiamo cos` dimostrato che F(
v
(v)) =
w
(f(v)), per ogni v
V .
Osservazione 2.14. Questo risultato fornisce un metodo diretto
per calcolare limmagine tramite f : V W di un qualsiasi vettore
v V , nota la matrice di f rispetto a delle basi pressate dei due spazi
vettoriali V e W.
Dapprima si determinano le coordinate (
1
, . . . ,
n
) del vettore v
rispetto alla base di V , poi si moltiplica la matrice A associata a f
per il vettore (
1
, . . . ,
n
), scritto in colonna. Il vettore risultante `e
costituito dalle coordinate di f(v) rispetto alla base di W.
Dal diagramma commutativo (2.2) segue che il nucleo di f e il nucleo
di F sono tra loro isomor, essendo tale isomorsmo indotto dalliso-
morsmo
v
. Analogamente, lisomorsmo
w
induce un isomorsmo
tra Im(f) e Im(F). In particolare questi spazi vettoriali hanno la stessa
dimensione. Si ha pertanto
null(f) = null(F) e rk(f) = rk(F).
Dato che lapplicazione lineare F : K
n
K
m
`e data dalla moltiplica-
zione per la matrice A, diamo la seguente denizione:
Definizione 2.15. Sia A una matrice m n a coecienti in K e
sia F : K
n
K
m
lapplicazione lineare data dalla moltiplicazione di
un vettore (colonna) per la matrice A (a sinistra). Deniamo il rango
e la nullit`a della matrice A ponendo
rk(A) =rk(F) = dimIm(F),
null(A) =null(F) = dimKer(F).
Osserviamo che il sottospazio Im(F) di K
m
`e generato dalle colonne
di A (possiamo anche osservare che nellisomorsmo
w
: W

K
m
le
colonne della matrice A corrispondono alle immagini, tramite f : V
W, dei vettori della base di V , le quali generano il sottospazio Im(f) di
W). Pertanto la dimensione di Im(F), cio`e il rango di F, coincide con
2. MATRICI 79
il massimo numero di colonne linearmente indipendenti della matrice
A. Abbiamo cos` dimostrato il seguente risultato:
Proposizione 2.16. Il rango di una matrice A `e il massimo nu-
mero di colonne linearmente indipendenti di A.
Osservazione 2.17. Il risultato della proposizione precedente vie-
ne spesso usato come denizione del rango di una matrice. Si parla
allora di rango per colonne, per distinguerlo da un analogo rango per
righe, denito come il massimo numero di righe linearmente indipen-
denti. Vedremo in seguito che, in eetti, queste due nozioni di rango
coincidono sempre, cio`e in ogni matrice il massimo numero di colonne
linearmente indipendenti `e sempre uguale al massimo numero di righe
linearmente indipendenti.
2.1. Matrici quadrate. Abbiamo visto che il prodotto di due
matrici (cos` come la composizione di due applicazioni) non `e sempre
denito: anche il prodotto AB sia denito `e necessario (e suciente)
che il numero di colonne della matrice A sia uguale al numero di righe
di B. Se ci restringiamo a considerare solo matrici di tipo nn, questi
problemi scompaiono e il prodotto di due matrici `e sempre denito.
Definizione 2.18. Una matrice a coecienti in K si dice quadrata
di ordine n se essa ha n righe e n colonne. Linsieme delle matrici
quadrate di ordine n `e indicato semplicemente con M
n
(K), al posto di
M
n,n
(K).
Osservazione 2.19. Se V `e uno spazio vettoriale di dimensione n
su K, e se `e stata ssata una base v
1
, . . . , v
n
di V , ad ogni endo-
morsmo f : V V corrisponde una matrice quadrata A M
n
(K).
Questa corrispondenza stabilisce una biiezione tra End(V ) e M
n
(K).
Poiche End(V ), con le operazioni di somma di funzioni, di prodotto di
una funzione per uno scalare e di composizione di due funzioni, `e una
K-algebra, lo stesso vale per linsieme delle matrici quadrate M
n
(K).
Proposizione 2.20. Linsieme M
n
(K) delle matrici quadrate di
ordine n a coecienti in K, dotato delle operazioni di somma e di
prodotto di matrici e delloperazione di prodotto di una matrice per un
elemento di K, `e una K-algebra.
Facciamo notare che lelemento neutro per loperazione di somma
`e la matrice nulla
0 =
_
_
_
_
0 0 0
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
(la quale corrisponde allapplicazione nulla f : V V , f(v) = 0, per
ogni v V ), mentre lelemento neutro per loperazione di prodotto di
80 3. APPLICAZIONI LINEARI E MATRICI
matrici `e la matrice identica, denita da
1 =
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
(che corrisponde allidentit`a id : V V ), cio`e la matrice avente tutti i
coecienti sulla cosiddetta diagonale principale pari a 1, mentre tutti
gli altri coecienti sono nulli. Infatti `e immediato vericare che, per
ogni matrice A M
n
(K), si ha
1A = A1 = A.
Inne notiamo che il prodotto di matrici non gode della propriet`a
commutativa: se A e B sono due matrici in M
n
(K) si ha, in generale,
AB ,= BA.
Ci`o non deve stupire in quanto riette semplicemente il fatto che la
composizione di due funzioni lineari f, g : V V non `e, in generale,
commutativa, cio`e f g ,= g f.
Una matrice del tipo 1, cio`e
_
_
_
_
0 0
0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
_
_
_
_
,
con K, `e detta matrice scalare. Essa corrisponde allomomorsmo
f : V V denito da f(v) = v.
`
E immediato vericare che una
matrice scalare commuta con ogni altra matrice, cio`e
(1)A = A(1),
per ogni A M
n
(K).
Pi` u in generale, una matrice del tipo
_
_
_
_

1
0 0
0
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
,
cio`e una matrice in cui tutti i coecienti sono nulli, tranne al pi` u
quelli sulla diagonale principale, `e detta matrice diagonale. Si noti che,
in generale, una matrice diagonale non commuta con unaltra matrice
qualsiasi. Tuttavia le matrici diagonali commutano tra loro.
Una matrice triangolare superiore `e una matrice in cui tutti i coef-
cienti che si trovano al di sotto della diagonale principale sono nulli,
2. MATRICI 81
cio`e una matrice del tipo
_
_
_
_
_
_
a
11
a
12
a
13
a
1n
0 a
22
a
23
a
2n
0 0 a
33
a
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 a
nn
_
_
_
_
_
_
.
Analogamente si denisce una matrice triangolare inferiore come una
matrice in cui tutti i coecienti che si trovano al di sopra della diago-
nale principale sono nulli, cio`e una matrice del tipo
_
_
_
_
_
_
a
11
0 0 0
a
21
a
22
0 0
a
31
a
32
a
33
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
n3
a
nn
_
_
_
_
_
_
.
Si noti che la somma e il prodotto di due matrici triangolari superiori
(rispettivamente, inferiori) `e ancora una matrice dello stesso tipo.
Osservazione 2.21. Consideriamo, a titolo di esempio, il caso di
matrici quadrate di ordine 2, a coecienti razionali. Siano, ad esempio,
A =
_
2 1
4 2
_
, B =
_
1 3
2 6
_
.
Si verica immediatamente che il prodotto AB `e la matrice nulla, tut-
tavia ne A ne B sono nulle! Ci`o mostra che, in generale, nellanello
M
n
(K) delle matrici quadrate possono esistere degli elementi diversi
da zero, con la propriet`a che il loro prodotto `e uguale a zero (elementi
di questo tipo sono detti divisori di zero): non vale quindi la cosiddetta
legge di annullamento del prodotto, secondo la quale il prodotto di
due fattori `e nullo se e solo se almeno uno dei due fattori `e nullo.
Consideriamo ora la matrice
C =
_
0 1
0 0
_
.
La matrice C non `e nulla, tuttavia si ha C
2
= CC = 0. Pi` u in generale,
si pu`o dimostrare che nellanello M
n
(K) esistono delle matrici C ,= 0
con la propriet`a che C
r
= 0, per qualche r > 1. Tali elementi sono
detti nilpotenti.
Veniamo ora alla questione dellesistenza degli inversi degli elementi
di M
n
(K). Dato che lelemento neutro per il prodotto `e la matrice
identica 1, linversa di una matrice A M
n
(K) `e una matrice B
M
n
(K) tale che si abbia
AB = BA = 1.
82 3. APPLICAZIONI LINEARI E MATRICI
Naturalmente lesistenza in M
n
(K) di divisori dello zero impedisce che
esistano gli inversi di tutte le matrici non nulle. Infatti, se A M
n
(K)
`e un divisore dello zero e se B `e una matrice non nulla tale che AB = 0,
allora, se per assurdo esistesse la matrice A
1
inversa di A, si avrebbe
B = 1B = (A
1
A)B = A
1
(AB) = A
1
0 = 0,
contro lipotesi che B ,= 0.
Daltra parte, se ripensiamo allisomorsmo esistente tra End(V ) e
M
n
(K), ove V `e uno spazio vettoriale di dimensione n con una base
ssata, notiamo che aermare che una matrice A sia invertibile equivale
ad aermare che la corrispondente funzione lineare f : V V sia
invertibile, ma ci`o `e vero se e solo se f `e biiettiva, cio`e se e solo se f `e
un isomorsmo.
Ricordiamo che il sottoinsieme di End(V ) costituito dalle funzioni
lineari invertibili (cio`e dagli isomorsmi) f : V V , `e stato indicato
con Aut(V ). Il corrispondente sottoinsieme di M
n
(K), costituito dalle
matrici associate ad elementi di Aut(V ), cio`e dalle matrici invertibili,
sar`a indicato con GL
n
(K), o con GL(n, K), e detto il gruppo generale
lineare di ordine n a coecienti in K. Esso `e infatti un gruppo (non
commutativo), rispetto alloperazione di prodotto tra matrici.
2.2. Cambiamenti di base. Abbiamo pi` u volte fatto notare che
la matrice associata ad una funzione lineare f : V W dipende
dalla scelta di una base dello spazio vettoriale V e di una base di W:
cambiando scelta delle basi cambia anche la matrice associata a f. In
questa sezione ci proponiamo di scoprire in che modo cambia la matrice
di f se cambiamo la nostra scelta delle basi di V e W.
Siano dunque V e W due spazi vettoriali su K, di dimensioni
rispettivamente n e m e sia f : V W unapplicazione lineare.
Siano v = v
1
, . . . , v
n
e v

= v

1
, . . . , v

n
due basi di V e siano
w = w
1
, . . . , w
m
e w

= w

1
, . . . , w

m
due basi di W. Inne, in-
dichiamo con A = (a
ij
) la matrice di f rispetto alle basi v e w e con
A

= (a

ij
) la matrice di f rispetto alle basi v

e w

. Ricordiamo che ci`o


signica che
f(v
j
) =
m

i=1
a
ij
w
i
, e f(v

j
) =
m

i=1
a

ij
w

i
,
per ogni j = 1, . . . , n.
Indichiamo con
v
: V

K
n
lisomorsmo che associa ad ogni
vettore v V la n-upla (
1
, . . . ,
n
) delle sue coordinate rispetto alla
base v e con
v
: V

K
n
lisomorsmo che associa ad ogni v V la
n-upla (

1
, . . . ,

n
) delle sue coordinate rispetto alla base v

.
Indichiamo analogamente con
w
: W

K
m
lisomorsmo che
associa ad ogni vettore w W la m-upla (
1
, . . . ,
m
) delle sue coor-
dinate rispetto alla base w e con
w
: W

K
m
lisomorsmo che
2. MATRICI 83
associa ad ogni w W la m-upla (

1
, . . . ,

m
) delle sue coordinate
rispetto alla base w

.
Componendo
v
con linverso dellisomorsmo
v
otteniamo un
isomorsmo di K
n
in se, il quale corrisponde alla moltiplicazione per
una qualche matrice P M
n
(K). Indicheremo questo isomorsmo con
F
P
: K
n

K
n
. Si ottiene cos` il seguente diagramma commutativo:
V

v
|
|
|
|
|
|
|
|

v

f
f
f
f
f
f
f
f
K
n
F
P

K
n
Analogamente, componendo
w
con linverso dellisomorsmo
w
ot-
teniamo un isomorsmo di K
m
in se, il quale corrisponde alla molti-
plicazione per una qualche matrice Q M
m
(K). Indicheremo questo
isomorsmo con F
Q
: K
m

K
m
. Si ottiene cos` il seguente diagramma
commutativo:
W

w
.z
z
z
z
z
z
z
z

w

h
h
h
h
h
h
h
h
K
m
F
Q

K
m
Facciamo notare che le due matrici P e Q sono invertibili, dato che le
corrispondenti applicazioni lineari F
P
e F
Q
sono degli isomorsmi.
Vediamo ora di ottenere una descrizione pi` u esplicita delle matrici P
e Q. Cominciamo dalla matrice P, la quale corrisponde allisomorsmo
F
P
: K
n

K
n
.
Abbiamo gi`a osservato che le colonne di P sono date dalle immagini
dei vettori della base canonica di K
n
. Sia e
j
=
t
(0, . . . , 0, 1, 0, . . . , 0)
il j-esimo vettore della base canonica di K
n
(tutte le coordinate sono
nulle tranne la j-esima che `e uguale a 1). Tramite lisomorsmo
v
, il
vettore e
j
K
n
corrisponde al j-esimo vettore v
j
della base v di V . Si
ha quindi
F
P
(e
j
) =
v
(
1
v
(e
j
)) =
v
(v
j
),
dove ricordiamo che
v
(v
j
) K
n
`e il vettore costituito dalle coordinate
del vettore v
j
calcolate rispetto alla base v

; questo vettore `e la j-esima


colonna di P.
In conclusione, possiamo aermare che le colonne della matrice P
non sono altro che le coordinate dei vettori v
1
, . . . , v
n
della base v di V
calcolate rispetto alla seconda base v

. Con un analogo ragionamento,


scambiando i ruoli delle due basi, si potrebbe dimostrare che le colonne
della matrice inversa P
1
sono precisamente le coordinate dei vettori
v

1
, . . . , v

n
della base v

di V calcolate rispetto alla prima base v.


84 3. APPLICAZIONI LINEARI E MATRICI
In modo del tutto analogo si dimostra che la j-esima colonna della
matrice Q `e costituita dal vettore delle coordinate del j-esimo vetto-
re w
j
della base w calcolate rispetto alla base w

. In altre parole, la
matrice Q `e la matrice le cui colonne sono date dalle coordinate dei
vettori w
1
, . . . , w
m
della base w di W calcolate rispetto alla seconda
base w

. Analogamente si dimostra che le colonne della matrice inver-


sa Q
1
sono le coordinate dei vettori w

1
, . . . , w

m
della base w

di W
calcolate rispetto alla prima base w.
Ricordando il risultato enunciato nella Proposizione 2.13, possiamo
riassumere quanto detto nora nel seguente diagramma commutativo
K
n
F
A

F
P

K
m
F
Q

V
f

v
f
f
f
f
f
f
f
f

|
|
|
|
|
|
|
|
W

z
z
z
z
z
z
z
z


h
h
h
h
h
h
h
h
K
n
F
A

K
m
ove F
A
e F
A
sono le applicazioni lineari date dalla moltiplicazione per
A e per A

, rispettivamente.
Dalla commutativit`a di questo diagramma si deduce che
F
A
F
P
= F
Q
F
A
,
che equivale alla seguente uguaglianza tra matrici
A

P = QA.
Da ci`o segue che
(2.5) A

= QAP
1
e A = Q
1
A

P.
Queste due espressioni equivalenti permettono di determinare la ma-
trice A

di unapplicazione lineare f : V W rispetto alle basi v

di
V e w

di W quando `e nota la matrice A di f rispetto a delle basi v e


w e quando sono note le matrici di cambiamento di base P e Q.
Nel caso particolare in cui W = V , cio`e quando f `e un endomor-
smo di uno spazio vettoriale V , il diagramma commutativo precedente
si riduce al seguente
K
n
F
A

F
P

K
n
F
P

V
f

v
f
f
f
f
f
f
f
f

|
|
|
|
|
|
|
|
V

|
|
|
|
|
|
|
|


f
f
f
f
f
f
f
f
K
n
F
A

K
n
2. MATRICI 85
e le uguaglianze (2.5) diventano
(2.6) A

= PAP
1
e A = P
1
A

P.
Diamo ora la seguente denizione:
Definizione 2.22. Due matrici quadrate A e A

di ordine n a
coecienti in K si dicono simili se esiste una matrice invertibile P
M
n
(K) (cio`e P GL
n
(K)) tale che
A

= PAP
1
o, equivalentemente,
A = P
1
A

P.
Da quanto sopra detto si deduce il seguente risultato:
Corollario 2.23. Due matrici A, A

M
n
(K) rappresentano lo
stesso endomorsmo f di uno spazio vettoriale V di dimensione n su
K, rispetto a basi diverse, se e solo se sono simili.
Osservazione 2.24. Si noti che la relazione di similitudine `e una
relazione di equivalenza sullinsieme M
n
(K) delle matrici quadrate di
ordine n a coecienti in K.