Sei sulla pagina 1di 80

Lezioni di

Algebra Lineare
E. Cabib
1
1
Dipartimento di Ingegneria Civile e Architettura, Universit` a di Udine, Via delle
Scienze 208, 33100 Udine, Italy (cabib@uniud.it).
Indice
1 Spazi vettoriali 3
1.1 Alcune strutture algebriche . . . . . . . . . . . . . . . . . . . . . 3
1.2 Nozioni fondamentali ed esempi . . . . . . . . . . . . . . . . . . . 5
1.3 Spazi unitari e spazi normati . . . . . . . . . . . . . . . . . . . . 13
1.4 Spazio euclideo, traslazioni e vettori . . . . . . . . . . . . . . . . 21
1.5 Prodotto vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2 Matrici 33
2.1 Operazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2 Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3 Sistemi lineari, matrice inversa . . . . . . . . . . . . . . . . . . . 41
2.4 Sistemi lineari, rango . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.5 Il rango di una matrice . . . . . . . . . . . . . . . . . . . . . . . . 46
3 Applicazioni lineari 49
3.1 Denizioni ed esempi . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2 Lo spazio delle applicazioni lineari . . . . . . . . . . . . . . . . . 54
3.3 Applicazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . 57
3.4 Diadi e proiezioni . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.5 Forme bilineari e forme quadratiche . . . . . . . . . . . . . . . . 63
3.6 Relazione tra un vettore e un tensore emisimmetrico . . . . . . . 65
3.7 Le isometrie di E
n
, tensori ortogonali e cinematica rigida . . . . . 67
4 Autovalori e autovettori 70
4.1 Formulazione del problema ed esempi . . . . . . . . . . . . . . . 70
4.2 Autovalori semplici . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3 Propriet`a spettrali delle forme hermitiane e anti-hermitiane . . . 75
4.4 Propriet`a estremali degli autovalori di una forma quadratica . . . 77
1
Capitolo 1
Spazi vettoriali
1.1 Alcune strutture algebriche
Insiemi su cui sono denite leggi di composizione tra gli elementi, note
anche come operazioni, prendono il nome di strutture algebriche. Una strut-
tura algebrica `e tanto pi` u ricca quanto maggiore `e il numero delle operazioni
o il numero di propriet`a cui sono soggette. Lalgebra astratta `e la discplina,
sempre in continua evoluzione come tutti campi della Matematica, che ha per
oggetto la denizione e lo studio delle strutture algebriche che di volta in vol-
ta, per varie motivazioni teoriche e/o applicative, possono richiamare linteresse
nellambiente scientico.
Lalgebra astratta in se non sar`a considerata in questo corso, tuttavia riteni-
amo utile per il seguito vedere brevemente qualche denizione e qualche esempio
senza nessuna pretesa di approfondimento.
Gruppi - Si chiama gruppo un insieme G munito di unoperazione binaria
interna, cio`e di una legge di composizione : GG G che gode delle propriet`a
- associativa: (a b) c = a (b c) a, b, c G,
- esistenza dellidentit`a: e G : a e = a a G,
- esistenza dellinverso: a G a
1
G : a a
1
= e .
Se in pi` u vale la propriet`a commutativa: a b = b a allora G si chiama
gruppo commutativo o gruppo abeliano. Se vale solo la propriet`a associativa G
viene detto semigruppo
Si dimostra facilmente che lidentit`a `e unica, che linversa `e unica e che
agiscono come tali sia destra che a sinistra.
Un sottoinsieme H di G che `e a sua volta un gruppo si chiama sottogruppo
di G.
Per fare degli esempi, sono gruppi commutativi linsieme degli interi con
laddizione, linsieme delle rotazioni rispetto ad uno stesso asse, ma `e un gruppo
non commutativo linsieme di tutte le rotazioni dello spazio. Tra i gruppi niti
ricordiamo le simmetrie di un poligono regolare di n lati o la somma negli
3
4 Capitolo 1. Spazi vettoriali
interi modulo un certo numero intero. La circonferenza dei numeri complessi di
modulo 1 `e un sottogruppo di C rispetto al prodotto.
Di un certo interesse anche per noi `e il gruppo S
n
delle n! permutazioni su un
insieme S
n
di n elementi, ad esempio formato dai numeri naturali da 1 a n. Una
permutazione S
n
`e una funzione iniettiva, quindi anche bigettiva, da S
n
in
se stesso. Loperazione `e la composizione con identit`a i(h) = h. Generalmente
una permutazione viene indicata con la notazione
=
_
1 2 . . . n
(1) (2) . . . (n)
_
mentre per la composizione si dispongono una dopo laltra le permutazioni
nellordine in cui agiscono

2

1
=
_
1 2 . . . n

2
(1)
2
(2) . . .
2
(n)
__
1 2 . . . n

1
(1)
1
(2) . . .
1
(n)
_
=
_
1 2 . . . n

2
(
1
(1))
2
(
1
(2)) . . .
2
(
1
(n))
_
.
Ad esempio se

1
=
_
1 2 3 4
3 1 4 2
_
e
2
_
1 2 3 4
4 2 1 3
_
si ha

2

1
=
_
1 2 3 4
4 2 1 3
__
1 2 3 4
3 1 4 2
_
=
_
1 2 3 4
2 1 3 4
_
.
La segnatura () di una permutazione `e data dal numero di scambi, cio`e dal
numero di coppie (i, j) con i < j tali che (i) > (j). Se questo numero `e pari
siamo di fronte ad una permutazione pari, e si pone () = 1, altrimenti si tratta
di una permutazione dispari, () = 1. La
1
dellesempio presenta 4 scambi
ed `e pari, la
2
ne presenta 5 ed `e dispari e la loro composizione presenta un
solo scambio, `e dispari in accordo col prodotto delle rispettive segnature. Per
n = 3 la determinazione della segnatura `e pi` u immediata: `e pari se conserva
lordine ciclico dei 3 numeri, se invcece lo inverte `e dispari.
Sia H un sottogruppo di G. Al variare di a G le classi laterali rispettiva-
mente destre o sinistre
Ha = ha [ h H , aH = ah [ h H
costituiscono ciascuna una partizione di G, una famiglia di sottoinsiemi disgiunti
e non vuoti la cui unione coincide con G. Possiamo riconoscere le classi laterali,
mettiamo le destre, come le classi di equivalenza della relazione a b a Hb,
ossia ab
1
H.
`
E ben denito linsieme quoziente G/H nel caso che H sia
un sottogruppo normale, cio`e soddis la propriet`a Ha = aH per ogni a G
(oltreche ovviamente nel caso di G abeliano). Anche G/H `e un gruppo in cui
loperazione tra due classi laterali `e
aH bH = abH ,
1.2. Nozioni fondamentali ed esempi 5
H `e lidentit`a e linversa di aH `e a
1
H.
Anelli - Si chiama anello un insieme A munito di due operazioni, una
di gruppo abeliano, interpretata come additiva, e laltra, la moltiplicativa, di
semigruppo per cui vale la propriet`a distributiva
(a +b)c = ab +ac .
Lanello `e commutativo se tale `e il prodotto. Se `e presente lidentit`a, 1, diciamo
che A `e un monoide o un anello unitario. Se poi lanello `e commutativo e non
ammette divisori dello 0, sodisfa cio`e la legge di annullamento del profotto, A
viene detto dominio dintegrit`a.
Esempi di anelli (unitari) sono i numeri interi, la classe Z
k
degli interi mod-
ulo k, linsieme P[x] dei polinomi con i coecienti e la cosidetta indeterminata
x che variano in un anello. Anche linsieme delle funzioni f : X A, con X
qualsiasi e A anello, `e un anello. Come vedremo linsieme delle matrici a m righe
e n colonne, anche se a coecienti in un campo K (v. qua sotto), `e un anello
non commutativo, `e un monoide se m = n, ma non `e mai un dominio dintegrit`a.
Corpi - Si chiama corpo un monoide K tale che K 0 `e un gruppo.
Nel caso commutativo si chiama campo. Poiche ogni elemento a K 0
ammette inverso, si verica immediatamente che un corpo K `e anche un dominio
dintegrit`a. Tra gli anelli Z
k
i campi sono quelli con k numero intero primo, altri
campi sono R e C che useremo spesso nel seguito.
1.2 Nozioni fondamentali ed esempi
A partire dai comuni vettori, nora usati forse in modo intuitivo in Fisica, si
perviene al concetto generale di spazio vettoriale nellambito del quale rientrano
molti casi di notevole interesse. Uno spazio vettoriale V su un campo K, i cui
elementi in questo contesto vengono detti scalari, `e un insieme munito di due
operazioni, una somma e un prodotto per scalari, con le seguenti propriet`a:
+ : V V V di gruppo abeliano,
: K V V tale che
()1. 1v = v v V ,
()2.
1
(
2
v) = (
1

2
)v
1
,
2
K, v V ,
()3. (
1
+
2
)v =
1
v +
2
v
1
,
2
K, v V ,
()4. (v
1
+v
2
) = v
1
+v
2
K, v
1
, v
2
V .
I casi pi` u frequenti sono quelli di uno spazio vettoriale reale, K = R, o comp-
lesso, K = C. Per analogia con i vettori cui siamo abituati, anche gli elementi
di un generico spazio vettoriale V vengono chiamati vettori o anche punti.
6 Capitolo 1. Spazi vettoriali
Il campo K stesso `e uno spazio vettoriale su K, i suoi elementi possono es-
sere interpretati sia come scalari che come vettori.
Esempi:
1.1 R
n
= x = (x
1
, x
2
, . . . , x
n
) [ x
i
R i = 1, . . . , n `e uno spazio vettoriale
reale con le operazioni di somma
(x
1
, x
2
, . . . , x
n
) + (y
1
, y
2
, . . . , y
n
) = (x
1
+y
1
, x
2
+y
2
, . . . , x
n
+y
n
)
e di prodotto per scalari
(x
1
, x
2
, . . . , x
n
) = (x
1
, x
2
, . . . , x
n
) .
Analogamente C
n
`e uno spazio vettoriale complesso con le operazioni
(z
1
, z
2
, . . . , z
n
) + (w
1
, w
2
, . . . , w
n
) = (z
1
+w
1
, z
2
+w
2
, . . . , z
n
+w
n
)
(z
1
, z
2
, . . . , z
n
) = (z
1
, z
2
, . . . , z
n
)
per z
i
, w
i
, C. Se K `e un campo K
n
`e uno spazio vettoriale su K.
Una matrice a m righe e n colonne sul campo K, di solito R o C, `e una tabella
di elementi di K del tipo
A =
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
. . . .
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
,
brevemente A = (a
ij
) con i = 1, . . . , m e j = 1, . . . , n. Lungo ogni riga rimane
costante lindice di riga, il primo, mentre varia solo lindice di colonna, il secondo,
viceversa lungo ogni colonna varia solo il primo e si mantiene costante il secondo.
1.2 Linsieme M
mn
delle matrici mn a componenti a
ij
K `e uno spazio
vettoriale su K con le operazioni
(a
ij
) + (b
ij
) = (a
ij
+b
ij
) e (a
ij
) = (a
ij
)
essendo 0 la matrice con componenti tutte nulle e A = (a
ij
) lopposta di A.
1.3 Le funzioni f : X K, essendo il dominio X un insieme qualunque,
formano uno spazio vettoriale su K con le operazioni denite puntualmente
(f +g)(x) = f(x) +g(x) e (f)(x) = f(x) x X .
Se X = N siamo di fronte al caso particolare dello spazio K
N
delle successioni
di punti di K.
1.2. Nozioni fondamentali ed esempi 7
1.4 Linsieme P[x] dei polinomi su K
P(x) = a
0
+a
1
x +a
2
x
2
+. . . +a
n
x
n
, x K ,
`e uno spazio vettoriale su K.
Denizione 1.1 Ogni insieme U V che sia chiuso rispetto alle due op-
erazioni di somma e prodotto per scalari si chiama sottospazio vettoriale di
V . V stesso e il sottoinsieme 0 sono esempi di sottospazi che vengono detti
banali.
Esercizio 1.1 Dimostrare che se V
1
e V
2
sono sottospazi di V allora anche
V
1
V
2
(che non `e mai vuoto perche contiene almeno 0), V
1
V
2
e la loro
somma
V
1
+V
2
= v
1
+v
2
[ v
1
V
1
, v
2
V
2

sono sottospazi di V , ma non lo `e in generale V


1
V
2
, a meno che non sia
V
1
= V
2
.
Denizione 1.2 Se V
1
V
2
= 0 la loro somma prende il nome di somma
diretta e si indica con V
1
V
2
.
Esercizio 1.2 Sia V = V
1
+ V
2
. Allora V = V
1
V
2
se e solo se per ogni
v V i vettori v
1
V
1
e v
2
V
2
tali che v
1
+v
2
= v sono unici.
1.5 Sono sottospazi vettoriali dellinsieme delle funzioni reali su un intervallo
I gli insiemi C
0
(I), C
k
(I), C

(I), le funzioni limitate, quelle integrabili su I,


le funzioni che si annullano tutte in uno stesso punto.
`
E un sottospazio di P[x]
linsieme dei polinomi di grado assegnato.
Esercizio 1.3 Sia H un sottospazio di V . Dimostrare che la relazione u v
se e solo se uv H `e una relazione di equivalenza. Linsieme quoziente (quello
che ha per elementi le classi di equivalenza) `e dato da
V/ = v +H [ v V ,
`e anchesso uno spazio vettoriale su K con H come elemento neutro ed `e chiam-
ato spazio quoziente. Si indica anche con V/H (si confronti questo caso con
quanto detto nel 1 a proposito delle classi laterali di un gruppo).
Esercizio 1.4 Se in R
2
scegliamo H = x R
2
[ x
1
= x
2
qual `e il
quoziente R
2
/H?
Denizione 1.3 Si chiama combinazione lineare degli h elementi v
1
, . . . , v
h

V ogni espressione del tipo
v =
1
v
1
+
2
v
2
+. . . +
h
v
h
=
h

i=1

i
u
i
,
i
K .
8 Capitolo 1. Spazi vettoriali
Dato un insieme S V , linsieme delle combinazioni lineari di elementi di S
`e, per costruzione, un sottospazio di V , si tratta del pi` u piccolo tra (dellinter-
sezione di) tutti i sottospazi contenenti S e si indica con L(S). Nel caso di un
insieme nito S = v
1
, . . . , v
h
si usa anche la notazione [v
1
, . . . , v
h
].
Denizione 1.4 L(S) si chiama spazio generato da S e gli elementi di
S si chiamano generatori di L(S).
Ovviamente inserendo in S un vettore in pi` u che gi`a appartiene a L(S) il nuovo
sistema genera lo stesso spazio L(S).
Denizione 1.5 Diciamo che u, v V sono paralleli se esiste K tale
che u = v oppure v = u.
Si noti che non `e superuo considerare entrambe le possibilit`a perche se v = 0
e u ,= 0 vale solo la seconda con = 0.
//1. lo 0 di V `e parallelo ad ogni vettore di V ;
//2. u, v V sono paralleli se e solo se esistono , K non entrambi nulli
tali che
u +v = 0 ;
//3. u, v V sono paralleli se e solo se la rappresentazione di 0 come combi-
nazione lineare di u e v non `e unica.
La nozione di parallelismo pu`o essere generalizzata ad una famiglia di pi` u di
due vettori nel seguente modo.
Denizione 1.6 I vettori u
1
, . . . , u
h
V vengono detti linearmente dipen-
denti se uno di essi, ad esempio u
h
(cosa che possiamo supporre a meno di una
ridenominazione), `e combinazione lineare degli altri h1. In altri termini, sono
linearmente dipendenti se esistono
1
,
2
, . . . ,
h1
K tali che
u
h
=
h1

i=1

i
u
i
.
`
E evidente che se h = 2 la dipendenza lineare si riduce al parallelismo.
Teorema 1.7 I vettori u
1
, . . . , u
h
V sono linearmente dipendenti se e
solo se esistono
1
,
2
, . . . ,
h
K non tutti nulli tali che
h

i=1

i
u
i
= 0 .
Dimostrazione. Se u
h
=

h1
i=1

i
u
i
si ha ovviamente
u
h

h1

i=1

i
u
i
= 0
1.2. Nozioni fondamentali ed esempi 9
dove il coeciente di u
h
vale 1. Viceversa, supponiamo
h

i=1

i
u
i
= 0
con i
i
non tutti nulli. Allora, se ad esempio
h
,= 0, si ottiene
u
h
=
1

h
h1

i=1

i
u
i
=
h1

i=1
_

h
_
u
i
,
dunque u
h
`e combinazione lineare degli altri vettori.
2
Se un certo insieme di vettori `e linearmente dipendente (un altro modo per
dire che i suoi elementi sono linearmente dipendenti) evidentemente non `e unica
la scelta dei coecienti con i quali si pu`o ottenere una combinazione lineare
nulla, dato che gi`a ci`o accade con i coecienti tutti nulli. Anzi, vi sono inniti
modi possibili.
Esercizio 1.5 Dimostrare che u
1
, . . . , u
h
sono linearmente dipendenti se e
solo se la rappresentazione di ogni u V come combinazione lineare degli u
i
non `e unica.
Esercizio 1.6 Dimostrare che u
1
, . . . , u
h
sono linearmente dipendenti nel
caso che uno di essi sia nullo.
1.6 In R
3
, per stabilire se x = (1, 1, 2), y = (0, 3, 1) e z = (1, 5, 4) sono
linearmente dipendenti vediamo se `e possibile trovare due scalari a e b tali che
(1, 5, 4) = a(1, 1, 2) +b(0, 3, 1) ,
condizione che si traduce nel sistema in a e b
_
_
_
1 = a
5 = a + 3b
4 = 2a b .
Sostituendo a = 1 nella seconda e nella terza, si vede che queste due equazioni
sono compatibili e soddisfatte da b = 2, quindi z = x 2y e i tre vettori sono
linearmente dipendenti. In termini geometrici, hanno la stessa giacitura, ovvero
i quattro punti 0, x, y e z sono complanari.
La negazione della propriet`a di dipendenza lineare `e la seguente.
Denizione 1.8 I vettori u
1
, . . . , u
h
V sono linearmente indipendenti
se
h

i=1

i
u
i
= 0
1
=
2
= . . . =
h
= 0 .
10 Capitolo 1. Spazi vettoriali
In altre parole sono linearmente indipendenti se lunica combinazione lineare
nulla `e quella con i coecienti tutti nulli.
1.7 In R
3
x = (1, 1, 0), y = (1, 1, 1) e z = (0, 1, 0) sono vettori linearmente in-
dipendenti. Vediamo per quali a, b, c R si ha ax+by+cz = 0. Esplicitamente,
tale condizione si traduce nel sistema
_
_
_
a +b = 0
a +b +c = 0
b = 0
che ovviamente ha come unica soluzione a = b = c = 0. Considerati come punti,
0, x, y e z non sono complanari.
1.8 Le funzioni sen x e cos x sono linearmente indipendenti (si dice anche fun-
zionalmente indipendenti) su R, o su un intervallo, perche lidentit`a a sen x +
b cos x = 0 per ogni x R implica, per derivazione, a cos x b sen x = 0 per
ogni x R. Moltiplicando la prima per sen x, la seconda per cos x e sommando
si ottiene a = 0 e in modo analogo b = 0.
Veniamo adesso a denire i concetti di base e dimensione di uno spazio
vettoriale. Cominciamo con losservare che se V ammette come generatori
u
1
, u
2
, . . . , u
k
, inserendo in questa lista un nuovo vettore u V qualsiasi i k +1
vettori u
1
, u
2
, . . . , u
k
, u sono linearmente dipendenti, e questo `e ovvio dato che
u, come elemento di V , `e una loro combinazione lineare. Nel seguente teorema
si aerma che ci`o rimane vero anche per un qualunque altro insieme di k + 1
vettori.
Teorema 1.9 Se V = [u
1
, u
2
, . . . , u
k
] allora k+1 vettori qualsiasi v
1
, v
2
, . . . ,
v
k
, v
k+1
V sono linearmente dipendenti (a maggior ragione la tesi `e vera per
un numero di vettori ancora pi` u grande).
Dimostrazione. Si procede per induzione. Se V = 0 non c`e niente da
dimostrare. Se V `e generato da un solo vettore u ,= 0, scelti in V due vettori
v
1
e v
2
non nulli (altrimenti la tesi `e banalmente vera), esistono due scalari

1
,
2
,= 0 tali che
v
1
=
1
u e v
2
=
2
u,
da cui

2
v
1

1
v
2
= 0
e la tesi `e vericata.
Supponiamo vera la tesi per V = [u
1
, u
2
, . . . , u
k1
]. Se adesso V = [u
1
, u
2
,
. . . , u
k
] e v
1
, v
2
, . . . , v
k
, v
k+1
V sono k + 1 vettori, per ogni i = 1, . . . , k + 1
esistono k scalari
ij
, j = 1, . . . , k, tali che
(1.1) v
i
=
k

j=1

ij
u
j
.
1.2. Nozioni fondamentali ed esempi 11
Ora, se accade che per un certo r tutti i
ir
(che moltiplicano sempre lo stesso
vettore u
r
) sono nulli, allora i v
i
vengono ad essere combinazioni lineari dei
restanti k 1 vettori u
j
con j ,= r. Possiamo per esempio supporre che ci`o
accada per r = 1, per cui
v
i
=
k

j=2

ij
u
j
i = 1, . . . , k + 1 .
In questo caso, per lipotesi induttiva, i v
i
sono linearmente dipendenti. Se
invece uno dei
i1
`e non nullo, per esempio
11
,= 0, consideriamo la prima
relazione delle (1.1)
v
1
=
11
u
1
+
k

j=2

1j
u
j
,
moltiplichiamola a sinistra e a destra per il generico
i1
/
11
ottenendo

i1

11
v
1
=
i1
u
1
+
k

j=2

i1

1j

11
u
j
,
e sottraiamo da questa ciascuna delle altre, quelle per i 2. Allora si ottengono
le k relazioni

i1

11
v
1
v
i
=
i1
u
1
+
k

j=2

i1

1j

11
u
j

k

j=1

ij
u
j
=
k

j=2
_

i1

1j

11

ij
_
u
j
per ogni i = 2, . . . , k + 1. Risulta cos` che i k vettori che compaiono al primo
membro appartengono allo spazio generato dai k 1 vettori u
2
, . . . , u
k
, quindi
per lipotesi induttiva esistono k scalari
i
non tutti nulli tali che
k+1

i=2

i
_
i1

11
v
1
v
i
_
= 0
che `e la condizione di annullamento di una combinazione lineare dei v
i
a coe-
cienti non tutti nulli.
2
Il Teorema 1.9 dice che se un insieme di generatori di V ha k elementi allora
non possono esistere in V pi` u di k vettori indipendenti. In questo caso diciamo
che V ha dimensione nita, dimV < . Nel caso contrario, se per ogni n N
esistono in V n vettori linearmente indipendenti, diciamo che V ha dimensione
innita, dimV = .
Denizione 1.10 Un insieme di generatori di V linearmente indipendenti
si chiama base di V .
Dal teorema segue dunque che in dimensione nita esiste una limitazione su-
periore al numero degli elementi che una base pu`o avere, esiste cio`e un certo
12 Capitolo 1. Spazi vettoriali
n N che non pu`o essere superato dal numero di elementi di nessuna base.
Daltra parte, sempre in dimensione nita, una base si pu`o sempre costruire.
Se non siamo nel caso banale V = 0, anche partendo da un solo vettore bas-
ta aggiugere passo passo ogni volta un nuovo vettore che sia indipendente dai
precedenti e fermarsi non appena si ottiene un sistema di generatori. Oppure si
parte da un sistema di generatori e si tolgono via via vettori dipendenti dagli
altri nche non si ottiene un sistema indipendente. In altre parole, una base
deve avere un numero suciente di elementi perche possa generare lo spazio, ma
questi non devono essere troppi in modo da rimanere linearmente indipendenti,
il loro numero `e lo stesso per tutte le basi. Si dimostra infatti che se dimV <
tutte le basi sono equipotenti.
Proposizione 1.11 Siano A = a
1
, . . . , a
m
e B = b
1
, . . . , b
n
due basi di
V . Allora m = n.
Dimostrazione. Se fosse m < n, per il Teorema 1.9 gli elementi di B non
sarebbero indipendenti, quindi non potrebbero formare una base.
2
Denizione 1.12 Il numero di elementi comune ad ogni base di uno spazio
V di dimensione nita si chiama dimensione di V e si indica con dimV . Se
V = 0 poniamo dimV = 0.
In dimensione innita la situazione `e notevolmente pi` u complicata in quanto
lesistenza di una base, sebbene ormai accettata da tutti, `e legata a certe propo-
sizioni di teoria degli insiemi, tra loro equivalenti ma non dimostrabili, che non
possiamo arontare in questa sede.
1.9 Il corpo K, come spazio vettoriale su se stesso, ha dimensione 1, mentre
dimK
n
= n. Ad esempio dimR
n
= n come spazio vettoriale reale e dimC
n
= n
come spazio vettoriale complesso. In ognuno di questi casi si pu`o scegliere la
base canonica
e
1
= (1, 0, . . . , 0)
e
2
= (0, 1, . . . , 0)
.
.
.
e
n
= (0, 0, . . . , 1) .
Ricordando che in C 1 = (1, 0) e i = (0, 1), possiamo identicare C con R
2
e C
n
con R
2n
, ma allora, come spazi vettoriali reali, avremo dimC = 2 e
dimC
n
= 2n. Per questo talvolta, in casi di possibile ambiguit`a, `e opportuno
usare la notazione dim
K
V specicando il corpo degli scalari che intendiamo
usare.
Esercizi:
1. Dimostrare che eliminando vettori da un insieme indipendente si ottiene
ancora un insieme indipendente.
1.3. Spazi unitari e spazi normati 13
2. Dimostrare che se dimV = n ogni insieme indipendente di n elementi `e
una base.
3. Dimostrare che un insieme indipendente S V `e contenuto in una base.
4. Dimostrare che
(1) dimV
1
V
2
= dimV
1
+ dimV
2
,
(2) dimV
1
V
2
= dimV
1
+ dimV
2
,
(3) dimV/H = dimV dimH .
5. Calcolare la dimensione dello spazio M
mn
delle matrici mn e individ-
uarne una base.
6. Trovare una base per lo spazio R
N
delle successioni reali.
7. Dimostrare che le n + 1 potenze 1, x, x
2
, . . . , x
n
costituiscono una base
per lo spazio dei polinomi di grado n.
1.3 Spazi unitari e spazi normati
Uno spazio vettoriale complesso V viene detto normato se `e denita su V
una norma, cio`e unapplicazione | | : V R che soddisfa
| |1. |u| 0 u V e |u| = 0 u = 0 ,
| |2. |u| = [[|u| R u V ,
| |3. |u +v| |u| +|v| u, v V .
Una norma induce sullo spazio la metrica con la distanza
(1.2) d(u, v) = |u v| u, v V ,
quindi ogni spazio normato `e anche metrico. Il lettore pu`o facilmente di-
mostrare che la (1.2) denisce eettivamente una distanza su V trattandosi
di unapplicazione d : V V R tale che
(d)1. d(u, v) 0 u, v V e d(u, v) = 0 u = v , positiva,
(d)2. d(u, v) = d(v, u) u, v V , simmetrica,
(d)3. d(u, v) d(u, w)+d(w, v) u, v V , disuguaglianza triangolare.
Uno spazio vettoriale complesso V viene detto unitario se `e denito su V un
prodotto scalare, cio`e di unapplicazione , ) : V V C che soddisfa
, )1. u, v) 0 u V e u, u) = 0 u = 0 ,
, )2. u, v) = v, u) u, v V ,
, )3. u, v) = u, v) C, u, v V ,
14 Capitolo 1. Spazi vettoriali
, )4. u +v, w) = u, w) +v, w) u, v, w V .
Combinando , )2. e , )3. si ha
u, v) = u, v) C u, v V .
Si osservi inoltre che se V `e uno spazio vettoriale reale la , )2. si riduce alla
propriet`a commutativa. La norma naturale di uno spazio unitario `e quella che
discende dal prodotto scalare ponendo
(1.3) |u| =
_
u, u) u V
che ha sempre senso per la , )1. La (1.3) si chiama norma indotta dal prodotto
scalare.
Teorema 1.13 Vale la disuguaglianza di Cauchy-Schwarz
[u, v)[ |u||v| u, v V .
Dimostrazione. Per C si ha
|u +v|
2
= u +v, u +v) = |u|
2
+u, v) +v, u) +[[
2
|v|
2
.
Scegliendo
=
tu, v)
[u, v)[
con t R, si ottiene
P(t) = |u|
2
+ 2t[u, v)[ +t
2
|v|
2
0 t R,
quindi deve essere [u, v)[
2
|u|
2
|v|
2
0.
2
Esercizio 1.7 Dimostrare che la norma indotta dal prodotto scalare soddisfa
le propriet`a | |1. | |3. della norma.
Denizione 1.14 Uno spazio vettoriale V normato la cui distanza indotta
denisce una struttura di spazio metrico completo viene detto spazio di Ba-
nach. In particolare viene detto spazio di Hilbert se la norma `e quella indotta
da un prodotto scalare.
1.10 R
n
e C
n
sono spazi di Hilbert con i rispettivi prodotti scalari
x y =
n

i=1
x
i
y
i
e z w =
n

i=1
z
i
w
i
.
1.3. Spazi unitari e spazi normati 15
Dunque uno spazio di Hilbert `e anche di Banach, ma non viceversa. Vi sono
infatti spazi normati la cui norma non discende da alcun prodotto scalare.
Consideriamo ad esempio R
2
con una norma tra le seguenti
|x|
p
= ([x
1
[
p
+[x
2
[
p
)
1/p
se p 1 e |x|

= lim
p+
|x|
p
= sup[x
1
[, [x
2
[ .
Solo per p = 2 vale lidentit`a del parallelogrammo
(1.4) |x +y|
2
+|x y|
2
= 2|x|
2
+ 2|y|
2
che non solo `e necessaria, ma anche suciente per lesistenza di un prodotto
scalare da cui tale norma `e indotta (v. lOsservazione alla ne paragrafo).
Esercizio 1.8 Dimostrare che per 0 < p < 1 la disuguaglianza triangolare
della norma `e invertita.
1.11 Come prodotto scalare tra due funzioni integrabili u, v : I C sullinter-
vallo I R possiamo denire
(1.5) u, v) =
_
I
u(t)v(t)dt .
Esercizio 1.9 Vericare che si tratta eettivamente di un prodotto scalare.
Esercizio 1.10 Sono date le tre funzioni a
0
(t) = 1, a
1
(t) = t, a
2
(t) = t
2
su
[1, 1]. Calcolarne le norme. Quali di esse sono tra loro ortogonali?
Esercizio 1.11 Calcolare la minima distanza della funzione a
3
(t) = t
3
dallo
spazio generato dalle a
0
, a
1
, a
2
.
Denizione 1.15 Due vettori u e v si dicono ortogonali, e scriviamo u v,
se u, v) = 0.
Consideriamo adesso vettori di norma unitaria e a due a due ortogonali. Poni-
amo

ij
=
_
1 se i = j
0 se i ,= j .
Denizione 1.16 Un sistema di vettori e
1
, . . . , e
k
viene detto ortonor-
male se
e
i
, e
j
) =
ij
i, j = 1, . . . k .
Teorema 1.17 Un sistema ortonormale `e sempre indipendente.
Dimostrazione. Supponiamo infatti che
k

i=1

i
e
i
= 0
16 Capitolo 1. Spazi vettoriali
per certi
i
C. Moltiplicando per e
j
si ottiene
0 = e
j
,
k

i=1

i
e
i
) =
k

i=1

i
e
j
, e
i
) =
k

i=1

ij
=
j
.
Dunque
j
= 0 per ogni j = 1, . . . , k e i vettori e
i
sono indipendenti.
2
Dunque un sistema ortonormale di n elementi in uno spazio V di dimensione
n `e una base di V che prende il nome di base ortonormale. Calcoliamo le
componenti di un vettore rispetto ad una tale base.
Teorema 1.18 Le componenti di u V rispetto ad una base ortonormale
e
1
, . . . , e
n
sono i prodotti scalari u
i
= u, e
i
).
Dimostrazione. Il vettore dato `e combinazione lineare degli elementi della
base, dunque
u =
n

i=1
u
i
e
i
.
Moltiplichiamo membro a membro scalarmente per e
j
u, e
j
) =
n

i=1
u
i
e
i
, e
j
) =
n

i=1
u
i
e
i
, e
j
) =
n

i=1
u
i

ij
= u
j
.
Dunque
u =
n

i=1
u, e
i
)e
i
.
2
La rappresentazione ottenuta ci permette di calcolare facilmente il prodotto
scalare tra due vettori, note le loro componenti su una base ortonormale
u, v) =
n

i=1
u
i
e
i
,
n

j=1
v
j
e
j
) =
n

ij=1
u
i
v
j

ij
=
n

i=1
u
i
v
i
.
Ad esempio in V
n
avevamo denito u v = [u[[v[ cos ed esprimendo i due
vettori su una base ortonormale e
i
si ottiene il loro prodotto scalare scritto
usando le componenti
u v =
n

i=1
u
i
e
i

j=1
v
j
e
j
=
n

i=1
u
i
v
i
.
1.12 La base canonica di R
n
, che `e la stessa di C
n
, `e ortonormale.
1.3. Spazi unitari e spazi normati 17
1.13 In M
mn
possiamo denire il prodotto scalare
A B =

ij
a
ij
b
ij
essendo A = (a
ij
) e B = (b
ij
). Un sistema ortonormale in M
mn
`e
_
_
_
_
_
1 0 . . . 0
0 0 . . . 0
.
.
.
.
.
. . . .
.
.
.
0 0 . . . 0
_
_
_
_
_
,
_
_
_
_
_
0 1 . . . 0
0 0 . . . 0
.
.
.
.
.
. . . .
.
.
.
0 0 . . . 0
_
_
_
_
_
. . .
Una base ortonormale esiste sempre, pu`o essere costruita ad esempio a partire
da una base qualsiasi a
1
, . . . , a
n
mediante un procedimento di ortonormal-
izzazione dovuto a Gram-Schmidt. Osserviamo dapprima che dati un vettore
u e un versore e, il vettore u u, e)e `e complanare ad u ed e, inoltre si ha
u u, e)e e, basta calcolare il loro prodotto scalare e constatare che `e nullo.
Deniamo allora
e
1
= vers a
1
,
e
2
= vers(a
2
a
2
, e
1
)e
1
) ,
e
3
= vers(a
3
(a
3
, e
1
)e
1
+a
3
, e
2
)e
2
)) ,
.
.
.
e
n
= vers(a
n

n1

i=1
a
n
, e
i
)e
i
) .
Verichiamo adesso che e
h
, e
k
) =
hk
. Se h = k `e ovvio. Se h < k basta
vericare che
(a
h

h1

i=1
a
h
, e
i
)e
i
) (a
k

k1

j=1
a
k
, e
j
)e
j
) .
Sviluppando il prodotto scalare tra i due si ottiene
a
h
, a
k
) a
h
,
k1

j=1
a
k
, e
j
)e
j
)
h1

i=1
a
h
, e
i
)e
i
, a
k
) +
h1

i=1
a
h
, e
i
)e
i
,
k1

j=1
a
k
, e
j
)e
j
)
= a
h
, a
k
) 2
h1

i=1
a
h
, e
i
)a
k
, e
i
)
k1

j=h
a
k
, e
j
)a
h
, e
j
) +
h1

i=1
a
h
, e
i
)a
k
, e
i
)
= a
h
, a
k
)
k1

i=1
a
hi
a
ki
= a
h
, a
k
) a
h
, a
k
) = 0 .
Esercizio 1.12 Ortonormalizzare la base dei polinomi di secondo grado 1, t, t
2

su [1, 1].
18 Capitolo 1. Spazi vettoriali
Esercizio 1.13 Vericare che il sistema trigonometrico
_
1

2
,
cos nt

,
sen nt

[ n, m N
_
`e ortonormale su [, ] col prodotto scalare (1.5).
Una funzione del tipo
P(t) =
a
0
2
+
n

h=1
(a
h
cos ht +b
h
sen ht) t R
si chiama polinomio trigonometrico. Ricordando le formule di Eulero
cos x =
e
ix
+e
ix
2
, sen x =
e
ix
e
ix
2i
,
si pu`o scrivere P anche nella forma
P(t) =
n

h=n
c
h
e
iht
dove anche linsieme e
iht
/

2 `e ortonormale su [, ] nel senso del prodot-


to scalare complesso dellEsempio 1.11. Nella teoria delle serie di Fourier si
dimostra che una funzione f : R C, 2-periodica e soggetta a determi-
nate ipotesi di regolarit`a pu`o essere rappresentata come somma di una serie
trigonometrica
f(t) =

nZ
c
n
e
int
.
Come si calcolano i coecienti c
n
di f? Moltiplichiamo scalarmente a sinistra
e a destra per la generica e
imt
e scambiamo il segno di integrale col segno di
somma (loperazione `e lecita, ma andrebbe giusticata). Si ottiene allora
_

f(t)e
imt
dt =

nZ
c
n
_

e
int
e
imt
dt = 2

nZ
c
m

mn
= 2c
m
,
da cui
(1.6) c
n
=
1
2
_

f(t)e
int
dt n Z
che si chiamano coecienti di Fourier e si indicano con

f(n). La (1.6) esprime
lanalogo del Teorema 1.18 in un caso di dimensione innita. La rappresen-
tazione in serie trigonometriche della f viene ad essere
f(t) =

nZ

f(n)e
int
.
Esercizi:
1.3. Spazi unitari e spazi normati 19
1. Data una terna ortonormale e
1
, e
2
, e
3
in V
3
, vericare che gli insiemi
_
1

2
e
1
+
1

2
e
2
,
1

2
e
1

2
e
2
, e
3
_
,
_
1

3
e
1
+
1

3
e
2
+
1

3
e
3
,
1

6
e
1
+
1

6
e
2

_
2
3
e
3
,
1

2
e
1

2
e
2
_
,
_
3
5
e
1

4
5
e
3
, 2
_
2
13
e
1
+
1

26
e
2
+
1

26
e
3
,
2
5
_
2
13
e
1

26
e
2
+
3
5

26
e
3
_
sono terne ortonormali.
2. Determinare le componenti di un vettore u V
3
su una base ortonormale
e
1
, e
2
, e
3
conoscendo il suo modulo e gli angoli
1
,
2
,
3
che esso forma
con i tre vettori della base. Discutere il caso in cui si conosce una delle
tre componenti invece del modulo.
3. Determinare gli angoli
1
,
2
,
3
che il vettore u = e
1
+2 e
2
3 e
3
forma
con le direzioni positive di e
1
, e
2
, e
3
e vericare che cos
2

1
+ cos
2

2
+
cos
2

3
= 1.
4. Determinare il valore dello scalare che rende ortogonali i vettori u =
e
1
+e
2
3 e
3
e v = e
2
e
2
+e
3
.
5. Dato il vettore u = 3 e
1
e
2
2 e
3
, decomporlo nella somma di un vettore
parallelo a e =
1

2
(e
1
e
2
) con un vettore opportuno ad esso ortogonale.
6. Stabilire se sono complanari i tre vettori
u = 2 e
1
+e
2
+5 e
3
, v = 3 e
1
e
2
+3 e
3
, w = 2 e
1
e
2
4 e
3
.
Quando una norma deriva da un prodotto scalare? - NellEsercizio 8 del 1
abbiamo visto che la norma denita a partire da un prodotto scalare soddisfa
necessariamente lidentit`a del parallelogramma. La questione `e stata ripresa
pi` u avanti, in questo paragrafo, nellambito di spazi vettoriali pi` u generali. La
domanda che ci poniamo adesso `e: Come si fa a stabilire se una norma deriva
da un prodotto scalare? Dimostriamo adesso, per semplicit`a solo nel caso
reale, che lidentit`a del parallelogramma `e condizione anche suciente anche
la norma derivi dal prodotto scalare, in altre parole se una norma verica questa
propriet`a allora esiste un prodotto scalare che la denisce.
Supponiamo dunque che V sia uno spazio normato la cui norma soddis la
(1.4). Deniamo
(1.7) u, v) =
1
4
_
|u +v|
2
|u v|
2
_
u, v V .
Ovviamente loperazione denita nella (1.7) soddisfa le propriet`a , )1 e , )2.
Restano da vericare la , )3 e la , )4. Per la , )4 si ha
(1.8) u, w) +v, w) =
1
4
_
|u +w|
2
|u w|
2
+|v +w|
2
|v w|
2
_
20 Capitolo 1. Spazi vettoriali
e applicando la (1.7) al secondo membro della (1.8) si ottiene
|u +w|
2
+|v +w|
2
=
1
2
|u +v + 2w|
2
+
1
2
|u v|
2
,
|u w|
2
+|v w|
2
=
1
2
|u +v 2w|
2
+
1
2
|u v|
2
,
da cui
u, w) + v, w) =
1
8
_
|u +v + 2w|
2
|u +v 2w|
2
_
=
1
8
_
2|u +v +w|
2
+ 2|w|
2
|u +v|
2
2|u +v w|
2
2|w|
2
+|u v|
2
_
=
1
4
_
|u +v +w|
2
|u +v w|
2
_
= u +v, w) .
Per la , )3 ssiamo ad arbitrio u e v in V e poniamo
() = u, v) e () = u, v) R.
Dobbiamo dimostrare che = su R. Dalla , )4 segue
(1.9) ( +) = () +() ,
inoltre `e continua, infatti per la | |3 e la | |2 si ha
[|u v| |v|[ |u| = [[|u|
che, combinata con la (1.8) e la (1.9), implica
[( +) ()[ = [()[ =
1
4

|u +v|
2
|u v|
2

0
per 0.
Dunque `e uniformemente continua su ogni intervallo chiuso e limitato
contenuto in R. Poiche anche lo `e essendo lineare, per un noto teorema di
unicit`a del prolungamento uniformemente continuo basta dimostrare che e
coincidono sullinsieme Q dei numeri razionali. Si osservi che per la (1.9)
(1.10) (n) = n(1) = (n)
per ogni n N, inoltre, poiche (1) = (1) per la (1.8), la (1.10) vale anche
con n Z. Daltra parte per la (1.9) si ha anche
m
1
m
u, v) = u, v)
per ogni m ,= 0, cio`e
(1.11)
_
1
m
_
=
_
1
m
_
.
Combinando la (1.10) con la (1.11) si ottiene il risultato.
1.4. Spazio euclideo, traslazioni e vettori 21
1.4 Spazio euclideo, traslazioni e vettori
Il lettore avr`a sicuramente una buona familiarit`a con lo spazio euclideo bidi-
mensionale, il piano euclideo, e con quello tridimensionale, lo spazio, che nella
Meccanica Classica viene scelto come modello per lo spazio sico, lambiente
dove avvengono i fenomeni naturali. Con un piccolo sforzo di astrazione, per il
fatto di non avere alcuna relazione con la nostra esperienza quotidiana, possi-
amo immaginare nuovi spazi, simili ai precedenti, ma in dimensione maggiore
e accettarne lesistenza. Certo la nostra mente non `e capace di gurarsi un
ipercubo o unipersfera in spazi di dimensione maggiore di 3, ma in fondo non
`e sempre necessario ricorrere allimmaginazione se impariamo gradualmente a
lasciarci guidare dalla nostra capacit`a logica, aiutata dal confronto col piano e
lo spazio ordinari.
Come in geometria piana le rette costituiscono una famiglia di sottoinsiemi in
qualche modo privilegiati, essendo oggetto degli assiomi, cos` avviene in modo
simile nello spazio con i piani, e quindi anche nello spazio n-dimensionale con i
piani di dimensione n1. Naturalmente, oltre a questi, lo spazio n-dimensionale
contiene anche tutti i piani di dimensione minore, no a 1, cio`e no alle rette.
I piani di dimensione maggiore di 3 sono detti comunemente iperpiani, ma noi
non useremo questo termine, perche di solito ne verr`a specicata la dimensione.
Non intendiamo in questa sede dare denizioni rigorose e arontare in modo
esauriente la teoria degli spazi euclidei, meno semplice di quanto possa sembrare,
ci baster`a invece mettere in evidenza qualche propriet`a di struttura in previsione
di studiare gli spazi vettoriali e le applicazioni lineari.
Accettiamo dunque come spazio euclideo n-dimensionale un insieme E
n
di
punti nel quale sono assegnate n 1 famiglie innite (formate cio`e da inniti
punti) di sottoinsiemi, rette e piani di ogni dimensione no a n1, soggette ad
un certo numero di assiomi analoghi a quelli della geometria elementare. Due
rette di E
n
si dicono parallele se non si intersecano e se sono contenute in uno
stesso piano (bidimensionale) di E
n
. Quattro rette complanari e a due a due
parallele in E
n
formano una regione limitata che si chiama parallelogramma.
Assumiamo che su E
n
sia denita una distanza di spazio metrico comple-
to che chiameremo distanza euclidea. Ricordiamo che per distanza si intende
unapplicazione d : E
n
E
n
R, che soddisfa le tre propriet`a:
d1. d(P, Q) 0 P, Q E
n
e d(P, Q) = 0 P = Q, positivit`a;
d2. d(P, Q) = d(Q, P) P, Q E
n
, simmetria;
d3. d(P, Q) d(P, R) +d(R, Q) P, Q, R E
n
, disuguaglianza triangolare.
In pi` u valgono le seguenti come propriet`a caratteristiche della distanza euclidea:
d4. se P, Q, Q

, P

sono i vertici di un parallelogramma allora d(P, Q) = d(P

, Q

);
d5. (E
n
, d) `e uno spazio metrico completo.
In realt`a va osservato che la distanza euclidea non `e univocamente determinata
dalle propriet`a precedenti perche se d `e euclidea lo `e anche d

= kd con k > 0.
22 Capitolo 1. Spazi vettoriali
Basterebbe ssare ununit`a di misura, comunque possiamo anche ritenere che
sia unica a meno di una relazione di equivalenza.
La completezza dello spazio (lanalogo della completezza della retta reale,
detta anche continuit`a) si esprime con la propriet`a:
per ogni successione di Cauchy (P
h
) E
n
esiste P E
n
tale che lim
h
d(P
h
, P) = 0 .
Alla distanza d `e associato il gruppo (rispetto al prodotto di composizione
tra funzioni) delle isometrie di E
n
che chiameremo anche trasformazioni rigide e
indicheremo con H
n
. Ricordiamo che unisometria `e unapplicazione : E
n

E
n
tale che
d((P), (Q)) = d(P, Q) P, Q E
n
.
Una traslazione `e unapplicazione : E
n
E
n
tale che per ogni coppia P, Q E
n
i quattro punti P, Q, (Q), (P) sono, nellordine, i vertici di un parallelogram-
ma. La d4 ci assicura che le traslazioni sono particolari isometrie e costituiscono
un sottogruppo commutativo V
n
di H
n
se si suppone ovviamente che tra esse
guri anche lidentit`a i, denita da i(P) = P per ogni P E
n
.
Il carattere commutativo del prodotto di due traslazioni ci induce ad at-
tribuirgli un signicato additivo. Questo aspetto viene reso pi` u evidente se si
interpreta il passaggio dal punto P al punto (P) come la somma di P con un
nuovo ente u che chiameremo vettore. La notazione
(1.12) (P) = P +u P E
n
ci permette di identicare ogni traslazione con un solo vettore e viceversa. Non
c`e quindi alcuna dierenza concettuale tra i vettori e le traslazioni, altro che nel-
la notazione, pertanto V
n
sar`a nel seguito lo spazio dei vettori su E
n
. Scrivendo
la (1.12) nella forma u = (P) P, oppure u = P

P se P

= (P), possiamo
interpretare la nozione di vettore come dierenza tra punti, intesa nel senso che
le due dierenze P

P e Q

Q coincidono se esiste una traslazione che porta


P in P

e Q in Q

. In questo caso diciamo che i due segmenti orientati, o frecce,


PP

e QQ

sono equipollenti e individuano lo stesso vettore u, che infatti viene


indicato anche con u = PP

. Il vettore nullo, 0, `e la traslazione identit`a, per la


quale P

= (P) = P e ogni freccia rappresentativa si riduce ad un punto.


Cos`, posto
1
(P) = P +u
1
e
2
(P) = P +u
2
per ogni P E
n
, si ha

2

1
(P) = (P +u
1
) +u
2
e
1

2
(P) = (P +u
2
) +u
1
P E
n
.
Daltra parte, essendo
2

1
=
1

2
, non vi `e nessuna ambiguit`a nella scrittura
(1.13)
2

1
(P) = P +u
1
+u
2
P E
n
in cui si fa corrispondere al prodotto di due traslazioni la somma (commutativa),
o risultante, dei due vettori u
1
e u
2
ad esse associati, secondo la ben nota regola
del parallelogramma. Naturalmente per ricorrenza si pu`o generalizzare la (1.13)
alla somma u di k vettori u
1
, u
2
, . . . , u
k
ponendo
P +u =
k

k1
. . .
1
(P) .
1.4. Spazio euclideo, traslazioni e vettori 23
Una somma di pi` u vettori si rappresenta dunque disponendo una di seguito allal-
tra le frecce relative ai singoli addendi e unendo poi il primo punto della spezzata
con lultimo, oppure applicando ripetutamente la regola del parallelogramma.
u
1
u
2
u
3
u
4
u
5
u
6
u

B
f
f
f
f
f
f
f
f
fx
r
r
r
r
r
rj
T
d
d
d
ds

Q
Figura 1.1: Somma di vettori u = u
1
+u
2
+u
3
+u
4
+u
5
+u
6
Se (P) = P+u indicheremo con u, lopposto di u, il vettore corrispondente
alla traslazione inversa
1
, ossia quel vettore che sommato ad u d`a 0. Possiamo
quindi denire la dierenza tra u e v come caso particolare della somma ponendo
u v = u + (v) .
v
u v
u

I
d
d
d
d ds
Figura 1.2: Il vettore dierenza u v
Si denisce il prodotto tra un numero reale , che nel contesto dellalgebra
vettoriale viene detto scalare, e una traslazione nel seguente modo:
se = i o se = 0 allora `e lidentit`a;
se ,= i e > 0 allora `e la traslazione che porta ogni punto P nel
punto ()(P) della semiretta uscente da P e passante per (P) tale che
il rapporto tra i segmenti [P, ()(P)] e [P, (P)] vale ;
se ,= i e < 0 ci si riconduce al caso precedente ponendo = ()
1
.
Il prodotto u si rappresenta allungando del fattore una freccia associata ad
u, con lo stesso verso se > 0 e con verso opposto se < 0; se = 0 la
24 Capitolo 1. Spazi vettoriali
freccia si riduce ad un punto e il risultato delloperazione `e il vettore nullo 0,
corrispondente allidentit`a.
Esercizio 1.14 Dimostrare che V
n
`e uno spazio vettoriale reale.
La distanza euclidea su E
n
induce su V
n
una norma, che in questo contesto
chiameremo modulo, cos` denita:
[u[ = d(P, Q) se u = PQ.
Per la norma `e in uso anche la notazione |u| che noi riserveremo agli spazi in
dimensione innita.
Esercizio 1.15 Dimostrare che il modulo `e una norma, cio`e soddisfa le
propriet`a | |1. | |3. del precedente.
A sua volta il modulo induce su V
n
la struttura di spazio metrico completo con
la distanza
d(u, v) = [u v[ u, v V
n
,
in particolare [u[ = d(u, 0). La distanza in V
n
`e legata a quella di E
n
in quanto
u = OP e v = OQ d(u, v) = d(P, Q) .
Si chiama versore, o vettore unitario, un vettore di modulo 1. Si pu`o normal-
izzare un vettore u ,= 0 considerando il versore vers u = u/[u[ che ha lo stesso
orientamento di u.
Siano u un vettore ed e un versore. Se `e langolo tra due semirette orientate
come u ed e, brevemente langolo tra u ed e, lo scalare [u[ cos `e la proiezione
ortogonale di u lungo e, quantit`a che si annulla se u ed e sono ortogonali o se
u = 0. Pi` u in generale, dati due vettori u e v che formano langolo , [u[[v[ cos
e
u e
u

f f
f f
f f
f f
f f
Figura 1.3: Proiezione di un vettore lungo un versore u e
`e la proiezione di u [v] lungo vers v [vers u] moltiplicata per il modulo di v [u].
Questo numero viene detto prodotto scalare tra u e v e indicato con u v.
Mentre dunque u e rappresenta la proiezione scalare di u lungo e, la proiezione
vettoriale `e data da u e e. Si osservi che u u = [u[
2
. Il prodotto scalare
viene indicato anche con la notazione u, v), ma noi la riserviamo al caso della
dimensione innita.
1.4. Spazio euclideo, traslazioni e vettori 25
Esercizio 1.16 Dalle propriet`a del modulo dedurre le seguenti per il prodot-
to scalare:
, )1. u u 0 u V
n
e u u = 0 u = 0;
, )2. u v = v u u, v V
n
;
, )3. (u) v = u v R u, v V
n
;
, )4. (u +v) w = u w+v w u, v, w V
n
.
Con la propriet`a commutativa si vede subito che il fattore nella , )3 esce
dal prodotto scalare anche quando moltiplica il secondo vettore, inoltre la , )4
continua a valere come propriet`a distributiva anche a destra quando una somma
`e presente al secondo posto.
Tenendo conto delle varie strutture che abbiamo introdotto in questo para-
grafo, possiamo riassumere le propriet`a di E
n
con le seguenti proposizioni che
caratterizzano uno spazio euclideo ane n-dimensionale:
E 1. linsieme H
n
delle isometrie di E
n
`e un gruppo rispetto alla composizione;
E 2. H
n
ammette un sottogruppo commutativo V
n
i cui elementi prendono il
nome di traslazioni;
E 3. V
n
`e uno spazio vettoriale reale nel quale loperazione di somma `e la
composizione;
E 4. V
n
`e munito di un prodotto scalare che soddisfa
u u = d(P, Q)
2
per ogni coppia di punti P, Q E
n
tali che u = P Q.
Esercizio 1.17 Risolvere lequazione
(1.14) u = b
dove V
n
e b R sono assegnati.
Se = 0 e b = 0 tutti i vettori u V
n
sono soluzioni, nessun vettore se = 0
e b ,= 0. Supponiamo ,= 0 e decomponiamo u nella somma
u = u

+k vers
dove u

= u u vers vers . Sostituendo nellequazione si ottiene


u = u

+k vers = k[[ = b ,
da cui k = b/[[. Ne segue che soddisfano lequazione tutti e soli i vettori
(1.15) u = v +
b
[[
2
26 Capitolo 1. Spazi vettoriali
al variare di v nello spazio ortogonale ad . In termini di punti dello spazio
euclideo E
n
, posto u = P O e b/[[
2
= C O, si ottengono i punti P
delliperpiano ortogonale a CO e passante per C. Qual `e lelemento di minima
norma di questo iperpiano? Poiche dalla (1.15) si ha
[u[
2
= [v[
2
+
[b[
2
[[
2

[b[
2
[[
2
per tutti i v ortogonali ad [[, lelemento di norma minima `e b/[[
2
, quello
ortogonale alliperpiano stesso, il cui modulo, [b[/[[, non `e altro che la distanza
da 0. Il punto O +b/[[
2
`e la proiezione di O sulliperpiano.
Esercizi:
1. Dimostrare che la funzione u [u[ `e lipschitziana e quindi continua, di
conseguenza sono continue anche le funzioni u u v e v u v.
2. Dimostrare che ogni isometria : E
n
E
n
`e iniettiva e continua (vedremo
pi` u avanti che `e anche surgettiva) e siccome anche linversa `e unisometria,
ne segue che `e un omeomorsmo.
3. Dimostrare che se u v = 0 per ogni v V
n
allora u = 0.
4. Dimostrare le disuguaglianze
[u v[ [u[[v[ (Schwarz) e [[u[ [v[[ [u v[
e dedurne le stesse conclusioni dellEsercizio 1.
5. Dimostrare il Teorema di Carnot
[u v[
2
= [u[
2
+[v[
2
2[u[[v[ cos ,
dove `e langolo tra u e v.
6. Dimostrare che (u v) (u + v) = 0 se e solo se [u[ = [v[. Darne
uninterpretazione geometrica.
7. Dimostrare lequivalenza delle seguenti condizioni:
(a) u v = 0;
(b) [u +tv[ = [u tv[ t R;
(c) [u +tv[ [u[ t R.
8. Dimostrare lidentit`a del parallelogramma
[u +v[
2
+[u v[
2
= 2[u[
2
+ 2[v[
2
.
1.4. Spazio euclideo, traslazioni e vettori 27
9. Dimostrare la disuguaglianza di Young
2[u v[ [u[
2
+[v[
2
e la sua versione pi` u generale
[u v[
1
p
[u[
p
+
1
q
[v[
q
dove p e q sono due numeri reali tali che p, q 1 e 1/p + 1/q = 1.
Suggerimento: basta dimostrare che ab
1
p
a
p
+
1
q
b
q
con a, b 0. Porre
e

= a
p
e e

= b
q
e usare la convessit`a dellesponenziale.
10. Dimostrare che
sup
u=0
u
[u[
= sup
|u|=1
u = sup
|u|1
u = [[ .
Osservazioni
Sulla natura di E
n
, sistemi di riferimento - Mettiamo in evidenza alcuni
aspetti aspetti dello spazio E
n
che lo rendono particolarmente adatto ad essere
scelto come modello dello spazio sico nella Meccanica Classica.
E
n
`e omogeneo: ci`o signica che la distanza `e invariante per traslazioni,
quindi le propriet`a metriche di E
n
sono le stesse ovunque. Tutti i punti sono
uguali e non vi sono punti privilegiati.
E
n
`e isotropo: in ogni punto le propriet`a di E
n
sono le stesse in tutte le
direzioni, non vi sono direzioni privilegiate. Precisamente, la distanza `e an-
che invariante per rotazioni. Pi` u avanti, caratterizzando le isometrie di E
n
,
tratteremo anche le rotazioni.
Grazie allomogeneit`a `e possibile ssare in modo del tutto arbitrario unorigine
O E
n
rispetto alla quale ogni punto P, ad esempio una particella materiale,
viene individuato dal vettore posizione r = P O. Rispetto ad unaltra origine
O

la stessa particella si trova nella posizione r

= P O

legata alla precedente


dalla relazione r

= r +O O

. I punti P
i
E
n
, aventi le posizioni r
i
= P
i
0,
relativi alle varie particelle di un sistema materiale formano un sottoinsime di
E
n
che si chiama congurazione del sistema. Con la propriet`a di completezza
possiamo immaginare che tutti gli aggregati di particelle distribuite in maniera
sucientemente tta formino dei corpi continui che ammettono come cong-
urazioni regioni aperte o variet`a di E
n
. Con questo schema la materia viene
studiata secondo una scala macroscopica per la quale i punti di E
n
diventano
porzioni ragionevolmente piccole di un corpo.
28 Capitolo 1. Spazi vettoriali
&%
'$
s
s
s
s
s
s
s
s
s
s
s
s
' E w
`
E un punto di vista, questo, applicabile a tutti gli stati della materia, solido,
uido ecc., purche il contesto del problema in esame lo permetta, e non `e in
contraddizione con quello discreto particellare, si tratta semplicemente di un
modello diverso, quello del continuo. Il comportamento delle singole particelle,
i loro spostamenti, le reciproche interazioni ecc., viene sostituito da quello del
frammento di materia che esse formano, ritenuto abbastanza piccolo da occupare
un punto dello spazio.
Grazie allisotropia, non essendovi direzioni privilegiate, `e lecito scegliere
una base qualsiasi di V
n
, per semplicit`a ortonormale, per individuare un vet-
tore posizione mediante le sue componenti. Unorigine O V
n
e una base
e
1
, e
2
. . . , e
n
deniscono su E
n
un sistema di riferimento
S = O; e
1
, e
2
. . . , e
n

che ci permette di individuare il punto P rispetto ad O mediante il vettore


posizione
r = P O =
n

i=1
x
i
e
i
dove x
i
= r e
i
. Una volta assegnato il sistema di riferimento S si pu`o anche
scrivere senza ambiguit`a P = (x
1
, x
2
, . . . , x
n
).
1.5 Prodotto vettoriale
Vogliamo adesso descrivere le propriet`a di una nuova operazione tra i vettori
dello spazio V
3
associato allo spazio euclideo E
3
. Assegnati due vettori u e
v, che formano gli angoli e 2 , sia quello convesso (sen > 0). Il
prodotto vettoriale, detto anche prodotto esterno, u v `e il vettore di modulo
uv sen , ortogonale a u e v e avente il verso indicato dalla vite che avanza, con
la capocchia in un piano parallelo a u e v, quando si faccia ruotare u verso v
dalla parte di .
Per denizione, il modulo del prodotto vettoriale larea del parallelogramma
costruito sui due vettori, inoltre u v = v u e si riduce al vettore nullo se
e solo se u e v sono paralleli oppure uno di essi `e nullo. Una terna ordinata u,
v, w si dice destra (o levogira o positivamente orientata) se u v ha prodotto
scalare positivo con w e sinistra nel caso sia negativo; in particolare u, v, uv
1.5. Prodotto vettoriale 29
`e una terna destra. Lespressione u v w, in cui ovviamente si deve calcolare
il prodotto vettoriale prima del prodotto scalare, si chiama prodotto misto; esso
`e nullo se e solo se i tre vettori sono linearmente dipendenti. Il prodotto misto
`e il volume con segno del parallelepipedo che ha per lati u, v e w. Osserviamo
che una permutazione pari (cio il prodotto di un numero pari di sostituzioni)
dei tre vettori lascia inalterato il valore del loro prodotto misto, mentre una
permutazione dispari ne cambia il segno.
Siano e
1
ed e
2
due versori ortogonali. Se e
3
= e
1
e
2
la terna destra A =
e
1
, e
2
, e
3
`e una base ortonormale (destra) per V e
e
1
e
2
= e
3
e
2
e
1
= e
3
e
1
e
1
= 0
e
2
e
3
= e
1
e
3
e
2
= e
1
e
2
e
2
= 0
e
3
e
1
= e
2
e
1
e
3
= e
2
e
3
e
3
= 0.
Introdotto il simbolo di Ricci

ijk
=
_
_
_
1 se i valori di i, j, k sono, nellordine, una permutazione pari di 1,2,3
1 se i valori di i, j, k sono, nellordine, una permutazione dispari di 1,2,3
0 altrimenti,
le 9 uguaglianze precedenti si possono riassumere tutte insieme nella forma
compatta
e
i
e
j
=
3

k=1

ijk
e
k
i, j = 1, 2, 3 .
Queste relazioni tra i versori di A ci permettono di calcolare le componenti del
prodotto vettoriale
(1.16) u v = u
i
e
i
v
j
e
j
= u
i
v
j
e
i
e
j
= u
i
v
j

ijk
e
k
(dove la somma rispetto agli indici ripetuti `e sottintesa) da cui, moltiplicando
scalarmente per e
h
, si ottiene la componente h-esima
(1.17) [u v]
h
=
hij
u
i
v
j
.
Inoltre
(1.18) u v w = u
i
v
j

ijk
e
k
w =
ijk
u
i
v
j
w
k
.
Dunque le (1.17) e (1.18) coincidono rispettivamente con i determinanti formali
uv =

e
1
e
2
e
3
u
1
u
2
u
3
v
1
v
2
v
3

= (u
2
v
3
u
3
v
2
) e
1
(u
1
v
3
u
3
v
1
) e
2
+(u
1
v
2
u
2
v
1
) e
3
,
uvw =

u
1
u
2
u
3
v
1
v
2
v
3
w
1
w
2
w
3

= (u
2
v
3
u
3
v
2
)w
1
(u
1
v
3
u
3
v
1
)w
2
+(u
1
v
2
u
2
v
1
)w
3
.
30 Capitolo 1. Spazi vettoriali
Per il doppio prodotto vettoriale valgono le seguenti relazioni
(1.19) u (v w) = vu wwu v e (u v) w = vu wuv w.
Dimostriamo ad esempio la prima di esse, da cui poi discende subito anche
laltra. Se vw = 0 `e banalmente vera. Nel caso contrario, posto vw = k e,
i vettori e, e v ed e w sono indipendenti, per cui esistono scalari , e tali
che
(1.20) u = e + e v + e w.
Poiche per denizione di prodotto vettoriale si ha
(e v) e = v e (e w) e = w,
usando la (1.20) al primo membro della (1.19) si ottiene
u (v w) = u k e = (e + e v + e w) k e = kv +kw,
mentre al secondo, essendo u v = e w v = k e u w = k, si ottiene
vu wwu v = kv +kw.
Il prodotto vettoriale non `e in generale associativo. Infatti ponendo uguali
le due relazioni della (1.19), si vede subito che
u (v w) = (u v) w) uv wwu v = 0 v (u w) = 0
che `e vericata quando u e w sono paralleli o quando v `e ad essi ortogonale
(compreso nel caso banale in cui uno dei tre vettori `e nullo).
Vediamo adesso un metodo per esprimere un vettore u come combinazione
lineare degli elementi di una base generica A =
1
,
2
,
3
. Per calcolare i
coecienti
i
nella rappresentazione di u
u =
1

1
+
2

2
+
3

3
,
moltiplichiamo scalarmente a sinistra e a destra per
2

3
. In questo modo
si trova
u
2

3
=
1

1

2

3
dove possiamo dividere a sinistra e a destra per
1

2

3
per lindipendenza
degli
i
. In denitiva si ottiene
(1.21)
1
=
u
2

3

1

2

3
,
2
=
u
3

1

1

2

3
,
3
=
u
1

2

1

2

3
.
In altre parole le componenti di u rispetto alla base A coincidono con i prodotti
scalari di u per gli elementi del sistema di vettori
A

=
_

1
=

2

3

1

2

3
,
2
=

3

1

1

2

3
,
3
=

1

2

1

2

3
,
_
che `e linearmente indipendente e si chiama base duale di A. Ovviamente valgono
le relazioni
i

j
=
j
i
e A = A

se e solo se A `e ortonormale.
1.5. Prodotto vettoriale 31
Esercizio 1.18 Risolvere lequazione
(1.22) u =
dove e sono assegnati.
Se = = 0 la (1.22) `e soddisfatta per ogni u V
3
e non ha soluzioni se = 0
e ,= 0 oppure se ,= 0. Non rimane che studiare il caso ,= 0 e = 0.
Posto c = , , e c sono indipendenti, infatti sono a due a due ortogonali,
quindi
u = + +c
per certi , , R. Sostituendo questa espressione nella (1.22) si ottiene
( + +c) = + c = c + ( ) = c [[
2
=
che `e vericata per qualsiasi R, = 0 e = 1/[[
2
. Le soluzioni della
(1.22) sono dunque tutti e soli i vettori
u =
c
[[
2
= +

[[
2
, R.
In termini di punti dello spazio euclideo E
3
, posto /[[
2
= CO e u = PO,
si ottengono tutti i punti P della retta parallela al vettore e passante per C.
Esercizi:
1. Dimostrare le uguaglianze:
(1)
ij

jk
=
ik
, (6)
ijh

ijk
= 2
hk
,
(2)
ij

jh

hk
=
ik
, (7)
ijh

ijh
= 6 ,
(3)
ij

jh

hk

ki
= 3 , (8)
ijh

kjh

krs
= 2
irs
,
(4)
ij

ijk
= 0
k
, (9)
ijh

jhk

hki
= 0 ,
(5)
ijk

rsk
=
ir

js

is

jr
, (10)
ijh
u
i
u
j
= 0
h
,
dove `e sottintesa la somma rispetto agli indici ripetuti.
2. Dimostrare che il prodotto vettoriale `e distributivo in ciascuno dei fattori.
3. Usando la (1.16), dimostrare che
[u v[ = [u[[v[ sen
dove `e langolo (convesso) tra i due vettori.
4. Dimostrare che
e
i
=
1
2

ijk
e
j
e
k
per i vettori e
i
di una terna ortonormale.
32 Capitolo 1. Spazi vettoriali
5. Dimostrare le identit`a in V
3
:
(1) u v u = 0 ,
(2) u v wz = u vw z u zv w,
(3) [u v[
2
+ (u v)
2
= [u[
2
[v[
2
,
(4) u (v w) +v (wu) +w(u v) = 0,
(5) u [( v) ( w)] +v [( w) ( u)] +w[( u) ( v)] = 0,
(6) u v (v w) (wu) = [u v w[
2
.
6. Dimostrare che larea (vettoriale) della supercie di un tetraedro `e nulla,
cio`e
+ c +c + (c ) ( ) = 0.
Una versione pi` u generale `e la seguente
_
S
n()d = 0
dove S `e una supercie chiusa e n() il campo dei versori normali.
7. Usando il prodotto vettoriale rifare gli esercizi 4 e 6 del 3.
8. Esprimere il vettore u = e
1
+2 e
2
+3 e
3
come combinazione lineare dei
vettori

1
= e
1
,
2
= e
1
+e
2
,
3
= e
1
+e
2
+e
3
.
9. Determinare un versore ortogonale alla giacitura determinata dai vettori
u = e
1
+e
2
e v = e
1
+e
2
+e
3
.
10. Vericare che la componente ortogonale di un vettore u rispetto alla
direzione di un versore e `e data da
u

= e (u e) .
11. Dimostrare la (1.19) in componenti usando la (5) dellEsercizio 1.
Capitolo 2
Matrici
2.1 Operazioni
Una matrice a m righe e n colonne su un campo K, di solito R o C, `e una
tabella di elementi di K del tipo
A =
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
. . . .
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
,
brevemente A = (a
ij
) con i = 1, . . . , m e j = 1, . . . , n. Linsieme M
mn
(K)
delle matrici m n, cio`e a m righe e n colonne sul campo K, `e uno spazio
vettoriale con le operazioni
(a
ij
) + (b
ij
) = (a
ij
+b
ij
) e (a
ij
) = (a
ij
)
essendo 0 la matrice con componenti tutte nulle e A = (a
ij
) lopposta di A.
Il prodotto `e denito tra due matrici A M
mk
(K) e B M
kn
(K) in
cui il numero di colonne della prima coincide col numero di righe della seconda.
Precisamente, C = AB M
mn
(K) ha per componenti
c
ij
=
k

h=1
a
ih
b
hj
che viene detto prodotto righe per colonne. Nello spazio M
nn
(K), che in-
dicheremo con M
n
(K), delle matrici quadrate sono ben denite sia le operazioni
vettoriali che quella di prodotto come operazione interna. Si dice allora che
M
n
(K) `e unalgebra. Il prodotto tra matrici non `e ricco di propriet`a come nei
campi numerici pi` u comuni. Riguardo ad esempio se `e commutativo, nel caso
non quadrato non ha neanche senso chiederselo, ma anche nel caso quadrato in
33
34 Capitolo 2. Matrici
generale non lo `e. Per esempio
_
1 1
1 0
__
1 1
0 1
_
=
_
1 2
1 1
_
e
_
1 1
0 1
__
1 1
1 0
_
=
_
2 1
1 0
_
.
In ogni caso `e comunque associativo, (AB)C = A(BC), purche A M
mk
(K),
B M
kn
(K) e C M
np
(K), ma lidentit`a I = (
ij
) esiste solo nello spazio
delle matrici quadrate. Inoltre non tutte le matrici quadrate hanno inversa.
Cercando ad esempio a, b, c, d tali che
_
1 0
0 0
__
a b
c d
_
=
_
1 0
0 1
_
,
si perviene allassurdo
_
a b
0 0
_
=
_
1 0
0 1
_
.
Inne, mentre 0A = A0 = 0 per ogni A, non vale la legge di annullamento del
prodotto, ad esempio
_
1 0
0 0
__
0 0
0 1
_
=
_
0 0
0 0
_
.
Linsieme M
mn
(K), in quanto gruppo abeliano rispetto alla somma e dota-
to di un prodotto associativo e distributivo rispetto alla somma, viene detto
anello. Esistono in M
mn
(K) lidentit`a destra I
n
e lidentit`a a sinistra I
m
che
ovviamente coincidono se m = n, caso in cui lanello viene detto unitario o con
identit`a.
Per una matrice quadrata A `e possibile denire le potenze per induzione
se A ,= 0 A
0
= I e A
n
= AA
n1
A M
n
(K) , n 1 .
Una matrice A viene detta nilpotente se per un certo k N si ha A
k
= 0.
Esempi di matrici nilpotenti sono
_
0 a
0 0
_
_
_
0 a b
0 0 c
0 0 0
_
_
.
Si chiama trasposta di A M
mn
(K) la matrice A
T
M
nm
(K) che si ottiene
da A scambiando le righe con le colonne, in componenti A
T
= (a
ji
) se A = (a
ij
).
Esercizio 2.1 Vericare che
T1. (A
T
)
T
= A,
T2. (A+B)
T
= A
T
+B
T
,
T3. (AB)
T
= B
T
A
T
.
2.2. Determinante 35
Una matrice A, necessariamente quadrata, viene detta simmetrica se A = A
T
e
antisimmetrica se A = A
T
.
Esercizio 2.2 Vericare che se A M
n
(K) allora A
T
A `e simmetrica.
Le matrici
(2.1) A
S
=
A+A
T
2
e A
W
=
AA
T
2
vengono dette rispettivamente parte simmetrica e parte antisimmetrica di A.
La prima di esse `e simmetrica, la seconda `e antisimmetrica e A = A
S
+ A
W
.
La decomposizione di una matrice in somma della sua parte simmetrica con
quella antisimmetrica `e unica, infatti se A = S + W, con S simmetrica e W
antisimmetrica, considerando accanto a questa anche la relazione A
T
= S W,
per somma e dierenza membro a membro si ottiene la (2.1). Poiche lunica
matrice simmetrica e antisimmetrica allo stesso tempo `e 0, si ha M
n
(K) =
M
S
n
(K) M
W
n
(K), essendo M
S
e M
W
i sottospazi delle matrici simmetriche e
delle antisimmetriche rispettivamente.
La base canonica di M
mn
(K) `e quella formata dalle matrici che hanno una
sola componente che vale 1 e tutte le altre nulle. Allora dimM
mn
(K) = mn,
pari al numero di queste matrici. Nel caso delle matrici quadrate, il sottospazio
di quelle simmetriche ha come base canonica le matrici che hanno come com-
ponenti non nulle una sola componente pari a 1 sulla diagonale o due sole com-
ponenti pari a 1, o 1/

2 per normalizzazione, al di fuori dalla diagonale nei


posti ij e ji. Analoga la base canonica del sottospazio di quelle antisimmet-
riche, formata dalle matrici che hanno ad esempio 1, o 1/

2, nel posto ij e il
valore opposto nel posto ji e naturalmente sempre 0 altrove e sulla diagonale
principale. Le rispettive dimensioni sono n(n + 1)/2 e n(n 1)/2.
2.2 Determinante
Vogliamo costruire una funzione, il determinante, che ad ogni matrice
A M
n
(K) associa uno scalare det A K con certe propriet`a. Allo scopo con-
viene introdurla come una funzione degli n vettori riga A
i
= (a
i1
, a
i2
, . . . , a
in
)
o, in modo come vedremo del tutto equivalente, degli n vettori colonna A
i
=
(a
1i
, a
2i
, . . . , a
ni
), i = 1, 2, . . . , n. Scritta la matrice estesamente nelle sue com-
ponenti (a
ij
), il determinante si indica anche sostituendo le parentesi tonde con
le barre verticali. Tanto per ssare le idee, vediamo il determinante per righe
det(A
1
, A
2
, . . . , A
n
)
come una funzione soggetta alle seguenti propriet`a:
(det)1. il determinante `e lineare in ogni vettore, diciamo per questo multilineare
det(A
1
, A
2
, . . . , A

i
+A

i
, . . . , A
n
)
= det(A
1
, A
2
, . . . , A

i
, . . . , A
n
) +det(A
1
, A
2
, . . . , A

i
, . . . , A
n
) ;
36 Capitolo 2. Matrici
(det)2. il determinante `e nullo se due righe sono uguali;
(det)3. det I = 1.
Conseguenze:
(a) il determinante `e alternante, scambiando due righe il determinante cambia
segno, infatti se alli-esimo e al j-esimo posto compare la somma A
i
+A
j
si ha
det(A
1
, . . . , A
i
+A
j
. .
posto i
, . . . , A
i
+A
j
. .
posto j
, . . . , A
n
) = 0 ,
daltra parte per linearit`a
det(A
1
, . . . , A
i
+A
j
, . . . , A
i
+A
j
, . . . , A
n
)
= det(A
1
, . . . , A
i
, . . . , A
j
, . . . , A
n
) + det(A
1
, . . . , A
j
, . . . , A
i
, . . . , A
n
) ,
da cui la tesi;
(b) se una riga `e combinazione lineare delle altre il determinante `e nullo, basta
osservare che
det(A
1
, . . . ,
posto i
..
n

j=1
j=i

j
A
j
, . . . , A
n
) =
n

j=1
j=i

j
det(A
1
, . . . ,
posto j
..
A
j
, . . . , A
n
) = 0
perche in ogni termine di questa somma la riga A
j
compare sempre anche
alli-esimo posto;
(c) se ad una riga si somma una combinazione lineare delle altre il deter-
minante non cambia, basta tener presente che al posto i-esimo compare
lespressione
A
i
+
n

j=1
j=i

j
A
j
e poi applicare la (b).
Ora, ogni vettore riga `e combinazione lineare dei vettori e
h
della base canonica
di K
n
(2.2) A
i
=
n

h=1
a
ih
e
h
e se indichiamo con h
1
lindice della somma (2.2) per la A
1
, con h
2
lindice per
la A
2
e cos` via, si perviene allespressione
det(A
1
, . . . , A
n
) = det
_
n

h1=1
a
1h
1
e
h
1
, . . . ,
n

hn=1
a
nh
n
e
h
n
_
=
n

h
1
,h
2
,...,h
n
=1
a
1h
1
a
2h
2
a
nh
n
det(e
h
1
, e
h
2
, . . . , e
h
n
) .
(2.3)
2.2. Determinante 37
Che relazione c`e tra det(e
h
1
, e
h
2
, . . . , e
h
n
) e det(e
1
, e
2
, . . . , e
n
) che vale 1 per la
(det)3.? Le righe sono le stesse ma ordinate in maniera diversa, a seconda dei
valori degli h
i
. Se escludiamo che due indici h
i
e h
j
possano assumere lo stesso
valore se i ,= j, dato che in questo caso il contributo dato nellultima somma
della (2.3) sarebbe nullo, siamo di fronte ad una permutazione degli indici, cio`e
ad una applicazione iniettiva : 1, 2, . . . , n 1, 2, . . . , n che associa ad
ogni valore dellindice i = 1, . . . , n il valore (i) = h
i
, anchesso variabile tra 1
e n. Poiche dalle (det)1. (det)3. segue che
det(e
h
1
, e
h
2
, . . . , e
h
n
) =
_
det(e
1
, e
2
, . . . , e
n
) = 1
det(e
1
, e
2
, . . . , e
n
) = 1
a seconda che la permutazione i h
i
preveda un numero pari o un numero
dispari di sostituzioni, cio`e di semplici scambi tra due righe, in termini della
corrispondente segnatura (), che vale 1 nel caso pari e 1 nel caso dispari, la
(2.3) diventa
(2.4) det(A
1
, . . . , A
n
) =

()a
1(1)
a
2(2)
a
n(n)
dove la somma `e estesa a tutte le n! permutazioni dei numeri 1, . . . , n.
Per n = 2 vi sono 2! = 2 permutazioni
_
(1) = 1
(2) = 2
e
_

(1) = 2

(2) = 1
delle quali la prima `e lidentit`a e la seconda `e uno scambio, quindi

a
11
a
12
a
21
a
22

= ()a
1(1)
a
2(2)
+(

)a
1

(1)
a
2

(2)
= a
11
a
22
a
12
a
21
.
Una permutazione si indica di solito in questo modo
_
1 2 . . . n
(1) (2) . . . (n)
_
.
Per n = 3 vi sono 3! = 6 permutazioni, le 3 pari
_
1 2 3
1 2 3
_
,
_
1 2 3
2 3 1
_
,
_
1 2 3
3 1 2
_
e le 3 dispari
_
1 2 3
2 1 3
_
,
_
1 2 3
3 2 1
_
,
_
1 2 3
1 3 2
_
da cui

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

()a
1(1)
a
2(2)
a
3(3)
= a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32
a
12
a
21
a
33
a
13
a
22
a
31
a
11
a
23
a
32
.
38 Capitolo 2. Matrici
Particolarmente comoda, ma solo in questo caso con n = 3, `e la regola di Sarrus
che consiste nel riportare a destra le prime due colonne
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

a
11
a
12
a
21
a
22
a
31
a
32
_
_
e sommare i prodotti dei termini sulle 3 diagonali NO-SE con gli opposti di
quelli lungo le 3 diagonali NE-SO.
Osserviamo che il gruppo delle permutazioni `e anche il gruppo delle loro in-
verse. Allora, se nella (2.4) riordiniamo i singoli fattori del prodotto a
1(1)
a
2(2)
a
n(n)
in modo che come secondi indici compaiano i numeri 1, 2, . . . , n, posto =
1
,
si ottiene
det A =

()a
1(1)
a
2(2)
a
n(n)
=

()a
(1)1
a
(2)2
a
(n)n
= det A
T
.
Dunque il determinante per colonne coincide col determinante per righe e det A =
det A
T
.
Nella pratica calcolare il determinante applicando la (2.4) non `e molto sem-
plice, ma non si tratta dellunico metodo, ne esistono altri pi` u convenienti che
ora vediamo. Sfruttando la linearit`a possiamo intanto ridurre la (2.4) ad una
combinazione lineare di n somme di quel tipo, ma con permutazioni su n 1
elementi invece che su n. Con riferimento alla prima riga, ma tenendo presente
che ci`o che diciamo vale allo stesso modo per qualunque riga o qualunque colon-
na, esprimiamo intanto A
1
come combinazione lineare dei vettori e
h
della base
canonica e applichiamo la (det)1. ottenendo
(2.5) det A = det
_
n

h=1
a
1h
e
h
, A
2
, . . . , A
n
_
=
n

h=1
a
1h
det(e
h
, A
2
, . . . , A
n
) .
Se adesso applichiamo la (2.4) ad ogni determinante che compare in questa
somma, osservando che lunica componente non nulla della prima riga e
h
`e 1
allh-esimo posto, possiamo supporre (1) = h volendo tralasciare i termini
nulli. Si ottiene cos`
(2.6) det(e
h
, A
2
, . . . , A
n
) =

(1)=h
()a
2(2)
a
n(n)
.
Inoltre nessun (i) pu`o valere h se i > 1 per liniettivit`a delle permutazioni,
quindi nella h-esima colonna possiamo sostituire 0 agli a
ih
per i > 1, cio`e dalla
seconda riga in gi` u, senza alterare il valore del determinante. Ad esempio

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

= a
11

1 0 0
a
21
a
22
a
23
a
31
a
32
a
33

+a
12

0 1 0
a
21
a
22
a
23
a
31
a
32
a
33

+a
13

0 0 1
a
21
a
22
a
23
a
31
a
32
a
33

= a
11

1 0 0
0 a
22
a
23
0 a
32
a
33

+a
12

0 1 0
a
21
0 a
23
a
31
0 a
33

+a
13

0 0 1
a
21
a
22
0
a
31
a
32
0

.
2.2. Determinante 39
Il determinante della matrice A

ij
, che si ottiene sostituendo 1 allelemento a
ij
e
0 agli altri elementi della i-esima riga e della j-esima colonna, si chiama cofattore
di a
ij
. Si ottiene cos` dalle (2.5) e (2.6) lo sviluppo per cofattori del determinante
(2.7) det A =
n

j=1
a
kj
A

kj
rispetto alla k-esima riga. Naturalmente possiamo usare anche una colonna e il
suo valore `e indipendente dalla riga o dalla colonna scelta.
Si chiama minore A
ij
la matrice quadrata di ordine n 1 che si ottiene
cancellando la i-esima riga e la j-esima colonna.
`
E evidente dalla (2.6) per
h = 1 che
det(e
1
, A
2
, . . . , A
n
) = det A
11
perche ogni permutazione di 1, 2, . . . , n tale che (1) = 1 `e anche una per-
mutazione di 2, . . . , n con la stessa segnatura e, viceversa, ogni permutazione
di questultimo insieme pu`o essere prolungata a 1 senza alterarne la segnatura
ponendo (1) = 1. Ad esempio

1 0 0
0 a
22
a
23
0 a
32
a
33

a
22
a
23
a
32
a
33

.
Se invece si considera un generico cofattore del tipo A

ij
possiamo portare la
i-esima riga e la j-esima colonna in prima posizione, attraverso successive sosti-
tuzioni, in modo da ridurre A

ij
alla forma A

11
, ma ad ogni passo avviene un cam-
biamento di segno per un totale di i+j sostituzioni. Allora A

ij
= (1)
i+j
det A
ij
e dalla (2.7) si ottiene lo sviluppo di Laplace del determinante
(2.8) det A =
n

j=1
(1)
k+j
a
kj
det A
kj
usando i minori relativi alla k-esima riga.
Il vantaggio di questo metodo consiste nel fatto che, a partire dalle matrici di
ordine 2, si pu`o facilmente arrivare a calcolare il determinante di ogni matrice.
Per iterazione della (2.8), o degli sviluppi precedenti, si ricava facilmente il
determinante di una matrice a blocchi diagonali
det
_
A 0
0 I
m
_
= det A
dove A M
n
(K), I
m
`e lidentit`a di M
m
(K) e 0 `e una matrice di zeri.
Torniamo un momento alla (2.4) per dimostrare il seguente importante
risultato.
Teorema 2.1 di Binet - Se A, B M
n
(K) allora
det(AB) = det Adet B.
40 Capitolo 2. Matrici
Dimostrazione. Indichiamo con B
j
la j-esima riga della matrice B = (b
ij
)
B
j
=
n

h=1
b
jh
e
h
per la (2.2). La matrice prodotto scritta per righe `e
AB =
_
_
n

j
1
=1
a
1j1
B
j1
, . . . ,
n

j
n
=1
a
njn
B
jn
_
_
e passando al determinante, posto j
h
= (h) e portati fuori i simboli di somma,
si ottiene
det(AB) =

a
1(1)
a
n(n)
det(B
(1)
, . . . , B
(n)
)
=

a
1(1)
a
n(n)
() det(B
1
, . . . , B
n
) = det Adet B.
2
Adesso possiamo calcolare il determinante di ogni matrice diagonale a blocchi.
Se A M
n
(K) e B M
m
(K) allora
det
_
A 0
0 B
_
= det
__
A 0
0 I
m
__
I
n
0
0 B
__
= det
_
A 0
0 I
m
_
det
_
I
n
0
0 B
_
= det Adet B
Una matrice A = (a
ij
) M
n
(K) viene detta triangolare superiore se a
ij
= 0
per i > j e triangolare inferiore se a
ij
= 0 per i < j. Il metodo di Gauss-
Jordan consiste nel sommare ripetutamente, ad opportune righe o a colonne di
una matrice, combinazioni lineari delle altre no a ridurla alla forma triango-
lare inferiore o superiore. Come abbiamo visto queste operazioni non alterano
il valore del determinante, col vantaggio che di fronte alla forma triangolare il
calcolo del determinante `e immediato, non `e altro che il prodotto degli elementi
della diagonale principale. Per vederlo riprendiamo la (2.4) nel caso triangolare
inferiore, laltro `e analogo. Volendo tralasciare i termini nulli, possiamo con-
siderare nella sommatoria soltanto le permutazioni tali che (i) i. Quindi
(1) = 1,
(2) 2 e (2) ,= 1 (2) = 2
(3) 3 e (3) ,= 1, 2 (3) = 3
e cos` via ottenendo (i) = i per ogni i = 1, . . . , n. Lo stesso vale, in particolare,
per una matrice diagonale, cio`e con gli elementi tutti nulli fuori dalla diagonale
principale.
2.3. Sistemi lineari, matrice inversa 41
2.3 Sistemi lineari, matrice inversa
Consideriamo per il momento un sistema lineare a n equazioni e n incognite
del tipo
(2.9)
_

_
a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+. . . +a
2n
x
n
= b
2
.
.
. =
.
.
.
a
n1
x
1
+a
n2
x
2
+. . . +a
nn
x
n
= b
n
.
In termini di A = (a
ij
) M
n
(K), detta matrice dei coecienti, il vettore delle
incognite x = (x
1
, . . . , x
n
) K
n
e il vettore dei dati b = (b
1
, . . . , b
n
) K
n
,
possiamo scrivere il sistema (2.9) nella forma pi` u sintetica
(2.10) Ax = b .
Considerando invece unaltra forma ancora equivalente
(2.11)
_
_
_
_
_
a
11
a
21
.
.
.
a
n1
_
_
_
_
_
x
1
+
_
_
_
_
_
a
12
a
22
.
.
.
a
n2
_
_
_
_
_
x
2
+ +
_
_
_
_
_
a
1n
a
2n
.
.
.
a
nn
_
_
_
_
_
x
n
=
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
,
`e evidente che esistono soluzioni x del sistema se e solo se b `e combinazione
lineare delle colonne A
j
di A. In particolare la soluzione esiste ed `e unica
per ogni b K
n
se e solo se tali colonne sono linearmente indipendenti, che
essendo in tutto n, `e condizione necessaria e suciente anche formino una
base di K
n
. Supponiamo allora det A ,= 0, suciente per lindipendenza lineare
delle colonne, e sia x K
n
lunica soluzione del sistema. Se adesso inseriamo
il vettore b, espresso dalla combinazione lineare (2.11), al posto della j-esima
colonna della matrice A e ne calcoliamo il determinante, si ottiene
det(A
1
, . . . , A
j1
, b, A
j+1
. . . , A
n
)
= det(A
1
, . . . , A
j1
,
n

h=1
A
h
x
h
, A
j+1
. . . , A
n
) =
n

h=1
x
h
det(A
1
, . . . , A
h
, . . . A
n
)
= x
j
det(A
1
, . . . , A
j
, . . . A
n
) = x
j
det A
da cui si ricava la Regola di Cramer
(2.12) x
j
=
det(A
1
, . . . , A
j1
, b, A
j+1
, . . . A
n
)
det A
j = 1, 2, . . . , n
che fornisce i valori delle incognite.
Vi sono due casi degeneri quando le n colonne di A, non formando una
base, generano un sottospazio proprio di K
n
. Se b non appartiene a questo
sottospazio non esistono soluzioni e il sistema si dice incompatibile. Altrimenti,
42 Capitolo 2. Matrici
nel caso compatibile, ve ne sono innite perche in inniti modi si pu`o scrivere
un vettore come combinazione lineare di vettori dipendenti.
Come applicazione della Regola di Cramer, vogliamo costruire la matrice
inversa, che denoteremo con A
1
, di una matrice A M
n
(K). Siccome il
prodotto non `e commutativo dobbiamo prevedere leventuale esistenza di unin-
versa destra B tale che AB = I e di uninversa sinistra C tale che CA = I, in
seguito facciamo vedere che in realt`a coincidono. Dal Teorema di Binet segue
comunque che linversa di A, destra o sinistra che sia, pu`o esistere a condizione
che sia det A ,= 0, dato che AB = I implica
det Adet B = det(AB) = det I = 1
e nessuno dei due fattori a I membro pu`o essere nullo. Occupiamoci allora
dellinversa destra B con lipotesi det A ,= 0. Lidentit`a I `e formata dai vettori
colonna e
1
, . . . , e
n
, scegliamo tra questi il generico e
h
e risolviamo il sistema
lineare
AB
h
= e
h
.
La (2.12) ci fornisce la j-esima componente b
jh
di B
h
(2.13) b
jh
=
det(A
1
, . . . , A
j1
, e
h
, A
j+1
, . . . A
n
)
det A
= (1)
j+h
det A
hj
det A
dato che il vettore e
h
gura nella j-esima colonna.
Vediamo adesso che linversa sinistra coincide con linversa destra. Poiche,
sempre per Binet, si ha det B = (det A)
1
,= 0, anche B ammette uninversa
destra, indichiamola con C. Si ha
C = IC = (AB)C = A(BC) = AI = A,
ma se linversa destra di B coincide con A signica che BA = I, quindi B `e
anche linversa sinistra di A e a questo punto pu`o essere indicata con A
1
senza
ambiguit`a.
Concludiamo osservando che il prodotto di due matrici invertibili A, B
M
n
(K) `e invertibile, ma questo discende da Binet, e che (AB)
1
= B
1
A
1
,
infatti
(B
1
A
1
)(AB) = B
1
(A
1
A)B = B
1
B = I .
Inne, osservando la (2.13) si capisce facilmente che il passaggio alla trasposta
e allinversa commutano, ma si pu`o veriare anche direttamente
(A
1
)
T
A
T
= (AA
1
)
T
= I ,
da cui
(A
T
)
1
= (A
1
)
T
.
2.4. Sistemi lineari, rango 43
2.4 Sistemi lineari, rango
Ci occupiamo adesso di sistemi lineari pi` u generali del (2.11), a m equazioni
e n incognite, del tipo
(2.14)
_

_
a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+. . . +a
2n
x
n
= b
2
.
.
. =
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
= b
m
che naturalmente possiamo ancora scrivere come in (2.10), ma con A M
mn
(K),
b K
m
e, come sopra, x K
n
. Anche questa volta conviene considerare
lanalogo della (2.11)
_
_
_
_
_
a
11
a
21
.
.
.
a
m1
_
_
_
_
_
x
1
+
_
_
_
_
_
a
12
a
22
.
.
.
a
m2
_
_
_
_
_
x
2
+ +
_
_
_
_
_
a
1n
a
2n
.
.
.
a
mn
_
_
_
_
_
x
n
=
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
,
o in forma pi` u compatta
(2.15)
n

j=1
A
j
x
j
= b ,
ma dobbiamo tener presente che le colonne A
j
dei coecienti a I membro sono
n vettori in K
m
. Nella (2.15) si chiede di esprimere un dato vettore b K
m
come combinazione lineare degli n vettori A
j
, da questo dipende lesistenza di
soluzioni x K
n
, che `e ci`o che veramente ci interessa di un sistema. Dunque
condizione necessaria e suciente anche il sistema sia compatibile
`e che b appartenga allo spazio generato dai vettori A
j
.
Ma il pi` u grande sottoinsieme indipendente di A
1
, A
2
, . . . , A
n
genera lo stesso
sottospazio, e ne `e quindi una base, perche gli altri elementi dipendono linear-
mente da essi. Si tratta a questo punto di controllare se inserendo anche b in
questa lista pi` u ristretta si ottiene un sistema dipendente o indipendente. Nel
primo caso b `e combinazione lineare dei vettori della base e il sistema lineare
ammette soluzioni, nel secondo b `e indipendente da essi e il sistema non ha
soluzioni.
Denizione 2.2 - Si chiama rango, o caratteristica, per colonne, della
matrice A il massimo numero di colonne di A linearmente indipendenti.
Analoga denizione vale per il rango per righe, ma nel prossimo paragrafo si
dimostra che il rango per righe coincide col rango per colonne. Lo possiamo
quindi n da ora chiamarlo rango e indicarlo con rank senza causare ambiguit`a.
44 Capitolo 2. Matrici
Denizione 2.3 - La matrice ottenuta da A aggiungendo a destra il vettore
colonna b si chiama matrice completa del sistema lineare e si indica con (A[b).
Per analogia, in questo contesto, la A prende il nome di matrice incompleta.
Quanto detto sopra si pu`o riassumere col seguente teorema.
Teorema 2.4 di Rouche-Capelli - Il sistema lineare (2.14) `e compatibile se
e solo se
rank(A[b) = rank A.
Facilmente si prova il seguente risultato.
Proposizione 2.5 Il rango di una matrice qualsiasi `e lordine della pi` u
grande sottomatrice quadrata che ha determinante non nullo.
Esempi:
2.1 Risolvere il sistema lineare
_
x
1
x
2
+ 2x
3
= 0
x
1
+ 2x
2
x
3
= 3 .
Dovendo lavorare esclusivamente sui coecienti, `e sempre conveniente passare
alla forma matriciale
_
1 1 2
1 2 1
_
_
_
x
1
x
2
x
3
_
_
=
_
0
3
_
.
Si nota che
rank
_
1 1 2
1 2 1
_
= rank
_
1 1 2
1 2 1

0
3
_
= 2 ,
in questo caso infatti tutte i minori 2 2 sono non singolari. Ne segue che il
sistema ammette soluzioni. Per trovarle non c`e che esprimere due delle incognite
in funzione della terza che, considerata come un parametro, va a far parte del
dato a II membro. Ponendo ad esempio x
3
= t, ci si trova di fronte al sistema
non singolare di tipo 2 2
_
x
1
x
2
= 2t
x
1
+ 2x
2
= t + 3
che per ogni t K ammette soluzione unica da quanto visto nel precedente
a proposito del metodo di Cramer. Naturalmente le soluzioni del sistema dato
sono innite perche dipendono da t
x = (1 t, t + 1, t) t K ,
diciamo in questo caso
1
perche dipendono da un solo parametro.
2.4. Sistemi lineari, rango 45
Dal punto di vista geometrico `e interessante osservare che il sistema dato
descrive lintersezione di due piani, non paralleli perche rank A = 2, e le soluzioni
formano la retta lungo cui si intersecano. Lintersezione dei due piani `e un doppio
vincolo per il punto x, il cui grado di libert`a `e infatti 1 = 3 2, pari al numero
di parametri indipendenti da cui dipende.
2.2 Risolvere il sistema lineare
_
3x
1
+ 6x
2
3x
3
= 9
x
1
+ 2x
2
x
3
= 3 .
Anche in questo caso vi sono soluzioni in quanto
rank
_
3 6 3
1 2 1
_
= rank
_
3 6 3
1 2 1

9
3
_
= 1 ,
Ma il rango, comune alla matrice completa e incompleta, non `e il massimo possi-
bile, una equazione `e superua e i due piani coincidono. Il sistema `e equivalente
alla sola equazione
x
1
+ 2x
2
x
3
= 3
con
2
soluzioni, i punti del piano, che si possono descrivere scegliendo questa
volta due delle incognite come parametri
x = (3 2t +s, t, s) (t, s) K
2
.
Siamo di fronte ad un solo vincolo, un vincolo semplice, e quindi 2 gradi di
libert`a.
2.3 Risolvere il sistema lineare
_
x
1
+ 2x
2
x
3
= 2
x
1
+ 2x
2
x
3
= 3 .
Questo sistema non ha soluzioni perche
rank
_
1 2 1
1 2 1
_
= 1 e rank
_
1 2 1
1 2 1

2
3
_
= 2 .
I due piani sono paralleli e distinti ed hanno quindi intersezione vuota.
Negli esempi precedenti m = 2 < n = 3, vediamo adesso i casi con m = 3 >
n = 2. Non vi sono poi dicolt`a concettuali nel passaggio a m e n pi` u grandi.
2.4 Risolvere il sistema
_

_
x
1
x
2
= 3
x
1
+x
2
= 5
x
1
+ 2x
2
= 6 .
46 Capitolo 2. Matrici
Le due matrici, completa e incompleta
A =
_
_
1 1
1 1
1 2
_
_
e (A[b) =
_
_
1 1
1 1
1 2

3
5
6
_
_
hanno rango 2, quindi il sistema ha soluzione. Risolto il sistema formato dalle
prime due, che ammette lunica soluzione x = (4, 1), la terza `e compatibile con
esse, non aggiunge nuove informazioni e pu`o essere eliminata. Si tratta di tre
rette nel piano che si incontrano nello stesso punto. Lanalogo in dimensione
maggiore potrebbe essere quello di tre piani che hanno in comune una retta.
2.5 Risolvere il sistema
_

_
x
1
x
2
= 3
x
1
+x
2
= 5
x
1
+ 2x
2
= 0 .
In questo caso la terza `e incompatibile con le altre due e il sistema non am-
mette soluzioni. Del resto, la matrice incompleta ha ancora rango 2, il massimo
possibile, ma quella completa ha rango 3 (essendo quadrata signica che ha
determinante non nullo). Rimangono i casi di tre equazioni equivalenti, geo-
metricamente tre rette coincidenti, le due matrici hanno rango 1, e i casi di
non esistenza della matrice incompleta con rango 1, tre rette parallele, e quella
completa con rango 2, due di esse coincidenti, o con rango 3, tutte distinte.
2.5 Il rango di una matrice
Sia data una matrice A M
mn
(K). Gli m vettori riga A
1
, . . . , A
m
gen-
erano uno spazio vettoriale di dimensione h minm, n (h m perche m
vettori non possono generare uno spazio di dimensione maggiore a m, h n
perche i vettori riga hanno n componenti e come tali possono essere scritti come
combinazione lineare di una base canonica di n versori e
1
, . . . , e
n
).
Analogamente Gli n vettori colonna A
1
, . . . , A
n
generano uno spazio vetto-
riale di dimensione k minm, n.
A priori le dimensioni di questi due spazi vettoriali, quello generato dalle
righe e quello generato dalle colonne, potrebbero essere diverse. Scopo di questo
paragrafo `e dare una dimostrazione del fatto che queste dimensioni coincidono.
Ricordiamo che le operazioni elementari sulle righe consistono nel sommare
ad una riga una combinazione lineare di altre righe, nel moltiplicare una riga per
uno scalare e nello scambio di due righe e che queste operazioni non cambiano
il sottospazio di K
m
generato dalle righe. La sua dimensione h viene chiamata
rango per righe della matrice A.
Le stesse considerazioni possono essere fatte per le colonne, la dimensione k
del sottospazio di K
n
da esse generato viene chiamata rango per colonne della
matrice A.
Dimostriamo quindi il seguente teorema.
2.5. Il rango di una matrice 47
Teorema 2.6 - Il rango per righe e il rango per colonne di una matrice
A M
mn
(K) coincidono.
Dimostrazione. Ragioniamo dapprima sulle righe. Con operazioni elemen-
tari sulle righe possiamo ridurre la matrice A a scala, cio`e tale che il primo
elemento non nullo di ogni riga (che chiamiamo lo scalino, noto anche come
pivot) sia situato pi` u a destra di tutti gli scalini delle righe che lo precedono. In
questo modo la matrice A `e stata trasformata in una matrice a scala R che ha
le prime h righe con almeno un elemento non nullo e le ultime mh righe che
sono completamente nulle.
Possiamo a questo punto estrarre da R una sottomatrice quadrata R

di ordine h,
formata con le prime h righe di R e con le colonne di R che contengono gli scalini.
R

`e una matrice triangolare superiore che ha tutti gli elementi diagonali non
nulli. Il suo determinante, che `e il prodotto degli elementi diagonali, `e quindi
diverso da zero. Daltronde qualunque sottomatrice quadrata di R di ordine
h + 1 ha certamente almeno una riga nulla e quindi ha determinante nullo.
Questi risultati valgono ovviamente anche per la matrice A: esiste un minore di
A di ordine h con determinante non nullo mentre tutti i minori di A di ordine
h + 1 hanno determinante nullo. (Si pu`o facilmente risalire alla sottomatrice
non singolare di A tenendo conto degli scambi di righe che hanno portato A in
R).
Analogo procedimento pu`o essere applicato alle colonne: mediante oper-
azioni elementari si trasforma A in una matrice a scala C che ha le prime k
colonne con almeno un elemento non nullo e le ultime n k colonne nulle. (Se
non si ha molta pratica con le operazioni elementari sulle colonne si pu`o in al-
ternativa trasformare A
T
in una matrice a scala con operazioni elementari sulle
righe e poi denire C come la trasposta della matrice cos` ottenuta).
Possiamo a questo punto estrarre da C una sottomatrice quadrata C

di ordine
k, formata con le prime k colonne di C e le righe di C che contengono gli scali-
ni. C

`e una matrice triangolare con tutti gli elementi diagonali non nulli e il
suo determinante `e diverso da zero. Daltronde qualunque sottomatrice di C di
ordine k +1 ha certamente almeno una colonna nulla e quindi ha determinante
nullo.
Questi risultati valgono ovviamente anche per la matrice A: esiste un minore
di A di ordine k non nullo con tutti i minori di ordine k +1 nulli. (Si pu`o facil-
mente risalire alla sottomatrice non singolare di A tenendo conto degli scambi
di colonne che hanno portato A in C).
Si capisce allora che deve essere h = k altrimenti c`e una contraddizione,
infatti le aermazioni: tutti i minori di A di ordine h +1 sono nulli e tutti i
minori di A di ordine k +1 sono nulli non sono in contraddizione solo se h = k.
2
Per il teorema precedente non ha pi` u senso distinguere il rango per righe dal
rango per colonne. Il valore comune dei ranghi per righe e per colonne di una
matrice A viene chiamato semplicemente rango della matrice A. Esso coincide
con la dimensione dello spazio vettoriale generato dalle righe di A o, indier-
48 Capitolo 2. Matrici
entemente, dalle colonne di A.
Immediata conseguenza del Teorema 2.6 `e il seguente risultato.
Teorema 2.7 di Kronecker - Se una matrice A ha rango h allora esiste un
minore di A di ordine h con determinante non nullo e tutti i minori di ordine
maggiore di h hanno determinante nullo. In altre parole il rango di A coincide
con il massimo ordine di un minore non degenere di A.
Talvolta il rango di una matrice A viene denito come il massimo ordine di un
minore non degenere di A.
Capitolo 3
Applicazioni lineari
3.1 Denizioni ed esempi
Spesso in Matematica ci si imbatte nello studio di determinate classi di
funzioni che conservano le strutture degli insiemi tra cui operano, si tratta di un
argomento di notevole interesse, sia a livello teorico che applicativo. Abbiamo
gi` a parlato per esempio alle isometrie come quelle applicazioni che conservano
la distanza, che quindi trasferiscono in qualche modo le propriet`a metriche
da uno spazio allaltro. Una classe molto pi` u generale di trasformazioni, di cui
le isometrie fanno parte, `e quella degli omeomorsmi tra spazi topologici, cio`e
delle applicazioni continue e invertibili con inversa continua. Queste conservano
gli intorni, gli aperti, i chiusi, i compatti e tutte le propriet`a topologiche degli
spazi, su cui si basano tra laltro anche le nozioni di limite e di convergenza.
Passando da questioni di natura geometrica allambito delle strutture alge-
briche, incontriamo le applicazioni che conservano le operazioni. Un esempio
gi`a ben noto `e quello dellesponenziale, che sia reale o complesso, come appli-
cazione che trasforma un gruppo additivo in un gruppo moltiplicativo in quanto
e
x+y
= e
x
e
y
(viceversa, dal prodotto nella somma, agisce in modo simile il log-
aritmo). La radice quadrata conserva il prodotto come funzione

: R
+
R
+
,
nel senso che

xy =

x

y.
Denizione 3.1 Siano (X, ) e (Y, ) due strutture algbriche con le oper-
azioni indicate e : X Y . Diciamo che `e un omomorsmo se
(x
1
x
2
) = (x
1
) (x
2
) x
1
, x
2
X .
Negli esempi precedenti, in cui si fa riferimento ad una sola operazione, ab-
biamo considerato degli omomorsmi di gruppi, ma si continua a parlare di
omomorsmi anche quando si ha a che fare con pi` u operazioni, come accade
con gli anelli, i corpi, gli spazi vettoriali e altri ancora. Ogni omomorsmo `e
soggetto alla Denizione 3.1 per ciascuna operazione. In generale viene usato il
termine isomorsmo per un omomorsmo bigettivo, endomorsmo se X = Y ,
49
50 Capitolo 3. Applicazioni lineari
automorsmo per un endomorsmo bigettivo. Un nome speciale `e riservato agli
omomorsmi tra spazi vettoriali.
Denizione 3.2 Siano U e V due spazi vettoriali sul corpo K. Chiameremo
applicazione lineare un omomorsmo T : U V . Precisamente, T deve
soddisfare le propriet`a
T(u
1
+u
2
) = T(u
1
) +T(u
2
) u
1
, u
2
U
T(u) = T(u) u U e K
che si possono riassumere nellunica propriet`a (equivalente alle precedenti)
(3.1) T(
1
u
1
+
2
u
2
) =
1
T(u
1
) +
2
T(u
2
) u
1
, u
2
U e , K .
Alla T rimangono associati due insiemi notevoli, il nucleo e limmagine, rispet-
tivamente
N(T) = u U [ T(u) = 0 e T(U) = v V [ u U : v = T(u) .
Verichiamo che questi due insiemi sono sottospazi vettoriali rispettivamente di
U e di V . Se u
1
, u
2
N(T) e
1
,
2
K allora per la (3.1) si ha
T(
1
u
1
+
2
u
2
) =
1
T(u
1
) +
2
T(u
2
) = 0
e quindi
1
u
1
+
2
u
2
N(T).
Se v
1
, v
2
T(U), scelti u
1
, u
2
tali che v
i
= T(u
i
), si ha

1
v
1
+
2
v
2
=
1
T(u
1
) +
2
T(u
2
) = T(
1
u
1
+
2
u
2
) V .
Il nucleo non `e mai vuoto perche qualunque sia la T lineare si ha sempre
T(0) = 0; quando N(T) contiene solo lelemento 0 diciamo che N(T) `e ba-
nale.
Esempi
3.1 Lapplicazione T : U V identicamente nulla
T(u) = 0 u U
`e lineare, N(T) = U e T(U) = 0.
3.2 Lidentit`a I : U U cos` denita
I(u) = u u U
e la simmetria centrale I sono endomorsmi, il loro nucleo `e banale e ovvia-
mente I(U) = U. Se U V e lidentit`a `e vista come applicazione I : U V
allora viene talvolta chiamata inclusione o anche immersione.
3.1. Denizioni ed esempi 51
3.3 Pi` u in generale, dato k K, `e lineare anche la funzione kI, cio`e la T :
U U denita da
T(u) = ku u U
ed `e unomotetia di centro 0 per k > 0 (una dilatazione se k > 1, una
contrazione se k < 1 e lidentit`a se k = 1); T `e unomotetia composta con la
simmetria centrale per k < 0. In questi casi il nucleo `e banale, a meno che
non sia k = 0 che `e il caso dellapplicazione nulla.
La forza lineare elastica F(r) = kr `e di questo tipo.
3.4 Visto K come uno spazio vettoriale su se stesso, consideriamo le appli-
cazioni lineari T : K K. Esse sono tutte e sole le funzioni del tipo
T(u) = au u K ,
infatti quelle di questo tipo sono ovviamente lineari e, viceversa, se T `e lineare
allora
T(u) = T(1u) = T(1)u = au u K
dove a = T(1). Lo stesso ragionamento pu`o essere applicato per caratterizzare
tutte le applicazioni R-lineari T : R R o C-lineari T : C C ottenendo nei
due casi
T(x) = ax x R o T(z) = cz z C
dove a = T(1) o c = T(1).
3.5 Ogni spazio vettoriale U di dimensione n sul corpo K `e isomorfo a K
n
.
Lisomorsmo dipende dalla base scelta in U. Per costruirlo basta associare ad
ogni elemento u U ln-upla delle sue componenti. Vericare per esercizio che
si tratta eettivamente di un isomorsmo.
Caratterizziamo adesso le applicazioni lineari T : K
n
K
m
. Esprimiamo nel
solito modo i vettori u e v nei due spazi come combinazioni lineari degli elementi
delle rispettive basi canoniche e
j
in K
n
e f
i
in K
m
u =
n

j=1
u
j
e
j
e v =
m

i=1
v
i
f
i
.
Posto v = T(u) si ottiene
v
i
= T(u) f
i
= f
i
T
_
_
n

j=1
u
j
e
j
_
_
=
n

j=1
f
i
T(e
j
)u
j
.
Introduciamo allora la matrice ad m righe e n colonne di componenti
a
ij
= f
i
T(e
j
) , i = 1, . . . , m, j = 1, . . . , n,
52 Capitolo 3. Applicazioni lineari
che si ottiene disponendo in colonna, ordinatamente, le immagini T(e
j
) degli
elementi della base canonica. In componenti, la relazione funzionale v = T(u)
diventa
(3.2) v
i
=
n

j=1
a
ij
u
j
i = 1, . . . , m.
Denizione 3.3 Unapplicazione lineare T : U K si chiama forma lin-
eare o funzionale lineare su U. Linsieme dei funzionali lineari su U si
chiama duale di U e si indica con U

.
Per m = 1 la (3.2) fornisce in particolare la rappresentazione
(3.3) T(u) =
n

i=1
a
i
u
i
= a u
di una forma lineare su K
n
in termini del prodotto scalare con un opportuno
elemento di K
n
e, viceversa, le forme lineari sono tutte di questo tipo. La cor-
rispondenza biunivoca stabilita dalla (3.3), tra un elemento di U e un elemento
del suo duale, `e un isomorsmo e ci permette di identicare U con U

.
Considerando C
n
come spazio vettoriale sul corpo C, nello stesso modo
si costruiscono le applicazioni lineari T : C
n
C
m
in termini di matrici a
coecienti complessi.
Come inuisce sulla natura delle applicazioni lineari considerare C
n
come
spazio vettoriale complesso di dimensione n o come spazio reale di dimensione
2n? Le applicazioni C-lineari sono quelle a coecienti c
ij
C, del tipo T(z) =

j
c
ij
z
j
con z C
n
, mentre le R-lineari sono quelle denite su C
n
ma pensato
come R
2n
. Vediamo il caso semplice con n = 1. Separando la parte reale dalla
parte immaginaria nella relazione
w = cz = (a +ib)(x +iy) = ax by +i(bx +ay) ,
posto w = u +iv, si ottiene
(3.4)
_
u
v
_
=
_
a b
b a
__
x
y
_
da cui risulta evidente che non tutte le applicazioni R-lineari su R
2
sono anche
C-lineari, ma solo quelle del tipo (3.4) che sono le omotetie composte con le
rotazioni. Infatti, posto
cos =
a

a
2
+b
2
e sen =
b

a
2
+b
2
,
possiamo scrivere la (3.4) nella forma
(3.5)
_
u
v
_
=
_
a
2
+b
2
_
cos sen
sen cos
__
x
y
_
,
3.1. Denizioni ed esempi 53
dove il fattore di dilatazione, o di contrazione, non `e altro che [c[, mentre la
matrice pu`o essere identicata con cos +i sen = e
i
. In forma polare, posto
z = (cos +i sen ) = e
i
, si ottiene lanalogo in C
w = cz = [c[(cos +i sen )(cos +i sen ) = [c[(cos(+)+i sen(+)) = [c[e
i(+)
.
Esercizio 3.1 Vericare che
i =
_
0 1
1 0
_
e calcolare i
2
.
Gli esempi che seguono riguardano operatori lineari su spazi di funzioni.
3.6 Sullo spazio vettoriale delle funzioni f : R R ogni applicazione T del
tipo
T(f)(x) = f(x +) x R
viene detta traslazione. Le traslazioni sono lineari e il loro nucleo `e banale.
3.7 Sia I R un intervallo, x
0
I e C
0
(I) lo spazio vettoriale delle funzioni
continue su I. La funzione : C
0
(I) R denita da
(f) = f(x
0
) ,
detta delta di Dirac, `e un funzionale lineare. Il suo nucleo `e linsieme delle
f C
0
(I) tali che f(x
0
) = 0.
Esercizio 3.2 Le funzioni
f
_
I
f(x)dx e f
_
I
f(x)(x)dx
sono funzionali lineari sullo spazio delle funzioni integrabili, quali sono i rispet-
tivi nuclei?
Esercizio 3.3 La derivazione D(f) = f

, che associa ad ogni funzione


derivabile la sua derivata, `e unapplicazione lineare. Qual `e il suo nucleo se
il dominio `e un intervallo? E se il dominio `e ununione di intervalli?
Esercizio 3.4 Trovare il nucleo dellapplicazione lineare L : C
2
(R) C
0
(R)
denita da
L(u) = u

+au

+bu
al variare di a, b R.
54 Capitolo 3. Applicazioni lineari
3.8 Lapplicazione f

f = F(f) denita da

f() =
1

2
_
+

f(t)e
it
dt ,
sullo spazio delle funzioni assolutamente integrabili su R, `e lineare e si chiama
trasformata di Fourier. Similmente si denisce la trasformata di Laplace
L(f)(s) =
_
+
0
f(x)e
sx
dx.
3.9 Data una funzione limitata k(x, y) sul quadrato I I tale che y k(x, y)
sia integrabile per ogni x I, lapplicazione u T(u) denita da
T(u)(x) =
_
I
k(x, y)u(y)dy x I
`e un operatore integrale lineare sullinsieme delle funzioni integrabili (anche in
senso improprio) su I.
3.2 Lo spazio delle applicazioni lineari
Dati due spazi vettoriali U e V sul corpo K, indichiamo con L(U, V )
linsieme delle applicazioni lineari da U in V (con L(U) linsieme degli endo-
morsmi di U). Si verica facilmente che la somma tra applicazioni lineari e il
prodotto per scalari
(T
1
+T
2
)(u) = T
1
(u) +T
2
(u) e (T)(u) = T(u) u U
fanno di L(U, V ) uno spazio vettoriale su K. Si tratta nientaltro che delle
ben note operazioni, denite puntualmente, tra funzioni. Unaltra operazione,
in generale solo associativa, `e lusuale prodotto di composizione: scelte T
1

L(U, V ) e T
2
L(V, W), T
2
T
1
`e denita da
(T
2
T
1
)(u) = T
2
(T
1
(u)) u U .
Unapplicazione lineare T : U V rimane invariata se viene composta con le
identit`a I
U
L(U) a destra o I
V
L(V ) a sinistra
T I
U
= T e I
V
T = T T L(U, V ) .
Esercizio 3.5 Vericare che se T
1
L(U, V ) e T
2
L(V, W) allora T
2

T
1
L(U, W).
Esercizio 3.6 Dimostrare che, ssato T
0
L(U, V ), la funzione che asso-
cia ad ogni T L(V, W) la T T
0
`e lineare.
3.2. Lo spazio delle applicazioni lineari 55
In L(U) si possono denire le potenze
T
0
= I , T
n
= T T
n1
n 1 .
Esercizio 3.7 Dimostrare, con la propriet`a associativa, che
T
m
T
n
= T
m+n
per ogni m, n N.
Denizione 3.4 Si dicono nilpotenti le applicazioni lineari T per cui esiste
un esponente k N tale che T
k
= 0.
Come per le matrici, esistono applicazioni non nulle nilpotenti e non vale la
legge di annullamento del prodotto.
Teorema 3.5 (nullit`a + rango) - Per unapplicazione lineare T : U V
vale la seguente relazione
dimN(T) + dimT(V ) = dimV
che rimane vera anche se U ha dimensione innita, in tal caso deve essere
innita la dimensione di N(T) oppure di T(V ).
Dimostrazione. Supponiamo dapprima dimU = n < +. Se k = dimN(T) =
n la tesi `e vericata perche N(T) = U e T(U) = 0, per cui k = n e dimT(U) =
0. Se k = dimN(T) < n, scegliamo una base A
U
= a
1
, . . . , a
k
, a
k+1
, . . . , a
n

di U in modo che A
N(T)
= a
1
, . . . , a
k
sia una base di N(T) e dimostriamo
che A
T(U)
= T(a
k+1
), . . . , T(a
n
) `e una base di T(U).
A
T(U)
`e linearmente indipendente. Supponiamo che per certi
i
K, i =
k + 1, . . . , n, si abbia
n

i=k+1

i
T(a
i
) = 0
e dimostriamo che
i
= 0 per ogni i = k + 1, . . . , n. Per la linearit`a di T
T
_
n

i=k+1

i
a
i
_
= 0
e quindi
n

i=k+1

i
a
i
N(T) .
Allora esistono altri
i
, i = 1, . . . , k, tali che
n

i=k+1

i
a
i
=
k

i=1

i
a
i
,
56 Capitolo 3. Applicazioni lineari
cio`e
n

i=1

i
a
i
= 0 .
La tesi discende allora dallindipendenza lineare degli a
i
.
A
T(U)
`e un insieme di generatori. Dimostriamo che per ogni v T(U)
esistono
i
K, i = k + 1, . . . , n, tali che
v =
n

i=k+1

i
T(a
i
) .
Se v T(U) allora v = T(u) per qualche u U che quindi pu`o essere espresso
come combinazione lineare degli a
i
, pertanto
v = T(u) = T
_
n

i=1

i
a
i
_
=
n

i=1

i
T(a
i
) =
n

i=k+1

i
T(a
i
)
perche T(a
i
) = 0 per i = 1, . . . , k.
Nel caso dimU = +, se N(T) e T(U) avessero entrambi dimensione nita
k e r rispettivamente, esisterebbe, come prima, una base nita a
1
, . . . , a
k
di
N(T), ma anche altri vettori a
k+1
. . . , a
n
indipendenti con n > k + r. Da
quanto gi`a dimostrato i T(a
i
), i = k + 1, . . . , n, sarebbero indipendenti, ma in
numero maggiore di r = dimT(V ), assurdo, quindi almeno uno, N(T) o T(U)
deve avere dimensione innita.
2
Vediamo adesso alcune propriet`a delle applicazioni lineari iniettive.
Teorema 3.6 - Per unapplicazione lineare T : U V le seguenti propriet`a
sono equivalenti
(a) T `e iniettiva;
(b) N(T) `e banale;
(c) T conserva la dimensione, cio`e dimT(U) = dimU;
(d) T trasforma sistemi indipendenti in sistemi indipendenti;
(e) Se dimU = dimV < + allora T trasforma ogni base di U in una base
di V .
Dimostrazione. (a)(b) Se T `e iniettiva e T(u) = 0 allora u = 0, dunque
N(T) = 0.
(b)(a) Se N(T) = 0 e T(u
1
) = T(u
2
) allora T(u
1
u
2
) = 0, quindi u
1
u
2
=
0.
(b)(c) `e ovvio, basta ricordare che dimN(T) + dimT(U) = dimU.
(b)(d) Siano a
1
, . . . , a
h
linearmente indipendenti e
1
, . . . ,
h
tali che

1
T(a
1
) +. . . +
h
T(a
h
) = 0 .
Allora
T(
1
a
1
+. . . +
h
a
h
) = 0
3.3. Applicazioni lineari e matrici 57
e siccome il nucleo `e banale, si ha

1
a
1
+. . . +
h
a
h
= 0 ,
ne segue, per lindipendenza degli a
i
, che
i
= 0 per ogni i = 1, . . . , h.
(d)(b) Scelto u N(T), siano a
1
, . . . , a
h
linearmente indipendenti tali che
u =
1
a
1
+. . . +
h
a
h
. Poiche i T(a
1
), . . . , T(a
h
) sono lineramente indipendenti,
si ha
0 = T(u) = T(
1
a
1
+. . .+
h
a
h
) =
1
T(a
1
)+. . .+
h
T(a
h
)
i
= 0 i = 1, . . . , h,
quindi u = 0, cio`e il nucleo `e banale.
Lequivalenza con (e) `e a questo punto ovvia.
2
Il seguente corollario `e conseguenza immediata del Teorema 3.6.
Corollario 3.7 Se dimU = dimV < + allora T : U V `e iniettiva
se e solo se `e surgettiva. In particolare gli endomorsmi iniettivi sono anche
surgettivi e viceversa.
Unapplicazione lineare iniettiva T : U V ammette dunque inversa T
1
:
V U se si suppone che i due spazi abbiano la stessa dimensione (nita), caso
in cui V = T(U). Altrimenti, senza preoccuparci della dimensione, possiamo
sempre intenderla come applicazione da T(U) in U.
`
E evidente che se T `e lineare
lo `e anche T
1
: V U, infatti, scelti v
1
, v
2
V esistono u
1
, u
2
U tali che
v
i
= T(u
i
) e per ogni
1
,
2
K si ha
T
1
(
1
v
1
+
2
v
2
) = T
1
(
1
T(u
1
) +
2
T(u
2
)) = T
1
(T(
1
u
1
+
2
u
2
))
=
1
u
1
+
2
u
2
=
1
T
1
(v
1
) +
2
T
1
(v
2
) .
3.3 Applicazioni lineari e matrici
Scelta una base in ognuno degli spazi vettoriali di dimensione nita U e
V , ad ogni applicazione lineare T : U V rimane associata una matrice a
componenti scalari, vediamo in che modo. Siano A = a
i

1in
una base di U
e B = b
i

1im
una base di V . La componente lungo b
i
dellimmagine T(u)
di un vettore u U `e data da
(3.6) T(u)
i
= T
_
_
n

j=1
u
j
a
j
_
_
i
=
n

j=1
T(a
j
)
i
u
j
i = 1, . . . , m.
La (3.6) mostra che le m componenti T(u)
i
del vettore T(u) si ottengono molti-
plicando righe per colonne la matrice di componenti t
ij
= T(a
j
)
i
per le n com-
ponenti u
j
del vettore u. La matrice rappresentativa m(T) di unapplicazione
lineare T viene dunque ottenuta mettendo in colonna le immagini dei vettori
della base di U in componenti sulla base di V , la conoscenza delle due basi
58 Capitolo 3. Applicazioni lineari
e della matrice permette di ricostruire per linearit`a tutta lapplicazione medi-
ante la (3.6). Naturalmente, qualora V sia munito di prodotto scalare, se B `e
ortonormale le componenti di T sono t
ij
= b
i
T(a
j
).
Ritroviamo come caso particolare quello della rappresentazione di una forma
lineare, o funzionale lineare, cio`e di unapplicazione lineare su U a valori in
K considerato come spazio vettoriale unidimensionale. Allora le immagini dei
vettori della base sono gli n scalari T(a
j
) = t
j
(matrice a una riga e n colonne)
che, interpretati come le componenti di un vettore t K
n
, permettono di
rappresentare T mediante il prodotto scalare in K
n
T(u) = t u u U
con u scritto in componenti rispetto alla base. In generale, ad eccezione delle
applicazioni isotrope, cio`e del tipo T(u) = ku che ammettono sempre kI come
matrice rappresentativa qualunque sia la base, cambiando base cambia la ma-
trice rappresentativa e vedremo in che modo, ma una volta ssata la base, la
(3.6) stabilisce un isomorsmo tra L(U, V ) e lo spazio delle matrici mn che
sono le applicazioni lineari da K
n
in K
m
.
`
E evidente infatti che si tratta di una
corrispondenza biunivoca che conserva le operazioni
- se T
1
, T
2
L(U, V ) e
1
,
2
K allora
m(
1
T
1
+
2
T
2
) =
1
m(T
1
) +
2
m(T
2
) ;
- se T
1
L(U, V ) e T
2
L(V, W) allora
(3.7) m(T
2
T
1
) = m(T
2
)m(T
1
) .
Dimostriamo ad esempio la (3.7). Siano a
h

1hk
, b
j

1jn
e c
i

1im
delle basi in U, V e W rispettivamente. La matrice associata alla composizione
T
2
T
1
ha componenti
m(T
2
T
1
)
ih
= T
2
(T
1
(a
h
))
i
= T
2
_
_
n

j=1
T
1
(a
h
)
j
b
j
_
_
i
=
n

j=1
T
2
(b
j
)
i
T
1
(a
h
)
j
=
n

j=1
m(T
2
)
ij
m(T
1
)
jh
.
Dalla (3.7) discende che se T
1
esiste allora
m(T)m(T
1
) = m(T T
1
) = I ,
quindi m(T) `e una matrice invertibile e m(T
1
) = m(T)
1
e, viceversa, se m(T)
`e invertibile
m(T)m(T)
1
= I
e lapplicazione lineare che ha come rappresentazione la matrice m(T)
1
non
pu`o che essere linversa di T, quindi T `e invertibile.
3.3. Applicazioni lineari e matrici 59
Come varia la matrice rappresentativa di un operatore lineare al variare della
base? C`e una legge generale che ci permette di passare da una rappresentazione
allaltra? Utile in molte applicazioni `e il caso U = V degli endomorsmi, quindi
con T L(U), con la stessa base nel dominio e nel codominio. Noi ci limiteremo
per semplicit`a a questo caso, ma con semplici varianti si pu`o adattare la formula
del cambiamento di base al caso pi` u generale di spazi U e V distinti con le relative
basi indipendenti luna dallaltra.
Consideriamo dapprima il passaggio tra basi ortonormali. Se T ha componen-
ti t
ij
rispetto alla base iniziale e
i

i=1,...,n
e t

hk
rispetto alla nuova base
f
h

h=1,...,n
, si ha
t

hk
= f
h
T(f
k
) =
n

i=1
f
h
e
i
e
i
T
_
_
n

j=1
f
k
e
j
e
j
_
_
(3.8)
=
n

ij=1
f
h
e
i
f
k
e
j
e
i
T(e
j
) =
n

ij=1
Q
hi
Q
kj
t
ij
=
n

ij=1
Q
hi
t
ij
Q
T
jk
dove, ricordiamo, i Q
hi
= f
h
e
i
sono i coseni direttori, le componenti, dei versori
della nuova base rispetto a quella iniziale e formano le componenti della matrice
ortogonale Q che ha per righe gli f
h
. Scritta come relazione tra matrici, la (3.8)
assume la forma
A

= QAQ
T
dove A

= t

hk
e A = t
ij
sono le matrici che rappresentano T nelle due
basi. Ovviamente se si costruisce la matrice Q con gli f
h
in colonna la relazione
precedente diventa
(3.9) A

= Q
T
AQ.
Vediamo adesso il caso generale del passaggio tra basi qualsiasi a
i
e b
h
. Sia
P
ih
= (b
h
)
i
la matrice che ha per colonne i vettori b
h
in componenti rispetto
agli a
i
. Con le stesse notazioni di prima per le componenti di T si ha
T(b
k
) =
n

h=1
T(b
k
)
h
b
h
=
n

h=1
t

hk
b
h
,
daltra parte
T(b
k
) =
n

i=1
T
_
_
n

j=1
P
jk
a
j
_
_
i
a
i
=
n

ij=1
P
jk
T(a
j
)
i
a
i
=
n

ijh=1
P
jk
T(a
j
)
i
P
1
hi
b
h
.
Si ricava quindi, per confronto con la precedente e per lindipendenza lineare
dei b
h
, la relazione tra le componenti di T
(3.10) t

hk
=
n

ij=1
P
1
hi
t
ij
P
jk
60 Capitolo 3. Applicazioni lineari
che si traduce nella relazione tra matrici
(3.11) A

= P
1
AP .
La (3.10) `e lanalogo della (3.8) o, in forma matriciale, la (3.11) `e lanalogo
della (3.9) (alla quale si riduce come caso particolare se P `e un cambio tra basi
ortonormali) e viene chiamata trasformazione per similitudine, mentre le matrici
A e A

, che rappresentano la stessa applicazione lineare su due basi dierenti,


si dicono simili.
La possibilit`a di rappresentare le applicazioni lineari con le matrici ci per-
mette di ottenere sulle prime nuove informazioni. Per esempio, qual `e la di-
mensione di L(V, W)? Il fatto che una matrice si possa sempre scrivere come
combinazione lineare delle matrici base che hanno tutte le componenti nulle,
eccetto una che possiamo assumere di valore 1, ci fa capire che la dimensione
`e pari a dimV dimW. La verica della loro lineare indipendenza `e banale. In
pi` u possiamo anche dire che formano un sistema ortonormale se deniamo il
prodotto scalare tra due matrici A e B a m righe e n colonne nel seguente modo
(3.12) A B =
m

i=1
n

j=1
A
ij
B
ij
.
Esercizio 3.8 Vericare che la (3.12) denisce un prodotto scalare.
Le matrici formano dunque uno spazio normato con la norma
|A| =

A A.
`
E naturale denire allora il prodotto scalare tra due applicazioni lineari ri-
correndo a quello tra le relative matrici rappresentative, a condizione che tale
denizione sia invariante per cambiamenti di base. Riguardo al prodotto scalare
linvarianza vale solo rispetto a cambiamenti di base ortogonali, verichiamo
questo usando la trasformazione per similitudine che abbiamo costruito nel caso
di matrici quadrate, cio`e in L(V ). Se A

= Q
T
AQ e B

= Q
T
BQ, si ha
A

=
n

ijhkrs=1
Q
T
ih
A
hk
Q
kj
Q
T
ir
B
rs
Q
sj
=
n

hkrs=1

hr

ks
A
hk
B
rs
=
n

hk=1
A
hk
B
hk
= AB.
Il prodotto scalare con lidentit`a, la traccia, denita da
tr(A) = A I =
n

ij=1
A
ij

ij
=
n

i=1
A
ii
,
`e invece invariante rispetto a qualunque cambiamento di base, infatti
A

I =
n

ijhk=1
P
1
ih
A
hk
P
kj

ij
=
n

hk=1
P
kj
P
1
jh
A
hk
=
n

hk=1

hk
A
hk
= A I ,
3.4. Diadi e proiezioni 61
quindi pu`o essere vista come una grandezza associata ad unapplicazione lineare.
La stessa considerazione vale per il determinante, la cui invarianza discende dalla
regola del prodotto
det A

= det(P
1
AP) = det P det Adet P
1
= det P det A
1
det P
= det A.
Gli altri invarianti sono le somme dei minori che si ottengono eliminando ogni
volta un uguale numero di righe e di colonne con lo stesso indice. Ad esempio
`e invariante di una matrice A di tipo 3 3 anche lespressione
(A
11
A
22
A
12
A
21
) + (A
11
A
33
A
13
A
31
) + (A
22
A
33
A
23
A
32
)
=
1
2
3

ij=1
(A
ii
A
jj
A
ij
A
ji
) =
1
2
[(A I)
2
A A
T
] .
I tre invarianti di una matrice di questo tipo, la traccia, quello che abbiamo
appena scritto e il determinante, si chiamano rispettivamente primo, secondo e
terzo invariante e si indicano con I
A
, II
A
e III
A
. Una matrice di tipo n n ha
esattamente n invarianti, di cui il primo `e la traccia e ln-esimo il determinante.
In Meccanica le applicazioni lineari sui vettori geometrici vengono chiamate
tensori. Esprimendo grandezze siche sono deniti in modo intrinseco ed espres-
si in componenti rispetto a basi che generalmente sono ortonormali. Vedremo
qualche esempio.
3.4 Diadi e proiezioni
Sia V uno spazio vettoriale di dimensione n con prodotto scalare. Assegnati
a, b V , la diade, o prodotto tensoriale, o anche omograa tensoriale, a b `e
lapplicazione lineare in L(V ) che trasforma ogni vettore x V nel vettore
(a b)(x) = a(b x)
(le parentesi possono essere eliminate senza pericolo di ambiguit`a). Rispetto ad
una base ortonormale e
i
le componenti di a b sono
[a b]
ij
= e
i
a be
j
= e
i
ab e
j
= a
i
b
j
,
dove a
i
e b
j
sono le componenti di a e b sulla base scelta. Si ottiene cos` la
matrice rappresentativa
a b =
_
_
_
_
_
a
1
b
1
a
1
b
2
. . . a
1
b
n
a
2
b
1
a
2
b
2
. . . a
2
b
n
.
.
.
.
.
. . . .
.
.
.
a
n
b
1
a
n
b
2
. . . a
n
b
n
_
_
_
_
_
.
Trasformando tutto V nel sottospazio parallelo ad a, ab `e degenere di rango 1
e il suo nucleo, lo spazio ortogonale a b, ha dimensione n1. Viceversa possiamo
62 Capitolo 3. Applicazioni lineari
vericare che ogni tensore di rango 1 `e una diade, infatti se T(x) `e parallelo ad
un certo a V per ogni x V esiste una funzione F : V R tale che
T(x) = F(x)a x V .
Allora F `e lineare e se f V `e il vettore che rappresenta F nella relazione
F(x) = f x si ottiene
T(x) = f xa = a fx x V .
Scegliendo basi opportune possiamo fare in modo che al pi` u due componenti di
una diade siano non nulle. Se ad esempio e
1
= vers a, per cui a
1
= [a[, ed e
2
combinazione lineare di a e b, si ha
a b =
_
_
_
_
_
[a[b
1
[a[b
2
0 . . . 0
0 0 0 . . . 0
.
.
.
.
.
.
.
.
. . . .
.
.
.
0 0 0 . . . 0
_
_
_
_
_
.
In particolare pu`o accadere che a e b siano paralleli oppure ortogonali, allora
le matrici rappresentative possono semplicarsi ulteriormente nelle rispettive
forme
ab =
_
_
_
_
_
a
1
b
1
0 0 . . . 0
0 0 0 . . . 0
.
.
.
.
.
.
.
.
. . . .
.
.
.
0 0 0 . . . 0
_
_
_
_
_
e ab =
_
_
_
_
_
0 a
1
b
2
0 . . . 0
0 0 0 . . . 0
.
.
.
.
.
.
.
.
. . . .
.
.
.
0 0 0 . . . 0
_
_
_
_
_
.
La diade si riduce alla semplice proiezione ortogonale lungo la direzione deter-
minata dal versore e se a = b = e essendo eex = x ee per ogni x V . Somme
di diadi elementari del tipo e
i
e
i
, costruite usando gli elementi di un sistema
ortonormale, sono proiezioni su sottospazi, tra le quali gura anche lidentit`a
n

i=1
e
i
e
i
= I
in quanto
x =
n

i=1
x e
i
e
i
=
n

i=1
e
i
e
i
x.
Il sistema di diadi e
h
e
k
[ h, k = 1, . . . , n `e ortonormale rispetto al prodotto
scalare in L(V ) dato che
e
i
e
j
e
h
e
k
=
ih

jk
e ne costituisce una base. Ogni elemento T L(V ) ammette dunque la
decomposizione diadica
T =
n

hk=1
T e
h
e
k
e
h
e
k
3.5. Forme bilineari e forme quadratiche 63
dove i coecienti T e
h
e
k
coincidono con le componenti A
hk
= e
h
T(e
k
) di
T. In termini delle matrici associate, tale decomposizione coincide con quella in
cui vengono usate le matrici elementari di cui abbiamo gi`a parlato nel paragrafo
precedente.
Proiezione ortogonale su un sottospazio - Siano V uno spazio vettoriale
di dimensione nita con prodotto scalare e U un sottospazio di V . Lapplicazione
che associa ad ogni x V la sua proiezione ortogonale P
U
(x) su U, il punto di
U di minima distanza da x, `e lineare ed ha come immagine U e come nucleo
U

. La decomposizione x = P
U
(x) + P
U
(x), in virt` u della quale diciamo
che V = U U

, implica dimV = dimU + dimU

in accordo col teorema


precedente.
Esercizio 3.9 Costruire la simmetria ortogonale rispetto ad un sottospazio
U V e constatare che si tratta di unapplicazione lineare.
3.5 Forme bilineari e forme quadratiche
Una forma bilineare su V , spazio vettoriale complesso con prodotto scalare,
`e unapplicazione a : V V C lineare in ciascuno dei due argomenti, cio`e
u a(u, v) `e lineare per ogni v V e v a(u, v) `e lineare per ogni u V . Ad
ogni applicazione lineare A : V V corrisponde la forma bilineare
(3.13) a(u, v) = u Av u, v V .
Da quanto visto nel precedente, le componenti di A rispetto ad una base
ortonormale e
i
sono proprio i valori della forma bilineare associata
a
ij
= e
i
Ae
j
= a(e
i
, e
j
) ,
dalla quale si ottiene tra laltro lespressione
a(u, v) =
n

ij=1
a
ij
u
i
v
j
che, scritta in termini delle componenti, appare pi` u esplicita. Viceversa, si
verica facilmente che ad ogni forma bilineare a : V V C corrisponde
ununica applicazione lineare A : V V tale che vale la (3.13). Fissato v V ,
u a(u, v) `e un funzionale lineare su V , quindi esiste un unico w V tale che
a(u, v) = u w u, v V .
Ma w dipende linearmente da v, cio`e w = Av per un certo, unico, A. Infatti, se
a(u, v) = u w, a(u, v
1
) = u w
1
, a(u, v
2
) = u w
2
e se v =
1
v
1
+
2
v
2
per certi

1
,
2
C, si ha
u w = a(u, v) = a(u,
1
v
1
+
2
v
2
) =
1
a(u, v
1
) +
2
a(u, v
2
)
=
1
u w
1
+
2
u w
2
= u (
1
w
1
+
2
w
2
)
64 Capitolo 3. Applicazioni lineari
per ogni u V , quindi w =
1
w
1
+
2
w
2
. Ragionando nello stesso modo si
ricava che esiste unaltra applicazione lineare A

su V tale che
a(u, v) = A

u v u, v V .
Le due, A e A

, sono dunque legate dalla relazione u Av = A

u v e si dicono
ciascuna laggiunta dellaltra. Le corrispondenti matrici rappresentative, a
ij

e a

ij
, stanno nella relazione
a

ij
= e
i
A

e
j
= A

e
j
e
i
= e
j
Ae
i
= a
ji
,
ognuna `e la trasposta coniugata dellaltra. Se V `e reale indichiamo A

con A
T
,
detta applicazione lineare trasposta per analogia con la sua matrice rappresen-
tativa.
Unapplicazione lineare A : V V viene detta autoaggiunta, o anche
hermitiana, se A = A

e antihermitiana se A = A

. Nel caso reale tali


condizioni diventano rispettivamente A = A
T
, A simmetrica, e A = A
T
, A
antisimmetrica o emisimmetrica.
Di un certo interesse in Meccanica (quindi con dimV = 3 che qua non
ci interessa) `e la decomposizione di un tensore A nella somma di un tensore
simmetrico e di un tensore emisimmetrico. Deniti
A
S
=
A+A
T
2
e A
W
=
AA
T
2
,
che sono ovviamente uno simmetrico e laltro emisimmetrico, si ha
A = A
S
+A
W
.
La decomposizione in parte simmetrica e parte emisimmetrica `e unica perche
se esistono due tensori S simmetrico e W emisimmetrico tali che A = S + W
allora A
T
= S W e combinando queste due relazioni per somma e dierenza
si ottiene S = A
S
e W = A
W
. Inoltre, essendo L
S
(V ) e L
W
(V ) sottospazi di
L
S
(V ) uno ortogonale allaltro, dato che
S W = S
ij
W
ij
= S
ji
W
ji
= S W ,
A
S
`e la proiezione ortogonale di A su L
S
(V ) e A
W
`e la proiezione ortogonale
di A su L
W
(V ). Osserviamo inne che se dimV = n allora dimL(V ) = n
2
,
dimL
S
(V ) = (n
2
+n)/2 e dimL
W
(V ) = dimL(V )dimL
S
(V ) = (n
2
n)/2
essendo L(V ) = L
S
(V ) L
W
(V ).
A partire da una forma bilineare a(u, v) deniamo forma quadratica la sua
restrizione al sottospazio di V V delle coppie di vettori (u, v) tali che u = v.
La forma quadratica `e quindi la funzione : V C denita da
(u) = a(u, u) = u Au u V .
In termini delle componenti una forma quadratica pu`o essere scritta nella forma
(u) =
n

ij=1
a
ij
u
i
u
j
.
3.6. Relazione tra un vettore e un tensore emisimmetrico 65
Si pu`o osservare che essa `e sempre una funzione omogenea di grado 2, cio`e
(tu) = [t[
2
(u) t C,
e che quindi `e univocamente determinata su tutto V a partire dai suoi valori
sulla sfera dei versori, detta sfera unitaria, basta porre
(u) = [u[
2
(vers u) .
Inoltre la forma quadratica associata ad unapplicazione antihermitiana W, an-
tisimmetrica nel caso reale, `e sempre identicamente immaginaria, quindi nulla
nel caso reale, infatti
u Wu = Wu u = u Wu.
Ne segue che la forma quadratica associata ad un tensore coincide con quella
relativa alla sua sola parte simmetrica.
3.6 Relazione tra un vettore e un tensore emisim-
metrico
Dato un vettore w V
3
, lapplicazione
(3.14) u Wu = wu
`e lineare e si chiama omograa assiale. Si tratta di un tensore emisimmetrico
in quanto
u Wv = u wv = wu v .
Rispetto ad una base ortonormale e
i
, le componenti si calcolano subito usando
la ben nota formula per la matrice associata, combinata con lespressione del
prodotto misto
(3.15) W
ij
= e
i
we
j
=
hkr

ih
w
k

jr
=
ikj
w
k
e quindi la matrice
W =
_
_
0 w
3
w
2
w
3
0 w
1
w
2
w
1
0
_
_
che `e evidentemente emisimmetrica. Scegliendo basi opportune `e possibile au-
mentare il numero di componenti nulle; se ad esempio e
3
= vers w, per cui
w = [w[ e
3
, la matrice diventa
W =
_
_
0 w
3
0
w
3
0 0
0 0 0
_
_
.
66 Capitolo 3. Applicazioni lineari
Moltiplicando a sinistra e a destra per
ihj
, si ottiene

ihj
W
ij
= 2
ihj

ikj
w
k
= 2
hk
w
k
= 2w
h
da cui segue la relazione inversa
w
h
=
1
2

ihj
W
ij
.
Ad esempio, w
1
= 1/2(W
32
W
23
). Possiamo infatti dimostrare facilmente che
ad ogni tensore emisimmetrico W corrisponde un unico vettore w, il suo vettore
associato, che soddisfa la (3.14). In dimensione dispari, 3 nel nostro caso, un
tesnore W emisimmetrico ha determinante nullo
det W = det W
T
= det(W) = det W,
quindi il suo nucleo, N(W), `e non banale. Se W = 0 allora N(W) = V e
w = 0. Se invece W ,= 0 dimostriamo che dimN(W) = 1. Scelto un vettore
h N(W)

, Wh `e ortogonale ad h perche Wh h = 0 e non sta nel nucleo


perche `e ortogonale ad ogni suo elemento
Wh n = h Wn = 0 n N(W) .
Quindi dimN(W)

= 2 e n genera tutto N(W). Inoltre Wh deve essere


parallelo al prodotto vettoriale n h, quindi esiste un vettore del tipo w(h) =
w(h)n tale che
W(h) = w(h)n h.
Dimostriamo che lo scalare w(h) non dipende dalla scelta di h N(W)

. Scelti
h e h

non paralleli in N(W)

e in modo che h h

sia concorde con n, si ha


Wh h

= w(h)n h h

= w(h)n h h

= w(h)[h h

[
Wh h

= h Wh

= h w(h

)n h

= w(h

)[h h

[
e per dierenza membro a membro
[w(h) w(h

)][h h

[ = 0
da cui w(h) = w(h

). Se invece sono paralleli, h

= th, si ha
Wh

= Wth = w(th)n th = tw(th)n h


Wh

= Wth = tWh = tw(h)n h


da cui, essendo nh ,= 0, w(h) = w(th) = w(h

). Abbiamo dunque dimostrato


che esiste un vettore w N(W) tale che
(3.16) Wh = wh h N(W)

.
Rimane da dimostrare che la relazione (3.16) `e vera, con lo stesso w, per tutti
i vettori u V . Siano u
n
= u nn e h le proiezioni ortogonali di u su N(W) e
su N(W)

rispettivamente. Allora
Wu = W(h +u
n
) = Wh = wh = w(h +u
n
) = wu.
Lunicit`a viene lasciata per esercizio.
3.7. Le isometrie di E
n
, tensori ortogonali e cinematica rigida 67
3.7 Le isometrie di E
n
, tensori ortogonali e cin-
ematica rigida
Lesigenza di descrivere i possibili movimenti rigidi nello spazio sico porta
in modo naturale a studiare le isometrie dello spazio euclideo tridimensionale.
Infatti, conservando le distanze tra i punti materiali, il moto rigido pu`o essere
visto come una famiglia ad un parametro, il tempo t I, di isometrie
t
:
E
3
E
3
. Ognuna di esse trasforma la congurazione iniziale in quella attuale,
allistante t generico, del sistema rigido. In particolare la
0
`e lidentit`a. Dopo
averle caratterizzate le riconosceremo come traslazioni composte con rotazioni.
Osservato che le isometrie su E
n
sono le applicazioni : E E tali che
[(P) (Q)[ = [P Q[ per ogni P, Q E , deniamo F : V V nel seguente
modo:
F(u) = (P) (O) se u = P O.
Risulta allora che `e unisometria se e solo se F conserva il modulo, [F(u)[ =
[u[, che in altre parole signica che anche F `e unisometria su V. Infatti, posto
v = QO, si ha
[F(u) F(v)[ = [(P) (O) ((Q) (O))[ = [(P) (Q)[
= [P Q[ = [P O (QO)[ = [u v[ u, v V.
La seguente proposizione mostra che F `e unisometria se e solo se conserva il
prodotto scalare e in tal caso deve essere anche lineare.
Teorema 3.8 Per una funzione F : V V le seguenti propriet`a sono
equivalenti
(a) [F(u)[ = [u[ u V,
(b) F(u) F(v) = u v u, v V
e ciascuna delle due implica che F `e lineare.
Dimostrazione. Limplicazione (b)(a) `e banale, basta porre u = v. Veri-
chiamo limplicazione contraria sostituendo la (a) con la versione equivalente
[F(u) F(v)[ = [u v[ u, v V
o meglio
[F(u) F(v)[
2
= [u v[
2
= [u[
2
2u v +[v[
2
.
Daltra parte
[F(u) F(v)[
2
= [F(u)[
2
2F(u) F(v) +[F(v)[
2
= [u[
2
2F(u) F(v) +[v[
2
e per confronto
F(u) F(v) = u v .
Veniamo alla seconda parte. Per ogni u, v V e per ogni , R si ha
[F(u +v) F(u) F(v)[
2
= [F(u +v)[
2
+
2
[F(u)[
2
+
2
[F(v)[
2
2F(u +v) F(u) 2F(u +v) F(v) + 2F(u) F(v)
= [u +v[
2
+
2
[u[
2
+
2
[v[
2
2(u +v) u 2(u +v) v + 2u v = 0 .
68 Capitolo 3. Applicazioni lineari
2
Allora esiste un tensore R L(V) tale che F(u) = Ru che per la (??)
soddisfa
R
T
Ru v = u v u, v V.
Per larbitrariet`a di v
R
T
Ru = u u V,
dunque R
T
R = I, da cui si deduce che R `e invertibile, con det R = 1, e
R
1
= R
T
. I tensori di questo tipo trasformano sistemi ortonormali in sistemi
ortonormali, infatti
Re
i
Re
j
= e
i
e
j
=
ij
,
per questo sono detti ortogonali. Allora, rispetto ad una base ortonormale, le
colonne della matrice di un tensore ortogonale formano un sistema ortonormale
e cos` anche le righe che sono le colonne dellinversa.
Come ogni applicazione lineare, ogni tensore ortogonale lascia sso lo 0, ma
in dimensione dispari lascia ssi tutti i vettori di un sottospazio o li cambia di
segno. Per semplicit`a proviamo questaermazione nel caso di V
3
cercando quei
vettori u ,= 0 tali che
Ru = u
per qualche R. Le soluzioni di questa equazione sono i vettori del nucleo di
RI che dovendo essere non banale richiede di imporre la condizione
det(RI) = 0 .
Questa `e unequazione algebrica in di terzo grado che pu`o assumere una delle
due forme seguenti

3
a
2
+a 1 = 0 oppure
3
a
2
a + 1 = 0 .
Nel primo caso, det R = 1, una soluzione `e = 1 e i vettori del nucleo di
RI sono quelli che R lascia in se stessi, si tratta di una rotazione. Nellaltro,
det R = 1, `e soluzione = 1 e i vettori del nucleo vengono cambiati di segno
dal tensore R, si tratta di una rotazione composta con una riessione. A meno
che non sia R = I, il nucleo `e lasse di rotazione.
Le isometrie di E
n
sono sono tutte e sole le funzioni : E
n
E
n
del tipo
(3.17) (P) = (Q) +R(P Q) P, Q E
n
con R tensore ortogonale. In particolare, se R = I si ottiene una traslazione,
espressa dal vettore (P) P, se ha un punto sso O si riduce alla rotazione
(P) = R(P O), il caso pi` u generale `e quello di una traslazione composta con
una riessione.
Vogliamo adesso rappresentare un tensore ortogonale su V
3
che esprima una
rotazione propria. Scegliendo la base e
i
con e
3
diretto secondo lasse di ro-
tazione, che comporta Re
3
= e
3
, e mettendo in colonna le componenti di Re
1
3.7. Le isometrie di E
n
, tensori ortogonali e cinematica rigida 69
e di Re
2
, si ottiene una matrice del tipo
R =
_
_
cos sen 0
sen cos 0
0 0 1
_
_
e basta moltiplicarla per un vettore qualsiasi u V
3
per rendersi conto che la
componente u
3
rimane invariata mentre la sua proiezione sul piano ortogonale
ad e
3
, il vettore u
1
e
1
+u
2
e
2
, ruota dellangolo .
`
E interessante osservare che
se `e funzione derivabile di un parametro, ad esempio il tempo t durante un
moto rigido, si ha

RR
T
=
_
_
0

0 0
0 0 0
_
_
che `e emisimmetrico ed ha come vettore associato la velocit`a angolare (t) =

(t) e
3
. Si pu`o dedurre la legge fondamentale della cinematica rigida dalla (3.17)
scritta per una famiglia di isometrie a un parametro
P(t) = Q(t) +R(t)(P
0
Q
0
)
dove P(t) e Q(t) sono le posizioni allistante t di due punti solidali che per t = 0
si trovano nelle posizioni P
0
e Q
0
. Osserviamo inoltre che essendo R(0) = I,
per continuit`a det R(t) = 1 per ogni t 0. Derivando rispetto a t si ottiene la
relazione tra le loro velocit`a
v(P) = v(Q) +

R(P
0
Q
0
) = v(Q) +

RR
T
(P Q) = v(Q) + (P Q)
dove (t) `e la velocit`a angolare. Il fatto che

RR
T
sia sempre emisimmetrico `e
di verica immediata
(

RR
T
)
T
= R

R
T
=
d
dt
(RR
T
)

RR
T
=

RR
T
essendo RR
T
= I.
Capitolo 4
Autovalori e autovettori
4.1 Formulazione del problema ed esempi
Di notevole interesse `e la ricerca delle direzioni unite di unapplicazione
lineare A, cio`e di quei vettori u V di cui A conserva la direzione.
Problema 4.1 - Sia V uno spazio vettoriale sul corpo K e A : V V un
endomorsmo. Trovare K e u V , u ,= 0, tali che
(4.1) Au = u.
Se e u soddisfano la (4.1), si chiama autovalore di A e u autovettore di A
relativo a . Linsieme degli autovalori di un operatore lineare si chiama spettro.
Ovviamente linsieme degli autovettori relativi ad un certo autovalore , cos-
tituisce, unito con 0, un sottospazio vettoriale di V che si chiama autospazio.
La verica `e immediata
Au = u e Av = v A(u+v) = Au+Av = u+v = (u+v) ,
daltra parte lautospazio di `e anche il nucleo di AI).
Esempi:
4.1 Lendomorsmo A = cI su V , con c scalare e I lidentit`a, ammette c come
unico autovalore e ogni vettore di V , escluso 0 naturalmente, `e autovettore.
Infatti A associa ad ogni vettore u V il vettore cu.
4.2 La derivazione D : C
1
(R) C
0
(R) `e lineare. Gli autovettori di D sono
le funzioni u : R R, dette anche autofunzioni, tali che
(4.2) u

(x) = u(x) x R
per qualche autovalore R.
70
4.1. Formulazione del problema ed esempi 71
Si vede facilmente che ogni numero reale `e autovalore, mentre le corrispondenti
autofunzioni, in quanto soluzioni dellequazione dierenziale (4.2), sono tutte e
sole quelle del tipo
u(x) = ce
x
x R.
Infatti dividendo per u si ottiene
u

u
= log [u[ = x +c u(x) = ce
x
.
4.3 Nello studio dei classici fenomeni lineari di vibrazione della corda con
estremi ssi ci si imbatte nel problema spettrale
(4.3)
_
u

= u su (0, )
u(0) = u() = 0 .
Lesempio precedente suggerisce la ricerca di soluzioni di tipo esponenziale
u(x) = e
ax
che, sostituite nella (4.3), portano alla condizione
a
2
+ = 0 .
Ma se 0, tenuto conto dei dati agli estremi, si ottiene solo la soluzione
identicamente nulla, altrimenti poniamo =
2
con > 0. Allora
a = i e u(x) = c
1
e
ix
+c
2
e
ix
= a cos x +b sen x.
Dalle condizioni assegnate agli estremi ricaviamo facilmente gli autovalori, in
questo contesto detti autofrequenze, e i corrispondenti modi normali di vibrazione
o autostati

n
= n e u
n
(x) = sen nx.
Un suono deriva da un particolare movimento della corda che pu`o essere rapp-
resentato come sovrapposizione, combinazione lineare, di certi modi normali.
In V
3
, abbiamo visto, un tensore ortogonale R ammette = 1 (o = 1)
come autovalore e un sottospazio unidimensionale come relativo autospazio. Il
complemento ortogonale di questo `e il piano in cui avviene la rotazione e non
contiene autovettori a meno che, detto langolo, non sia = k. Si tratta
comunque di un piano invariante, nel senso che se un certo u vi appartiene, lo
stesso vale per Ru. Se per`o tale piano viene considerato non come spazio vet-
toriale reale bidimensionale, ma come spazio complesso unidimensionale, allora
vi `e un altro autovalore e tutti i vettori di questo piano, o retta complessa,
sono autovettori. Basta infatti ricordare lidenticazione
_
cos sen
sen cos
_
e
i
per la quale, posto (u
1
, u
2
) = x +iy = z, loperazione Ru pu`o identicarsi con
e
i
z.
Diversa `e la situazione in cui, agendo sempre sul piano tanto per fare un
esempio semplice, loperatore ammette due autovalori reali. Vediamo che cosa
succede con le applicazioni lineari su R
2
che sono le matrici 2 2.
72 Capitolo 4. Autovalori e autovettori
4.4 La matrice
A =
_
1 1
2 2
_
ha come autovalori
1
= 0 e
2
= 2 e come corrispondenti autospazi V (
1
) =
V
1
= t(1, 1) [ t R e V (
2
) = V
2
= t(1, 2) [ t R.
Essendo
_
1 1
2 2
__
x
y
_
=
_
x +y
2x + 2y
_
,
per quali R e per quali (x, y) R
2
si ha
(4.4) (x +y, 2x + 2y) = (x, y)?
Basta risolvere il sistema
_
(1 )x +y = 0
2x + (2 )y = 0
imponendo che non vi sia soltanto la soluzione nulla, cio`e che valga la condizione

1 1
2 2

=
2
3 = 0 ,
soddisfatta da
1
= 0 e
2
= 3. In un caso la (4.4) diventa
x +y = 0
e nellaltro
2x y = 0 .
4.5 La matrice
A =
_
1 1
0 1
_
ha come unico autovalore = 1 e come corrispondente autospazio V
1
= t(1, 0) [ t
R.
I conti, simili al caso precedente, si lasciano per esercizio.
Nel primo esempio possiamo scegliere un autovettore da ogni autospazio per
formare una base, nel secondo non `e possibile. Vediamo allora come si trasforma
la matrice A su una base di autovettori nel primo esempio.
A

= P
1
AP =
1
3
_
2 1
1 1
__
1 1
2 2
__
1 1
1 2
_
=
_
0 0
0 3
_
.
La matrice `e stata ridotta a forma diagonale: sulla diagonale principale com-
paiono gli autovalori e al di fuori solo zeri. Nel secondo esempio invece la matrice
4.1. Formulazione del problema ed esempi 73
data non `e diagonalizzabile. Vedremo in dimensione n che lesistenza di n au-
tovalori semplici `e condizione suciente per la diagonalizzabilit`a, ne vedremo
anche unaltra che riguarda le applicazioni lineari simmetriche.
Riprendiamo il procedimento generale. La (4.1) `e equivalente allequazione
omogenea
(AI)u = 0
che, in dimensione nita, diciamo n (come supponiamo da ora in poi), ammette
soluzioni u non banali se e solo se
(4.5) det(AI) = 0 .
Questa condizione non dipende dalla matrice rappresentativa di A, ma da A
stesso come operatore, in modo intrinseco, in quanto
det(P
1
API) = det[P
1
(AI)P] = det P
1
det(AI) det P = det(AI) .
La (4.5) `e unequazione algebrica di grado n, si chiama equazione secolare o
equazione caratteristica, ed ha una struttura a segni alternati del tipo
(4.6)
n
trA
n1
+. . . (1)
n
det A = 0 ,
dove tr, la traccia, insieme a tutti gli altri coecienti no al determinante sono
gli invarianti di A. Ad esempio per n = 3

3
I
A

2
+II
A
III
A
= 0
dove
I
A
= trA = A I = a
11
+a
22
+a
33
II
A
= A
11
+A
22
+A
33
=
1
2
_
(A I)
2
A A
T

=
1
2
(a
ii
a
jj
a
ij
a
ji
)
III
A
= det A.
Per il noto Teorema Fondamentale dellAlgebra la (4.6) ammette n soluzioni in
C contate ciascuna con la propria molteplicit`a. Tali soluzioni possono essere
reali o complesse, ma se A `e reale le soluzioni non reali sono sicuramente in
numero pari: una e la sua coniugata, quindi nel caso A reale con n dispari
vi `e sempre una soluzione reale. Da note propriet`a che legano le radici di un
polinomio ai suoi coecienti segue che la somma degli autovalori `e la traccia di
A, mentre il loro prodotto ne `e il determinante.
Inne per trovare gli autovettori relativi allautovalore
k
basta risolvere il
sistema lineare omogeneo
(A
k
I)u = 0
che `e degenere per costruzione. Se `e possibile costruire in V , con dimV = n,
un sistema di n autovettori u
1
, u
2
, . . . , u
n
linearmente indipendenti, scelti questi
come base, si ottengono le componenti
a

ij
= (Au
j
)
i
= (
j
u
j
)
i
=
j

ij
,
74 Capitolo 4. Autovalori e autovettori
e la matrice associata assume la forma diagonale
A

=
_
_
_
_
_

1
0 . . . 0
0
2
. . . 0
.
.
.
.
.
. . . .
.
.
.
0 0 . . .
n
_
_
_
_
_
= diag[
1
, . . . ,
n
] .
Naturalmente si ritrova la forma diagonale della matrice associata calcolando il
prodotto A

= P
1
AP, dove P, la matrice del cambio di base, ha per colonne,
nello stesso ordine degli autovalori, le componenti dei corrispondenti autovettori.
Su una base di autovettori u
i
lapplicazione lineare A pu`o essere scritta anche
mediante la sua decomposizione spettrale
A =
n

i=1

i
u
i
u
i
,
basta ricordare la denizione di diade.
4.2 Autovalori semplici
Dal seguente teorema deriva immediatamente che se un endomorsmo A :
V V , con dimV = n, ammette n autovalori a due a due distinti
1
, . . . ,
n
,
quindi semplici, allora esiste una base di autovettori e A `e diagonalizzabile.
Teorema 4.2 - Siano
1
, . . . ,
k
k autovalori distinti di A. Se per ogni
i
si sceglie un corrispondente autovettore u
i
, i vettori u
1
, . . . , u
k
sono linearmente
indipendenti.
Dimostrazione. Procediamo per induzione. Per k = 1 laermazione `e banal-
mente vera. Potremmo dimostrarla direttamente anche per k = 2 nel seguente
modo. Se
1
,=
2
, Au
1
=
1
u
1
e Au
2
=
2
u
2
, imponiamo
(4.7) c
1
u
1
+c
2
u
2
= 0
e dimostriamo che c
1
= c
2
= 0. Applicando la A ai due membri della (4.7), si
ottiene
c
1

1
u
1
+c
2

2
u
2
= 0 .
Se adesso moltiplichiamo laltra per
2
e sottraiamo da essa questa, si ottiene
c
1
(
2

1
)u
1
= 0 ,
ma in quanto autovettore u
1
,= 0 e
1
,=
2
per ipotesi, quindi c
1
= 0 e dalla
(4.7) anche c
2
= 0.
Per dimostrare che la proposizione `e induttiva si ragiona in modo simile.
Poniamo nulla una combinazione lineare dei k autovettori u
1
, . . . , u
k
(4.8) c
1
u
1
+c
2
u
2
+. . . +c
k
u
k
= 0
4.3. Propriet`a spettrali delle forme hermitiane e anti-hermitiane 75
corrispondenti ai k autovalori distinti
1
, . . . ,
k
. Applicando la A si ottiene
c
1

1
u
1
+ c
2

2
u
2
+ . . . + c
k

k
u
k
= 0 e per sottrazione membro a membro di
questa dalla precedente moltiplicata per
k
, si ottiene
c
1
(
k

1
)u
1
+c
2
(
k

2
)u
2
+. . . +c
k1
(
k

k1
)u
k1
= 0 .
Per lipotesi induttiva u
1
, . . . , u
k1
sono linearmente indipendenti e
k

i
,= 0
per ogni i = 1, . . . , k 1, quindi c
i
= 0 per i = 1, . . . , k 1 e dalla (4.8) anche
c
k
= 0.
2
Di conseguenza, se tutti gli autovalori
1
, . . . ,
n
sono distinti, scelto per
ognuno di essi, diciamo li-esimo, un corrispondente autovettore u
i
, linsieme
u
1
, . . . , u
n
, in quanto indipendente e formato da n elementi, `e anche una base
di V . Gli autospazi hanno tutti dimensione pari a 1, ciascuno di essi, li-esimo,
`e il sottospazio generato da u
i
.
4.3 Propriet`a spettrali delle forme hermitiane e
anti-hermitiane
Cominciamo con un esempio di applicazione lineare simmetrica su R
3
. Gli
autovalori della matrice
A =
_
_
8 2 2
2 5 4
2 4 5
_
_
si trovano risolvendo lequazione algebrica

3
18
2
+ 81 = 0
e sono
1
= 0,
2
=
3
= 9. Gli autovettori relativi allautovalore nullo,
1
,
sono le terne (x, y, z) che soddisfano
_
_
8 2 2
2 5 4
2 4 5
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
.
Poiche la prima riga `e combinazione lineare delle altre, un sistema equivalente
`e
_
2x 5y 4z = 0
2x + 4y + 5z = 0 .
Per dierenza membro a membro si ottiene y +z = 0, da cui x = y/2. Dunque
un generatore dellautospazio di
1
`e il vettore u
1
= (1, 2, 2).
Veniamo allaltro autospazio, formato da vettori indipendenti dai precedenti
per il Teorema 4.2. Dobbiamo trovare le soluzioni del sistema
_
_
1 2 2
2 4 4
2 4 4
_
_
_
_
x
y
z
_
_
=
_
_
0
0
0
_
_
.
76 Capitolo 4. Autovalori e autovettori
Ma questo si riduce alla sola equazione
x + 2y 2z = 0 .
Basta scegliere come generatori del nuovo autospazio due soluzioni indipendenti
di questa equazione, ad esempio u
2
= (0, 1, 1) e u
3
= (2, 1, 0).
Osserviamo che u
2
e u
3
sono entrambi ortogonali a u
1
. Non `e casuale, come
non `e casuale il fatto che gli autospazi siano ortogonali, ma dipende dal fatto
che lapplicazione data `e simmetrica come vedremo tra poco. Sapendo questo
si poteva evitare il calcolo degli autovettori del secondo autovalore scegliendo
direttamente due vettori u
2
e u
3
tali che
u
2
u
1
= 0 e u
3
u
1
= 0 .
Si presenta dunque, nel caso di simmetria, il vantaggio di poter disporre di
una base diagonalizzante che sia anche ortonormale. In questo esempio si pu`o
scegliere la terna
e
1
=
u
1
[u
1
[
=
1
3
(1, 2, 2) , e
2
=
u
2
[u
2
[
=
1

2
(0, 1, 1) , e
3
= e
1
e
2
=
1
3

2
(4, 1, 1) .
Questa peculiarit`a, legata alla simmetria delloperatore, pu`o essere spiegata
nellambito dei seguenti risultati generali.
Teorema 4.3 - Sia V uno spazio vettoriale complesso e A L(V ). Gli
autovalori di A sono reali se A `e hermitiano e immaginari puri se A `e anti-
hermitiano. In ogni caso a due autovalori distinti corrispondono autovettori
ortogonali.
Dimostrazione. Se A `e hermitiano, sia u un autovettore dellautovalore .
Si ha
u Au = u u =

u u =

[u[
2
,
daltra parte
u Au = Au u = u u = [u[
2
e per confronto delle due =

.
Se A `e anti-hermitiano la dimostrazione `e simile
u Au = u u =

[u[
2
,
daltra parte
u Au = Au u = [u[
2
e per confronto delle due =

.
Scelti due autovalori ,= e relativi autovettori u e v, nel caso hermitiano
, R, quindi
u Av = u v = u v ,
daltra parte
u Av = Au v = u v
4.4. Propriet`a estremali degli autovalori di una forma quadratica 77
e per confronto
( )u v = 0 .
Essendo ,= 0 si ottiene u v = 0. La dimostrazione dellortogonalit`a nel
caso anti-hermitiano, del tutto simile, si lascia per esercizio.
2
Veniamo allesistenza di basi ortonormali di autovettori.
Teorema 4.4 - Un operatore A hermitiano o anti-hermitiano ammette una
base di autovettori.
Dimostrazione. Si procede per induzione. Se dimV = 1 il teorema `e ba-
nalmente vero. Supponiamolo vero se dimV = n 1 e dimostriamolo se
dimV = n. Scelto u
n
autovettore di
n
, il complemento ortogonale V

del-
lautospazio V
n
generato da u
n
ha dimensione n 1. Se adesso dimostriamo
che A : V

, baster`a scegliere una base ortonormale di autovettori di A


u
1
, u
2
, . . . , u
n1
in V

e abbiamo subito che u


1
, u
2
, . . . , u
n1
, u
n
`e una base di
autovettori in V . Per ogni u V

si ha (doppio segno a seconda di A se `e


hermitiano o anti-hermitiano)
Au u
n
= u Au
n
= u
n
u
n
= 0 ,
quindi Au V

.
2
4.4 Propriet`a estremali degli autovalori di una
forma quadratica
Vediamo qual `e il ruolo degli autovalori e degli autovettori nella teoria delle
forme quadratiche. Intanto osserviamo che se la forma bilineare a(u, v) = uAv `e
hermitiana [anti-hermitiana] la corrispondente forma quadratica assume sempre
valori reali [immaginari] perche
u Au = Au u = u Au [u Au = Au u = u Au] u V .
Ci interessa qui il caso di una forma hermitiana, che potremmo anche pen-
sare reale e dunque simmetrica, ma non vi sarebbe nessun vantaggio rilevante.
Gli autovalori, come sappiamo, sono comunque reali e li possiamo denominare
secondo il loro ordine,
1

2
. . .
n
, dal pi` u piccolo al pi` u grande.
Teorema 4.5 - Vale la doppia stima
(4.9)
1
[u[
2
u Au
n
[u[
2
u V .
Inoltre, scelta una base ortonormale e
i
, i = 1, . . . , n, di autovettori, Au
i
=

i
e
i
, si ha

1
= min
|e|=1
e Ae = e
1
Ae
1
e
n
= max
|e|=1
e Ae = e
n
Ae
n
.
78 Capitolo 4. Autovalori e autovettori
Dimostrazione. Esprimiamo ogni vettore u V come combinazione lineare
u =

h
u
h
e
h
degli autovettori unitari scelti. Si ottiene in questo modo
uAu =
n

hk=1
u
h
e
h
A(u
k
e
k
) =
n

hk=1
u
h
e
h
u
k

k
e
k
=
n

hk=1

k
u
h
u
k

hk
=
n

h=1

h
u
2
h
.
Daltra parte lespressione ottenuta soddisfa ovviamente le disuguaglianze

1
n

h=1
u
2
h

n

h=1

h
u
2
h

n
n

h=1
u
2
h
dove

u
2
h
= [u[
2
. Pertanto la prima aermazione `e dimostrata. Per la seconda
parte del teorema basta porre nella (4.9) u = e
1
e u = e
n
.
2
Il Teorema 4.5 mostra che il minimo [massimo] autovalore `e anche il minimo
[massimo] della forma quadratica sulla sfera unitaria e tali valori estremi ven-
gono raggiunti proprio in corrispondenza dei relativi autovettori. Osserviamo in
pi` u che anche gli autovalori intermedi vengono comunque raggiunti, come valori
della forma, sui relativi autovettori unitari, i quali sono, come e
1
ed e
n
, i punti
stazionari vincolati della forma sulla sfera unitaria. In questo contesto intendi-
amo per stazionari (vincolati ad una supercie) quei punti della sfera unitaria in
cui Ae
i
, essendo parallelo ad e
i
, `e radiale, cio`e ortogonale alla supercie stessa,
alla sfera in questo caso.
Ogni forma quadratica (u) = u Au si annulla ovviamente per u = 0.
Denizione 4.6 - Diciamo che `e
(> 0) denita positiva se (u) > 0 per ogni u V 0,
( 0) semidenita positiva se (u) 0 per ogni u V ed esiste u ,= 0 tale
che (u) = 0,
(< 0 <) non denita se esistono u, v ,= 0 tali che (u) < 0 e (v) > 0.
Analogamente si deniscono le forme negative. Dal Teorema 4.5 discende imme-
diatamente la seguente caratterizzazione dei tre casi trattati nella Denizione 4.6
(> 0)
1
> 0,
( 0)
1
= 0,
(< 0 <)
1
< 0 <
n
,
con gli autovalori ordinati come prima. Per motivi che si possono ricondurre alla
geometria analitica delle coniche, diciamo che la forma quadratica `e ellittica
se
1
> 0 o
n
< 0, parabolica se
1
= 0 o
n
= 0 e iperbolica se
1
< 0 <
n
.
Bibliograa
[1] T. Apostol, Geometria, vol.2, Bollati Boringhieri, Torino, 1985.
[2] D. Freni, J. K. Canci, Algebra lineare e geometria, esercizi e complementi,
Pearson, 2008.
79

Potrebbero piacerti anche