Sei sulla pagina 1di 51

Geometria I

appunti (non rivisti dai professori) delle lezioni


Ateneo Studenti Fisica
Alessandro Principi
Indice
Strutture algebriche 2
Spazi Vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Costruire sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Altri sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Applicazioni Lineari, Sistemi Lineari 7
Nucleo e Immagine di unapplicazione lineare, Sistemi Lineari . . . . . . . . . . . . . . . . . . . 7
Risoluzione di sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
Algoritmo di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Prodotto di Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
Dimensione e base di uno spazio vettoriale 12
Formula di Grassman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
Rango di unapplicazione lineare 16
Classe di Equivalenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
Calcolo del rango di una matrice a scalini S e di una base di ImS . . . . . . . . . . . . . . . . . 18
Matrici Elementari e invertibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
Calcolo della matrice inversa attraverso lalgoritmo di Gauss . . . . . . . . . . . . . . . . . . . . 20
Matrice associata a unapplicazione lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
Matrice del cambiamento di base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
SD-equivalenza 23
Determinante 25
Criterio dei minori orlati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
Coniugio e Similitudine 30
Calcolo di autovalori e autospazi per una matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 31
Diagonalizzabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Triangolabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
Forme bilineari 36
Forma quadratica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
Congruenza, forme isometriche 38
Rango di unapplicazione bilineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Prodotti Scalari 40
Prodotti scalari deniti positivi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Proprieta degli spazi euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Teorema Spettrale e prodotti Hermitiani 47
Prodotti Hermitiani . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
Ateneo Studenti Fisica 1
Strutture algebriche
Denizione: Sia X un insieme, e sia una funzione tale che: : X X X. Allora si dice che `e
unoperazione su X.
Denizione:

X,

si dice gruppo se X `e un insieme e unoperazione su X che verica 3 propriet`a:


1. Esistenza dellelemento neutro: e X t. c. a e = e a = a;
2. Esistenza dellinverso: a X b X t.c. a b = b a = e;
3. Propriet`a associativa: a, b, c X, (a b) c = a (b c).
Denizione:

X,

si dice gruppo commutativo (o abeliano) se `e un gruppo e vale la propriet`a com-


mutativa: a, b X , a b = b a.
Denizione: Sia X un insieme, + (detta somma) e (detto prodotto) due operazioni su X. Allora
si dice che

X, +,

`e un campo se valgono le seguenti propriet`a:


1. Esistenza dellelemento neutro (detto 0) per la somma;
2. Esistenza dellinverso per la somma;
3. Propriet`a associativa per la somma;
4. Propriet`a commutativa per la somma;
5. Esistenza dellelemento neutro (detto 1) per il prodotto;
6. Propriet`a associativa per il prodotto;
7. Propriet`a distributiva: a, b, c X, a(b +c) = ab +ac, (a +b)c = ac +bc
(Conta lordine!);
8. Esistenza dellinverso per il prodotto;
9. Propriet`a commutativa per il prodotto.
Denizione:

X, +,

`e un anello se valgono le propriet`a 1 - 7 sopra elencate.



E un anello commutativo
se vale anche la propriet`a 9.
Denizione:

X, +,

`e un corpo se valgono le propriet`a 1 - 8 sopra elencate.


2 Ateneo Studenti Fisica
Strutture algebriche
Denizione:

V, +, , K

si dice spazio vettoriale se:


V `e un insieme;
K `e un campo;
+ `e una somma in V (+: V V V);
: K V V (detto prodotto per scalare).
e valgono le seguenti propriet`a:
(V, +) `e un gruppo commutativo;
, K, v V, ()v = (v);
1 K t. c. v V 1 v = v;
, K, v V, ( +)v = v +v;
K, v, w V, (v +w) = v +w;
Spazi Vettoriali
Deniamo ora alcuni spazi vettoriali:
1) Sia K un campo, chiamiamo K
n
= (x
1
, x
2
, . . . , x
n
) [ x
i
K i = 1, . . . , n.
Deniamo + e in questo modo:
(x
1
, x
2
, . . . , x
n
) + (y
1
, y
2
, . . . , y
n
)
def
= (x
1
+y
1
, x
2
+y
2
, . . . , x
n
+y
n
),
(x
1
, x
2
, . . . , x
n
), (y
1
, y
2
, . . . , y
n
) K
n
a (x
1
, x
2
, . . . , x
n
)
def
= (a x
1
, a x
2
, . . . , a x
n
), a K, (x
1
, x
2
, . . . , x
n
) K
n
Notiamo innanzitutto che + e sono ben deniti (poich`e si basano sulle propriet`a del campo K), e che,
grazie a queste denizioni, otteniamo uno spazio vettoriale.
2) Sia K un campo, e sia
K[x] = a
0
+a
1
x +. . . +a
n
x
n
[ a
i
K, i = 1, . . . , n
e siano + e le due operazioni classiche sui polinomi (somma e prodotto tra polinomi). Si verica che,
con le denizioni date, K[x] `e un anello commutativo:
Elemento neutro per la somma: il polinomio i cui coecienti sono tutti uguali a zero;
Inverso per la somma: polinomio con i coecienti inversi;
Elemento neutro per il prodotto: `e il polinomio 1 (tutti i coecienti dei termini di grado
superiore a zero sono zero);
le altre propriet`a valgono perch`e i coecienti sono in un campo;
Verichiamo che non vale lesistenza dellinverso per il prodotto:
consideriamo due polinomi p(x) e q(x) entrambi diversi da zero di grado rispettivamente m e n e consi-
deriamo il loro prodotto p(x) q(x). In tal modo otteniamo un polinomio di grado m +n.
Se fosse, ad esempio, q = p
1
, allora avremmo che p(x) q(x) = 1. Ma ci`o e impossibile per polinomi che
non siano costanti (i cui coecienti dei termini di grado superiore a zero siano diversi da zero), in quanto
essi avrebbero grado maggiore di zero (ovvero il grado di 1).
Se ora consideriamo (K[x], +, , K), con + denito come sopra e denito come:
Ateneo Studenti Fisica 3
Strutture algebriche
: KK[x] K[x]
(a, p(x)) a p(x)
Si verica che e uno spazio vettoriale.
3) Sia V spazio vettoriale su K e sia A un insieme qualsiasi. Sia F linsieme delle applicazioni (funzioni)
da A in V . (F, +, , K) e uno spazio vettoriale se deniamo + e come segue:
f, g F, f +g : A V e t. c.:
a A, (f +g)(a)
def
= f(a) +g(a)
f F, K, f : A V e t. c.:
a A, (f)(a)
def
= f(a)
4) Sia K un campo. Deniamo:
M(p, q, K) = matrici con p righe, q colonne con elementi in K
Una Matrice e nella forma:

a
11
a
1q
.
.
.
.
.
.
.
.
.
a
p1
a
pq

dove a
i
j K, i = 1, . . . , p, j = 1, . . . , q.
Sia A M(p, q, K):
A
i
= i-esima riga;
A
i
= i-esima colonna;
[A]
ij
= elemento di posto (i, j), dove i indica la riga e j la colonna;
0 e la matrice nulla ([0]
ij
= 0 i, j)
A, B M(p, q, K), A = B [A]
ij
= [B]
ij
i, j
Deniamo + e :
A, B M(p, q, K), [A+B]
ij
def
= [A]
ij
+ [B]
ij
i, j
K, A M(p, q, K), [A]
ij
def
= [A]
ij
i, j
(M(p, q, K), +, , K) e uno spazio vettoriale:
(M(p, q, K), +) e un gruppo abeliano:
1. 0 e lelemento neutro;
2. esiste linverso: [A]
ij
+ ([A]
ij
) = 0;
3. vale la proprieta associativa:
[(A+B) +C]
ij
= [A+B]
ij
+ [C]
ij
= [A]
ij
+ [B]
ij
+ [C]
ij
= [A]
ij
+ [B +C]
ij
=
= [A+ (B +C)]
ij
;
4. si verica analogamente la commutativa;
con metodi analoghi si vericano le altre propriet`a.
Proposizioni
Sia V uno spazio vettoriale:
1. lo 0 `e unico in V:
se 0
1
, 0
2
V = 0
1
= 0
1
+ 0
2
= 0
2
per gli assiomi;
2. x V ! x V
se (x)
1
, (x)
2
V inversi di x per somma = (x)
1
= (x)
1
+x + (x)
2
= (x)
2
;
4 Ateneo Studenti Fisica
Strutture algebriche
3. v V 0 v = 0
0 v = (0 + 0)v = 0 v + 0 v = 0 v = 0;
4. se x = 0 = o = 0 o x = 0
se = 0, ok.
se = 0 =
1
K t. c.
1
= 1 = x =
1
x =
1
0 = 0 = x = 0;
5. (1)x = x
x + (1)x = (1 1)x = 0 x = 0.
Sottospazi vettoriali
Denizione: V spazio vettoriale su K. W V si dice sottospazio vettoriale di V se:
0 W;
x, y W, x +y W;
K, x W, x W.
dove + e in questo caso sono le restrizioni della somma e del prodotto su V a W.
Costruire sottospazi
Si puo fare prendendo alcuni vettori e il pi u piccolo sottospazio che li contiene.
Sia V sp. vett. su K, v
1
, . . . , v
n
V , c
1
, . . . , c
n
K. Chiamiamo c
1
v
1
+. . . +c
n
v
n
combinazione lineare
di v
1
, . . . , v
n
. Chiamiamo poi:
span(v
1
, . . . , v
n
) = c
1
v
1
+. . . +c
n
v
n
[ c
1
, . . . , c
n
K
tale insieme `e il pi u piccolo sottospazio di V contenente v
1
, . . . , v
n
:
contiene 0 (tutti i c
i
= 0);
contiene v
i
i = 1, . . . , n;
(a
1
v
1
+. . . +a
n
v
n
) + (b
1
v
1
+. . . +b
n
v
n
) = (a
1
+b
1
)v
1
+. . . + (a
n
+b
n
)v
n
(la somma di due combinazioni lineari e ancora una combinazione lineare);
lo stesso per il prodotto per scalare;
e il pi u piccolo per la denizione che ne abbiamo dato: in un sottospazio vettoriale ci devono
stare v
1
, . . . , v
n
e le loro combinazioni lineari. Abbiamo imposto solo questo nella denizione di
span(v
1
, . . . , v
n
).
Altri sottospazi
Sia V sp. vett. su K, U, W due sottospazi vettoriali di V. Allora U W `e un sottospazio vettoriale di
V. Verichiamolo:
contiene 0 (sia U che W lo contengono);
x, y U W, x + y U W, infatti x e y appartengono sia ad U che a W. Essendo questi
sottospazi, la somma de due vettori appartiene ancora ad entrambi, quindi alla loro intersezione;
lo stesso per il prodotto per scalare.
Vogliamo costruire il pi u piccolo sottospazio contenente U e W. Notiamo innanzitutto che U W non
soddisfa la nostra ricerca, in quanto non `e chiuso per somma. Chiamiamo:
U +W = u +w [ u U, w W
La denizione che abbiamo dato e buona, poiche sia u che w appartengono a V , quindi ha senso sommarli.
Ateneo Studenti Fisica 5
Strutture algebriche
Facciamo vedere che e il sottospazio che cercavamo:
U U +W : u U, u U +W, perche u = u + 0 (con 0 W);
W U +W, per lo stesso motivo (con 0 U);
0 U +W: infatti 0 = 0 + 0;
u
1
, u
2
U, w
1
, w
2
W = (u
1
+w
1
) + (u
2
+w
2
) = (u
1
+u
2
) + (w
1
+w
2
)
ma (u
1
+u
2
) U, (w
1
+w
2
) W = (u
1
+w
1
) + (u
2
+w
2
) U +W;
u U, w W, k K = k(u +w) = ku +kw
ku U, kw W = k(u +w) U +W;
e il pi u piccolo: se Z sottosp. vett. t. c. U Z, W Z
?
= U +W Z:
u +w U +W, u U, w W = u +w Z (poiche e sottosp. vett.) = U +W Z
Denizione: se U W = 0, allora U + W si denota U W e si dice che i due sottospazi sono in
somma diretta tra loro.
Proposizione: in U W ogni vettore si scrive in modo unico come: u +w, u U, w W.
Dimostrazione: se u
1
, u
2
U, w
1
, w
2
W t. c. u
1
+w
1
= u
2
+w
2
= u
1
u
2
= w
1
w
2
.
Ma u
1
u
2
U, w
1
w
2
W = u
1
u
2
U W, w
1
w
2
U W.
Poiche U W = 0, u
1
u
2
= 0, w
1
w
2
= 0, e i vettori sono a due a due uguali.
Denizione: se U e sottospazio vett. di V , un sottospazio W di V si dice supplementare di U se
U W = V .
N.B.: Il supplementare non e unico.
6 Ateneo Studenti Fisica
Applicazioni Lineari, Sistemi Lineari
Siano V, W K-spazi vettoriali, e sia f : V W unapplicazione. Si dice che f e unapplicazione lineare
se soddisfa:
x, y V f(x +y) = f(x) +f(y);
K, x V f(x) = f(x).
Osservazione: Se f e lineare allora f(0) = 0.
Dimostrazione: f(0) = f(0 + 0) = f(0) +f(0) = f(0) = 0.
Deniamo la moltiplicazione tra due vettori (uno riga e uno colonna, entrambi con n elementi) e tra una
matrice A M(p, n, K) e un vettore B K
n
:
(a
1
. . . a
n
)

b
1
.
.
.
b
n

def
= a
1
b
1
+. . . +a
n
b
n
=
n

i=1
a
i
b
i

a
11
. . . a
1n
.
.
.
.
.
.
a
p1
. . . a
pn

b
1
.
.
.
b
n

def
=

a
11
b
1
+. . . +a
1n
b
n
.
.
.
a
p1
b
1
+. . . +a
pn
b
n

Osservazione: il vettore risultato della seconda moltiplicazione e un vettore C K


p
Sia A M(p, n, K) e sia L
A
: K
n
K
p
X AX
Si verica che L
A
e unapplicazione lineare. Tutte le applicazioni lineari sono infatti prodotte da unop-
portuna matrice.
Osservazione: A M(p, n, K), X K
n
, A X = x
1
A
1
+. . . +x
n
A
n
Proposizione: sia g : K
n
K
p
lineare, siano e
1
=

1
0
.
.
.
0

, . . . , e
n
=

0
.
.
.
0
1

(ossia e
i
e il vettore
formato da tutti 0, eccetto lelemento i-esimo, uguale ad 1) e sia inoltre:
A =

g(e
1
) . . . g(e
n
)

. Allora g = L
A
.
Dimostrazione: X K
n
, g(X)
?
= L
A
(X):
Sapendo che A X = x
1
A
1
+. . . +x
n
A
n
, X = x
1
e
1
+. . . +x
n
e
n
e che g e lineare, allora:
L
A
(X) = AX = x
1
A
1
+. . . +x
n
A
n
= x
1
g(e
1
) +. . . +x
n
g(e
n
) = g(x
1
e
1
) +. . . +g(x
n
e
n
) =
= g(x
1
e
1
+. . . +x
n
e
n
) = g(X).
Nucleo e Immagine di unapplicazione lineare, Sistemi Lineari
Denizione: Siano V e W due spazi vett. e sia f : V W lineare. Deniamo nucleo e immagine di
f come:
Ateneo Studenti Fisica 7
Applicazioni Lineari, Sistemi Lineari
Kerf = x V [ f(x) = 0
Imf = y W [ x V t. c. f(x) = y
Osservazione: f e surgettiva Imf = W
Proposizione:
1. Kerf e un sottospazio vett. di V ;
2. Imf e un sottospazio vett. di W;
3. f e iniettiva Kerf = 0
Dimostrazione: :
1. 0 Kerf, poiche f(0) = 0;
x, y Kerf = x +y Kerf: f(x +y) = f(x) +f(y) = 0 + 0 = 0;
x Kerf, K = x Kerf: f(x) = f(x) = 0 = 0.
2. 0 Imf, poiche f(0) = 0;
z, w Imf, x, y V t. c. z = f(x), w = f(y) = z +w = f(x) +f(y) =
= f(x +y) = z +w Imf;
z Imf, x V t. c. z = f(x) = K, z = f(x) = f(x) = z Imf.
3. =: Sappiamo che 0 Kerf. Facciamo vedere che Kerf 0.
Sia x Kerf = f(x) = 0 = f(0). Poiche f e iniettiva: f(x) = f(0) x = 0
=: Facciamo vedere che se f(x) = f(y) x = y
f(x) f(y) = f(x y) = 0 = x y Kerf = x y = 0, x = y
Analogamente: KerL
A
= X K
n
[ AX = 0.
Risoluzione di sistemi lineari
Denizione: Si dice sistema lineare di p equazioni in n incognite x
1
, . . . , x
n
un sistema nella forma:

a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+. . . +a
2n
x
n
= b
2
. . .
a
p1
x
1
+a
p2
x
2
+. . . +a
pn
x
n
= b
p
tale che a
ij
K, b
k
K.
Denizione: (y
1
, . . . , y
n
) K
n
e una soluzione di un sistema lineare se e soluzione di tutte le equazioni
che lo compongono. Risolvere un sistema lineare vuol dire trovare tutte le soluzioni.
Denizione: due sistemi lineari si dicono equivalenti fra loro se hanno le stesse soluzioni.
Dedichiamoci ora alla risoluzione dei sistemi lineari. Prima osserviamo che:
Osservazione: i sistemi a scalini sono semplici da risolvere. Essi sono nella forma:

a
11
x
1
+a
12
x
2
+a
13
x
3
+. . . +a
1n
x
n
= b
1
a
22
x
2
+a
23
x
3
+. . . +a
2n
x
n
= b
2
. . .
a
pp
x
p
+. . . +a
pn
x
n
= b
p
Chiamiamo a
ii
= 0 pivot.

E importante che le incognite calino scendendo nel sistema: e possibile, in tale situazione, risolvere lul-
tima equazione ricavando x
p
= a
1
pp
(b
p
a
p,p+1
x
p+1
. . . a
pn
x
n
), sostituire la variabile ricavata nella
precedente equazione e iterare il processo no ad arrivare alla prima equazione.
8 Ateneo Studenti Fisica
Applicazioni Lineari, Sistemi Lineari
Osservazione: : Eseguendo su un sistema lineare le seguenti operazioni elementari si ottiene un sistema
ad esso equivalente:
1. scambiare due equazioni (lordine non conta);
2. moltiplicare unequazione per K, = 0;
3. sommare ad una equazione un multiplo di unaltra.
Possiamo vedere un sistema lineare anche nella forma:

a
11
. . . a
1n
.
.
.
.
.
.
a
p1
. . . a
pn

x
1
.
.
.
x
n

b
1
.
.
.
b
n

dove la matrice appartiene a M(p, n, K) ed e detta matrice dei coecienti.


Osservazione: AX = B e risolubile Y K
n
t. c. AY = B B ImL
A
.
Se L
A
e surgettiva il sistema e sempre risolubile (esiste sempre Y t. c. AY = B).
Se L
A
e iniettiva il sistema ha ununica soluzione (se esiste Y soluzione, e unica: L
A
(X) = L
A
(Y )
X = Y ).
Un sistema a scalini e rappresentato da una matrice a scalini.
Ci preoccupiamo ora di trasformare una matrice in una a scalini. Per far questo possiamo usare le seguenti
operazioni elementari per riga (che altro non sono che le operazioni elementari sopra citate):
1. scambiare due righe;
2. moltiplicare una riga per K, = 0 (A
i
A
i
);
3. sommare ad una riga un multiplo di unaltra (A
i
A
i
+A
j
).
Algoritmo di Gauss
Cominciamo con un esempio:

1 2 4
2 1 3

x + 2y = 4
2x y = 3
Se la prima colonna e non nulla, guardo lelemento [A]
11
. Se e 0, scambio due righe portando al primo
posto una riga il cui primo elemento e diverso da 0. A questo punto (nel nostro esempio) A
2
A
2
2A
1
:

1 2 4
0 5 5

Faccio in modo che sotto al primo pivot non rimangano che 0, quindi itero il procedimento considerando
il secondo pivot (lelemento di posto [A]
22
) senza toccare pi u la prima riga.
Enunciamo ora lalgoritmo di Gauss per ridurre una matrice A a scalini utilizzando le operazioni per riga:
1. sia j
1
il minimo intero t. c. A
j
1
= 0 (prendo la prima colonna non nulla);
2. a meno di scambiare due righe posso supporre che [A]
1j
1
= 0;
3. i > 1 sostituisco A
i
A
i
([A]
1
1j
1
[A]
ij
1
) A
1
;
4. itero il procedimento sulla sottomatrice ottenuta scartando la prima riga e le prime j
1
colonne.
Esempio:

1 2 3 0
1 2 4 3
2 1 0 1

1 2 3 0
0 0 1 3
0 3 6 1

1 2 3 0
0 3 6 1
0 0 1 3

Teorema:
1. Tramite un numero nito di operazioni per riga ogni matrice puo essere trasformata in una a scalini.
Ateneo Studenti Fisica 9
Applicazioni Lineari, Sistemi Lineari
2. Ogni sistema AX = B e equivalente ad un sistema a scalini (cioe ad A
1
X = B
1
con (A
1
[B
1
) a
scalini).
Osservazione: se AX = B e un sistema equivalente a SX = T, dove (S [ T) e a scalini:
il sistema e risolubile numero di pivots di S = numero di pivots di (S [ T);
se e risolubile, ricavo r variabili in funzione di n r parametri.
Prodotto di Matrici
Siano f e g due applicazioni lineari tale che:
K
n
f
K
p
g
K
q
con f(X) = AX e g(X) = BX, dove A M(p, n, K), B M(q, p, K).
Osservazione: La composizione di due applicazioni lineari e lineare:
(g f)(x +y) = g

f(x +y)

= g

f(x) +f(y)

= g

f(x)

+g

f(y)

= (g f)(x) + (g f)(y);
(g f)(x) = g

f(x)

= g

f(x)

= g

f(x)

= (g f)(x).
Anche (g f) deve essere indotta da una matrice: C M(q, n) t. c. (g f)(X) = CX X K
n
.
Per capire come la matrice C derivi dalle matrici A e B, calcoliamo lelemento di posto j nel vettore
(g f)(X) K
q
. Utilizziamo la notazione [(g f)(X)]
j1
in quanto vediamo il vettore come una matrice
con q righe e 1 colonna.
Ricordiamo inoltre che data una matrice A M(p, n, K) e un vettore X K
n
:
[AX]
i1
=
n

k=1

[A]
ik
[X]
k1

[(gf)(X)]
j1
= [B(AX)]
j1
=
p

h=1
[B]
jh
[AX]
h1
=
p

h=1
[B]
jh

i=1

[A]
hi
[X]
i1

=
n

i=1

h=1
[B]
jh
[A]
hi

[X]
i1
Dunque se B A M(q, n) allora:
[AX]
ji
=
p

h=1
[B]
jh
[A]
hi
= B
j
A
i
Poiche si moltiplica la j-esima riga di B per la i-esima colonna di A, tale prodotto viene detto: prodotto
riga per colonna.
Osservazione: non sempre due matrici sono moltiplicabili: abbiamo visto che la prima deve avere un
numero di colonne pari al numero di righe della seconda.
Si verica che, nei casi in cui il prodotto ha senso:
(AB)C = A(BC)
(A)B = (AB)
(A+B)C = AC +BC
A(B +C) = AB +AC
I
p
A = AI
q
= A, A M(p, q), I
n
M(n, n) t. c. [I
n
]
ii
= 1, [I
n
]
ji
= 0 j = i
La matrice I
n
, detta matrice identica e nella forma:

1 0
.
.
.
0 1

10 Ateneo Studenti Fisica


Applicazioni Lineari, Sistemi Lineari
Ci restingiamo ora al caso delle matrici quadrate, ossia quelle in cui il numero di righe e di colonne e lo
stesso. Le indichiamo con M(n). Consideriamo

M(n), +,

, con restrizione del prodotto fra matrici


allinsieme delle matrici quadrate. Esso e un anello non commutativo.
Facciamo vedere con un esempio che non vale le proprieta commutativa:

1 2
3 1

2 1
0 3

2 5
6 0

2 1
0 3

1 2
3 1

1 3
9 3

Dimostriamo che non esiste linverso per tutti gli elementi dellanello (e dimostriamo quindi che e eet-
tivamente un anello e non un corpo).
Consideriamo la matrice

1 1
0 0

= 0 e facciamo vedere che non esiste nessuna matrice che, moltipli-


candola a destra, ci dia la matrice identita:

1 1
0 0

a b
c d

a +b c +d
0 0

1 0
0 1

Ne ricaviamo un assurdo, poiche abbiamo 0 = 1.


Denizione: sia A un anello, a A, a = 0 si dice divisore di zero se b A, b = 0 t. c. a b = 0.
Osservazione: un campo e un corpo non contengono divisori di 0 (a causa dellesistenza dellinverso).
Facciamo vedere che lanello considerato contiene divisori di 0:

1 0
0 0

0 0
1 1

0 0
0 0

Denizione: A M(n) si dice nilpotente se m N t. c. A


m
= 0.
La seguente matrice e nilpotente:

0 1
0 0

0 1
0 0

0 0
0 0

Ateneo Studenti Fisica 11


Dimensione e base di uno spazio
vettoriale
Denizione: V spazio vettoriale si dice nitamente generato se v
1
, . . . , v
n
t. c. V = span(v
1
, . . . , v
n
),
cioe
v V c
1
, . . . , c
n
K t. c. v =
n

i=1
c
i
v
i
.
Osservazione: R[x] non e nitamente generato. Se p
1
(x), . . . , p
m
(x) fossero generatori, detto
s = max deg

p
i
(x)

, i = 1, . . . , m, non si potrebbero ottenere polinomi di grado maggiore ad s.


Denizione: v
1
, . . . , v
n
V si dicono linearmente indipendenti se lunica combinazione lineare nulla dei
v
i
e quella con i coecienti tutti nulli. Ossia:
c
1
v
1
+. . . +c
n
v
n
= 0 c
1
= . . . = c
n
= 0
Denizione: v
1
, . . . , v
n
si dice base di V se sono generatori di V e linearmente indipendenti.
Esempi:
e
1
, . . . , e
n
sono una base di K
n
1, x, . . . , x
d
sono una base di K
d
[x], ossia il sottospazio vettoriale di K[x] contenente i polinomi di grado
minore o uguale a d.
Osservazione: v V e linearmente indipendente = v = 0.
Proposizione: se uno almeno fra v
1
, . . . , v
k
e nullo = v
1
, . . . , v
k
sono linearmente dipendenti;
Dimostrazione: se v
1
= 0 = v
1
+ 0 v
2
+. . . + 0 v
n
= 0, ma il primo coeciente e non nullo.
Proposizione: Sia k 2. v
1
, . . . , v
k
sono linearmente indipendenti almeno uno di essi e combina-
zione lineare degli altri.
Dimostrazione:
=:
1
, . . . ,
k
K non tutti nulli t. c.
1
v
1
+. . . +
k
v
k
= 0.
Se per esempio:
1
= 0 =
1
v
1
= (
2
v
2
+. . . +
k
v
k
) = v
1
=
1
1
(
2
v
2
+. . . +
k
v
k
). Cioe v
1
e
combinazione lineare degli altri vettori.
=: Se v
1
= b
2
v
2
+. . . +b
k
v
k
= v
1
b
2
v
2
. . . b
k
v
k
= 0, ossia sono linearmente dipendenti.
Osservazione: v
1
, . . . , v
k
sono vettori linearmente indipendenti e m k = v
1
, . . . , v
m
sono linear-
mente indipendenti.
Osservazione: se v
p
span(v
1
, . . . , v
p1
) = span(v
1
, . . . , v
p
) = span(v
1
, . . . , v
p1
).
Proposizione: Se B = v
1
, . . . , v
m
e una base di V , allora ogni v V si scrive in modo unico come:
v = a
1
v
1
+. . . +a
m
v
m
. a
1
, . . . , a
m
si dicono coordinate di v rispetto alla base B e si scrive [v]
B
.
Dimostrazione:
Se v = a
1
v
1
+. . . +a
m
v
m
= b
1
v
1
+. . . +b
m
v
m
= (a
1
b
1
)v
1
+. . . + (a
m
b
m
)v
m
= 0.
Essendo v
1
, . . . , v
m
linearmente indipendenti: a
i
b
i
= 0 i = 1, . . . , m = a
i
= b
i
i = 1, . . . , m.
In uno spazio K
n
le componenti di un vettore coincidono con le coordinate, se si una la base canonica
( = e
1
, . . . , e
n
.
12 Ateneo Studenti Fisica
Dimensione e base di uno spazio vettoriale
Fissare B base di V signica ssare lapplicazione: [ ]
B
: V K
n
.
Verichiamo che lapplicazione [ ]
B
e lineare:
[ ]
B
(v +w)
?
= [ ]
B
(v) + [ ]
B
(w)
v = a
1
v
1
+. . . +a
n
v
n
, w = b
1
v
1
+. . . +b
n
v
n
= v +w = (a
1
+b
1
)v
1
+. . . + (a
n
+b
n
)v
n
[v +w]
B
=

a
1
+b
1
.
.
.
a
n
+b
n

a
1
.
.
.
a
n

b
1
.
.
.
b
n

= [v]
B
+ [w]
B
;
allo stesso modo per il multiplo.
[ ]
B
e iniettiva: se v Ker[ ]
B
= [v]
B
=

0, . . . , 0

= v = 0 v
1
+. . . + 0 v
n
.
[ ]
B
e surgettiva:

c
1
, . . . , c
n

v V t. c. [v]
B
=

c
1
, . . . , c
n

, basta prendere v = c
1
v
1
+. . . +c
n
v
n
.
Denizione: unapplicazione lineare inettiva e surgettiva si dice isomorsmo.
Denizione: quando tra due spazi vettoriale ce un isomorsmo si dicono isomor.
Teorema: sia v
1
, . . . , v
n
una base di V , e siano w
1
, . . . , w
p
p vettori di V . Se p > n = w
1
, . . . , w
p
sono linearmente dipendenti.
Dimostrazione: Essendo v
1
, . . . , v
n
una base posso scrivere w
1
, . . . , w
p
come loro combinazioni li-
neari:
w
1
= a
11
v
1
+. . . +a
n1
v
n
w
2
= a
12
v
1
+. . . +a
n2
v
n
.
.
.
w
p
= a
1p
v
1
+. . . +a
np
v
n
Cerco
1
, . . . ,
p
non tutti nulli t. c.
1
w
1
+. . . +
p
w
p
= 0:
0 =
1
w
1
+. . . +
p
w
p
=
1
(a
11
v
1
+. . . +a
n1
v
n
) +. . . +
p
(a
1p
v
1
+. . . +a
np
v
n
) =
= (a
11

1
+. . . +a
1p

p
)v
1
+. . . + (a
n1

1
+. . . +a
np

p
)v
n
Ma v
1
, . . . , v
n
sono tutti linearmente indipendenti, quindi una loro combinazione lineare nulla si ot-
tiene sono se i coecienti sono tutti nulli, cioe se:

a
11

1
+. . . +a
1p

p
= 0
.
.
.
a
n1

1
+. . . +a
np

p
= 0
Quindi (
1
, . . . ,
p
) devono essere soluzioni del sistema lineare omogeneo (i cui termini noti sono tutti
nulli) la cui matrice associata e:

a
11
. . . a
1p
.
.
.
.
.
.
a
n1
. . . a
np

M(n, p)
Sappiamo che un sistema omogeneo ha sempre soluzione (almeno la soluzione nulla), ma ci interessa che
ne abbia almeno unaltra non nulla. Osserviamo che il numero di pivot e al pi u n, ma n < p, quindi esiste
almeno unaltra soluzione (
1
, . . . ,
p
) non nulla.
Corollario: se B = v
1
, . . . , v
n
e o = w
1
, . . . , w
p
sono due basi di V = n = p
Dimostrazione: dal teorema n p, ma anche p n, poiche sono entrambe basi = n = p
Denizione: se V ammette una base B = v
1
, . . . , v
n
, si dice che V ha dimensione n e si indica
dimV = n

per convenzione si pone dim

= 0

.
Proposizione: sia V =

. Da ogni insieme nito di generatori e possibile estrarre una base di V (ogni


spazio vettoriale nitamente generato ammette una base).
Ateneo Studenti Fisica 13
Dimensione e base di uno spazio vettoriale
Dimostrazione: sia v
1
, . . . , v
k
un insieme di generatori di V . Posso supporre v
i
= 0 i = 1, . . . , k.
v
1
e linearmente indipendente poiche e diverso da 0. Se span

v
1

= V =

v
1

e base di V .
Altrimenti consideriamo v
2
e

v
1
, v
2

. Se sono linearmente indipendenti allora tengo v


2
, altrimenti lo si
scarta e i rimanenti

v
1
, v
3
, . . . , v
k

sono ancora generatori, poiche v


2
span

v
1

= span

v
1
, v
2

=
= span

v
1

= span

v
1
, v
3
, . . . , v
k

= span

v
1
, v
2
, v
3
, . . . , v
k

.
Si itera lalgoritmo per gli altri generatori. Alla ne si ottiene una lista di vettori linearmente indipendenti
e generatori.
Corollario: se v
1
, . . . , v
k
generano V = dimV k
Lemma: se dimV = n e v
1
, . . . , v
n
sono linearmente indipendenti = v
1
, . . . , v
n
e una base di V .
Dimostrazione: se per assurdo v
1
, . . . , v
n
non generano V = v V span(v
1
, . . . , v
n
). Allora
v
1
, . . . , v
n
, v sono linearmente indipendenti, infatti sia a
1
v
1
+. . . +a
n
v
n
+bv = 0; sicuramente b = 0 al-
trimenti v span(v
1
, . . . , v
n
), ma v
1
, . . . , v
n
sono linearmente indipendenti, quindi a
1
= 0 i = 1, . . . , n.
Abbiamo allora trovato n + 1 vettori linearmente indipendenti, ma dimV = n. Assurdo.
Teorema: (di completamento a base) se dimV = n e v
1
, . . . , v
k
sono vettori linearmente indipendenti,
(k n) = v
k+1
, . . . , v
n
V t. c. v
1
, . . . , v
k
, v
k+1
, . . . , v
n
e una base di V .
Dimostrazione: se k = n e gia una base. Se k < n = v
1
, . . . , v
k
= span(v
1
, . . . , v
k
) V . Quindi
v
k+1
V span(v
1
, . . . , v
k
) t. c. v
1
, . . . , v
k
, v
k+1
sono linearmente indipendenti. Se k +1 = n la base
e trovata, altrimenti si itera il procedimento cercando v
k+2
V span(v
1
, . . . , v
k+1
).
Osservazione: se v
1
, . . . , v
k
sono linearmente indipendenti e conosco una base B = w
1
, . . . , w
n
di
V = posso completare v
1
, . . . , v
k
a base cos: v
1
, . . . , v
k
, w
1
, . . . , w
n
. Ottengo in tal modo un insieme
di generatori di V non tutti linearmente indipendenti. Da questo, applicando lalgoritmo sopra esposto,
estraggo una base di V della forma: o = v
1
, . . . , v
n
, w
1
, . . . , w
i
nk
.
Proposizione: sia V uno spazio vettoriale nitamente generato, W V sottospazio vettoriale = W
e nitamente generato e dimW dimV .
Dimostrazione: se W = 0 sicuramente dimV 0. Sia quindi W = 0 = w
1
W, w
1
= 0.
w
1
e linearmente indipendente in W e anche in V , poiche w
1
V e la verica da fare e la stessa.
Ora, se span(w
1
) = W = dimW = 1 e dimV 1.
Altrimenti se span(w
1
) W = w
2
W span(w
1
) t. c. w
1
, w
2
sono linearmente indipendenti in
V e W. Si itera il procedimento un numero nito di volte, al pi u pari a dimV , poiche questultimo e
nitamente generato.
Corollario: se dimW = dimV, W V = W = V .
Dimostrazione: dimW = n = B = w
1
, . . . , w
n
e base di W. Ma w
1
, . . . , w
n
V , sono linearmente
indipendenti e generatori, sono n = dimV = V = span(w
1
, . . . , w
n
) = W.
Formula di Grassman
Sia V uno spazio vettoriale, e siano U, W V sottospazi vettoriali. Allora:
dim(U +W) = dimU + dimW dim(U W)
Dimostrazione: sia v
1
, . . . , v
m
una base di U W. Possiamo completare a base di U e di W:
u
m+1
, . . . , u
p
U t. c. v
1
, . . . , v
m
, u
m+1
, . . . , u
p
base di U. Allora dimU = p.
w
m+1
, . . . , w
q
W t. c. v
1
, . . . , v
m
, w
m+1
, . . . , w
q
base di W. Quindi dimW = q.
Proviamo che dim(U + W) = p + q m; basta provare che v
1
, . . . , v
m
, u
m+1
, . . . , u
p
, w
m+1
, . . . , w
q
e
una base di U +W, poiche sono nel numero giusto. Dimostriamo innanazitutto che sono generatori:
u +w U +W:
u = a
1
v
1
+. . . +a
m
v
m
+b
m+1
u
m+1
+. . . +b
p
u
p
;
w = c
1
v
1
+. . . +c
m
v
m
+d
m+1
w
m+1
+. . . +d
q
w
q
;
quindi ogni u + w U + W si scrive come combinazione lineare di questi vettori. Dimostriamo ora che
sono linearmente indipendenti:
a
1
v
1
+. . . +a
m
v
m
+b
m+1
u
m+1
+. . . +b
p
u
p
+c
m+1
w
m+1
+. . . +c
q
w
q
= 0
a
1
v
1
+. . . +a
m
v
m
+b
m+1
u
m+1
+. . . +b
p
u
p
= (c
m+1
w
m+1
+. . . +c
q
w
q
)
14 Ateneo Studenti Fisica
Dimensione e base di uno spazio vettoriale
quindi c
m+1
w
m+1
+. . . +c
q
w
q
appartiene sia a W (poiche combinazione di w
m+1
, . . . , w
q
), sia a U (poiche
combinazione lineare di v
1
, . . . , v
m
, u
m+1
, . . . , u
p
base di U). Allora:
c
m+1
w
m+1
+. . . +c
q
w
q
U W =
1
, . . . ,
m
t. c. c
m+1
w
m+1
+. . . +c
q
w
q
=
1
v
1
+. . . +
m
v
m
La combinazione lineare nulla di cui sopra diventa:
a
1
v
1
+. . . +a
m
v
m
+b
m+1
u
m+1
+. . . +b
p
u
p
+
1
v
1
+. . . +
m
v
m
= 0
Essa e una combinazione lineare nulla dei vettori della base di U, che sono linearmente indipendenti.
Sicuramente quindi b
i
= 0 i = m+ 1, . . . , p. In tal modo abbiamo che:
a
1
v
1
+. . . +a
m
v
m
+c
m+1
w
m+1
+. . . +c
q
w
q
= 0
Ma tali vettori formano una base di W = i coecienti di una loro combinazione lineare nulla sono tutti
nulli. Dunque v
1
, . . . , v
m
, u
m+1
, . . . , u
p
, w
m+1
, . . . , w
q
e una base di U +W.
Corollario: se U W = 0 = dim(U W) = dimU + dimW.
Proposizione: sia V uno spazio vettoriale, U V sottospazio vettoriale. Sia u
1
, . . . , u
p
una base di
U, v
p+1
, . . . , v
n
V t. c. u
1
, . . . , u
p
, v
p+1
, . . . , v
n
e una base di V . Sia Z = span(v
p+1
, . . . , v
n
)
= V = U Z.
Dimostrazione: facciamo innanzitutto vedere che U Z = 0:
Se v U Z allora possiamo scrivere v come:
v = a
1
u
1
+. . . +a
p
u
p
, dato che v U e
v = b
p+1
v
p+1
+. . . +b
n
v
n
, dato che v Z.
Allora, eguagliando le due espressioni:
a
1
u
1
+. . . +a
p
u
p
b
p+1
v
p+1
. . . b
n
v
n
= 0.
Ma una combinazione lineare nulla dei vettori della base di V e possibile se e solo se i coecienti sono
tutti nulli. Allora v = 0 e lunico vettore in U Z.
Mostriamo ora che U Z = V . Sappiamo che:
dim(U Z) = dimV , ma anche U Z V = U Z = V .
Proposizione: sia V = U Z, B = u
1
, . . . , u
p
base di U, o = z
1
, . . . , z
q
base di Z. Allora B o e
base di V .
Dimostrazione: Sicuramente sono generatori, visto la loro somma diretta e V . Facciamo vedere che
sono anche linearmente indipendenti:

1
u
1
+. . . +
p
u
p
+
1
z
1
+. . . +
q
z
q
= 0 =
1
u
1
+. . . +
p
u
p
= (
1
z
1
+. . . +
q
z
q
)
Allora sia
1
u
1
+. . . +
p
u
p
che
1
z
1
+. . . +
q
z
q
appartengono contemporaneamente a U e Z, quindi
appartengono a U Z.
Ma U Z = 0, quindi:

1
u
1
+. . . +
p
u
p
= 0

1
z
1
+. . . +
q
z
q
= 0
Essendo u
1
, . . . , u
p
linearmente indipendenti (poiche formano una base di U), cos come z
1
, . . . , z
q
, tutti
i coecienti
i
,
i
sono zero, quindi i vettori u
1
, . . . , u
p
, z
1
, . . . , z
q
sono tra loro tutti linearmente
indipendenti e formano una base di V .
Ateneo Studenti Fisica 15
Rango di unapplicazione lineare
Lemma: siano V e W due spazi vettoriali, f : V W unapplicazione lineare. Allora
1. se v
1
, . . . , v
k
sono vettori linearmente indipendenti in V e f e iniettiva = f(v
1
), . . . , f(v
k
) sono
indipendenti in W;
2. se v
1
, . . . , v
k
generano V = f(v
1
), . . . , f(v
k
) generano Imf (se f e surgettiva generano W).
Dimostrazione:
1. a
1
f(v
1
) +. . . +a
k
f(v
k
) = f(a
1
v
1
+. . . +a
k
v
k
) = 0 = a
1
v
1
+. . . +a
k
v
k
Kerf = 0 =
= a
1
= . . . = a
k
= 0;
2. f(y) Imf, y V, b
1
, . . . , b
k
t. c. y = b
1
v
1
+. . . +b
k
v
k
= f(y) = f(b
1
v
1
+. . . +b
k
v
k
) =
= b
1
f(v
1
) +. . . +b
k
f(v
k
). Ogni vettore in Imf e generato da f(v
1
), . . . , f(v
k
).
Corollario: se f e un isomorsmo = f trasforma una base di V in una di W.
Teorema: (formula delle dimensioni) sia f : V W lineare = dimV = dimKerf + dimImf.
Dimostrazione: sia dimV = n, dimKerf = p. Proviamo che dimImf = n p.
Sia v
1
, . . . , v
p
una base di Kerf. La completiamo a base di V : B = v
1
, . . . , v
p
, v
p+1
, . . . , v
n
=
= f(v
1
), . . . , f(v
p
), f(v
p+1
), . . . , f(v
n
) generano Imf (per il Lemma 2). Ma f(v
1
) = . . . = f(v
p
) = 0,
quindi basta dimostrare che f(v
p+1
), . . . , f(v
n
) sono linearmente indipendenti:
0 = a
p+1
f(v
p+1
) +. . . +a
n
f(v
n
) = f(a
p+1
v
p+1
+. . . +a
n
v
n
) = a
p+1
v
p+1
+. . . +a
n
v
n
Kerf =
= b
1
, . . . , b
p
K t. c. a
p+1
v
p+1
+. . . +a
n
v
n
= b
1
v
1
+. . . +b
p
v
p
=
= a
p+1
v
p+1
+. . . +a
n
v
n
(b
1
v
1
+. . . +b
p
v
p
) = 0 = a
p+1
= . . . = a
n
= b
1
= . . . = b
p
= 0
Poiche sono tutti vettori di una base di V , quindi linearmente indipendenti. Dunque dimImf = n p =
= dimV dimKerf.
Conseguenze:
1. dimImf dimV ;
2. se dimV = dimW, f e iniettiva f e surgettiva
Dimostrazione: (=): f iniettiva = Kerf = 0 = dimW = dimV = dimImf = essendo
Imf W, dimImf = dimW = Imf = W.
(=): f surgettiva Imf = W = dimKerf = dimV dimImf = dimV dimW = 0 =
= Kerf = 0 = f e iniettiva;
Corollario: V, W K-spazi vettoriali, V, W sono isomor dimV = dimW.
Dimostrazione:
(=) : dimV = dimW = n = V

= K
n
= W.
(=) : f : V W isomorsmo di spazi vettoriali = Kerf = 0, Imf = W = dimV =
dimKerf + dimImf = dimW.
Si dice che V e W appartengono alla stessa classe di equivalenza.
Classe di Equivalenza
Denizione: Sia E un insieme. Data R una relazione tra gli elementi dellinsieme, e possibile stabilire
se, presi due elementi di E, essi sono in relazione fra loro. In particolare R e una relazione di equivalenza
16 Ateneo Studenti Fisica
Rango di unapplicazione lineare
se valgono le seguenti proprieta:
riessiva: x E xRx;
simmatrica: x, y E, xRy = yRx;
transitiva: x, y, z E, xRy e yRz = xRz.
Denizione: x E, R relazione di equivalenza, si dice classe di equivalenza di x linsieme: [x] = y
E [ yRx
Proprieta:
1.

[x] = E (ossia le classi di equivalenza ricoprono E);
2. [x] = [y] xRy:
Dimostrazione: (=): x [x] = [y] = x [y] = xRy per denizione di classe dequivalenza.
(=): z [x] zRx, poiche si ha anche che xRy = zRy (proprieta transitiva) = z [y]. Vale
il viceversa: z [y] zRy, yRx (proprieta riessiva) = zRx = z [x];
3. se [x] = [y] = [x] [y] = .
Denizione: dato E un insieme, R una relazione dequivalenza, si dice insieme quoziente:
E
/R
= [x] [ x E
Proposizione: siano V , W e Z tre spazi vettoriali, e siano f, g due applicazioni lineari tali che:
V
f
W
g
Z:
1. dimIm(g f) min

dimImf, dimImg

;
2. se f e un isomorsmo = dimIm(g f) = dimImg;
3. se g e un isomorsmo = dimIm(g f) = dimImf.
Dimostrazione: :
1. dimIm(g f) = dimIm(g
[
Imf
) = dimImf dimKer(g
[
Imf
) dimImf.
Im(g f) Img = dimIm(g f) dimImg.
Allora, dovendo essere minore delluna e dellaltra: dimIm(g f) min

dimImf, dimImg

;
2. f isomorsmo = f surgettiva, quindi Imf = W. Allora:
dimIm(g f) = dimIm(g
[
Imf
) = dimIm(g
[
W
) = dimImg;
3. g isomorsmo = g iniettiva, quindi Kerg = 0. Allora:
dimIm(g f) = dimImf dimKer(g
[
Imf
) = dimImf dim0 = dimImf.
Teorema: sia dimV = n e sia B = v
1
, . . . , v
n
una base di V . Siano w
1
, . . . , w
n
vettori di W. =
!f lineare tale che f : V W e f(v
i
) = w
i
i = 1, . . . , n.
Dimostrazione:
Esistenza:
v V, a
1
, . . . , a
n
K, unici, t. c. v = a
1
v
1
+. . . +a
n
v
n
.
Deniamo f(v) = a
1
w
1
+. . . +a
n
w
n
. Proviamo che tale denizione verica i vincoli, ossia che f denita
in questo modo e lineare:
v, w V, v = a
1
v
1
+. . . +a
n
v
n
, w = b
1
v
1
+. . . +b
n
v
n
.
f(v+w) = f

(a
1
+b
1
)v
1
+. . .+(a
n
+b
n
)v
n

= (a
1
+b
1
)w
1
+. . .+(a
n
+b
n
)w
n
= a
1
w
1
+. . . +a
n
w
n
+
+b
1
w
1
+. . . +b
n
w
n
= f(v) +f(w);
Lo stesso si fa per il multiplo.
Ateneo Studenti Fisica 17
Rango di unapplicazione lineare
Unicita:
v V, v = a
1
v
1
+. . . +a
n
v
n
.
Se f e unapplicazione lineare tale che f(v
i
) = w
i
i = 1, . . . , n, allora:
f(v) = f(a
1
v
1
+. . . +a
n
v
n
) = a
1
f(v
1
) +. . . +a
n
f(v
n
) = a
1
w
1
+. . . +a
n
w
n
.
Quindi la denizione che abbiamo dato e lunica ache f fosse lineare.
Denizione: sia f unapplicazione lineare. Si dice rango di f (e si indica rkf) la dimensione di Imf.
Cominciamo considerando le matrici M(p, q, K), ovvero le applicazioni lineari da K
q
a K
p
.
Se A M(p, q, K), data ( = e
1
, . . . , e
q
la base canonica di K
q
, abbiamo dimostrato che Ae
1
, . . . , Ae
q
generano limmagine di A.
Ma Ae
i
= A
i
, ossia li-esima colonna di A. Quindi: ImA = span(A
1
, . . . , A
q
).
Proposizione: sia A M(p, n) e sia S una sua ridotta a scala. Allora rkA = rkS.
Dimostrazione: dalla formula delle dimensioni:
rkA = dimImA = dimK
n
dimKerA = n dimKerA;
rkS = n dimKerS.
Ma KerA = KerS. Infatti essi sono gli insiemi delle soluzioni dei due sistemi lineari omogenei associati:
AX = 0 e SX = 0. Essendo essi due sistemi equivalenti (S e ottenuto da A tramite riduzione di Gauss)
hanno le stesse soluzioni, cioe KerA = KerS = rkA = rkS.
Calcolo del rango di una matrice a scalini S e di una base di ImS
Proposizione: sia S M(p, n, K), con p
1
, . . . , p
r
r pivots non nulli nelle colonne S
j
1
, . . . , S
j
r
. Allora
esse formano una base di ImS e che, quindi, rkS = r.
Dimostrazione: S
j
1
, . . . , S
j
r
sono linearmente indipendenti:
a
1
S
j
1
+. . .+a
r
S
j
r
= 0. Dalla prima somma otteniamo un vettore. Consideriamo lultima componente
non nulla di tale vettore (che otteniamo dalla sola colonna S
j
r
):

.
.
.
a
r
p
r
0

.
.
.
0
0

Anche sia uguale a 0, poiche p


r
= 0 per ipotesi = a
r
= 0. Si itera il procedimento, considerando che
ora lultima componente non nulla e data dalla colonna S
j
r1
.
Sono generatori:
facciamo vedere che i = j
1
, . . . , j
r
, S
i
e una combinazione lineare di S
j
1
, . . . , S
j
r
, ossia che
a
1
, . . . , a
r
K t. c. S
i
= a
1
S
j
1
+ . . . + a
r
S
j
r
. Cercare a
1
, . . . , a
r
signica cercare le soluzioni del
seguente sistema lineare:

S
j
1
. . . S
j
r

a
1
.
.
.
a
r

S
i

Sappiamo che la soluzione esiste se non compare un pivot nella colonna dei termini noti. Nel nostro caso
tutte le colonne in cui compaiono pivot sono S
j
1
, . . . , S
j
r
, quindi esiste la soluzione, poiche abbiamo posto
i = j
1
, . . . , j
r
.
Corollario: In particolare il numero di pivots non dipende dalla riduzione a scala (abbiamo dimostrato
che il rango e invariante rispetto alla riduzione di Gauss).
Matrici Elementari e invertibili
Sia M M(m, n). Le mosse di Gauss per riga si realizzano moltiplicando M a sinistra con opportune
matrici elementari, che si ottengono apportando modiche alla matrice identita:
18 Ateneo Studenti Fisica
Rango di unapplicazione lineare
1. scambiare due righe i, j t. c. i = j, 1 i, j m. La relativa matrice elementare (A
ij
) si ottiene
dalla matrice identita scambiando la riga i-esima con la j-esima;
2. moltiplicare la riga i-esima per k: basta moltiplicare la i-esima riga della matrice identita per k e
otteniamo la matrice elementare (B
ik
);
3. aggiungere alla i-esima riga k volte la j-esima:
C
ijk
=

I
1 k
I
1
I

dove si e indicata con I unopportuna matrice identita (ossia una serie di 1 sulla diagonale). k
compare nel posto [C]
ij
.
Sappiamo che le mosse di Gauss sono invertibili, quindi devono essere indotte da matrici invertibili. In-
fatti:
A
2
ij
= I (scambiando due volte le righe i, j otteniamo nuovamente la matrice di partenza);
B
i
1
k
B
ik
= I (moltiplicando la riga i per k e
1
k
otteniamo la riga stessa);
C
i,j,k
C
i,j,k
= I (sommiamo e sottraiamo la stessa riga moltiplicata per k).
Osservazione: Per ottenere le mosse di Gauss sulle colonne, anziche sulle righe, basta utilizzare le stesse
matrici elementari moltiplicando a destra.
Proposizione: Sia A M(n) (A : K
n
K
n
). Sono fatti equivalenti:
1. A e una matrice invertibili;
2. A e un isomorsmo;
3. rkA = n.
Dimostrazione:
(1) (2): A matrice invertibile B M(n) t. c. A B = B A = I (considerando A e B
come applicazioni lineari) B e linversa di A A e bigettiva A e un isomorsmo.
(2) (3): A isomorsmo n = dim(K
n
) = dim(ImA) + dim(KerA) = rkA+ dim0 = rkA.
Teorema: (di Rouche-Capelli ) AX = B e risolubile rkA = rk

A[B

.
Dimostrazione: (idea)

A[B

S[T

a scalini (sono equivalenti ). Sappiamo che rkA = rkS,


rk

A[B

= rk

S[T

. Ma

S[T

e risolubile rk

S[T

= rkS.
Data A M(p, n) sappiamo che ImA = span(A
1
, . . . , A
n
). Resta da determinare una base di ImA,
sapendo che dim(ImA) = rkA = rkS = r. A tal proposito consideriamo una qualunque riduzione di
Gauss che trasforma la matrice A in S (a scalini). Sappiamo che E
1
, . . . , E
m
matrici elementari tali
che:
S = E
m
. . . E
1
A
Detta M = E
m
. . . E
1
, possiamo dare uninterpretazione dellalgoritmo di Gauss sotto forma di
applicazioni lineari:
K
n
A
K
p
M
K
p
Sappiamo che M e una matrice invertibile (poiche prodotto di matrici invertibili), dunque e un isomor-
smo di spazi vettoriali. Ma un isomorsmo manda basi in basi, quindi M trasforma una base di ImS in
una di ImA.
Sia S
j
1
, . . . , S
j
r
una base di ImS. Poiche M A
j
= S
j
:
M A
j
1
= S
j
1
.
.
.
M A
j
r
= S
j
r
Ateneo Studenti Fisica 19
Rango di unapplicazione lineare
Di conseguenza A
j
1
, . . . , A
j
r
sono una base di ImA.
Conseguenza: Algoritmo di estrazione di una base per span(v
1
, . . . , v
m
), v
1
, . . . , v
m
K
p
. Costruiamo
la seguente matrice:

v
1
. . . v
m

M(p, m).
Allora span(v
1
, . . . , v
m
) = ImA. Per trovare la base cercata si considerano le colonne che in una ridotta
a scala contengono i pivots. Abbiamo visto che tali colonne formano una base di ImA, quindi anche di
span(v
1
, . . . , v
m
).
Osservazione: sia V un qualsiasi spazio vettoriale, non necessariamente K
n
, e siano v
1
, . . . , v
m
vettori
di V da cui vogliamo estrarre una base di span(v
1
, . . . , v
m
). Fissata B una base di V , abbiamo lisomor-
smo [ ]
B
: V K
n
. Si applica lalgoritmo di estrazione di una base a [v
1
]
B
, . . . , [v
n
]
B
.
Calcolo della matrice inversa attraverso lalgoritmo di Gauss
Sia A M(n) t. c. rkA = n. Cerchiamo X tale che AX = I (inversa a destra).
Es. Sia A =

1 2
1 3

. Si puo calcolare il rango attraverso una riduzione di Gauss e vedere che rkA = 2.
Cerchiamo una matrice X tale che:

1 2
1 3

x y
z t

1 0
0 1

Ossia AX
1
= I
1
, AX
2
= I
2
. Possiamo rappresentare il sistema (e risolverlo):

1 2 1 0
1 3 0 1

1 2 1 0
0 1 1 1

1 0 3 2
0 3 1 1

. Quindi X =

3 2
1 1

e quello che
cercavamo.
Ripetiamo il procedimento nel caso generico con A M(n):

AX
1
= I
1
.
.
.
AX
n
= I
n

A[ I

Gauss

I [ B

IX
1
= B
1
.
.
.
IX
n
= B
n
X = B
Facciamo vedere che B e anche inversa a sinistra:
M invertibile (prodotto di elementari) t. c.

I [ B

= M

A[ I

MA[ MI

= B = MI = M,
I = MA = BA.
Matrice associata a unapplicazione lineare
Proposizione: Siano V e W due spazi vettoriali tali che n = dimV, p = dimW, e sia f : V W
unapplicazione lineare. Siano B = v
1
, . . . , v
n
e o = w
1
, . . . , w
p
basi rispettivamente di V e di W.
Sia A M(p, n) tale che:
A =


f(v
1
)

S
. . .

f(v
n
)

che indichiamo come A = m


B,S
(f) o A = m
B
S
(f) (cioe la matrice associata nelle basi B e o ad f).
Proposizione: se A = m
B
S
(f) = v V

f(v)

S
= A

B
Dimostrazione: v V a
1
, . . . , a
n
K, t. c. v = a
1
v
1
+. . . +a
n
v
n
= [v]
B
=

a
1
, . . . , a
n

.
Per linearita di f e sostituendo i valori di f(v
1
), . . . , f(v
n
) otteniamo:
f(v) = a
1
f(v
1
) +. . . +a
n
f(v
n
) = a
1
(a
11
w
1
+. . . +a
p1
w
p
) +. . . +a
n
(a
1n
w
1
+. . . +a
pn
w
p
) =
= (a
11
a
1
+. . . +a
1n
a
n
)w
1
+. . . + (a
p1
a
1
+. . . +a
pn
a
n
)w
p
.
20 Ateneo Studenti Fisica
Rango di unapplicazione lineare
Allora:

f(v)

S
=

a
11
a
1
+. . . +a
1n
a
n
.
.
.
a
p1
a
1
+. . . +a
pn
a
n

a
11
a
1n
.
.
. . . .
.
.
.
a
p1
a
pn

a
1
.
.
.
a
n

= A

B
Osservazione: Da quanto sopra segue che il diagramma:
V
f
W

K
n
A
K
p
e commutativo.
Proposizione: Siano V , W spazi vettoriali, con n = dimV e p = dimW, f : V W lineare e siano
B = v
1
, . . . , v
n
e o = w
1
, . . . , w
p
basi rispettivamente di V e W. Allora lapplicazione:
f

m
B
S
(f)
che ad ogni applicazione associa la sua matrice associata nelle basi B e o, e un isomorsmo.
Dimostrazione: e lineare:
f, g Hom(V, W), (f +g) =


(f +g)(v
1
)

S
. . .

(f +g)(v
n
)

Utilizzando la denizione di somma di funzioni



(f +g)(v) = f(v) +g(v)

e la linearita di [ ]
S
:
(f +g) =


f(v
1
)

S
. . .

f(v
n
)


g(v
1
)

S
. . .

g(v
n
)

= (f) +(g)
Allo stesso modo per il multiplo.
e iniettiva (dimostriamo che Ker(f) = 0):
se (f) = 0 (matrice nulla) = f(v
1
) = . . . = f(v
n
) = 0. Da teorema sappiamo che unapplicazione
lineare e ben denita da cio che fa su una base dello spazio di partenza. Poiche f manda tutti i vettori
in 0 = f = 0.
e surgettiva (facciamo vedere che data A esiste sempre f t. c. A = m
B
S
(f)):
Presa A = m
B
S
(f), denisco f tale che

f(v
i
)

S
= A
i
, i = 1, . . . , n. Per teorema !f Hom(V, W)
che manda una base in vettori prescritti.
Corollario: dim

Hom(V, W)

= pn
Proposizione: siano V, W, Z spazi vettoriali, con basi rispettivamente B, o, T . Siano f, g applicazioni
lineari tali che V
B
f
W
S
g
Z
T
. Siano A = m
B
S
(f), B = m
S
T
(g). Allora m
B
T
(g f) = B A.
Dimostrazione: v V,

(g f)(v)

T
=

(g

f(v)

T
= B

f(v)

S
= B A

B
.
Denizione: sia f unapplicazione lineare. Deniamo rkf = dim(Imf).
Diamo un modo per calcolare rkf:
Imf = span

f(v
1
), . . . , f(v
n
)

= span(A
1
, . . . , A
n
) = dim(Imf) = dim(ImA) = rkA.
Matrice del cambiamento di base
Il cambiamento di base avviene tramite unapplicazione lineare che manda ciascun vettore in se stesso.
Tale applicazione e lidentita (da non confondere con la matrice identita):
Id : V
B
V
S
La matrice associata allapplicazione identita (A M(n) t. c. A = m
B
S
(Id)) e tale che:
v V [v]
S
= A [v]
B
Ateneo Studenti Fisica 21
Rango di unapplicazione lineare
che segue da

f(v)

S
= A [v]
B
, con f = Id.

E chiaro che la matrice A e invertibile, essendo rkA = dim(Imf) = dimV = n


Osservazione: B = m
S
B
(Id) e la matrice inversa di A, poiche A B = I, cioe applicando le due matrici
in sequenza, le coordinate di ciascun vettore rimangono immutate.
22 Ateneo Studenti Fisica
SD-equivalenza
Denizione: chiameremo gruppo lineare di rango n su campo K:
GL(n, K) = A M(n, K) [ Ae invertibile
Dimostriamo che

GL(n, K),

, con prodotto fra matrici, e eettivamente un gruppo (non commutativo):


1. e unoperazione in GL(n, K): A, B GL(n, K)
?
= AB GL(n, K).
Sia (AB)
1
= B
1
A
1
. Verichiamo che e una buona denizione: AB B
1
A
1
= A A
1
= I;
2. Esistenza dellinverso: A GL(n, K) = A
1
GL(n, K), poiche (A
1
)
1
= A;
3. esiste lelemento neutro per il prodotto, ossia I;
4. Proprieta associativa: vale per tutte le matrici, quindi anche per quelle invertibili.
Siano V, W due spazi vettoriali, f : V W unapplicazione lineare, B e B

due basi di V , o e o

due
basi di W. Siano n = dimV, p = dimW, A = m
B
S
(f), A

= m
B

S
(f). Consideriamo il seguente diagramma:
V
B
A
W
S

N

M
V
B

W
S

= MAN dove M e N sono le matrici associate allidentita (matrici di cambio di base).


Osservazione: M GL(p, K), N GL(n, K), poiche prodotto di matrici elementari invertibili.
Denizione: due matrici A, B M(p, n) sono dette SD-equivalenti se M GL(p, K), N GL(n, K) t. c.
B = MAN.
Osservazioni:
1. SD-equivalenza e una relazione di equivalenza:
Proprieta riessiva: A A, poiche I
p
GL(p), I
n
GL(n) t. c. A = I
p
AI
n
;
Proprieta simmetrica: A B = B A, poiche B = MAN = A = M
1
BN
1
;
Proprieta transitiva: A B, B C = A C, poiche B = MAN, C = PBQ =
= C = (PM)A(NQ). Infatti P, M GL(p) = PM GL(p); lo stesso per N e Q.
2. se A B = rkA = rkB:
rkB = rk(MAN); N isomorsmo = rk(MAN) = rk

(MA)N) = rk(MA), M isomorsmo =


= rk(MA) = rkA

poiche rk(f g) min(rkf, rkg)

. Il rango e un invariante per SD-equivalenza;


3. che A e B siano SD-equivalenti vuol dire che rappresentano la stessa applicazione in basi diverse;
4. equivalentemente, per le applicazioni lineari, date f, g Hom(V, W), dove dimV = n, dimW = p:
f g GL(V ), GL(W) t. c. g = f ;
f g m
B
S
(g) = m
S
S
() m
B
S
(f) m
B
B
() m
B
S
(g) m
B
S
(f);
In questo caso f e g sono applicazioni diverse nelle stesse basi, non la stessa applicazione vista in
basi diverse.
Ateneo Studenti Fisica 23
SD-equivalenza
Proposizione: siano V, W due spazi vettoriali tali che dimV = n, dimW = p. Si f : V W lineare
tale che r = rkf. Allora esistono una base B di V e una base o di W tali che m
B
S
(f) =

I
r
0
0 0

Dimostrazione: rkf = r = dim(Kerf) = n r. Sia v


r+1
, . . . , v
n
una base di Kerf.
La completiamo a base B = v
1
, . . . , v
r
, v
r+1
, . . . , v
n
di V .
Sappiamo che f(v
1
), . . . , f(v
r
) generano Imf, dato che f(v
r+1
) = . . . = f(v
n
) = 0, sono r = sono
una base di Imf.
Li completiamo a base o = f(v
1
), . . . , f(v
r
), w
r+1
, . . . , w
p
di W.
La matrice associata ad f nelle basi B, o e: m
B
S
(f) =

I
r
0
0 0

Corollario: sia A M(p, n), se rkA = r = A

I
r
0
0 0

Basta scegliere le basi come nella dimostrazione precedente.


Teorema: A B rkA = rkB (ossia il rango e un invariante completo di SD-equivalenza).
Dimostrazione: (=) gia fatto.
(=) rkA = rkB = r = A

I
r
0
0 0

B = A B (transitivita).
Corollario: A M(p, n), rkA = rk
t
A.
Dimostrazione: sia r = rkA = A = M

I
r
0
0 0

N con M GL(p), N GL(n).


=
t
A =
t
N
t

I
r
0
0 0

t
M,
t

I
r
0
0 0

I
r
0
0 0

M(n, p).
t
N GL(n, K), perche I =
t
I =
t
(NN
1
) =
t
(N
1
)
t
N =
t
(N
1
) e linversa di
t
N; lo stesso per
t
M.
=
t
A

I
r
0
0 0

= rk
t
A = r.
Corollario: sia {(A) = span(A
1
, . . . , A
p
) lo spazio generato dalle righe di A. Allora dim{(A) = rkA.
Dimostrazione: dim{(A) = dim((
t
A) = rk
t
A = rkA

dove ((
t
A) = span(
t
A
1
, . . . ,
t
A
n
)

.
Proposizione: se A M(p, n) e B e sottomatrice di A = rkB rkA.
Dimostrazione: B = (A
i
1
, . . . , A
i
m
[ A
j
1
, . . . , A
j
k
). Sia C = (A
i
1
, . . . , A
i
m
[ A
1
, . . . , A
n
).
C e ottenuta da A prendendo tutte le colonne e alcune righe. Pensando al rango per riga: rkC rkA.
Allo stesso modo B e ottenuta da C prendendo tutte le righe e alcune colonne. Pensando al rango per
colonna: rkB rkC rkA.
Denizione: ogni sottomatrice quadrata e detta un minore. Si dice ordine del minore il numero delle
sue righe (e colonne).
Proposizione: sia A M(p, n), e sia B un minore di A di ordine q invertibile = le righe di A che
entrano a formare B sono linearmente indipendenti.
Dimostrazione: Supponiamo che B sia formato dalle prime q righe e q colonne di A. Proviamo che
A
1
, . . . , A
q
sono linearmente indipendenti:

1
A
1
+. . . +
q
A
q
= 0 =
1
B
1
+. . . +
q
B
q
= 0
1
= . . . =
q
= 0 (sono linearmente indi-
pendenti).
Proposizione: il rango di una matrice A M(p, q) e il massimo degli ordini dei suoi minori invertibili.
Dimostrazione: sia rkA = r, il massimo ordine dei suoi minori invertibili.
Sia B un minore di A di ordine invertibile = A contiene righe linearmente indipendenti =
= rkA , r.
Ma in A esistono r righe linearmente indipendenti, che supponiamo essere A
1
, . . . , A
r
.
Sia C = (A
1
, . . . , A
r
[ A
1
, . . . , A
q
) = rkC = r (pensato come rango per riga). Allora C contiene r
colonne linearmente indipendenti, supponiamo C
j
1
, . . . , C
j
r
.
Sia M = (A
1
, . . . , A
r
[ A
j
1
, . . . , A
j
r
) M(r), minore di A di ordine r, invertibile (contiene r colonne
linearmente indipendenti) = r.
Poiche valgono contemporaneamente r e r = = r.
24 Ateneo Studenti Fisica
Determinante
Sia A M(n, K), sappiamo che rkA e il massimo numero di righe e colonne indipendenti.
Cerchiamo una funzione: det : M(n, K) K tale che detA = 0 le righe di A sono linearmente
dipendenti.
Esempio:
sia n = 2 : A =

a
11
a
12
a
21
a
22

. Abbiamo 3 casi:
1. Se a
11
e a
21
sono entrambi nulli, le righe sono dipendenti.
2. Se a
11
= 0 = tramite operazioni per righe:
A

a
11
a
12
0 a
22
a
1
11
a
21
a
12

Le righe di A sono dipendenti a


22
a
1
11
a
21
a
12
= 0 a
11
a
22
a
21
a
12
= 0.
3. Se a
11
= 0 ma a
21
= 0:
n = 2 : A =

a
21
a
22
0 a
12

Le righe di A sono dipendenti a


12
= 0, ossia se non e un pivot.
Ponendo, nel caso n = 2, detA = a
11
a
22
a
12
a
21
= detA = 0 Le righe sono linearmente
dipendenti.
Abbiamo trovato la funzione che cercavamo nel caso n = 2. Vediamo ora alcune sue proprieta:
1. det e lineare nelle righe. Supponiamo che la prima riga di A sia combinazione lineare di altre due:
B, C K
2
t. c. A =

B +C
A
2

. Verichiamo che det A = det

B
A
2

C
A
2

Infatti: se B = (b
1
b
2
), C = (c
1
c
2
), A
2
= (a
1
a
2
):
det

b
1
+c
1
b
2
+c
2
a
1
a
2

= a
2
(b
1
+c
1
) a
1
(b
2
+c
2
) = (a
2
b
1
a
1
b
2
) +(a
2
c
1
a
1
c
2
) =
=

b
1
b
2
a
1
a
2

c
1
c
2
a
1
a
2

2. Se A ha due righe uguali = det A = 0;


3. det I = 1.
Passiamo ora al caso generico, e supponiamo che det A, denito prima, verichi le 3 proprieta sopra
elencate. Abbiamo le seguenti conseguenze:
se A ha una riga nulla = det A = 0.
Dimostrazione: se A
i
= 0, B K
n
(riga) = A
i
= 0 B. Allora, applicando la proprieta 1:
det(A
1
, . . . , 0 B, . . . , A
n
) = 0 det(A
1
, . . . , B, . . . , A
n
) = 0;
se A

e ottenuta da A scambiando due righe = det A

= det A.
Dimostrazione:
A = (A
1
, . . . , A
i
, . . . , A
j
, . . . , A
n
)
Ateneo Studenti Fisica 25
Determinante
A

= (A
1
, . . . , A
j
, . . . , A
i
, . . . , A
n
).
Consideriamo la matrice A

= (A
1
, . . . , A
i
+A
j
, . . . , A
i
+A
j
, . . . , A
n
). Poiche ha due righe uguali:
det A

= 0. Applicando le proprieta 1 e 2:
0 = det A

= det(A
1
, . . . , A
i
, . . . , A
j
, . . . , A
n
) +
0
. .. .
det(A
1
, . . . , A
i
, . . . , A
i
, . . . , A
n
) +
+
0
. .. .
det(A
1
, . . . , A
j
, . . . , A
j
, . . . , A
n
) +det(A
1
, . . . , A
j
, . . . , A
i
, . . . , A
n
) = det A+ det A

= det A

= det A;
se B M(n, K) e ottenuta da A sommando ad una riga una combinazione lineare delle altre
= det B = det A.
Dimostrazione: B = (A
1
+
2
A
2
+. . . +
n
A
n
, A
2
, . . . , A
n
). Applicando la proprieta 1:
det B = det A+
n

i=2

i
0
. .. .
det(A
i
, A
2
, . . . , A
n
) = det A
se le righe di A sono linearmente dipendenti = det A = 0.
Dimostrazione: se A = (
2
A
2
+. . . +
n
A
n
, A
2
, . . . , A
n
):
det A =
n

i=2

i
0
. .. .
det(A
i
, A
2
, . . . , A
n
) = 0
se A e diagonale A =

a
1
0
.
.
.
0 a
n

= det A = a
1
. . . a
n
.
Dimostrazione: Per le proprieta 2 e 3:
det

a
1
0
.
.
.
0 a
n

= a
1
. . . a
n
det

1 0
.
.
.
0 1

= a
1
. . . a
n
Teorema: (unicita) se det verica le proprieta 1, 2 e 3 = A M(n, K), det A e univocamente
determinato.
Dimostrazione: Riduciamo A a scalini (S) con operazioni per riga di primo e terzo tipo (scambi di
righe, somma con multiplo). Dalla terza conseguenza sopra elencata, sappiamo che sommare ad una riga
il multiplo di unaltra non fa variare il determinante.
Se sono stati fatti m scambi di righe = det A = (1)
m
det S. Abbiamo 2 casi:
rkS < n (almeno lultima riga e nulla) = det S = 0 = det A = 0;
rkS = n. Finora abbiamo ridotto A in forma triangolare. Con ulteriori operazioni elementari per
riga riduciamo S a S

diagonale.
S

p
1
0
.
.
.
0 p
n

= det S = det S

= p
1
. . . p
n
= det A = (1)
m
p
1
. . . p
n
Quindi il valore della funzione e univocamente determinato.
N.B. I pivots possono essere diversi a seconda della riduzione che e stata fatta, ma il loro prodotto e
costante (a meno del segno).
Corollario: det A = 0 le righe di A sono linearmente indipendenti.
Dimostrazione: (=) gia fatta.
(=) Se per assurdo le righe di A fossero indipendenti = A
Gauss
S. S ha n pivots = det A =
= (1)
m
det S = (1)
m
p
1
. . . p
n
= 0. Assurdo.
26 Ateneo Studenti Fisica
Determinante
Esistenza:
n = 1 = det a
def
= a;
n = 2 = det A = a
11
a
22
a
21
a
12
;
n = Sia A M(n), a
i1
= [A]
i1
, A
i1
la sottomatrice ottenua da A scartando la prima colonna e la
i-aesima riga (detta complemento algebrico). Allora si chiama sviluppo di Laplace:
det
n
A =
n

i=1
(1)
i+1
a
i1
det
n1
A
i1
Verichiamo per induzione su n che valgono le 3 proprieta per lo sviluppo di Laplace.
n = 2 gia fatto.
Passo induttivo: supponiamo che le 3 proprieta valgano per il caso det
n1
e verichiamo che valgono
anche det
n
:
1. supponiamo che B, C K
n
t. c. A
j
= B +C.
Siano A

= (A
1
, . . . , B, . . . , A
n
), A

= (A
1
, . . . , C, . . . , A
n
)
?
= det A = det A

+det A

.
Consideriamo [A]
i1
e A
i1
al variare di i:
se i = j = [A]
i1
= [A

]
i1
= [A

]
i1
, mentre det A
i1
= det A

i1
+det A

i1
;
se i = j = [A]
j1
= [A

]
j1
+[A

]
j1
, mentre A
j1
= A

j1
= A

j1
.
det A =

i=j

(1)
i+1
[A]
i1

det A

i1
+det A

i1

+ (1)
j+1

[A

]
j1
+[A

]
j1

det A
j1
Applicando quanto sopra:
det A =

i=1
(1)
i+1
[A

]
i1
det A

i1

i=1
(1)
i+1
[A

]
i1
det A

i1

= det A

+det A

2. Sia A tale che A


i
= A
j
. Verichiamo che det A = 0
A = (A
1
, . . . , A
i
, . . . , A
i
, . . . , A
n
)
Se k = i, j = det A
k1
= 0 perche contiene due righe uguali.
Se k = i = [A]
k1
= [A]
i1
= [A]
j1
e det A
i1
= (1)
ji1
det A
j1
(come se la j-esima riga
venisse spostata verso lalto di j i 1 posizioni, scambiandola ogni volta con la precedente,
no ad assumere li-esima posizione).
det A =
0
. .. .

k=i,j
(1)
k+1
[A]
k1
det A
k1
+(1)
i+1
[A]
j1

(1)
ji1
det A
j1

+(1)
j+1
[A]
j1
det A
j1
Ma il secondo e il terzo blocco sono opposti, quindi det A = 0.
3. Verichiamo che det I
n
= 1.
Se i = 1 = [A]
i1
= 0;
se i = 1 = [A]
11
= 1 e det A
11
= 1 (e ancora una matrice identita di rango n 1).
det A = (1)
2
[A]
11
det A
11
+
0
. .. .
n

i=2
(1)
i+1
[A]
i1
det A
i1
= 1
Osservazione: facendo lo sviluppo di Laplace lungo qualsiasi colonna della matrice si ottiene una fun-
zione che verica le proprieta 1, 2 e 3. Poiche abbiamo dimostrato lunicita del determinante concludiamo
che tutte queste funzioni sono uguali.
Osservazione: se A M(n) = det(A) =
n
det A.
Ateneo Studenti Fisica 27
Determinante
Teorema: (di Binet) siano A, B M(n, K) = det(AB) = det A det B.
Dimostrazione: se det B = 0 = rkB < n = rk(AB) < min(rkA, rkB) < n = det(AB) = 0.
Se det B = 0 deniamo f(A) =
det(AB)
det B
. Vogliamo dimostrare che f(A) = det A; basta quindi provare
che verica le proprieta 1, 2 e 3 e ricordarsi dellunicita del determinante.
1. Linearita nelle righe: sia A
i
= P +Q, P, Q K
n
, allora:
det(AB) = det

P +Q

= det

PB +QB

= det

PB

+det

QB

Poiche det B = 0 = rkB = n = PB = 0, QB = 0 = la i-esima riga della matrice AB e


combinazione lineare di altre due. Essendo det(AB) lineare nelle righe lo e anche f(A).
2. Allo stesso modo, se A ha due righe uguali, anche AB le avra. Allora det AB = 0.
3. f(I) =
det(IB)
det B
= 1.
Corollario: sia A M(n) invertibile = det A
1
= (det A)
1
.
Dimostrazione: A A
1
= I = det(A A
1
) = 1 = det A det A
1
= 1 = det A
1
= (det A)
1
Corollario: siano A, B M(n) invertibili = AB e invertibile.
Dimostrazione: det A = 0, det B = 0 = det(AB) = det A det B = 0 = AB e invertibile.
Proposizione: A M(n, K), det
t
A = det A.
Dimostrazione: se det A = 0 = rk
t
A = rkA < n = det
t
A = 0.
Consideriamo le matrici elementari : quelle di primo e secondo tipo sono simmetriche, quindi sono uguali
alla loro trasposta (e di conseguenza vale la proposizione), mentre quelle di terzo possono essere ricondotte
tramite unoperazione elementare (che non fa variare il determinante) allidentita, quindi a una matrice
simmetrica. La proposizione vale per tutte le matrici elementari.
Passiamo ora al caso generico con det A = 0. Con opportune matrici elementari:
E
m
. . . E
1
A = I =
t
A
t
E
1
. . .
t
E
m
= I = A = (
t
E
m
)
1
. . . (
t
E
1
)
1
det
t
A = det(
t
E
1
m
) . . . det(
t
E
1
1
) = (det
t
E
m
)
1
. . . (det
t
E
1
)
1
(det A)
1
det A =
= (det E
m
)
1
. . . (det E
1
)
1
(det A)
1
det A =

det(E
m
. . . E
1
A
. .. .
I
)

1
det A = det A.
Osservazione: lo sviluppo di Laplace secondo la prima riga:
f(a) =
n

i=1
(1)
1+i
[A]
1i
det A
1i
e uguale a det A.
Dimostrazione:
f(a) =
n

i=1
(1)
i+1
[
t
A]
i1

det(
t
A)
i1
. .. .
det
t
(A
1i
) = det
t
A = det A
Proposizione: (regola di Cramer) Sia AX = B un sistema tale che A M(n, K), B K
n
, e supponiamo
det A = 0. Se y
1
, . . . , y
n
e soluzione del sistema = y
i
=
det B(i)
det A
, dove
B(i) = (A
1
, . . . , A
i1
, B, A
i+1
, . . . , , A
n
).
Dimostrazione: se Y =

y
1
.
.
.
y
n

, sappiamo che AY = B = y
1
A
1
+. . . +y
n
A
n
= B. Allora:
det B(i) = det(A
1
, . . . , A
i1
,
n

i=1
y
i
A
i
, A
i+1
, . . . , , A
n
) =
n

i=1
y
i
det(A
1
, . . . , A
i
, . . . , , A
n
) = y
i
det A
Proposizione: sia A M(n, K) inveribile. Allora la matrice B M(n, K) denita da (A
ij
e il
complemento algebrico):
[B]
ij
=
(1)
i+j
det A
ij
det A
28 Ateneo Studenti Fisica
Determinante
e la matrice inversa di A.
Dimostrazione: verichiamo che AB = I:
[AB]
hk
=
n

i=1
[A]
hi
[B]
ik
=
n

i=1
(1)
i+k
[A]
hi

det A
ki
det A
Tale espressione assume i valori:
1 se k = h, poiche il numeratore della frazione e lo sviluppo di det A;
0 se k = h: possiamo costruire la matrice A

in cui A

k
= A

h
= A
h
(cioe la h-esima e la k-esima riga
di A

sono uguali alla h-esima di A) = det A

= 0.
Nei casi in cui k = h: [A]
hi
= [A

]
ki
e A
ki
= A

ki
(viene cancellata proprio la k-esima riga, lunica
che abbiamo modicato; non ci si accorge della dierenza). Dunque, in questo caso:
[AB]
hk
=
n

i=1
(1)
i+k
[A

]
ki

det A

ki
det A
=
det A

det A
= 0
Criterio dei minori orlati
Denizione: sia A M(p, q) e sia B un minore di A di ordine n. C e un minore orlato di B se e
un minore di A di ordine n + 1 e B = (C
1
, . . . , C
n
[ C
1
, . . . , C
n
) (ossia scartando da C lultima riga e
lultima colonna si ottiene B).
Esempio:
A =

1 2 3 1
0 9 5 1

2 1 0

B =

1 2
0 9

Sono minori orlati di B:


C

1 2 3
0 9 5

2 1

1 2 1
0 9 1

2 0

Proposizione: : sia A M(p, q), e sia B un minore di ordine n tale che:


det B = 0;
tutti i minori orlati di B hanno determinante nullo.
Allora rkA = n.
Dimostrazione: supponiamo che B = (A
1
, . . . , A
n
[ A
1
, . . . , A
n
) (cioe che sia composto dalle prime
n righe e colonne di A). Sicuramente A
1
, . . . , A
n
sono linearmente indipendenti (entrano a formare il
minore). Dimostriamo che generano tutte le altre righe.
Consideriamo quindi la sottomatrice C = (A
1
, . . . , A
n
, A
i
[ A
1
, . . . , A
q
), i = n + 1, . . . , p (costituita
dalle righe che entrano a formare B pi u una e da tutte le colonne di A).
C
1
, . . . , C
n
sono indipendenti, ma i = n + 1, . . . , p, C
i
span(C
1
, . . . , C
n
), perche prendendo tutte le
righe e le prime n colonne pi u una (tra le rimanenti) di C si ottiene un minore orlato di B = C ha n
colonne linearmente indipendenti = rkC = n = A
i
e linearmente dipendente.
Ateneo Studenti Fisica 29
Coniugio e Similitudine
Denizione: siano f, g End(V ) = Hom(V, V ) (detto insieme degli endomorsmi di V ). f e g si
dicono coniugati (e si indica f g) h GL(V ) t. c. g = h
1
f h.
Osservazione: f g = f g ( =
1
) = il rango e invariante per coniugio.
Denizione: siano A, B M(n, K). A B (A e B sono simili) M GL(n, K) t. c.
B = M
1
AM.
Proposizione: siano f, g End(V ), B base di V . f g m
B
(f) m
B
(g) (utilizziamo la stessa
base sia in partenza che in arrivo).
Da quanto sopra, studiare End(V )
/
o M(n, K)
/
e la stessa cosa.
Osservazione: come per SD-equivalenza, possiamo vedere la similitudine fra matrici in due modi diver-
si: date A, B M(n), con A B, possiamo vederle come endomorsmi coniugati oppure come matrici
associate alla stessa applicazione in basi diverse. Per capire questa seconda interpretazione consideriamo
il diagramma:
V
S
B
V
S
M M
1
V
B
A
V
B
Sia nello spazio di partenza che in quello di arrivo, per entrambe le applicazioni, utilizziamo la stes-
sa base. Le matrici di cambio di base

m
B
S
(Id), m
S
B
(Id) GL(n, K)

sono una linversa dellaltra.


Pertanto A e B sono matrici simili.
Lemma: A M(n, K), M GL(n) = det B = det A (il determinante e invariante per similitudine).
Dimostrazione: det B = det(M
1
AM) = det M
1
det A det M = (det M)
1
det M det A = det A.
Denizione: sia f End(V ), B base di V , deniamo det f
def
= det m
B
(f)
Osserviamo che si tratta di una buona denizione, indipendente dalla scelta della base. Infatti, se B e B

sono due basi allora, per quanto detto sopra, m


B
(f) m
B
(f), quindi det

m
B
(f)

= det

m
B
(f)

=
= det f.
Osservazione: siano f, g End(V ). f g = det f = det g.
Dimostrazione: B base di V , m
B
(f) m
B
(g) = det f = det m
B
(f) = det m
B
(g) = det g.
Tuttavia rk, det non e un sistema completo di invarianti. Consideriamo infatti le matrici:
I =

1 0
0 1

, A =

1 1
0 1

A I, benche abbiano stesso rango e determinante, infatti la classe di equivalenza di I e:


[I] =

M
1
IM [ M GL(N)

= I
dunque e composta dalla sola matrice identita. Cerchiamo altri invarianti.
30 Ateneo Studenti Fisica
Coniugio e Similitudine
Denizione: f End(V ), K si dice autovalore per f se v V, v = 0 t. c. f(v) = v (v si dice
autovettore per f).
Proprieta:
1. f

span(v)

span(v).
Se = 0 vale luguaglianza (la retta viene mandata in se stessa), mentre se = 0 :
f

span(v)

= 0 span(v).
2. Lautovalore relativo ad un autovettore e univocamente determinato.
Infatti, se f(v) = v e f(v) = v = ( )v = 0. Ma v = 0 = = 0 = = .
3. 0 e autovalore = f non e iniettiva.
Infatti v V, v = 0 t. c. f(v) = 0 = Kerf = 0.
Denizione: V (, f) = v V [ f(v) = v.
Osservazione: V (, f) = Ker(f Id), infatti f(v) Id(v) = 0 = V (, f) e uno spazio vettoriale.
V (, f) e interessante se e un autovalore. In tal caso dimV (, f) 1 ed e detto autospazio relativo a .
Proposizione: f, g End(V ), f g:
1. autovalore per f = autovalore per g;
2. autovalore per f e g = dimV (, f) = dimV (, g).
Dimostrazione: h GL(V ) t. c. g =.
1. per ipotesi v V, v = 0 t. c. f(v) = v.
g

h
1
(v)

= (h
1
f h)

h
1
(v)

= h
1

f(v)

= h
1
(v).
2. Abbiamo visto che v V (, f) = h
1
(v) V (, g), ossia h
1

V (, f)

V (, g).
Allo stesso modo h

V (, g)

V (, f) (poiche f = h g h
1
). Allora:
h

V (, g)

V (, f) h

V (, g)

= h

V (, g)

= V (, f). Poiche h e un isomorsmo e


preserva le dimensioni: dimV (, f) = dimV (, g).
Corollario: Autovalori e dimensione degli autospazi sono invarianti per coniugio.
Proposizione: siano f End(V ), B base di V , A = m
B
(f), [ ]
B
: V K
n
(isomorsmo indotto dalla
scelta della base). Allora:
1. autovalore per f = autovalore per A;
2.

V (, f)

B
= V (, A).
Dimostrazione:
1. autovalore per f v V, v = 0 t. c. f(v) = v

f(v)

B
=

B
A[v]
B
= [v]
B
X K
n
, X = 0

X = [v]
B

t. c. AX = X autovalore per A;
2. da quanto sopra:

V (, f)

B
= V (, A).
Calcolo di autovalori e autospazi per una matrice
Sia A M(n, K).
autovalore per A X K
n
, X = 0 t. c. AX = X (A I)X = 0 det(A I) = 0
(Poiche tale sistema ha almeno una soluzione X Ker(AI) non nulla).
Denizione: sia A M(n, K). Si dice polinomio caratteristico di A: p
A
(t) = det(AtI).
Osservazione: autovalore per A p
A
() = 0. ( e radice del polinomio caratteristico).
Ateneo Studenti Fisica 31
Coniugio e Similitudine
Osservazione: degp
A
(t) = n = A ha al pi u n autovalori distinti.
Richiamo: p(t) K[x], K t. c. p() = 0 = p(t) = (t )
h
q(t) per il teorema del resto, con
h > 0, q() = 0. h e detta molteplicita algebrica di .
Proposizione: siano A, B M(n, K). A B = p
A
(t) = p
B
(t).
Dimostrazione: B = M
1
AM = p
B
(t) = det(B tI) = det(M
1
AM tI) = det

M
1
(AtI)M

.
Applicando il teorema di Binet:
p
B
(t) = det

M
1
(AtI)M

= det M
1
det M det(AtI) = det(AtI) = p
A
(t).
Denizione: f End(V ), sia B una base di V e A = m
B
(f). Allora p
f
(t)
def
= p
A
(t)

E una buona denizione: al cambiar della base A cambia per similitudine e il polinomio caratteristico e
invariante per similitudine.
Corollario: f g = p
f
(t) = p
g
(t) (il polinomio caratteristico e invariante per coniugio).
Finora abbiamo trovato i seguenti invarianti per similitudine:
1. rango;
2. determinante;
3. autovalori;
4. dimensione degli autospazi;
5. polinomio caratteristico.
Tale lista e ridondante, cioe alcuni di questi possono essere cancellati:
Osservazione: possiamo cancellare gli autovalori: se p
A
(t) = p
B
(t) =A e B hanno gli stessi autovalori
(gli autovalori sono le radici del polinomio caratteristico).
Osservazione: il determinante non e necessario: det A = det(A0 I) = p
A
(0), cioe il termine noto del
polinomio caratteristico.

p
A
(t) = (1)
n
t
n
+ (1)
n1
trA+. . . + det A

Osservazione: cancelliamo il rango: rkA = dim(ImA) = n dim(KerA) = n dimV (0, A).


Mostriamo che gli invarianti trovati non sono sucienti a descrivere completamente la relazione dequi-
valenza. Prima osserviamo:
Osservazione: siano A, B M(n, K). A B = p N A
p
B
p
.
Dimostrazione: Q GL(n) t. c. B = Q
1
AQ. Allora:
B
p
= (Q
1
AQ) (Q
1
AQ) . . . (Q
1
AQ) = Q
1
A
p
Q.
Consideriamo ora le matrici:
A =

0 1
0
0 1
0

B =

0 1
0 1
0
0

Hanno stesso polinomio caratteristico e uguale dimensione degli autospazi ma non sono simili:
1. p
A
(t) = p
B
(t) = t
4
, lunico autovalore e 0;
2. dimV (0, A) = dim(KerA) = 4 rkA = 2
dimV (0, B) = dim(KerB) = 4 rkB = 2.
32 Ateneo Studenti Fisica
Coniugio e Similitudine
A
2
B
2
= A B :
A
2
= 0 B
2
=

0 0 1
0 0
0
0

La lista non e un sistema completo di invarianti. Per tal motivo restringiamo la classe delle matrici
considerate.
Diagonalizzabilita
Osservazione: se e autovalore per f =
n
e autovalore per f
n
.
Denizione: sia autovalore per A. Chiameremo:
molteplicita algebrica di

h()

la sua molteplicita come radice di p


A
(t);
molteplicita geometrica di : dimV (, A)
Proposizione: autovalore di A: dimV (, A) h().
Dimostrazione: sia d = dimV (, A), v
1
, . . . , v
d
una base di V (, A). La completiamo a base B di
K
n
. Allora:
m
B
(A) =

I 0
0 C

p
A
(t) = ( t)
d
p
C
(t) = h() d, poiche p
C
(t) puo avere come radice.
Denizione: f End(V ) si dice diagonalizzabile se esiste B base di V tale che m
B
(f) e diagonale (se
esiste una base di autovettori).
Denizione: A M(n, K) si dice diagonalizzabile se A e simile a una matrice diagonale.
Osservazione: siano f End(V ), B una base di V , A = m
B
(f). f e diagonalizzabile A e diago-
nalizzabile.
Lemma: sia f End(V ), e siano
1
, . . . ,
k
autovalori distinti e v
1
, . . . , v
k
i relativi autovettori

v
i
V (
i
)

= v
1
, . . . , v
k
sono linearmente indipendenti.
Dimostrazione: Per induzione su k:
k = 1: v
1
= 0 per denizione di autovettore = v
1
e linearmente indipendente.
k 1 = k:
Verichiamo che sono linearmente indipendenti:
c
1
v
1
+. . . +c
k
v
k
= 0 (1)
Moltiplichiamo (1) per
k
:
c
1

k
v
1
+. . . +c
k

k
v
k
= 0
Applichiamo f a (1):
c
1

1
v
1
+. . . +c
k

k
v
k
= 0
Sottraiamo le due equazioni:
c
1
(
1

k
)v
1
+. . . +c
k1
(
k1

k
)v
k1
= 0.
Poiche v
1
, . . . , v
k1
sono linearmente indipendenti (per ipotesi induttiva) e
i

k
= 0 i = 1, . . . , k 1
(per ipotesi che siano tutti autovalori distinti):

c
1
(
1

k
) = 0
.
.
.
c
k1
(
k1

k
) = 0
=

c
1
= 0
.
.
.
c
k1
= 0
Allora, anche (1) sia vera, si ha anche c
k
= 0.
Teorema: (di diagonalizzazione) sia f End(V ), dimV = n,
1
, . . . ,
k
tutti gli autovalori di f.
f e diagonalizzabile

h(
1
)+. . . +h(
k
) = n;
i = 1, . . . , k dimV (
i
, f) = h(
i
).
Ateneo Studenti Fisica 33
Coniugio e Similitudine
Dimostrazione:
(=): per ipotesi esiste una base B di autovettori tale che:
1. la matrice associata e nella forma:
m
B
(f) =

1
I
d
1
.
.
.

k
I
d
k

= d
1
+. . . +d
k
= n
Il polinomio caratteristico e:
p
f
(t) = (
1
t)
d
1
. . . (
k
t)
d
k
= h(
i
) = d
i
= h(
1
)+. . . +h(
k
) = n;
2. la base B contiene d
i
autovettori linearmente indipendenti relativi a
i
= dimV (
i
, f) d
i
, ma
abbiamo dimostrato che: dimV (
i
, f) h(
i
) = d
i
= dimV (
i
, f) = h(
i
).
(=): poniamo m
i
= h(
i
) e prendiamo B
i
= v
i1
, . . . , v
i,m
i
base di V (
i
) formata da m
i
vettori.
Sia B = B
1
. . . B
k
. La cardinalita di B (cioe il numero di elementi che la compongono e):
#B = m
1
+. . . +m
k
= h(
1
)+. . . +h(
k
) = n.
Facciamo vedere che sono tutti vettori linearmente indipendenti e avremo dimostrato che esiste una base
di V in cui la matrice e diagonale.
Sia, a questo proposito, z
i
= c
i1
v
i1
+. . . +c
i,m
i
v
i,m
i
una combinazione lineare dei vettori di B
i
. Facciamo
vedere che z
1
+. . . +z
k
= 0 (una combinazione lineare dei vettori di B) z
i
= 0 i = 1, . . . , k. Cio e
evidente per il lemma precedentemente dimostrato, poiche z
i
e una autovettore relativo a
i
e
1
, . . . ,
k
sono autovalori distinti tra loro.
Allora z
i
= 0 = c
i1
= . . . = c
i,m
i
= 0 = B e una base di autovettori per V .
Osservazione: in C e sempre vera la prima ipotesi

h(
1
)+. . . +h(
k
) = n

, poiche p
f
(t) puo essere
scomposto in fattori di primo grado, mentre in R no. Infatti consideriamo:
A =

0 1
1 0

= p
A
(t) = t
2
+ 1
Il suo polinomio caratteristico non e scomponibile in R.
Denizione: sia V uno spazio vettoriale, V
1
, . . . , V
n
sottospazi vettoriali di V . Allora:
V = V
1
. . . V
n
v V unici v
i
V
i
, i = 1, . . . , n tali che v = v
1
+. . . +v
n
.
Proposizione: siano B
i
base di V
i
, i = 1, . . . , n. V = V
1
. . . V
n
B = B
1
. . . B
n
.
Conseguenza: f e diagonalizzabile V = V (
1
, f) . . . V (
k
, f).
Osservazione: in ogni V
i
lapplicazione e semplice: f
[
V (
i
)
=
i
Id.
Triangolabilita
Denizione: sia V uno spazio vettoriale tale che dimV = n. Si chiama bandiera per V una lista di
sottospazi V
1
, . . . , V
n
di V tale che:
1. V
1
V
2
. . . V
n
;
2. dimV
i
= i, i = 1, . . . , n.
Osservazione: ogni base di V induce una bandiera: sia B = v
1
, . . . , v
n
. Allora:
V
1
= span(v
1
)
V
2
= span(v
1
, v
2
)
.
.
.
V
n
= span(v
1
, . . . , v
n
)
34 Ateneo Studenti Fisica
Coniugio e Similitudine
Viceversa ogni bandiera e indotta da una base.
Denizione: sia f End(V ). Una bandiera di V e detta una bandiera per f se i = 1, . . . , n V
i
e
f-invariante

f(V
i
) V
i

.
Denizione: B si dice base a bandiera per f se la bandiera indotta da B e una bandiera per f.
Osservazione: sia f End(V ), B una base di V . m
B
(f) e triangolare B e a bandiera per f.
Denizione: una matrice quadrata e detta triangolabile se e simile a una triangolare.
Denizione: f End(V ) e detta triangolabile se esiste una base B di V tale che m
B
(f) e triangolare.
Teorema: (di triangolabilita) siano f End(V ), con n = dimV,
1
, . . . ,
m
K tutti i suoi autovalori.
Allora f e triangolabile h(
1
)+. . . +h(
m
) = n (tutti i suoi autovalori sono nel campo).
Dimostrazione:
(=): presa B base di V a bandiera per f, consideriamo m
B
(f); la matrice associata e triangolare quindi
tutti gli autovalori si trovano sulla diagonale. Allora il polinomio caratteristico e scomponibile in fattori
di primo grado:
p
A
(t) = (
1
t)
h(
1
)
. . . (
m
t)
h(
m
)
e h(
1
)+. . . +h(
m
) = n (cioe la taglia della matrice).
(=): per induzione su n.
n = 1: tutte le matrici 1 1 sono triangolari.
n 1 = n: per ipotesi v
1
autovettore per f (infatti esiste almeno un autovalore e di conseguenza
almeno un autovettore relativo ad esso).
Lo completiamo a base o = v
1
, w
2
, . . . , w
n
di V . Sia V
1
= span(v
1
), W = span(w
2
, . . . , w
n
).
La matrice associata e nella forma: m
S
(f) =

?
0 C

Poiche V = V
1
W abbiamo due proiezioni:
p
V
1
: V V
1
p
W
: V W
Sappiamo infatti che v V a V
1
, b W t. c. v = a +b = p
V
1
(v) +p
W
(v) = p
V
1
+p
W
= Id.
Consideriamo allora lapplicazione: p
W
f
[
W
End(W). La sua matrice associata e:
m
{w
2
,..., w
n
}
(p
W
f
[
W
) =

tale applicazione e un endomorsmo e dimW = n 1. Inoltre sappiamo che p


A
(t) = ( t) p
C
(t).
Poiche p
A
(t) ha tutte le radici nel campo, tale proprieta vale anche per i suoi fattori, in particolare per
p
C
(t).
Pertanto, poiche verica le ipotesi del teorema (come si vede sopra), possiamo applicare lipotesi induttiva
a p
W
f
[
W
:
esiste quindi z
2
, . . . , z
n
base di W a bandiera per p
W
f
[
W
. Mostriamo che v
1
, z
2
, . . . , z
n
e base di
V a bandiera per f, cioe i = 2, . . . , n, f(z
i
) span(z
2
, . . . , z
i
):
f(z
i
) =

Id
. .. .
(p
V
1
+p
W
) f

(z
i
) = p
V
1

f(z
i
)

+p
W

f(z
i
)

Ma p
V
1

f(z
i
)

span(v
1
), p
W

f(z
i
)

span(z
2
, . . . , z
i
) (perche z
2
, . . . , z
i
e a bandiera per p
W
f
[
W
),
quindi f(z
i
) span(v
1
, z
2
, . . . , z
i
).
Osservazione: se K = C tutti gli endomorsmi sono triangolabili (ma non necessariamente diagonaliz-
zabili).
Ateneo Studenti Fisica 35
Forme bilineari
Denizione: sia V uno spazio vettoriale tale che dimV = n. : V V K e detta applicazione
bilineare se:
1. x, y, z V (x +y, z) = (x, z) +(y, z), (x, y +z) = (x, y) +(x, z);
2. x, y V, K, (x, y) = (x, y) = (x, y).
Denizione: sia V uno spazio vettoriale. Chiameremo Bil(V ) linsieme delle applicazioni bilineari
f : V V K.
Denizione: sia V uno spazio vettoriale, Bil(V ), B = v
1
, . . . , v
n
una base di V . La matrice
associata allapplicazione bilineare e nella forma:

m
B
()

ij
def
= (v
i
, v
j
)
Proposizione: se A = m
B
() = v, w V, (v, w) =
t
[v]
B
A[w]
B
.
Dimostrazione:
(v, w) =

i=1
a
i
v
i
,
n

j=1
b
j
v
j

=
n

i=1
a
i
n

j=1
b
j
(v
i
, v
j
)
. .. .
[A]
ij
=

a
1
, . . . , a
n

b
1
.
.
.
b
n

Osservazione: detta B una base di V , lapplicazione:


f : Bil(V ) M(n, K)
m
B
()
e un isomorsmo.
Corollario: dim

Bil(V )

= n
2
.
Denizione: Bil(V ) si dice simmetrica (o prodotto scalare) se (v, w) = (w, v). Si dice antisim-
metrica se (v, w) = (w, v).
Osservazione: B base di V :
antisimmetrica m
B
() e simmetrica.
e antisimmetrica m
B
() e antisimmetrica.
Denizione: sia K un campo, e sia m N il pi u piccolo numero naturale tale che
m volte
. .. .
1+. . . +1 = m 1 = 0
(1 K). Diremo che m e la caratteristica del campo K

char(K) = m

. Se m N, m 1 = 0 =
char(K) = 0.
Da ora in poi e sottinteso che char(K) = 2, cioe 2
1
K.
Osservazione: ogni forma bilineare e somma di una simmetrica e di una antisimmetrica.
Dimostrazione:
(u, v) =
(u, v) +(v, u)
2
. .. .
simmetrica
+
(u, v) (v, u)
2
. .. .
antisimmetrica
cioe Bil(V ) = Bil
S
(V ) + Bil
A
(V ) e lunica forma sia simmetrica che antisimmetrica e 0.
36 Ateneo Studenti Fisica
Forme bilineari
Forma quadratica
Denizione: unapplicazione q : V K si dice forma quadratica se Bil(V ) t. c. v V,
q(v) = (v, v).
Consideriamo lapplicazione:
: Bil(V ) Q(V )
q(v) = (v, v)
non e iniettiva, infatti se e antisimmetrica: v V, q(v) = (v, v) = (v, v) = q(v) = q(v) =
0, v V = q 0.
Proposizione: sia q una forma quadratica. ! Bil(V ) prodotto scalare che induce q.
Dimostrazione: q forma quadratica = b Bil(V ) t. c. v V, q(v) = b(v, v). v, w V , sia:
(u, v) =
b(u, v) +b(v, u)
2
Allora e bilineare simmetrica, quindi e un prodotto scalare. Inoltre induce q, poiche v V :
(v, v) =
b(v, v) +b(v, v)
2
= b(v, v) = q(v)
Dimostriamo ora lunicita di facendo vedere che, data q, v, w V , il valore di (u, v) e univocamente
determinato. Se e un prodotto scalare che induce q:
q(u +v) q(u) q(v) = (u +v, u +v) (u, u) (v, v) = 2(u, v)
Allora data q abbiamo la seguente formula di polarizzazione:
(u, v) =
q(u +v) q(u) q(v)
2
E il valore di (u, v) e univocamente determinato.
Ateneo Studenti Fisica 37
Congruenza, forme isometriche
sia Bil(V ), B una base di V e A = m
B
(). Sappiamo che u, v V, (u, v) =
t
[u]
B
A [v]
B
.
Sia ora o unaltra base di V e sia A

= m
S
(). Se M e la matrice di cambio di base dalla base B alla
base o, u, v V :
(u, v) =
t
[u]
S
A

[v]
S
=
t
[u]
B

t
MA

M [v]
B
=
t
[u]
B
A [v]
B
.
Allora A =
t
MA

M.
Denizione: due matrici A, B M(n, K) si dicono congruenti (e si indica A B) se M GL(n, K)
tale che B =
t
MAM.
Denizione: , Bil(V ) si dicono forme isometriche se h GL(V ) (detta isometria) tale che
v, w V, (v, w) =

h(v), h(w)

Osservazione: sia B una base di V . , Bil(V ) sono forme isometriche m


B
() m
B
().
Dimostrazione: siano A = m
B
(), B = m
B
(), M = m
B
(h). Allora v, w V :
(v, w) =
t
[v]
B
A [w]
B
=
t
[v]
B

t
MBM [w]
B
=

h(v), h(w)

= A =
t
MBM.
Possiamo vedere la relazione di equivalenza di congruenza (A B) in due modi diversi: o A e B sono
matrici associate alla stessa forma bilineare vista in basi diverse, o sono matrici associate nella stessa
base a forme isometriche.
Osservazione: il rango e un invariate per congruenza.
Infatti si moltiplica A con matrici invertibili per ottenere B.
Denizione: sia Bil(V ) e sia B una base di V . Deniamo rk = rk

m
B
()

.
Osservazione: rk non dipende dalla scelta della base (poiche la matrice associata cambia per con-
gruenza, di cui rango e invariante).
Osservazione: il determinante non e un invariante per congruenza.
Dimostrazione: siano A, B M(n) t. c. B =
t
MAM. Allora: det B = det(
t
MAM) = (det M)
2
det A.
Osservazione: Il segno del determinante e invariante.
Rango di unapplicazione bilineare
Proposizione: sia V uno spazio vettoriale tale che n = dimV , e sia unapplicazione bilineare. Sono
fatti equivalenti:
rk = n;
(u, v) = 0 v V = u = 0;
(u, v) = 0 u V = v = 0.
Dimostrazione: sia B una base di V , A = m
B
():
1 = 2: Poiche rkA = rk = n, det A = 0. Allora v, w V

X = [v]
B
, Y = [w]
B

:
(v, w) =
t
XAY = 0 Y K
n
=
t
XA = 0 =
t
AX = 0
Poiche det
t
A = det A = 0 la soluzione del sistema e unica, cioe X = 0;
38 Ateneo Studenti Fisica
Congruenza, forme isometriche
2 = 1: se per assurdo rkA < n = det A = 0 = X K
n
, X = 0 t. c.
t
AX = 0 =
t
XA.
Allora Y K
n t
XAY = 0. Quindi v V, [v]
B
= X, tale che w V, (v, w) = 0;
le altre dimostrazioni sono identiche a quelle date.
Denizione: sia unapplicazione bilineare. si dice non degenere se vale 1, 2 o 3.
Ateneo Studenti Fisica 39
Prodotti Scalari
Denizione: sia un prodotto scalare su V . v, w V si dicono ortogonali se (v, w) = 0.
Denizione: sia V uno spazio vettoriale e sia S V un suo sottospazio. Chiameremo ortogonale di S:
S

= v V [ (v, x) = 0 x S
Osservazione: S

e un sottospazio vettoriale di V .
Proposizione: sia V uno spazio vettoriale e sia S V un suo sottospazio. Allora:
1. S T = T

;
2. S

= (spanS)

;
3. S (S

.
Dimostrazione:
1. per la denizione di ortogonale: v T

, w T, (v, w) = 0. S T = s S,
(v, s) = 0 = v S

, v T

= T

;
2. per 1: S span(S) = (spanS)

. Facciamo vedere che S

(spanS)

. Sappiamo che
x S

, s S, (x, s) = 0. Allora, se I e un insieme di indici nito:

x,

iI
a
i
s
i

iI
(x, a
i
s
i
)
. .. .
0
= 0
3. per la denizione di ortogonale: (S

= v V [ (v, x) = 0 x S

; poiche s S,
x S

, (s, x) = 0 = S (S

.
Denizione: sia V uno spazio vettoriale, chiameremo radicale di V :
Rad(V ) = V

= x V [ (v, x) = 0 v V
Osservazione: non degenere = V

= 0.
Osservazione: 0 = V

= V .
Proposizione: siano V uno spazio vettoriale tale che dimV = n, un prodotto scalare. Allora
dimV

= n rk.
Dimostrazione: sia B una base di V , e sia A = m
B
(). Dalla denizione: v V

, w V, (v, w) = 0.
Siano X = [v]
B
, Y = [w]
B
. Allora (v, w) =
t
XAY = 0, Y K
n
=
t
XA = 0 =
t
AX = 0 =
X KerA = dimKerA = n rkA = n rk.
Proposizione: siano V uno spazio vettoriale tale che n = dimV , W V un sottospazio vettorial di V ,
un prodotto scalare. Allora
1. dimW

n dimW;
2. non degenere = dimW

= n dimW;
3.
[
W
non degenere = V = W W

.
40 Ateneo Studenti Fisica
Prodotti Scalari
Dimostrazione: sia m = dimW:
1. sia w
1
, . . . , w
m
una base di W. La completiamo a base di V : o = w
1
, . . . , w
m
, v
m+1
, . . . , v
n
.
Sia A = m
S
().
W

= v V [ (v, w) = 0, w W = v V [ (v, w
i
) = 0, i = 1, . . . , m
Poiche
t
[w
i
]
S
A [v]
S
= 0i = 1, . . . , n

sia [v]
S
= X

(1, 0, 0, . . . , 0)AX = 0 (i = 1)
.
.
.
(0, . . . , , 1, 0, . . . , 0)AX = 0 (i = m)
In forma matriciale: (I
m
[0)AX = 0.
dimW

= dimKer

(I
m
[0)A

= n rk

(I
m
[0)A

n m;
poiche rk

(I
m
[0)A

min

rk(I
m
[0), rkA

m;
2. non degenere = A e invertibile = rk

(I
m
[0)A

= m = dimW

= n m;
3. sia F = m
S
(
[
W
). Allora det F = 0 e:

F G
H L

Allora rk

(I
m
[0)A

= rk(I
m
[0)

F G
H L

= rk(F[G) = m = dimW

= n m =
dimV = dimW + dimW

= V = W +W

.
Basta dimostrare che W W

= 0. Ma W W

= Rad(
[
W
) = 0 poiche
[
W
e non degenere.
Allora V = W W

Denizione: sia Bil(V ) un prodotto scalare. v V si dice isotropo se (v, v) = 0 (e radice della
forma quadratica indotta da ).
Proposizione:
1. v V, (v, v) = 0 (ogni vettore di V e isotropo) = 0;
2. v V non isotropo = w V, w
(v, w)
(v, v)
v e ortogonale a v

(v, w)
(v, v)
e detto coeciente di Fourier

;
3. v e non isotropo = V = span(v)

span(v)

.
Dimostrazione:
1. (v, v) = 0 v V = u, v V, (u, v) =
1
2

q(u +v) q(u) q(v)

=
=
1
2

(u +v, u +v) (u, u) (v, v)

= 0;
2.

w
(v, w)
(v, v)
v, v

= (w, v)
(v, w)
(v, v)
(v, v) = 0;
3. sappiamo che
[
W
non degenere = V = W W

. Sia W = span(v); e non degenere, perche v


non e isotropo (la matrice di
[
span(v)
e invertibile). Allora V = span(v)

span(v)

.
Denizione: sia

V,

uno spazio vettoriale munito di un prodotto scalare. Una base B = v


1
, . . . , v
n

di V si dice ortogonale se (v
i
, v
j
) = 0 i = j.
Osservazione: B e una base ortogonale m
B
() e diagonale.

basta ricordare che



m
B
()

ij
= (v
i
, v
j
)

.
Teorema: Bil(V ) prodotto scalare = B base di V ortogonale per .
Dimostrazione: diamo due dimostrazioni del teorema:
Ateneo Studenti Fisica 41
Prodotti Scalari
1. se v V, (v, v) = 0 = 0 e ogni base e ortogonale.
Supponiamo quindi che sia non degenere e diamo una dimostrazione per induzione su n = dimV :
= 0 = v
1
= 0 non isotropo = V = span(v
1
)

span(v
1
)

.
n = 1: ogni matrice 1 1 e diagonale, v
1
e la base cercata;
n 1 = n: per ipotesi induttiva v
2
, . . . , v
n
base di

span(v
1
)

ortogonale per
[
W
(e
uno spazio di dimensione n 1) = v
1
, . . . , v
n
e una base di V ortogonale per .
2. Algoritmo di Lagrange:
Sia B = v
1
, . . . , v
n
una base di V , A = m
B
(). Supponiamo che sia non degenere (non
e restrittivo, visto che nel caso di 0 ogni base e ortogonale). Mostriamo 3 operazioni che
permettono di ortogonalizzare la base B:
Trasformazione di base: se (v
1
, v
1
) = [A]
11
= 0 (v
1
non isotropo) allora deniamo:
v

1
= v
1
v

2
= v
2

(v
2
, v
1
)
(v
1
, v
1
)
v
1
.
.
.
v

n
= v
n

(v
n
, v
1
)
(v
1
, v
1
)
v
1
Sono una base di V . Dimostriamolo ricordando che sono indipendenti se le loro coordinate
rispetto alla base B lo sono. Per questo scriviamo i vettori in matrice (ogni colonna sono le
coordinate del vettore rispetto alla base):

1 c
1
. . . c
n
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1

dove c
i
=
(v
i
, v
1
)
(v
1
, v
1
)
Come si vede, la matrice e triangolare superiore e invertibile, quindi i vettori v

1
, . . . , v

n
sono
una base di V .
Inoltre, per il procedimento con cui sono stati ottenuti v

2
, . . . , v

n
sono ortogonali a v

1
.
Si itera il procedimento se v

2
e non isotropo.
Trasformazioni ausiliarie: avvengono nel caso in cui [A]
11
= 0 (v
1
e isotropo):
(a) se i t. c. [A]
ii
= 0 (v
i
e non isotropo) = si permuta la base in modo che v
i
occupi il
primo posto;
(b) se i = 1, . . . , n [A]
ii
= 0 = poiche A = 0 (dato che 0) i, j t. c. [A]
ij
= 0.
Mostriamo che v
i
+v
j
non e isotropo:
(v
i
+v
j
, v
i
+v
j
) = (v
i
, v
i
)
. .. .
0
+(v
j
, v
j
)
. .. .
0
+2 (v
i
, v
j
)
. .. .
[A]
ij
= 0
Scegliamo una base in cui v
i
+v
j
e il primo vettore e ripartiamo.
Corollario: ogni matrice simmetrica e congruente a una diagonale.
Osservazione: se v
1
, . . . , v
n
e una base di V ortogonale per (prodotto scalare non degenere), sap-
piamo che:
v V, v =
1
v
1
+. . . +
n
v
n
Consideriamo il prodotto scalare di v con un vettore v
i
della base:
(v, v
i
) =

j=1

j
v
j
, v
i

=
n

j=1

j
(v
j
, v
i
) =
i
(v
i
, v
i
)
Allora:

i
=
(v, v
i
)
(v
i
, v
i
)
42 Ateneo Studenti Fisica
Prodotti Scalari
cioe il coeciente di Fourier relativo al vettore v
i
.
Teorema: (di Sylvester complesso) sia V uno spazio vettoriale su campo C (o su un campo algebrica-
mente chiuso) tale che dimV = n. Allora esiste B base di V tale che: m
B
() =

I
r
0
0 0

con r = rk.
Dimostrazione: sappiamo che o = v
1
, . . . , v
n
base ortogonale di V in cui la matrice associata e dia-
gonale. A meno di riordinare la base possiamo supporre che (v
i
, v
i
) = 0 se i = 1, . . . , r e (v
i
, v
i
) = 0
se i = r + 1, . . . , n.
Sia:
v

i
=
v
i

(v
i
, v
i
)
i = 1, . . . , r
e ben denito: infatti essendo su C possiamo sempre fare la radice quadrata di un numero.
Allora B = v

1
, . . . , v

r
, v
r+1
, . . . , v
n
e la base cercata.
Corollario: il rango e un sistema di invarianti completo per congruenza se K = C.
Teorema: (di Sylvester reale) sia V un R-spazio vettoriale, n = dimV , rk = r = B base di V ed
p N indipendente dalla scelta della base tale che:
m
B
() =

I
p
I
rp
0

E si chiamano:
p = i
+
: indice di positivita di ;
r p = i

: indice di negativita di ;
n r = i
0
: indice di nullita di ;
Dimostrazione: sappiamo che esiste una base o = v
1
, . . . , v
n
di V ortogonale per tale che m
S
()
e diagonale. Costruiamo ora la base B tale che m
B
() e del tipo voluto: i = 1, . . . , r
(v
i
, v
i
) > 0 = v

i
=
v
i

(v
i
, v
i
)
(v
i
, v
i
) < 0 = v

i
=
v
i

(v
i
, v
i
)
Allora la base B = v

1
, . . . , v

r
, v
r+1
, . . . , v
n
e del tipo cercato.
Dimostriamo ora che p non dipende dalla scelta della base. Sia p

la massima dimensione di un sottospazio


vettoriale W di V tale che
[
W
sia denito positivo. Evidentemente p

non dipende dalla scelta della


base; per tale motivo proviamo che p = p

. Presa B = v
1
, . . . , v
n
una base ortogonale in cui la matrice
e nella forma cercata:
sia W = span(v
1
, . . . , v
p
) =
[
W
e denito positivo e dimW = p = p p

;
sia ora Z un sottospazio vettoriale di V tale che dimZ = p

e
[
Z
e denito positivo. Sia
W = span(v
p+1
, . . . , v
n
). Mostriamo che W Z = 0:
supponiamo per assurdo che v W Z, v = 0 = v =
p+1
v
p+1
+. . . +
n
v
n
. Allora:
(v, v) =

i=p+1

i
v
i
,
n

j=p+1

j
v
j

=
n

i=p+1

2
i
(v
i
, v
i
) =
r

i=p+1

2
i
(v
i
, v
i
) < 0
Ma sappiamo che, per la denizione di Z: (v, v) > 0. Assurdo, quindi W Z = 0.
Quindi W Z V = dim(W Z) = dimW + dimZ = n p +p

n = dimV = p p

.
Allora p = p

e non dipende dalla scelta della base.


Corollario: la segnatura, ovvero (i
+
, i

, i
0
), e un sistema di invarianti completo per congruenza se
K = R.
Ateneo Studenti Fisica 43
Prodotti Scalari
Osservazione: sia un prodotto scalare su V tale che rk = n = dimV . e denito positivo
i
+
() = n (in particolare e non degenere: i
0
= 0).
Denizione: sia A M(n, R) simmetrica. A e denita positiva X R
n
, X = 0,
t
XAX > 0

ossia (X, Y ) =
t
XAY e denito positivo

.
Osservazione: A M(n, R) simmetrica e denita positiva M GL(n, R) t. c. A =
t
MM
(infatti A, denita positiva, e congruente allidentita).
Denizione: si chiamano minori principali di A M(n, R) le sottomatrici quadrate A
1
, . . . , A
n
di A,
dove A
i
e formata dalle prime i righe e i colonne di A. Chiameremo inoltre D
i
= det A
i
.
Proposizione: A M(n, R) simmetrica e denita positiva i = 1, . . . , n D
i
> 0.
Dimostrazione:
(=): A denita positiva A
t
MM, M invertibile = det A = D
n
= (det M)
2
> 0.
Sia ora un prodotto scalare e B = v
1
, . . . , v
n
una base di V tale che A = m
B
(), W = span(v
1
, . . . , v
i
)
e o = v
1
, . . . , v
i
. Sappiamo che A
i
= m
S
(
[
W
).
Poiche
[
W
e ancora denito positivo, D
i
> 0 (come visto sopra).
(=): lo dimostriamo come corollario al seguente:
Teorema: (di Jacobi ) sia A M(n, R) simmetrica. Supponiamo che D
i
= 0 i = 1, . . . , r e che
D
i
= 0 i = r + 1, . . . , n = B base ortogonale di R
n
rispetto alla quale la matrice associata al
prodotto scalare A e diagonale. Gli elementi sulla diagonale principale sono:
[A]
ii
=

D
1
se i = 1
D
i
D
i1
se i = 2, . . . , r
0 se i = r + 1, . . . , n
Corollario: se i = 1, . . . , n D
i
> 0 = A e denita positiva.
Prodotti scalari deniti positivi
Denizione: sia V uno R-spazio vettoriale munito di un prodotto scalare ; si dice che (V, ) e uno
spazio euclideo se e denito positivo.
Osservazione: induce una norma: | | : V R; v V, |v|
def
=

(v, v).
Proprieta:
1. v V 0, |v| > 0;
2. v V, R, |v| = [[|v|;
3. v, w V, [(v, w)[ |v| |w|;
4. v, w V, |v +w| |v| +|w| (disuguaglianza triangolare).
Osservazione: dalla proprieta 3 ricaviamo la denizione di angolo tra due vettori v, w V :
cos =
(v, w)
|v| |w|
Osservazione: induce una distanza: d : V V R; v, w V, d(v, w)
def
= |v w|.
Proprieta:
1. v, w V, d(v, w) 0;
2. d(v, w) = 0 v = w;
3. v, w V, d(v, w) = d(w, v);
4. v, w, z V, d(v, w) d(v, z) +d(z, w).
44 Ateneo Studenti Fisica
Prodotti Scalari
Proprieta degli spazi euclidei
Sia (V, ) uno spazio euclideo tale che dimV = n. W V sottospazio vettoriale di dimW = k,
[
W
e
denito positivo =
[
W
e non degenere = V = W W

(dimW

= n k).
Siano v
1
, . . . , v
k
e v
k+1
, . . . , v
n
basi ortogonali rispettivamente di W e W

= v
1
, . . . , v
k
, v
k+1
, . . . , v
n

e una base ortogonale di V . Allora v V :


v =
(v, v
1
)
(v
1
, v
1
)
v
1
+. . . +
(v, v
k
)
(v
k
, v
k
)
v
k
. .. .
p
W
(v)
+
(v, v
k+1
)
(v
k+1
, v
k+1
)
v
k+1
+. . . +
(v, v
n
)
(v
n
, v
n
)
v
n
. .. .
p
W

(v)
dove p
W
(v) e p
W
(v) sono le proiezioni (ortogonali) di V su W e W

.
Denizione: una base B = v
1
, . . . , v
n
di V si dice ortonormale se e ortogonale e (v
i
, v
i
) = 1
i = 1, . . . , n.
Osservazione: ogni spazio euclideo ha una base ortonormale.
Teorema: (di Gram-Schmidt) sia (V, ) uno spazio euclideo tale che dimV = n. Se B = v
1
, . . . , v
n

una base qualsiasi di V = B

= v

1
, . . . , v

n
base ortonormale di V tale che i = 1, . . . , n
span(v

1
, . . . , v

i
) = span(v
1
, . . . , v
i
) (conserva la bandiera indotta da B).
Dimostrazione: diamo la dimostrazione utilizzando il processo di ortonormalizzazione di Gram-Schmidt:
v

1
= v
1
(certamente e non isotropo);
v

2
= v
2

(v
2
, v

1
)
(v

1
, v

1
)
v

1
.
.
.
v

n
= v
n

(v
n
, v

1
)
(v

1
, v

1
)
v

1
. . .
(v
n
, v

n1
)
(v

n1
, v

n1
)
v

n1
Si tratta in realta di un caso particolare dellalgoritmo di Lagrange per un prodotto scalare non de-
genere. In questo caso, poiche non ci sono vettori isotropi, e possibile rendere un vettore ortogonale a
tutti i vettori a lui precenti (senza utilizzare trasformazioni ausiliarie), secondo la formula:
v

i
= v
i

i1

j=1
(v
i
, v

j
)
(v

j
, v

j
)
v

j
Mostriamo ora che la base B

, ottenuta come sopra, preserva la bandiera indotta da B. Per la costruzione


che abbiamo fatto, i = 1, . . . , n span(v

1
, . . . , v

i
) span(v
1
, . . . , v
i
), infatti v

1
, . . . , v

i
sono una com-
binazione lineare di v
1
, . . . , v
i
(quindi appartengono allo stesso spazio); non solo, ma i due spazi hanno
la stessa dimensione. Infatti v

1
, . . . , v

i
sono linearmente indipendenti (basta metterli in matrice, come
abbiamo fatto per lalgoritmo di Lagrange, per accorgersene). Quindi la bandiera indotta dalla base
ortonormale B

e la stessa di quella indotta da B.


Denizione: A M(n, R) si dice ortogonale se
t
AA = I.
Osservazione:
t
A e anche inversa a destra di A.
Dimostrazione:
t
AA = I = A
t
AA = AI = IA = A
t
A = I.
Osservazioni:
A e ortogonale = A e invertibile: (det A)
2
= 1 = det A = 1;
A e ortogonale le righe e le colonne di A formano una base ortonormale di R
n
:
t
AA =

t
A
1
.
.
.
t
A
n

A
1
. . . A
n

Quindi (A
i
, A
j
) =
t
A
i
A
j
=

0 se i = j
1 se i = j
, quindi A
1
, . . . , A
n
e una base ortonormale di R
n
;
Ateneo Studenti Fisica 45
Prodotti Scalari
detto O(n) = A M(n, R) [
t
AA = I,

O(n),

e un gruppo detto gruppo ortogonale ( e il


prodotto fra matrici):
1. O(n) e chiuso per : A, B O(n), AB O(n); infatti
t
(AB)AB =
t
B
t
AAB =
t
BB = I;
2. esistenza dellinverso: A O(n),
t
A = A
1
. Inoltre A O(n),
t
A O(n): infatti A
t
A = I;
3. esistenza dellelemento neutro: I O(n), infatti
t
I I =
t
I = I. A O(n), AI = IA = A;
4. proprieta associativa: vale perche vale per tutte le matrici.
O(n) GL(n, R).
Proposizione: sia (V, ) uno spazio euclideo tale che dimV = n, B = e
1
, . . . , e
n
una base ortonormale
di V per , B

= v
1
, . . . , v
n
unaltra base di V . Detta M la matrice di cambio di base

M = m
B

B
(Id)

,
allora: B

ortonormale M O(n).
Dimostrazione: M = m
B

B
(Id) = M
i
=

Id(v
i
)

B
= [v
i
]
B
.
Il prodotto scalare di due vettori di B

rispetto a B e:
(v
i
, v
j
) =
t
[v
i
]
B
I [v
j
]
B
=
t
[v
i
]
B
[v
j
]
B
=
t
(M
i
) M
j
= (
t
M)
i
M
j
= [
t
MM]
ij
Allora:
(v
i
, v
j
) =

0 se i = j
1 se i = j

t
MM = I.
Teorema: siano A M(n, R) avente tutti gli autovalori reali, il prodotto scalare ordinario di R
n
(denito positivo), ( la base canonica di R
n
tale che A = m
C
(A). Allora P O(n) t. c. P
1
AP =
=
t
PAP e di forma triangolare.
Dimostrazione: A : R
n
R
n
ha tutti gli autovalori reali = A e triangolabile = B base di R
n
a bandiera per A.
Applicando il teorema di Gram-Schmidt: o base di R
n
ortonormale per che induce la stessa bandiera
di B = o e una base a bandiera per A, cioe m
S
(A) e triangolare.
Se P = m
C
S
(Id) e la matrice di cambio di base dalla base ( alla base o, allora, poiche entrambe sono
ortonormali: P
1
AP e triangolare e P O(n).
A e simile e congruente a una matrice triangolare.
Denizione: sia (V, ) uno spazio euclideo. f End(V ) si dice applicazione simmetrica o autoaggiunta
se: v, w V,

f(v), w

=.
Osservazione: siano (V, ) uno spazio euclideo, B una base di V ortonormale per , A = m
B
(f).
Allora: f e simmetrica A e simmetrica.
Dimostrazione: se f e simmetrica, v, w V :

f(v), w

=
t
[v]
B

t
AI [w]
B

v, f(w)

=
t
[v]
B
IA [w]
B
Allora:
f simmetrica v, w V,
t
[v]
B

t
A [w]
B
=
t
[v]
B
A [w]
B
A =
t
A.
46 Ateneo Studenti Fisica
Teorema Spettrale e prodotti
Hermitiani
Lemma: sia A M(n, R) simmetrica. Allora tutti gli autovalori di A sono reali.
Dimostrazione: A : R
n
R
n
. Poiche ogni vettore reale e anche complesso, pensiamo A : C
n
C
n
.
Sia un autovalore di A. In generale C; dimostriamo che R. Per far questo, ricordando la
denizione di autovalore:
C autovalore di A X C
n
, X = 0 t. c. AX = X.
Coniugando tutto:
AX = X = AX = X (poiche A e una matrice reale: A = A)
Consideriamo allora:
t
XAX =
t
XX

t
X
t
AX =
t
(AX)X =
t
(X)X =
t
XX
Allora ( )
t
XX = 0. Ma
t
XX = 0, poiche se:
X = (x
1
, . . . , x
n
) =
t
XX = x
1
x
1
+. . . +x
n
x
n
= [x
1
[
2
+. . . +[x
n
[
2
Poiche X = 0 almeno una delle sue componenti e diversa da 0. Allora
t
XX = 0 e, poiche R e un campo
e non ci sono divisori di zero: = 0 = = = R. Allora tutti gli autovalori di A sono reali.
Teorema spettrale: sia (V, ) uno spazio euclideo, f End(V ) simmettrica. Allora esiste una base
ortonormale di V di autovettori per f.
Dimostrazione: diamo due diverse dimostrazioni:
1. sia o una base ortonormale di V , e sia A = m
S
(f) = A e simmetrica = A ha tutti gli
autovalori reali = P O(n) t. c.
t
PAP = P
1
AP = T triangolare.
A e simmetrica = T e simmetrica. Infatti
t
T =
t
(
t
PAP) =
t
P
t
AP =
t
PAP = T = T e
diagonale.
Se B e la base tale che P = m
S
B
(Id) (la matrice associata al cambio di base fra o e B) =
= P
1
AP = m
B
(f) = B e una base di autovettori.
P O(n) = B e ortonormale (la matrice di cambio di base e ortogonale se le basi in partenza e
in arrivo sono ortonormali).
2. per induzione su n = dimV .
n = 1: tutti i vettori sono autovettori, per ottenere una base ortonormale si divide il vettore
di base per la sua norma.
n 1 = n: sia o una base ortonormale di V , e sia A = m
S
(f).
A e simmetrica = autovalore reale di A = v
1
V, v
1
= 0, autovettore per f relativo
a (non e restrittivo supporre |v
1
| = 1).
Siamo in uno spazio euclideo, non ci sono vettori isotropi (eccetto 0), e non degenere. Allora:
V = span(v
1
)

span(v
1
)

.
W =

span(v
1
)

e un sottospazio vettoriale di V di dimensione n1,


[
W
e denito positivo
=

span(v
1
)

con la restrizione del prodotto scalare e uno spazio euclideo.


Proviamo che f
[
W
e un endomorsmo, cioe che f

span(v
1
)

span(v
1
)

:
w

span(v
1
)

?
= f(w)

span(v
1
)

(facciamo vedere che f(w) v


1
):
Ateneo Studenti Fisica 47
Teorema Spettrale e prodotti Hermitiani

f(w), v
1

w, f(v
1
)

= (w, v
1
) = 0 = f End

span(v
1
)

Poiche e vericata lipotesi induttiva per



span(v
1
)

: v
2
, . . . , v
n
base ortonormale di

span(v
1
)

di autovettori per f
[
W
= B = v
1
, . . . , v
n
e, per la scelta fatta, ortonormale
per V e di autovettori per f.
Osservazione: siano f End(V ) simmetrica, , K autovalori per f tali che = . Allora
v V (), w V (), (v, w) = 0.
Dimostrazione:
(v, w) = (v, w) =

f(v), w

v, f(w)

= (v, w) = (v, w) = ()(v, w) = 0.


Poiche siamo in un campo, non ci sono divisori di zero e = :
(v, w) = 0.
Corollario: sia A M(n, R) simmetrica, P O(n) t. c.
t
PAP = P
1
AP = D diagonale. Allora D
e la forma canonica di A rispetto alle relazioni dequivalenza similitudine e congruenza.
Corollario: sia A M(n, R) simmetrica:
i
+
(A) = numero di autovalori positivi di A;
i

(A) = numero di autovalori negativi di A;


i
0
(A) = molteplicita di 0 come autovalore di A;
Osservazione: A e denita positiva tutti gli autovalori sono positivi.
Teorema: (di ortogonalizzazione simultanea) sia (V, ) uno spazio euclideo, sia un prodotto scalare
su V . Allora esiste una base B di V ortonormale per e ortogonale per .
Dimostrazione: siano o una base ortonormale di V per , A = m
S
() = A e simmetrica.
Sia g End(V ) tale che m
S
(g) = A = g e simmetrica = (teorema spettrale) B base di V ortonor-
male per e di autovettori per g

m
B
(g) = D diagonale

.
Se M e la matrice di cambio di base tra o e B

M = m
S
B
(Id)

= M
1
AM = D
Ma o e B sono ortonormali = M O(n) = M
1
=
t
M, cioe: m
B
() =
t
MAM = D = B e
ortogonale per .
Denizione: sia (V, ) uno spazio euclideo, f End(V ) si dice applicazione ortogonale o isometria

f O(V, )

se:
x, y V,

f(x), f(y)

= (x, y)
.
Osservazione: f End(V ) e ortogonale = f e un isomorsmo.
Dimostrazione:
f End(V ) = f e lineare;
f e iniettiva: se x Kerf, x = 0, 0 =

f(x), f(x)

= (x, x) = |x|
2
. Assurdo: lunico vettore
con norma nulla e 0;
f e surgettiva: dimV = dim(Kerf) + dim(Imf) = dim(Imf), Imf V = Imf = V .
Osservazione: sono fatti equivalenti:
1. f e ortogonale;
2. f preserva la norma;
3. se B = v
1
, . . . , v
n
e una base ortonormale di V =

f(v
1
), . . . , f(v
n
)

e una base ortonormale


di V .
Dimostrazione:
1 = 2: v V,

f(v)

2
=

f(v), f(v)

= (v, v) = |v|
2
.
48 Ateneo Studenti Fisica
Teorema Spettrale e prodotti Hermitiani
2 = 1: usando la formula di polarizzazione. x, y V :

f(x), f(y)

f(x +y)

f(x)

f(y)

2
2
=
|x +y|
2
|x|
2
|y|
2
2
= (x, y)
1 = 3: la trasformazione in base e ovvia, visto che f e un isomorsmo. Poiche f preserva la
norma:

f(v
i
)

= 1 i = 1, . . . , n. Inoltre, poiche f preserva il prodotto scalare:

f(v
i
), f(v
j
)

= (v
i
, v
j
) = 0 = f(v
i
) f(v
j
).
3 = 1 siano x = a
1
v
1
+. . . +a
n
v
n
e y = b
1
v
1
+. . . +b
n
v
n
.

f(x), f(y)

=
n

i=1
a
i
n

j=1
b
j
(v
i
, v
j
) =
n

i=1
a
i
b
i
= (x, y)
Osservazione: siano f End(V ), B una base ortonormale di V . f e ortogonale m
B
(f) O(n).
Dimostrazione: Poiche B e ortonormale, x, y V

A = matassocbf

f(x), f(y)

=
t
[x]
B
t
AA[y]
B

(x, y) =
t
[x]
B
[y]
B
Allora

f(x), f(y)

= (x, y)
t
AA = I (A matrice ortogonale).
Proposizione:

O(V, ),

e un gruppo ( e la composizione di funzioni).


Dimostrazione:
f, g O(V, ), g f O(V, ): f g e lineare. Facciamo vedere che preserva il prodotto scalare:
v, w V

f(v)

, g

f(w)

f(v), f(w)

= (v, w);
esiste lelemento neutro: Id O(V, );
esiste linverso in O(V, ): f O(V, ) = f GL(V ) = f
1
. Dimostriamo che
f
1
O(V, ):
v, w V, x, y V t. c. v = f(x), w = f(y) = (v, w) =

f(x), f(y)

= (x, y). Allora:

f
1
(v), f
1
(w)

(f
1
f)(x), f(f
1
f)(y)

= (x, y) = (v, w);


vale la proprieta associativa per tutte le funzioni, in particolare per O(V, ).
Osservazione: sia (V, ) uno spazio euclideo tale che n = dimV . O(n) rappresenta O(V, ) in R
n
munito del prodotto scalare standard.
Prodotti Hermitiani
Denizione: sia V un C-spazio vettoriale, e sia h : V V C. h e un prodotto Hermitiano se:
1. x, y, z V, h(x +y, z) = h(x, z) +h(y, z);
2. x, y, z V, h(x, y +z) = h(x, y) +h(x, z);
3. x, y V, C, h(x, y) = h(x, y);
4. x, y V, h(x, y) = h(y, x);
5. x, y V, C, h(x, y) = h(x, y);
grazie alla proprieta 4 e possibile replicare quanto fatto per i prodotti scalari. Infatti v V, h(v, v) =
h(v, v) ed e quindi un numero reale.
Denizione: h e un prodotto hermitiano denito positivo se h(v, v) > 0, v V, v = 0.
Ateneo Studenti Fisica 49
Teorema Spettrale e prodotti Hermitiani
Osservazione: sia B una base di V , h un prodotto hermitiano e sia H = m
B
(h). H =
t
H

[H]
ij
= [H]
ji

Osservazione: sia h un prodotto hermitiano, H = m


B
(h). Allora v, w V, h(v, w) =
t
[v]
B
H [w]
B
.
Denizione: U M(n, C) e detta unitaria (analogo della matrice ortogonale) se
t
UU = I.
Chiamiamo spazi hermitiani lanalogo degli spazi euclidei.

E da notare come, date le denizioni precedenti,
valgano tutti i risultati ottenuti nel caso di questi ultimi.
50 Ateneo Studenti Fisica

Potrebbero piacerti anche