Sei sulla pagina 1di 71

- GEOMETRIA PER FISICA -

Appunti tratti dalle lezioni del prof. Benedetti

A. Di Canto

a.a. 2003-04
Indice

Prefazione v

I. Geometria I 1

1. Gruppi, Anelli, Campi 3

2. Spazi e sottospazi vettoriali 7

3. Il campo dei numeri complessi C 13

4. Sistemi lineari 17
4.1. Leliminazione di Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

5. Applicazioni lineari 21
5.1. Applicazioni lineari e matrici . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.1.1. Traccia e trasposta di una matrice . . . . . . . . . . . . . . . . . . 26
5.2. Gruppo Lineare di uno spazio vettoriale . . . . . . . . . . . . . . . . . . . 27
5.3. Endomorfismi e matrici simili . . . . . . . . . . . . . . . . . . . . . . . . . 28

6. Determinanti 31
6.1. Applicazioni del determinate . . . . . . . . . . . . . . . . . . . . . . . . . 34

7. Autovalori ed autovettori 37
7.1. Endomorfismi diagonalizzabili . . . . . . . . . . . . . . . . . . . . . . . . . 39
7.1.1. Il polinomio minimo . . . . . . . . . . . . . . . . . . . . . . . . . . 39
7.2. Endomorfismi triangolabili . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

8. Prodotti scalari ed hermitiani 45


8.1. Il caso complesso: prodotti hermitiani . . . . . . . . . . . . . . . . . . . . 47
8.2. Basi ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
8.2.1. Il teorema spettrale . . . . . . . . . . . . . . . . . . . . . . . . . . 52

II. Appendici 55

iii
Indice

A. Lo Spazio Euclideo 57
A.1. Alcune proprieta dei triangoli . . . . . . . . . . . . . . . . . . . . . . . . . 59
A.2. Prodotto Vettoriale e prodotto misto nello Spazio Euclideo tridimensionale 62

iv
Prefazione
Le pagine seguenti contengono una serie di appunti usati da me per i corsi tenuti dal
prof. Benedetti e dal prof. Manfredini di Geometria Iper fisica.
In quanto scritti da uno studente, potranno risultare incompleti in alcune parti e non
sempre molto chiari, nonostante tutta la mia buona volonta; per ogni dubbio o perples-
sita vi rimando quindi alle voci bibliografiche e allaiuto di un professore (cosa sempre
saggia).

Notazioni: Useremo per significare uguale per definizione.


Gli intervalli chiusi sulla retta reale saranno denotati con [a, b] {x R | a 6 x 6
b, a, b R}, mentre quelli semiaperti con, ad esempio, ]a, b] {x R | a < x 6 b, a, b
R}.
Dati gli insiemi A, B ed unapplicazione f : A B, se X e un sottoinsieme di A (X A)
indicheremo la restrizione di f al sottoinsieme X con f|X : X B, ricordiamo che essa
e tale che x X f|X (x) = f (x).

v
Prefazione

vi
Parte I.

Geometria I

1
1. Gruppi, Anelli, Campi
Definizione 1.1. Sia G 6= e sia + : G G G; (G, +) e un gruppo se:

x, y, z G (x + y) + z = x + (y + z)
(proprieta associativa)

G|xG +x=x+ =x
(esistenza dellelemento neutro per +, 0)

x G x G | x + x = x + x =
(esistenza dellopposto, x x)

Se inoltre vale anche che:

x, y G x+y =y+x
(proprieta commutativa)

allora (G, +) e un gruppo commutativo o abeliano.

Proposizione 1.1. Lelemento neutro (cos come lopposto) e univocamente determi-


nato.

Dimostrazione . Se ed 0 sono entrambi elementi neutri, allora

xG +x=x+ =x 0 + x = x + 0 = x

quindi = + 0 = 0 + = 0

Definizione 1.2. Sia A 6= e siano + : A A A e : A A A; (A, +, ) e un


anello se:

(A, +) e un gruppo abeliano

x, y, z G (x y) z = x (y z)
(proprieta associativa per )

G|xG x=x=x
(esistenza dellelemento neutro per , 1)

x, y, z G (x + y) z = x z + y z)
x (y + z) = x y + x z)
(proprieta distributiva)

3
1. Gruppi, Anelli, Campi

Se inoltre vale anche che:

x, y G xy =yx
(proprieta commutativa)

allora (A, +, ) e un anello commutativo.

esempio 1.1: (Z, +, ) (Q, +, ) sono anelli commutativi.

Definizione 1.3. Sia K 6= ; (K, +, ) e un campo se:

(K, +, ) e un anello commutativo

x K r {0} x K | x x = x x = 1
(esistenza dellinverso, x x1 )

esempio 1.2: (Z, +, cdot) (Q, +, ) (R, +, ) (C, +, ) sono campi.

Definizione 1.4. Una relazione su un insieme X 6= e un sottoinsieme

R X X | x1 Rx2 (x1 , x2 ) R

Definizione 1.5. Una relazione su X e detta di equivalenza () se e solo se:

xx xX
(riflessivita)

x1 x2 x2 x1
(simmetria)

x1 x2 x2 x3 x1 x3
(transitivita)

Definizione 1.6. Si dicono classi di equivalenza quegli insiemi

[x] = {y X | y x} X

Linsieme delle classi di equivalenza e detto insieme quoziente

X/ = {[x] | x X}

Definizione 1.7. Una relazione e detta di ordine parziale (6) se:

x6x xX
(riflessivita)

x1 6 x2 x2 6 x1 x1 = x2
(antisimmetria)

x1 6 x2 x2 6 x3 x1 6 x3
(transitivita)

4
la relazione si dice di ordine totale se inoltre:

x1 6 x2 x2 6 x1 x1 , x2 X

Proposizione 1.2. Le classi di equivalenza formano una partizione di X, cioe


\ [
[xi ] = [xi ] = X
S
Dimostrazione . Risulta ovvio che [xi ] = X. Mentre, per assurdo, se fosse
\
[x1 ] [x2 ] 6= x3 [x1 ], x3 [x2 ] | x3 x1 x3 x2

ossia per transitivita x1 x2 cioe [x1 ] = [x2 ].

Definizione 1.8. (K, +, , 6) e un campo totalmente ordinato se:

(K, +, ) e un campo

x, y, z K x>y x+z >y+z

x, y, z K z > 0 x > y xz > yz

esempio 1.3: (R, +, , 6) e un campo totalmente ordinato.

5
1. Gruppi, Anelli, Campi

6
2. Spazi e sottospazi vettoriali
Definizione 2.1. Uno spazio vettoriale sul campo di scalari Ke un insieme V 6=
munito di due operazioni, + : V V V ; : V K V tali che:

(V, +) e un gruppo abeliano

(v) = ()v v V, , K

1 | 1 v = v 1 = v v V (elemento neutro per )

(v + w) = v + w (v + w) = v + w
v, w v, K (distributivita)

Gli elementi di uno spazio vettoriale sono detti vettori.

esempio 2.1: Sia K il campo di scalari;

1. Esempio standard di spazio


vettoriale:


x 1

n ..
K |K K {z
... K} = . | xi K i = 1...n

xn
n volte


v1 w1 v1 + w1
+ : Kn Kn Kn v = ... , w = ..
. 7 v+w
..

.
vn wn vn + wn

v1
: Kn K Kn v ...

vn
(Verificare che si tratta di uno spazio vettoriale e semplice)

2. m Kn {matrici con m righe ed n colonne} (vedi definizione 5.5 pag. 24)



a11 a12 a1n
..
a21 a22 .
m Kn 3 A = .. (aij ) con i = 1...m, j = 1...n

.. ..

. .
. . . .
am1 amn
+ :m Kn K m Kn v + w (aij + bij )
:m Kn m Kn m Kn A (aij )

7
2. Spazi e sottospazi vettoriali

3. K[x] = {polinomi nella variabile x a coefficienti in K} 3 p(x) = n xn + ... + 0


Definizione 2.2. Sia V spazio vettoriale, un sottospazio vettoriale di V e un sottoin-
sieme W V tale che:
0W
v, w W v + w W (W e chiuso per somma vettoriale)
K, v W v W (W e chiuso per prodotto per uno scalare)
esempio 2.2: Alcuni esempi di sottospazi di n Kn sono le matrici:
Diagonali Dn = {(aij ) n Kn | aij = 0 i 6= 0}
Simmetriche Sn = {(aij ) n Kn | aij = aji i, j}
Triangolari superiori che sono le matrici con gli zeri sotto la diagonale.

x
esercizio 2.3: Dimostrare che W = y R3 | 2x + y z = 0 e un sottospazio
z

di R3 .
Definizione 2.3. Sia V uno spazio vettoriale su K e siano v1 , ..., vn V . Diciamo che
v1 , ..., vn sono linearmente dipendenti se in K esistono n elementi 1 , ..., n , non tutti
nulli, tali che
1 v1 + ... + n vn = 0 (2.1)
Unespressione del tipo (2.1) e detta combinazione lineare dei vettori v1 , ..., vn .
Definizione 2.4. Dato un sottoinsieme X = {x1 , ..., xk } V , chiamo Span (X)
lintersezione di tutti i sottospazi di V che contengono X, cioe
Span (X) = {v V | v = 1 x1 + ... + k xk i K i = 1..k}
Definizione 2.5. B = {v1 , ..., vn } e una base di V se:
1. Span (B) = V (cioe B genera lo spazio vettoriale V )
2. v1 , ..., vn sono linearmente indipendenti
esempio 2.4: Ecco alcuni esempi di basi di spazi vettoriali:
1. Una base di Kn e, ad esempio, la base canonica:

0
..
.

0

C = {e1 , ..., en } dove ei
1 con 1 nelli-esima riga.

0

..
.
0

8
2. Mentre la base canonica di m Kn e fatta dalle matrici

0 0 0
.
0 . . . 1 ..

(eij )
.. . . .. . con 1 che occupa li-esima riga e la j-esima colonna

. . . ..
0 0

esercizio 2.5: Dire se e vera o falsa la seguente affermazione: Dati v1 , v2 , v3 R4 se


per ogni i 6= j vi e vj sono linearmente indipendenti, allora v1 , v2 , v3 sono linearmente
indipendenti.
Teorema 2.1 (di estrazione di una base). Sia {v1 , ..., vn } un insieme di generatori di
V ; sia {v1 , ..., vk } un sottoinsieme massimale di vettori linearmente indipendenti. Allora
{v1 , ..., vk } e una base di V .
Dimostrazione . Ogni vi con i > k e combinazione lineare di {v1 , ..., vk } perche, per
ipotesi, fissato vi , esistono 1 , ..., k , K non tutti nulli per cui

1 v1 + ... + k vk + vi = 0

in particolare 6= 0 (altrimenti avremmo una relazione di dipendenza lineare tra i vettori


v1 , ..., vk ); quindi
1 k
vi = v1 ... vk

Inoltre, per ipotesi, tutti i v V si possono scrivere come combinazione lineare dei vi
per i = 1, ..., n.
Possiamo allora sostituire ogni vi (i > k) con una combinazione lineare di v1 , ..., vk ; cos
facendo troviamo che v e espresso come combinazione lineare dei v1 , ..., vk .

Proposizione 2.1. Siano V = Span (x1 , ..., xn ) spazio vettoriale, Y = {y1 , ..., yk } V
un insieme linearmente indipendente, allora n > k.
Dimostrazione . Per ipotesi 1 , ..., n K tali che y1 = 1 x1 + ... + n xn , quindi
y1 , x1 , ..., xn sono un sistema di generatori di V linearmente dipendente. Per il teorema
di estrazione 2.1 y1 , x1 , ..., xn contiene una base: cerco allora un xi dipendente dagli
altri vettori e lo elimino; ripeto loperazione aggiungendo y2 ai vettori restanti, iterando
possono verificarsi due casi:
1. esuarisco i vettori di Y senza esaurire gli xi (o li esaurisco insieme), allora n > k

2. esuarisco gli xi senza aver esaurito i vettori di Y ; ma questo significa che un


sottoinsieme di Y genera e quindi che y1 , ..., yk sono linearmente dipendenti, il che
per ipotesi e assurdo.

9
2. Spazi e sottospazi vettoriali

Lemma 2.2. Sia V uno spazio vettoriale e si supponga che esistano due basi, una
costituita da n vettori ed unaltra da m; allora m = n.

Definizione 2.6. Sia V uno spazio vettoriale avente una base di n elementi, diciamo
dimensione di V :
dim V n

Proposizione 2.3. Sia V uno spazio vettoriale di dimensione n, allora ogni n-upla di
vettori linearmente indipendenti e una base di V .

Proposizione 2.4. Siano V uno spazio vettoriale di dimensione n e W V un suo


sottospazio. Allora

dim W 6 dim V dim W = dim V W = V

Dimostrazione . Se dim W = n una base di W composta da n elementi; per la


proposizione 2.3 questa e anche una base di V , quindi W = V .
Cos, siccome W V , non possono esistere in W piu di n vettori linearmente indipen-
denti per cui dim W 6 dim V .

Osservazione: Siano V uno spazio vettoriale e U e W due suoi sottospazi. Allora


U W e un sottospazio di V . Piu in generale, data una qualsiasi famiglia di sottospazi
di V , la sua intersezione e ancora un sottospazio di V .
Quanto appena detto non vale per lunione.

Definizione 2.7. Siano U, W sottospazi di uno spazio vettoriale V , definisco la somma


tra sottospazi

W + Z Span (W Z) = {v V | w W, z Z tali che v = w + z}

Se, inoltre U W = {0}, diremo che la somma dei due sottospazi e diretta e scriveremo
U W in luogo di U + W .

Lemma 2.5. Siano U, W sottospazi di uno spazio vettoriale V , B un sistema di gene-


ratori di U , e D un sistema di generatori di W , allora B D e un sistema di generatori
di U + W .

Teorema 2.2 (di Grassmann). Dati U, W sottospazi dello spazio vettoriale di dimen-
sione finita V , allora

dim U + W = dim U + dim W dim U W

Dimostrazione . Sia {v1 , ..., vp } una base di U W ; completiamola a base di U con


{up+1 , ..., ur } e a base di W con {wp+1 , ..., ws }.
Allora per il lemma 2.5

B = {v1 , ..., vp , up+1 , ..., ur , wp+1 , ..., ws }

10
e un sistema di generatori di U + W ; dimostriamo che sono linearmente indipendenti:
siano
v = 1 v1 + ... + p vp U W
v = p+1 up+1 + ... + r ur U
v = p+1 wp+1 + ... + s ws W
mostriamo che v + u + w = 0 i = i = i = 0. Ma allora w = v u U perche
u U e v U W U quindi w U W w = 1 v1 + ... + p vp cioe

p+1 wp+1 + ... + s ws = 1 v1 + ... + p vp

Essendo i wi e vi linearmente indipendenti (perche base di W ) allora i = i = 0, da


qui segue che

v + u = 1 v1 + ... + p vp + p+1 up+1 + ... + r ur = 0 i = i = 0

cioe B e base di W + U e quindi dim W + U = r + s p.

Definizione 2.8. Siano V spazio vettoriale e W V un suo sottospazio, U si dice


supplementare di W se U W = V .

Proposizione 2.6. Ogni sottospazio U V di dimensione finita ha un supplementare.

Dimostrazione . Sia {u1 , ..., up } base di U , completiamola a {u1 , ..., up , wp+1 , ..., wn } base
di V , allora W = Span (wp+1 , ..., wn ) e un supplementare di U ; infatti si ha V = U + W
e, per il teorema 2.2, dim U W = 0, cioe U W = {0}.

11
2. Spazi e sottospazi vettoriali

12
3. Il campo dei numeri complessi C
Definizione 3.1. C {a + ib | a, b R} dove i C | i2 = 1;
in C sono definite le seguenti operazioni:

+:CCC
(a + ib) + (c + id) (a + c) + i(b + d)

:CCC
(a + ib)(c + id) (ac bd) + i(ad + bc)

: C C
z = a + ib 7 z a ib
(coniugazione complessa)

||:CR
|a + ib| z z = a2 + b2

Lemma 3.1. Dalla relazione z z = |z|2 troviamo che linverso moltiplicativo di z e

z
z 1 =
|z|2

esercizio 3.1: Dimostrare che (C, +, ) e un campo

Proposizione 3.2. Valgono le seguente relazioni:

1. z = z

2. z1 + z2 = z1 + z2 z1 z2 = z1 z2

3. z = z z R

4. z z = 0 z = 0

5. |z| = |z| |z1 z2 | = |z1 ||z2 |

6. |z1 + z2 | 6 |z1 | + |z2 | (disuguaglianza triangolare)

7. |z1 + z2 | > ||z1 | + |z2 ||

13
3. Il campo dei numeri complessi C

Osservazione: Un numero complesso z = a + ib puo esser scritto in forma trigo-


nometrica come:
=6
z = |z|(cos + i sin ) C
z (a, b)
ei (cos + i sin )

z= |z|ei
<
-
w = |w|ei zw = |zw|ei(+)

Lemma 3.3 (Formula di De Moivre). z = |z|ei z n = |z|n ein

Teorema 3.1. Siano p0 , p1 K[x] due polinomi sul campo K con p0 6= 0. Allora
Esistono e sono unici due polinomi p, r K[x] con deg r < deg p1 tali che

p0 = qp1 + r

Dimostrazione . Siano n = deg p0 , m = deg p1 e

p0 (x) = an xn + an1 xn1 ... + a0 p1 (x) = bm xm + bm1 xm1 ... + b0

con an 6= bm . Procediamo per induzione su n:

Se n = 0 p0 = 0 distinguiamo 2 casi:

1. m > 0 q = 0 r = a0
a0
2. m = 0 q = b0 r=0

Sia vero ora per deg p0 < n dimostriamo allora che vale anche per n:
ancora due casi:

1. n < m q = 0 r = p0
2. n > m, sia
an nm
p2 (x) = p0 (x) x p1 (x) deg p2 < deg p0 = n
bm
quindi, per ipotesi induttiva, q1 , r con deg r < deg p1 | p2 = q1 p1 + r. Allora
an nm
p0 (x) = (q1 (x) + x )p1 (x) + r(x)
bm
per cui
an nm
q = q1 (x) + x r = r(x)
bm

14
Teorema 3.2 (del resto). Sia p K[x] con deg p = n, x0 K e una radice di p se, e
solo se, q K[x], deg q = n 1 tale che

p(x) = (x x0 )q(x)

Dimostrazione . Se effettuiamo la divisione fra p(x) e (x x0 ) troviamo un quoziente


q(x) | deg q = n 1 e un resto r(x) | deg r = 0 per cui

p(x) = (x x0 )q(x) + r(x)

Siccome deve risultare p(x0 ) = 0 r(x) = 0

Teorema 3.3 (fondamentale dellalgebra). Sia p C[x] un polinomio di grado n.


Allora p ha esattamente n radici in C, contate con la relativa molteplicita.

Corollario 3.4. p(x) R[x], C, p() = 0 p() = 0

Dimostrazione . Sappiamo per ipotesi che:

p() = an n + an1 n1 + ... + a0 = 0

Allora:

0 = an n + an1 n1 + ... + a0
= an n + an1 n1 + ... + a0

poiche ai R i = 0...n

= an n + an1 n1 + ... + a0
= p()

15
3. Il campo dei numeri complessi C

16
4. Sistemi lineari
Definizione 4.1. Chiameremo sistema di m equazioni lineari nelle n incognite x1 , ..., xn ,
a coefficienti nel campo K, ogni scrittura del tipo

a11 x1 + . . . + a1n xn = b1

: .. .. ..
. . .
am1 x1 + . . . + amn xn = bm

dove i coefficienti aij e i termini noti bj sono elementi di K.


Il sistema si dira omogeneo se bj = 0 j = 1, ..., m. Dato un sistema , si chiamera
sistema omogeneo associato il sistema che si ottiene da sostituendo la colonna dei
termini noti con una colonna di zeri.

Dato un sistema di equazioni lineari chiameremo matrice1 dei coefficienti A e colonna


dei termini noti b:

a11 a12 a1n
.. b1
a21 a22 . .
A .. .. . .
e b ..
. . .. ..

bm
am1 amn

Chiameremo, inoltre, matrice completa del sistema, la matrice



a11 a1n b1
.. .. .. ..
(A|b) . . . .
am1 amn bm


x1
Posto infine x = ... , possiamo scrivere il sistema nella forma

xn

: Ax = b

Osservazione: Possiamo quindi interpretare il problema di risolvere il sistema nel


linguaggio degli spazi vettoriali. In corrispondenza alla matrice A m Kn , possiamo
considerare lunica applicazione lineare f : Kn Km che ha matrice A rispetto alle basi
canoniche dei due spazi.
1
Per una definizione precisa di matrice vedi def. 5.5 pag. 24.

17
4. Sistemi lineari

4.1. Leliminazione di Gauss


Definizione 4.2. Una matrice a scale e una matrice tale che, per ogni indice di riga i,
esista un indice di colonna j > i, tale che si abbia ahk = 0 quando h > i e k < j; ovvero
una matrice del tipo

0 0 p1 ? ?

.. .. ..
. . 0 0 0 p2 ? .


.. .. .. .. .. .. .. ..

. . . . . 0 . . ? .


.. .. .. .. .. .. ..

. . . . . . . ? ?

A =

.. .. .. .. .. ..

. . . . . . pr ? ?

.. .. .. .. .. ..

. . . . . . 0 0

.. .. .. .. .. .. .. ..
. . . . . . . .
0 0 0 0 0 0 0 0 0

Gli elementi pi della matrice a scala sono detti pivot.

Ogni matrice A puo essere ricondotta ad una matrice a scala A; come?


Il metodo di eliminazione di Gauss consiste nellapplicare operazioni elementari ele-
mentari sulle righe (equazioni) di un sistema lineare, fino ad ottenere un sistema che
abbia una matrice a scala, in modo da ridurre il numero di coefficienti non nulli senza
modificarne le soluzioni.
Queste cosiddette operazioni elementari sono di tre tipi:

1. Scambio di due equazioni in un sistema lineare (e quindi di due righe nella corri-
spondente matrice)

2. Moltiplicazione di tutti i coefficienti di unequazione (e quindi di una riga della


corrispondente matrice) per uno scalare diverso da zero

3. Sostituzione di unequazione con la somma della stessa con un multiplo di une-


quazione (e quindi sostituire una riga della corrispondente matrice con la somma
della riga stessa con un multiplo di unaltra riga)

Iterando opportunamente queste operazioni si puo ottenere un sistema lineare che abbia
le stesse soluzioni del sistema di partenza, ma con un maggior numero di coefficienti
uguali a zero e quindi un sistema per cui sia piu facile scrivere le soluzioni.

Definizione 4.3. Chiamo rango della matrice A

rnk A numero dei pivot di A

18
4.1. Leliminazione di Gauss

Proposizione 4.1. Siano dati unapplicazione lineare f : Kn Km , di matrice A


rispetto alle basi canoniche dei due spazi, ed un vettore b Km . Sono equivalenti le
seguenti affermazioni:
1. b Im f
2. b e combinazione lineare delle colonne di A
3. rnk (A|b) = rnk A
Dimostrazione . 1. 2.: Ricordiamo che Im f = Span (f (e1 ), ..., f (en )) e che le colonne
della matrice A sono esattamente le coordinate dei vettori f (e1 ), ..., f (en ), rispetto alla
base canonica di Km .
2. 3.: E chiaro che rnk (A|b) > rnk A, dato che tutte le colonne della seconda
matrice sono anche colonne della prima. I due ranghi quindi coincidono se la colonna b
e combinazione lineare delle colonne della matrice A.
3. 1.: Se i due ranghi sono uguali, il vettore b Km si scrivera come combinazione
lineare delle colonne della matrice A, ovvero devono esistere delle costanti 1 , ..., n tali
che b = 1 f (e1 ) + ... + n f (en ) = f (1 e1 + ... + n en ).

Teorema 4.1 (di RoucheCapelli). Il sistema di equazioni lineari : Ax = b, con


A m Kn e b Km , ha soluzione se, e solo se, rnk (A|b) = rnk A.
In tal caso, ogni soluzione del sistema si ottiene sommando ad una soluzione particola-
re del sistema, ogni soluzione del sistema omogeneo associato 0 : Ax = 0. Le soluzioni
di 0 formano uno spazio vettoriale di dimensione n rnk A.
esempio 4.1: Consideriamo il sistema lineare

x +2y +z = 0
2x +y +z = 0
x y z = 1

Applichiamo le operazioni elementari alla matrice completa del sistema:



1 2 1 0 1 2 1 0
r2 2r3 r3 r1
2 1 1 0 0 3 3 2
1 1 1 1 1 1 1 1

1 2 1 0 1 2 1 0
r3 r1 r3 +r2
0 3 3 2 0 3 3 2
0 3 2 1 0 0 1 1

Notiamo che rnk (A|b) = rnk A, quindi per il teorema 4.1, esistono soluzioni che formano
uno spazio di dimensione 0, ossia un solo punto (soluzione unica).
esercizio 4.2: Risolvere, al variare del parametro R il seguente sistema

( 1)x +2y z =0
2x z =0
( + 1)x y +( + 2)z =0

19
4. Sistemi lineari

20
5. Applicazioni lineari
Definizione 5.1. Siano V e W due spazi vettoriali su K, unapplicazione f : V W si
dice lineare o omomorfismo di spazi vettoriali se

1. f (v + w) = f (v) + f (w) v, w V

2. f (v) = f (v) K, v V

Si dice isomorfismo unapplicazione lineare biiettiva.


Linsieme di tutte le applicazioni lineari tra due K-spazi vettoriali V e W , si indica con
il simbolo Hom (V, W ).

esercizio 5.1: Dimostrare che Hom (V, W ) e uno spazio vettoriale.


esercizio 5.2: Dimostrare che: f, g lineari f 1 e g f lineari.

Definizione 5.2. Due spazi vettoriali V e W sono isomorfi (V ' W ) se esiste f : V W


isomorfismo.

Definizione 5.3. Siano V e W due spazi vettoriali sul campo K. Ad unapplicazione


lineare f : V W , possiamo associare due sottospazi vettoriali

Il nucleo: Ker f {v V | f (v) = 0} V

Limmagine: Im f {w W | v V, f (v) = w} W

Lemma 5.1. Date f, g omomorfismi di spazi vettoriali, valgono le seguenti relazioni:

1. Im g f Im g

2. Ker f Ker g f

Dimostrazione . 1. z Im g f v V tale che g f (v) = z, detto allora


f (v) = w si ha z = g(f (v)) = g(w) z Im g.

2. v Ker f f (v) = 0 ma g f (v) = g(f (v)) = g(0) = 0 v Ker g f .

Proposizione 5.2. f Hom (V, W ) e iniettiva Ker f = {0}.

21
5. Applicazioni lineari

Dimostrazione . Dimostriamo limplicazione : innanzitutto, dato che f (0) = 0, risulta


che 0 Ker f , sia ora v Ker f f (v) = 0 ma siccome f e iniettiva e f (0) = 0 deve
essere v = 0.
Tocca ora allaltra implicazione : basta dimostrare che

v1 , v2 V, f (v1 ) = f (v2 ) v1 = v2

f (v1 ) f (v2 ) = 0 cioe f (v1 v2 ) = 0, ma siccome Ker f = {0} allora v1 v2 = 0 cioe


v1 = v2 .

Teorema 5.1 (della dimensione). Sia f Hom (V, W )

dim V = dim Ker f + dim Im f

Dimostrazione . Sia {u1 , ..., uk } una base di Ker f , estendiamola a {u1 , ..., uk , vk+1 , ..., vn }
base di V e poniamo wi = f (vk+i ) per i = 1, ..., nk; dimostriamo che B = {w1 , ..., wnr }
e una base di Im f .
Innanzitutto B e un sistema di generatori, cioe che w Im f v V tale che f (v) = w:
sia

v = 1 u1 + ... + k uk + k+1 vk+1 + ... + n vn

applico la f

w = 1 f (u1 ) + ... + k f (uk ) +k+1 f (vk+1 ) + ... + n f (vn )


| {z }
0 dato che ui Ker f

= k+1 w1 + ... + n wnk

Inoltre w1 , ..., wnk sono linearmente indipendenti, infatti:

0 = 1 w1 + ... + nk wnk
= 1 f (vk+1 ) + ... + nk f (vnk )
= f (1 vk+1 + ... + nk vnk )

cioe 1 vk+1 + ... + nk vnk Ker f , ma allora

1 v1 + ... + nk vnk = 1 u1 + ... + k uk

e questo ci dimostra che 1 = ... = nk = 0, dato che u1 , ..., uk , v1 , ..., vnk e una base
di V .

Corollario 5.2. f iniettiva dim V = dim Im f

Corollario 5.3. Sia dim V = dim W , allora f e iniettiva f e suriettiva.

22
Corollario 5.4. Date f, g omomorfismi di spazi vettoriali si ha

dim Ker g f = dim Ker f + dim(Ker g Im f )

Dimostrazione . Sia h = g|Im f , allora Im h = g(Im f ) = Im g f , per il teorema 5.1 si


ha

dim Ker g f = dim V dim Im g f


= dim V dim Im h
= dim V dim Im f + dim Ker h
| {z }
dim Ker f

= dim Ker f + dim(Ker g Im f )

Proposizione 5.3. dim V = dim W V ' W f Hom (V, W ) suriettiva.

Dimostrazione . Dimostriamo limplicazione :


sia B = {v1 , ..., vn } base di V , abbiamo dimostrato (vedi dimostrazione del teorema 5.1)
che f (B) = {f (v1 ), ..., f (vn )} e una base di Im f = W dim W = n
Dimostriamo ora :
sia D = {w1 , ..., wn } base di W allora ! f Hom (V, W ) tale che f (vi ) = wi i = 1, ..., n.
Risulta facilmente dal teorema della dimensione 5.1 che una tale f e un isomorfismo.

Lemma 5.4. Ogni spazio vettoriale V di dimensione n e isomorfo a Kn .

Costruiamo nel modo piu naturale possibile un isomorfismo tra V e Kn . Fissiamo


B = {v1 , ..., vn } base di V , allora ogni vettore v V si scrive in modo unico come
combinazione lineare dei vettori della base:

v = 1 v1 + ... + n vn

1
chiameremo coordinate del vettore v rispetto alla base B il vettore ... Kn .

n
Lapplicazione che associa ad un vettore le coordinate rispetto ad una base B

[ ]B : V Kn

1
7 [v]B ...
v

e un isomorfismo.

23
5. Applicazioni lineari

Definizione 5.4. Diciamo endomorfismi di V , K-spazio, gli omomorfismi f : V V

End (V ) Hom (V, V )

Osservazione: (End (V ), +, ) e un anello con 1 non commutativo, lelemento neutro


per la composizione e lapplicazione identica:

id : V V
v 7 id(v) v

5.1. Applicazioni lineari e matrici


Definizione 5.5. Fissati due interi positivi m ed n, chiameremo matrice di ordine mn,
ad elementi nel campo K, ogni tabella di scalari del tipo

a11 a12 a1n
..
a21 a22 .
A= . .. (aij ) con i = 1...m, j = 1...n

..

.. ..
. . .
am1 amn

ove aij indica lelemento posto nella i-esima riga e nella j-esima colonna della tabella.
Indicheremo con m Kn linsieme di tutte le matrici di ordine m n, che formano uno
spazio vettoriale con le operazioni di somma e prodotto per scalari, definite elemento
per elemento (vedi esempio 2.1 pag. 7).

Osservazione: dim m Kn = mn.


Il motivo per cui ci interessiamo agli spazi vettoriali di matrici e che queste ultime sono
uno strumento per rappresentare le applicazioni lineari tra spazi vettoriali di dimensione
finita.

Definizione 5.6. Siano V e W due spazi vettoriali di dimensione finita su K e siano


B = {v1 , ..., vn } e D = {w1 , ..., wm } basi dei rispettivi spazi. Data unapplicazione
lineare f : V W , si chiama matrice di f , rispetto alle basi B e D, la matrice avente
ordinatamente come colonne le componenti dei vettori f (v1 ), ..., f (vn ), rispetto alla base
D di W ; ovvero, se
f (v1 ) = a11 w1 + ... + am1 wm
..
.
f (vn ) = a1n w1 + ... + amn wm
la matrice e
a11 a12 a1n
..
a21 a22 .
MDB (f )


.. .. .. ..


. . . .
am1 amn

24
5.1. Applicazioni lineari e matrici

esempio 5.3: Allapplicazione identica e ad esempio associata la matrice identica con


zero su tutte le entrate ed uno sulla diagonale:

1 0 0
..
C
0 1 .
I MC (id) = .

..

..

. 0
0 0 1

Proposizione 5.5. Hom (Kn , Km ) 'm Kn


Dimostrazione . Fissate le basi B e D dei due spazi, e semplice verificare che lapplicazio-
ne che associa ad un omomorfismo f la rispettiva matrice MDB (f ) e un isomorfismo.

Lemma 5.6. dim Hom (Kn , Km ) = mn.


Osservazione: End (Kn ) 'n Kn .
Definizione 5.7. Siano date le matrici A m Kn e B n Kt , il prodotto righe per
colonne della matrice A con la matrice B e la matrice AB m Kt , le cui colonne sono il
prodotto della matrice A per le colonne della matrice B. Ovvero, se

A = (ahk ) h=1,...,m e k=1,...,n B = (brs ) r=1,...,n e s=1,...,t AB = (cij ) i=1,...,m e j=1,...,t

allora
n
X
cij = aid bdj i = 1, ..., m, j = 1, ..., t
d=1

Siano V, W due spazi vettoriali con dim V = n, dim W = m allora, tramite lisomor-
fismo di passaggio alle coordinate, Hom (V, W ) 'm Kn .
Fissate le basi B e D rispettivamente di V e W , siano

[v]B = x [f (v)]D = y A = MDB (f )

allora
v_ 
f
V 3 / f (v) W
_
[ ]B [ ]D
 
Kn 3 x / Ax = y Km
A

Osservazione (Importante!): Il prodotto tra matrici non e commutativo. Inoltre per


tale prodotto non vale la legge di annullamento

AB = 0 6 A = 0 B = 0

Il prodotto tra matrici ha un preciso corrispettivo in termini di applicazioni lineari,


ovvero il prodotto tra due matrici e la matrice della composizione delle due applicazioni
lineari corrispondenti ai fattori.

25
5. Applicazioni lineari

5.1.1. Traccia e trasposta di una matrice


Vediamo ora alcune applicazioni che saranno importanti in seguito.
Definizione 5.8. Chiamiamo traccia di una matrice quadrata lomomorfismo
tr : n Kn K
A = (aij ) 7 tr A ni=j=1 aij
P

esempio 5.4:
3 4 5
A = 7 2 6 = tr A = 14
23 4 9
Definizione 5.9. Chiameremo trasposta lapplicazione lineare
t : m Kn n Km
A = (aij ) 7 tA (aji )
esempio 5.5:

  3 1
3 5 7
A= tA = 5 11
1 11 9
7 9
Osservazione: Lapplicazione trasposta ci permette anche di dare una definizione piu
elegante di matrici simmetriche:
Sn = {A n Kn | A = tA}
Proposizione 5.7. Lapplicazione trasposta e un isomorfismo.
Dimostrazione . Innanzitutto
Ker t = {A m Kn | tA = 0} = {0}
la trasposta e iniettiva, quindi
dim Im t = dim m Kn

ma siccome Im t n Km e dim n Km = dim m Kn , allora


Im t = n Km

cioe la trasposta e anche suriettiva.

Ecco un paio di proposizioni facili da dimostrare:


Proposizione 5.8. Sia A m Kn , allora
rnk A = rnk tA
Proposizione 5.9. Siano A m Kn , B n Kt , vale
t
(AB) =t B tA

26
5.2. Gruppo Lineare di uno spazio vettoriale

5.2. Gruppo Lineare di uno spazio vettoriale


Definizione 5.10. Dato V K-spazio, linsieme delle applicazioni f End (V ) invertibili
costituiscono un gruppo rispetto alla composizione che prende il nome di Gruppo Lineare
di V :
End (V ) GL (V ) {f End (V ) | f e un isomorfismo}
Allo stesso modo
n Kn GL (n, K) {A n Kn | A1 }
Le matrici che appartengono al gruppo lineare sono dette non singolari.

Proposizione 5.10. A, B GL (n, K) AB GL (n, K).

Dimostrazione .

(A1 A)B = B
B 1 (A1 A)B = B 1 B = I
(B 1 A1 )AB = I

quindi (AB)1 = B 1 A1 .

Definizione 5.11. Diamo una definizione piu appropriata di rango di una matrice
(applicazione lineare):

rnk A dim Im A = dim Span (A1 , ..., An )

Possiamo ora mostrare un modo che ci permette di calcolare linversa di una matrice;
innanzitutto vale la seguente

Proposizione 5.11. A n Kn e invertibile rnk A = n.

Stabilito ora che la nostra matrice A n Kn e invertibile, osserviamo che trovare


linversa significa trovare una matrice X n Kn tale che AX = I, cio equivale a dire che
AX1 = e1 , ..., AXn = en , dove Xi e li-esima colonna della matrice X; dobbiamo quindi
risolvere i sitemi lineari
Ax = e1 ... Ax = en
la soluzione del primo ci dara la prima colonna di A1 , la soluzione del secondo la seconda
colonna, e cos via.
Leliminazione di Gauss ci fornisce una tecnica ideale per risolvere un problema di questo
genere, diamo un esempio: sia

2 1 1
A= 4 1 0
2 2 1

27
5. Applicazioni lineari

applichiamo lalgoritmo di Gauss alla matrice (A|I) fino ad ottenere (I|A1 ), procediamo

2 1 1 1 0 0 2 1 1 1 0 0
(A|I) = 4 1 0 0 1 0 0 1 2 2 1 0
2 2 1 0 0 1 0 3 2 1 0 1

2 1 1 1 0 0
0 1 2 2 1 0
0 0 4 5 3 1
ora riempiamo di zeri anche la parte superiore della diagonale

0 41 3 1

2 1 1 1 0 0 2 1 4 4
1
0 1 2 2 1 0 0 1 0
2 21 12
0 0 4 5 3 1 0 0 4 5 3 1

1 1
14

2 0 0 4 4
1 1
0 1 0 2 2 21
0 0 4 5 3 1
moltiplichiamo le righe r1, r2, r3 rispettivamente per
1 1
14 1 0 0 18 1
18

2 0 0 4 4 8
0 1 0 1
12 12 0 1 0 21 1 1 = (I|A1 )
2 2 2
0 0 4 5 3 1 0 0 1 54 34 14

per cui
1 1
18

8 8
A1 = 12 1
2
1
2

5
4 34 14

5.3. Endomorfismi e matrici simili


Vogliamo ora scrivere in maniera esplicita che relazioni ci sono tra due matrici, rispetto
a basi diverse, di uno stesso endomorfismo.

Proposizione 5.12. Sia V uno spazio vettoriale di dimensione n su K e siano A e B


due matrici quadrate di ordine n, ad elementi nel campo K. Allora, A e B sono matrici
di uno stesso endomorfismo f : V V se, e solo se, esiste una matrice P GL (n, K)
tale che B = P 1 AP

Dimostrazione . Sia f : V V un endomorfismo e siano B = {v1 , ..., vn } e D = {w1 , ..., wn }


due basi di V . Si ponga

B = MBB (f ) A = MDD (f ) P = MDB (id)

28
5.3. Endomorfismi e matrici simili

In particolare, si osservi che, essendo una matrice di cambiamento di base, si ha P GL (n, K)


e P 1 = MBD (id). Si consideri allora lovvio diagramma commutativo

f
VB / VB
O
id id

VD / VD
f

dove, ai piedi di ogni copia di V , si e indicata la base a cui riferirsi per dedurre la seguente
uguaglianza di matrici. Infatti, la commutativita del diagramma scritto sopra equivale
alluguaglianza

B = MBB (f ) = MBB (id f id) = MBD (id) MDD (f ) MDB (id) = P 1 AP

Viceversa, se A = (aij ), B = (bij ) e P = (pij ) sono come nellenunciato, si fissi una


base D = {w1 , ..., wn } di V e si consideri lendomorfismo f : V V , che ha matrice A
rispetto alla base D; ovvero sia
n
X
f (wj ) = aij wi j = 1, ..., n
i=1

Si considerino ora i vettori


n
X
vk = phk wh k = 1, ..., n
h=1

Poiche P GL (n, K), B = {v1 , ..., vn } e una base di V e vogliamo mostrare che e la
matrice di f rispetto a tale base. La relazione P B = AP , significa
n
X n
X
pih bhj = aik pkj (i, j)
h=1 k=1

Quindi si ha
n n n n
! !
X X X X
f (vj ) = f phj wh = phj f (wh ) = phj aih wi
h=1 h=1 h=1 i=1
n n n n
! !
X X X X
= aih phj wi = pih bhj wi
i=1 h=1 i=1 h=1
n n n
!
X X X
= bhj pih wi = bhj vh
h=1 i=1 h=1

che e quanto volevamo verificare.

Possiamo quindi dare la seguente

29
5. Applicazioni lineari

Definizione 5.12. Due matrici A, B nKn si dicono simili (A B) se esiste una


matrice P GL (n, K) tale che
B = P 1 AP

Dunque, due matrici sono simili se, e solo se, sono matrici di uno stesso endomorfi-
smo1 .

Osservazione: Lo stesso discorso puo ripetersi piu in generale: consideriamo due


omomorfismi di spazi vettoriali

f :V W g:V W
sd 0
diremo che g f B, B 0 basi di V e D, D basi di W tali che MDB (g) = MDB0 (f ).
Consideriamo il diagramma commutativo:

idV f idW
VB 0 / VB / WD / WD 0

   
Kn / Kn / Km / Km
P B (f )
MD Q

risultera allora
sd 0
g f P GL (n, K), Q GL (m, K) tali che MDB (g) = MDB0 (f ) = Q MDB (f ) P

1
Diremo anche che, dati due endomorfismi f, g

f g g = h f h1

dove h GL (V ).

30
6. Determinanti
Definiamo lapplicazione determinante, det : n Kn K, a partire dalla sua restrizione
alle matrici quadrate di ordine 2 2:

Definizione 6.1.
 2 : 2 K2 K
det
a b
7 ad bc
c d

Osservazione: Diamo ora linterpretazione geometrica del det2 : consideriamo due vet-
tori x, y R2 , come si vede dalla figura, il determinante det(x, y) rappresenta larea
orientata del parallelogramma individuato dai vettori x, y.

6 R2

x 
            
 
                    

  
  
                     
                 
1  y
 
      
  
   -

Osservazione (Importante!): Segue dalla definizione che il determinante gode di tre


proprieta fondamentali:

p1 det2 I = 1

p2 det2 (C, C) = 0

p3 det2 (C + C1 , C2 ) = det2 (C, C2 ) + det2 (C1 , C2 )


det(C1 , ..., Cj , ..., Cn ) = det(C1 , ..., Cn )

dove Ci Kn i = 1, ..., n sono i vettori colonna delle matrici di cui si calcola il


determinante.
Possiamo ora definire il determinante, det : n Kn K, per induzione su n > 2;
omettiamo il procedimento e diamo solo il risultato finale:

31
6. Determinanti

Definizione 6.2 (Sviluppo di Laplace). Data A = (aij ) n Kn porremo, fissato j


indice di colonna,
n
X
det A (1)i+j aij det Aij
i=1

dove Aij e la matrice A da cui sono state eliminate la i-esima riga e la j-esima colonna1 .

Premettiamo un paio di definizioni:

Definizione 6.3. Sia V uno spazio vettoriale di dimensione n su Ked r > 2 un intero.
Unapplicazione
... V} K
f : |V {z
r volte

si dice multilineare (o, piu precisamente, r-lineare) se e lineare in ciascuno dei suoi
argomenti.

esempio 6.1:

1 3 11      
8 2 3 11 3 11
det 3
8 2 = det 3 det +6 det = 6+147492 = 339
5 2 5 2 8 2
6 5 2

Si osservi che, se f e r-lineare, allora f assume il valore 0 non appena uno degli
argomenti e nullo.

Definizione 6.4. Sia S un insieme, K un campo ed r > 2 un intero. Unapplicazione

f : |S {z
... S} K
r volte

si dice alternante se si annulla ogniqualvolta due degli argomenti vengano a coincidere.

Osserviamo che, se f e una funzione r-lineare e alternante, allora il suo valore cambia
di segno ogni qualvolta si scambino tra loro due degli argomenti.

Lemma 6.1. Il determinante, come funzione di ogni vettore colonna, e unapplicazione


n-lineare alternante, cioe

1. det(A1 , ..., Ai , Ai+1 , ..., An ) = det(A1 , ..., Ai+1 , Ai , ..., An )

2. det(A1 , ..., A1 , ..., An ) = 0

3. det(A1 , ..., An ) = det(A1 + Ai , ..., An )

X
1
Uno sviluppo equivalente e dato dalla scelta di un indice di riga i:
n
det A (1)i+j aij det Aij
j=1

32
Dimostrazione . 1. Per la p2
det(A1 , ..., Ai + Ai+1 , Ai + Ai+1 , ..., An ) = 0
applico la p3
0 = det(A1 , ..., Ai + Ai+1 , Ai , ..., An ) + det(A1 , ..., Ai + Ai+1 , Ai+1 , ..., An )
= det(A1 , ..., Ai , Ai , ..., An ) + det(A1 , ..., Ai+1 , Ai , ..., An )+
+ det(A1 , ..., Ai , Ai+1 , ..., An ) + det(A1 , ..., Ai+1 , Ai+1 , ..., An )
= det(A1 , ..., Ai+1 , Ai , ..., An ) + det(A1 , ..., Ai , Ai+1 , ..., An )
da cui segue
det(A1 , ..., Ai+1 , Ai , ..., An ) = det(A1 , ..., Ai , Ai+1 , ..., An )

2. p2 e 1. 2.
3. Sempre grazie alle proprieta p2 e p3:
det(A1 + Ai , ..., An ) = det(A1 , ..., An ) + det(Ai , ..., An )
= det(A1 , ..., An ) + det(Ai , ..., Ai , ..., An )
= det(A1 , ..., An )

Proposizione 6.2. Le proprieta p1, p2, p3 caratterizzano completamente il det.


Dimostrazione . Limitiamo la dimostrazione al caso 2 2; devo dimostrare che se esi-
ste unaltra applicazione F : 2 K2 K che verifica le proprieta p1, p2, p3 allora
A 2 K2 F (A) = det A. Procediamo:
          
a b 1 0 1 0
F =F a +c ,b +d
c d 0 1 0 1
   
1 1 1 0
= ab F + ad F +
0 0 0 1
   
0 1 0 0
+ cb F + cd F
1 0 1 1
   
1 0 0 1
= ad F + cb F
0 1 1 0
   
1 0 1 0
= ad F cb F
0 1 0 1
= ad cd
 
a b
= det
c d

33
6. Determinanti

Teorema 6.1 (di Binet). det AB = det A det B

Dimostrazione . Supponiamo det A 6= 0, altrimenti il teorema e ovvio; sia


det AB
F (B) =
det A
se F verifica p1, p2, p3 allora dovra essere per la prop. 6.2 F (B) = det B:
det AI det A
p1 F (I) = det A = det A =1
det A(C,C) det(AC,AC)
p2 F (C, C) = det A = det A =0

p3 La mostriamo su di una sola colonna:


det(AaX + AbY, AZ)
F (aX + bY, Z) =
det A
det(AX, AZ) det(AY, AZ)
=a +b
det A det A
= a F (X, Z) + b F (Y, Z)

Proposizione 6.3. Il determinante e un invariante per , cioe

A B det A = det B

Dimostrazione . A B B = P 1 AP con P GL (n, K) allora

det B = det P 1 AP = det P 1 det A det P = det A det P 1 det P = det A det P 1 P = det A

6.1. Applicazioni del determinate


Innanzitutto il determinante si offre come test per la dipendenza lineare; infatti dati
v1 , ..., vk V , essi risulteranno linearmente indipendenti se, e solo se, il determinate
della matrice le cui colonne sono i vettori vi sia diverso da zero.
esercizio 6.2: Dire, con laiuto del determinante, se i vettori

1 3 1
2 5 4
R4
5 0 4
0 0 5

sono linearmente indipendenti.

34
6.1. Applicazioni del determinate

Il seguente teorema ci mostra, invece, come risolvere sistemi lineari:

Teorema 6.2 (Regola di Cramer). Si consideri un sistema lineare (non-omogeneo)


Ax = b di n equazioni in n incognite. Per il teorema 4.1 di RoucheCapelli, se la matrice
A e invertibile (e quindi ha rango n) il sistema ammette ununica soluzione. Sia x una
soluzione del sistema allora la soluzione i-esima e data da
det Bi
xi =
det A
dove Bi e la matrice che si ottiene da A sostituendo la i-esima colonna con la colonna
b dei termini noti.

Dimostrazione . Detta Ci li-esima colonna della matrice A, dato che x e soluzione, cioe

x1 C1 + ... + xn Cn = b

sostituendo b alli-esima colonna di A, si ha

det Bi det(C1 , ..., b


|{z} , ..., Cn )
i-esima posizione

= det(C1 , ..., x1 C1 + ... + xn Cn , ..., Cn )


| {z }
i-esima posizione
n
X
= xj det(C1 , ..., Cj , ..., Cn )
|{z}
j=1
i-esima posizione

= xi det(C1 , ..., Cn )
= xi det A

In molti casi il determinante e un ottimo mezzo per calcolare il rango di una matrice:

Definizione 6.5. Sia A m Kn . Si dice minore di ordine r di A ogni sottomatrice


M r Kr estratta dalla matrice A (ovvero una sottomatrice ottenuta cancellando m r
righe ed n r colonne).

Teorema 6.3 (degli orlati). Sia A n Kn , allora

rnk A = max{r N | M GL (r , K) minore di A}

In altre parole il teorema degli orlati dice che la matrice A ha rango maggiore o uguale
ad r se uno almeno tra i minori di ordine r di A ha determinante diverso da zero. In tal
caso, il rango di A e esattamente uguale ad r se, e solo se, tutti i minori di ordine r + 1
di A hanno determinate nullo.
Dal teorema 6.3 degli orlati e dalla proposizione 5.8 segue la seguente

35
6. Determinanti

Proposizione 6.4. Sia A n Kn , allora

det A = det tA

Altra applicazione importante del determinate e che ci permette di calcolare linversa


di una matrice; diamo prima di tutto una condizione necessaria e sufficiente affinche una
matrice sia invertibile:

Proposizione 6.5. A GL (n, K) det A 6= 0

Dimostrazione . Mostriamo limplicazione :


per ipotesi A1 | AA1 = A1 A = I quindi per il teorema 6.1 di Binet

det A det A1 = det AA1 = det I = 1

da cui segue det A1 = (det A)1 .


Per limplicazione basta dimostrare che A singolare necessita det A = 0:
sia A = (X, Y ) singolare,
 cioe X, Y sono linearmente dipendenti: possono allora verifi-
X = 0 det(0, Y ) = 0
carsi i due casi:
Y = X det(X, X) = det(X, X) = 0

Ora per il calcolo basta applicare il teorema 6.2 di Cramer:


sia A = (A1 , ..., An ) n Kn e det A 6= 0, posto

Eij = (A1 , ..., ej , ..., An )


|{z}
iesima posizione

linversa della matrice A e la matrice


det Eij
A1 = (xij ) dove xij =
det A

36
7. Autovalori ed autovettori
In questo capitolo ci occuperemo di trovare basi rispetto alle quali un endomorfismo di
uno spazio vettoriale di dimensione finita ha una matrice particolarmente semplice, piu
precisamente, buona parte di questo capitolo sara dedicata allo studio di quei endomir-
fismi le cui matrici rispetto a determinate basi sono simili ad una matrice diagonale.

Iniziamo con una serie di definizioni:

Definizione 7.1. Sia V un K-spazio, dato f End (V ), K e autovalore di f se, in


V , v 6= 0 | f (v) = v. Un tale vettore v e detto autovettore di f relativo allautovalore
.

Definizione 7.2. Si dice spettro di f linsieme degli autovalori di f

Spettro f { K | e autovalore di f }

Fissata B base di V e detta A = MBB (f ) avra senso dire autovalore di A, Spettro A,


ecc.
esempio 7.1 (Importante!): Sia
 
2 1
A= 2 R2
0 12

Dalla definizione 7.1, discende che la costante K e un autovalore se, e solo se,
Ker (f id) ha dimensione positiva, ovvero se, e solo se, det(f id) = 0. Dunque,
per determinare gli autovalori di f , possiamo considerare la funzione 7 det(f ), al
variare di K, e cercare gli zeri di tale funzione; sara quindi
 
1
Spettro A = { R | det(A I) = 0} = ;2
2

Definizione 7.3. Fissato Spettro f , si dice autospazio dellautovalore il sotto-


spazio vettoriale:
V {v V | f (v) = v} = Ker (f id)
inoltre, la dimensione di V e detta molteplicita geometrica1 di

mg dim V
1
In alcuni testi e anche nullita.

37
7. Autovalori ed autovettori

Definizione 7.4. Sia f End (V ) ed A n Kn la matrice ad essa associata rispetto


a qualche base di V , definiamo polinomio caratteristico di f (equivalentemente A) il
polinomio
pf (x) det(f xid)
Osservazione: Risulta semplice notare che il polinomio caratteristico di una data
matrice A e della forma:
pA (x) det(A xI) = (1)n xn + (1)n tr A + ... + det A
Da quanto detto nellesempio 7.1 segue la seguente
Proposizione 7.1. Spettro f pf () = 0
Indicheremo con m la molteplicita algebrica dellautovalore quale radice del poli-
nomio caratteristico.
Proposizione 7.2. Il polinomio caratteristico e un invariante per , cioe
A B pA (x) = pB (x)
Dimostrazione . A B B = P 1 AP con P GL (n, K) allora
pB (x) = det(B xI) = det(P 1 AP xI)
= det(P 1 AP xP 1 IP ) = det P 1 (A xI)P
= det P 1 det(A xI) det P = det P 1 P det(A xI)
= pA (x)

Proposizione 7.3. Data f End (V ) risulta


0 < mg 6 m Spettro f
Dimostrazione . Sia Spettro f e dim V mg = s; fissiamo D base di V ed
estendiamola a B base di V , otteniamo cos la matrice a blocchi

0 0
.
0 . . . .. B

.. . .

..
. . 0

.
B
A = MB (f ) = 0 0



0 0

.. ..
. . C
0 0
in cui il primo blocco e una matrice diagonale di ordine s, calcoliamo il polinomio
caratteristico
pA (x) = ( x)s det(C xI)
per cui e ovvio che mg = s 6 m .

38
7.1. Endomorfismi diagonalizzabili

7.1. Endomorfismi diagonalizzabili


Definizione 7.5. f End (V ) si dice diagonalizzabile se esiste B base di V tale che
MBB (f ) e una matrice diagonale, ovvero se esiste B base di V fatta di autovettori di f .
Osservazione: Osserviamo che la prop. 7.3, permette di dare una prima risposta al
problema di determinare le matrici diagonalizzabili.
Come prima cosa, affinche un endomorfismo f : V V sia diagonalizzabile, tutti gli
autovalori di f devono appartenere al campo K, su cui e definito lo spazio vettoriale V .
Inoltre, se 1 , ..., r sono gli autovalori per lendomorfismo f , a due a due distinti, risulta
ovvio che gli autovettori relativi ad autovalori distinti sono linearmente indipendenti, e
cio significa che i relativi autospazi sono in somma diretta
V1 ... Vr V (7.1)
La dimensione di questa somma diretta e uguale a
mg1 + ... + mgr
ed osserviamo che f e diagonalizzabile se, e solo se, linclusione in (7.1) e unuguaglianza,
ovvero se la somma delle molteplicita geometriche uguaglia la dimensione di V .
Il grado del polinomio caratteristico di un endomorfismo f : V V e uguale alla
dimensione dello spazio V . Inoltre, quando esistono in K tutte le radici del polinomio
caratteristico, il suo grado e anche uguale alla somma delle molteplicita algebriche degli
autovalori.
Dunque, in base a quanto sinora osservato, si ha il seguente
Teorema 7.1. f End (V ) e diagonalizzabile sono verificate le seguenti
condizioni:
Spettro f = {1 , ..., r } K
pf (x) e completamente fattorizzabile
r
X
deg pf = mi = dim V
i=1

i Spettro f mgi = mi

7.1.1. Il polinomio minimo


Il criterio dato nel teorema 7.1 e efficace, ma non il migliore; mostreremo ora un altro
criterio.

Dati un qualsiasi polinomio p(x) = a0 + a1 x + ... + an xn Kn [x] e f End (V )


poniamo
p(f ) a0 id + a1 f + ... + an f n End (V )

39
7. Autovalori ed autovettori

Definizione 7.6. Dato f End (V ) si dice ideale di f

I(f ) {p Kn [x] | p(f ) = 0}

Osservazione: Sottolineiamo alcune proprieta dellideale di un endomorfismo:


p I(f ) p(f )(v) = 0 v V ;
(I(f ), +) e un gruppo abeliano;
p I(f ) p(x)q(x) I(f ) q K[x]
Proposizione 7.4. Lideale e un invariante per , cioe

f g I(f ) = I(g)

Dimostrazione . Per ipotesi g = h f h1 dove h GL (V ), sia p I(g) si ha allora

p(g) = p(h f h1 )
= a0 id + a1 (h f h1 ) + ... + an (h f h1 )n
= a0 id + h a1 f h1 + ...
= h (a0 id + a1 f + ...) h1
= h p(f ) h1 = 0

Definizione 7.7. Sia f End (V ), chiamiamo polinomio minimo di f , f (x), il


polinomio non nullo, monico e di grado minimo di I(f ).
Lemma 7.5. Il polinomio minimo genera lideale, cioe

f (x) divide p(x) p I(f )

Teorema 7.2 (di HamiltonCayley). f (x) divide pf (x), cioe pf (x) I(f ).
Il polinomio minimo e esplicitamente calcolabile, mostriamo come:
dati f End (V ), v V sia d > 0 il piu piccolo intero tale che i vettori

v, f (v), f 2 (v), ..., f d1 (v)

siano linearmente indipendenti, mentre esistono 0 , ..., d1 K tali che

0 v + 1 f (v) + ... + d1 f d1 (v) + f d (v) = 0

pongo allora
f,v (x) xd + d1 xd1 + ... + 0
Sia B = {v1 , ..., vn } una base di V si ha allora che f e il minimo comune multiplo dei
polinomi f,v1 , ..., f,vn
f = m.c.m.(f,v1 , ..., f,vn ) (7.2)

40
7.2. Endomorfismi triangolabili

Osservazione: Il grado del polinomio minimo e minore o uguale a n = dim V ; in


particolare, se qualcuno dei f,vi ha grado n, allora per la (7.2), f = f,vi .
esempio 7.2: Sia f : R3 R3 lendomorfismo dato dalla matrice

1 1 1
MCC (f ) = 1 2 1
0 1 3
Vogliamo calcolare il polinomio minimo di f . Cominciamo col trovare f,e1 , abbiamo

1 0 0
f (e1 ) = 1 f 2 (e1 ) = 1 f 3 (e1 ) = 3 = 4f 2 (e1 ) f (e1 ) + e1
0 1 4

per cui f,e1 (x) = x3 + 4x2 + x 1, losservazione 7.1.1 ci assicura allora che

f (x) = x3 + 4x2 + x 1

Teorema 7.3. f End (V ) e diagonalizzabile f ha tutte le radici in K e non


ha radici multiple.
Dimostrazione . Mostriamo limplicazione : sia B = {v1 , ..., vn } una base di autovet-
tori, chiaramente si ha

f,vi (x) = x i i = 1, ..., n

dove i e lautovalore di vi ; quindi per la (7.2)

f (x) = (x 1 ) (x k )

dove 1 , ..., k K sono gli autovalori distinti di f , per cui f ha tutte le radici in K e
non ha radici multiple.
Viceversa, per mostrare la , sappiamo che esistono 1 , ..., k K dstinti per cui
possiamo scomporre V in una somma diretta di autospazi

V = V1 ... Vk

dove Vi = Ker (f i id), abbiamo quindi dimostrato che f e diagonalizzabile.

7.2. Endomorfismi triangolabili


In questa sezione vedremo come, quando non e possibile diagonalizzare un endomorfi-
smo, si puo cercare una direzione dello spazio lungo la quale un endomorfismo abbia
ancora una forma abbastanza semplice, precisamente si puo cercare una base per cui la
matrice che rappresenta lendomorfismo sia simile ad una matrice triangolare superiore.

41
7. Autovalori ed autovettori

Definizione 7.8. f End (V ) si dice triangolabile se esiste B base di V tale che MBB (f )
e una matrice triangolare superiore.

Teorema 7.4. f End (V ) e triangolabile pf (x) e completamente fattorizzabile


e ha tutti gli autovalori in K.

Dimostrazione . Procediamo per induzione su n = dim V > 1:

Per n = 1 non ce niente da provare;

Passo induttivo (n 1) n:
Innanzitutto, esiste certamente v1 autovettore per f ; sia V1 = Span (v1 ), comple-
tiamo a V tamite somma diretta

V = V1 W

e sia B = {v1 , w2 , ..., wn } base di V dove D = {w2 , ..., wn } e base di W . Per poter
applicare a W lipotesi induttiva occorre che W sia f -invariante2 .
Sia allora g = f|W : W W dove : V W e la proiezione su W , verifico
che g soddisfa lipotesi:
sia
1 ? ?
0
B
MB (f ) = . dove Q = MDD (g) n1 Kn1

. . Q


0
allora
pf (x)
pg (x) = det(Q xI) =
1 x
ma siccome f verifica le ipotesi allora pg (x) e completamente fattorizzabile e ha
tutte le radici in K.
Per ipotesi induttiva esiste D0 = {v2 , ..., vn } base di W che triangola g, quindi
concludiamo che B 0 = {v1 } D0 triangola f .

Corollario 7.5. Sia V un C-spazio, allora tutti gli endomorfismi f End (V ) sono
triangolabili.

Il risultato enunciato nel teorema 7.4 puo essere considerato una forma debole del
teorema ?? di Jordan di cui ci occuperemo nel seguito.

Definizione 7.9. Si chiama ventaglio (o bandiera) per f End (V ) una successione di


sottospazi {V1 , ..., Vn } di V tale che:

Vi Vi+1 i = 1, ..., n 1
2
Il sottospazio W e f -invariante se f (W ) W

42
7.2. Endomorfismi triangolabili

dim Vi = i i = 1, ..., n

f (Vi ) Vi i = 1, ..., n (ovvero Vi e f -invariante)

Definizione 7.10. Sia {V1 , ..., Vn } un ventaglio per f , chiamiamo base a ventaglio di V
una base B = {v1 , ..., vn } tale che {v1 , ..., vi } sia base di Vi .

Teorema 7.6. Sia B = {v1 , ..., vn } una base a ventaglio per f End (V ), allora B
triangola f .

Dimostrazione . Posto Vi = Span (v1 , ...vi ), si ha per ipotesi f (Vi ) Vi , per cui esistono
in K aij tali che

f (v1 ) = a11 v1
f (v2 ) = a12 v1 + a22 v2
..
.
f (vn ) = a1n v1 + ... + ann vn

Ma cio significa che



a11 a12 a1n
..

0 a22 .

MBB (f ) =
.. .. ..
. 0 . .
.. .. ..

.. ..
. . . . .
0 0 0 ann

43
7. Autovalori ed autovettori

44
8. Prodotti scalari ed hermitiani
In questo capitolo ci occuperemo unicamente dei casi in cui il campo degli scalari quello
reale, oppure quello complesso, ma le definizioni che daremo hanno senso anche su campi
piu generali e gran parte dei risultati che mostreremo restano validi anche in questi
ambiti. Ce unimportante eccezione che vogliamo segnalare, che e data dai campi di
caratteristica 2, cioe, i campi in cui 1 + 1 = 0.
Un esempio di campo di caratteristica 2 e linsieme F2 = {0; 1}, con le operazioni di
somma e prodotto definite ponendo
0 + 0 = 0 = 1 + 1, 0 + 1 = 1 = 1 + 0, 1 0 = 0 0 = 0 1 = 0, 11=1
dove si puo pensare a 0 ed 1 come rappresentanti rispettivamente dei numeri interi pari
e dispari e ricordare il comportamento di questi numeri rispetto alle operazioni sugli
interi.
A volte gli elementi di F2 sono stati identificati con i due stati di un bit ed i pacchetti
di bit come elementi di uno spazio vettoriale di dimensione finita sul campo F2 .
Non e questa la sede per parlare di campi finiti (dei quali F2 e un esempio) o delle loro
applicazioni, vogliamo solo dire che questo esempio non e isolato, ma esistono infiniti
campi con un numero finito di elementi. Se F e un campo finito, allora F ha pn elementi,
ove p e un qualche numero primo ed n > 1 e, in particolare, per tutti gli elementi x F
si ha
px = |x + {z
... + x} = 0
p addendi

Questultimo fatto si esprime dicendo che F ha caratteristica p.


Nei campi Q, R o C, nessun multiplo di un numero x 6= 0 si annulla e quindi si dice che
sono campi di caratteristica 0.

Diamo prima una serie di definizioni generali, che ci serviranno anche nel seguito:
Definizione 8.1. Siano V, W spazi vettoriali sul campo K. Unapplicazione f : V W K
viene detta bilineare se ha le seguenti proprieta:
f (v1 + v2 , w) = f (v1 , w) + f (v2 , w) v1 , v2 V, w W

f (v, w1 + w2 ) = f (v, w1 ) + f (v, w2 ) v V, w1 , w2 W
f (v, w) = f (v, w) = f (v, w) K, v V, w W
Linsieme delle applicazioni bilineari da V W in K con:
Bil (V W , K) { : V W K bilineare}

45
8. Prodotti scalari ed hermitiani

In altre parole, unapplicazione bilineare non e altro che una applicazione 2-lineare
(vedi def. 6.3 pag. 32).
Definizione 8.2. Sia V uno spazio vettoriale su K e sia f : V V K unapplicazione
bilineare, diremo che f e simmetrica se si ha
f (v, w) = f (w, v) v, w V
Dora in poi, per fissare meglio le idee, possiamo considerare K=R:
Definizione 8.3. Dato V spazio vettoriale su K, un prodotto scalare in V e unappli-
cazione : V V K bilineare e simmetrica
esempio 8.1: Il prodotto scalare standard in Rn e definito ponendo

x1 y1
hv, wi x1 y1 + x2 y2 + ... + xn yn ove v = ... , w = ..

.
xn yn
Definizione 8.4. Definiamo ora la forma quadratica Q associata al prodotto scalare
come
Q : V K
v 7 Q (v) = (v, v)
Proposizione 8.1. La forma quadratica Q determina .
Dimostrazione . Si ha infatti che v, w V
(v + w, v + w) = (v, v) + (v, w) + (w, v) + (w, w)
= 2(v, w) + (v, v) + (w, w)
per cui, e qui entra in gioco lipotesi fatta sul campo, se 1 + 1 = 2 6= 0, per ogni coppia
di vettori di V , il loro prodotto scalare e esprimibile tramite la forma quadratica
1
(v, w) = (Q (v + w) Q (v) Q (w))
2

Studiando le applicazioni lineari tra spazi vettoriali di dimensione finita, abbiamo


visto che la scelta di basi permette di associare ad ogni applicazione lineare una matrice;
facciamo ora la stessa cosa con i prodotti scalari: siano B = {v1 , ..., vn } una base di V e
un prodotto scalare, poniamo
MB () ((vi , vj )) i, j = 1, ..., n
tale matrice e detta matrice che rappresenta rispetto alla base B.
Si ha allora che
(v, w) = t [v]B MB () [w]B v, w V
Osservazione: Dato che e un prodotto scalare, quindi unapplicazione simmetrica,
si ha che
MB () = tMB ()
cioe la matrice che rappresenta il prodotto prodotto scalare e simmetrica.

46
8.1. Il caso complesso: prodotti hermitiani

8.1. Il caso complesso: prodotti hermitiani


Definizione 8.5. Sia V uno spazio vettoriale su C, un prodotto hermitiano e unappli-
cazione : V V C
sesquilineare, cioe tale che

(v1 + v2 , w) = (v1 , w) + (v2 , w) (v, w) = (v, w)


(v, w1 + w2 ) = (v, w1 ) + (v, w2 ) (v, w) = (v, w)

hermitiana, cioe tale che


(v, w) = (w, v)

qualunque siano i vettori v, v1 , v2 , w, w1 , w2 V ed il numero complesso .


Come per i prodotti scalari, siano B = {v1 , ..., vn } una base di V e un prodotto
hermitiano, poniamo
MB () ((vi , vj )) i, j = 1, ..., n
per cui sara
MB () = tMB ()
una tale matrice e detta hermitiana.
Proposizione 8.2. Ogni matrice hermitiana A ha autovalori reali.
Dimostrazione . Per ipotesi tA = [A], sia z lautovettore relativo allautovalore C,
cioe Az = z; si ha
t
Az z =t z z = tz z
q
t t
z Az =t z Az =t zz = tz z

per cui concludiamo = .

8.2. Basi ortogonali


Sia dora in poi V uno spazio vettoriale di dimensione finita su R, rispettivamente su C,
a seconda che si trattano prodotti scalari, rispettivamente hermitiani:

Definizione 8.6. Unapplicazione bilineare (sesquilineare) f : V W K si dice non


degenere, se
f (v, w) = 0 v V w = 0

f (v, w) = 0 w W v = 0

47
8. Prodotti scalari ed hermitiani

Definizione 8.7. Dato prodotto scalare (hermitiano), i vettori v, w V si dicono


-ortogonali (o semplicemente ortogonali) se (v, w) = 0.
Definizione 8.8. Sia W V un sottospazio vettoriale, chiameremo ortogonale di W il
sottospazio
W {v V | (v, w) = 0 w W } V
In particolare chiameremo radicale del prodotto scalare (hermitiano)

Rad V

Dalle definizioni 8.6 e 8.8 si ottiene il seguente


Lemma 8.3. Il prodotto scalare (hermitiano) e non degenere Rad = {0}.
Proposizione 8.4. Fissata B base di V si ha

dim Rad = dim V rnk MB ()

Dalla proposizione precedente deduciamo il


Lemma 8.5. Il prodotto scalare (hermitiano) e non degenere B base di V si
ha che MB () e invertibile.
Definizione 8.9. Un vettore v V , non nullo, si dice isotropo se (v, v) = 0.
Definizione 8.10. Sia un prodotto scalare (hermitiano) si dice che
1. e definito positiva se v 6= 0 (v, v) > 0;

2. e definito negativo se v 6= 0 (v, v) < 0;

3. e non definita in tutti gli altri casi.


Lemma 8.6. Sia v V un vettore non isotropo, si ha che

V = Span (v) Span (v)

Dimostrazione . Per ipotesi abbiamo che (v, v) 6= 0; fissato z V sia w = z v,


cerchiamo K tale che w Span (v) , cioe tale che (z v, v) = 0:

(z v, v) = (z, v) (v, v) = 0

per cui lo scalare cercato deve essere del tipo


(z, v)
= (Coefficiente di Fourirer) (8.1)
(v, v)

quindi V = Span (v) + Span (v) ; inoltre Span (v) Span (v) = {0} infatti

w Span (v) (v, w) = (v, w) = 0 = 0

48
8.2. Basi ortogonali

Definizione 8.11. Sia un prodotto scalare (hermitiano), B = {v1 , ..., vn } base di V e


detta ortogonale per se
(vi , vj ) = 0 per i 6= j
ovvero se, posto ci = (vi , vi ),

c1 0 0
..
0 c2 .
MB () =
.. ..


. . 0
0 0 cn

Definizione 8.12. Sia un prodotto scalare (hermitiano), definiamo norma di v V


p
kvk (v, v)

Definizione 8.13. Una base B = {v1 , ..., vn } di V si dice ortonormale se essa e ortogo-
nale e se kv1 k = 1 i = 1, ..., n.
Teorema 8.1. Per ogni prodotto scalare (hermitiano), esiste una base B di V orto-
gonale per .
Dimostrazione . Procediamo per induzione su dim V = n > 1:
Per n = 1 tutte le basi sono ortogonali

Diamo il teorema vero per n 1, dimostriamo che allora resta vero per n: distin-
guiamo i casi

1. Rad = V (cioe tutti i vettori sono isotropi) MB () = 0 B base di V ,


ossia tutte le basi sono ortogonali;
2. v1 V non isotropo V = Span (v1 ) Span (v1 ) , per ipotesi induttiva
Span (v1 ) ha una base {v2 , ..., vn } -ortogonale, quindi B = {v1 , ..., vn } e una
base ortogonale di V .

Corollario 8.2. Sia dim Rad = s, abbiamo che


Se K=C esiste sempre una base B di V tale che
 
Ik
MB () = con k = n s
0s

Se K=R esiste sempre una base B di V tale che



Ip 0
MB () = Iq con p + q = n s
0 0s

49
8. Prodotti scalari ed hermitiani

Osservazione (Procedimento di GramSchmidt): La dimostrazione del teorema


8.1 ci mostra anche un modo per trovare una base ortonormale:
Sia B 0 = {v1 , ..., vn } una base di V , dobbiamo innanzitutto cercare un vettore non
isotropo, consideriamo allora MB0 () = (aij ) possiamo avere due casi

1. i, j aij = 0 tutte le basi sono ortogonali

2. aij 6= 0 (vi , vj ) 6= 0, per cui

(vi + vj , vi + vj ) = 2(vi , vj ) 6= 0

cioe w1 = vi + vj e un vettore non isotropo. Considero ora Span (w1 ) e applico


lo stesso procedimento ad una sua base sino ad ottenere w2 .
Iterando ottengo infine la bese ortogonale B = {w1 , ..., wn }.

Per avere una base ortonormale mi basta, come suggerisce il corollario, mi basta dividere
i vettori della base ortogonale per la propria norma.
Generalizziamo ora il lemma 8.6 con il seguente

Teorema 8.3. Sia un prodotto scalare (hermitiano) definito positivo, allora per ogni
W sottospazio di V si ha che
V = W W

Dimostrazione . Se W = {0} o W = V la tesi e ovvia; altrimenti sia {w1 , ..., wr } una


base ortonormale di W , esiste allora {w1 , ..., wr , vr+1 , ..., vn } base ortonormale di V .
Proveremo che {vr+1 , ..., vn } e una base di W : lindipendenza lineare e dimostrata per
costruzione, proviamo che generano. Sia v W V , allora esistono 1 , ..., n K tali
che
v = 1 w1 + ... + r wr + r+1 vr+1 + ... + n vn
poiche v e perpendicolare a tutti i wi , troviamo

0 = (v, wi ) = i (wi , wi ) = i i = 1, ..., r

quindi vr+1 , ..., vn generano W .

Definizione 8.14. Sia K=R definisco signatura di la tripla:

() = (i+ (), i (), i0 ())

dove

i+ () max{dim W | W V, |W e definito positivo} (indice di positivita)


i () max{dim W | W V, |W e definito negativo} (indice di negativita)
i+ () dim Rad (indice di nullita)

50
8.2. Basi ortogonali

Teorema 8.4 (di Sylvester). Sia K=R allora esiste sempre una base B di V per cui

Ii+ () 0
MB () = Ii ()
0 0i0 ()

Dimostrazione . Sia B = {w1 , ..., wp , v1 , ..., vq , z1 , ..., zs }, riferendoci al corollario 8.2, ci


basta dimostrare che i+ () = p:

i+ () > p:
sia W = Span (w1 , ..., wp ), allora preso w W si ha
p
X
(w, w) = (1 w1 + ... + p wp , 1 w1 + ... + p wp ) = i2 (wi , wi ) > 0
i=1

cioe |W e definito positivo, quindi i+ () > p;

i+ () 6 p:
sia W V tale che dim W = i+ () e |W e definito positivo, posto Z = Span (v1 , ..., vq , z1 , ..., zs ),
si ha
dim W + Z 6 dim V = n
per cui per il teorema 2.2 di Grassmann si ha

n > dim W + dim Z dim W Z


= i+ () + (q + s) dim W Z

ma siccome q = n s p

0 > i+ () p dim W Z

per cui

i+ () 6 p + dim W Z

mi resta da dimostrare che W Z = {0}: sia v W Z allora



(v, v) > 0 dato che v W
(v, v) = 0
(v, v) 6 0 dato che v Z

ma lunico vettore isotropo di W e il vettore nullo.

51
8. Prodotti scalari ed hermitiani

esercizio 8.2 (risolto): Al variare di R calcolare () dove



a+1 1 a
A = MC () = 1 2 1
a 1 a+a
Svolgimento . Costruiamo una base B = {v1 , v2 , v3 } ortogonale.
Sia v1 = e2 consideriamo

x x
Span (v1 ) = y R3 | te2 A y = 0
z z


x
= y R3 | x + 2y + z = 0
z

cerchiamo in Span (v1 ) un vettore non isotropo, ad esempio v2 = e1 e3 . Consideriamo


ora

x 
x + 2y + z = 0

Span (v1 , v2 ) = y R3 |
x=z
z

Lultimo vettore non isotropo cercato e, ad esempio, v3 = e1 2e2 + e3 . Si ha allora



2 0 0
MB () = 0 2 0
0 0 4a

a > 0 () = (3, 0, 0)
per cui a = 0 () = (2, 0, 1)
a < 0 () = (2, 1, 0)

8.2.1. Il teorema spettrale


Il problema principale di questo capitolo e determinare quando esiste una base ortonor-
male che diagonalizzi un dato endomorfismo.

Anticipiamo un paio di definizioni che riprenderemo in seguito:


Definizione 8.15. Definiamo gruppo ortogonale reale

O(n, R) {P GL (n, R) | tP = P 1 }

e gruppo unitario complesso

U(n, C) {P GL (n, C) | tP = P 1 }

52
8.2. Basi ortogonali

Definizione 8.16. Dato prodotto scalare, f End (V ) si dice -simmetrico (o


-autoaggiunto) se
(v, f (w)) = (f (v), w) v, w V

Lemma 8.7. Siano f End (V ) -simmetrico e v un autovettore non nullo di f , se


w V e perpendicolare a v allora anche f (w) lo e (cioe f applica Span (v) in se
stesso).

Dimostrazione .

(v, f (w)) = (f (v), w) = (v, w) = (v, w) = 0

Teorema 8.5 (Spettrale). Sia V un R-spazio dotato un prodotto scalare definito


positivo, allora f End (V ) -simmetrico una base ortonormale B di V fatta da
autovettori di f .

Dimostrazione . Procediamo per induzione su dim V = n > 1:

Se n = 1 non ce niente da dimostrare;

Sia ora dim V > 1, e sia v1 un autovettore non nullo di f . Per il lemma 8.7 f applica
Span (v1 ) in se stesso, osserviamo inoltre che |Span (v ) e definito positivo. Per
1
ipotesi induttiva allora esiste una base {v2 , ..., vn } ortogonale di Span (v1 ) fatta
da autovettori di f . Allora
 
v1
B= , v2 , ..., vn
kv1 k

e una base ortonormale di V .

Corollario 8.6. A n Rn simmetrica, P O(n, R) tale che tP AP = P 1 AP = D


diagonale.

Analogamente valgono

Teorema 8.7 (Spettrale hermitiano). Sia V uno C-spazio dotato di un prodotto her-
mitiano definito positivo, allora f End (V ) -simmetrico una base ortonormale
B di V fatta da autovettori di f .

Corollario 8.8. A n Cn hermitiana, P U(n, C) tale che tP AP = P 1 AP =


D n Rn diagonale.

53
8. Prodotti scalari ed hermitiani

54
Parte II.

Appendici

55
A. Lo Spazio Euclideo
In questa appendice introdurremo sui vettori dello spazio Rn (o dello spazio affine A su
Rn , se si vuol essere piu precisi) la struttura essenziale dello spazio Euclideo, ovvero il
prodotto scalare standard, struttura che ci permettera di parlare di distanze ed angoli.
Definizione A.1. Il prodotto scalare in Rn e definito ponendo

x1 y1
hv, wi x1 y1 + x2 y2 + ... + xn yn ove v = ... , w = ..

.
xn yn
Osservazione: Si verifica facilmente che un tale prodotto scalare e definito positivo.
Definizione A.2. A partire dal prodotto scalare standard si puo definire la norma
euclidea di un vettore in Rn , ponendo
p
kvk hv, vi v Rn

Proposizione A.1. La norma gode delle seguenti proprieta fondamentali:


1. kvk > 0, kvk = 0 v = 0

2. kvk = || kvk R

3. kv + wk 6 kvk + kwk (disuguaglianza triangolare)


v, w R3 .
Teorema A.1 (disuguaglianza di Schwarz). Per ogni coppia di vettori v, w Rn ,
si ha
|hv, wi| 6 kvk kwk (A.1)
ove vale luguaglianza se, e solo se, v e w sono linearmente dipendenti.
Dimostrazione . Siano fissati due vettori v e w ed osserviamo che, se uno dei due vettori
e nullo, la tesi e verificata.
Supponiamo ora che v e w siano linearmente indipendenti. Per qualsiasi valore del
parametro R, si ha hv + w, v + wi > 0 e quindi,

hv, vi + 2hv, wi + 2 hw, wi > 0 R

cio significa che il discriminante di questo trinomio non puo essere positivo e quindi deve
aversi
0 > hv, wi2 hw, wihv, vi ovvero hv, wi2 6 kvk2 kwk2

57
A. Lo Spazio Euclideo

da cui si deduce la tesi.


Infine ci resta da dimostrare quando vale luguaglianza, sia ora w = v per qualche
R, allora kwk = || kvk e si ha

|hv, wi| = |hv, vi| = || kvk2 = kvk kwk


hv,wi
Viceversa, se |hv, wi| = kvk kwk, ovvero hv, wi2 = hv, vihw, wi; allora, posto = hw,wi ,
si ha
hv, wi2
hv + w, v + wi = hv, vi + 2 hv, wi + 2 hw, wi = hv, vi =0
hw, wi
da cui si deduce che v + w = 0 e quindi che v e w sono linearmente dipendenti.

Dimostrazione della proposizione A.1. Osserviamo che le prime due proprieta sono una
facile conseguenza delle proprieta del prodotto scalare, e la loro dimostrazione e lasciata
per esercizio; la terza si puo, invece, dedurre dallequazione (A.1):
osserviamo che kv + wk e kvk + kwk sono due numeri reali maggiori o uguali a zero e

kv + wk2 = hv + w, v + wi
= hv, vi + 2hv, wi + hw, wi
6 hv, vi + 2|hv, wi| + hw, wi
6 kvk2 + 2kvk kwk + kwk2 per (A.1)
2
= (kvk + kwk)

Osservazione (Importante!): Dalla disuguaglianza di Schwarz, equazione (A.1), di-


scende che, dati due vettori non nulli v e w, si ha

hv, wi
kvk kwk 6 1

ed unosservazione geometrica ci permette di dare un significato preciso a questo rap-


porto. Infatti possiamo osservare che, dati due vettori non nulli v e w, si ha
hv, wi
= cos (A.2)
kvk kwk
dove [0, ] e langolo tra i due vettori.
Si veda infatti la figura A.1 e si osservi che

kv wk2 = kvk2 + kwk2 2kvk kwk cos (A.3)

inoltre, per le proprieta del prodotto scalare, si ha

kv wk2 = kvk2 + kwk2 2hv, wi (A.4)

58
A.1. Alcune proprieta dei triangoli

Figura A.1.:

Quindi, confrontando le due espressioni (A.3), (A.4), si ottiene luguaglianza enunciata


sopra e percio possiamo concludere che il prodotto scalare e uno strumento per calcolare
la lunghezza dei vettori e langolo (non orientato) che due di essi formano.
esempio A.1: Due vettori v e w sono ortogonali (cioe formano un angolo di 2 ) se, e solo
se, hv, wi = 0.

Definizione A.3. Tramite la norma, possiamo introdurre nello spazio affine la distanza
tra coppie di punti, affermando che la distanza euclidea tra due punti P e Q di A, e

uguale a kP Qk.

Osservazione: Dati due vettori v e w non nulli, il numero

|hv, wi|
kvk

e uguale alla lunghezza della proiezione ortogonale del vettore v su una retta parallela a
w.

A.1. Alcune proprieta dei triangoli


Prima di approfondire la geometria dello spazio euclideo, con particolare riguardo allo
spazio tridimensionale, mostriamo come si possano usare gli strumenti e le notazioni
introdotte, per verificare alcune proprieta elementari dei triangoli.

Consideriamo un triangolo non-degenere del piano euclideo, di vertici A, B e C, ed



indichiamo con v = AC e w = AB i vettori, linearmente indipendenti, corrispondenti a

due lati del triangolo ed osserviamo che il terzo lato corrisponde al vettore CB = w v
(vedi ad esempio figura A.1).
Dato un vettore x, indichiamo con x0 il vettore che si ottiene ruotando x di un angolo
retto, ovvero, fissata una base ortonormale B = {e1 , e2 }, dato un vettore x = e1 + e2 ,
si ha x0 = e1 + e2 .
Osserviamo che, per ogni vettore x, si ha (ovviamente) hx, x0 i = 0 ed (x)0 = x0 ; inoltre,

59
A. Lo Spazio Euclideo

per ogni coppia di vettori x, y, si ha (x + y)0 = x0 + y 0 e, infine,

hx0 , y 0 i = hx, yi e hx0 , yi + hx, y 0 i = 0

Vogliamo dimostrare alcune delle proprieta fondamentali dei triangoli:

Intersezione delle altezze Dire che le tre altezze del triangolo concorrono ad uno stesso
punto, significa dire che esistono tre scalari , e , tali che

v + w0 = w + v 0 = (w0 v 0 )

In particolare, deve valere luguaglianza v + v 0 = ( )w0 , da cui, ricordando


che v e v 0 sono ortogonali, si deducono le uguaglianze

hv, w0 i hv 0 , w0 i hv 0 , w0 i
1 = ( ) , = ( ) =
hv, vi hv 0 , v 0 i hv, w0 i

Calcolando i prodotti scalari, si verifica facilmente che

hv 0 , w0 i 0 hv 0 , w0 i 0
v (w v 0 ) Span (w) e w (w v 0 ) Span (v)
hv, w0 i hv, w0 i

e cio e quanto ci serve per concludere.

Intersezione degli assi Un calcolo perfettamente analogo si puo fare per verificare che
i tre assi dei lati del triangolo concorrono ad uno stesso punto. Cio significa
precisamente che esistono tre scalari , e , tali che

v
2 + v 0 = w
2 + w0 = v+w
2 + (w0 v 0 )

In particolare, devono valere le uguaglianze

1 h v+w + (w0 v 0 ), vi h v+w 0 0


2 + (w v ), v i
0
= 2 e =
2 hv, vi hv 0 , v 0 i

Dalla prima uguaglianza, si deduce che

hv, vi + hw, vi + 2hw0 , vi hv, wi


1= =
hv, vi 2 v[ , w0 ]

Calcolando i prodotti scalari, si verifica che

w hv, wi v hv, wi
+ (w0 v 0 ) Span (v) e + (w0 v 0 ) Span (w)
2 2hv, w0 i 2 2hv, w0 i

e cio e quanto ci serve per concludere.

60
A.1. Alcune proprieta dei triangoli

Intersezione delle mediane Dire che le tre mediane del triangolo concorrono ad uno
stesso punto, significa dire che esistono tre scalari , e , tali che

w + ( v2 w) = v + ( w2 v) = (v + wv
2 ) = v+w
2

Poiche v e w sono linearmente indipendenti, queste uguaglianze sono equivalenti


alle uguaglianze

= (1 ) = e = (1 ) =
2 2 2 2
da cui si deduce che
2
===
3

Intersezione delle bisettrici Ricordiamo che, se due vettori x ed y hanno la stessa lun-
ghezza (kxk = kyk), allora la bisettrice dellangolo tra i due vettori ha la direzione
del vettore x + y.
Dunque, dire che le tre bisettrici degli angoli interni del triangolo concorrono ad
uno stesso punto, significa dire che esistono tre scalari , e , tali che
     
wv v wv w v w
v+ kwvk kvk =w+ kwvk kwk = kvk + kwk

Ricordando che v e w sono linearmente indipendenti ed eguagliando i coefficienti


v w
dei vettori v1 = kvk e w1 = kwk si ottengono le uguaglianze
   
kvk kwk kwk kvk
kvk 1 + = = e kwk 1 + = =
kw vk kw vk kw vk kw vk

da cui si deduce che

kvk kw vk kwk kw vk kvk kwk


= = =
kw vk + kvk + kwk kw vk + kvk + kwk kw vk + kvk + kwk

e si conclude il calcolo.

Bisettrici degli angoli esterni Da ultimo, vogliamo mostrare che sono allineati i tre pun-
ti di intersezione tra la bisettrice dellangolo esterno ed il lato opposto.
Cominciamo quindi col determinare i punti di intersezione tra le rette, ovvero
determinare i valori dei parametri , , , , , per cui si abbia
   
w wv v wv
w+ + = v, v+ + = w,
kwk kw vk kvk kw vk
 
v w
= v + (w v)
kvk kwk

61
A. Lo Spazio Euclideo

Poiche v e w sono linearmente indipendenti, si possono determinare i coefficienti e


quindi i tre punti di intersezione che sono1

kwk kvk kwk kvk


P1 = kwkkwvk v, P2 = kvkkwvk w, P3 = kwkkvk v kwkkvk w


I tre punti sono allineati se, e solo se, i vettori P3 P1 e P3 P2 sono paralleli e cio e
equivalente allannullarsi del determinante

kwk kvk kwk kw vk kvk kw vk
det kwk kwk 0
kvk 0 kvk

Infine, osserviamo che questo determinante e nullo perche la prima colonna e la


differenza delle ultime due.

A.2. Prodotto Vettoriale e prodotto misto nello Spazio


Euclideo tridimensionale
Uno strumento utile che si affianca al prodotto scalare in molti calcoli elementari nella
geometria dello spazio euclideo tridimensionale e il prodotto vettoriale, cos definito.

x1 y1
Definizione A.4. Dati v = x2 , w = y2 R3 definisco prodotto vettoriale2
x3 y3
tra v e w con
x2 y3 x3 y2
v w x3 y1 x1 y3
x1 y2 x2 y1
Proposizione A.2. Valgono le seguenti relazioni:
1. v w = (w v);

2. (v + w) z = v z + w z

3. (v) w = (v w) = v (w)

4. Identita di Jacobi:

u (v w) + v (w u) + w (u v) = 0

5. v w = 0 v e w sono proporzionali
1
Si osservi che quando alcuni dei lati sono uguali tra loro, allora qualcuno tra i denominatori si annulla.
Cio significa che la bisettrice e parallela al lato opposto ed il punto di intersezione va allinfinito.
Questa affermazione si potrebbe rendere precisa considerando il piano euclideo immerso nel piano
proiettivo.
2
In alcuni testi si trova la notazione v w per indicare il prodotto vettoriale.

62
A.2. Prodotto Vettoriale e prodotto misto nello Spazio Euclideo tridimensionale

6. Identita di Lagrange:

kv wk2 = kvk2 kwk2 hv, wi2 (A.5)

qualunque siano u, v, w R3 e R.

Osserviamo che le due ultime proprieta del prodotto vettoriale permettono di caratte-
rizzare geometricamente il prodotto vettoriale di due vettori in termini dei suoi fattori.
Infatti dalla prima delle due si deduce che il prodotto vettoriale v w deve essere ortogo-
nale ad entrambi i suoi fattori e quindi, se v e w non sono paralleli (ovvero proporzionali),
la direzione del prodotto vettore e completamente determinata.
Infine, dallequazione (A.5), e da quanto visto sul prodotto scalare si deduce

kv wk2 = kvk2 kwk2 hv, wi2 = kvk2 kwk2 (1 cos2 )

dove [0, ] e langolo tra v e w. Quindi, si ha

kv wk = kvk kwk sin (A.6)

e quindi la norma (ovvero la lunghezza) del prodotto vettoriale coincide con larea del
parallelogramma avente come lati i vettori v e w, in quanto la misura dellaltezza di
tale parallelogramma, relativa al lato v e uguale proprio a kwk sin , come si puo vedere
facilmente da figura A.2.

Figura A.2.:

Osservazione: Dalla definizione A.4 di prodotto vettoriale notiamo che



e1 x1 y1
v w = det e2 x2 y2
e3 x3 y3

e questo ci conferma3 linterpretazione geometrica della norma del prodotto vettoriale.


3
Ricordiamo linterpretazione geometrica del det (vedi oss. 6 pag. 31).

63
A. Lo Spazio Euclideo

Osservazione (Importante!): Il prodotto vettoriale, oltre a non essere commutativo


non e nemmeno associativo, come si puo vedere dal fatto che

e1 (e1 e2 ) = e1 e3 = e2 mentre (e1 e1 ) e2 = 0 e2 = 0.

Definizione A.5. Chiamiamo prodotto misto di tre vettori

hv, w zi = x1 (y2 z3 y3 z2 ) + x2 (y3 z1 y1 z3 ) + x3 (y1 z2 y2 z1 )

Osservazione: Osserviamo che il prodotto misto hv, w zi = 0 se, e solo se, i tre
vettori sono linearmente dipendenti.
In particolare hv w, vi = 0 = hv w, wi v, w R3 .
Vogliamo mettere in evidenza il significato geometrico del prodotto misto di tre vet-
tori. Applichiamo i tre vettori v, w, z ad uno stesso punto dello spazio e consideriamo il
parallelepipedo avente i tre vettori dati come spigoli (vedi figura A.3): il valore assoluto
del prodotto misto |hv, w zi| coincide con il volume del parallelepipedo.

Figura A.3.:

64
Bibliografia

[1] M. Abate, Geometria McGrawHill

[2] S. Lang, Algebra lineare Bollati Boringhieri

[3] B. A. Dubrovin, S. P. Novikov, A. T. Fomenko, Geometria contemporanea. Metodi


e applicazioni. Vol. 1: Geometria delle superfici, dei gruppi di trasformazioni e dei
campi Editori Riuniti

[4] E. B. Dam, M. Koch, M. Lillholm Quaternions, Interpolation and Animation


Department of Computer Science, University of Copenhagen

65