Sei sulla pagina 1di 18

Forme bilineari

Kieran G. OGrady

SapienzaUniversit`a di Roma
4 Febbraio 2011

0 Convenzioni, terminologia
k `e il campo dei reali o dei complessi.

V `e uno spazio vettoriale su k.

Mn,n (k) `e lo spazio vettoriale delle matrici n n con entrate in k e 1n Mn,n (k) `e la matrice
unit`
a.

I vettori di k n sono solitamente vettori colonna X etc. con entrate x1 , . . . , xn .

GLn (k) Mn,n (k) `e il sottoinsieme delle matrici invertibili.

La base standard di k n `e S = {e1 , . . . , en } dove ei ha entrate nulle eccetto quella al posto


i-esimo che `e uguale a 1.

Denotiamo con A2R un piano e con A3R lo spazio in cui non misuriamo le lunghezze n`e gli
angoli- li chiamiamo piano e spazio affine.

Denotiamo con E2 un piano e con E3 lo spazio in cui misuriamo lunghezze e gli angoli, li
chiamiamo piano e spazio euclideo.

1 Introduzione
Definizione 1.1. Una forma bilineare (o applicazione bilineare) su V `e unapplicazione

: V V k

a: se v0 V allora sono lineari


che ha la seguente propriet`

(1) lapplicazione Lv0 : V k definita da Lv0 (v) := (v0 , v)

(2) e lapplicazione Rv0 : V k definita da Rv0 (v) := (v, v0 ).

Esempio 1.2. Sia A = (aij ) una matrice in Mn,n (k). Lapplicazione A : k n k n k definita da
X
A (X, Y ) := X t A Y = aij xi yj
1i,jn

`e bilineare.
Osservazione 1.3. Se : V V k `e bilineare allora 0 = (v, 0) = (0, v) per ogni v V .

1
Sia V 2 lo spazio vettoriale reale dei vettori nel piano e {i1 , i2 } una sua base ortonormale. Dati
(x1 i1 + x2 i2 ), (x1 i1 + x2 i2 ) V 2 definiamo

((x1 i1 + x2 i2 ), (x1 i1 + x2 i2 )) := x1 y1 + x2 y2 . (1.1)

In altre parole identifichiamo V 2 con R2 via la base scelta e consideriamo il caso molto particolare
di forma bilineare dellEsempio 1.2 in cui A = 12 . Abitualmente si denota (v, w) semplicemente
con (v, w). Il prodotto (, ) ha un notevole significato geometrico. Dato v V 2 denotiamo con ||v||
la lunghezza di un qualsiasi segmento orientato che rappresenta v; per il Teorema di Pitagora

||(x1 i1 + x2 i2 )|| = (x21 + x22 )1/2 .

Dati v, w V 2 sia langolo tra v e w; allora

(v, w) = ||v|| ||w|| cos . (1.2)

Notate che a priori dovremmo fare attenzione a distinguere tra langolo tra v e w e langolo tra w
e v, sono luno lopposto dellaltro, ma siccome la funzione cos `e pari non abbiamo necessit`a di fare
attenzione, del resto `e chiaro da (1.1) che (w, v) = (v, w) e quindi... Perch`e vale (1.2) ?

(I) Se v, w sono linearmente dipendenti si vede facilmente che (1.2) vale.

(II) Supponiamo che v, w siano perpendicolari allora per il Teorema di Pitagora

x21 + x22 + y12 + y22 + 2(x1 y1 + x2 y2 ) = (x1 + y1 )2 + (x2 + y2 )2 =


= ||v + w||2 = ||v||2 + ||w||2 = x21 + x22 + y12 + y22 (1.3)

e quindi (v, w) = 0. Daltra parte il membro di destra di (1.2) `e zero perch`e cos /2 = 0.
Quindi (1.2) vale se v, w sono perpendicolari.

(III) Ora supponiamo solo che v, w 6= 0. Esistono v1 , v2 tali che v = v1 + v2 e v2 w (cio`e v2


e w sono perpendicolari). Per (II) e bilinearit`a di (, ) abbiamo (v, w) = (v1 , w). Ora la
trigonometria ci dice che ||v1 || = ||v|| | cos | e per (I) segue che vale (1.2).

Sia Bil(V ) linsieme delle forme bilineari su V : `e un sottoinsieme dello spazio vettoriale delle funzioni
da V V k, si verifica facilmente che `e un sottospazio vettoriale e quindi ee uno spazio vettriale.

2 Forme bilineari e matrici


In questa sezione supponiamo che V sia finitamente generato e poniamo n = dimk V . Supponiamo
che : V V k sia una forma bilineare. Sia B = {v1 , . . . , vn } una base di V . Associamo a e
B la matrice MB () Mn,n (k) la cui entrata sulla riga i-esima e colonna j-esima `e

mij := (vi , vj ). (2.1)

Esempio 2.1. Sia A Mn,n (k) e A : k n k n k lapplicazione bilineare dellEsempio 1.2. Sia
S la base standard di k n ; allora MS (A ) = A.
La si ricostruisce dalla matrice MB () = (aij ) nel modo seguente: sia X : V k n lisomorfi-
smo definito dalle coordinate associate a B; allora
X
(v, w) = X(v)t MB () X(w) = aij xi (v)xj (w). (2.2)
1i,jn

2
Viceversa data M Mn,n (k) se definiamo attraverso (2.2) abbiamo una forma bilineare su V :
abbiamo definito unapplicazione biunivoca

Bil(V ) Mn,n (k)


(2.3)
7 MB ()

Definizione 2.2. Si verifica facilmente che lapplicazione `e lineare e quindi `e un isomorfismo. Due
matrici M1 , M2 Mn,n (k) sono congruenti se siste A GLn (K) tale che M2 = At M1 A.

Si verifica facilmente che la relazione di congruenza `e di equivalenza. Supponiamo che : V


V k sia una forma bilineare. Siano B = {v1 , . . . , vn } e C = {w1 , . . . , wn } basi di V . Allora

MB () = MCB (IdV )t MC () MCB (IdV ) (2.4)

e quindi MC () `e congruente a MB (). Infatti siano X : V k n e Y : V k n le funzioni


coordinate definite da B e C rispettivamente. La matrice MB () `e unicamente caratterizzata
dallequazione (2.2). Daltra parte per la formula del cambiamento di coordinate abbiamo

(v, w) = Y (v)t MC () Y (w) = (MCB (IdV ) X(v))t MC () MCB (IdV ) X(v) =


= X(v)t (MCB (IdV )t MC () MCB (IdV )) X(v) (2.5)

Questo dimostra la (2.4). Quindi le matrici associate alla stessa forma bilineare su V sono con-
gruenti. Viceversa se A Mn,n `e congruente a MB () esiste una base C tale che MC () = A.
Siccome matrici congruenti hanno lo stesso rango ha senso porre la seguente definizione.

Definizione 2.3. Sia una forma bilineare su V . Il rango r() di `e il rango della matrice MB ()
associata a in una qualsiasi base B di V . La `e non-degenere se ha rango uguale a dim V .

3 Forme quadratiche
Sia V uno spazio vettoriale finitamente generato di dimensione n. Sia f : V k una funzione. Sia
B = {v1 , . . . , vn } una base di V . Supponiamo che esista un polinomio P (x1 , . . . , xn ) tale che

f (x1 v1 + . . . + xn vn ) = P (x1 , . . . , xn ) (x1 v1 + . . . + xn vn ) V. (3.1)

Sia ora C = {w1 , . . . , wn } unaltra base di V ; esiste un polinomio Q(y1 , . . . , yn ) tale che

f (y1 w1 + . . . + yn wn ) = Q(y1 , . . . , yn ) (y1 w1 + . . . + yn wn ) V.

Infatti sia A = (aij ) la matrice che d` a le coordinate (x1 , . . . , xn ) di v nella base Ba partire dalle
Pn
coordinate (y1 , . . . , yn ) di v nella base C cio`e tale che valga xi = j=1 aij xj . Sostituendo questa
espressione nella (3.1) otteniamo che
n
X n
X
f (y1 w1 + . . . + yn wn ) = P ( a1j xj , . . . , anj xj )
j=1 j=1

e la funzione a destra `e chiaramente polinomiale. Inoltre vediamo che se P `e una funzione polino-
miale omogenea di grado d anche Q lo `e. Quindi ha senso porre la seguente definizione.

Definizione 3.1. Una funzione f : V k `e polinomiale se data una base B di V vale (3.1) con P
polinomio. Se P `e omogeneo di grado d o nullo f si dice omogenea di grado d. Una forma quadratica
su V `e una funzione q : V k polinomiale omogenea di grado 2.

Esempio 3.2. La funzione q : V 2 R definita da q(v) := ||v||2 `e una forma quadratica.

3
Poniamo
Q(V ) := {q : V k | q `e una forma quadratica}. (3.2)
Notate che Q(V ) `e un sottoinsieme dello spazio vettoriale delle funzioni da V a k; `e chiaramente
un sottospazio vettoriale, in particolare uno spazio vettoriale.
Sia Bil(V ). Definiamo q : V k cos`: q (v) := (v, v). Sia B = {v1 , . . . , vn } una base di
V e MB () = (aij ); la Formula (2.2) d` a che
X
q (x1 v1 + . . . + xn vn ) = aij xi xj (x1 v1 + . . . + xn vn ) V. (3.3)
1i,jn

Quindi q `e una forma quadratica associata a . Abbiamo definito unapplicazone lineare

Bil(V ) Q(V )
(3.4)
7 q
Nel passare da a q abbiamo perso informazione quindi `e naturale aspettarsi che non si possa
ricostruire da q (cio`e (3.4) non `e iniettiva).
Definizione 3.3. Sia Bil(V ).
(1) `e simmetrica se per ogni v, w V vale (v, w) = (w, v).

(2) `e anti-simmetrica se per ogni v, w V vale (v, w) = (w, v).


Siano Bil+ (V ), Bil (V ) Bil(V ) i sottoinsiemi delle applicazioni bilineari simmetriche e anti-
simmetriche rispettivamente. Si verifica facilmente che sono entrambi sottospazi vettoriali di Bil(V ).
Osservazione 3.4. Sia Bil(V ). Sia B una base di V . Si verifica facilmente che `e simmetrica
se e solo se MB () `e una matrice simmetrica (cio`e uguale alla sua trasposta) e analogamente che
`e simmetrica se e solo se MB () `e una matrice anti-simmetrica (cio`e uguale allopposto della
sua trasposta). (Notate che se una matrice quadrata A `e (anti)simmetrica anche ogni matrice
congruente ad A lo `e.) La restrizione di (2.3) a Bil+ (V ) definisce un isomorfismo tra Bil+ (V ) e lo
spazio vettoriale delle matrici simmetriche, la restrizione di (2.3) a Bil (V ) definisce un isomorfismo
tra Bil (V ) e lo spazio vettoriale delle matrici anti-simmetriche.
Sia Bil(V ). Scegliamo una base B = {v1 , . . . , vn } di V e sia A := (aij ) := MB ().
Supponiamo che sia anti-simmetrica e quindi A `e anti-simmetrica; `e chiaro dallequazione (3.3)
che la forma quadratica associata a `e nulla. Questo conferma che in generale non possiamo
ricostruire dalla forma quadratica associata. Ora supponiamo che Bil(V ) sia simmetrica cio`e
che A `e simmetrica. Allora
X X
q (x1 v1 + . . . + xn vn ) = aii x2i + 2aij xi xj (x1 v1 + . . . + xn vn ) V. (3.5)
1in 1i<jn

Questa formula ci dice che la restrizione di (3.4) a Bil+ (V ) `e un isomorpfismo di spazi vettoriali

Bil+ (V ) Q(V ). (3.6)
P
Infatti se q Q(V ) `e data da q(x1 v1 + . . . + xn vn ) = 1ijn bij xi xj lunica Bil+ (V ) tale
che q = q `e quella con matrice associata (aij ) = MB () data da

aii := bii , aij = bij /2 se i < j, aij = bji /2 se i > j. (3.7)

Esempio 3.5. Sia q Q(R2 ) data da q(x1 , x2 ) := x21 + 3x1 x2 2x22 . La forma bilineare simmetrica
tale che q = q `e A dove  
1 3/2
A=
3/2 2

4
Come ricostruiamo a partire da q senza passare per le coordinate relative a una base ? La
bilinearit`
a e simmetria di d`
a la formula di polarizzazione
1 1
(v, w) = ((v + w, v + w) (v, v) (w, w)) = (q (v + w) q (v) q (w)). (3.8)
2 2
In parole: possiamo identificare forme bilineari simmetriche su V con forme quadratiche su V , di
conseguenza ogni risultato o definizione che riguarda forme bilineari simmetriche ha un corrispettivo
per le forme quadratiche. Un esempio: il rango r(q) di una forma quadratica `e, per definizione, il
rango dellunica forma bilineare simmmetrica tale che q = q.
Definizione 3.6. Sia una forma bilineare simmetrica su V . Sia U V un sottospazio.
Lortogonale a U `e
U := {w V | (v, w) = 0 v U }.
Se U `e generato da un singolo vettore v denotiamo U con v .
Osservazione 3.7. Se v V allora v `e il nucleo dellapplicazione lineare Lv : V k quindi `e un
sottospazio vettoriale di V (di codimensione 1 se non uguale a V ). In generale U `e lintersezione
dei perpendicolari v per v U e quindi `e un sottospazio.
Proposizione 3.8. Sia V uno spazio vettoriale finitamente generato e una forma bilineare
simmetrica non degenere su V . Se U V `e un sottospazio allora

dim U = dim V dim U.

Dimostrazione. Siano a := dim U e n := dim V . Sia {v1 , . . . , va } una base di U ; estendiamola a


una base B := {v1 , . . . , va , va+1 , . . . , vn } di V . Sia M = MB () la matrice associata a dalla
scelta di B. Consideriamo lapplicazione lineare
f
V ka
w 7 ((v1 , w), . . . , (va , w))

Si verifica subito che U = ker f . Ora sia S la base standard di k a ; la matrice MSB (f ) Ma,n ha
per righe le prime a righe di MB (). Per ipotesi MB () ha rango n e quindi le sue prime a righe
(come ogni altra lista di sue righe) sono linearmente indipendenti. Siccome il rango per righe di
una matrice `e uguale al suo rango per colonne segue che il rango per colonne di MSB (f ) `e a e quindi
f `e suriettiva. Per la formula dim ker(f ) = dim V dim im(f ) segue la proposizione.

Corollario 3.9. Sia V uno spazio vettoriale finitamente generato e una forma bilineare simme-
trica non degenere su V . Se U V `e un sottospazio allora (U ) = U .
Dimostrazione. Chiaramente U (U ) . Daltra parte applicando due volte la Proposizione 3.8
otteniamo che dim U = dim(U ) e quindi U = (U ) .

Se (V, (, )) `e uno spazio vettoriale euclideo e v, w V allora vw se (v, w) = 0, diciamo che v


`e perpendicolare a w. Pi` u in generale se S V `e un sottoinsieme definiamo lortogonale di S come

S := {v V | (v, u) = 0 u U }. (3.9)

Si verifica facilmente che S `e un sottospazio vettoriale di V .


Esempio 3.10. Sia V = Mn,n (R) e per A, B Mn,n (R) definiamo

(A, B) := tr(At B).


+
Si verifica facilmente che (, ) `e un prodotto euclideo. Sia Mn,n (R) Mn,n (R) il sottospazio

delle matrici simmetriche: il suo ortogonale `e il sottospazio Mn,n (R) Mn,n (R) delle matrici
antisimmetriche.

5
Teorema 3.11. Sia una forma bilineare simmetrica su V . Esiste una base B di V tale che
MB () sia diagonale:
c1 0 0

0 c2 0
MB () = . (3.10)

.. . . ..
.. . . .
0 0 cn
Se k = C possiamo assumere che per ogni 1 i n si abbia ci {0, 1}, se k = R possiamo
assumere che per ogni 1 i n si abbia ci {1, 0, 1}.
Dimostrazione. Per induzione sulla dimensione di V . Se dim V = 0, 1 il teorema `e banale. Resta da
dimostrare il passo induttivo, quindi supponiamo che il teorema valga per dim V < n e dimostriamo
che vale se dim V = n. Se = 0 allora (3.10) vale in qualsiasi base. Supponiamo che 6= 0. Allora
q 6= 0 (vedi (3.8)) e quindi esiste vn V tale che q (vn ) 6= 0. Riscalando vn possiamo assumere
che q (v1 ) = 1 se k = R e q (v1 ) = 1 se k = C. Lortogonale U := vn non `e tutto V ; infatti
vn / vn perch`e q (vn ) 6= 0. Quindi U `e un sottospazio di V di dimensione (n1). Sia : U U k
la restrizione di a U U ; chiaramente `e bilineare simmetrica. Per lipotesi induttiva esiste una
base C := {v1 , . . . , vn1 } di U tale che MC () `e diagonale con ciascuna entrata uguale a 0 o a 1
se k = C, uguale a 1 o a 0 se k = R. La base B di V data da {v1 , . . . , vn } soddisfa la tesi del
teorema.

Osservazione 3.12. Diamo due formulazioni equivalenti del Teorema 3.11.


(1) Sia q : V k una forma quadratica. Esiste una base B = {v1 , . . . , vn } di V tale che
X
q(x1 v1 + . . . + xn vn ) = ci x2i (x1 v1 + . . . + xn vn ) V. (3.11)
1in

dove ci {0, 1} se k = C e ci {1, 0, 1} se k = R.


(2) Sia A Mn,n (k) una matrice simmetrica. Esiste G GLn (k) tale che Gt A G `e diagonale
con entrate in {0, 1} se k = C e in {1, 0, 1} se k = R.
Diamo una versione della dimostrazione del passo induttivo del Teorema 3.11 che `e pi` u adatta
ai calcoli. Dapprima osserviamo che per lOsservazione 3.12 `e sufficiente dimostrare che, data una
forma quadratica q, esiste una base B = {v1 , . . . , vn } di V tale che valga (3.11). Ora supponiamo
che q 6= 0 (se q = 0 la (3.11) vale qualsiasi sia la base B, ovviamente ciascun ci `e nullo) e sia un V
tale che q(un ) = 1 - discuteremo il caso k = R, se k = C si procede in modo del tutto analogo. Sia
C = {u1 , . . . , un } una base di V che estende il vettore non-nullo un . Siccome q(un ) = 1 possiamo
scrivere
n1
X
q(z1 u1 + . . . + zn un ) = r(z1 , . . . , zn1 ) (zn2 + bi zi zn ) =
i=1
n1 n1
X bi 2 X bi
= r(z1 , . . . , zn1 ) (zn + zi ) ( zi )2 =
i=1
2 i=1
2
n1
X bi 2
= s(z1 , . . . , zn1 ) (zn + zi ) , (3.12)
i=1
2

dove r(z1 , . . . , zn1 ) e s(z1 , . . . , zn1 ) sono polinomi omogenei di grado 2 nelle z1 , . . . , zn1 . Ora
sia D = {w1 , . . . , wn } una base tale che le coordinate (y1 , . . . , yn ) associate a D sono legate alle
coordinate (z1 , . . . , zn ) dalle formule
n1
X bi
yi = zi , 1 i (n 1), yn = zn + zi .
i=1
2

6
Si ha q(y1 w1 + . . . + yn wn ) = s(y1 , . . . , yn1 ) yn2 . Sia U V il sottospazio generato da
w1 , . . . , wn1 . La formula p(y1 w1 + . . . + yn1 wn1 ) := s(y1 , . . . , yn1 ) definisce una forma qua-
dratica su U . Per lipotesi induttiva esistono una base {v1 , . . . , vn1 } di U e c1 , . . . , cn1 {0, 1}
tali che
p(x1 w1 + . . . + xn1 wn1 ) = (c1 x21 + . . . + cn1 x2n1 ).
Poniamo vn = un ; con questa scelta (3.11) `e soddisfatta.
Supponiamo che sia data una forma bilineare su V , o equivalentemente una forma quadratica
q Q(V ). Diciamo che una base B diagonalizza (equivalentemente diagonalizza q) se vale (3.10)
(equivalentemente vale (3.11)). E ` evidente dalla dimostrazione che esistono molte basi diverse
che diagonalizzano (o q) con i ci {0, 1} se k = C e i ci {0, 1} se k = R, quindi `e naturale
chiedersi se le entrate c1 , . . . , cn sulla diagonale principale della matrice in (3.10) sono univocamente
determinate (equivalentemente i coefficienti del polinomio in (3.11)). Ovviamente i ci possono essere
riordinati, dimostreremo che sono univocamente determinati da (o q) a meno di riordinamenti.
Se k = C la dimostrazione `e molto facile: basta notare che il rango di `e uguale al numero di ci
non-nulli, quindi il numero di ci uguali a 1 non dipende dalla base che diagonalizza e di conseguenza
anche il numero di ci nulli. Se k = R il ragionamento appena fatto ci d`a che il numero di ci non-nulli
non dipende dalla base diagonalizzante ma siccome alcuni ci sono uguali a 1 e altri a 1 non basta
per concludere. Diamo una definizione.
Definizione 3.13. Sia V uno spazio vettoriale reale e q : V R una forma quadratica. Diciamo
che
(1) q `e definita positiva se q(v) > 0 per ogni 0 6= v V .

(2) q `e definita negativa se q(v) < 0 per ogni 0 6= v V .


Indichiamo che q `e definita positiva cos`: q > 0 e analogamente q < 0 significa che q `e definita
negativa. Siano

s+ (q) := max{dim U V | q|U > 0}, s (q) := max{dim W V | q|W < 0}. (3.13)

La segnatura di q `e s(q) := s+ (q) s (q). Sia una forma bilineare simmetrica su V . Diciamo
che `e definita positiva (negativa) se lo `e q : in simboli > 0 o < 0. La segnatura s() di `e
quella di q .
Esempio 3.14. Il prodotto scalare su V 2 definito da (1.1) `e definito positivo. Se V `e uno spazio
vettoriale reale e q Q(V ) `e definito positivo allora q `e definito negativo. La forma quadratica
su R2 definita da q(x1 , x2 ) := x1 x2 non `e definita positiva n`e negativa, infatti q(1, 1) = 1 > 0, e
q(1, 1) = 1 < 0; segue che s+ (q) = 1 e s (q) = 1 e quindi la segnatura di q `e 0.
Proposizione 3.15 (Sylvester). Sia V uno spazio vettoriale reale e q : V R una forma quadra-
tica. Supponiamo che B = {v1 , . . . , vn } sia una base di V tale che

q(x1 v1 + . . . + xn vn ) = c1 x21 + . . . + ca x2a da+1 x2a+1 . . . da+b x2a+b .


(x1 v1 + . . . + xn vn ) V.
(3.14)
Supponiamo che ci > 0 per ogni 1 i a e che di > 0 per ogni a + 1 i a + b. Allora s+ (q) = a,
s (q) = b e quindi s(q) = a b.
Dimostrazione. Siano V+ := hv1 , . . . , va i, V := hva+1 , . . . , va+b i e V0 := hva+b+1 , . . . , vn i. Osser-
viamo che
dim(V+ + V0 ) = n b, dim(V + V0 ) = n a. (3.15)
Siccome q|V+ > 0 e q|V < 0 abbiamo

s+ (q) a, s (q) b. (3.16)

7
Supponiamo che la prima diseguaglianza sia stretta cio`e s+ (q) > a; arriveremo a un assurdo. Per
definizione esiste un sottospazio U V tale che dim U > a e q|U > 0. Per (3.15) la formula di
Grassmann d` a che

dim(U (V + V0 )) = dim U + dim(V + V0 ) dim(U + V + V0 )


dim U + dim(V + V0 ) n = dim U a > 0.

Quindi esiste 0 6= v U (V + V0 ). Siccome v (V + V0 ) le sue prime a coordinate rispetto alla


base B sono nulle; segue da (3.14) che q(v) 0. Daltra parte v U e per ipotesi q|U > 0, quindi
q(v) > 0. La contraddizione dimostra che non esiste un sottospazio U V tale che dim U > a e
q|U > 0; per (3.16) segue che s+ (q) = a. Si dimostra in modo analogo che non pu`e essere s (q) > b
e quindi s (q) = b.

Corollario 3.16 (Sylvester). Sia V uno spazio vettoriale reale e Bil+ (V )una forma bilineare
simmetrica su V . Sia B una base di V che diagonalizza q e indichiamo con c1 , . . . , cn le entrate
sulla diagonale principale di MB (). Allora

|{i | ci > 0}| = (r(q) + s(q))/2, |{j | cj < 0}| = (r(q) s(q))/2. (3.17)

In particolare il numero di i tali che ci > 0 `e indipendente dalla base che diagonalizza, e analoga-
mente sono indipendenti dalla base che diagonalizza il numero di j tali che cj < 0 e il numero di i
tali che ci = 0.

Dimostrazione. Siano a := |{i | ci > 0}| e b := |{i | ci < 0}|. Allora r(q) = a + b e per
la Proposizione 3.15 s(q) = a b. Sommando e sottraendo le due uguaglianze si ottiene il
corollario.

Ce un modo diverso di formulare i risultati appena dimostrati. Prima una definizione.

Definizione 3.17. Due forme quadratiche q1 , q2 : V k sono congruenti se esiste un automorfismo


g : V V tale che q2 (v) = q1 (g(v)) per ogni v V . Analogamente due forme bilineari simmetriche
1 , 2 Bil+ (V ) sono congruenti se esiste un automorfismo g : V V tale che 2 (v) = 1 (g(v))
per ogni v V .

Osservazione 3.18. (1) Due forme bilineari simmetriche 1 , 2 Bil+ (V ) sono congruenti se e
solo se le corrispondenti forme quadratiche q1 e q2 lo sono.

(2) Siano 1 , 2 Bil+ (V ). Sia B una base di V . Allora 1 `e congruente a 2 se e solo se le


matrici MB (1 ) `e congruente alla matrice MB (2 ).

(3) Due forme quadratiche q1 , q2 su V sono congruenti se e solo se esistono basi B = {v1 , . . . , vn },
C = {w1 , . . . , wn } di V e bij k per 1 i j n tali che
X
q1 (x1 v1 + . . . + xn vn ) = bij xi xj (x1 v1 + . . . + xn vn ) V.
1ijn

e X
q2 (y1 w1 + . . . + yn wn ) = bij yi yj (y1 w1 + . . . + yn wn ) V.
1ijn

Il punto (3) dellOsservazione 3.18 d`


a che abbiamo dimostrato il seguente risultato.

Proposizione 3.19. Siano q1 , q2 forme quadratiche su V . Allora q1 `e congruente a q2 se e solo se


r(q1 ) = r(q2 ) e, nel caso k = R anche s(q1 ) = s(q2 ).

8
Tabella 1: Equazione canonica delle coniche in A2R

Equazione canonica Nome

x21 + x22 1 = 0 ellisse

x21 + x22 + 1 = 0 ellisse complessa


coniche non-degeneri
x21 x22 1 = 0 iperbole

x21 x2 = 0 parabola

x21 + x22 = 0 coppia di rette complesse coniugate

x21 x22 = 0 coppia di rette incidenti


coniche degeneneri
x21 1 = 0 coppia di rette parallele

x21 = 0 retta doppia

4 Coniche e quadriche in coordinate affini


Una conica nel piano reale A2R `e linsieme dei punti le cui coordinate rispetto a un sistema di
coordinate affini sono le soluzioni reali di un polinomio reale f (x1 , x2 ) di grado 2

C = {p | f (x1 (p), x2 (p)) = 0}. (4.1)

La f (x1 , x2 ) = 0 si dice equazione cartesiana di C. La definizione ha senso perch`e se (y1 , y2 ) `e


un nuovo sistema di coordinate allora esistono una matrice invertibile A M2,2 (R) e un vettore
colonna B M2,1 (R) tali che la relazione tra vecchie e nuove coordinate `e

X = A Y + B. (4.2)

Sostituendo lespressione delle (x1 , x2 ) data sopra nella f (x1 , x2 ) abbiamo che

C = {p | f (a11 y1 (p) + a12 y2 (p) + b1 , a21 y1 (p) + a22 y2 (p) + b2 ) = 0}. (4.3)

Siccome f (a11 y1 + a12 y2 + b1 , a21 y1 + a22 y2 + b2 ) `e un polinomio di grado 2 nelle (y1 , y2 ) vediamo
che la definizione di conica `e ben posta. I risultati ottenuti sulle forme quadratiche daranno forme
canoniche affini per le coniche.

Proposizione 4.1. Sia C una conica nel piano. Esiste un sistema di riferimento affine RA(O, x1 , x2 )
tale che C abbia per equazione cartesiana una delle equazioni in forma canonica della Tabella (1).
Lequazione cartesiana canonica di C `e (appunto) unica.

Dimostrazione. Siano (x1 , x2 ) coordinate cartesiane nel piano. Supponiamo che C sia data da (4.1)
e scriviamo
f (x1 , x2 ) = q(x1 , x2 ) + x1 + x2 + (4.4)
dove q `e una forma quadratica non nulla. Quindi esiste una matrice simmetrica M M2,2 (R) non
nulla tale che
q(x1 , x2 ) = X t M X. (4.5)

9
Ora siano (y1 , y2 ) coordinate rispetto a un nuovo sistema di coordinate cartesiane; esistono una
matrice invertibile A M2,2 (R) e un vettore colonna B M2,1 (R) tali che la relazione tra vecchie
e nuove coordinate di uno stesso punto `e data da (4.2). Sia

g(y1 , y2 ) = f (a11 y1 + a12 y2 + b1 , a21 y1 + a22 y2 + b2 ).

Nel nuovo sistema di riferimento la conica C ha equazione cartesiana g(y1 , y2 ) = 0. Scriviamo

g(y1 , y2 ) = q 0 (y1 , y2 ) + 0 y1 + 0 y2 + 0 (4.6)

dove q 0 `e una forma quadratica non nulla. Un facile conto d`a che

g(y1 , y2 ) = Y t At M A Y. (4.7)

Per il Teorema 3.11 (vedi lOsservazione 3.12) esiste A invertibile tale che At M A sia diagonale
con entrate in {0, 1}. Quindi in un opportuno sistema di coordinate cartesiane (y1 , y2 ) abbiamo
che C ha equazione
y12 y22 + 0 y1 + 0 y2 + 0 (4.8)
oppurre
y12 + 0 y1 + 0 y2 + 0 . (4.9)
Se R `e non nullo gli zeri di f (y1 , y2 ) sono gli stessi zeri di f (y1 , y2 ), quindi possiamo assumere
che nelle equzioni (4.8) e (4.9) il coefficient di y12 sia 1. Supponiamo che C abbia equazione y12 +
y22 + 0 y1 + 0 y2 + 0 dove  = 1. Si ha

y12 + y22 + 0 y1 + 0 y2 + 0 = (y1 + 0 /2)2 + (y2 +  0 /2)2 + 0 (0 /2)2 ( 0 /2)2 .

Passando al sistema di coordinate (z1 , z2 ) tali che z1 = (y1 + 0 /2) e z2 = (y2 +  0 /2) lequazione
cartesiana di C diventa z12 + z22 + d = 0 dove d := (0 (0 /2)2 ( 0 /2)2 ). Se d = 0 abbiamo una
forma canonica e C `e una coppia di rette complesse coniugate oppure una coppia di rette (reali)
incidenti. Se d < 0 una equazione cartesiana di C `e
!2 !2
z z
p1 + p2 1 = 0.
|d| |d|
p
Passando a coordinate cartesiane (w1 , w2 ) date da wi := zi / |d| otteniamo una equazione in forma
canonica e vediamo che C o `e una ellisse o una iperbole. Se d > 0 otteniamo in modo simile
unequazione canonica di una iperbole oppure di una conica liscia complessa. Se C ha equazione
y12 + 0 y1 + 0 y2 + 0 si procede in modo simile. Per dimostrare che lequazione canonica `e unica
si applica la

Diamo una interpretazione alternativa della Proposizione 6.7. Cominciamo con una defini-
zione: unapplicazione f : A2R A2R `e una affinit` a (o trasformazione affine) se in coordinate affini
`e data da (4.2). Pi` u precisamente siano X = (x1 , x2 )t coordinate affini su A2R : richiediamo che
esistano A GL2 (R) e B M2,1 (R) vettore colonna tali che X(f (p)) = A X(p) + B per ogni
p A2R . (Notate che se f `e descritta in questo modo in un riferimento affine allora `e descritta in
modo analogo - con A e B diversi - in qualsiasi altro sistema di riferimento affine.) Le affinit`a inclu-
dono i movimenti rigidi ma anche le dilatazioni e altre trasformazioni che modificano gli angoli. Un
esempio tipico di trasformazione affine f tra piani diversi 1 e 2 nello spazio `e la proiezione da
un punto allinfinitocio`e f (p) `e lintersezione di 2 con lunica retta R passante per p e parallela
a una retta fissata R0 (non parallela a 1 n`e a 2 ). La Proposizione 6.7 afferma che modulo le
affinit`
a tutte le ellissi sono equivalenti, e cos` le iperboli, le parabole, etc. In altre parole se unellisse

10
Tabella 2: Equazione canonica delle quadriche non-degeneri in A3R

Equazione canonica Nome Tipo

x21 + x22 + x23 1 = 0 ellissoide

x21 x22 + x23 + 1 = 0 ellissoide complesso

x21 + x22 x23 1 = 0 iperboloide iperbolico (o a una falda)

x21 + x22 x23 + 1 = 0 iperboloide ellittico (o a due falde)

x21 + x22 x3 = 0 paraboloide ellittico

x21 x22 x3 = 0 paraboloide iperbolico

C2 `e ottenuta da una curva C1 applicando una affinit`a (per esempio una proiezione dallinfinito)
sappiamo che C1 `e anchessa unellisse, ma nulla di pi`u.
3
Una quadrica nelllo spazio AR `e linsieme dei punti le cui coordinate rispetto a un sistema di
coordinate affini sono le soluzioni reali di un polinomio reale f (x1 , x2 , x3 ) di grado 2

Q = {p | f (x1 (p), x2 (p), x3 (p)) = 0}. (4.10)

La f (x1 , x2 , x3 ) = 0 si dice equazione cartesiana di Q. Ragionando come nel caso delle coniche si
vede che la definizione ha senso, cio`e se vale (4.10) in un sistema di coordinate allora in qualsiasi
sistema di coordinate affini Q `e linsieme dei punti le cui coordinate sono gli zeridi un polinomio
di grado 2 (che dipende dal sistema di coordinate !). La dimostrazione della Proposizione 6.7 si
pu`o adattare per dare equazioni canoniche delle quadriche e per dimostrare che lequazione canonica
`e unica. Nella Tabella (2) abbiamo elencato le equazioni canoniche delle quadriche cosidette non-
degeneri, le altre (quelle cosidette degeneri) sono coni, cilindri, coppie di piani, piani doppi, rette,
punti o linsieme vuoto.

5 Spazi vettoriali euclidei


Un prodotto euclideo su uno spazio vettoriale reale V `e una forma bilineare simmetrica definita
positiva. Uno spazio vettoriale euclideo `e una coppia (V, ) dove V `e uno spazio vettoriale reale e
`e un prodotto euclideo su V . Abitualemente (se ci`o non crea confusione) denoteremo un prodotto
euclideo semplicemente con (, ), cio`e (v, w) = (v, w).
Pn
Esempio 5.1. Il prodotto scalare standard su Rn `e definito da (X, Y) := i=1 xi yi , cio`e `e dato da
1n nella notazione dellEsempio 1.2. Il prodotto scalare standard su Rn d`a a Rn la struttura
standard di spazio euclideo. Identificando V 2 o V 3 con R2 o R3 otteniamo il prodotto scalare
abitualesu V 2 o V 3 .
Esempio 5.2. Sia [a, b] R un intervallo chiuso e limitato, dove a < b, e V := C 0 ([a, b]) lo spazio
vettoriale reale delle funzioni continue f : [a, b] R. Date f, g C 0 ([a, b]) definiamo
Z b
(f, g)L2 := f (x) g(x)dx. (5.1)
a

11
Il prodotto definito `e un prodotto euclideo - si chiama prodotto L2 . Restringendo (, )L2 a sottospazi
U C 0 ([a, b]) finitamente generati (per esempio lo spazio delle funzioni polinomiali su [a, b] di
grado al pi`
u n) otteniamo spazi vettoriali euclidei di dimensione finita.
Sia (V, (, )) uno spazio vettoriale euclideo. La norma di v V `e definita come

||v|| := (v, v)1/2 . (5.2)

Notate che questo ha senso perch`e (v, v) 0 (la radice `e quella positiva, ovviamente).
Esempio 5.3. Sia V = C 0 ([0, 1]) con il prodotto euclideo dellEsempio 5.2. La norma della funzione
polinomiale xn `e
Z 1 1/2
||xn ||L2 = x2n dx = (2n + 1)1/2 .
0
Osservazione 5.4. Per la formula di polarizzazione (3.8) uno spazio vettoriale euclideo (V, ) `e
determinato dalla norma || || , cio`e se `e unaltro prodotto euclideo con norma associata || ||
e per ogni v V si ha che ||v|| = ||v|| allora = .
Lemma 5.5. Sia (V, ) uno spazio euclideo e supponiamo che V sia finitamente generato. Allora
`e non-degenere.
Dimostrazione. Poniamo n := dimR V . Basta osservare che siccome `e definita positiva la sua
segnatura `e n e quindi il suo rango `e n per la seconda uguaglianza di (3.17). Diamo anche una
dimostrazione diretta. Sia B una base di V e A := MB () Mn,n (R) la matrice associata a dalla
scelta di B. Supponiamo che sia degenere ovvero che A sia singolare. Allora esiste 0 6= X0 Rn
tale che A X0 = 0. Sia v V il vettore di coordinate X0 nella base B. Per (2.2) abbiamo

||v||2 = (v, v) = Xt0 A X0 = Xt0 0 = 0.

Siccome X0 si ha che v 6= 0 e quindi luguaglianza scritta `e contraddice lipotesi che sia definita
positiva.

Dati vettori v1 , v2 di uno spazio euclideo V definiamo la distanza tra v1 e v2 cos`:

d(v1 , v2 ) := ||v1 v2 ||. (5.3)

Non `e chiaro a priori che la distanza cos` definita si comporti come ci aspettiamo (vale la dise-
guaglianza triangolare?). Dimostreremo che `e cos` e anche che esiste una ragionevole nozione di
angolo.
Teorema 5.6 (Diseguaglianza di Cauchy-Schwartz). Sia (V, (, )) uno spazio vettoriale euclideo.
Dati v, w V vale
|(v, w)| ||v|| ||w||. (5.4)
Luguaglianza vale se e solo se v, w sono linearmente dipendenti.
Dimostrazione. Se v = 0 il risultato `e banalmente vero quindi possiamo supporre che v 6= 0. Sia
p(x) := x2 ||v||2 + 2x(v, w) + ||w||2 dove x R; `e un polinomio di grado 2 in x perch`e v 6= 0.
Siccome (, ) `e definita positiva abbiamo che

0 (xv + w, xv + w) = x2 ||v||2 + 2x(v, w) + ||w||2 .

Se il polinomio p(x) avesse due radici reali distinte x1 , x2 allora siccome il suo coefficiente direttore
`e positivo avremmo p() < 0 per ogni x1 < < x2 , contraddizione. Quindi p(x) non ha due radici
reali distinte e perci`
o il suo discriminante `e non-positivo:

4(v, w)2 4||v||2 ||w||2 0.

12
Quindi (v, w)2 ||v||2 ||w||2 e questo dimostra che vale (5.4). Se il discriminante `e nullo allora
esiste x0 tale che p(x0 ) = 0 ovvero ||x0 v + w|| = 0, quindi x0 v + w = 0 e perci`o v, w sono
linearmente dipendenti. Se daltra parte v, w sono linearmente dipendenti si vede subito che (5.4)
`e una eguaglianza.

Esempio 5.7. La diseguaglianza di Schwartz per Rn con il prodotto scalare standard (vedi Esempio
a che per x1 , . . . , xn , y1 , . . . , yn R si ha
5.1) d`
n
X n
X Xn
| xi yi | ( x2i )1/2 ( yi2 )1/2 (5.5)
i=1 i=1 i=1

e che luguaglianza vale se e solo se xi yj xj yi = 0 per ogni 1 i, j n. La diseguaglianza di


Schwartz per C 0 ([a, b]) con il prodotto L2 definito in Esempio 5.2 d`a che
Z Z 1/2 Z 1/2
b
2 2
f (x)g(x)dx f (x) dx g(x) dx (5.6)


a

Dalla diseguaglianza di Cauchy-Schwartz segue la cosiddetta diseguaglianza triangolare:

||v + v|| ||v|| + ||w||. (5.7)

Infatti

||v+w||2 = ||v||2 +2(v, w)+||w||2 ||v||2 +2|(v, w)|+||w||2 ||v||2 +2||v||||w||+||w||2 = (||v||+||v||)2

e da qui segue subito (5.7). Definiamo langolo tra v e w come il [0, ] tale che

(v, w) = ||v|| ||w|| cos . (5.8)

(Se uno tra v, w `e nullo langolo `e indeterminato.) Notate che questo ha senso solo grazie alla
diseguaglianza di Cauchy-Schwartz. Le definizioni date riproducono lusuale distanza e angolo tra
vettori geometrici nel caso in cui V sia V 2 o V 3 .
Esempio 5.8. Sia V = C 0 ([0, 1]) con il prodotto euclideo dellEsempio 5.2. Langolo tra le
funzioni polinomiali 1 e x `e uguale a /6 perch`e
Z 1
(1, x)L2 = xdx = 1/2, ||1||L2 = 1, ||x||L2 = 1/ 3
0

e quindi (5.8) d`
a che cos = 3/2.
La seguente definizione risponde alla domanda: quando `e che due spazi euclidei (V1 , 1 ), (V2 , 2 )
sono a tutti gli effetti indistinguibili ?

Definizione 5.9. Siano (V, ) e (W, ) spazi vettoriali euclidei. Una f : V W `e una isometria
se `e lineare invertibile e per ogni coppia di vettori v1 , v2 V si ha che

(v1 , v2 ) = (f (v1 ), f (v2 )).

Si verifica facilmente che la composizione di isometrie `e una isometria, che linversa di una
isometria `e una isometria. Spazi vettoriali euclidei (V, ) e (W, ) sono isometrici se esiste una
isometria f : V W . La relazione di isometria `e di equivalenza per le propriet`a delle isometrie
che abbiamo appena menzionato. Due spazi vettoriali euclidei isometrici sono indistinguibili se
guardiamo solo alle loro propriet`
a metriche.

13
Osservazione 5.10. Supponiamo che (V, ), (W, ) siano spazi vettoriali euclidei e f : V W sia
una isometria. Allora
||v||V = ||f (v)||W v V. (5.9)
Viceversa se f : V W `e lineare e vale (5.9) allora `e una isometria: questo segue subito dalla
formula di polarizzazione (3.8).
Sia (V, ) uno spazio vettoriali euclideo. Il gruppo ortogonale O(V ) `e linsieme delle isometrie
f : V V di V in s`e stesso. Si chiama gruppo perch`e contiene lidentit`a IdV , se contiene f contiene
anche linversa f 1 e perch`e `e chiuso per composizione.
Osservazione 5.11. Sia (V, ) uno spazio vettoriale euclideo finitamente generato e sia n := dimR V .
Sia B una base di V e M = MB () la matrice associata a . Sia f : V V un isomorpfismo e
A := MBB (f ) la matrice associata a f . Allora f O(V ) se e solo se

At M A = M. (5.10)

In particolare se V = Rn e `e il prodotto euclideo standard allora A O(Rn ) se e solo se

At A = 1n . (5.11)

Le matrici che soddisfano (5.11) si chiamano ortogonali. Osserviamo che (5.10) e Binet danno che
(det A)2 det M = det M . Per il Lemma 5.5 abbiamo det M 6= 0 e quindi segue che det A = 1. In
parole: una trasformazione che lascia invariate le distanze lascia invariati i volumi.
Il gruppo ortogonale speciale `e

SO(V ) := {f O(V ) | det f = 1}. (5.12)

Esempio 5.12. Sia R e


R
R2
R2
(5.13)
 
cos sin
X 7 X
sin cos
Si verifica facilmente che R SO(R2 ) e che ogni elemento di SO(R2 ) `e di questo tipo.
Esempio 5.13. La trasposizione
Mn,n (R) Mn,n (R)
A 7 At
`e una isometria se diamo a Mn,n (R) il prodotto euclideo dellEsempio 3.10.
Faremo vedere che uno spazio vettoriale euclideo di dimensione n `e isometrico a Rn con il
prodotto scalare standard. Prima introduciamo una definizione.
Definizione 5.14. Sia (V, (, )) uno spazio vettoriale euclideo finitamente generato di dimensione
n. Una base {v1 , . . . , vn } di V `e ortonormale se (vi , vj ) = ij 1 per ogni 1 i, j n.
Lemma 5.15. Sia (V, (, )) uno spazio vettoriale euclideo finitamente generato. Esiste una base
ortonormale di V .
Dimostrazione. Immediata conseguenza del Teorema 3.11.

Supponiamo che B := {v1 , . . . , vn } sia una base ortonormale di uno spazio vettoriale euclideo
(V, ). Dato v V sia X(v) il vettore colonna delle coordinate di v nella base B. Allora MB () =
1n e quindi lapplicazione lineare invertibile
F B
V Rn
v 7 X(v)
1 Il simbolo di Kronecker ij `
e uguale a 1 se i = j e a 0 altrimenti.

14
`e una isometria. Questo dimostra che V `e isometrico a Rn con il prodotto scalare standard. Per
il Lemma 5.15 uno spazio vettorielae euclideo di dimensione n `e isometrico a Rn con il prodotto
euclideo standard; per transitivit`
a della relazione di isometria segue che due spazi vettoriali euclidei
finitamente generati della stessa dimensione sono isometrici.
Osservazione 5.16. Sia (V, (, )) uno spazio vettoriale euclideo finitamente generato di dimensione
n. Siano B e C basi di V e supponiamo che B sia ortonormale. La matrice del cambiamento di
base A := MCB (IdV ) `e ortogonale (vedi Osservazione 5.11) se e solo se C `e anchessa una base
ortonormale. Infatti siccome B `e ortonormale si ha che

(v, w) = X(v)t X(w)

dove v, w V e X(v), X(w) sono i vettori colonna delle coordinate di v e w. La matrice A ha per
colonne A1 , . . . , An i vettori delle coordinate degli elementi di C; quindi C `e ortonormale se e solo se

Ati Aj = ij .

Le equazioni sopra scritte equivalgono alla condizione At A = 1n cio`e A ortogonale.

6 Il teorema spettrale
Supponiamo che (V, (, )) sia uno spazio vettoriale euclideo finitamente generato e che q Q(V ) sia
una forma quadratica. Sappiamo che esiste una base B in cui q `e diagonale, possiamo chiederci se
esiste una tale B ortonormale. La risposta `e affermativa e va sotto il nome di Teorema spettrale
(spiegheremo pi`u in l`
a lorigine del nome).

Teorema 6.1 (Teorema spettrale, 1o enunciato). Sia (V, (, )) uno spazio vettoriale euclideo finita-
mente generato di dimensione n e q : V R una forma quadratica. Esiste una base ortonormale
B = {v1 , . . . , vn } di V che diagonalizza q, cio`e tale che
n
X
q(x1 v1 + . . . + xn vn ) = i x2i . (6.1)
i=1

Prima di dimostrare il teorema ne daremo una versione diversa e qualche applicazione. Sia
(V, (, )) come nel Teorema 6.1 e T : V V un endomorfismo di V . Associamo a T la forma
bilineare T : V V R definita cos`:

T (v, w) := (T (v), w). (6.2)

Supponiamo che B = {v1 , . . . , vn } sia una base di V . Sia X(v) il vettore colonna delle coordinate
di v V relative alla base B. Sia M la matrice associata a (, ) dalla scelta della base B. Allora

T (v, w) = (T (v), w) = (MBB (T ) X(v))t M X(w) = X(v)t MBB (T )t M X(w).

Quindi
MB (T ) = MBB (T )t M. (6.3)
Notate che se B `e una base ortonormale allora M = 1n e la formula diventa

MB (T ) = MBB (T )t se B `e una base ortonormale. (6.4)

` chiaro dalla formula (6.4) (o anche da (6.3)) che data una forma bilineare
Osservazione 6.2. E
: V V R esiste una e una sola applicazione lineare T tale che T = .

15
Data unapplicazione lineare T : V V esiste una unica T : V V lineare, laggiunta di T ,
tale che
(T (v), w) = (v, T (w)) v, w V. (6.5)
Infatti per il Lemma 5.5 M `e invertibile e quindi si ha

(T (v), w) = X(v)t M (M 1 MBB (T )t M ) X(w).

Dunque
MBB (T ) = M 1 MBB (T )t M. (6.6)
Osservazione 6.3. La formula (6.6) d` a che se B `e una base ortonormale allora la matrice dellaggiunta
di T `e la trasposta della matrice di T .
Ora facciamo una semplice (ma importante) osservazione.
Osservazione 6.4. Lapplicazione bilineare T `e simmetrica se e solo se T = T cio`e T `e autoag-
giunta. Questo segue da (6.3) e (6.6) e un facile conto (scegliendo B ortonormale si rende il conto
del tutto banale). Supponiamo che T = T : vediamo che T `e simmetrica direttamente (senza
ricorrere alla scelta di una base) cos`:

T (v, w) = (T (v), w) = (v, T (w)) = (T (w), v) = T (w, v). (6.7)

(La seconda uguaglianza vale perch`e T `e autoaggiunta, la terza perch`e (, ) `e simmetrica.) La morale
`e che in presenza di un prodotto euclideo su V possiamo identificare lo spazio vettoriale Bil+ (V )
delle forme bilineari simetriche su V con lo spazio vettoriale degli endomorpfismi di V .

Teorema 6.5 (Teorema spettrale, 2o enunciato). Sia (V, (, )) uno spazio vettoriale euclideo finita-
mente generato e T : V V unapplicazione lineare autoaggiunta. Esiste una base ortonormale di
V che diagonalizza T

Perch`e Teorema spettrale? Il nome non deriva dalla presenza di fantasmi ma dal fatto che
linsieme degli autovalori di unapplicazione `e il cosiddetto spettro dellapplicazione.
Dimostriamo che il Teorema 6.5 `e equivalente al Teorema 6.1,cio`e il Teorema 6.1 vale se e
solo se vale il Teorema 6.5. Supponiamo che valga il Teorema 6.1. Sia T : V V unapplicazione
lineare autoaggiunta. La forma bilineare T `e simmetrica - vedi l Osservazione 6.4 - e quindi
per il Teorema 6.1 esiste una base ortonormale B tale che MB (T ) `e diagonale. Lequazione (6.4)
d`a che T `e diagonalizzata nella base ortonormale B. Abbiamo dimostrato che se vale il Teorema
6.1 allora vale anche il Teorema 6.5. Ora assumiamo che valga il Teorema 6.5. Sia q : V R
una forma quadratica e : V V R lunica forma bilineare simmetrica con forma quadratica
associata q, cio`e tale che q = q. Per l Osservazione 6.2 esiste unapplicazione lineare T (ed `e
unica) tale che T = . Per l Osservazione 6.4 la T `e autoaggiunta e quindi per il Teorema 6.5
esiste una base ortonormale B tale che MBB (T ) sia diagonale. Per (6.4) segue che q `e diagonalizzata
dalla base ortonormale B.
Osservazione 6.6. I 1 , . . . , n che appaiono nel Teorema 6.1 sono gli autovalori dellapplicazione
autoaggiunta associata alla forma quadratica q e quindi sono determinati a meno dellordine da q.
Prima di dimostrare il Teorema spettrale ne diamo alcune applicazioni. Supponiamo che A
Mn,n (R) sia simmetrica. Consideriamo Rn come spazio vettoriale euclideo con prodotto euclideo
quello standard cio`e (X, Y ) = X t Y . Allora lapplicazione LA `e autoaggiunta (vedi l Osservazione
6.3) e quindi per il Teorema 6.5 si diagonalizza in una base ortonormale. Questo `e sicuramente un
risultato non banale. Traducendo nel linguaggio delle matrici: esiste una matrice n n ortogonale
S tale che := S 1 A S `e diagonale. Notiamo che siccome S `e ortogonale S 1 = S t e quindi
= S 1 A S = S t A S, cio`e la stessa S d`a il cambio di base (ortonormale) che diagonalizza la
forma bilineare simmetrica associata ad A.

16
Tabella 3: Equazione canonica delle coniche in E2

Equazione canonica Nome

x21 x22
a21
+ a22
1 = 0, a1 a2 > 0 ellisse

x21 x22
a21
+ a22
+ 1 = 0, a1 a2 > 0 ellisse complessa
coniche non-degeneri
x21 x22
a21
a22
1 = 0, a1 a2 > 0 iperbole

kx21 x2 = 0, k 0 parabola

x21 x22
a21
+ a22
= 0, a1 a2 > 0 coppia di rette complesse coniugate

x21 x22
a21
a22
= 0, a1 a2 > 0 coppia di rette incidenti
coniche degeneneri
x21
a21
1 = 0, a1 > 0 coppia di rette parallele

x21 = 0 retta doppia

Un risultato notevole che segue dal Teorema 6.1 `e la seguente classificazione metrica delle
coniche e delle quadriche.

Proposizione 6.7. Sia C una conica nel piano euclideo. Esiste un sistema di riferimento affine
RC(O, x1 , x2 ) tale che C abbia per equazione cartesiana una delle equazioni in forma canonica della
Tabella (3). Lequazione cartesiana canonica di C `e (appunto) unica.

Dimostrazione. Siano RC(O, x1 , x2 ) e RC(O0 , y1 , y2 ) sistemi di riferimeno cartesiani in E2 . Allora


esistono una matrice 2 2 ortogonale A e un vettore colonna B M2,1 (R) tali che per ogni
p E2 si abbia X(p) = A Y (p) + B. La proposizione si dimostra copiandola dimostrazione
della Proposizione 6.7, la differenza `e che anzich`e invocare il Teorema 3.11 si deve invocare
il Teorema 6.1.

Esiste un analogo risultato per le quadriche nello spazio.


Dimostrazione del Teorema spettrale. Per motivare la dimostrazione consideriamo R2 con il prodotto
euclideo standard e la forma quadratica diagonale q(x1 , x2 ) = x21 /a21 + x22 /a22 dove a1 > a2 > 0.
Lapplicazione lineare autoaggiunta T associata a q (vedi l Osservazione 6.4) `e diagonale con
autovettori (1, 0) e (0, 1). Ora consideriamo lellisse E nel piano di coordinate cartesiane (x1 , x2 )
definito da
E := {x1 , x2 | x21 /a21 + x22 /a22 = 1}.
Gli autovettori (a1 , 0) e (0, a2 ) di T sono le coordinate dei vertici rispettivamente pi`
u e meno
2
eccentrico di E ovvero tali che F (X)/||X|| `e rispettivamente minimizzato e massimizzato. Con
questo esempio in mente consideriamo la forma quadratica q associata alloperatore autoaggiunto
T e lapplicazione

V \ {0} R
v 7 q(v)/||v||2
Dimostriamo che ammettte massimo. Scegliendo una isometria di V con Rn (con prodotto euclideo
standard) ci riduciamo al caso in cui V `e Rn con il prodotto euclideo standard. Sia Fn Rn la

17
frontiera delln cubo standard, cio`e

Fn := {X Rn | |xi | 1 per ogni i e |xi0 | = 1 per un i0 (almeno)}.

Ora ponimao n = 2. La F2 `e unione di 4 segmenti chiusi e limitati, siccome la funzione (X) =


q(X)/||X||2 `e continua su R2 \ {0} segue per il Teorema di Bolzano-Weierstrass che la restrizione
di a F2 ammette massimo. Un analogo ragionamento d`a che la restrizione di a Fn ammette
massimo per ogni n - va usato lanalogo di Bolzano-Weierstrass in dimensione arbitraria: se f `e una
funzione continua da [a1 , b1 ] [a2 , b2 ] . . . [an , bn ] Rn a R 2 allora esiste un massimo di f . Ora
notiamo che se la restrizione di a Fn ha un massimo in X0 allora f (X0 ) `e il massimo di . Per
questo basta dimostrare che i valori di sono gli stessi dei valori di |Fn ; infatti dato X (Rn \ {0})
sia m il massimo tra |x1 |, |x2 |, . . . , |xn |, allora

(X) = q(X)/||X||2 = m2 q(m1 X)/m2 ||m1 X||2 = q(m1 X)/||m1 X||2 = (m1 X).

Siccome m1 X Fn segue che i valori di sono gli stessi dei valori di |Fn . Quindi abbiamo
dimostrato che ammettte massimo. Ora torniamo a considerare V (non `e necessario identificarlo
con Rn per quello che segue). Consideriamo un operatore autoaggiunto T e la forma bilineare
simmetrica associata T data da T (v, w) = (T v, w) e anche la forma quadratica associata qT
data da qT (v) = (T v, v). Sia v0 V e consideriamo la funzione qT (v0 + sv) dove v V ; siccom `e
un polinomio `e differenzabile in s = 0 e precisamente si ha che
d
qT (v0 + sv)|s=0 = 2T (v0 , v) = 2(T v0 , v). (6.8)
ds
d d
In particolare se T = IdV cio`e qT (v) = ||v||2 allora ds qT (v0 + sv)|s=0 = 2(v0 , v) e perci`o ds qT (v0 +

sv)|s=0 = 0 se v v0 . Ora osserviamo che se v0 6= 0 allora (v0 +sv) `e una funzione differenziabile
di s per s ] , [ perch`e `e quoziente di funzioni (con denominatore mai nullo) differenziabili e
quindi `e differenziabile. Supponiamo che v0 (V \ {0} e che q(v0 ) sia il massimo della funzione
. Sia v v0 dove lortogonalit` a `e rispetto al prodotto euclideo. Siccome la funzione di s data da
(v0 + sv) ha un massimo per s = 0 abbiamo che

d
0= (v0 + sv)|s=0 = 2(T v0 , v)/||v0 ||2 .
ds
Questo dimostra che se v v0 (ortogonalit`a `e rispetto al prodotto euclideo) allora (T v0 , v) = 0
ovvero che T v0 (v0 ) . Siccome (v0 ) = hv0 i segue che T v0 = v0 cio`e v0 `e un autovettore di
T . Abbiamo fatto il passo fondamentale nella dimostrazione del Teorema spettrale. A questo punto
possiamo procedere per induzione sulla dimensione di V . Se dim V = 1 lenunciato del teorema `e
banalmente vero. Per il passo induttivo basta notare che T (v0 ) v0 perch`e se v v0 allora

(T v, v0 ) = (v, T v0 ) = (v, v0 ) = (v, v0 ) = 0.

La restrizione di T a v0 `e autoaggiunta e ovviamente le restrizione di (, ) a v0 `e un prodotto


euclideo. Qundi per ipotesi induttiva esiste una base ortonormale B0 che diagonalizza la restrizione
di T a v0 ; aggiungendo v0 ai vettori di B0 otteniamo una base ortonormale di V che diagonalizza
T.

2 Una funzione da un sottoinsieme S Rn a R ` e continua dati X0 S e 0 <  esiste 0 < tale che ||f (X)
(f (X0 )|| <  per ogni X S tale che ||X X0 || < .

18

Potrebbero piacerti anche