Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Formebilineari PDF
Formebilineari PDF
Kieran G. OGrady
SapienzaUniversit`a di Roma
4 Febbraio 2011
0 Convenzioni, terminologia
k `e il campo dei reali o dei complessi.
Mn,n (k) `e lo spazio vettoriale delle matrici n n con entrate in k e 1n Mn,n (k) `e la matrice
unit`
a.
Denotiamo con A2R un piano e con A3R lo spazio in cui non misuriamo le lunghezze n`e gli
angoli- li chiamiamo piano e spazio affine.
Denotiamo con E2 un piano e con E3 lo spazio in cui misuriamo lunghezze e gli angoli, li
chiamiamo piano e spazio euclideo.
1 Introduzione
Definizione 1.1. Una forma bilineare (o applicazione bilineare) su V `e unapplicazione
: V V k
Esempio 1.2. Sia A = (aij ) una matrice in Mn,n (k). Lapplicazione A : k n k n k definita da
X
A (X, Y ) := X t A Y = aij xi yj
1i,jn
`e bilineare.
Osservazione 1.3. Se : V V k `e bilineare allora 0 = (v, 0) = (0, v) per ogni v V .
1
Sia V 2 lo spazio vettoriale reale dei vettori nel piano e {i1 , i2 } una sua base ortonormale. Dati
(x1 i1 + x2 i2 ), (x1 i1 + x2 i2 ) V 2 definiamo
In altre parole identifichiamo V 2 con R2 via la base scelta e consideriamo il caso molto particolare
di forma bilineare dellEsempio 1.2 in cui A = 12 . Abitualmente si denota (v, w) semplicemente
con (v, w). Il prodotto (, ) ha un notevole significato geometrico. Dato v V 2 denotiamo con ||v||
la lunghezza di un qualsiasi segmento orientato che rappresenta v; per il Teorema di Pitagora
Notate che a priori dovremmo fare attenzione a distinguere tra langolo tra v e w e langolo tra w
e v, sono luno lopposto dellaltro, ma siccome la funzione cos `e pari non abbiamo necessit`a di fare
attenzione, del resto `e chiaro da (1.1) che (w, v) = (v, w) e quindi... Perch`e vale (1.2) ?
e quindi (v, w) = 0. Daltra parte il membro di destra di (1.2) `e zero perch`e cos /2 = 0.
Quindi (1.2) vale se v, w sono perpendicolari.
Sia Bil(V ) linsieme delle forme bilineari su V : `e un sottoinsieme dello spazio vettoriale delle funzioni
da V V k, si verifica facilmente che `e un sottospazio vettoriale e quindi ee uno spazio vettriale.
Esempio 2.1. Sia A Mn,n (k) e A : k n k n k lapplicazione bilineare dellEsempio 1.2. Sia
S la base standard di k n ; allora MS (A ) = A.
La si ricostruisce dalla matrice MB () = (aij ) nel modo seguente: sia X : V k n lisomorfi-
smo definito dalle coordinate associate a B; allora
X
(v, w) = X(v)t MB () X(w) = aij xi (v)xj (w). (2.2)
1i,jn
2
Viceversa data M Mn,n (k) se definiamo attraverso (2.2) abbiamo una forma bilineare su V :
abbiamo definito unapplicazione biunivoca
Definizione 2.2. Si verifica facilmente che lapplicazione `e lineare e quindi `e un isomorfismo. Due
matrici M1 , M2 Mn,n (k) sono congruenti se siste A GLn (K) tale che M2 = At M1 A.
Questo dimostra la (2.4). Quindi le matrici associate alla stessa forma bilineare su V sono con-
gruenti. Viceversa se A Mn,n `e congruente a MB () esiste una base C tale che MC () = A.
Siccome matrici congruenti hanno lo stesso rango ha senso porre la seguente definizione.
Definizione 2.3. Sia una forma bilineare su V . Il rango r() di `e il rango della matrice MB ()
associata a in una qualsiasi base B di V . La `e non-degenere se ha rango uguale a dim V .
3 Forme quadratiche
Sia V uno spazio vettoriale finitamente generato di dimensione n. Sia f : V k una funzione. Sia
B = {v1 , . . . , vn } una base di V . Supponiamo che esista un polinomio P (x1 , . . . , xn ) tale che
Sia ora C = {w1 , . . . , wn } unaltra base di V ; esiste un polinomio Q(y1 , . . . , yn ) tale che
Infatti sia A = (aij ) la matrice che d` a le coordinate (x1 , . . . , xn ) di v nella base Ba partire dalle
Pn
coordinate (y1 , . . . , yn ) di v nella base C cio`e tale che valga xi = j=1 aij xj . Sostituendo questa
espressione nella (3.1) otteniamo che
n
X n
X
f (y1 w1 + . . . + yn wn ) = P ( a1j xj , . . . , anj xj )
j=1 j=1
e la funzione a destra `e chiaramente polinomiale. Inoltre vediamo che se P `e una funzione polino-
miale omogenea di grado d anche Q lo `e. Quindi ha senso porre la seguente definizione.
Definizione 3.1. Una funzione f : V k `e polinomiale se data una base B di V vale (3.1) con P
polinomio. Se P `e omogeneo di grado d o nullo f si dice omogenea di grado d. Una forma quadratica
su V `e una funzione q : V k polinomiale omogenea di grado 2.
3
Poniamo
Q(V ) := {q : V k | q `e una forma quadratica}. (3.2)
Notate che Q(V ) `e un sottoinsieme dello spazio vettoriale delle funzioni da V a k; `e chiaramente
un sottospazio vettoriale, in particolare uno spazio vettoriale.
Sia Bil(V ). Definiamo q : V k cos`: q (v) := (v, v). Sia B = {v1 , . . . , vn } una base di
V e MB () = (aij ); la Formula (2.2) d` a che
X
q (x1 v1 + . . . + xn vn ) = aij xi xj (x1 v1 + . . . + xn vn ) V. (3.3)
1i,jn
Bil(V ) Q(V )
(3.4)
7 q
Nel passare da a q abbiamo perso informazione quindi `e naturale aspettarsi che non si possa
ricostruire da q (cio`e (3.4) non `e iniettiva).
Definizione 3.3. Sia Bil(V ).
(1) `e simmetrica se per ogni v, w V vale (v, w) = (w, v).
Questa formula ci dice che la restrizione di (3.4) a Bil+ (V ) `e un isomorpfismo di spazi vettoriali
Bil+ (V ) Q(V ). (3.6)
P
Infatti se q Q(V ) `e data da q(x1 v1 + . . . + xn vn ) = 1ijn bij xi xj lunica Bil+ (V ) tale
che q = q `e quella con matrice associata (aij ) = MB () data da
Esempio 3.5. Sia q Q(R2 ) data da q(x1 , x2 ) := x21 + 3x1 x2 2x22 . La forma bilineare simmetrica
tale che q = q `e A dove
1 3/2
A=
3/2 2
4
Come ricostruiamo a partire da q senza passare per le coordinate relative a una base ? La
bilinearit`
a e simmetria di d`
a la formula di polarizzazione
1 1
(v, w) = ((v + w, v + w) (v, v) (w, w)) = (q (v + w) q (v) q (w)). (3.8)
2 2
In parole: possiamo identificare forme bilineari simmetriche su V con forme quadratiche su V , di
conseguenza ogni risultato o definizione che riguarda forme bilineari simmetriche ha un corrispettivo
per le forme quadratiche. Un esempio: il rango r(q) di una forma quadratica `e, per definizione, il
rango dellunica forma bilineare simmmetrica tale che q = q.
Definizione 3.6. Sia una forma bilineare simmetrica su V . Sia U V un sottospazio.
Lortogonale a U `e
U := {w V | (v, w) = 0 v U }.
Se U `e generato da un singolo vettore v denotiamo U con v .
Osservazione 3.7. Se v V allora v `e il nucleo dellapplicazione lineare Lv : V k quindi `e un
sottospazio vettoriale di V (di codimensione 1 se non uguale a V ). In generale U `e lintersezione
dei perpendicolari v per v U e quindi `e un sottospazio.
Proposizione 3.8. Sia V uno spazio vettoriale finitamente generato e una forma bilineare
simmetrica non degenere su V . Se U V `e un sottospazio allora
Si verifica subito che U = ker f . Ora sia S la base standard di k a ; la matrice MSB (f ) Ma,n ha
per righe le prime a righe di MB (). Per ipotesi MB () ha rango n e quindi le sue prime a righe
(come ogni altra lista di sue righe) sono linearmente indipendenti. Siccome il rango per righe di
una matrice `e uguale al suo rango per colonne segue che il rango per colonne di MSB (f ) `e a e quindi
f `e suriettiva. Per la formula dim ker(f ) = dim V dim im(f ) segue la proposizione.
Corollario 3.9. Sia V uno spazio vettoriale finitamente generato e una forma bilineare simme-
trica non degenere su V . Se U V `e un sottospazio allora (U ) = U .
Dimostrazione. Chiaramente U (U ) . Daltra parte applicando due volte la Proposizione 3.8
otteniamo che dim U = dim(U ) e quindi U = (U ) .
S := {v V | (v, u) = 0 u U }. (3.9)
5
Teorema 3.11. Sia una forma bilineare simmetrica su V . Esiste una base B di V tale che
MB () sia diagonale:
c1 0 0
0 c2 0
MB () = . (3.10)
.. . . ..
.. . . .
0 0 cn
Se k = C possiamo assumere che per ogni 1 i n si abbia ci {0, 1}, se k = R possiamo
assumere che per ogni 1 i n si abbia ci {1, 0, 1}.
Dimostrazione. Per induzione sulla dimensione di V . Se dim V = 0, 1 il teorema `e banale. Resta da
dimostrare il passo induttivo, quindi supponiamo che il teorema valga per dim V < n e dimostriamo
che vale se dim V = n. Se = 0 allora (3.10) vale in qualsiasi base. Supponiamo che 6= 0. Allora
q 6= 0 (vedi (3.8)) e quindi esiste vn V tale che q (vn ) 6= 0. Riscalando vn possiamo assumere
che q (v1 ) = 1 se k = R e q (v1 ) = 1 se k = C. Lortogonale U := vn non `e tutto V ; infatti
vn / vn perch`e q (vn ) 6= 0. Quindi U `e un sottospazio di V di dimensione (n1). Sia : U U k
la restrizione di a U U ; chiaramente `e bilineare simmetrica. Per lipotesi induttiva esiste una
base C := {v1 , . . . , vn1 } di U tale che MC () `e diagonale con ciascuna entrata uguale a 0 o a 1
se k = C, uguale a 1 o a 0 se k = R. La base B di V data da {v1 , . . . , vn } soddisfa la tesi del
teorema.
dove r(z1 , . . . , zn1 ) e s(z1 , . . . , zn1 ) sono polinomi omogenei di grado 2 nelle z1 , . . . , zn1 . Ora
sia D = {w1 , . . . , wn } una base tale che le coordinate (y1 , . . . , yn ) associate a D sono legate alle
coordinate (z1 , . . . , zn ) dalle formule
n1
X bi
yi = zi , 1 i (n 1), yn = zn + zi .
i=1
2
6
Si ha q(y1 w1 + . . . + yn wn ) = s(y1 , . . . , yn1 ) yn2 . Sia U V il sottospazio generato da
w1 , . . . , wn1 . La formula p(y1 w1 + . . . + yn1 wn1 ) := s(y1 , . . . , yn1 ) definisce una forma qua-
dratica su U . Per lipotesi induttiva esistono una base {v1 , . . . , vn1 } di U e c1 , . . . , cn1 {0, 1}
tali che
p(x1 w1 + . . . + xn1 wn1 ) = (c1 x21 + . . . + cn1 x2n1 ).
Poniamo vn = un ; con questa scelta (3.11) `e soddisfatta.
Supponiamo che sia data una forma bilineare su V , o equivalentemente una forma quadratica
q Q(V ). Diciamo che una base B diagonalizza (equivalentemente diagonalizza q) se vale (3.10)
(equivalentemente vale (3.11)). E ` evidente dalla dimostrazione che esistono molte basi diverse
che diagonalizzano (o q) con i ci {0, 1} se k = C e i ci {0, 1} se k = R, quindi `e naturale
chiedersi se le entrate c1 , . . . , cn sulla diagonale principale della matrice in (3.10) sono univocamente
determinate (equivalentemente i coefficienti del polinomio in (3.11)). Ovviamente i ci possono essere
riordinati, dimostreremo che sono univocamente determinati da (o q) a meno di riordinamenti.
Se k = C la dimostrazione `e molto facile: basta notare che il rango di `e uguale al numero di ci
non-nulli, quindi il numero di ci uguali a 1 non dipende dalla base che diagonalizza e di conseguenza
anche il numero di ci nulli. Se k = R il ragionamento appena fatto ci d`a che il numero di ci non-nulli
non dipende dalla base diagonalizzante ma siccome alcuni ci sono uguali a 1 e altri a 1 non basta
per concludere. Diamo una definizione.
Definizione 3.13. Sia V uno spazio vettoriale reale e q : V R una forma quadratica. Diciamo
che
(1) q `e definita positiva se q(v) > 0 per ogni 0 6= v V .
s+ (q) := max{dim U V | q|U > 0}, s (q) := max{dim W V | q|W < 0}. (3.13)
La segnatura di q `e s(q) := s+ (q) s (q). Sia una forma bilineare simmetrica su V . Diciamo
che `e definita positiva (negativa) se lo `e q : in simboli > 0 o < 0. La segnatura s() di `e
quella di q .
Esempio 3.14. Il prodotto scalare su V 2 definito da (1.1) `e definito positivo. Se V `e uno spazio
vettoriale reale e q Q(V ) `e definito positivo allora q `e definito negativo. La forma quadratica
su R2 definita da q(x1 , x2 ) := x1 x2 non `e definita positiva n`e negativa, infatti q(1, 1) = 1 > 0, e
q(1, 1) = 1 < 0; segue che s+ (q) = 1 e s (q) = 1 e quindi la segnatura di q `e 0.
Proposizione 3.15 (Sylvester). Sia V uno spazio vettoriale reale e q : V R una forma quadra-
tica. Supponiamo che B = {v1 , . . . , vn } sia una base di V tale che
7
Supponiamo che la prima diseguaglianza sia stretta cio`e s+ (q) > a; arriveremo a un assurdo. Per
definizione esiste un sottospazio U V tale che dim U > a e q|U > 0. Per (3.15) la formula di
Grassmann d` a che
Corollario 3.16 (Sylvester). Sia V uno spazio vettoriale reale e Bil+ (V )una forma bilineare
simmetrica su V . Sia B una base di V che diagonalizza q e indichiamo con c1 , . . . , cn le entrate
sulla diagonale principale di MB (). Allora
|{i | ci > 0}| = (r(q) + s(q))/2, |{j | cj < 0}| = (r(q) s(q))/2. (3.17)
In particolare il numero di i tali che ci > 0 `e indipendente dalla base che diagonalizza, e analoga-
mente sono indipendenti dalla base che diagonalizza il numero di j tali che cj < 0 e il numero di i
tali che ci = 0.
Dimostrazione. Siano a := |{i | ci > 0}| e b := |{i | ci < 0}|. Allora r(q) = a + b e per
la Proposizione 3.15 s(q) = a b. Sommando e sottraendo le due uguaglianze si ottiene il
corollario.
Osservazione 3.18. (1) Due forme bilineari simmetriche 1 , 2 Bil+ (V ) sono congruenti se e
solo se le corrispondenti forme quadratiche q1 e q2 lo sono.
(3) Due forme quadratiche q1 , q2 su V sono congruenti se e solo se esistono basi B = {v1 , . . . , vn },
C = {w1 , . . . , wn } di V e bij k per 1 i j n tali che
X
q1 (x1 v1 + . . . + xn vn ) = bij xi xj (x1 v1 + . . . + xn vn ) V.
1ijn
e X
q2 (y1 w1 + . . . + yn wn ) = bij yi yj (y1 w1 + . . . + yn wn ) V.
1ijn
8
Tabella 1: Equazione canonica delle coniche in A2R
x21 x2 = 0 parabola
X = A Y + B. (4.2)
Sostituendo lespressione delle (x1 , x2 ) data sopra nella f (x1 , x2 ) abbiamo che
C = {p | f (a11 y1 (p) + a12 y2 (p) + b1 , a21 y1 (p) + a22 y2 (p) + b2 ) = 0}. (4.3)
Siccome f (a11 y1 + a12 y2 + b1 , a21 y1 + a22 y2 + b2 ) `e un polinomio di grado 2 nelle (y1 , y2 ) vediamo
che la definizione di conica `e ben posta. I risultati ottenuti sulle forme quadratiche daranno forme
canoniche affini per le coniche.
Proposizione 4.1. Sia C una conica nel piano. Esiste un sistema di riferimento affine RA(O, x1 , x2 )
tale che C abbia per equazione cartesiana una delle equazioni in forma canonica della Tabella (1).
Lequazione cartesiana canonica di C `e (appunto) unica.
Dimostrazione. Siano (x1 , x2 ) coordinate cartesiane nel piano. Supponiamo che C sia data da (4.1)
e scriviamo
f (x1 , x2 ) = q(x1 , x2 ) + x1 + x2 + (4.4)
dove q `e una forma quadratica non nulla. Quindi esiste una matrice simmetrica M M2,2 (R) non
nulla tale che
q(x1 , x2 ) = X t M X. (4.5)
9
Ora siano (y1 , y2 ) coordinate rispetto a un nuovo sistema di coordinate cartesiane; esistono una
matrice invertibile A M2,2 (R) e un vettore colonna B M2,1 (R) tali che la relazione tra vecchie
e nuove coordinate di uno stesso punto `e data da (4.2). Sia
dove q 0 `e una forma quadratica non nulla. Un facile conto d`a che
g(y1 , y2 ) = Y t At M A Y. (4.7)
Per il Teorema 3.11 (vedi lOsservazione 3.12) esiste A invertibile tale che At M A sia diagonale
con entrate in {0, 1}. Quindi in un opportuno sistema di coordinate cartesiane (y1 , y2 ) abbiamo
che C ha equazione
y12 y22 + 0 y1 + 0 y2 + 0 (4.8)
oppurre
y12 + 0 y1 + 0 y2 + 0 . (4.9)
Se R `e non nullo gli zeri di f (y1 , y2 ) sono gli stessi zeri di f (y1 , y2 ), quindi possiamo assumere
che nelle equzioni (4.8) e (4.9) il coefficient di y12 sia 1. Supponiamo che C abbia equazione y12 +
y22 + 0 y1 + 0 y2 + 0 dove = 1. Si ha
Passando al sistema di coordinate (z1 , z2 ) tali che z1 = (y1 + 0 /2) e z2 = (y2 + 0 /2) lequazione
cartesiana di C diventa z12 + z22 + d = 0 dove d := (0 (0 /2)2 ( 0 /2)2 ). Se d = 0 abbiamo una
forma canonica e C `e una coppia di rette complesse coniugate oppure una coppia di rette (reali)
incidenti. Se d < 0 una equazione cartesiana di C `e
!2 !2
z z
p1 + p2 1 = 0.
|d| |d|
p
Passando a coordinate cartesiane (w1 , w2 ) date da wi := zi / |d| otteniamo una equazione in forma
canonica e vediamo che C o `e una ellisse o una iperbole. Se d > 0 otteniamo in modo simile
unequazione canonica di una iperbole oppure di una conica liscia complessa. Se C ha equazione
y12 + 0 y1 + 0 y2 + 0 si procede in modo simile. Per dimostrare che lequazione canonica `e unica
si applica la
Diamo una interpretazione alternativa della Proposizione 6.7. Cominciamo con una defini-
zione: unapplicazione f : A2R A2R `e una affinit` a (o trasformazione affine) se in coordinate affini
`e data da (4.2). Pi` u precisamente siano X = (x1 , x2 )t coordinate affini su A2R : richiediamo che
esistano A GL2 (R) e B M2,1 (R) vettore colonna tali che X(f (p)) = A X(p) + B per ogni
p A2R . (Notate che se f `e descritta in questo modo in un riferimento affine allora `e descritta in
modo analogo - con A e B diversi - in qualsiasi altro sistema di riferimento affine.) Le affinit`a inclu-
dono i movimenti rigidi ma anche le dilatazioni e altre trasformazioni che modificano gli angoli. Un
esempio tipico di trasformazione affine f tra piani diversi 1 e 2 nello spazio `e la proiezione da
un punto allinfinitocio`e f (p) `e lintersezione di 2 con lunica retta R passante per p e parallela
a una retta fissata R0 (non parallela a 1 n`e a 2 ). La Proposizione 6.7 afferma che modulo le
affinit`
a tutte le ellissi sono equivalenti, e cos` le iperboli, le parabole, etc. In altre parole se unellisse
10
Tabella 2: Equazione canonica delle quadriche non-degeneri in A3R
C2 `e ottenuta da una curva C1 applicando una affinit`a (per esempio una proiezione dallinfinito)
sappiamo che C1 `e anchessa unellisse, ma nulla di pi`u.
3
Una quadrica nelllo spazio AR `e linsieme dei punti le cui coordinate rispetto a un sistema di
coordinate affini sono le soluzioni reali di un polinomio reale f (x1 , x2 , x3 ) di grado 2
La f (x1 , x2 , x3 ) = 0 si dice equazione cartesiana di Q. Ragionando come nel caso delle coniche si
vede che la definizione ha senso, cio`e se vale (4.10) in un sistema di coordinate allora in qualsiasi
sistema di coordinate affini Q `e linsieme dei punti le cui coordinate sono gli zeridi un polinomio
di grado 2 (che dipende dal sistema di coordinate !). La dimostrazione della Proposizione 6.7 si
pu`o adattare per dare equazioni canoniche delle quadriche e per dimostrare che lequazione canonica
`e unica. Nella Tabella (2) abbiamo elencato le equazioni canoniche delle quadriche cosidette non-
degeneri, le altre (quelle cosidette degeneri) sono coni, cilindri, coppie di piani, piani doppi, rette,
punti o linsieme vuoto.
11
Il prodotto definito `e un prodotto euclideo - si chiama prodotto L2 . Restringendo (, )L2 a sottospazi
U C 0 ([a, b]) finitamente generati (per esempio lo spazio delle funzioni polinomiali su [a, b] di
grado al pi`
u n) otteniamo spazi vettoriali euclidei di dimensione finita.
Sia (V, (, )) uno spazio vettoriale euclideo. La norma di v V `e definita come
Notate che questo ha senso perch`e (v, v) 0 (la radice `e quella positiva, ovviamente).
Esempio 5.3. Sia V = C 0 ([0, 1]) con il prodotto euclideo dellEsempio 5.2. La norma della funzione
polinomiale xn `e
Z 1 1/2
||xn ||L2 = x2n dx = (2n + 1)1/2 .
0
Osservazione 5.4. Per la formula di polarizzazione (3.8) uno spazio vettoriale euclideo (V, ) `e
determinato dalla norma || || , cio`e se `e unaltro prodotto euclideo con norma associata || ||
e per ogni v V si ha che ||v|| = ||v|| allora = .
Lemma 5.5. Sia (V, ) uno spazio euclideo e supponiamo che V sia finitamente generato. Allora
`e non-degenere.
Dimostrazione. Poniamo n := dimR V . Basta osservare che siccome `e definita positiva la sua
segnatura `e n e quindi il suo rango `e n per la seconda uguaglianza di (3.17). Diamo anche una
dimostrazione diretta. Sia B una base di V e A := MB () Mn,n (R) la matrice associata a dalla
scelta di B. Supponiamo che sia degenere ovvero che A sia singolare. Allora esiste 0 6= X0 Rn
tale che A X0 = 0. Sia v V il vettore di coordinate X0 nella base B. Per (2.2) abbiamo
Siccome X0 si ha che v 6= 0 e quindi luguaglianza scritta `e contraddice lipotesi che sia definita
positiva.
Non `e chiaro a priori che la distanza cos` definita si comporti come ci aspettiamo (vale la dise-
guaglianza triangolare?). Dimostreremo che `e cos` e anche che esiste una ragionevole nozione di
angolo.
Teorema 5.6 (Diseguaglianza di Cauchy-Schwartz). Sia (V, (, )) uno spazio vettoriale euclideo.
Dati v, w V vale
|(v, w)| ||v|| ||w||. (5.4)
Luguaglianza vale se e solo se v, w sono linearmente dipendenti.
Dimostrazione. Se v = 0 il risultato `e banalmente vero quindi possiamo supporre che v 6= 0. Sia
p(x) := x2 ||v||2 + 2x(v, w) + ||w||2 dove x R; `e un polinomio di grado 2 in x perch`e v 6= 0.
Siccome (, ) `e definita positiva abbiamo che
Se il polinomio p(x) avesse due radici reali distinte x1 , x2 allora siccome il suo coefficiente direttore
`e positivo avremmo p() < 0 per ogni x1 < < x2 , contraddizione. Quindi p(x) non ha due radici
reali distinte e perci`
o il suo discriminante `e non-positivo:
12
Quindi (v, w)2 ||v||2 ||w||2 e questo dimostra che vale (5.4). Se il discriminante `e nullo allora
esiste x0 tale che p(x0 ) = 0 ovvero ||x0 v + w|| = 0, quindi x0 v + w = 0 e perci`o v, w sono
linearmente dipendenti. Se daltra parte v, w sono linearmente dipendenti si vede subito che (5.4)
`e una eguaglianza.
Esempio 5.7. La diseguaglianza di Schwartz per Rn con il prodotto scalare standard (vedi Esempio
a che per x1 , . . . , xn , y1 , . . . , yn R si ha
5.1) d`
n
X n
X Xn
| xi yi | ( x2i )1/2 ( yi2 )1/2 (5.5)
i=1 i=1 i=1
Infatti
||v+w||2 = ||v||2 +2(v, w)+||w||2 ||v||2 +2|(v, w)|+||w||2 ||v||2 +2||v||||w||+||w||2 = (||v||+||v||)2
e da qui segue subito (5.7). Definiamo langolo tra v e w come il [0, ] tale che
(Se uno tra v, w `e nullo langolo `e indeterminato.) Notate che questo ha senso solo grazie alla
diseguaglianza di Cauchy-Schwartz. Le definizioni date riproducono lusuale distanza e angolo tra
vettori geometrici nel caso in cui V sia V 2 o V 3 .
Esempio 5.8. Sia V = C 0 ([0, 1]) con il prodotto euclideo dellEsempio 5.2. Langolo tra le
funzioni polinomiali 1 e x `e uguale a /6 perch`e
Z 1
(1, x)L2 = xdx = 1/2, ||1||L2 = 1, ||x||L2 = 1/ 3
0
e quindi (5.8) d`
a che cos = 3/2.
La seguente definizione risponde alla domanda: quando `e che due spazi euclidei (V1 , 1 ), (V2 , 2 )
sono a tutti gli effetti indistinguibili ?
Definizione 5.9. Siano (V, ) e (W, ) spazi vettoriali euclidei. Una f : V W `e una isometria
se `e lineare invertibile e per ogni coppia di vettori v1 , v2 V si ha che
Si verifica facilmente che la composizione di isometrie `e una isometria, che linversa di una
isometria `e una isometria. Spazi vettoriali euclidei (V, ) e (W, ) sono isometrici se esiste una
isometria f : V W . La relazione di isometria `e di equivalenza per le propriet`a delle isometrie
che abbiamo appena menzionato. Due spazi vettoriali euclidei isometrici sono indistinguibili se
guardiamo solo alle loro propriet`
a metriche.
13
Osservazione 5.10. Supponiamo che (V, ), (W, ) siano spazi vettoriali euclidei e f : V W sia
una isometria. Allora
||v||V = ||f (v)||W v V. (5.9)
Viceversa se f : V W `e lineare e vale (5.9) allora `e una isometria: questo segue subito dalla
formula di polarizzazione (3.8).
Sia (V, ) uno spazio vettoriali euclideo. Il gruppo ortogonale O(V ) `e linsieme delle isometrie
f : V V di V in s`e stesso. Si chiama gruppo perch`e contiene lidentit`a IdV , se contiene f contiene
anche linversa f 1 e perch`e `e chiuso per composizione.
Osservazione 5.11. Sia (V, ) uno spazio vettoriale euclideo finitamente generato e sia n := dimR V .
Sia B una base di V e M = MB () la matrice associata a . Sia f : V V un isomorpfismo e
A := MBB (f ) la matrice associata a f . Allora f O(V ) se e solo se
At M A = M. (5.10)
At A = 1n . (5.11)
Le matrici che soddisfano (5.11) si chiamano ortogonali. Osserviamo che (5.10) e Binet danno che
(det A)2 det M = det M . Per il Lemma 5.5 abbiamo det M 6= 0 e quindi segue che det A = 1. In
parole: una trasformazione che lascia invariate le distanze lascia invariati i volumi.
Il gruppo ortogonale speciale `e
Supponiamo che B := {v1 , . . . , vn } sia una base ortonormale di uno spazio vettoriale euclideo
(V, ). Dato v V sia X(v) il vettore colonna delle coordinate di v nella base B. Allora MB () =
1n e quindi lapplicazione lineare invertibile
F B
V Rn
v 7 X(v)
1 Il simbolo di Kronecker ij `
e uguale a 1 se i = j e a 0 altrimenti.
14
`e una isometria. Questo dimostra che V `e isometrico a Rn con il prodotto scalare standard. Per
il Lemma 5.15 uno spazio vettorielae euclideo di dimensione n `e isometrico a Rn con il prodotto
euclideo standard; per transitivit`
a della relazione di isometria segue che due spazi vettoriali euclidei
finitamente generati della stessa dimensione sono isometrici.
Osservazione 5.16. Sia (V, (, )) uno spazio vettoriale euclideo finitamente generato di dimensione
n. Siano B e C basi di V e supponiamo che B sia ortonormale. La matrice del cambiamento di
base A := MCB (IdV ) `e ortogonale (vedi Osservazione 5.11) se e solo se C `e anchessa una base
ortonormale. Infatti siccome B `e ortonormale si ha che
dove v, w V e X(v), X(w) sono i vettori colonna delle coordinate di v e w. La matrice A ha per
colonne A1 , . . . , An i vettori delle coordinate degli elementi di C; quindi C `e ortonormale se e solo se
Ati Aj = ij .
6 Il teorema spettrale
Supponiamo che (V, (, )) sia uno spazio vettoriale euclideo finitamente generato e che q Q(V ) sia
una forma quadratica. Sappiamo che esiste una base B in cui q `e diagonale, possiamo chiederci se
esiste una tale B ortonormale. La risposta `e affermativa e va sotto il nome di Teorema spettrale
(spiegheremo pi`u in l`
a lorigine del nome).
Teorema 6.1 (Teorema spettrale, 1o enunciato). Sia (V, (, )) uno spazio vettoriale euclideo finita-
mente generato di dimensione n e q : V R una forma quadratica. Esiste una base ortonormale
B = {v1 , . . . , vn } di V che diagonalizza q, cio`e tale che
n
X
q(x1 v1 + . . . + xn vn ) = i x2i . (6.1)
i=1
Prima di dimostrare il teorema ne daremo una versione diversa e qualche applicazione. Sia
(V, (, )) come nel Teorema 6.1 e T : V V un endomorfismo di V . Associamo a T la forma
bilineare T : V V R definita cos`:
Supponiamo che B = {v1 , . . . , vn } sia una base di V . Sia X(v) il vettore colonna delle coordinate
di v V relative alla base B. Sia M la matrice associata a (, ) dalla scelta della base B. Allora
Quindi
MB (T ) = MBB (T )t M. (6.3)
Notate che se B `e una base ortonormale allora M = 1n e la formula diventa
` chiaro dalla formula (6.4) (o anche da (6.3)) che data una forma bilineare
Osservazione 6.2. E
: V V R esiste una e una sola applicazione lineare T tale che T = .
15
Data unapplicazione lineare T : V V esiste una unica T : V V lineare, laggiunta di T ,
tale che
(T (v), w) = (v, T (w)) v, w V. (6.5)
Infatti per il Lemma 5.5 M `e invertibile e quindi si ha
Dunque
MBB (T ) = M 1 MBB (T )t M. (6.6)
Osservazione 6.3. La formula (6.6) d` a che se B `e una base ortonormale allora la matrice dellaggiunta
di T `e la trasposta della matrice di T .
Ora facciamo una semplice (ma importante) osservazione.
Osservazione 6.4. Lapplicazione bilineare T `e simmetrica se e solo se T = T cio`e T `e autoag-
giunta. Questo segue da (6.3) e (6.6) e un facile conto (scegliendo B ortonormale si rende il conto
del tutto banale). Supponiamo che T = T : vediamo che T `e simmetrica direttamente (senza
ricorrere alla scelta di una base) cos`:
(La seconda uguaglianza vale perch`e T `e autoaggiunta, la terza perch`e (, ) `e simmetrica.) La morale
`e che in presenza di un prodotto euclideo su V possiamo identificare lo spazio vettoriale Bil+ (V )
delle forme bilineari simetriche su V con lo spazio vettoriale degli endomorpfismi di V .
Teorema 6.5 (Teorema spettrale, 2o enunciato). Sia (V, (, )) uno spazio vettoriale euclideo finita-
mente generato e T : V V unapplicazione lineare autoaggiunta. Esiste una base ortonormale di
V che diagonalizza T
Perch`e Teorema spettrale? Il nome non deriva dalla presenza di fantasmi ma dal fatto che
linsieme degli autovalori di unapplicazione `e il cosiddetto spettro dellapplicazione.
Dimostriamo che il Teorema 6.5 `e equivalente al Teorema 6.1,cio`e il Teorema 6.1 vale se e
solo se vale il Teorema 6.5. Supponiamo che valga il Teorema 6.1. Sia T : V V unapplicazione
lineare autoaggiunta. La forma bilineare T `e simmetrica - vedi l Osservazione 6.4 - e quindi
per il Teorema 6.1 esiste una base ortonormale B tale che MB (T ) `e diagonale. Lequazione (6.4)
d`a che T `e diagonalizzata nella base ortonormale B. Abbiamo dimostrato che se vale il Teorema
6.1 allora vale anche il Teorema 6.5. Ora assumiamo che valga il Teorema 6.5. Sia q : V R
una forma quadratica e : V V R lunica forma bilineare simmetrica con forma quadratica
associata q, cio`e tale che q = q. Per l Osservazione 6.2 esiste unapplicazione lineare T (ed `e
unica) tale che T = . Per l Osservazione 6.4 la T `e autoaggiunta e quindi per il Teorema 6.5
esiste una base ortonormale B tale che MBB (T ) sia diagonale. Per (6.4) segue che q `e diagonalizzata
dalla base ortonormale B.
Osservazione 6.6. I 1 , . . . , n che appaiono nel Teorema 6.1 sono gli autovalori dellapplicazione
autoaggiunta associata alla forma quadratica q e quindi sono determinati a meno dellordine da q.
Prima di dimostrare il Teorema spettrale ne diamo alcune applicazioni. Supponiamo che A
Mn,n (R) sia simmetrica. Consideriamo Rn come spazio vettoriale euclideo con prodotto euclideo
quello standard cio`e (X, Y ) = X t Y . Allora lapplicazione LA `e autoaggiunta (vedi l Osservazione
6.3) e quindi per il Teorema 6.5 si diagonalizza in una base ortonormale. Questo `e sicuramente un
risultato non banale. Traducendo nel linguaggio delle matrici: esiste una matrice n n ortogonale
S tale che := S 1 A S `e diagonale. Notiamo che siccome S `e ortogonale S 1 = S t e quindi
= S 1 A S = S t A S, cio`e la stessa S d`a il cambio di base (ortonormale) che diagonalizza la
forma bilineare simmetrica associata ad A.
16
Tabella 3: Equazione canonica delle coniche in E2
x21 x22
a21
+ a22
1 = 0, a1 a2 > 0 ellisse
x21 x22
a21
+ a22
+ 1 = 0, a1 a2 > 0 ellisse complessa
coniche non-degeneri
x21 x22
a21
a22
1 = 0, a1 a2 > 0 iperbole
kx21 x2 = 0, k 0 parabola
x21 x22
a21
+ a22
= 0, a1 a2 > 0 coppia di rette complesse coniugate
x21 x22
a21
a22
= 0, a1 a2 > 0 coppia di rette incidenti
coniche degeneneri
x21
a21
1 = 0, a1 > 0 coppia di rette parallele
Un risultato notevole che segue dal Teorema 6.1 `e la seguente classificazione metrica delle
coniche e delle quadriche.
Proposizione 6.7. Sia C una conica nel piano euclideo. Esiste un sistema di riferimento affine
RC(O, x1 , x2 ) tale che C abbia per equazione cartesiana una delle equazioni in forma canonica della
Tabella (3). Lequazione cartesiana canonica di C `e (appunto) unica.
17
frontiera delln cubo standard, cio`e
(X) = q(X)/||X||2 = m2 q(m1 X)/m2 ||m1 X||2 = q(m1 X)/||m1 X||2 = (m1 X).
Siccome m1 X Fn segue che i valori di sono gli stessi dei valori di |Fn . Quindi abbiamo
dimostrato che ammettte massimo. Ora torniamo a considerare V (non `e necessario identificarlo
con Rn per quello che segue). Consideriamo un operatore autoaggiunto T e la forma bilineare
simmetrica associata T data da T (v, w) = (T v, w) e anche la forma quadratica associata qT
data da qT (v) = (T v, v). Sia v0 V e consideriamo la funzione qT (v0 + sv) dove v V ; siccom `e
un polinomio `e differenzabile in s = 0 e precisamente si ha che
d
qT (v0 + sv)|s=0 = 2T (v0 , v) = 2(T v0 , v). (6.8)
ds
d d
In particolare se T = IdV cio`e qT (v) = ||v||2 allora ds qT (v0 + sv)|s=0 = 2(v0 , v) e perci`o ds qT (v0 +
sv)|s=0 = 0 se v v0 . Ora osserviamo che se v0 6= 0 allora (v0 +sv) `e una funzione differenziabile
di s per s ] , [ perch`e `e quoziente di funzioni (con denominatore mai nullo) differenziabili e
quindi `e differenziabile. Supponiamo che v0 (V \ {0} e che q(v0 ) sia il massimo della funzione
. Sia v v0 dove lortogonalit` a `e rispetto al prodotto euclideo. Siccome la funzione di s data da
(v0 + sv) ha un massimo per s = 0 abbiamo che
d
0= (v0 + sv)|s=0 = 2(T v0 , v)/||v0 ||2 .
ds
Questo dimostra che se v v0 (ortogonalit`a `e rispetto al prodotto euclideo) allora (T v0 , v) = 0
ovvero che T v0 (v0 ) . Siccome (v0 ) = hv0 i segue che T v0 = v0 cio`e v0 `e un autovettore di
T . Abbiamo fatto il passo fondamentale nella dimostrazione del Teorema spettrale. A questo punto
possiamo procedere per induzione sulla dimensione di V . Se dim V = 1 lenunciato del teorema `e
banalmente vero. Per il passo induttivo basta notare che T (v0 ) v0 perch`e se v v0 allora
2 Una funzione da un sottoinsieme S Rn a R ` e continua dati X0 S e 0 < esiste 0 < tale che ||f (X)
(f (X0 )|| < per ogni X S tale che ||X X0 || < .
18