Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
1
0
p(t)q(t)dt d`a una forma bilineare simme-
trica su R[t].
(2) Ogni matrice A M(n n, K) d`a luogo a una forma bilineare f
A
su K
n
in
questo modo: se X =
t
(x
1
, . . . , x
n
) e Y =
t
(y
1
, . . . , y
n
), f
A
(X, Y ) :=
t
XAY.
In particolare, se K = R e A = I
n
, f
A
risulta essere il prodotto scalare standard
su R
n
.
(3) Sia V uno spazio vettoriale di dimensione n sul campo K, e sia B = (v
1
, . . . , v
n
)
una sua base; ogni matrice A M(n n, K) d`a luogo a una forma bilineare f
A
in
questo modo: se v, w V , e [v]
B
= X =
t
(x
1
, . . . , x
n
), [w]
B
= Y =
t
(y
1
, . . . , y
n
),
allora f
A
(X, Y ) :=
t
XAY.
6.4 Proposizione. f
A
`e simmetrica se e solo se la matrice A `e simmetrica.
Dimostrazione. Se
t
A = A, si ha
f
A
(X, Y ) =
t
XAY =
t
(
t
XAY ) =
t
Y (
t
A)X =
t
Y AX = f
A
(Y, X)
(il secondo passaggio `e dovuto al fatto che
t
XAY `e una matrice 1 1). Laltra
implicazione si ottiene calcolando f
A
sui vettori della base canonica: f
A
(e
i
, e
j
) =
1
2
t
e
i
Ae
j
= a
ij
, ma anche f
A
(e
i
, e
j
) = f
A
(e
j
, e
i
) =
t
e
j
Ae
i
= a
ji
, quindi A `e simme-
trica.
6.5 Proposizione. Sia V uno spazio vettoriale di dimensione n sul campo K, e
sia B = (v
1
, . . . , v
n
) una sua base; ogni forma bilineare simmetrica f `e del tipo f
A
se A M(n n, K) `e denita come a
ij
:= f(v
i
, v
j
).
Scriveremo A = M
B
(f), e diremo che A rappresenta la forma bilineare f in
base B, o che A `e associata a f rispetto a B.
Dimostrazione. Sia A la matrice denita da a
ij
:= f(v
i
, v
j
), e siano v, w V con
[v]
B
= X, [w]
B
= Y . Allora per denizione si ha:
f(v, w) = f(x
1
v
1
+ +x
n
v
n
, y
1
v
1
+ +y
n
v
n
) =
n
1
x
i
f(v
i
, y
1
v
1
+ +y
n
v
n
) =
n
i,j=1
x
i
y
j
f(v
i
, v
j
) =
n
i,j=1
x
i
y
j
a
ij
=
t
XAY = f
A
(X, Y ).
6.6 Come avviene per gli operatori, si pone il problema di confrontare le matrici
associate a una forma bilineare f rispetto a due basi diverse B, B
di V . Il legame
`e il seguente:
M
B
(f) =
t
PM
B
(f)P
dove P = M(B, B
; infatti siano
v, w V : se poniamo [v]
B
= X, [w]
B
= Y, [v]
B
= X
, [w]
B
= Y
, M
B
(f) =
A, M
B
(f) = A
, risulta X = PX
, Y = PY
e dunque si ha
f(v, w) =
t
XAY =
t
(PX
)A(PY
) = (
t
X
)(
t
PAP)Y
=
t
X
,
da cui si ottiene A
=
t
PAP. In questo caso le matrici A e A
=
t
PAP rappresentano la stessa
forma bilineare.
6.7 Denizione. Due matrici A, A
=
t
PAP.
Esempio. Le matrici congruenti alla matrice identit`a, cio`e del tipo
t
PP con
P GL(n, K), rappresentano il prodotto scalare standard su R
n
(vedi es. 6.3 (2)).
6.8 Denizione. Sia V uno spazio vettoriale reale. Chiameremo prodotto
scalare una forma bilineare simmetrica f che sia anche denita positiva, cio`e tale
che v ,= O, f(v, v) > 0. In genere, per un prodotto scalare useremo la notazione
v, w) invece di f(v, w).
La coppia (V, , )) viene detta spazio euclideo reale.
3
6.9 Dunque ogni matrice associata a un prodotto scalare deve avere questa pro-
priet`a (oltre a essere simmetrica): X R
n
, X ,= O,
t
XAX > 0. E viceversa, la
forma bilineare rappresentata da una matrice simmetrica A con questa propriet`a
`e un prodotto scalare. C`e un modo per vedere quando ci`o accade: la matrice A,
oltre che essere simmetrica, deve avere il determinante positivo (e dunque deve es-
sere invertibile), e positivi anche tutti i determinanti dei minori che si ottengono
cancellando, via via, lultima riga e lultima colonna, no a giungere a (a
11
). Questa
condizione `e necessaria e suciente.
6.10 Esempi. 1. A =
3 1 1
1 4 2
1 2 9
3 1
1 4
= 11, det(a
11
) = 3.
2. Consideriamo (R
4
, l), dove l `e la forma di Lorentz, cos` denita:
l(X, Y ) = x
1
y
1
+x
2
y
2
+x
3
y
3
x
4
y
4
.
Notiamo che esistono dei vettori non nulli X per cui vale l(X, X) = 0: questa `e
la principale dierenza rispetto al prodotto scalare standard su R
4
, che si esprime
dicendo che l non `e denita positiva. La forma di Lorentz dunque non `e un prodotto
scalare, infatti M
C
(l) ha determinante negativo.
3. Lintegrale descritto in 6.3(1) `e un prodotto scalare su R[t] e su R
n
[t]; infatti
se p(t) `e un polinomio non nullo, per continuit`a
1
0
p
2
(t)dt > 0.
6.11 Proposizione. Sia (V, , )) uno spazio euclideo di dimensione nita e siano
v
1
, . . . , v
r
vettori non nulli a due a due ortogonali: allora essi sono linearmente
indipendenti.
Dimostrazione. Sia a
1
v
1
+ +a
r
v
r
= O: ne segue che per ogni j,
a
1
v
1
+ +a
r
v
r
, v
j
) = O, v
j
) = 0
ma anche per ipotesi
a
1
v
1
+ +a
r
v
r
, v
j
) = a
j
v
j
, v
j
) = a
j
[[v
j
[[
2
da cui a
j
= 0, essendo v
j
,= O.
6.12 Teorema. Sia (V, , )) uno spazio euclideo di dimensione nita: ogni sua
base pu`o essere ortogonalizzata, ovvero trasformata in una base ortogonale, medi-
ante il procedimento di Gram-Schmidt.
4
Dimostrazione. Ricordiamo la nozione di proiezione di un vettore su un vettore
non nullo (cfr. [GA] capitolo 5): pr
w
v :=
v,w
w,w
w `e un multiplo di w, e vale (v
pr
w
v) w, poiche (v pr
w
v) pr
w
v.
Sia B = (v
1
, . . . , v
n
). Chiamiamo v
1
:= w
1
, e descriviamo il primo passo del
procedimento di Gram-Schmidt.
Sia w
2
:= v
2
pr
w
1
v
2
, allora w
2
,= O, altrimenti v
1
, v
2
sarebbero linearmente
dipendenti; w
2
w
1
, per cui dalla proposizione 6.11 w
1
, w
2
sono linearmente in-
dipendenti, e L(v
1
, v
2
) = L(w
1
, w
2
).
Il passo successivo `e il seguente: deniamo w
3
:= v
3
pr
w
1
v
3
pr
w
2
v
3
. Allora
w
3
,= O, altrimenti v
1
, v
2
, v
3
sarebbero linearmente dipendenti (dato che L(v
1
, v
2
) =
L(w
1
, w
2
)); w
3
w
1
e w
3
w
2
: infatti
w
3
, w
1
) = v
3
w
1
, v
3
)
w
1
, w
1
)
w
1
w
2
, v
3
)
w
2
, w
2
)
w
2
, w
1
) = v
3
, w
1
)
w
1
, v
3
)
w
1
, w
1
)
w
1
, w
1
) = 0
w
3
, w
2
) = v
3
w
1
, v
3
)
w
1
, w
1
)
w
1
w
2
, v
3
)
w
2
, w
2
)
w
2
, w
2
) = v
3
, w
2
)
w
2
, v
3
)
w
2
, w
2
)
w
2
, w
2
) = 0
per cui w
1
, w
2
, w
3
sono linearmente indipendenti dalla Proposizione 6.10, e inne
L(v
1
, v
2
, v
3
) = L(w
1
, w
2
, w
3
).
Si procede in questo modo no allultimo vettore w
n
:= v
n
pr
w
1
v
n
pr
w
n1
v
n
,
e si ha V = L(v
1
, . . . , v
n
) = L(w
1
, . . . , w
n
), dunque (w
1
, . . . , w
n
) `e la base cercata.
6.13 Corollario. Ogni spazio euclideo di dimensione nita ha basi ortonormali.
Se B = (v
1
, . . . , v
n
) `e una base ortonormale, vale v
i
, v
j
) =
ij
, e M
B
(<, >) = I.
Dimostrazione. Segue dal teorema, dividendo i vettori trovati per la loro norma.
La seconda parte `e ovvia.
6.14 Denizione. Sia (V, , )) uno spazio euclideo, e W un suo sottospazio. Il
complemento ortogonale di W `e W
:= v V/v, w) = 0 w W. La proiezione
ortogonale di V su W `e cos` denita: se v = w + u, con w W e u W
,
(v) = w.
6.15 Proposizione. Sia (V, , )) uno spazio euclideo di dimensione n, e W un
suo sottospazio. Allora W
;
inoltre la proiezione ortogonale di V su W `e una applicazione lineare.
Dimostrazione. E immediato vericare che W
`e un sottospazio vettoriale di V .
Dimostriamo ora che V = W W
. (1) W W
= O: infatti se w W sta
anche in W
k
1
a
j
w
j
+(v
k
1
a
j
w
j
): devo determinare
5
i numeri a
j
di modo che v
k
1
a
j
w
j
W
k
1
a
j
w
j
, w
i
) = 0
per ogni indice i. Per linearit`a, mi basta scegliere a
j
= v, w
j
).
(3) Siano a, b R e v
1
, v
2
V : dunque esistono w
1
, w
2
W e u
1
, u
2
W
tali
che v
1
= w
1
+u
1
, v
2
= w
2
+u
2
da cui
av
1
+bv
2
= (aw
1
+bw
2
) + (au
1
+bu
2
).
Perci`o
(av
1
+bv
2
) = aw
1
+bw
2
= a(v
1
) +b(v
2
)
che dice la linearit`a di : V W.
6.16 Proposizione. Sia V uno spazio euclideo e B = (v
1
, . . . , v
n
) una sua base
ortonormale. Allora per ogni v V , [v]
B
= (v, v
1
), . . . , v, v
n
)), e se v e w hanno
come coordinate rispetto a B i vettori X e Y , allora v, w) =
t
X Y =
n
i=1
x
i
y
i
.
Inoltre la matrice del cambiamento di base fra due basi ortonormali `e una matrice
ortogonale.
Dimostrazione. Se [v]
B
= (x
1
, . . . , x
n
), risulta
v, v
j
) = x
1
v
1
+ +x
n
v
n
, v
j
) = x
j
v
j
, v
j
) = x
j
;
nello stesso modo si dimostra laltra uguaglianza.
Sia B
= (w
1
, . . . , w
n
) unaltra base ortonormale di V . Le colonne di P :=
M(B, B
) sono X
j
= [w
j
]
B
, ma vale
t
X
j
X
k
= w
j
, w
k
) =
j,k
, perci`o P ha colonne
di norma uno e a due a due ortogonali, dunque `e una matrice ortogonale.
Su uno spazio euclideo si possono considerare i concetti di lunghezza, distanza,
angolo, come su R
n
dotato del prodotto scalare standard. Le propriet`a sono le
stesse (a motivo dellesistenza di basi ortonormali e della Proposizione 6.16), e si
possono vedere in [GA] capitolo 5.
6.17 Passiamo ora a considerare spazi vettoriali complessi, in particolare
consideriamo C
n
, su cui vorremmo denire il concetto, per esempio, di lunghezza.
Se considero C
n
come spazio vettoriale reale, ovvero se lo identico con R
2n
, di
modo che X = (x
1
, . . . , x
n
) = (a
1
+ ib
1
, . . . , a
n
+ ib
n
) = (a
1
, b
1
, . . . , a
n
, b
n
), allora
risulta
[[X[[ =
a
2
1
+b
2
1
+ +a
2
n
+b
2
n
=
x
1
x
1
+ +x
n
x
n
=
[x
1
[
2
+ +[x
n
[
2
.
Ma estendendo in modo naturale il prodotto scalare a C
n
, avrei invece [[X[[
2
=
x
2
1
+ + x
2
n
C, e quindi esisterebbero vettori non nulli, come per esempio
X = (1, i) C
2
, che hanno lunghezza nulla, il che contrasta con lidea di lunghezza.
6
Dunque il prodotto scalare va denito su C
n
di modo che la lunghezza di un
vettore continui a essere un numero reale non negativo, e non succeda lanomalia
descritta sopra: si pone perci`o (prodotto hermitiano standard in C
n
)
X Y = x
i
y
i
.
E facile dimostrare la seguente proposizione:
6.18 Proposizione. Il prodotto hermitiano standard gode delle seguenti pro-
priet`a:
(1) (aX + bZ) Y = a(X Y ) + b(Z Y ) e Y (aX + bZ) = aY X + bY Z
(linearit`a complessa o hermitiana)
(2) X Y = Y X (simmetria complessa o hermitiana)
(3) Se X ,= O, [[X[[
2
= X X = x
i
x
i
= [x
i
[
2
> 0 (denito positivo).
Notiamo in particolare che la propriet`a (2) non ci permette di applicare al prodotto
hermitiano standard la teoria delle forme bilineari simmetriche. Deniamo perci`o
un analogo complesso, le forme hermitiane.
6.19 Denizione. Sia V uno spazio vettoriale complesso. Una forma hermi-
tiana su V `e una funzione f : V V C lineare e simmetrica in senso complesso,
cio`e che soddisfa, per v, w, u V , e a, b C:
(1) f(v, w) = f(w, v)
(2) f(av +bu, w) = af(v, w) +bf(u, w)
Essa `e denita positiva se soddisfa anche
(3) Se v ,= O, [[v[[
2
= f(v, v) > 0.
6.20 Proposizione. Sia V uno spazio vettoriale complesso di dimensione n, e
sia B = (v
1
, . . . , v
n
) una sua base; ogni matrice A M(n n, C) tale che A =
t
A,
ovvero ogni matrice hermitiana, d`a luogo a una forma hermitiana f
A
in questo
modo: se
v, w V, [v]
B
= X =
t
(x
1
, . . . , x
n
), [w]
B
= Y =
t
(y
1
, . . . , y
n
),
allora f
A
(v, w) :=
t
XAY ; viceversa, ogni forma hermitiana f `e del tipo f
A
se si
sceglie a
ij
:= f(v
i
, v
j
) (risulta ovviamente che A =
t
A). Scriveremo A = M
B
(f).
Dimostrazione. Sia A una matrice hermitiana, ovvero tale che A =
t
A: verichi-
amo che f
A
soddisfa la denizione 6.21. Se [u]
B
= Z, allora f
A
(av +bu, w) =
t
(aX +bZ)AY = (a
t
X +b
t
Z)AY = a
t
XAY +b
t
ZAY = af
A
(v, w) +bf
A
(u, w).
Inoltre f
A
(Y, X) :=
t
Y AX =
t
(
t
Y AX) =
t
(
t
Y
t
AX) =
t
XAY =f
A
(X, Y ).
7
Sia poi A data da a
ij
= f(v
i
, v
j
): come nel caso reale si dimostra che f(v, w) =
f
A
(v, w); inoltre dalle propriet`a di f si ha a
ij
= f(v
i
, v
j
) = f(v
j
, v
i
) = a
ji
, perci`o
A =
t
A.
Nota. Se f `e il prodotto hermitiano standard, I = M
C
(f).
6.21 Consideriamo ora uno spazio vettoriale complesso V di dimensione n e una
forma hermitiana su V denita positiva (o prodotto hermitiano), che indichiamo
con , ): dunque, se v ,= O, v, v) `e un numero reale positivo. La coppia (V, , )) `e
detta uno spazio hermitiano. Su V possiamo considerare basi ortogonali e basi
ortonormali; per esempio, la base canonica `e una base ortonormale di C
n
con il
prodotto hermitiano standard.
6.22 Proposizione. Gli autovalori di una matrice hermitiana sono numeri reali.
Le radici del polinomio caratteristico di una matrice simmetrica reale sono reali, e
dunque sono autovalori.
Dimostrazione. Denotiamo con , ) il prodotto hermitiano standard su C
n
. Sia
M una matrice hermitiana e sia X ,= O tale che MX = X. Allora MX, X) =
X, X) = [[X[[
2
, ma anche
MX, X) =
t
(MX)X =
t
X
t
MX =
t
X(MX) = X, MX) = X, X) = [[X[[
2
,
quindi = .
Nel secondo caso, basta osservare che una matrice simmetrica reale `e una parti-
colare matrice hermitiana.
6.23 Teorema Spettrale nel caso simmetrico. (1) Se A M(n n, R) `e
simmetrica, esiste una matrice ortogonale P tale che
t
PAP = P
1
AP `e diagonale
(e viceversa).
(2) Sia V uno spazio euclideo: operatori simmetrici si diagonalizzano in base
ortonormale, ovvero esiste una base ortonormale di V formata da autovettori dellope-
ratore, e gli elementi della matrice diagonale sono i corrispondenti autovalori.
Dimostrazione. (1) Sia un autovalore di A (esiste dalla proposizione 6.22) e v
1
un suo autovettore di norma 1. Procedo per induzione su n: se n = 1, ho concluso,
perche ogni matrice 1 1 `e diagonale.
Altrimenti, estendo v
1
a una base ortonormale B = (v
1
, . . . , v
n
) di R
n
. Sia
1
v
1
.
8
Questo dice che M `e della forma
O
O N
, dove N M((n1)(n1), R) `e
una matrice simmetrica, perci`o per induzione esiste Q O(n 1) con
t
QNQ = D
diagonale. Se considero
Q O(n),
Q =
1 O
O Q
P)
Q =
t
QM
Q
`e diagonale: dunque la matrice cercata `e P :=
P
Q.
Viceversa, sia D =
t
PAP = P
1
AP: allora A = PDP
1
= PD(
t
P), quindi A
`e simmetrica.
(2) Sia T un operatore sullo spazio euclideo (V, , )) dotato di una base ortonor-
male B, e sia A una matrice simmetrica tale che A = M
B
(T). Allora esiste una
matrice ortogonale P tale che
t
PAP = P
1
AP = D `e diagonale, dunque D `e simile
ad A, perci`o rappresenta loperatore T rispetto ad unaltra base B
, e P `e la matrice
del cambiamento di base. Poiche P `e ortogonale, anche B
0 2 0
2 0 1
0 1 0
.
D ha autovalori
10
2 2
2
5 0
1 1 2
.
Esercizi.
(6.1) Scrivere la matrice che rappresenta il prodotto scalare standard di R
3
rispetto alla base B = ((1, 1, 1), (1, 1, 0), (1, 0, 0)).
Soluzione. M =
3 2 1
2 2 1
1 1 1
.
(6.2) Scrivere una base ortonormale per il sottospazio di R
3
generato dai vettori
(1, 2, 3), (1, 1, 0).
Soluzione. Uso il procedimento di Gram Schmidt per ottenere una base orto-
gonale. Sia w
1
= (1, 2, 3), e w
2
= (1, 1, 0) pr
(1,2,3)
(1, 1, 0) = (1, 1, 0)
9
(3/14)(1, 2, 3) = (11/14, 8/14, 9/14). Ora devo dividere i due vettori per la loro
norma: [[w
1
[[ =
14 e [[w
2
[[ =
266/14, e ottengo la base ortonormale cercata:
(1/
14, 2/
14, 3/
14), (11/
266, 8/
266, 9/
266).
(6.3) Dimostrare che se f `e un prodotto scalare su V , lunico vettore v con la
propriet`a: f(w, v) = 0 w V, `e il vettore nullo (detto in altri termini, V
= O).
Dimostrazione. Sia f una forma bilineare simmetrica e A una matrice che la
rappresenta. Se f `e un prodotto scalare, la matrice A `e non singolare, e quindi
lunica soluzione del sistema omogeneo Av = O `e v = O. Ma f(w, v) =
t
w(Av)
deve essere zero per ogni w, e questo `e possibile solo se Av = O, cosa che implica,
come abbiamo detto, che v = O.
(6.4) Ortonormalizzare con il procedimento di Gram-Schmidt la seguente base
di R
3
: B = ((1, 1, 1), (1, 1, 0), (4, 0, 0)).
Dimostrazione. Risulta w
1
= (1, 1, 1),
w
2
= (1, 1, 0) pr
(1,1,1)
(1, 1, 0) = (1, 1, 0) (2/3)(1, 1, 1) = (1/3, 1/3, 2/3),
w
3
= (4, 0, 0) pr
(1,1,1)
(4, 0, 0) pr
(1/3,1/3,2/3)
(4, 0, 0) = (4, 0, 0) (4/3)(1, 1, 1)
(4/3)(9/6)(1/3, 1/3, 2/3) = (4, 0, 0)(4/3, 4/3, 4/3)(2/3, 2/3, 4/3) = (2, 2, 4/3).
Dunque ottengo la base ortonormale dividendo per le norme: [[w
1
[[ =
3, [[w
2
[[ =
6/3, [[w
3
[[ = 2
3, 1/
3, 1/
3), (1/
6, 1/
6, 2/
6), (3/
11, 3/
11, 2/
11).
(6.5) Considerare R
2
[t] con il prodotto scalare dato dallintegrazione fra 0 e 1,
W = L(t
2
); calcolare W
= p(t) = a
0
+ a
1
t + a
2
t
2
/
1
0
t
2
p(t)dt = 0. La condizione
diventa:
0 =
1
0
t
2
p(t)dt = a
0
1
0
t
2
dt +a
1
1
0
t
3
dt +a
2
1
0
t
4
dt =
a
0
3
+
a
1
4
+
a
2
5
,
dunque i polinomi che compongono W
ha dimensione due, e W W
= O.
Inoltre risulta [[t
2
1[[
2
=
1
0
(t
2
1)
2
dt =
1
0
(t
4
2t
2
+ 1)dt =
1
5
2
3
+ 1 =
8
15
,
ovvero la lunghezza di t
2
1 `e
8/15.
10
(6.6) Se V = R
3
, W `e la retta passante per lorigine di direzione (1, 1, 1) e `e
la proiezione di V su W, calcolare (3, 4, 5) e (1, 1, 1).
Dimostrazione. Per denizione, W = L((1, 1, 1)) e dunque si vede subito che,
essendo (1, 1, 1) W, vale (1, 1, 1) = (1, 1, 1).
Calcoliamo W
: si ha (x, y, z) W
se x +y z = 0, ovvero se z = x +y.
Perci`o (3, 4, 5) = (k, k, k) + (x, y, x +y) da cui segue
k +x = 3, k +y = 4, k +x +y = 5
che d`a k =
2
3
perci`o (3, 4, 5) = (
2
3
,
2
3
,
2
3
).
(6.7) Dimostrare che f : C
2
C
2
C, f((z
1
, z
2
), (w
1
, w
2
)) = iz
1
w
2
iz
2
w
1
`e
una forma hermitiana. E un prodotto hermitiano?
Dimostrazione. La eventuale matrice associata sarebbe A =
0 i
i 0
, che `e
una matrice hermitiana; siccome vale
(z
1
, z
2
)
0 i
i 0
w
1
w
2
= (iz
2
, iz
1
)
w
1
w
2
=
= iz
2
w
1
+iz
1
w
2
= f((z
1
, z
2
), (w
1
, w
2
)),
f `e una forma hermitiana.
Non `e un prodotto hermitiano poiche, per esempio, f((1, 0), (1, 0)) = 0.
(6.8) Dire quali fra le seguenti sono forme bilineari simmetriche e quali forme
hermitiane:
f((x, y, z), (a, b, c)) = 3ax + 2by + 4xc 3xb
g((z
1
, z
2
), (w
1
, w
2
)) = z
1
w
1
+z
1
w
2
h(v, w) = v w, dove designa il prodotto vettoriale in R
3
.
Soluzione. h non `e ne una forma bilineare ne una forma hermitiana poiche i suoi
valori sono in R
3
.
Di f e g calcoliamo le eventuali matrici, che sono A =
3 3 4
0 2 0
0 0 0
e B =
1 1
0 0
i i
i 0
B =
1 0
0 1
C =
3 1 3i
1 + 3i 0
D =
0 2 0
2 0 1
0 1 0
.
Soluzione. Simmetriche: B, D. Hermitiane: B, C, D. Fra queste, le denite
positive (si controlla con il metodo dei determinanti) sono: C. Ortogonali: B.
(6.10) Diagonalizzare in base ortonormale la matrice A =
2 2 0
2 2 0
0 0 0
2
,
1
2
, 0), v
2
= (
1
2
,
1
2
, 0), v
3
= (0, 0, 1).
Si ottiene P =
2
1
2
0
1
2
1
2
0
0 0 1
e A
= (
t
P)AP =
4 0 0
0 0 0
0 0 0