Sei sulla pagina 1di 3

MATRICI ORTOGONALI E FORME QUADRATICHE

MATRICI SIMMETRICHE E ORTOGONALI


Definizione. Dati in Rn due vettori v =P(x1 , , xn ) e w = (y1 , , yn ), diciamo loro prodotto scalare il
n
numero reale (x1 , , xn ) (y1 , , yn ) = i=1 xi yi . Se identifichiamo v e w come vettori colonna di Rn,1
possiamo scrivere
v w =t vw
Questo prodotto ha le stesse proprieta riscontrate nel caso n = 2, 3, come si verifica facilmente in base
alla definizione:
1) v w = w v
2) (mv) w = v (mw) = m(v w)
3) u (v + w) = u v + u w
Pn
4) v v = i=1 vi 2 0, per ogni v e v v = 0 se e solo se v = 0
In analogia con quanto accade nello spazio della geometria (n = 2, 3) diremo che in Rn due vettori
v, w
sono ortogonali se v w = 0; definiamo inoltre modulo o norma di un vettore v il numero kvk = v v =
Pn
1
( i=1 vi 2 ) 2 .
Teorema. La norma di un vettore soddisfa le seguenti proprieta:
positivita
kvk 0 e kvk = 0 se e solo se v = 0
omogeneita
kmvk = |m|kvk
disuguaglianza triangolare
kv + wk kvk + kwk
disuguaglianza di Cauchy-Schwartz
|v w| kvkkwk
La nozione di norma permette di definire la distanza tra due vettori:
d(v, w) = kv wk
Sia ora S Rn,n una matrice simmetrica, cioe una matrice tale che t S = S.
Proposizione. Siano v1 , v2 autovettori di una matrice simmetrica S corrispondenti a due distinti autovalori
1 , 2 ; allora v1 v2 = 0
Dimostrazione. (Sv1 ) v2 =t (Sv1 )v2 =t v1t Sv2 =t v1 (Sv2 ) = v1 (Sv2 ). Per ipotesi Sv1 = 1 v1 e
Sv2 = 2 v2 , quindi
1 v1 v2 = 2 v1 v2
Lemma. Dati m vettori non nulli v1 , , vm Rn , se sono a due a due ortogonali, allora sono linearmente
indipendenti.
Dimostrazione. Infatti moltiplicando scalarmente la relazione a1 v1 + + am vm = 0 per vi al variare di
i = 1, , m, si ottiene ai = 0 per ogni i.
1

Definizione. Una base di Rn si dice ortonormale se e costituita da vettori di norma 1 a due a due ortogonali.
Definizione. Una matriceP Rn,n si dice ortogonale se soddisfa una delle seguenti condizioni equivalenti:
(a) t P P = In
(b) P t P = In
(c) P e invertibile e P 1 =t P
Teorema. Sia S Rn,n una matrice simmetrica, allora:
(a) le radici del polinomio caratteristico di S sono tutte reali;
(b) esiste una matrice ortogonale P Rn,n tale che P 1 SP =t P SP = D, con D matrice diagonale,
avente sulla diagonale principale gli autovalori di S scritti con la dovuta molteplicita.
Classifichiamo ora le matrici ortogonali P R2,2 . Sia


p q
P =
r s
una
le sue colonne sono versori ortogonali; gli unici due versori ortogonali a
 tale matrice;

 per definizione

p
r
r
sono
e
, quindi ci sono solo due possibilita;
r
p
p




p r
p r
P =
, P =
r p
r p
Visto che deve essere p2 + r2 = 1, le due matrici hanno determinante rispettivamente 1 e 1.
Consideriamo il primo caso. E facile osservare che esiste un unico angolo tale che cos = p e sin = r,
ossia


cos sin
P =
sin cos
inoltre si ha

cos
sin

sin
cos

  

x
xcos ysin
=
y
xsin + ycos

Proposizione. Ogni matrice ortogonale di R2,2 con determinante 1 e del tipo descritto sopra e rappresenta
una rotazione nel piano di un angolo con centro nellorigine.
Proprieta. Siano A e B matrici ortogonali di Rn,n , allora A1 e AB sono ortogonali.
Dimostrazione. E noto che t (AB) =t B t A. Per ipotesi t AA = I,t BB = I, quindi t A = A1 e t (A1 )A1 =
I, cioe A e ortogonale. Inoltre t (AB)(AB) =t B t AAB =t BIB =t BB = I.
Teorema di Binet. Siano A e B matrici quadrate, allora det(AB) = (detA)(detB)
Corollario. Ogni matrice ortogonale ha determinante 1 oppure 1.
Dimostrazione. Se P t P = I si ha 1 = detI = det(P t P ) = det(t P )detP = (detP )2 , essendo det(t P ) = detP .
Definizione. Una matrice ortogonale con determinante 1 si dice speciale .
FORME QUADRATICHE
Definizione. Una forma lineare e una applicazione lineare f : Rn R.
Segue che f (x1 , , xn ) = a1 x1 + +an xn = Av, dove A R1,n e la matrice (a1 an ) che rappresenta
f e v il vettore colonna t (x1 , , xn ). Se A non e la matrice nulla, Imf = R e quindi kerf sara un
sottospazio di dimensione n 1 di Rn . Risulta quindi che f e una combinazione lineare di (x1 , , xn ).
2

Pn
Definizione. Una forma quadratica e una funzione q : Rn R del tipo q(x1 , xn ) = i,j=1 aij xi xj , cioe
una combinazione lineare di x21 , , x2n , x1 x2 , x1 x3 , univocamente determinata da una matrice simmetrica
A = (aij ).
2

Per n = 2 otteniamo q(x, y) = a11 x + 2a12 xy + a22 y , con A =

a11
a12

a12
a22

a11
Per n = 3, q(x, y, z) = a11 x2 + a22 y 2 + a33 z 2 + 2a12 xy + 2a13 xz + 2a23 yz, con A = a12
a12

a12
a22
a23

a13
a23 .
a33

In generale, q(x1 , xn ) =t vAv e la funzione q puo essere semplificata diagonalizzando A. Infatti,


visto che A e una matrice simmetrica reale, esiste una matrice ortogonale P tale che P 1 AP e una matrice
diagonale avente sulla diagonale principale gli autovalori di A.
Definizione. Lespressione q(x1 , xn ) = 1 x21 + + n x2n =t vAv con A matrice diagonale, si dice forma
canonica di q.
Segue in particolare che:
Proposizione-Definizione. Se gli autovalori di A sono tutti positivi, q(x1 , xn ) > 0 per ogni v 6= 0 e la
forma quadratica si dice definita positiva.
Se gli autovalori di A sono tutti negativi, q(x1 , xn ) < 0 per ogni v 6= 0 e la forma quadratica si dice
definita negativa.
Se gli autovalori di A sono tutti positivi o nulli, q(x1 , xn ) 0 per ogni v e la forma quadratica si
dice semidefinita positiva.
Se gli autovalori di A sono tutti negativi o nulli, q(x1 , xn ) 0 per ogni v e la forma quadratica si
dice semidefinita negativa.
La forma quadratica si dice indefinita o non definita se non vale nessuno dei casi precedenti.
Per lo studio del segno di una forma quadratica e utile la seguente:
Regola di Cartesio. Dato un polinomio di grado n in una variabile scritto per potenze crescenti (o
decrescenti) , avente coefficienti reali e tutte le radici reali, il numero delle radici positive e uguale al numero
di variazioni di segno dei coefficienti del polinomio, trascurando eventuali coefficienti nulli.