Sei sulla pagina 1di 12

Spazi vettoriali hermitiani.

1. Prodotto hermitiano, lunghezza e ortogonalit`a in C n . Consideriamo lo spazio vettoriale

C n = {x =

x

.

.

.

x

1

n

,

x 1 ,

, x n C},

con la somma fra vettori e il prodotto di un vettore per uno scalare definiti rispettivamente da

x + y :=

x 1 + y 1

.

.

.

x n + y n

,

λx :=

λx 1

.

.

.

λx n

,

x =

x

.

.

.

x

1

n

, y =

y

.

.

.

y

1

n

,

λ C.

Definizione. (Prodotto hermitiano.) Dati due vettori x e y in C n , il prodotto hermitiano `e il numero complesso

x · y := t xy = x 1 y¯ 1 +

+

x n y¯ n .

x · y

Esempio. Dati x = 2i e y =

1 + i

2

2 3i

1 i

3 i

  in C 3 , il prodotto hermitiano fra x e y `e dato da

x · y = ( 1 + i

2i

2 )

2 + 3i 1 + i

3 + i

  = (1 + i)(2 + 3i) + (2i)(1 + i) + 2(3 + i) = 7 + 5i.

fra x e y

Esempio. Se due vettori x, y C n hanno coordinate reali (ossia x = x e y = y), allora il prodotto hermitiano x · y coincide col prodotto scalare reale fra x e y.

Il prodotto hermitiano gode delle seguenti propriet`a

(i) (Propriet`a di Hermitianeit`a ) Per ogni x, y C n

x · y = y · x;

(ii)

(Propriet`a distributiva) Per ogni x, y, z C n

(x + y) · z = x · z + y · z,

x · (y + z) = x · y + x · z;

(iii)

(Sesquilinearit`a) Per ogni x, y C n ed ogni λ C

 

¯

 

(λx) · y = λ(x · y)

x · (λy) = λ(x · y);

(iv)

(Positivit`a) Per ogni x C n

x · x 0,

x · x = 0

se e soltanto se

1

x = 0.

Dimostrazione. La dimostrazione segue immediatamente dalle definizioni. Il punto (i) segue da

Il punto (ii) segue da

x · y = x 1 y¯ 1 +

+

x n y¯ n = y 1 x¯ 1 +

+ y n x¯ n = y · x.

(x + y) · z =

(x 1 + y 1 )z 1 +

+ (x n + y n )z n =

=

x 1 z¯ 1 +

y 1 z¯ 1 +

+ x n z¯ n + y n z¯ n =

=

x · z + y · z.

x · (y + z) =

x 1 (y 1 + z 1 ) +

+ x n (y n + z n ) =

=

x 1 y¯ 1 +

x 1 z¯ 1 +

+ x n y¯ n +

x n z¯ n =

=

x · y + x · z.

 

Confrontando le quantit`a

 

λ(x · y)

=

λ(x 1 y¯ 1 +

.

+

x n y¯ n ) = λx 1 y¯ 1 +

(λx) · y

=

(λx 1 y 1 +

 

+

(λx n y n =

λx 1 y¯

¯

.

.

.

x

· (λy)

=

x 1 (λy 1 ) +

.

.

.

+

x n (λy n ) =

λx 1 y¯

¯

¯

¯

 

λ(x · y) = λ(x 1 y¯ 1 +

 

+ x n y¯ n ) =

λx 1 y¯ 1 +

otteniamo (iii). Per dimostrare (iv), osserviamo che

 
 

x · x = |x 1 | 2 +

+ |x n | 2 .

1

1

+

+

λx n y¯ n ,

+

.

.

+ λx n y¯ n

.

.

.

.

+

+

¯

λx n y¯ n ,

¯

λx n y¯ n ,

Poich´e i moduli di numeri complessi sono sempre reali non negativi, si ha che x·x 0. Se x = 0, chiaramente

x · x = 0.

solo se x 1 =

Ci`o `e possibile

Viceversa, se per un vettore x C n vale x · x = 0, allora |x 1 | 2 +

= x n = 0.

+

|x n | 2 = 0.

Mediante il prodotto hermitiano definiamo in C n nozioni di lunghezza, distanza e ortogonalit`a.

Definizione. La norma o lunghezza ||x|| di un vettore x C n `e definita da

||x|| = x · x = |x 1 | 2 +

+

|x n | 2 .

Esempio. La norma del vettore x =

1 i

2 +

3i C 2 `e data da

||x|| = |1 i| 2 + |2 + 3i| 2 = (1 + 1) + (4 + 9) = 15.

Definizione. La distanza fra i punti x e y in C n `e definita da

d(x, y) := ||x y||.

In particolare, ||x|| coincide con la distanza di x dall’origine.

La norma gode delle seguenti propriet`a:

(i) (Omogeneit`a) ||λx|| = |λ|||x||, per ogni λ C.

(ii) (Disuguaglianza di Cauchy-Schwarz) |x · y| ≤ ||x||||y||, per ogni x, y C n .

2

(iii)

(Disuguaglianza triangolare) ||x + y|| ≤ ||x|| + ||y||, per ogni x, y C n .

Dimostrazione. Il punto (i) segue da

||λx|| = |λ| 2 |x 1 | 2 +

+ |λ| 2 |x n | 2 = |λ| |x 1 | 2 +

+ |x n | 2 = |λ|||x||.

(ii) Se x = 0 oppure y = 0 la disuguaglianza `e chiaramente soddisfatta. Supponiamo adesso x

Consideriamo un vettore della forma z = αx + βy, con α, β C. Per le propriet`a (i)(ii)(iii)(iv) del prodotto hermitiano, abbiamo che

= 0.

= 0 e y

z · z = |α| 2 ||x|| 2 + |β| 2 ||y|| 2 + 2Re(α βx · y) 0,

¯

α, β C.

In particolare, per α = ||y|| 2 e β = x · y, troviamo

||y|| 4 ||x|| 2 + ||y|| 2 |x · y| 2 2||y|| 2 |x · y| 2 = ||y|| 4 ||x|| 2 − ||y|| 2 |x · y| 2

Dividendo per ||y|| 2 = 0, otteniamo

|x · y| 2 ≤ ||x|| 2 ||y|| 2

0.

che `e equivalente alla disuguaglianza cercata.

(iii) La disuguaglianza triangolare `e equivalente alla disuguaglianza

||x + y|| 2 (||x|| + ||y||) 2 .

Direttamente dalle definizioni e dalla disuguaglianza di Cauchy-Schwarz abbiamo

||x+y|| 2 = (x+y)·(x+y) = ||x|| 2 +||y|| 2 +2Re(x·y) ≤ ||x|| 2 +||y|| 2 +2|x·y| ≤ ||x|| 2 +||y|| 2 +2||x||||y|| = (||x||+||y||) 2 ,

come richiesto.

Definizione. Due vettori x, y C n si dicono ortogonali se x · y = 0. Questo si indica con x y.

La

y per uno scalare complesso c C, caratterizzato dalla propriet`a

proiezione ortogonale π y (x) di un vettore x su un vettore y

= 0 `e un vettore π y (x) = cy multiplo di

(x π y (x)) · y = 0.

In altre parole, la proiezione ortogonale di un vettore x su un vettore y

del vettore x nella somma di un vettore parallelo a y e un vettore ortogonale a y

= 0 determina una scomposizione

Risulta

x = z + π y (x),

z = x π y (x),

π y (x) = x · y

y · y y.

z y.

(2)

Esempio.

Siano x = 1 + i e y =

i

0

i

i 1 + 3i

π y (x) = 2 + i

12

. Poich´e

x · y = 2 + i

i

i 1 + 3i

=

1 + 2i 1 2i 1 + 7i

3

e

  .

y · y = 12, troviamo

2. Basi ortonormali. Procedimento di ortonormalizzazione di Gram-Schmidt.

Definizione. Un sottoinsieme {x 1 , due a due ortogonali fra loro.

, x k } di C n si dice un insieme ortogonale se i suoi elementi sono a

Esercizio. Gli elementi di un insieme ortogonale sono linearmente indipendenti su C.

Definizione. Una base ortonormale di C n `e una base {e 1 ,

a due a due ortogonali:

, e n } i cui elementi hanno norma uno e sono

e 1 =

= e n = 1,

e i · e j = 0, i

= j.

Esempio. La base canonica di C n

.

.

{ .

1

0

0

,

0

1

.

.

.

0

,

.

.

.

,

0

. }

0

.

.

1

`e una base ortonormale: ogni vettore z C n si scrive in modo unico come

z =

z 1

.

.

.

z

n

  = z 1

1

.

.

.

0

0

+ z 2

. +

0

1

.

.

0

z

n

0

.

.

.

0

1

,

z 1 , z 2 ,

, z n C.

Inoltre si verifica facilmente che tutti i vettori di tale base hanno norma 1 e sono a due a due ortogonali fra loro.

Esempio. I vettori { 1/ 2

2

i/

,

Esempio. I vettori {

cos θ

sin θ

0

,

i/

1/

2

2 } formano una base ortonormale di C 2 .

sin θ cos θ

0

, 0 } formano una base ortonormale di C 3 .

0

i

Il metodo di ortonormalizzazione di Gram-Schmidt permette di ottenere una base ortonormale di C n a partire da una base qualsiasi.

Sia {v 1 ,

, v n } una base di C n . Allora i vettori

u 1 =v 1

u 2 =v 2 v 2 · u 1

u 1 ·

u 1 u 1

u 3 =v 3 u v 3 1 · · u u 1 1

u 1 v 3 · u 2

u 2 · u 2 u 2

.

.

.

=

.

.

.

.

.

.

u n =v n v u n 1 · · u u 1 1 u 1

.

.

.

v n · u n1

u n1 · u n1

u n1

sono a due a due ortogonali (cfr. equazione (2)). Inoltre, poich´e per ogni 1 j n,

span C {v 1 ,

,

v j } = span C {u 1 ,

4

, u j },

(3)

anche i vettori {u 1 ,

, u n } formano una base di C n . Infine i vettori

{e 1 =

u

1

| | u 1 | | ,

||u 1 || ,

, e n =

||u n || }

u

n

formano una base ortonormale di C n .

Esempio. Sia data la base {v 1 = i ,

1

0

v 2 = i , v 3 =

0

0

0

0

1 + i

  } di C 3 . Allora i vettori

u 1 =v 1 = i


1

0

u 2 = i 1

2

0

0

1

i =

0

1/2

i/2

0

u 3 =v 3 =

0

0

1 + i

0 i 0 i/2 =

1

0

1/2

0

0

0

1 + i

formano una base ortogonale di C 3 e i vettori

e 1 =

1

2

formano una base ortonormale di C 3 .

1

i

0

, e 2 =

1

2

1

i

0

, e 3 =

1

2

0

0

1 + i

Osservazione. Sia U C n il sottospazio generato dai primi k vettori {v 1 ,

di C n . Dalla relazione (3) segue che i vettori {u 1 ,

malizzazione di Gram-Schmidt, sono una base ortogonale di U .

, v n }

, u k }, ottenuti nel corso del procedimento di ortonor-

, v k } della base {v 1 ,

Esercizio. Dato un sottospazio U in C n di dimensione k, esiste una base ortonormale di C n

{u 1 ,

,

u k , u k+1 ,

,

u n }

con la propriet`a che {u 1 ,

U . In altre parole, data una base ortonormale di U , essa pu`o essere completata ad una base ortonormale

di C n .

, u n } `e una base ortonormale di

, u k } `e una base ortonormale di U e {u k+1 ,

Sia B = {v 1 ,

, v n } una base ortogonale di C n e sia x C n . Allora le coordinate di x in B sono date da

x 1 =

x · v 1 v 1 · v 1 ,

, x n =

x · v n v n · v n

.

In particolare, se la base B `e ortonormale, le coordinate di x in B sono date da

x 1 = x · v 1 ,

, x n = x · v n .

Dim. Il vettore x si scrive in modo unico come combinazione lineare degli elementi di B

x

= x 1 v 1 +

5

+ x n v n .

Per 1 j n,

 

x · v j = x 1 v 1 · v j +

+ x n v n · v j = x j v j · v j ,

da cui

x j = x · v j v j · v j

.

Esempio. Le coordinate del vettore x = i nella base ortonormale

i

i

e 1 =

1

2

sono date rispettivamente da x 1 =

1

i

0

, e 2 =

1

2

1

i

0

, e 3 =

1

2 (1 + i), x 2 =

1

2 (1 i), x 3 =

1

2

0

0

1 + i

1

2 (1 + i).

3. Complementi ortogonali. Proiezioni ortogonali. Sia U un sottoinsieme di C n . Definizione. Un vettore x C n si dice ortogonale a U se `e ortogonale a tutti gli elementi di U . L’ortogonale U di U `e per definizione

U := {x C n | x · u = 0,

u U}.

Proposizione. U `e un sottospazio vettoriale di C n .

Dimostrazione. Siano x, y U , λ C e sia u un arbitrario elemento di U . Dalle propriet`a del prodotto hermitiano e dalle ipotesi segue che

(x + y) · u = x · u + y · u = 0 + 0 = 0,

(λx) · u = λx · u = λ0 = 0.

In altre parole, x + y U e λx U , per ogni λ C, come richiesto.

Se U `e un sottospazio vettoriale di C n di dimensione complessa k e {u 1 ,

U =

x C n |

x

.

.

.

x

· u 1

= 0

· u k = 0


.

, u k } `e una base di U , allora

In questo caso, U `e un sottospazio vettoriale di dimensione complessa n k.

Dimostrazione.

Viceversa, supponiamo che x soddisfi il sistema x · u 1 =

U si scrive come u = α 1 u 1 +

Sia x

U .

Segue immediatamente dalla definizione che x · u 1 =

+ α k u k , con α i C, si ha

0.

= x · u k = 0. Poich´e un arbitrario elemento di

= x · u k

=

x · u = α 1 x · u 1 +

+ α k x · u k = 0.

In altre parole, x U . Questa caratterizzazione esprime U come lo spazio delle soluzioni di un sistema lineare omogeneo di k equazioni indipendenti. Di conseguenza, U ha dimensione complessa n k.

Esercizio. Verificare che U U = {O}.

6

Se U `e un sottospazio vettoriale di C n , il sottospazio U si chiama complemento ortogonale di U . Lo spazio C n si decompone infatti come somma diretta di U e U

C n = U U

U U = {O}.

In particolare, ogni elemento x C n si scrive in modo unico come somma di un elemento in U e un elemento

in U

x = x U + x U ,

x U U,

x U U ,

e vale

||x|| 2 = ||x U || 2 + ||x U || 2 .

Definizione. Per definizione i vettori x U e x U sono rispettivamente le proiezioni ortogonali di x su U e su U

x U = π U (x)

x U = π U (x).

Calcolo della proiezione ortogonale di un vettore su un sottospazio.

Proposizione. Sia U un sottospazio di C n e sia {u 1 ,

x C n un vettore. Allora la proiezione ortogonale di x su U `e data da

, u k } una qualunque base ortogonale di U . Sia

x U = π U (x) =

x · u 1 u 1 · u 1

u 1 +

+

x · u k

u k · u k u k .

Dimostrazione. Sia {u 1 ,

particolare, {u k+1 ,

,

u k , u k+1 ,

, u n } una base ortogonale di C n che completa {u 1 ,

, u n } `e una base ortogonale di U . In questa base,

x =

x · u 1 u 1 · u 1

u 1 +

+

x · u k

u k · u

k u k +

x · u k+1

u k+1 · u

k+1 u k+1 +

+

x · u n u n · u n

u n .

Per l’unicit`a di x U e di x U , segue che

e analogamente

x U = π U (x) =

x · u 1 u 1 · u 1

u 1 +

+

x U = π U (x) =

x · u k+1

u k+1 · u

k+1 u k+1 +

x · u k

u k · u k u k

+

x · u n u n · u n

u n .

,

u k }.

In

Osservazione. L’applicazione

π U : C n −→ C n ,

x

π U (x),

che ad un vettore associa la sua proiezione ortogonale sul sottospazio U , `e un’applicazione lineare. infatti

π U (αx + βy) = απ U (x) + βπ U (y),

α, β C,

x, y C n .

Vale

Inoltre, la proiezione ortogonale di x su U `e data dalla somma delle proiezioni di x sui singoli vettori

ortogonali {u 1 ,

,

u k }.

La proiezione ortogonale di un vettore x su un sottospazio U `e il punto di U pi`u vicino ad x.

7

Proposizione. Sia U un sottospazio di C n , sia x C n e sia x U la proiezione ortogonale di x su U . Allora, per ogni u U

d(x, x U ) d(x, u).

Dimostrazione. Sia u U un elemento arbitrario. L’identit`a

x u = x x U + x U u,

con

x x U U ,

x U u U

scompone di x u come somma di due vettori ortogonali. In particolare implica

||x u|| 2 = ||x x U || 2 + ||x U u|| 2

e

 

||x x U || 2 ≤ ||x u|| 2

||x x U || ≤ ||x u||

come richiesto.

Definizione. La distanza di un vettore x da un sottospazio U `e per definizione la distanza fra x e la sua proiezione ortogonale su U

d(x, U) = d(x, x U ).

In particolare, se x U , allora x U = x e d(x, U ) = 0.

4. Applicazioni lineari unitarie.

Sia C n lo spazio delle ennuple complesse col prodotto hermitiano canonico.

Definizione. Un’applicazione lineare F : C n −→ C n si dice unitaria se

F (x) · F (y) = x · y,

per ogni

x, y C n .

In altre parole, l’applicazione F `e un’isometria lineare di C n .

Osservazione. Direttamente dalla definizione segue che un’applicazione lineare unitaria conserva la norma dei vettori

F (x) = x ,

per ogni

x C n .

Questo fatto a sua volta implica che un’applicazione lineare unitaria `e necessariamente iniettiva, e quindi suriettiva e biiettiva. Inoltre, sempre dalla definizione, segue che un’applicazione lineare unitaria manda basi ortonormali in basi ortonormali.

Sia F : C n −→ C n un’applicazione lineare unitaria e sia M la matrice rappresentativa di F nella base canonica (in dominio e codominio), cos`ı che

Poich´e per ogni x, y C n vale

F(x) = Mx,

x C n .

Mx · My = t (Mx)My = t x t MMy¯ = x · y

la matrice M soddisfa la condizione t M · M = Id, ossia M 1 = t M . Una matrice con questa propriet`a si chiama matrice unitaria. Una matrice unitaria `e anche caratterizzata dal fatto che le sue colonne (e le sue righe) formano una base ortonormale di C n .

8

Esercizio 4.1. Far vedere che

cos θ i sin θ

i sin θ cos θ

,

i cos θ sin θ

i sin θ cos θ

sono matrici unitarie, per ogni θ [0, 2π].

Esercizio 4.2. Sia M una matrice unitaria n × n, ossia tale che t M M = I n .

(i)

Far vedere che

(ii)

Far

vedere che

t M

M

| det M | = 1.

1

e

sono matrici unitarie.

(iii) Far vedere che se λ `e un autovalore di M , allora |λ| = 1.

(iv) Far vedere che il prodotto di due matrici unitarie `e una matrice unitaria.

Sol. (i) dobbiamo verificare che t (M 1 )M 1 = I n :

t (M 1 )M 1 = ( t M 1 )(M ) 1 = M t M = t M M = I n ;

(nell’ultimo passaggio abbiamo usato che t M ed M sono una inversa dell’altra e dunque commutano).

(ii) 1 = det(I n ) = det( t M M ) = det( t M ) det(M ) = det(M )(det(M ) = | det(M )| 2 .

(iii)

segue

Mx · Mx = x · x = (λx) · (λx) = λ λ(x · x)

Sia λ un autovalore di M e sia x

= 0 un autovettore: M x = λx. Dalle propriet`a delle matrici unitarie

¯

x · x = |λ| 2 (x · x).

Poich´e x · x

= 0, deve essere |λ| 2 = 1, come richiesto.

(iv) Siano M ed N matrici unitarie.

t (MN) MN = t N t MM N = t N I n N = I n .

5. Applicazioni lineari hermitiane. Sia C n lo spazio delle ennuple complesse col prodotto hermitiano canonico.

Definizione. Un’applicazione lineare F : C n C n si dice hermitiana se

F (x) · y = x · F (y),

per ogni x, y C n .

Sia A la matrice rappresentativa di F nella base canonica (in dominio e codominio). Poich´e per ogni x, y C n vale

Ax · y = t (Ax)y = t x t Ay¯ = t x(Ay) = t xAyx¯

· Ay

()

la matrice A soddisfa la condizione t A = A. Una matrice con questa propriet`a si chiama matrice hermitiana.

Esempio. Esempi di matrici hermitiane

M =

2

2i

2 ,

2i

N =

1

1 + 2i

3

1 2i

6

2i

3

2i .

0

Esempio. Una matrice hermitiana a coefficienti reali `e una matrice reale simmetrica:

M = M t M = M

9

M = M t M = M .

Lemma 5.1. Sia