Sei sulla pagina 1di 10

1 Complementi

1.1 Spazi euclidei

Analogia tra nozione di sistema di riferimento nel piano e base di uno spazio

vettoriale; nella definizione di sistema di riferimento nel piano, è inclusa una condizione di perpendicolarità tra gli assi del piano ed è introdotta un’unità

di misura e conseguentemente il concetto di lunghezza. Viene introdotto il

concetto di base ortonormale, analogo a quello di sistema di riferimento nel piano, generalizzato per ogni spazio vettoriale finora studiato.

Definizione 1 (Prodotto scalare). Fissato il campo K = R, C e considerato lo spazio vettoriale V di dimensione finita, si dice prodotto scalare su V la funzione

f : V × V → K

(v, w)

v, w

(1)

che associa ad una coppia di vettori un termine numerico appartenente a K, in modo da soddisfare le seguenti proprietà:

PS1

v,w,uV a,bK av + bw, u = a v, u + b w, u .

PS2

u, v = v, u .

Promemoria. Dato z = a + ib C, si dice coniugato di z il numero z¯ = a ib; di fatto, si ha che z = z¯. Se z = z¯, si ha

z z¯ = 0

a + ib (a ib) = 0

2ib = 0

=

b = 0

Essendo b = z = 0, ne segue che z R.

PS3 u, u 0; inoltre, u, u = 0 ⇐⇒ u = 0 V .

Osservazione. Per (PS2), si ha che ( u, u = u, u ) = u, u , da cui segue che u, u R. Ciò consente di affermare che è possibile stabilire una relazione di ordine tra u, u e lo zero, azione non compibile se esso fosse appartenuto al campo complesso.

Definizione del prodotto scalare in R e in C Vediamo ora come viene definito il prodotto scalare a seconda che lo spazio vettoriale sia fissato sul campo dei reali o sul campo complesso.

Campo dei reali Sia V := R n lo spazio vettoriale fissato su R. Si ha

v, w = (v 1 ,

,

v n ), (w 1 ,

,

w n ) :=

n

i=1

v i w i R

(2)

Il prodotto scalare in R viene detto prodotto scalare standard e verifica le

proprietà del prodotto scalare:

1

PS1 È correttamente verificata, infatti

av + bw, u = (av 1 + bw 1 ,

=

=

=

av n + bw n ), (u 1 ,

u n )

,

(av 1 + bw 1 )u 1 +

av 1 u 1 + · a v, u +

,

+ (av n + bw n )u n

· · + av n u n + bw 1 u 1 b w, u

+ · · · + bw n u n

PS2 v, w R = w, v R = w, v R, vero per la commutatività del

prodotto

in R. Difatti, v 1 w 1 + ··· +

v n w n = w 1 v 1 + ··· + w n v n .

PS3 v, v = v 1 2 + ··· + v n 2 0 è vera, essendo una somma di quadrati. Inoltre, v, v = 0 se e solo se u 1 = ··· = u n = 0, ovvero u = 0 R n.

Campo complesso

Sia V lo spazio vettoriale fissato su C. Si ha

v, w := v 1 w¯ 1 + ··· + v n w¯ n

(3)

Allora, zz¯ = (a ib)(a + ib) = a 2 i 2 b 2 = a 2 + b 2 R

Definizione 2 (Spazio euclideo). Si dice spazio euclideo uno spazio vettoriale V su K = R, C su cui è definito un prodotto scalare. Esso viene denotato con la simbologia (V, , ).

Promemoria. Sia z C.

Definizione 3 (Norma). Dato lo spazio euclideo (V, , ) e il vettore v ∈ V, si dice norma di v il numero

(4)

Nel caso in cui v = 1, v viene detto versore.

Esempio 1. Sia considerato il vettore (v 1 , v 2 ) R 2 . La sua norma è

v = v, v

(v 1 , v 2 ) = v 1 2 + v 2 2

Osservazione. La norma di un vettore ne misura la lunghezza!

Definizione 4 (vettore normalizzato). Dato il vettore v ∈ V, si dice normaliz- zato di v il vettore

(5)

v

v =

1

v · v

Osservazione. Un vettore normalizzato è anche un versore. Infatti:

v

v

=

1

v · v = 1

Teorema 1 (Disuguaglianza di Cauchy-Schwarz). Dato lo spazio euclideo V, per ogni u, v ∈ V è valida la relazione

| u, v | ≤ u · v

(6)

Dimostrazione. Nel dimostrare questa disuguaglianza si distinguono due casi:

quello “banale”, in cui uno dei due vettori corrisponde all’elemento nullo dello spazio vettoriale, e il caso in cui entrambi i vettori siano non nulli.

2

v = 0 V La relazione è banalmente verificata. Infatti,

u, v = u, 0 V = 0 v = 0 V = 0

Verifichiamo queste uguaglianze:

* u, 0 V PS2

=

0 V , u = 0w, u PS1

=

¯

0 w, u = 0 = 0, dove w ∈ V.

** v = v, v = 0 V , 0 V = 0 = 0.

Ne risulta che 0 0.

v

= 0 V La norma di v è sicuramente positiva, per la definizione stessa di norma.

Si consideri la seguente disequazione, sempre verificata:

(7)

Ricorrendo alla definizione di norma, è possibile riscrivere il membro a sinistra di (7) nel seguente modo:

u u, v tv 2 0

t K

u u, v tv, u u, v tv

Ora, ricorrendo alle proprietà del prodotto scalare introdotte ad inizio capitolo, si svolgono i seguenti passaggi:

u u, v tv, u u, v tv

PS1

= u, u u, v tv u, v t v, u u, v tv

PS2

PS1

= u u, v tv, u u, v t u u, v tv, v

= u, u u, v t v, u u, v t u, v

u, v t u, v t v, v

PS2

= u, u u, v t u, v u, v t u, v + u, v t u, v t v, v

¯

Nel caso in cui si abbia t R, vale la relazione t = t. Di conseguenza, ri-

correndo anche alla definizione di norma, è possibile riscrivere l’espressione

come

u 2 t u, v u, v t u, v u, v + t 2 u, v u, v v 2

A questo punto, sfruttando la relazione zz¯ = z 2 , si adoperi un’ulteriore

riscrittura:

u 2 2t| u, v | 2 + | u, v | 2 t 2 v 2

Ponendo t =

1

2 si ottiene l’espressione

v

u 2 2 | u, v | 2

v 2

+ | u, v | 2

2 2 v 2 = u 2 | u, v v | 2

1

v

2

Applicando quanto ottenuto a (7), la disequazione si presenta come

u 2 | u, v | 2

v 2

0

A

questo punto, tramite pochi calcoli la dimostrazione è conclusa, infatti

si

arriva alla conclusione che

| u, v | ≤ u · v

3

calcoli la dimostrazione è conclusa, infatti si arriva alla conclusione che | u , v |

1.2 Ortogonalità

Definizione 5 (Vettori ortogonali). Dato lo spazio euclideo (V, , ), i vettori v, w ∈ V si dicono ortogonali se v, w = 0 e si dicono ortonormali se sono ortogonali di norma 1.

Esempio 2. Considerato (R 2 , , , (1, 0) e (0, 1) sono ortonormali. Infatti:

y e 2 = (0, 1) e 1 = (1, 0)
y
e 2 = (0, 1)
e 1 = (1, 0)

x

(1, 0), (0, 1) = 1 · 0 + 0 · 1 = 0

(1, 0) = 1 2 + 0 2 = 1

(0, 1) = 0 2 + 1 2 = 1

Teorema 2 (Gram-Schmidt). Sia V uno spazio euclideo. Allora, esiste una base ortonormale per V, ovvero una base formata da vettori a due a due ortogonali di norma 1.

Esempio 3. Considerato lo spazio euclideo (R n , , ), la base canonica C =

(e 1 ,

Per dimostrare il teorema di Gram-Schmidt, ci si avvarrà dell’uso del se- guente lemma.

, u r } i cui vettori sono

Lemma. Dato lo spazio euclideo V e l’insieme { u 1 ,

, u r sono linearmente indipendenti e per ogni

ortonormali in V, i vettori u 1 , v ∈ V

, e n ) è una base ortonormale.

w = v

r

v, u i u i

(8)

i=1

è ortogonale a tutti i vettori di { u 1 ,

Dimostrazione. Si consideri la combinazione lineare

a 1 u 1 + ··· + a r u r = 0 V

Considerato il vettore u i tale che i = 1, ciascun membro dell’uguaglianza per u i :

(10)

Applicando PS1 e notando che il prodotto scalare di qualunque vettore contro il vettore nullo è pari a 0, si ottiene

(11)

, u r } tra loro ortonormali, ne risulta

che il loro prodotto scalare è uguale a 0 tranne nel caso u i , u i : qui, avendo u i norma 1 in quanto ortonormale, si ha che

(12)

u i , u i = u i 2 = 1 2 = 1.

a 1 u 1 , u i + ··· + a i u i , u i + ··· + a r u r , u i = 0

Essendo per ipotesi i vettori di { u 1 ,

(a 1 u 1 + ··· + a r u r ), u i = 0 V , u i

(9)

, r, si consideri il prodotto scalare di

, u r }.

4

Perciò, si ha che

a i = 0

 

(13)

, u r sono

 

(14)

u i u r , u i

(15)

(16)

, r.

, r .

w, u i = 0.

per ogni i = 1,

tra loro linearmente indipendenti. Verifichiamo che i1

Essendo questo vero

, r, ne segue che i vettori u 1 ,

r

r

v, u i u i , u i

w, u i = v i=1

r

Per PS1 si ha che v i=1

v, u i u i , u i è uguale a

v, u i v, u i u 1 , u i − ··· − v, u i u i , u i − ··· − v,

Per le stesse considerazioni del passo precedente, si giunge a

v, u i v, u i = 0

Pertanto, w risulta essere ortogonale a u i per ogni i = 1,

Dimostriamo Gram-Schmidt.

Dimostrazione. Si consideri la base { b 1 , induzione su n.

, b n } dello spazio vettoriale V. Per

n = 2 Si definiscano

  v 1 =

b 1

b 1

w 2 = b 2 b 2 , v 1 v 1 v 2 =

w

2

w 2

(17)

Il vettore v 1 , essendo normalizzato di b 1 , ha norma unitaria ed è linear- mente indipendente. Per il lemma precedentemente enunciato, w 2 è orto- gonale a v 1 ; inoltre, essendo v 2 definito come il normalizzato di w 2 , esso è ortonormale a v 1 .

n 1 n Riprendendo il punto precedente, si definiscano

w n = b n b n , v n1 v n1

v n =

w

n

w n

(18)

Per il lemma precedentemente enunciato, w n è ortogonale a v 1 ,

inoltre, v n , essendo normalizzato di w n , è

sendo v 1 ,

costituisce una base di vettori ortonormali per V.

, v n1 ; , v n1 . Es-

, v n }

ortonormale a v 1 ,

, v n linearmente indipendenti fra loro, l’insieme { v 1 ,

linearmente indipendenti fra loro, l’insieme { v 1 , Esempio 4. Sia V = ( R

Esempio 4. Sia V = (R 4 , , ). Dalla definizione di prodotto scalare standard,

dati v, w R 4 si ha

(v 1 , v 2 , v 3 , v 4 ), (w 1 , w 2 , w 3 , w 4 ) =

4

i=1

v i w i

Si consideri ora W = L((1, 1, 1, 1), (0, 1, 2, 3)). base ortonormale per W ?

Come è possibile trovare una

5

Soluzione. I vettori v e w sono linearmente indipendenti: difatti, considerati co- me vettori-riga di una matrice, essi formano una matrice ridotta. Tuttavia, essi non sono ortogonali in quanto il loro prodotto scalare non è nullo. Consideriamo

il vettore

b =

v

v

= (1, 1, 1, 1) ·

1

1 2 + 1 2 + 1 2 + 1 2

= (

1

2 ,

1

1

2 , 2 ,

1

2 )

Essendo normalizzato di v, è verificabile che b ha norma unitaria. Utilizzando (8), si definisca

1

1

1

1

2 ) (

1

1

1

d = (0, 1, 2, 3) (0, 1, 2, 3), (

= (0, 1, 2, 3) 3(

1

1

2 , 2 ,

2 ,

2 , 2 ,

1

2 , 1 2 ) = (2

2 ,

1

2 , 1

2 , 2 ,

3

2 , 2

)

3 ,

1

2 ) =

I vettori b e d sono ortogonali, ma d non è ortogonale, non avendo norma unitaria. Si definisca

c =

d d = (3 , 1

2

2 , 1

3 ) ·

2

1

2 ,

4 + 4 + 4 +

9

1

1

9

4

=

Per Gram-Schmidt, l’insieme ( sce una base per W .

1

2 ,

1

2 ,

1

2 ,

1

2 ), (

3

2 5 ,

(3 , 1

2

1

2 , 2 , 3

2

1

5

)

·

1

2 5 ,

1

2 5 ,

3 2 √ 5 ) costitui-
3
2 √ 5 ) costitui-

Proprietà delle basi ortonormali. Considerati lo spazio euclideo (V, , ) e

la base ortonormale B = (b 1 ,

1. Per ogni v ∈ V si ha

, b n ), valgono le seguenti proprietà:

v = v, b 1 b 1 + ··· + v, b n b n =

n

i=1

v, b i b i

(19)

Dimostrazione. Il vettore v, appartenendo allo spazio V, è esprimibile come combinazione lineare dei vettori di B:

n

v =

a i b i

i=1

con

applicando all’uguaglianza il prodotto scalare per un vettore b i ∈ B, si

ottiene

a i b i , b i PS1 =

, a n scalari appartenenti al campo su cui è definito V. Ora,

a 1 ,

n

i=1

n

j=1

v, b i =

a j b j , b i

Essendo B base composta da vettori ortonormali, ne segue che per i = j

i prodotti scalari b j , b i per ortogonalità dei vettori, mentre b i , b i è

uguale a 1, essendo b j , b i = b i 2 , per ortonormalità.

Quindi, si ottiene v, b i b i
Quindi, si ottiene
v, b i b i

n

j=1

n

i=1

n

i=1

v, b i =

b j b i = a i

=

v =

a i b i =

6

2. Sia T End(V) un endomorfismo di matrice associata nella base B corri- spondente a M B (T) = A = [a ij ]. Allora,

a ij = T(b j ), b i

(20)

Dimostrazione. Per definizione di matrice associata, si ha

M B (T) =  

T(b 1 )

.

.

.

T(b j )

.

.

.

T(b n )

Richiamando la proprietà precedentemente dimostrata, è possibile affer- mare che

T(b j ) =

n

i=1

T(b j ), b i b i

Quindi, la matrice associata a T nella base B avrà forma

T(b 1 )

.

.

.

T(b j ),

.

.

.

T(b j ),

.

.

.

T(b j ),

b 1

b i

b n

.

.

.

T(b n )

L’elemento di riga i-esima e colonna j-esima corrisponde a T (b j ), b i .

j -esima corrisponde a T ( b j ) , b i . Definizione 6 (Complemento

Definizione 6 (Complemento ortogonale). Sia V uno spazio euclideo e sia W un sottospazio vettoriale di V. Si dice complemento ortogonale di W l’insieme

W = { v ∈ V : v, w = 0

w W }

(21)

Lemma. W è sottospazio vettoriale di V.

Dimostrazione.

1. L’appartenenza dell’elemento nullo è verificata. Infatti,

per ogni w W

0 V , w = 0

2. Si considerino v 1 , v 2 W . Per definizione,

v 1 , w = 0

v 2 , w = 0

w W

La chiusura rispetto alla somma è verificata, infatti

v 1 + v 2 , w PS1

= v 1 , w + v 2 , w = 0 + 0 = 0 =v 1 + v 2 W

3. Si considerino v W e lo scalare λ K. La chiusura rispetto al prodotto per scalare è verificata, infatti

λv, w PS1

=

λ v, w = λ · 0 = 0

7

=

λv W

per scalare è verificata, infatti λ v , w P S 1 = λ v ,

Proposizione 1. Sia V uno spazio euclideo e sia W un suo sottospazio vetto- riale. Allora,

(22)

, b k } una base ortonormale di W . Come

conseguenza del lemma di Steinitz, è possibile completarla ad una base di V, corrispondente a

Dimostrazione. Sia B = { b 1 ,

V = W + W

B = { b 1 ,

, b k , v k+1 ,

, v n }

L’ortonormalità di questa base non è garantita. Applicando il processo di orto-

gonalizzazione di Gram-Schmidt (= teorema) ai vettori v k+1 , ottenere la base ortonormale di V

, v n , è possibile

B = { b 1 ,

, b k , b k+1 ,

, b n }

Essendo B ottenuta a partire da B base di V, è possibile esprimere v ∈ V come combinazione lineare dei vettori di B :

v =

a 1 b 1 + ··· + a k b k + a k+1 b k+1 + ··· + a n b n

W

W

Affermare che a k+1 b k+1 + ··· + a n b n W è lecito: infatti, per ogni w W , si ha

a k+1 b k+1 + ··· + a n b n , w = a k+1 b k+1 + ··· + a n b n , a 1 b 1 + ··· + a k b k = 0

Questo è dovuto al fatto che tutti i vettori di B sono ortogonali fra loro (infatti,

quest’ultima uguaglianza è facilmente verificabile, svolgendo i calcoli).

è facilmente verificabile, svolgendo i calcoli). 1.3 Operatori aggiunti Definizione 7 (Operatore aggiunto)

1.3 Operatori aggiunti

Definizione 7 (Operatore aggiunto). Sia V uno spazio euclideo e sia T End(V). Si dice che l’operatore T possiede un operatore aggiunto T End(V) se per ogni u, v ∈ V si ha

T(u), v = u, T (v)

(23)

Come è definito l’endomorfismo T ?

, b n } una base ortonormale di V. La matrice

associata a T in B risulta essere la matrice coniugata trasposta della matrice associata a T nella medesima base. Infatti, considerata M B (T ) = [a ij ], si ha

Osservazione. Sia B = { b 1 ,

a ij = T (b j ), b i PS2 b i , T (b j ) def

=

=

T (b i ), b j

(24)

quindi, a ij corrisponde al coniugato dell’elemento sulla j-esima riga e i-esima colonna di M B (T).

Definizione 8 (Operatore autoaggiunto). Sia V uno spazio euclideo e sia T End(V). L’operatore T si dice autoaggiunto se T = T , ovvero, per ogni u, v ∈ V

T (u), v = u, T (v)

8

(25)

Osservazione. Essendo, in generale, M B (T ) = t M B (T ), se T è autoaggiunto allora

T = T ⇐⇒ M B (T) = t M B (T)

Ne segue che la matrice as-

sociata ad un operatore autoaggiunto in una base ortonormale è una matrice simmetrica.

Teorema 3 (Teorema spettrale). Sia V uno spazio euclideo fissato sul campo R e sia T End(V) un operatore autoaggiunto. Allora, esiste una base ortonor- male di V formata da autovettori per T . In particolare, T è diagonalizzabile.

In particolare, se K = R, allora M B (T) t M B (T ).

Corollario. Sia A R n,n una matrice simmetrica. Allora, A è simile ad una matrice diagonale

D = M 1 AM

dove D è una matrice diagonale e M una matrice ortogonale, ovvero M 1 = t M.

Dimostrazione. Si consideri lo spazio euclideo R n . Essendo la matrice A sim- metrica per ipotesi, l’operatore T End(R n ) tale che

x Ax

è un operatore autoaggiunto. Per il teorema spettrale, esiste una base ortonor-

T

male { b 1 ,

Si osserva che

t M · M

, b n } di autovettori per T . Per similitudine, si ottiene

D = M 1 AM

=

b

.

.

.

b

1

n

b 1

.

.

.

M =

b n =

b

1

1

0

.

.

.

0

0

.

.

.

.

0

1

.

.

0

.

.

.

b n

.

.

.

.

0

.

0

.

.

.

.

.

.

0

.

.

1

0

.

.

0

0

.

0

1

= I n

Ne segue che M è una matrice ortogonale.

Dato l’operatore autoaggiunto, cosa garantisce l’esistenza di autovalori nel campo dei reali?

Lemma. Sia V uno spazio euclideo e sia T End(V) un operatore autoaggiunto su V, con λ autovalore per T . Allora, λ R.

Dimostrazione. Se λ C è autovalore per T , allora esiste v ∈ V con v

= 0 V

tale che T (v) = λv. Si consideri λ v, v ; allora

T ( v ) = λ v . Si consideri λ v , v ; allora

λ v, v PS1

=

λv, v = T(v), v =

v, T(v)

T è autoaggiunto

= v, λv PS2 λv, v PS1 =

=

=

λ v, v PS2 λ v, v

¯

Quindi, essendo v = 0 V per definizione di autovalore, vale la relazione

¯

¯

λ v, v = λ v, v

=

λ = λ

Quindi, è dimostrato che λ R.

9

la relazione ¯ ¯ λ v , v = λ v , v = ⇒ λ

Abbiamo quindi dimostrato che gli autovalori per T appartengono tutti al campo dei reali. Procediamo alla dimostrazione del teorema spettrale.

Dimostrazione. Si supponda dim(V) = n. Per induzione su n.

n = 1 La matrice associata a T nella base canonica C ha dimensione 1×1, quindi

è sicuramente diagonalizzabile, essendo la matrice composta da un unico elemento corrispondente alla sua diagonale principale.

n 1 n Per il lemma precedentemente dimostrato, esiste uno scalare λ R auto- valore per T per cui esiste un autovettore non nullo u ∈ V. Si consideri il sottospazio vettoriale U = L(u) ⊆ V ed il suo complemento ortogonale

U = { v ∈ V : v, w = 0w U }

Sapendo che U U = { 0 V }, per Grassmann si ha

dim(U ) = dim(U ) + dim(U ) dim(U U ) = n + 0 1 = n 1

Ne segue che per U il teorema spettrale è valido. Verifichiamo che sia possibile attuare una restrizione di T su U , ovvero che T (U ) U e quindi per ogni v U valga T (v U .

T(v) ∈ U ⊥ =⇒ T(v), w = 0 ∀w ∈ U ⇐⇒ v, T(w)
T(v) ∈ U ⊥
=⇒ T(v), w = 0
∀w ∈ U
⇐⇒
v, T(w) = 0
∀w ∈ U
T è autoaggiunto
⇐⇒
v, T(mu)
∀m ∈ R
⇐⇒ v, mλu = 0

U

L’ultima uguaglianza è verificata, poiché v U per ipotesi. Si consideri allora la restrizione

T U : U U

, v n } di

Allora,

Per il teorema spettrale, esiste una base di ortonormale { v 1 , U formata da autovettori per T U . Si consideri v = l’insieme

u

u .

B

= { v, v 1 ,

, v n }

è una base di V = U + U formata da autovettori per T .

u u . B = { v , v 1 , , v n } è

10