Sei sulla pagina 1di 236

RENATO LEONI

Algebra lineare
per le applicazioni statistiche

UNIVERSIT DI FIRENZE DIPARTIMENTO DI STATISTICA "G. PARENTI" FIRENZE, 2007

Questo lavoro riproduce, con alcuni cambiamenti di forma e contenuto, il volume: Renato Leoni, Algebra lineare per le applicazioni statistiche, Dipartimento Statistico della Universit degli Studi di Firenze, Serie Didattica n.13, 1994. Il lavoro destinato a un uso personale e ne vietata la commercializzazione.

INDICE

INDICE

pag. PREFAZIONE Cap. I SPAZI VETTORIALI 1 Generalit sui vettori 2 Addizione e moltiplicazione per un numero reale. Sottrazione 3 Combinazioni lineari. Dipendenza e indipendenza lineare 4 Spazi vettoriali 5 Basi e dimensione di uno spazio vettoriale 6 Sottospazi vettoriali
COMPLEMENTI

11 13 16 23 29 35 44

Cap. II

MATRICI 1 Generalit sulle matrici 2 Addizione e moltiplicazione per un numero reale. Sottrazione 3 Moltiplicazione di matrici 4 Inversione 5 Trasposizione 6 Elevazione a potenza 7 Traccia 8 Matrici a blocchi
COMPLEMENTI

51 53 56 61 63 66 68 69 73

INDICE

pag. Cap. III DETERMINANTI 1 Funzione determinante 2 Esistenza e unicit di una funzione determinante 3 Calcolo di un determinante 4 Alcuni teoremi sui determinanti 5 Inversa di una matrice
COMPLEMENTI

77 80 84 87 89 92

Cap. IV

SISTEMI DI EQUAZIONI LINEARI 1 Generalit sui sistemi di equazioni lineari. Il teorema di Cramer 2 Rango di una matrice 3 Soluzione dei sistemi di equazioni lineari 4 Alcuni teoremi sul rango di una matrice 5 Cambiamenti di base in uno spazio vettoriale
COMPLEMENTI

97 99 104 116 120 122

Cap. V

TRASFORMAZIONI LINEARI 1 Generalit sulle trasformazioni lineari 2 Trasformazioni lineari e basi 3 Nucleo e immagine di una trasformazione lineare 4 Trasformazioni lineari di uno spazio vettoriale in se stesso 5 Autovalori e autovettori 6 Trasformazioni idempotenti. Proiettori
COMPLEMENTI

125 126 132 136 137 150 157

Cap. VI

FORME BILINEARI E QUADRATICHE 1 Forme bilineari 2 Forme bilineari e basi 3 Forme bilineari simmetriche e forme quadratiche
COMPLEMENTI

161 161 166 175

INDICE

pag. Cap. VII SPAZI EUCLIDEI 1 Generalit sugli spazi euclidei 2 Ortogonalit 3 Angoli. Lunghezze. Distanze 4 Trasformazioni autoaggiunte 5 Proiettori ortogonali 6 Matrici ortogonali. Trasformazioni ortogonali 7 Autovalori e autovettori di una trasformazione autoaggiunta 8 Trasformazioni autoaggiunte e forme bilineari simmetriche
COMPLEMENTI

181 182 194 198 200 205 208 213 217 231 233

BIBLIOGRAFIA INDICE ANALITICO

PREFAZIONE

PREFAZIONE

Questo volume principalmente rivolto agli studenti delle Facolt di Economia e di Statistica e ai partecipanti ai Corsi di dottorato in Statistica. In esso sono presentate quelle nozioni di Algebra lineare correntemente impiegate nelle applicazioni statistiche. Allo scopo di non appesantire eccessivamente l'esposizione e nel tentativo di conferirle semplicit e concretezza, abbiamo evitato di trattare aspetti e problematiche, anche rilevanti, ma che ci avrebbero inevitabilmente portati a dare al volume un taglio che non riteniamo del tutto adatto alle esigenze di coloro ai quali il volume stesso rivolto. ` E ovvio che, nella scelta degli argomenti e nel modo di proporli, ci stata di guida l'esperienza acquisita in molteplici anni di insegnamento universitario. Ma anche naturale che il volume rifletta, almeno in parte, gli interessi culturali e di ricerca in cui al momento ci sentiamo maggiormente impegnati. Il lettore trover cos, in aggiunta ai consueti argomenti di Algebra lineare, la presentazione di temi che sono di interesse prevalente, anche se non esclusivo, di specifici ambiti della Statistica. In particolare, sono state introdotte di solito nella parte riservata ai Complementi che accompagna ciascun capitolo nozioni che hanno larga applicazione nel campo della cosiddetta Analisi statistica multidimensionale. A quest'ultimo tema sono dedicati altri lavori che ci offrono tra l'altro l'opportunit di trattare, nella sede adatta e in modo non superficiale, alcuni

PREFAZIONE

tra i principali e significativi impieghi dell'Algebra lineare in ambito statistico. Desideriamo infine rivolgere un caldo ringraziamento ai numerosi amici e colleghi che ci hanno aiutato fornendoci preziosi consigli e suggerimenti. R. L.

Algebra lineare
per le applicazioni statistiche

SPAZI VETTORIALI

11

Cap. I

SPAZI VETTORIALI

1 GENERALIT SUI VETTORI 1.1 Chiamiamo vettore di ordine n ogni n-pla ordinata di numeri reali (1). Tali numeri sono detti elementi o componenti del vettore. Possono essere disposti secondo una linea verticale (detta colonna) od orizzontale (detta riga) e sono racchiusi tra parentesi quadre (2). Pi precisamente, nel primo caso si parla di vettore colonna, nel secondo di vettore riga. Per esempio, 3 4 , 5 6

sono due vettori rispettivamente, colonna e riga di ordine 2. Seguendo una notazione assai diffusa, denoteremo i vettori colonna con lettere minuscole in grassetto (x , y , ...) e i vettori riga con lettere minuscole in grassetto e munite di apice (z ' , w' , ...). Rappresenteremo, inoltre, simbolicamente un generico vettore colonna x di ordine n con x1 xn
A VVERTENZA. In tutto questo volume, a meno di esplicita indicazione contraria, m , n , p , q , r , t , v denotano numeri naturali maggiori o eguali a 1. (1) Ometteremo, talvolta, di indicare l'ordine di un vettore. (2) Alcuni, invece delle parentesi (quadre o tonde), usano le doppie sbarre verticali.

12

Cap. I

e un generico vettore riga z ' di ordine n con z1 zn

dove a ciascun elemento x i e z i (i = 1, ... , n) associato un indice che designa la sua posizione, rispettivamente, nella colonna o riga di appartenenza. Talvolta, i vettori x e z ' di cui sopra sono rappresentati, pi compattamente, con x i (n , 1 ) e z i (1 , n ) . Nel seguito di questo capitolo faremo esclusivo riferimento ai vettori colonna denominati, senza ulteriori aggettivazioni, vettori avvertendo tuttavia che quanto diremo a questo proposito vale anche per i vettori riga. 1.2 Due vettori x = x i e y = yi sono eguali, e si scrive x = y, se e

(n , 1 )

(n , 1 )

soltanto se x i = y i per i = 1, ... , n. In altri termini, due vettori dello stesso ordine sono eguali se e soltanto se gli elementi corrispondenti sono eguali.

1.3 Alcuni vettori ricorrono assai spesso nella trattazione che segue e conviene indicarli esplicitamente fin da questo momento. Il vettore di ordine n le cui componenti sono tutte nulle chiamato vettore zero o vettore nullo ed indicato con il simbolo 0. Per esempio, 0= 0 0 il vettore nullo di ordine 2. Il vettore di ordine n le cui componenti sono tutte eguali a 0 tranne la iesima (1 i n) posta eguale a 1 chiamato vettore canonico ed indicato con il simbolo u i . Per esempio, u1 = 1 0 sono i vettori canonici di ordine 2. , u2 = 0 1

SPAZI VETTORIALI

13

Come noto, fissato nel piano un sistema di assi cartesiani (non necessariamente ortogonali) e stabilito per ciascun asse un verso e una unit di misura (eventualmente diverse per i due assi), si istituisce una corrispondenza biunivoca tra i vettori di ordine 2 e i punti del piano, e anche tra i vettori di ordine 2 e i segmenti orientati del piano aventi come punto di applicazione l'origine degli assi. Analogamente, fissato nello spazio un sistema di assi cartesiani (non necessariamente ortogonali) e stabilito per ciascun asse un verso e una unit di misura (eventualmente diverse per i tre assi), si istituisce una corrispondenza biunivoca tra i vettori di ordine 3 e i punti dello spazio, e anche tra i vettori di ordine 3 e i segmenti orientati dello spazio aventi come punto di applicazione l'origine degli assi. La possibilit di effettuare una rappresentazione grafica dei vettori di ordine 2 o 3, ora richiamata, sar talvolta utilizzata nel corso di questo volume, senza ulteriori commenti, nell'intento di illustrare il significato geometrico dei concetti di volta in volta introdotti.
O SSERVAZIONE 1.

2 ADDIZIONE E MOLTIPLICAZIONE PER UN NUMERO REALE. SOTTRAZIONE 2.1 Dati due vettori x = x i (n , 1 ) e y = y i (n , 1 ) , si chiama somma di x e y il vettore, che indichiamo con x + y, i cui elementi sono espressi ordinatamente dai numeri x i + y i per i = 1, ... , n. Si ha, cio, x+y= x1 + y1 xn + yn .
Fig. 1

x+y x y 0

14

Cap. I

E SEMPIO 1.

Dati i vettori x= 3 1 , y= 1 2

si ha x+y= 3 + 1 = 4 . 1 2 3 z

L'operazione in questione riceve la denominazione di addizione. Come si pu facilmente verificare, essa commutativa e associativa; vale a dire, qualunque siano i vettori x , y , z di ordine n, (i) (ii) x+y=y+x (x + y) + z = x + (y + z).

Quest'ultima propriet consente di indicare, senza possibilit di equivoci, la somma di x , y , z con x + y + z, evitando l'uso delle parentesi, e di estendere l'addizione a un numero qualsiasi, purch finito, di vettori di ordine n. 2.2 Dati un numero reale c e un vettore x = x i

(n , 1 )

, si chiama prodotto di c

per x o di x per c il vettore, che indichiamo con cx o xc, i cui elementi sono espressi ordinatamente dai numeri cx i per i = 1, ... , n. Si ha, cio, cx = cx 1 cx n
Fig. 2

= xc .

cx x 0

SPAZI VETTORIALI

15

ESEMPIO 2.

Dati il numero reale c = 2 e il vettore x= 2 1

risulta cx = 2 2 = 4 = 2 2 = xc . 1 2 1 z

L'operazione ora definita riceve la denominazione di moltiplicazione per un numero reale. Come si pu facilmente verificare, essa gode, qualunque siano i vettori x e y di ordine n e i numeri reali a e b, delle seguenti propriet: (i) (ii) (iii) (ab)x = a(bx) a (x + y) = ax + ay (a + b)x = ax + bx. e y = yi , posto ( y) = (1) y, si chia-

2.3 Dati due vettori x = x i

(n , 1 )

(n , 1 )

ma differenza di x e y il vettore x + ( y) = x + (1) y che scriviamo, pi semplicemente, x y. Si ha, cio, xy= x1 y1 xn yn .

Fig. 3

xy y 0

16

Cap. I

E SEMPIO 3.

Dati i vettori x= 3 1 , y= 1 0

risulta xy= 3 1 = 2 . 1 0 1 z

L'operazione ora definita, derivata dalle operazioni fondamentali di addizione e di moltiplicazione per un numero reale, riceve la denominazione di sottrazione e consente di stabilire, qualunque siano i vettori x , y , z di ordine n e i numeri reali a e b, alcuni utili risultati di immediata verifica: (i) x x = 0 (ii) (x) = x (iii) (x y) = y x (iv) x (y z) = (x y) + z (v) a (x y) = ax ay (vi) (a b)x = ax bx.

3 COMBINAZIONI LINEARI. DIPENDENZA E INDIPENDENZA LINEARE 3.1 Dati p vettori x 1 , ... , x p di ordine n e p numeri reali a 1 , ... , a p (3), si chiama combinazione lineare di x 1 , ... , x p con coefficienti a 1 , ... , a p il vettore x = a 1 x 1 + ... + a p x p . ` E ovvio che ogni combinazione lineare di p vettori di ordine n essa stessa un vettore di ordine n.
E SEMPIO 4.

Dati i vettori x1 = 1 2 , x2 = 3 3 , x3 = 0 1

(3) Anche se non sempre appare necessario, conveniamo fin da ora, per ragioni che risulteranno chiare dal seguito di questa esposizione, di considerare insiemi di vettori del tipo x1 ,... , x p o di numeri reali del tipo a 1 ,... , a p come insiemi ordinati sulla base della successione degli indici a essi apposti.

SPAZI VETTORIALI

17

e i numeri reali a 1 = 2 , a 2 = 1 , a 3 = 1, il vettore x= 5 8 combinazione lineare di x 1 , x 2 , x 3 con coefficienti a 1 , a 2 , a 3 . z

Dati un vettore x e p vettori x 1 , ... , x p di ordine n, se x pu essere espresso come combinazione lineare di x 1 , ... , x p vale a dire se esistono p numeri reali a 1 , ... , a p tali che x = a 1 x 1 + ... + a p x p si dice che x linearmente dipendente da x 1 , ... , x p ; altrimenti, si dice che x linearmente indipendente da x 1 , ... , x p .
Fig. 4

x1

x
x

lin. dip. da x 1 , x 2 lin. indip. da x 1 ( x 2 )

x2 0

E SEMPIO 5.

Dati i vettori x= 0 3 , x1 = 1 2 , x2 = 2 1

x risulta linearmente dipendente da x 1 , x 2 poich esistono due numeri reali a 1 = 2 , a 2 = 1 tali che x = a 1 x 1 + a 2 x 2 .
OSSERVAZIONE 2.

Qualunque siano i p vettori x 1 , ... , x p di ordine n, il vettore 0 di ordine n risulta linearmente dipendente da x 1 , ... , x p . Ogni vettore x di ordine n linearmente dipendente dagli

O SSERVAZIONE 3.

18

Cap. I

n vettori canonici u 1 , ... , u n di ordine n, potendosi scrivere x= x1 xn In particolare, il vettore u di ordine n le cui componenti sono tutte eguali a 1 risulta linearmente dipendente dagli n vettori canonici u 1 , ... , u n di ordine n (u = u 1 + ... + u n ).
O SSERVAZIONE 4.

= x 1 u 1 + ... + x n u n .

Dati un vettore x 0 e p vettori x 1 , ... , x p di ordine n, il problema di accertare se esistono p numeri reali a 1 , ... , a p tali che x = a 1 x 1 + ... + a p x p sar esaminato nel Cap. IV, nell'ambito della teoria dei

sistemi di equazioni lineari.

3.2 Dati p vettori x 1 , ... , x p di ordine n, si dice che essi sono linearmente dipendenti oppure che formano un insieme linearmente dipendente se possibile trovare p numeri reali a 1 , ... , a p non tutti nulli tali che a 1 x 1 + ... + a p x p = 0 . Invece, qualora la relazione precedente sia soddisfatta soltanto se a j = 0 per j = 1 , ... , p, si dice che x 1 , ... , x p sono linearmente indipendenti oppure che formano un insieme linearmente indipendente.
Fig. 5

x1

x2

x3 0

x1 , x2 , x3 x1 , x2 x1 , x3 x2 , x3

lin. dip. lin. indip. lin. indip. lin. indip.

SPAZI VETTORIALI

19

E SEMPIO 6.

I vettori x1 = 2 6 , x2 = 1 3

sono linearmente dipendenti poich, posto a 1 = 1 e a 2 = 2, risulta che a 1 x1 + a 2 x2 = 0.


O SSERVAZIONE 5.

Gli n vettori canonici u 1 , ... , u n di ordine n sono, come facilmente si verifica, linearmente indipendenti.

Dati p vettori x 1 , ... , x p di ordine n, se questi sono linearmente indipendenti, allora x j 0 per j = 1, ... , p.
O SSERVAZIONE 6.

Dati p vettori x 1 , ... , x p di ordine n, il problema di accertare se esistono p numeri reali a 1 , ... , a p non tutti nulli tali che a 1 x 1 + ... + a p x p = 0 sar esaminato nel Cap. IV, nell'ambito della teoria dei
O SSERVAZIONE 7.

sistemi di equazioni lineari.

Si noti esplicitamente che le definizioni di dipendenza e indipendenza lineare qui sopra introdotte si applicano anche al caso in cui si consideri un unico vettore x. In questa circostanza, dire che x linearmente dipendente significa affermare che esiste un numero reale a 0 tale che a x = 0 e ci si realizza se e soltanto se x = 0. Analogamente, dire che x linearmente indipendente significa affermare che la relazione a x = 0 si verifica se e soltanto se a = 0 e ci equivale a dire che x 0.

3.3 Nei teoremi che seguono stabiliremo alcuni semplici propriet che discendono direttamente dalle definizioni di combinazione lineare e di dipendenza e indipendenza lineare, propriet a cui faremo spesso riferimento nel prosieguo di questa esposizione.

20

Cap. I

TEOREMA 1

Si considerino p 2 vettori x 1 , ... , x p di ordine n. Se uno di essi combinazione lineare dei rimanenti, allora x 1 , ... , x p sono linearmente dipendenti. Viceversa, se x 1 , ... , x p sono linearmente dipendenti, allora almeno uno di essi combinazione lineare dei rimanenti.

Dim. Posto che sia, per esempio, x 1 = a 2 x 2 + ... + a p x p , poich l'espressione precedente pu essere scritta nella forma a 1 x 1 + a 2 x 2 + ... + a p x p = 0 dove almeno uno dei coefficienti diverso da zero (a 1 = 1), la prima parte del teorema dimostrata. Per quanto riguarda la seconda parte del teorema, si osservi che, per ipotesi, esistono p numeri reali a 1 , a 2 , ... , a p non tutti nulli tali che a 1 x 1 + a 2 x 2 + ... + a p x p = 0 . Posto che sia, per esempio, a 1 0, ne consegue che x1 = ( a2 a x 2 + ... + p x p) a1 a1

e cio che almeno uno dei vettori, in questo caso x 1 , linearmente dipendente dai rimanenti.
TEOREMA 2

Si considerino p+1 vettori x 1 , ... , x p , x p + 1 di ordine n linearmente dipendenti. Se x 1 , ... , x p sono linearmente indipendenti, allora x p + 1 si pu esprimere come combinazione lineare di x 1 , ... , x p .

SPAZI VETTORIALI

21

Dim. Per ipotesi, esistono p+1 numeri reali a 1 , ... , a p , a p + 1 non tutti nulli tali che a 1 x 1 + ... + a p x p + a p + 1 x p + 1 = 0 . Ora, a p + 1 non pu essere nullo altrimenti la relazione precedente si potrebbe scrivere a 1 x 1 + ... + a p x p = 0 con qualche a j (1 j p) diverso da zero, contro l'ipotesi che x 1 , ... , x p siano linearmente indipendenti. Quindi, xp +1 = ( a1 a x 1 + ... + p x p) . a p+1 a p+1

O SSERVAZIONE 8.

Supposto che x p + 1 si possa esprimere come combinazione lineare di x 1 , ... , x p , allora x 1 , ... , x p , x p + 1 sono linearmente dipendenti (Cfr. il Teorema 1), ma non vero, in generale, che x 1 , ... , x p siano linearmente indipendenti. Per esempio, dati i vettori x1 = 1 2 , x2 = 2 4 , x3 = 3 6

x 3 combinazione lineare di x 1 e x 2 (x 3 = x 1 + x 2 ) e quindi x 1 , x 2 , x 3 sono linearmente dipendenti, ma x 1 e x 2 non sono linearmente indipendenti, risultando 2 x 1 x 2 = 0.
TEOREMA 3

Sia X un insieme formato da p vettori x 1 , ... , x p di ordine n linearmente indipendenti. Allora, ogni sottoinsieme non vuoto di X costituito da vettori linearmente indipendenti.

22

Cap. I

Dim. Possiamo limitarci a considerare il caso in cui sia p 2 e a supporre che il sottoinsieme Y di X sia costituito dai p 1 (1 p 1 < p) vettori x 1 , ... , x p1 di X. Se Y fosse formato da vettori linearmente dipendenti, esisterebbero p 1 numeri reali a 1 , ... , a p1 non tutti nulli tali che a 1 x 1 + ... + a p1 x p1 = 0 . Ma, in tal caso, presi i numeri reali a p1+1 , ... , a p tutti eguali a zero, la relazione a 1 x 1 + ... + a p1 x p1 + a p1 + 1 x p1 + 1 + ... + a p x p = 0 risulterebbe soddisfatta con qualche a j (1 j p) diverso da zero, contraddicendo l'ipotesi che x 1 , ... , x p siano linearmente indipendenti.
O SSERVAZIONE 9.

Sia X un insieme formato da p 2 vettori x 1 , ... , x p di ordine n. Supposto che ogni sottoinsieme proprio di X sia costituito da vettori linearmente indipendenti, non vero, in generale, che X sia formato da vettori linearmente indipendenti. Per esempio, sia X formato dai vettori x1 = 1 1 , x2 = 0 1 , x3 = 1 . 2

Come facilmente si verifica, ogni sottoinsieme proprio di X formato da vettori linearmente indipendenti. Tuttavia, X costituito da vettori linearmente dipendenti, risultando x 1 x 2 + x 3 = 0.
TEOREMA 4

Sia X un insieme formato da p vettori x 1 , ... , x p di ordine n linearmente dipendenti. Allora, ogni insieme finito di vettori di ordine n che contenga X costituito da vettori linearmente dipendenti.

SPAZI VETTORIALI

23

Dim. Consideriamo l'insieme Z contenente X, costituito da q > p vettori x 1 , ... , x p , x p + 1 , ... , x q di ordine n. Per ipotesi, sussiste la relazione a 1 x 1 + ... + a p x p = 0 con a 1 , ... , a p numeri reali non tutti nulli. Ne consegue che, presi i numeri reali a p + 1 , ... , a q tutti eguali a zero, la relazione a 1 x 1 + ... + a p x p + a p + 1 x p + 1 + ... + a q x q = 0 risulta soddisfatta con qualche a k (1 k q) diverso da zero, e ci prova il teorema.

4 SPAZI VETTORIALI 4.1 Sia S un insieme non vuoto di vettori di ordine n e R l'insieme dei numeri reali. Si dice che S costituisce uno spazio vettoriale di ordine n (4) se, per tutti gli x , yS e ogni a R, accade che x + yS e a xS. In altri termini, un insieme non vuoto S di vettori di ordine n costituisce uno spazio vettoriale se chiuso rispetto alle operazioni di addizione e di moltiplicazione per un numero reale. Dalla definizione ora data risulta immediatamente che, se S uno spazio vettoriale di ordine n, il vettore nullo di ordine n vi appartiene. Un semplice esempio di spazio vettoriale di ordine n offerto dall'insieme costituito dal solo vettore nullo di ordine n; lo chiameremo spazio nullo e lo indicheremo con il simbolo S 0 .
E SEMPIO 7. E SEMPIO 8.

L'insieme costituito da tutti i vettori di ordine n uno spazio vettoriale di ordine n; esso riceve la denominazione di spazio numerico (reale) ed indicato con il simbolo R n. L'insieme S costituito da tutti i vettori di ordine n aventi la prima

ESEMPIO 9.

(4) Ometteremo, talvolta, di indicare l'ordine di uno spazio vettoriale.

24

Cap. I

componente eguale a zero uno spazio vettoriale di ordine n. Infatti, la somma di due vettori appartenenti a S ancora un vettore di S e altrettanto accade del prodotto di un numero reale per un vettore appartenente a S. Al contrario, l'insieme costituito da tutti i vettori di ordine n aventi la prima componente eguale a un numero c 0 non , come si pu facilmente verificare, uno spazio vettoriale.

4.2 Dati p vettori x 1 , ... , x p di ordine n, si consideri l'insieme S di tutte le combinazioni lineari di x 1 , ... , x p , vale a dire l'insieme i cui elementi sono vettori del tipo a 1 x 1 + ... + a p x p con a 1 , ... , a p variabili in R. Considerate due combinazioni lineari x = b 1 x 1 + ... + b p x p , y = c 1 x 1 + ... + c p x p di x 1 , ... , x p , la loro somma x + y = (b 1 + c 1 ) x 1 + ... + ( b p + c p ) x p ancora una combinazione lineare di x 1 , ... , x p e, quindi, appartiene a S. Considerati poi un numero reale c e una combinazione lineare x = d 1 x 1 + ... + d p x p di x 1 , ... , x p , il prodotto cx = (cd 1 ) x 1 + ... + (cd p ) x p ancora una combinazione lineare di x 1 , ... , x p e, come tale, appartiene a S. Pertanto, l'insieme S, costituito da tutte le combinazioni lineari di x 1 , ... , x p , uno spazio vettoriale di ordine n. Tale spazio si dice generato da x 1 , ... , x p ; si dice anche che x 1 , ... , x p formano un insieme generatore di S.

SPAZI VETTORIALI

25

In particolare, qualora x 1 , ... , x p siano linearmente indipendenti, si dice che essi formano un insieme generatore linearmente indipendente di S (5).
Fig. 6

S
insieme gen. lin. dip. di S

x1

x3
insiemi gen. lin. indip. di S

{x1 , x2 , x3
x1 , x2 x1 , x3 x2 , x3

x2 0

E SEMPIO 10.

Lo spazio vettoriale generato dal vettore x1 = 1 1

costituito da tutti i vettori della forma c x 1 con c variabile in R.


O SSERVAZIONE 10.

Gli n vettori canonici u 1 , ... , u n di ordine n formano un

insieme generatore linearmente indipendente di R n poich ogni vettore xRn pu essere espresso come combinazione lineare di u 1 , ... , u n e questi sono linearmente indipendenti (Cfr. le Osservazioni 3 e 5). Supponiamo che x 1 , ... , x p formino un insieme generatore di uno spazio vettoriale S e che x 1 , ... , x p , x p + 1 formino un insieme geneOSSERVAZIONE 11.
(5) Nella figura che segue, lo spazio vettoriale S raffigurato come una porzione di un piano P passante per l'origine degli assi: in realt, S deve intendersi rappresentato da tutto il piano P. Una avvertenza simile vale ovviamente in situazioni analoghe.

26

Cap. I

ratore di uno spazio vettoriale Z. Vogliamo mostrare che, se il vettore x p + 1 linearmente dipendente da x 1 , ... , x p , allora S = Z. ` E ovvio che, potendosi esprimere ogni x appartenente a S nella forma x = a 1 x 1 + ... + a p x p + 0x p + 1 , x appartiene anche a Z. Reciprocamente, sia z = b 1 x 1 + ... + b p x p + b p + 1 x p + 1 un generico vettore appartenente a Z. Poich, per ipotesi, x p + 1 = c 1 x 1 + ... + c p x p , possiamo esprimere z nella forma z = (b 1 + b p + 1 c 1 ) x 1 + ... + (b p + b p + 1 c p ) x p e, quindi, z appartiene anche a S.
ESEMPIO 11.

Dati i vettori x1 = 1 0 , x2 = 1 1 , x3 = 2 1

lo spazio vettoriale generato da x 1 , x 2 identico allo spazio vettoriale generato da x 1 , x 2 , x 3 (x 3 = x 1 + x 2 ).


TEOREMA 5

Sia S lo spazio vettoriale generato da p vettori x 1 , ... , x p di ordine n linearmente indipendenti. Comunque si scelgano p+1 vettori z 1 , ... , z p , z p + 1 in S, questi sono linearmente dipendenti.

Dim. Si osservi anzitutto che se z 1 , ... , z p fossero linearmente dipendenti lo

SPAZI VETTORIALI

27

sarebbero anche z 1 , ... , z p , z p + 1 (Cfr. il Teorema 4); non sar, pertanto, restrittivo supporre che z 1 , ... , z p siano linearmente indipendenti. Poich z 1 S , possiamo scrivere z 1 = b 1 x 1 + b 2 x 2 + ... + b p x p dove essendo z 1 0 (Cfr. l'Osservazione 6) i coefficienti b 1 , ... , b p non sono tutti nulli. Salvo rinumerare x 1 , ... , x p , possiamo supporre che sia b 1 0, e allora x1 = b b 1 z 1 2 x 2 ... p x p . b1 b1 b1

Ma, ogni xS si pu esprimere come combinazione lineare di x 1 , ... , x p con coefficienti a 1 , ... , a p e, quindi, risulta che x = a 1 x 1 + a 2 x 2 + ... + a p x p b b 1 = a 1 ( z 1 2 x 2 ... p x p ) + a 2 x 2 + ... + a p x p b1 b1 b1 a b b = 1 z 1 + ( a 2 a 1 2 ) x 2 + ... + ( a p a 1 p ) x p . b1 b1 b1 Questo vuole dire che z 1 , x 2 , ... , x p generano S, poich ogni xS si pu esprimere come combinazione lineare di z 1 , x 2 , ... , x p con coefficienti c1 = a1 b b , c 2 = (a 2 a 1 2 ) , ... , c p = (a p a 1 p ) . b1 b1 b1

A sua volta, poich z 2 S, possiamo scrivere z 2 = d 1 z 1 + d 2 x 2 + ... + d p x p dove essendo z 1 e z 2 linearmente indipendenti (Cfr. il Teorema 3) i coefficienti d 2 , ... , d p non sono tutti nulli. Salvo rinumerare z 1 , x 2 , ... , x p , possiamo supporre che sia d 2 0, e allora

28

Cap. I

x2 =

d1 d 1 z 1 + z 2 ... p x p . d2 d2 d2

Ma, ogni xS si pu esprimere come combinazione lineare di z 1 , x 2 , ... , x p con coefficienti c 1 , ... , c p e, quindi, risulta che x = c 1 z 1 + c 2 x 2 + ... + c p x p a1 b b z 1 + ( a 2 a 1 2 ) x 2 + ... + ( a p a 1 p ) x p = b1 b1 b1 a1 b d d b 1 z 1 + ( a 2 a 1 2 ) ( 1 z 1 + z 2 ... p x p ) + ... + ( a p a 1 p ) x p = d2 b1 b1 d2 d2 b1 =

{a b

1 1

( a2 a 1

b2 d1 b 1 ) } z 1 + { (a 2 a 1 2 ) } z 2 ... b1 d2 b1 d2

{ ( a2 a 1

b2 dp b ) ( a p a 1 p )} x p . b1 d2 b1

Questo vuole dire che z 1 , z 2 , x 3 , ... , x p generano S, poich ogni xS si pu esprimere come combinazione lineare di z 1 , z 2 , x 3 , ... , x p con coefficienti a1 b d b 1 ( a 2 a 1 2 ) 1 } , e 2 = { (a 2 a 1 2 ) } , ... , b1 b1 d2 b1 d2 b2 dp bp e p = { ( a 2 a 1 ) ( a p a 1 )} . b1 d2 b1 e1 = { Proseguendo nel ragionamento, si conclude che z 1 , ... , z p generano S. Ma, poich z p + 1 S , z p + 1 pu essere espresso come combinazione lineare di z 1 , ... , z p . Ne consegue, tenuto conto del Teorema 1, che z 1 , ... , z p , z p + 1 sono linearmente dipendenti. Dati n+1 vettori x 1 , ... , x n , x n + 1 di ordine n, poich ciascuno di essi pu essere espresso come combinazione lineare degli n vettori canonici u 1 , ... , u n di ordine n (Cfr. l'Osservazione 3), x 1 , ... , x n , x n + 1 sono
O SSERVAZIONE 12.

linearmente dipendenti.

SPAZI VETTORIALI

29

5 BASI E DIMENSIONE DI UNO SPAZIO VETTORIALE 5.1 Sia S uno spazio vettoriale non nullo di ordine n (6). Considerati p vettori x 1 , ... , x p S, si dice che x 1 , ... , x p formano una base (o riferimento) di S se ogni vettore xS esprimibile in modo univoco come combinazione lineare di x 1 , ... , x p . In tal caso, i coefficienti a 1 , ... , a p dell'espressione x = a 1 x 1 + ... + a p x p sono anche detti le coordinate di x rispetto alla suddetta base di S. Nel teorema seguente ci proponiamo di chiarire la relazione esistente tra il concetto di base e quello di insieme generatore linearmente indipendente di S.
TEOREMA 6

Sia S uno spazio vettoriale non nullo di ordine n. Una base di S un insieme generatore linearmente indipendente di S. Viceversa, un insieme generatore linearmente indipendente di S una base di S.

Dim. Supposto che x 1 , ... , x p costituiscano una base di S, intanto ovvio che x 1 , ... , x p formano un insieme generatore di S. Inoltre, poich 0x 1 + ... + 0x p = 0 , e, per definizione di base, 0 esprimibile in modo univoco come combinazione lineare di x 1 , ... , x p , tali vettori risultano linearmente indipendenti. Viceversa, supposto che x 1 , ... , x p formino un insieme generatore linearmente indipendente di S, per ogni x S esistono p numeri reali a 1 , ... , a p tali che x = a 1 x 1 + ... + a p x p . Nell'ipotesi poi che esistano altri p numeri reali b 1 , ... , b p tali che
(6) Per quanto riguarda lo spazio nullo, si veda la nota (9).

30

Cap. I

x = b 1 x 1 + ... + b p x p , si ha che ( a 1 b 1 ) x 1 + ... + ( a p b p ) x p = 0 . Ma, essendo x 1 , ... , x p linearmente indipendenti, risulta che a 1 = b 1 , ... , a p = b p , ovvero che x esprimibile in modo univoco come combinazione lineare di x 1 , ... , x p . Gli n vettori canonici u 1 , ... , u n di ordine n formano una base di R in quanto costituiscono un insieme generatore linearmente indipendente di R n (Cfr. l'Osservazione 10). Tale base detta base naturale o canonica di Rn. Si noti che, tenuto conto dell'Osservazione 3, le componenti di un generico vettore xRn possono essere interpretate come le coordinate di x rispetto alla suddetta base di R n.
O SSERVAZIONE 13.
n

ESEMPIO 12.

Si consideri lo spazio vettoriale S generato dai vettori x1 = 3 2 , x2 = 1 . 1

Tali vettori sono, come facilmente si verifica, linearmente indipendenti e, pertanto, costituiscono una base di S. Al contrario, i vettori x1 = 3 2 , x2 = 1 1 , x3 = 4 3

non costituiscono una base di S. Infatti, pur formando x 1 , x 2 , x 3 un insieme generatore di S, essi sono linearmente dipendenti (x 1 + x 2 x 3 = 0) e, quindi, non consentono di esprimere in modo univoco ogni elemento x S come combinazione lineare di x1 , x2 , x3 . Per esempio, il vettore

SPAZI VETTORIALI

31

x= 8 6 pu essere espresso come combinazione lineare di x 1 , x 2 , x 3 secondo i coefficienti a 1 = 1 , a 2 = 1 , a 3 = 1 oppure per mezzo dei coefficienti a 1 = 0 , a 2 = 0 , a 3 = 2. Se uno spazio vettoriale non nullo S di ordine n possiede una base costituita da p vettori, allora ogni altra base di S formata da p vettori. Supponiamo, infatti, che x 1 , ... , x p e x 1 , ... , x q siano due basi di S. Se fosse q > p, poich ciascun x k (k = 1, ... , q) pu essere espresso come combinazione lineare di x 1 , ... , x p , tenuto conto del Teorema 5, x 1 , ... , x q sarebbero linearmente dipendenti, in contrasto con l'ipotesi che questi forO SSERVAZIONE 14.

mino una base di S. Non potendo essere q > p, deve essere q p. Ma, con un ragionamento analogo a quello ora svolto, si perviene alla conclusione che non pu essere q < p; dunque, q = p. 5.2 Dato uno spazio vettoriale non nullo S di ordine n, supponiamo che S contenga p vettori linearmente indipendenti e che, comunque si scelgano p+1 vettori in S, questi risultino linearmente dipendenti; si dice allora che S ha dimensione p e si scrive dim(S) = p (7) (8). Pi brevemente, possiamo dire che la dimensione di S il massimo numero di vettori linearmente indipendenti esistenti in S. Si noti che uno spazio vettoriale non nullo S di ordine n ha dimensione compresa tra 1 e n. In effetti, S contiene almeno un vettore x 0 e, quindi, dim(S) 1; inoltre, comunque si scelgano n+1 vettori in S, questi risultano linearmente dipendenti (Cfr. l'Osservazione 12) e, pertanto, dim(S) n. z
O SSERVAZIONE 15.
(7) Ometteremo, talvolta, di indicare la dimensione di uno spazio vettoriale. (8) Per quanto riguarda lo spazio nullo, si veda la nota (9).

32

Cap. I

Nel teorema seguente ci proponiamo di stabilire il legame esistente tra il concetto di base e quello di dimensione.
TEOREMA 7

Sia S uno spazio vettoriale non nullo di ordine n. Se dim(S) = p, allora S ha una base formata da p vettori. Viceversa, se S ha una base costituita da p vettori, allora dim(S) = p. Dim. Se dim(S) = p, S contiene p vettori x 1 , ... , x p linearmente indipendenti; inoltre, qualunque sia x appartenente a S, i p+1 vettori x 1 , ... , x p , x sono linearmente dipendenti. Ne consegue (Cfr. il Teorema 2) che x si pu esprimere come combinazione lineare di x 1 , ... , x p e, quindi, che x 1 , ... , x p costituiscono un insieme generatore linearmente indipendente di S, ovvero una base di S. Viceversa, supponiamo che x 1 , ... , x p formino una base di S. Comunque si scelgano p+1 vettori in S, questi risultano linearmente dipendenti e ci prova che dim(S) = p. Poich uno spazio vettoriale non nullo S di ordine n ha comunque dimensione finita compresa tra 1 e n (Cfr. l'Osservazione 15), S possiede sempre una base (9).
COROLLARIO.

5.3 Vogliamo adesso mostrare la possibilit di costruire una base di uno spazio vettoriale di ordine n e dimensione p >1 partendo da un insieme di vettori linearmente indipendenti di numerosit minore di p (completamento di una base).

(9) Si assume come base dello spazio nullo di ordine n l'insieme costituito dal vettore zero di ordine n (bench questo non sia linearmente indipendente). Per definizione, si pone poi la dimensione dello spazio nullo pari a zero.

SPAZI VETTORIALI

33

TEOREMA 8

Sia S uno spazio vettoriale di ordine n e dimensione p >1. Posto che x 1 , ... , x p1 siano p 1 (1 p 1 < p) vettori linearmente indipendenti appartenenti a S, possibile trovare p p 1 vettori x p1 + 1 , ... , x p in S in modo tale che x 1 , ... , x p1 , x p1 + 1 , ... , x p formino una base di S.

Dim. Indichiamo con S 1 lo spazio vettoriale generato da x 1 , ... , x p1 . Poich x 1 , ... , x p1 non formano una base di S, esister qualche elemento x p1 + 1 S tale che x p1 + 1 S 1 , cio non esprimibile come combinazione lineare di x 1 , ... , x p1 . Ne consegue che x 1 , ... , x p1 , x p1 + 1 costituiscono un insieme di vettori linearmente indipendenti. Ripetendo il procedimento quante volte occorre, otteniamo in definitiva un insieme di p vettori linearmente indipendenti che formano una base di S.
COROLLARIO.

Ogni insieme di vettori linearmente indipendenti appartenenti a uno spazio vettoriale S di ordine n e dimensione p parte di una base di S.

TEOREMA 9

Il completamento di una base di uno spazio vettoriale S di ordine n e dimensione p >1 pu avvenire in infiniti modi. Dim. Si considerino nuovamente i p 1 +1 vettori linearmente indipendenti x 1 , ... , x p1 , x p1 + 1 di cui al teorema precedente e il vettore z = b 1 x 1 + ... + b p1 x p1 + b p1 + 1 x p1 + 1 con b 1 , ... , b p1 , b p1 + 1 numeri reali arbitrari e b p1 + 1 0. Vogliamo anzitutto dimostrare che anche x 1 , ... , x p1 , z sono linearmente indipendenti, vale a dire che la relazione

34

Cap. I

a 1 x 1 + ... + a p1 x p1 + a p1 + 1 z = 0 implica che sia a 1 = ... = a p1 = a p1 + 1 = 0. Infatti, la relazione precedente pu essere scritta nella forma a 1 x 1 + ... + a p1 x p1 + a p1 + 1 (b 1 x 1 + ... + b p1 x p1 + b p1 + 1 x p1 + 1) = 0 ovvero nell'altra ( a 1 + a p1 + 1 b 1 ) x 1 + ... + ( a p1 + a p1 + 1 b p1 ) x p1 + a p1 + 1 b p1 + 1 x p1 + 1 = 0 . Ma, avendo supposto che x 1 , ... , x p1 , x p1 + 1 siano linearmente indipendenti e b p1 + 1 0, risulta a p1 + 1 = 0 e anche a 1 = ... = a p1 = 0; quindi, x 1 , ... , x p1 , z sono linearmente indipendenti. Dato che z arbitrario, da quanto precede segue subito l'affermazione del teorema. Ogni spazio vettoriale S di ordine n e dimensione p ammette infinite basi. Se p >1, ci un'immediata conseguenza del teorema precedente; se p =1, ogni vettore x 0 appartenente a S forma chiaramente una base di S.
O SSERVAZIONE 16.
Fig. 7

S x1 x3 x2 0
basi di S

x1 , x2 x1 , x3 x2 , x3

SPAZI VETTORIALI

35

6 SOTTOSPAZI VETTORIALI 6.1 Sia S uno spazio vettoriale e supponiamo, per concretezza, che S non sia lo spazio nullo. Considerato un sottoinsieme non vuoto S 1 di vettori appartenenti a S, si dice che S 1 costituisce un sottospazio vettoriale di S o, pi semplicemente, un sottospazio di S se, per tutti gli x , y S 1 e ogni a R, accade che x + y S 1 e a x S 1 . Tale denominazione giustificata dal fatto che ogni sottospazio di S esso stesso uno spazio vettoriale, come risulta immediatamente dalla definizione data. Ovviamente, sia S sia S 0 (dello stesso ordine di S) sono sottospazi di S (sottospazi impropri).
E SEMPIO 13.

Dati p vettori x 1 , ... , x p appartenenti a Rn, lo spazio vettoriale

da essi generato , chiaramente, un sottospazio di Rn.


E SEMPIO 14.

Lo spazio vettoriale generato dai vettori x1 = 1 0 , x2 = 1 1

un sottospazio di R2 (coincidente con R 2).


E SEMPIO 15.

Lo spazio vettoriale S 1 generato dai vettori 1 x1 = 0 0 0 , x2 = 1 0

un sottospazio di R3. Lo spazio vettoriale S 2 generato dal vettore x 1 un sottospazio di S 1 e, quindi, anche un sottospazio di R3. Lo spazio vettoriale S 3 generato dal vettore x 2 un sottospazio di S 1 e, quindi, anche un sottospazio di R3.

36

Cap. I

TEOREMA 10

Dato un sottospazio S 1 di uno spazio vettoriale non nullo S, dim(S 1) dim(S).

Dim. Qualora S 1 sia un sottospazio improprio di S, il teorema risulta banalmente vero. Infatti, posto dim(S) = p, se S 1 = S0 , allora 0 = dim(S1) < dim(S) = p; se S 1 = S, allora dim(S1) = p = dim(S). Nel caso poi in cui S 1 sia un sottospazio proprio di S, S 1 possiede una base formata da p 1 = dim(S1) vettori i quali appartengono anche a S ma, chiaramente, non costituiscono una base di S. Quindi, deve risultare p 1 = dim(S1) < dim(S) = p. Riprendendo in esame gli spazi vettoriali definiti nell'Esempio 15, si verifica facilmente che: (i) dim(S 1) = 2 < dim(R3) = 3; (ii) dim(S 2) = 1 < dim(S 1) = 2; (iii) dim(S 3) = 1 < dim(S 1) = 2.
E SEMPIO 16.

6.2 Siano S 1 e S 2 sottospazi di uno spazio vettoriale non nullo S. Si chiama intersezione di S 1 e S 2 l'insieme, denotato con il simbolo S 1S 2 , costituito da tutti quei vettori che appartengono sia a S 1 sia a S 2 .
TEOREMA 11

Dati due sottospazi S 1 e S 2 di uno spazio vettoriale non nullo S, anche S 1S 2 un sottospazio di S.

Dim. S 1S 2 contiene il vettore nullo dato che questo appartiene a S 1 e a S 2 ; pertanto, in ogni caso, S 1S 2 non vuoto. Considerati due vettori z 1 , z 2 S 1S 2 , ciascuno di essi, per definizione di intersezione, appartiene a S 1 e a S 2 . Ne segue che, essendo S 1 e S 2 spazi vettoriali, z 1 + z 2 appartiene a S 1 e a S 2 ; quindi, z 1 + z 2 S 1S 2 .

SPAZI VETTORIALI

37

Analogamente, per tutti gli z S 1S 2 e ogni a R, risulta che a z S 1S 2 e questo completa la dimostrazione del teorema.
ESEMPIO 17.

Sia S 1 il sottospazio di R3 generato dai vettori 1 x1 = 0 0 1 , x2 = 2 . 1

Analogamente, sia S 2 il sottospazio di R3 generato dai vettori 0 y1 = 1 0 2 , y2 = 2 . 0

Indicando con z un generico vettore appartenente a S 1S 2 , poich deve essere z S 1 e z S 2 , possiamo scrivere ( a 1 , a 2 , b 1 , b 2 R) z = a 1 x1 + a 2 x2 , z = b1 y1 + b2 y2 da cui a 1 x1 + a 2 x2 b1 y1 b2 y2 = 0 . Ora, la relazione precedente soddisfatta ponendo a 1 = 2c , a 2 = 0 , b 1 = 2c , b 2 = c (c R, arbitrario); pertanto, 2 z = a 1 x1 + a 2 x2 = b1 y1 + b2 y2 = c 0 , 0 ovvero S 1S 2 costituito da tutti i vettori della forma 2 c 0 0 con c variabile in R. 6.3 Siano S 1 e S 2 sottospazi di uno spazio vettoriale non nullo S. Si chiama

38

Cap. I

somma di S 1 e S 2 l'insieme, denotato con S 1+ S 2 , costituito da tutti quei vettori della forma x + y con xS 1 e yS 2 .
Fig. 8

S1 x

S1 + S2 x+y

S2 y 0

TEOREMA 12

Dati due sottospazi S 1 e S 2 di uno spazio vettoriale non nullo S, anche S 1+ S 2 un sottospazio di S.

Dim. Chiaramente, S 1+ S 2 contiene il vettore nullo e quindi, in ogni caso, S 1+ S 2 non vuoto. Supposto poi che z 1 S 1+ S 2 e z 2 S 1+ S 2 , esisteranno vettori x 1 , x 2 S 1 e y 1 , y 2 S 2 tali che z 1 = x 1 + y 1 e z 2 = x 2 + y 2 . Ne consegue che z 1 + z 2 = (x 1 + y 1 ) + (x 2 + y 2 ) = (x 1 + x 2 ) + (y 1 + y 2 ) S 1+ S2 . Analogamente, per ogni a R, risulta che a z 1 = a (x 1 + y 1 ) S 1+ S2 . Pertanto, S 1+ S 2 un sottospazio di S.

SPAZI VETTORIALI

39

Siano S 1 e S 2 , sottospazi di R3, definiti come nell'Esempio 17. Indicando con x e y due generici vettori appartenenti, rispettivamente, a S1 e a S 2 , risulta (c 1 , c 2 , d 1 , d 2 R)
E SEMPIO 18.

x + y = c 1 x 1 + c2 x 2 + d 1 y 1 + d 2 y 2 . Chiaramente, al variare di c 1 , c 2 , d 1 , d 2 in R, c 1 x 1 + c 2 x 2 descrive S 1 e, a sua volta, d 1 y 1 + d 2 y 2 descrive S 2 . Al tempo stesso, poich x 1 , x 2 , y 1 , y 2 formano, come si pu facilmente verificare, un insieme generatore di R3, c 1 x 1 + c 2 x 2 + d 1 y 1 + d 2 y 2 descrive R3, cosicch, in questo caso, S 1+ S2 = R3. 6.4 Siano S 1 e S 2 sottospazi di uno spazio vettoriale non nullo S. Se S 1S 2 = S0 , S 1+ S 2 detta somma diretta e la si scrive S 1 S 2 . Ovviamente, S 1S 2 un sottospazio di S.
ESEMPIO 19.

Sia S 1 il sottospazio di R2 generato dal vettore x1 = 0 . 1

Analogamente, sia S 2 il sottospazio di R2 generato dal vettore y1 = 1 . 2 Si verifica facilmente che S 1+ S2 = R2. Indicando poi con z un generico vettore appartenente a S 1S 2 , poich deve essere z S 1 e z S 2 , possiamo scrivere (a , b R) z = ax 1 , z = by 1 da cui a x 1 by 1 = 0 . Ma, essendo x 1 e y 1 linearmente indipendenti, la relazione che precede soddisfatta soltanto qualora sia a = b = 0. Pertanto, z = 0 e S 1S 2 = S0 e,

40

Cap. I

dunque, R 2 = S1 S 2 .
E SEMPIO 20.

Riprendiamo in esame i sottospazi S 1 e S 2 di R3 considerati negli Esempi 17 e 18. Abbiamo gi dimostrato che S 1+ S2 = R3 e che S 1S 2 diverso da S 0 ; quindi, R3 non somma diretta di S 1 e S 2 .

6.5 Dati S 1 e S 2 , sottospazi di uno spazio vettoriale non nullo S, nel caso che S sia somma diretta di S 1 e S 2 , si dice che S 1 e S 2 sono sottospazi complementari o supplementari (l'uno rispetto all'altro) in S (10).
Fig. 9

S1 S2

R2 = S1 S2

Il teorema che segue fornisce una condizione necessaria e sufficiente affinch S 1 e S 2 siano sottospazi complementari in S.
TEOREMA 13

Dati due sottospazi S 1 e S 2 di uno spazio vettoriale non nullo S, condizione necessaria e sufficiente affinch sia S = S1S 2 che ciascun vettore appartenente a S si possa esprimere in modo univoco come somma di un vettore appartenente a S 1 e di un vettore appartenente a S 2 .

(10) Si osservi che la nozione di sottospazio complementare concettualmente distinta da quella di insieme complementare a cui si fa riferimento nella teoria degli insiemi.

SPAZI VETTORIALI

41

Dim. Si supponga che S sia somma diretta di S 1 e S2 . Allora, per definizione, S = S 1+ S 2 , cio ciascun vettore x S somma di un vettore yS 1 e di un vettore z S 2 . Supposto che x sia esprimibile come somma di altri due vettori y e z appartenenti, rispettivamente, a S 1 e a S 2 , avremo che y + z = y + z . Quest'ultima relazione pu essere scritta nella forma y y = z z dove, essendo S 1 e S 2 sottospazi, y yS 1 e z z S 2. Ma, stante la definizione di somma diretta, deve essere anche S 1S 2 = S0 e, perci, y y = 0 e z z = 0 . Ne consegue che y = y e z = z , ovvero che x pu essere espresso univocamente come somma di y e z. Si supponga, adesso, che ogni x S possa essere espresso univocamente come somma di un vettore yS 1 e di un vettore z S 2 . Intanto, S = S 1+ S 2 . Supposto poi che xS 1S 2 , x pu essere scritto sia come somma di xS 1 e 0 S 2 , sia come somma di 0 S 1 e xS 2 . Ma essendo x, per ipotesi, esprimibile univocamente come somma di due vettori, l'uno appartenente a S 1 e l'altro appartenente a S 2 , ne consegue che x = 0, e cio che S 1S 2 = S0 (11). z Dato un sottospazio S1 di uno spazio vettoriale non nullo S, vogliamo dimostrare l'esistenza di (almeno) un sottospazio S 2 di S tale che S 1 e S 2 siano sottospazi complementari in S.
TEOREMA 14

Dato un sottospazio S 1 di uno spazio vettoriale non nullo S, esiste in S (almeno) un sottospazio S 2 tale che S = S1S 2 .

Dim. Qualora S 1 sia un sottospazio improprio di S, il teorema risulta banalmente vero. Infatti, come facilmente si verifica, se S 1 = S0 , allora S2 = S; se S1 = S, allora S 2 = S0 .
(11) Il lettore invitato a interpretare gli Esempi 19 e 20 in funzione del teorema ora dimostrato.

42

Cap. I

Nel caso poi che sia 0 < dim(S1) = p 1 < dim(S) = p, S1 ha una base costituita da p 1 vettori x 1 , ... , x p1 i quali, per il fatto che S 1 un sottospazio di S, sono parte di una base di S (Cfr. il Corollario al Teorema 8). Considerati p p 1 vettori x p1 + 1 , ... , x p che completano una base di S e dei quali il Teorema 8 assicura l'esistenza, tali vettori formano una base di uno spazio S 2, sottospazio di S. Vogliamo dimostrare che S = S1 + S2 , S1 S2 = S0 . ` E ovvio che S = S 1+ S 2 . Indicando poi con z un generico vettore appartenente a S 1 S 2 , risulta z = a 1 x 1 + ... + a p1 x p1 , z = a p1 + 1 x p1 + 1 + ... + a p x p da cui a 1 x 1 + ... + a p1 x p1 a p1 + 1 x p1 + 1 ... a p x p = 0 . Ma, poich x 1 , ... , x p1 , x p1 + 1 , ... , x p sono linearmente indipendenti, la relazione precedente implica che sia a 1 = ... = a p1 = a p1 + 1 = ... = a p = 0; ne consegue che z = 0 e, quindi, che S 1 S 2 = S0 .
E SEMPIO 21.

Sia S1 il sottospazio di R2 la cui base data dal vettore x1 = 1 . 1

Completata la base di R 2 mediante il vettore x2 = 0 , 1 questo forma la base di un sottospazio S 2 complementare di S1 in R 2. z

Ci proponiamo, adesso, di stabilire la relazione esistente tra la dimensione di uno spazio vettoriale non nullo S e la dimensione di due suoi sotto-

SPAZI VETTORIALI

43

spazi S 1 e S 2 , tali che S = S 1S 2.


TEOREMA 15

Dati due sottospazi S1 e S2 di uno spazio vettoriale non nullo S, tali che S = S1S 2 , risulta dim(S) = dim(S1) + dim(S2) .

Dim. Qualora sia S 1 = S0 (S2 = S) oppure S 2 = S0 (S1 = S), il teorema risulta banalmente vero. Supponiamo, dunque, che siano 1 p1 = dim(S1) < dim(S) e 1 p2 = dim(S2) < dim(S) . Se x 1 , ... , x p1 formano una base di S1 e, analogamente, x p1 + 1 , ... , x p1 + p2 formano una base di S2, per ogni y S 1 e ogni z S 2, si ha y = a 1 x 1 + ... + a p 1 x p 1 , z = a p 1 + 1 x p 1 + 1 + ... + a p 1 + p 2 x p 1 + p 2 . Ma, poich S = S1S 2 , ogni vettore x S esprimibile in modo univoco come somma di y e z. Questo prova che x 1 , ... , x p1 , x p1 + 1 , ... , x p1 + p2 costituiscono una base di S e che dim(S) = p1 + p2 = dim(S1) + dim(S2) (12).

(12) Reciprocamente, se dim(S) = dim(S1 ) + dim(S2 ) , S1 S2 = S0 allora S = S1 S 2 . Il lettore invitato a dimostrare tale asserzione.

44

Cap. I

Cap. I

COMPLEMENTI

1 Dati tre vettori x = x i


(n , 1 )

, y = yi

(n , 1 )

,z = zi

(n , 1 )

, l'operazione di addi-

zione gode della cosiddetta propriet di cancellazione espressa dalla proposizione seguente: x + z = y + z se e soltanto se x = y. Infatti, x + z = y + z equivale a x i + z i = y i + z i per i = 1, ... , n. D'altro canto, per la propriet di cancellazione dei numeri reali, x i + z i = y i + z i se e soltanto se x i = y i (i = 1, ... , n). 2 Dati un numero reale c e un vettore x = x i
(n , 1 )

, se cx = 0, allora c = 0

oppure x = 0. Infatti, cx = 0 equivale a cx i = 0 per i = 1, ... , n. D'altro canto, per una nota propriet dei numeri reali, cx i = 0 se e soltanto se risulta c = 0 oppure x i = 0 (i = 1, ... , n). Con un ragionamento simile si dimostra poi che se cx = cy con c 0, allora x = y. 3 Sia S uno spazio vettoriale e supponiamo, per concretezza, che S non sia lo spazio nullo. Considerati due sottospazi S 1 e S 2 di S, si chiama unione di S 1 e S 2 l'insieme, denotato con il simbolo S 1 S 2 , costituito da tutti quei vettori che

COMPLEMENTI

45

appartengono a S 1 o a S 2 . Ovviamente, S 1 S 2 un sottoinsieme di S; non , tuttavia, in generale un sottospazio di S. Per esempio, siano S 1 e S 2 i sottospazi di R 2 generati, rispettivamente, dai vettori x1 = 1 1 , y1 = 0 . 1

` E facile verificare che la somma di x 1 e y 1 pur appartenendo x 1 e y 1 a S 1 S 2 non appartiene a S 1 S 2 , come la definizione di sottospazio richiede. 4 Vogliamo estendere le definizioni di intersezione, somma, somma diretta di due sottospazi al caso in cui si considerino t > 2 sottospazi S 1 , ... , S t d i uno spazio vettoriale non nullo S. Si chiama intersezione di S 1 , ... , S t l'insieme denotato con il simbolo S 1 ... S t oppure con l'altro

S
t k =1

costituito da tutti quei vettori ciascuno dei quali appartiene a ogni S k per k = 1, ... , t . Si chiama somma di S 1 , ... , S t l'insieme denotato con il simbolo S 1 + ... + S t oppure con l'altro

Sk k =1
costituito da tutti quei vettori della forma x 1 + ... + x t c o n x k S k p e r k = 1, ... , t . Si dimostra facilmente che sia l'intersezione sia la somma di S 1 , ... , S t sono sottospazi di S. La somma di S 1 , ... , S t detta somma diretta e la si scrive S 1 ... S t se, per ogni h = 1, ... , t ,

46

Cap. I

S h S k = S0 .
kh

Ovviamente, S 1 ... S t un sottospazio di S. Si dimostra che S somma diretta di S 1 , ... , S t se e soltanto se ciascun vettore xS pu essere espresso univocamente come somma di x 1 , ... , x t con x k S k per k = 1, ... , t . 5 Siano S uno spazio vettoriale di dimensione p e S 1 un suo sottospazio. Dato un vettore x 0 S, il sottoinsieme L di S costituito da tutti i vettori della forma x = x 0 + y, ottenuti facendo variare y in S 1 , si chiama variet lineare di direzione o giacitura S 1 e si scrive L = x 0 + S 1 . Si dice anche che L ottenuta da S 1 mediante la traslazione x 0 . La dimensione di L indicata con dim(L) , per definizione, eguale alla dimensione di S 1 .

x0

L = x 0 + S1 S1

Si noti che, essendo 0S 1 , x 0 L. Inoltre, dato un vettore yS 1 , poich la variet lineare L = x 0 + y + S1 coincide evidentemente con la variet lineare L = x 0 + S 1 , x 0 si pu sostituire con x 0 + y, ovvero x 0 arbitrario in L. Ovviamente, ogni sottospazio S 1 di S una variet lineare (ottenuta prendendo x 0 S1 e, in particolare, x 0 = 0).

COMPLEMENTI

47

Non , tuttavia, vero il contrario: in effetti, come facilmente si verifica, una variet lineare un sottospazio se e soltanto se x 0 S 1 . Tenuto conto di ci e del fatto che x 0 arbitrario in L, possiamo anche dire che una variet lineare un sottospazio se e soltanto se il vettore nullo vi appartiene. Una variet lineare di dimensione h = 1, ottenuta mediante la traslazione x 0 , anche detta retta passante per x 0 . A sua volta, una variet lineare di dimensione h = 2, ottenuta mediante la traslazione x 0 , anche detta piano passante per x 0 . Infine, una variet lineare di dimensione h = p1, ottenuta mediante la traslazione x 0 , talvolta denominata iperpiano passante per x 0 (1). 6 Una definizione pi generale di spazio vettoriale la seguente. Siano S un insieme (non vuoto) di oggetti di natura qualsiasi e R l'insieme dei numeri reali. Si dice che S uno spazio vettoriale su R se, definita una operazione di addizione (+) tra gli elementi di S e una operazione di moltiplicazione per un numero reale (.) tra gli elementi di R e quelli di S, il risultato di queste operazioni ancora un elemento di S e inoltre, per tutti gli , , S e tutti gli a , bR, si ha: 1. + = + 2. ( + ) + = + ( + ) 3. esiste un (unico) elemento S tale che + = 4. esiste un (unico) elemento () S tale che + () = 5. a .( + ) = a. + a. 6. (a + b). = a. + b. 7. (ab) . = a.(b .) 8. 1. = .
(1) Per ulteriori considerazioni si rinvia al volume di E. Sernesi citato in Bibliografia.

48

Cap. I

Esempi elementari di spazi vettoriali secondo la definizione ora data oltre allo spazio vettoriale definito nel paragrafo 4 di questo capitolo sono i seguenti (2) : ( a ) l'insieme Pp [x] dei polinomi a coefficienti reali di grado inferiore o eguale a p; (b) l'insieme P [x] di tutti i polinomi a coefficienti reali. Dati p elementi 1 , ... , p di S e p numeri reali c 1 , ... , c p , si chiama combinazione lineare di 1 , ... , p con coefficienti c 1 , ... , c p l'elemento S espresso da = c 1 1 + ... + c p p . Dati p elementi 1 , ... , p di S, si dice che essi sono linearmente dipendenti se esistono p numeri reali c 1 , ... , c p non tutti nulli tali che c 1 1 + ... + c p p = . Se, al contrario, la relazione precedente implica che sia c 1 = ... = c p = 0, allora 1 , ... , p si dicono linearmente indipendenti. Dati p elementi 1 , ... , p di S, si dice che essi formano una base (finita) di S se ogni S esprimibile in modo univoco come combinazione lineare di 1 , ... , p . Si pu dimostrare che se S ha una base formata da p elementi, allora ogni altra base di S composta da p elementi. Il numero p detto la dimensione (finita) di S e si scrive dim(S) = p. Se S formato dal solo elemento (spazio nullo) si pone, per definizione, dim(S) = 0. Per esempio, l'insieme Pp [x] dei polinomi a coefficienti reali di grado inferiore o eguale a p uno spazio vettoriale di dimensione p+1 poich ha

(2) Nell'uno e nell'altro caso, le operazioni di addizione tra polinomi e di moltiplicazione di un numero reale per un polinomio sono definite nel modo usuale. L'elemento dato dal polinomio a coefficienti tutti nulli.

COMPLEMENTI

49

una base costituita da 0 1 , 1 x , ... , p xp . Al contrario, come si pu facilmente dimostrare, l'insieme P [x] di tutti i polinomi non possiede una base finita e, in tal caso, si dice che uno spazio vettoriale di dimensione infinita. Nel seguito, ci occuperemo esclusivamente di spazi vettoriali di dimensione finita o nulla. Avvertiamo inoltre che, almeno sia altrimenti specificato, con tale dizione intenderemo riferirci a spazi vettoriali cos come sono stati definiti nel paragrafo 4 del presente capitolo. 7 Due spazi vettoriali S e Z su R si dicono isomorfi se tra essi possibile stabilire una corrispondenza biunivoca () (3) la quale verifichi le propriet seguenti ( , , S; , , Z; cR) (4) : (i) se e , allora ( + )( + ) ; (ii) se , allora ( c ) ( c ) . Si noti che, qualora due spazi vettoriali S e Z siano isomorfi, essi risultano indistinguibili per quanto attiene allo loro struttura di spazio vettoriale, nel senso che ogni proposizione o propriet di S deducibile mediante gli assiomi che definiscono S medesimo pu essere tradotta in una analoga proposizione o propriet di Z, e viceversa. Sia adesso S uno spazio vettoriale su R di dimensione p. Se 1 , ... , p costituiscono una base di S, a ogni elemento S risultano univocamente associati p numeri reali c 1 , ... , c p , ossia un vettore cRp . Viceversa, a ogni vettore cRp formato da p numeri reali c 1 , ... , c p risulta univocamente associato un elemento S . Sussistendo una corrispondenza biunivoca tra S e R p e risultando inoltre verificate le condizioni (i) e (ii) elencate in precedenza, si conclude che S e
(3) Ovvero, una funzione che sia al tempo stesso iniettiva e surgettiva. (4) I simboli utilizzati per denotare le operazioni di addizione e moltiplicazione per un numero reale hanno, in generale, un diverso significato in S e Z.

50

Cap. I

Rp sono isomorfi e, quindi, che tutti gli spazi vettoriali su R di una stessa dimensione sono isomorfi (5). Si noti che tale isomorfismo dipende dalla base prescelta di S o, come anche si dice, non canonico.

(5) Si pu facilmente dimostrare che, reciprocamente, tutti gli spazi vettoriali su R isomorfi hanno una stessa dimensione.

MATRICI

51

Cap. II

MATRICI

1 GENERALIT SULLE MATRICI 1.1 Chiamiamo matrice di ordine (n , p) (1) o, pi semplicemente, matrice (n , p) ogni quadro di n.p numeri reali. Tali numeri sono detti elementi o componenti della matrice, sono disposti su n righe e p colonne e racchiusi tra parentesi quadre (2). Per esempio, 2 1 5 0 3 6 una matrice di ordine (2 ,3). Seguendo una notazione assai diffusa, denoteremo le matrici con lettere maiuscole in grassetto (X , Y, ...). Fanno eccezione a questa regola le matrici di ordine (n ,1) e (1 , p) corrispondenti, rispettivamente, a un vettore colonna di ordine n e a un vettore riga di ordine p per le quali si user di preferenza la simbologia introdotta nel capitolo precedente. Impiegheremo la scrittura X(n , p ) per evidenziare che una matrice X di ordine (n , p). Rappresenteremo, inoltre, simbolicamente una generica matrice X di
(1) Si legge n per p. Ometteremo, talvolta, di indicare l'ordine di una matrice. (2) Alcuni, invece delle parentesi (quadre o tonde), usano le doppie sbarre verticali.

52

Cap. II

ordine (n , p) con x1 1 xn 1 x1 p xn p

dove a ciascun elemento x i j (i = 1, ... , n; j = 1, ... , p) sono associati due indici, il primo dei quali si riferisce alla riga e il secondo alla colonna di appartenenza. Talvolta, la matrice X di cui sopra rappresentata, pi compattamente, con x i j (n , p ) oppure con x i j . 1.2 Due matrici X = x i j (n , p ) e Y = y i j (n , p ) sono eguali, e si scrive X = Y, se e soltanto se x i j = y i j per i = 1, ... , n e j = 1, ... , p. In altri termini, due matrici dello stesso ordine sono eguali se e soltanto se gli elementi corrispondenti sono eguali.

1.3 Indicheremo, adesso, alcuni tipi particolari di matrici che ricorrono frequentemente in molte questioni di algebra lineare. (a) La matrice di ordine (n , p) i cui elementi sono tutti eguali a zero detta matrice nulla (o matrice zero) ed indicata con il simbolo O. Per esempio, la matrice O= 0 0 0 0 0 0 la matrice nulla di ordine (2 ,3). (b) Se una matrice possiede lo stesso numero n di righe e di colonne si dice che una matrice quadrata di ordine (n , n) (3). Gli elementi di una matrice quadrata X = x i j (n , n ) che hanno il primo e il secondo indice eguali (i = j) vale a dire, x 1 1 , ... , x n n formano la cosiddetta diagonale principale di X.
(3) O, pi semplicemente, una matrice (quadrata) di ordine n.

MATRICI

53

Se x i i = c i per i = 1, ... , n e x i j = 0 per i j, la matrice in questione detta diagonale. Poich una matrice diagonale X caratterizzata dagli elementi c 1 , ... , c n che compaiono sulla diagonale principale, essendo tutti gli altri eguali a zero, si usa talvolta scrivere X = diag(c 1 , ... , c n ) . Per esempio, la matrice X = 6 0 = diag(6 ,1) 0 1 una matrice diagonale di ordine (2 ,2). In particolare, se in una matrice diagonale X risulta x i i = c per i = 1, ... , n, X detta matrice scalare. (c) Se in una matrice scalare di ordine (n , n) gli elementi della diagonale principale sono tutti eguali a 1, la matrice in questione detta matrice unit (o matrice identica) ed usualmente indicata con il simbolo I. Per esempio, la matrice I= 1 0 0 1 la matrice unit di ordine (2 ,2).

2 ADDIZIONE E MOLTIPLICAZIONE PER UN NUMERO REALE. SOTTRAZIONE 2.1 Date due matrici X = x i j (n , p ) e Y = y i j (n , p ) , si chiama somma di X e Y la matrice, che indichiamo con X + Y, i cui elementi sono espressi ordinatamente dai numeri x i j + y i j per i = 1, ... , n e j = 1, ... , p. Si ha, cio, X+Y= x1 1 + y1 1 xn 1 + yn 1
ESEMPIO 1.

x1 p + y1 p . xn p + yn p

Date le matrici

54

Cap. II

2 1 X= 7 0 3 1 si ha

1 3 , Y= 0 7 1 0

2 1 1 3 3 4 X+Y= 7 0 + 0 7 = 7 7 . 3 1 1 0 4 1

Come risulta immediatamente dalla definizione data, l'operazione in questione che riceve la denominazione di addizione commutativa e associativa; vale a dire, qualunque siano le matrici X , Y, Z di ordine (n , p), si ha (i) X+Y=Y+X

(ii) (X + Y) + Z = X + (Y + Z). Quest'ultima propriet consente di indicare, senza possibilit di equivoci, la somma di X , Y, Z con X + Y + Z, evitando l'uso delle parentesi, e di estendere l'addizione a un numero qualsiasi, purch finito, di matrici di ordine (n , p). 2.2 Dati un numero reale c e una matrice X = x i j (n , p ) , si chiama prodotto di c per X o prodotto di X per c la matrice, che indichiamo con c X o X c, i cui elementi sono espressi ordinatamente dai numeri cx i j per i = 1, ... , n e j = 1, ... , p. Si ha, cio, cX = cx 1 1 cx n 1
ESEMPIO 2.

cx 1 p cx n p

= Xc .

Dati il numero reale c = 2 e la matrice X= 1 0 3 4 1 0

MATRICI

55

risulta cX = 2 1 0 3 = 2 0 6 = 1 0 3 2 = Xc . 4 1 0 8 2 0 4 1 0 z

L'operazione ora definita riceve la denominazione di moltiplicazione per un numero reale. Come si pu facilmente verificare, essa gode, qualunque siano le matrici X e Y di ordine (n , p) e i numeri reali a e b, delle seguenti propriet: (i) (ab)X = a(bX)

(ii) a (X + Y) = aX + aY (iii) (a + b)X = aX + bX. 2.3 Date due matrici X = x i j e Y = yij , posto (Y ) = (1)Y , si

(n , p )

(n , p )

chiama differenza di X e Y la matrice X + (Y) = X + (1)Y che scriviamo, pi semplicemente, X Y. Si ha, cio, XY= x1 1 y1 1 xn 1 yn 1 x1 p y1 p . xn p yn p

ESEMPIO 3.

Date le matrici X= 3 4 7 2 6 2 , Y= 3 2 0 2 0 2

si ha XY= 0 2 7 . 0 6 0 z

L'operazione ora definita, derivata dalle operazioni di addizione e di moltiplicazione per un numero reale, riceve la denominazione di sottrazione e consente di stabilire, qualunque siano le matrici X , Y, Z di ordine (n , p) e i

56

Cap. II

numeri reali a e b, alcuni utili risultati di immediata verifica: (i) XX=O

(ii) (X) = X (iii) (X Y) = Y X (iv) X (Y Z) = (X Y) + Z (v) a (X Y) = aX aY (vi) (a b)X = aX bX.

3 MOLTIPLICAZIONE DI MATRICI Siano X e Y due matrici tali che il numero di colonne della prima matrice sia eguale al numero di righe della seconda: per esempio, siano X = x i j (n , p ) e Y = y j k (p , q ) . Due matrici siffatte si dicono conformabili rispetto all'operazione di moltiplicazione di matrici che passiamo ora a definire. Si definisce prodotto di X per Y, nell'ordinamento scritto, e si indica con XY, la matrice Z di ordine (n , q) il cui generico elemento z i k dato da (4) z ik = xijyjk .
j=1 p

Si ha, cio, Z = z ik = xijyjk .


j=1 p

Il prodotto cos definito si dice eseguito riga per colonna. Si dice anche che la matrice X premoltiplica la matrice Y o che la matrice Y postmoltiplica la matrice X.
ESEMPIO 4.

Date le matrici

(4) Come si vedr nel seguito (Cfr. il punto 4 dei Complementi al presente capitolo), questo non l'unico modo di definire l'operazione di moltiplicazione di matrici.

MATRICI

57

1 0 X= 2 1 3 1 risulta

, Y=

0 1 1 2

0 1 XY = 1 4 . 1 5
O SSERVAZIONE 1.

Data una matrice X(n , p ) , la matrice nulla O e quella unit

I, ciascuna di ordine appropriato, verificano le ovvie propriet: (a) O (q , n ) X (n , p ) = O (q , p ) , (b) I (n , n ) X (n , p ) = X (n , p ) , X(n , p ) O (p , q ) = O (n , q ) X(n , p ) I (p , p ) = X (n , p ) .

La regola pratica che consente di verificare se due matrici sono conformabili rispetto all'operazione di moltiplicazione e, in caso affermativo, di stabilire l'ordine della matrice risultante pu essere esposta nei seguenti termini. Date due matrici X e Y di ordine, rispettivamente, (n , p) e (p , q) si scrivono, in successione, le espressioni che indicano l'ordine di ciascuna matrice; se le due matrici sono conformabili, i numeri posti all'interno dell'espressione (n , p)(p , q) i quali indicano, rispettivamente, il numero di colonne della prima matrice e di righe della seconda matrice devono essere eguali; in tal caso, si cancellano e l'espressione risultante esprime l'ordine della matrice prodotto di quelle date: (n , p)(p , q) = (n , q). z
O SSERVAZIONE 2.

Tenendo presente l'Osservazione che precede, si ha che: (i) Il prodotto di un vettore riga per un vettore colonna, entrambi di ordine n, una matrice di ordine (1 , 1) (5).
(5) Si osservi che, se in una data espressione matriciale contenente l'indicazione di una successione di operazioni (ovviamente, tutte eseguibili sulla base delle regole che per esse sono state stabilite) accade che uno dei termini sia una matrice di ordine (1,1), lecito trattare tale matrice come un numero reale.

58

Cap. II

(ii) Il prodotto di un vettore colonna di ordine n per un vettore riga di ordine p una matrice di ordine (n , p). (iii) Il prodotto di una matrice di ordine (n , p) per un vettore colonna di ordine p un vettore colonna di ordine n. (iv) Il prodotto di un vettore riga di ordine p per una matrice di ordine (p , n) un vettore riga di ordine n. Si osservi che, nella moltiplicazione, ha importanza essenziale l'ordinamento delle matrici X e Y. Infatti, due matrici che sono conformabili rispetto a tale operazione se considerate nell'ordinamento X e Y possono non esserlo se considerate nell'ordinamento inverso Y e X. Di conseguenza, pu darsi che si possa eseguire, secondo la definizione data, il prodotto di X per Y e che, invece, non si possa eseguire il prodotto di Y per X. Condizione necessaria e sufficiente affinch esistano sia XY sia YX che X e Y abbiano, rispettivamente, ordini (n , p) e (p , n). In particolare, i prodotti XY e YX esistono entrambi se X e Y sono matrici quadrate dello stesso ordine. Tuttavia, anche quando le operazioni XY e YX sono eseguibili, risulta in genere XY YX, vale a dire, l'operazione di moltiplicazione di matrici non commutativa (6). Per esempio, date le matrici X= 1 2 3 0 risulta XY = 1 3 3 3 , YX = 4 2 . 3 0 , Y= 1 1 0 1

e cio XY YX. Pu accadere, inoltre, come facile verificare attraverso esempi numerici (Cfr. il punto 3 dei Complementi a questo capitolo), che sia XY = O senza
(6) Se accade che X Y = Y X, le matrici sono dette permutabili.

MATRICI

59

che n X n Y siano eguali a O (esistenza di divisori (X , Y) dello zero (O)), oppure che sia XY = XZ con Y Z e X O (7). L'operazione di moltiplicazione di matrici gode tuttavia della propriet associativa e di quella distributiva rispetto all'addizione di matrici, che passiamo adesso a considerare. Per quanto riguarda l'associativit, date tre matrici X = xij
(n , p )

, Y = yjk

(p , q )

, Z = zks

(q , t )

immediato verificare che (X Y)Z = x i j y j k z k s = x i j y j k z k s k =1 j=1 k =1 j=1 p q = x i j y j k z k s = X(YZ) . j=1 k =1


q p q p

La propriet suddetta consente di indicare, senza possibilit di equivoci, il prodotto di X , Y, Z con XYZ, evitando l'uso delle parentesi.
ESEMPIO 5.

Date le matrici 1 0 0 X= 0 2 3 1 1 0 0 2 , Y= 1 0 1 0 , Z= 1 1 0 2

risulta 1 0 0 (X Y)Z = ( 0 2 3 1 1 0 e, analogamente, X(YZ) = 1 0 0 0 2 3 1 1 0 0 2 1 0 1 0 1 1 0 2 0 2 1 0 1 0

0 2 1 1 = 5 0 0 2 1 2

0 4 1 1 = 5 5 0 2 1 5

)=

1 0 0 0 2 3 1 1 0

0 4 0 4 1 1 = 5 5 . 1 1 1 5

(7) L'argomento sar ripreso al punto 9 dei Complementi al Cap. III.

60

Cap. II

Da quanto precede si trae immediatamente la possibilit di definire la moltiplicazione di un qualsiasi numero finito di matrici, prese in una determinata sequenza, purch beninteso ognuna sia conformabile con quella che segue nell'ordinamento stabilito. In particolare, se le matrici considerate sono quadrate e dello stesso ordine (n , n), il loro prodotto ancora una matrice quadrata di ordine (n , n). Passando poi a considerare la distributivit rispetto all'addizione di matrici, date tre matrici X = xij
(n , p )

, Y = yij

(n , p )

, Z = z jk

(p , q )

e verificato che X e Y sono dello stesso ordine mentre sia X e Z sia Y e Z sono conformabili rispetto all'operazione di moltiplicazione, risulta che (X + Y)Z = (x i j + y i j) z j k = x i j z j k + y i j z j k = X Z + Y Z .
j=1 j=1 j=1 p p p

Analogamente, nell'ipotesi che sia Z e X sia Z e Y siano conformabili rispetto all'operazione di moltiplicazione, si dimostra che Z (X + Y) = ZX + ZY . ` E ovvio che, in genere, (X + Y)Z Z(X + Y).
ESEMPIO 6.

Date le matrici X= 1 0 1 1 , Y= 1 0 1 2 , Z= 2 1 1 1 0 1

risulta (X + Y)Z =( = 1 0 + 1 0 1 1 1 2 1 0 1 1

2 1 1 1 0 1

= 4 2 2 7 2 5 2 1 1 = XZ + YZ . 1 0 1

2 1 1 + 1 0 1 0 1 1 2

O SSERVAZIONE 3.

Sussiste la relazione

MATRICI

61

(X + Y)(Z + V) = XZ + YZ + XV + YV .

Infine, dati un numero reale c e due matrici X e Y, conformabili rispetto all'operazione di moltiplicazione, risulta immediatamente che c(X Y) = (cX)Y = X(cY) .

4 INVERSIONE Data una matrice quadrata X, si chiama matrice inversa o, pi semplicemente, inversa di X ogni matrice, che indichiamo con X -1, tale che XX -1 = X -1X = I . Supposto che X -1 esista, vogliamo anzitutto mostrare che essa unica. Infatti, nell'ipotesi che esistano due matrici S e T tali che XS = SX = I , XT = TX = I premoltiplicando entrambi i membri di XS = I per T , si ottiene TXS = TI = T ; ma TX = I e, quindi, S = T. Si noti anche che X -1 dello stesso ordine di X e che (X -1 ) - 1 = X.
ESEMPIO 7.

Come si verifica facilmente, le matrici X= 2 3 5 8 , X -1 = 8 5 3 2 z

sono ciascuna l'inversa dell'altra.

Come si osservato, il passaggio da una matrice X alla sua inversa X -1 che riceve la denominazione di inversione richiede che X sia quadrata.

62

Cap. II

Tuttavia, il fatto che X sia quadrata costituisce una condizione necessaria ma non sufficiente per l'esistenza dell'inversa di X. Supponiamo infatti, come esempio banale, che sia X = 0 x1 2 0 x2 2 .

` E ovvio che, in tal caso, non esiste alcuna matrice S che premoltiplicata per X fornisce la matrice unit, poich l'elemento posto all'incrocio della prima riga con la prima colonna del prodotto S X risulta, qualunque sia S, eguale a zero. Le condizioni necessarie e sufficienti affinch esista l'inversa di una matrice X e il relativo metodo di calcolo saranno discussi in un capitolo successivo, dopo che avremo introdotto la nozione di determinante. Per il momento, ci limitiamo a porre in evidenza la seguente propriet, che una conseguenza pressoch immediata della definizione data di inversa di una matrice. Date due matrici (quadrate e dello stesso ordine) X e Y e supposto che esistano le inverse X -1 e Y -1, l'inversa del prodotto di X per Y, cio (X Y) -1, eguale al prodotto di Y -1 per X -1, cio a Y -1 X -1. Infatti, tenendo presente la definizione di inversa, si ha che (Y -1 X -1 ) XY = Y -1 (X -1 X)Y XY(Y -1 X -1 ) = X(YY -1 ) X -1 e, quindi, (X Y) -1 = Y -1 X -1 . Tenendo presente l'associativit della moltiplicazione di matrici, la propriet ora indicata pu essere estesa a un numero qualsiasi, purch finito, di matrici. Per esempio,
O SSERVAZIONE 4.

= Y -1 Y = I = XX -1 = I

(X YZV) -1 = ((X YZ)V) -1 = V - 1 ((X Y)Z) -1 = V - 1 Z - 1(X Y) -1 = V - 1 Z - 1 Y -1 X - 1 .

MATRICI

63

5 TRASPOSIZIONE Data una matrice X = x i j


(n , p )

, la matrice X' = x j i

(p , n )

, ottenuta da X

scambiando le righe con le colonne, detta la trasposta di X. L'apice indica l'operazione di trasposizione.
E SEMPIO 8.

Data la matrice 1 3 X= 1 2 0 4

risulta X' = 1 1 0 . 3 2 4 z

L'operazione di trasposizione gode di alcune importanti propriet che vogliamo, adesso, porre in evidenza. Anzitutto, com' immediato verificare, (X ')' = X , (cX)' = cX' , (X + Y)' = X' + Y' . Inoltre, date due matrici X = xij si ha che (X Y)' = Y'X' come risulta subito dal confronto di
(n , p )

, Y = yjk

(p , q )

1 x 1 j y j 1 j=
(X Y)' =

1 x n j y j 1 j= 1 x n j y j q j=
p

1 x 1 j y j q j=
e

64

Cap. II

1 y j 1 x 1 j j=
Y'X' =

1 y j 1 x n j j= 1 y j q x n j j=
p

1 y j q x 1 j j=
ESEMPIO 9.

Date le matrici X= 0 1 1 1 , Y= 1 2 0 2 1 2

si ha 2 3 (XY)' = 1 3 = Y'X' . 2 2 Tenendo presente l'associativit della moltiplicazione di matrici, la propriet sopra indicata pu essere estesa a un numero qualsiasi, purch finito, di matrici. Per esempio,
O SSERVAZIONE 5.

(XYZV)' = ((XYZ)V)' = V'((XY)Z)' = V'Z'(XY)' = V'Z'Y'X' . Infine, se esiste l'inversa di una matrice X, risulta (X -1)' = (X') -1 .

Infatti, dalla duplice identit X -1 X = I = XX -1, eseguendo la trasposizione, si ottiene (X -1 X)' = X'(X -1)' = I = (X X -1)' = (X -1 )'X' e cio che (X -1 )' l'inversa di X' la quale si scrive appunto (X') -1. Da quanto precede ovvio che, anche quando X rappresenta una matrice quadrata, in genere X' X. Tuttavia, il caso in cui si abbia X' = X assai importante e merita una considerazione a parte.

MATRICI

65

Le matrici, ovviamente quadrate, per le quali sussiste l'eguaglianza con la propria trasposta sono dette simmetriche in quanto, com' facile verificare, hanno eguali gli elementi posti simmetricamente rispetto alla diagonale principale. In altri termini, data una matrice X = x i j (n , n ) , X' = X se e soltanto se x i j = x j i per i , j = 1, ... , n. Per esempio, la matrice X= 3 1 1 2 una matrice simmetrica di ordine (2 ,2). Si osservi che, in generale, il prodotto di due matrici simmetriche non una matrice simmetrica. Vale a dire, se X' = X e Y' = Y, allora (X Y)' = Y'X' = YX ma, generalmente, YX XY e, quindi, XY non rappresenta una matrice simmetrica. Vale, invece, l'importante propriet per cui sia il prodotto di una matrice per la sua trasposta sia il prodotto della trasposta di una matrice per la matrice stessa sono una matrice simmetrica. Infatti, (X X')' = (X ')'X' = XX' , (X'X)' = X'(X ')' = X'X . In genere, XX' X'X ma, se X' = X, allora XX' = X'X.
E SEMPIO 10.

Data la matrice X= 1 2 0 1 3 7

si ha XX' = 1 2 0 1 3 7 1 0 3 = 2 1 7 5 2 11 2 1 7 , 11 7 58

66

Cap. II

mentre X'X = 1 0 3 2 1 7 1 2 10 19 . 0 1 = 19 54 3 7 z

Infine, sussiste l'ulteriore propriet secondo la quale se X una matrice simmetrica ed esiste l'inversa X -1 anche quest'ultima una matrice simmetrica. Infatti, poich (X -1)' = (X')- 1 , se X' = X, allora (X -1)' = X -1 . 6 ELEVAZIONE A POTENZA Data una matrice quadrata X, si chiama potenza di X con esponente n, e si scrive Xn , il prodotto di n matrici eguali a X. Si pone poi X 0 = I.
E SEMPIO 11.

Data la matrice X = 1 2 3 7

risulta X 2 = 1 2 3 7 1 2 = 5 16 . 3 7 24 43 z

Si dimostra facilmente che l'operazione di elevazione a potenza possiede le seguenti propriet Xm+ n = X m X n = X n Xm , X m n = (X m)n = (X n)m quali che siano i numeri naturali m e n (0 compreso). Se poi sussiste l'inversa di X, posto X -n = (X -1 ) n , si ha (Cfr. l'Osservazione 4)

MATRICI

67

X -n = (X -1)n = X -1 X -1 ... X -1 = (X X ... X)- 1 = (X n ) - 1 . Una particolare rilevanza assunta dalle cosiddette matrici idempotenti, cio a dire da quelle matrici (quadrate) X tali che X2 = X . Per esempio, la matrice X= idempotente, poich X2 = 2 1 2 1 2 1 = 2 1 =X. 2 1 2 1 2 1 2 1

Le matrici idempotenti godono delle seguenti propriet elementari: (i) Se X idempotente ed esiste la sua inversa X -1 , allora X = I. Infatti, se X2 = X, allora I = X -1 X = X -1 X2 = X -1 XX = X . (ii) Se X idempotente, anche I X idempotente. Infatti (Cfr. l'Osservazione 3), (I X) 2 = (I X)(I X) = I X X + X 2 = I X . (iii) Se X e Y sono idempotenti e XY = YX, allora XY idempotente. Infatti, (XY) 2 = X(YX)Y = X(XY)Y = X 2 Y2 = XY . (iv) La matrice Z = X(YX)- 1 Y idempotente. Infatti, Z2 = X(YX)- 1 Y X(YX)- 1 Y = X(YX)- 1 Y = Z . (v) La matrice P = X(X 'X)- 1 X' simmetrica e idempotente. Infatti, P ' = X(X'X)- 1X' = P , P 2 = X(X'X)- 1X'X(X'X) - 1X' = X(X'X)- 1X' = P .

68

Cap. II

7 TRACCIA Data una matrice quadrata X = x i j


(n , n )

, si definisce traccia di X , e si

scrive trX, la somma degli elementi posti sulla diagonale principale di X. In simboli, trX = x i i .
i=1 n

Tenuto conto della definizione data, si verifica immediatamente che, qualunque siano le matrici X = xij e il numero reale c, risulta ( a ) tr(X + Y) = (x i i + y i i ) = trX + trY
i=1 n (n , n )

, Y = yij

(n , n )

(b) (c)

tr(cX) = (cx i i ) = ctrX


i=1

trX = x i i = trX' .
i=1

In particolare, tr(cI) = cn. Inoltre, date due matrici X = xij


(n , p )

, Y = yji

(p , n )

tali che entrambi i prodotti XY e YX esistono, vale l'importante propriet tr(XY) = ( x i j y j i ) = ( y j i x i j ) = tr(YX) .
i=1 j=1 j=1 i=1 n p p n

In particolare, se Y = X', allora tr(XX') = tr(X'X) = x 2j . i


i=1 j=1 n p

ESEMPIO 12.

Date le matrici

MATRICI

69

1 0 X = 1 2 0 3 risulta 0 1 2 XY = 2 1 0 3 0 3 e, quindi, tr(XY) = tr(YX) = 2. 8 MATRICI A BLOCCHI

, Y = 0 1 2 1 0 1

, YX = 1 8 1 3

, consideriamone la consueta rappresentazione mediante il quadro ordinato degli n.p elementi che la compongono.
(n , p )

8.1 Data una matrice X = x i j

Supponiamo poi di suddividere la matrice in questione in due o pi blocchi tracciando un certo numero di linee orizzontali e/o verticali, come nell'esempio che segue: x1 1 x1 2 x1 3 x2 1 x2 2 x2 3 x3 1 x3 2 x3 3 . x4 1 x4 2 x4 3 Le matrici x1 1 x1 2 X1 1 = x 2 1 x 2 2 x3 1 x3 2 x1 3 , X1 2 = x2 3 x3 3 , X2 1 = x4 1 x4 2 , X2 2 = x4 3

in tal modo definite sono dette sottomatrici di X e X detta ripartita in X1 1 , X1 2 , X2 1 , X2 2 . Si dice anche che la matrice X ottenuta per accostamento di X1 1 , X1 2 , X2 1 , X2 2 e si scrive X= X1 1 X 1 2 . X2 1 X 2 2

70

Cap. II

Come si pu osservare, la matrice X, scritta in tale forma, una matrice i cui elementi sono essi stessi delle matrici. Tali elementi hanno le seguenti caratteristiche: gli elementi che si trovano su una stessa riga hanno lo stesso numero di righe e, eventualmente, un diverso numero di colonne; gli elementi che si trovano su una stessa colonna hanno invece lo stesso numero di colonne e, eventualmente, un diverso numero di righe. Ovviamente, quanto ora osservato con riferimento a uno specifico esempio ha carattere del tutto generale.
O SSERVAZIONE 6.

Data una matrice X = x i j

(n , p )

, torna talvolta utile rap-

presentare X nella forma X = x1 dove (j = 1, ... , p) xj = oppure nella forma x '1 xn ' dove (i = 1, ... , n) x 'i = x i 1 xip . x1 j , xn j xp

X=

` E ovvio che, nell'uno e nell'altro caso, siamo di fronte a una particolare ripartizione di X in sottomatrici. Dato uno spazio vettoriale S di ordine n e dimensione p, consideriamo una base di S costituita da p vettori x 1 , ... , x p di ordine n.
O SSERVAZIONE 7.

Un generico vettore xS pu allora essere scritto univocamente nella

MATRICI

71

forma x = a 1 x 1 + ... + a p x p = x 1 a1 xp ap Il vettore a di componenti a 1 , ... , a p detto vettore coordinato di x rispetto alla suddetta base di S. 8.2 Le operazioni di addizione e sottrazione di matrici (dello stesso ordine) ripartite in blocchi si eseguono secondo le regole gi esposte per matrici i cui elementi sono numeri reali, purch le matrici in questione siano state ripartite in sottomatrici mediante una stessa suddivisione. 8.3 Supponiamo che due matrici X e Y, conformabili rispetto alla operazione di moltiplicazione, siano ripartite nel modo seguente: X1 1 Xv 1 X1 t Xv t Y1 1 Yt 1 Y1 q . Yt q = Xa .

X=

, Y=

Supponiamo, inoltre, che X u h e Yh k (u = 1, ... , v; h = 1, ... , t ; k = 1, ... , q) siano tali che il loro prodotto X u h Y h k esiste per ogni u e ogni k. Ne consegue che Z = XY = Z u k dove Z u k = X u h Yh k .
h =1 t (v , q )

ESEMPIO 13.

Date le matrici , X1 2 = 3 2 , Y1 1 = 1 0 0 3 , Y2 1 = 1 2

X1 1 = 0 1 4 1

e costruite le matrici a blocchi

72

Cap. II

X = X1 1 X 1 2 risulta XY = X1 1 Y1 1 + X 1 2 Y2 1 = 0 1 4 1

, Y = Y1 1 Y2 1

1 0 + 3 0 3 2

1 2 =

3 9 . 6 7

COMPLEMENTI

73

Cap. II

COMPLEMENTI

1 Con un ragionamento del tutto analogo a quello svolto ai punti 1 e 2 dei Complementi al Cap. I, si dimostrano le propriet seguenti: a) X + Z = Y + Z se e soltanto se X = Y (propriet di cancellazione). b) Se cX = O, allora c = 0 oppure X = O. c) Se cX = cY, c 0, allora X = Y. 2 Come si verifica facilmente, il prodotto di una matrice X per una matrice diagonale D una matrice le cui colonne sono quelle di X ciascuna moltiplicata per il corrispondente elemento diagonale di D. Analogamente, il prodotto di una matrice diagonale D per una matrice X una matrice le cui righe sono quelle di X ciascuna moltiplicata per il corrispondente elemento diagonale di D. 3 Date le matrici X= risulta 1 2 0 1 1 0 1 4 0 0 0 0 , Y= 0 0 0 1 4 9

74

Cap. II

0 0 0 XY = 0 0 0 0 0 0 pur essendo X O , Y O. Date le matrici X= 1 1 1 2 0 1 0 4 0 1 , Y= 1 2 2 3 1 1 2 2 1 , Z= 1 1 2 3 1 1 2 1

risulta XY = pur essendo Y Z e X O. 4 Date due matrici A = a ij


(n , p )

3 2 3

4 1 3 2 2 7

= XZ

, X = xh k

(m, q )

si chiama prodotto tensoriale (o prodotto di Kronecker) di A per X la matrice di ordine (nm , pq), che indichiamo con AX, definita da a11X an1X a1pX . anpX

AX =

Tenuto conto di tale definizione, possibile dimostrare, con relativa facilit, che l'operazione di moltiplicazione tensoriale gode delle seguenti propriet elementari (1) :

(1) Si suppone, ovviamente, che le matrici considerate siano di ordine tale che le operazioni di addizione, moltiplicazione, inversione, traccia ove ricorrano siano eseguibili.

COMPLEMENTI

75

(1) (2) (3) (4) (5) (6) (7) (8) 5

ab(XY) = (aX)(bY) = (abX)Y = X(abY) A(BX) = (AB)X (AX)(BY) = (AB)(XY) A(B + X) = (AB) + (AX) (A + B)X = (AX) + (BX) (AX)' = A'X'
-1 -1 -1 (AX) = A X

tr(AX) = (trA)(trX).

x p di ordine (n , p), si definisce vecX Considerata una matrice X = x 1 il vettore colonna di ordine (np , 1) avente come elementi x 1 , ... , x p . In simboli, vecX = x1 . xp Tenuto conto di tale definizione, possibile dimostrare, con relativa facilit, che l'operatore vec gode delle seguenti propriet elementari (2) : (1) (2) (3) (4) 6 Si riconosce immediatamente che l'insieme delle matrici di ordine (n , p), con le operazioni di addizione e di moltiplicazione per un numero reale date in precedenza, uno spazio vettoriale su R nel senso della definizione di cui al punto 6 dei Complementi al Cap. I.
(2) Si suppone, ovviamente, che le matrici considerate siano di ordine tale che le operazioni di addizione, moltiplicazione e traccia ove ricorrano siano eseguibili.

vec( aX + bY) = a(vec X) + b(vecY) vec(XYZ) = (Z'X)(vecY) XYZ = (vecZ)'X I(vecY) tr(XY) = (vecX')'(vecY).

76

Cap. II

Una base di tale spazio vettoriale formata dalle n.p matrici di ordine (n , p) U 1 1 , ... , U 1 p , ... , U n 1 , ... , U n p ciascuna delle quali costituita da elementi tutti nulli tranne l'elemento u i j posto eguale a 1. Naturalmente, la dimensione dello spazio vettoriale in questione n.p.

DETERMINANTI

77

Cap. III

DETERMINANTI

1 FUNZIONE DETERMINANTE 1.1 Considerato l'insieme M n di tutte le matrici quadrate di ordine (n , n), si definisce funzione determinante ogni funzione che associa a ciascun elemento X = x 1 xj xn di M n un numero reale che si chiama determinante di X e si indica con detX in modo tale che siano soddisfatte le propriet seguenti : ( a 1 ) Per ogni cR, risulta det x 1 ( a 2 ) Se x j = y j + z j , si ha det x 1 (b) yj+ z j x n = det x 1 yj x n + det x 1 zj xn . cx j x n = cdet x 1 xj xn .

Se x h = x j (h j), allora det x 1 xh xj xn = 0 .

(c)

Se I = u 1

u n rappresenta la matrice unit di ordine (n , n), allora det u 1 un = 1 .

Le propriet ( a 1 ) e ( a 2 ), considerate congiuntamente, esprimono la cosiddetta linearit di una funzione determinante rispetto a ciascuno dei vettori

78

Cap. III

colonna della matrice X. Si noti che, posto x j = ck z k ,


k =1 t

dalla propriet di linearit segue che det x 1

ck z k k =1

x n = c k det x 1
k =1

zk

xn .

E SEMPIO 1.

Sia X = x11 x12 = x1 x2 x21 x22

un generico elemento dell'insieme M 2 di tutte le matrici quadrate di ordine (2 ,2). Proponiamo quale funzione determinante su M 2 la funzione definita da det x 1 x 2 = x 1 1 x 22 x 1 2 x 21 . Vogliamo dimostrare che valgono per la suddetta funzione le propriet a cui deve soddisfare una funzione determinante. ( a 1) det cx 1 x 2 = (cx 11 ) x 22 x 1 2 (cx 21 ) = c(x 1 1 x 22 x 1 2 x 21 ) = cdet x 1 x 2 .

Analogamente, det x 1 cx 2 = cdet x 1 x 2 . ( a 2) det y 1+ z 1 x 2 = (y 1 1 + z 11 ) x 22 x 1 2 (y 2 1 + z 21 ) = y 1 1 x 22 x 1 2 y 2 1 + z 1 1 x 22 x 1 2 z 2 1 = det y 1 x 2 + det z 1 x 2 .

Analogamente, det x 1 y 2 +z 2 = det x 1 y 2 + det x 1 z 2 . (b) (c) det x 1 x 1 = x 1 1 x 21 x 1 1 x 21 = 0 = x 1 2 x 22 x 1 2 x 22 = det x 2 x 2 . det u 1 u 2 = (1)(1) (0)(0) = 1 .

DETERMINANTI

79

1.2 Nel paragrafo successivo dimostreremo che, qualunque sia l'insieme M n, una funzione determinante esiste ed unica. Il nostro obiettivo adesso porre in evidenza alcune propriet di una funzione determinante, propriet che discendono direttamente da quelle indicate all'inizio della sezione precedente. (d) Se si addiziona al j-esimo vettore colonna di x 1 xj x n una combinazione lineare dei rimanenti vettori colonna, il determinante non cambia. In simboli, det x 1 x j + ck x k
kj

x n = det x 1

xj

xn .

Infatti, per la linearit di una funzione determinante, il primo membro della espressione precedente pu essere scritto nella forma det x 1 xj x n + c k det x 1
kj

xk

xn

e ciascun termine della sommatoria al secondo membro, per la propriet (b), vale zero. (e) Se gli n vettori colonna di x 1 allora (1) det x 1 Infatti, per n = 1, det 0 = det 0x = 0det x = 0 . Per n > 1, almeno un vettore, diciamo x j , pu essere espresso come combinazione lineare dei rimanenti; cio, x j = ck x k .
kj

xj

x n sono linearmente dipendenti, xn = 0 .

xj

Quindi,
(1) Vale anche, come dimostreremo al punto 1 dei Complementi al Cap. IV, l'affermazione reciproca.

80

Cap. III

det x 1

xj

x n = det x 1

kj

ck x k

x n = c k det x 1
kj

xk

xn = 0 .

xh xj x n ottenuta da x 1 (f) Se x 1 do x h con x j (h j), allora det x 1 Infatti, det x 1 xj xh x n = det = det = det = det = det x1 x1 x1 x1 x1 xj xh x n = det x 1

xj

xh

x n scambian-

xh

xj

xn .

xj ( x h ) xn xj (x j x h ) xn x j (x j x h ) (x j x h ) xh (x j x h ) xn xh xj xn .

xn

E SEMPIO 2.

Proseguendo nell'Esempio 1, verifichiamo le ulteriori propriet

(d),( e ),(f). (d) det x 1+ cx 2 x 2 = (x 1 1 + cx 12 ) x 22 x 1 2 (x 2 1 + cx 22 ) = x 1 1 x 22 x 1 2 x 21 + c x 1 2 x 22 cx 1 2 x 2 2 = det x 1 x 2 .

Analogamente, det x 1 x 2 + cx 1 = det x 1 x 2 . (e) Posto x 1 = cx 2 , si ha det cx 2 x 2 = (cx 12 ) x 22 x 1 2 (cx 22) = 0 . (f) det x 2 x 1 = x 1 2 x 21 x 1 1 x 22 = det x 1 x 2 .

2 ESISTENZA E UNICIT DI UNA FUNZIONE DETERMINANTE 2.1 Dimostreremo, anzitutto, l'esistenza di una funzione determinante utilizzando il procedimento di induzione (2).
(2) I dettagli delle dimostrazioni contenute in questo paragrafo possono essere omessi a una prima lettura.

DETERMINANTI

81

Per n = 1, il dominio di una funzione determinante costituito dall'insieme di tutte le matrici di ordine (1 ,1). Posto, per ogni x R, det x = x, subito visto che valgono le propriet ( a 1 ) ,( a 2 ) ,(b),(c). Per n > 1, assumiamo l'esistenza di una funzione determinante su M n -1 , vale a dire sull'insieme di tutte le matrici quadrate di ordine (n1 , n1). Fissato l'indice di riga i (1 i n), sia (1) detX = (1)i+1 x i 1 detXi 1 + ... + (1)i+n x i n detXi n

dove Xi k (k = 1, ... , n) la matrice di ordine (n1 , n1) ottenuta da X = x i j (n , n ) cancellando la riga i-esima e la colonna k-esima. Vogliamo dimostrare che la (1) soddisfa le propriet che caratterizzano una funzione determinante. ( a 1 ) Dalla (1) si ha che det x 1 cx j x n = (1) i+1 x i 1 detX*1 + ... + (1)i+j cx i j detX*j i i i+n * + ... + (1) x i n detX i n cx j x n cancellando la riga i-

dove X*k la matrice ottenuta da x 1 i esima e la colonna k-esima. Per ipotesi di induzione, abbiamo che

detX*k = cdetX i k per k j , detX*k = detX i k per k= j . i i Quindi, det x 1 cx j x n = c{(1) i+1 x i 1 detX i 1 + ... + (1)i+j x i j detX i j + ... + (1)i+n x i n detX i n} = cdet x 1 xj xn

e la propriet ( a 1 ) risulta soddisfatta. ( a 2 ) Posto x j = y j + z j , indichiamo con Xi k la matrice ottenuta da x1 yj x n cancellando la riga i-esima e la colonna k-esima; analogamente, indichiamo con Xi k la matrice ottenuta da x 1 zj xn cancellando la riga i-esima e la colonna k-esima.

82

Cap. III

Per ipotesi di induzione, risulta detX i k = det Xi k + det Xi k per k j , detXi k = det Xi k = det Xi k per k= j . Pertanto, dalla (1) si ha det x 1 yj+ z j x n = (1) i+1 x i 1 {det Xi 1 + det Xi 1}

+ ... + (1)i+j (y i j + z i j) detX i j + ... + (1)i+n x i n {det Xi n + det Xi n} = {(1) i+1 x i 1 det Xi 1 + ... + (1)i+j y i j det Xi j + ... + (1)i+n x i n det Xi n} + {(1) i+1 x i 1 det Xi 1 + ... + (1)i+j z i j det Xi j + ... + (1)i+n x i n det Xi n} = det x 1 yj x n + det x 1 zj xn .

e la propriet ( a 2 ) risulta soddisfatta. (b) Supponiamo che sia x h = x j con h< j. Per ogni k h e k j, la matrice X i k ha due colonne eguali e quindi, per ipotesi di induzione, detX i k = 0 . Pertanto, dalla (1) si ha det x 1 xh xj x n = (1) i+h x i h detXi h + (1) i+j x i j detXi j .

Dobbiamo dimostrare che il secondo membro della espressione precedente vale zero. A questo fine, si osservi intanto che x i h = x i j . Inoltre, scambiando in sequenza la (j1)-esima colonna di X i k con ciascuna delle j h1 colonne che la precedono, si passa da X i h a X i j . Ricordando che, valendo per ipotesi di induzione la propriet (f), a ciascun scambio muta il segno del determinante, si ha detX i j = (1) j - h -1 detX i h = (1) -j + h +1 detX i h da cui det x 1 xh xj x n = (1) i+h x i h detX i h + (1) i+j x i h (1) -j + h +1 detX i h = (1) i+h x i h detX i h + (1) i+h +1 x i h detX i h =0

DETERMINANTI

83

e la propriet (b) risulta dimostrata. (c) La (1) fornisce direttamente detI = (1) i+i (1) detI i i = 1 . 2.2 Passando adesso a esaminare l'unicit di una funzione determinante, consideriamo su M n due funzioni determinanti det 1 e det 2 . Dovendo valere per entrambe la propriet (c), risulta det 1 I = 1 = det 2 I . uj uh u n la matrice che si ottiene Inoltre, indicata con S = u 1 da I = u 1 uh uj u n scambiando i vettori u h e u j (h j), per la propriet (f) si ha det 1 S = 1 = det 2 S . Infine, sia P la matrice ottenuta da I attraverso una permutazione dei vettori u 1 , ... , u n . Poich P pu essere vista come la matrice ottenuta da I attraverso una successione finita di scambi tra coppie di vettori e poich, d'altra parte, a ogni scambio muta simultaneamente il segno di det 1 P e det 2 P , fermo restando il valore assoluto eguale a 1, ne consegue che det 1 P = det 2 P . Ci premesso, consideriamo il j-esimo (j = 1, ... , n) vettore colonna di X espresso nella forma x j = x 1 j u 1 + ... + x n j u n = x i j u i .
i=1 n

Allora, come si pu verificare, (*) det 1 x 1 x n = det 1 =


n (1 ) = 1

x (1) 1 u (1) (1 ) = 1
...
n (n ) = 1

x (n ) n u (n ) (n ) = 1
u (n) .

x (1) 1 ... x (n ) n det 1 u (1)

Ora, degli nn termini che costituiscono la somma scritta all'ultimo membro

84

Cap. III

di questa espressione ce ne sono n! nei quali i vettori u (1) , ... , u (n ) sono una permutazione dei vettori u 1 , ... , u n . Per essi, quindi, ricordando quanto detto in precedenza, vale la relazione det 1 u (1) u (n) = det 2 u (1) u (n) . u (n ) ha due colonne

Nei rimanenti nn n! termini, la matrice u (1)

eguali. Per questi dunque, in virt della propriet (b) di una funzione determinante, det 1 u (1) u (n) = 0 = det 2 u (1) u (n) .

Possiamo, pertanto, scrivere l'ultimo membro della (*) nella forma

... (n) = 1 x (1) 1 ... x (n ) n det 2 u (1) (1) = 1

u (n) .

Ma, quest'ultima espressione rappresenta, com' immediato riconoscere, xn . det 2 x 1 Quindi, det 1 x 1 x n = det 2 x 1 xn .

3 CALCOLO DI UN DETERMINANTE 3.1 Si osservi anzitutto che l'espressione (1 i n;n 2) detX = (1)i+1 x i 1 detX i 1 + ... + (1)i+n x i n detX i n , considerata nel paragrafo precedente, fornisce un algoritmo per il calcolo del determinante di una matrice X = x i j (n , n ) in funzione dei determinanti delle matrici X i j ottenute da X cancellando la riga i-esima (1 i n) e la colonna jesima (j = 1, ... , n). Si dice, in tal caso, che si proceduto allo sviluppo del determinante di X secondo gli elementi della riga i-esima. Tale sviluppo, per l'unicit della funzione determinante, non dipende dalla

DETERMINANTI

85

riga considerata. I termini (1) i+j detXi j (i,j = 1, ... , n) sono chiamati cofattori o complementi algebrici di x i j .
E SEMPIO 3.

Data una matrice x 11 x12 x13 X = x 21 x22 x23 x 31 x32 x33

si ottiene detX = + x11 det x 22 x 23 x 32 x 33 = x21 det x 12 x 13 x 32 x 33 = + x31 det x 12 x 13 x 22 x 23 x12 det x 21 x 23 x 31 x 33 + x22 det x 11 x 13 x 31 x 33 x32 det x 11 x 13 x 21 x 23 + x13 det x 21 x 22 x 31 x 32 x23 det x 11 x 12 x 31 x 32 + x33 det x 11 x 12 x 21 x 22

= + x11 x22 x33 + x 12 x23 x31 + x 13 x21 x32 x 11 x23 x32 x 13 x22 x31 x12 x21 x33 .

3.2 Ricordando la (*) del paragrafo precedente, possiamo scrivere det x 1 xn =


n

(1 ) = 1

...

(n ) = 1

x (1) 1 ... x (n ) n det u (1)

u (n )

e osservare che vale l'identit

... (n ) = 1 x (1) 1 ... x (n ) n det u (1) (1 ) = 1


=
n (1 ) = 1

u (n ) u (n ) .

...

(n ) = 1

x 1 (1) ... x n (n ) det u (1)

Ma lo scambio dei primi con i secondi indici attuato nella espressione precedente equivale allo scambio delle righe con le colonne di X. Ne consegue che il determinante di X eguale al determinante della trasposta di X e che tutte le propriet che competono alla funzione determinante considerata come funzione dei vettori colonna di X sono valide anche per i vettori riga di X.

86

Cap. III

In particolare, si ha che (1 j n;n 2) (2) detX = (1)1+j x 1 j detX 1 j + ... + (1)n+j x n j detX n j .

La (2) costituisce lo sviluppo del determinante di X secondo gli elementi della colonna j-esima.
ESEMPIO 4.

Data la matrice X considerata nell'Esempio 3, risulta

detX = + x11 det x 22 x 23 x21 det x 12 x 13 + x31 det x 12 x 13 x 32 x 33 x 32 x 33 x 22 x 23 = x12 det x 21 x 23 + x22 det x 11 x 13 x32 det x 11 x 13 x 31 x 33 x 31 x 33 x 21 x 23 = + x13 det x 21 x 22 x23 det x 11 x 12 + x33 det x 11 x 12 x 31 x 32 x 31 x 32 x 21 x 22 = + x 11 x 22 x 33 + x 12 x 23 x 31 + x 13 x 21 x 32 x 11 x 23 x 32 x 13 x 22 x 31 x 12 x 21 x 33 . z Si osservi, infine, che la somma dei prodotti degli elementi della riga iesima di X = x i j (n , n ) per i cofattori degli elementi della riga h-esima (h i) vale zero (3). In simboli, (3) x i 1 (1) h +1 detX h 1 + ... + x i n (1) h +n detX h n = 0 .

In effetti, il primo membro della (3) rappresenta il determinante, sviluppato secondo gli elementi della riga h-esima, della matrice ottenuta da X sostituendo alla riga h-esima la riga i-esima. Dunque, tale matrice ha due righe eguali e, perci, il suo determinante vale zero. Per esempio, data la matrice X = x11 x12 , x21 x22 moltiplicando ciascun elemento della prima riga per i cofattori della seconda riga e sommando, si ha
(3) Naturalmente, un'osservazione analoga vale quando si considerino, in luogo delle righe, le colonne di X.

DETERMINANTI

87

x 1 1 (x 1 2 ) + x 1 2 (x 1 1 ) = 0 . 4 ALCUNI TEOREMI SUI DETERMINANTI


TEOREMA 1

Data una matrice a blocchi (A di ordine (r,r)) X(n , n ) = A O C B si ha detX = (detA)(detB) .

Dim. La dimostrazione utilizza il procedimento di induzione nell'ordine r di A = a i j (r, r) . Per r = 1, si ha detX = a 1 1 detB e il teorema senz'altro vero. Per r > 1, supponiamo che il teorema sia vero quando la matrice A di ordine (r1,r1) e dimostriamone la validit per A di ordine (r,r). Infatti, sviluppando il determinante di X secondo gli elementi della prima riga si ottiene detX = (1) 1+1 a 1 1 (detA1 1 )(detB) + ... + (1)1+r a 1 r (detA1 r)(detB) 1+1 = { (1) a 1 1 detA1 1 + ... + (1)1+r a 1 r detA1 r} detB = (detA)(detB) .
TEOREMA 2

Data una matrice a blocchi (O , B , A , C di ordine (r,r)) Z= O A B C si ha detZ = (1)r (detA)(detB) .

88

Cap. III

Dim. Si consideri anzitutto la matrice Z1 = A O C B il cui determinante, per il Teorema 1, vale detZ 1 = (detA)(detB) . Poich si pu passare da Z 1 a Z con r scambi (la prima colonna con la (r+1)-esima, ecc.), si ha detZ = (1)r detZ 1 = (1) r (detA)(detB) .
C OROLLARIO.

Qualora sia (O , I , A , C di ordine (r,r)) Y= O A I C

il teorema precedente fornisce immediatamente detY = (1)r (detA)(1) r(detI) = detA .


TEOREMA 3

Date due matrici quadrate A,B dello stesso ordine, risulta det(AB) = (detA)(detB) . Dim. Considerata l'identit A O + A I B I B = O AB I B

immediato verificare che il determinante della matrice al primo membro, per la propriet (d) della funzione determinante, eguale al determinante

DETERMINANTI

89

della matrice A O I B e questo, per il Teorema 1, vale (detA)(detB). D'altro canto, il determinante della matrice al secondo membro, per il Corollario al Teorema 2, vale det(A B), cosicch il teorema risulta provato.
COROLLARIO.

Si ha

det(AB) = (detA)(detB) = (detB)(detA) = det(BA) . 5 INVERSA DI UNA MATRICE Ci proponiamo, adesso, di esprimere la condizione necessaria e sufficiente per l'esistenza dell'inversa di una matrice X = x i j (n , n ) e di indicare un procedimento di calcolo di tale inversa. A questo fine, occorre anzitutto introdurre il concetto di matrice aggiunta o, pi semplicemente, di aggiunta di X, denotata con X, e cos definita:

se n = 1, X = 1 ; se n > 1, X la trasposta della matrice i cui elementi sono i cofattori di X.


Ci premesso, vogliamo in primo luogo dimostrare che tra X e la sua aggiunta X sussiste la relazione (4) XX = (detX)I .

Per n = 1, la verifica immediata. Per n > 1, poich il primo membro della (4) pu essere scritto nella forma

x1 1 xn 1

x1 n xn n

x1 1 x1 n

xn 1 xn n

k =1

x1 k x1 k xn k x1 k
n

k =1

x1 k xn k
,

=
k =1 k =1

xn k xn k

90

Cap. III

ricordando la (1) e la (3), si trae subito la (4). In modo del tutto analogo, si dimostra poi che sussiste la relazione (5)
E SEMPIO 5.

XX = (detX)I . Data la matrice X= 1 0 3 2 7 1 0 4 5

risulta X= Inoltre (detX = 14), 1 0 3 2 7 1 e 14 0 13 5 17 1


TEOREMA 4

14 0 13 5 17 1

0 4 2

0 4 5

14 0 13 5 17 1

0 4 2

14 0 0 0 14 0 0 0 14

0 4 2

1 0 3 2 7 1

0 4 5

14 0 0 0 14 0 0 0 14

Data una matrice X di ordine (n,n), se detX 0, l'inversa di X esiste ed espressa da (6) X -1 = (detX) -1 X .

Reciprocamente, se esiste l'inversa di X, allora detX 0.

Dim. Per dimostrare la prima parte del teorema, basta verificare che il

DETERMINANTI

91

secondo membro della (6) tale che (detX) -1 XX = X(detX) -1 X = I . Ma la duplice relazione che precede non che un modo diverso di scrivere la (4) e la (5) e, quindi, la prima parte del teorema dimostrata. Supposto poi che esista l'inversa di X, per il Corollario al Teorema 3, si ha 1 = detI = det(X -1 X) = det(X X -1 ) = (detX)(detX -1 ) da cui detX 0. z

Le matrici, ovviamente quadrate, il cui determinante diverso da zero sono dette non singolari o invertibili; viceversa, le matrici il cui determinante eguale a zero sono dette singolari o non invertibili.
ESEMPIO 6.

Data la matrice di cui all'Esempio 5, risulta 14 0 13 5 17 1 0 4 2 , ( X -1 ) - 1 = 1 0 3 2 7 1 0 4 5

X-1 = 14 -1

92

Cap. III

Cap. III

COMPLEMENTI

1 Dati un numero reale c e una matrice X di ordine (n,n), tenuto conto della propriet ( a 1 ) della funzione determinante, si ha det(cX) = cn detX . 2 Data una matrice X di ordine (n,n), risulta (1) detX = (detX)n -1 . Infatti, dalla relazione XX = (detX)I, si ottiene det(XX) = (detX)(detX) = det((detX)I) = (detX)n . 3 Dati un numero reale c 0 e una matrice non singolare X di ordine (n,n), posto Y = cX, si ha Y-1 = c -1X -1 . Infatti,
(1) Se X la matrice nulla di ordine (1,1), il secondo membro della espressione che segue perde di significato, mentre il primo membro assume il valore 1.

COMPLEMENTI

93

Y-1 = (detY) -1 Y = (c n detX) -1 c n -1 X = c -1 (detX) -1 X = c -1 X-1 . 4 Data una matrice (detta diagonale a blocchi, quasi diagonale) X= X1 1 O O Xtt

dove X11 , ... , X t t sono t 2 matrici quadrate non necessariamente dello stesso ordine, risulta detX = (detX1 1 ) ... (detXt t ) . 5 Data una matrice a blocchi X= A B C D dove D invertibile, proponiamoci di calcolarne il determinante. Per il Teorema 1, si ha det I O = (detI)(detI) = 1 Z I

qualunque sia Z. In particolare, se Z = D -1 C, allora det I O =1. D -1 C I

Pertanto, ricordando il Teorema 3, risulta detX = (det A B C D

)(det

I O D -1 C I

) = det ( A C

B I O D D -1 C I

-1 = det A BD C B O D

= det(A B D -1 C)detD .

94

Cap. III

Analogamente, se A invertibile, si dimostra che detX = det(D C A- 1 B) detA . 6 Data una matrice a blocchi, invertibile, X= A B C D supponiamo che A sia non singolare. Posto
(2)

H = D CA- 1 B , si verifica agevolmente che la matrice S= A- 1 + A- 1 BH -1 CA- 1 A- 1 BH -1 H -1 CA- 1 H -1

soddisfa alle condizioni SX = XS = I e che, pertanto, S = X -1 . Analogamente, se D non singolare, posto K = A BD -1 C , si dimostra che la matrice T= K -1 K -1 BD -1

D -1 C K -1 D -1 CK -1 BD -1 + D -1

l'inversa di X. 7 Date tre matrici non singolari A , C , A+ BCD , risulta (3)


(2) Si noti che, avendo supposto X invertibile, per quanto detto al punto precedente H non singolare. (3) La verifica lasciata per esercizio al lettore.

COMPLEMENTI

95

(A + BCD) -1 = A- 1 A- 1B(C -1 + DA- 1B) -1DA- 1 . 8 Date due matrici X = x ij si dimostra che det(Y X) = (detY) p (detX)n . 9 Abbiamo gi osservato nel paragrafo 3 del Cap. II che pu accadere che sia XY = O senza che n X n Y siano eguali a O (esistenza di divisori (X, Y) dello zero (O)), oppure che sia XY = XZ con Y Z e X O. Ci proponiamo adesso di riprendere l'argomento stabilendo i seguenti teoremi.
TEOREMA
(n , n )

, Y = y hk

(p , p )

Siano X, Y due matrici quadrate tali che XY = O. Allora, X o Y sono eguali a O, oppure X e Y sono entrambe singolari.

Dim. Supponiamo che sia X O, Y O e che almeno una delle due matrici, diciamo X, sia invertibile. Allora, XY = O implica che X-1 XY = O, e cio che Y = O, contro l'ipotesi.
TEOREMA

Se X invertibile, XY = XZ oppure YX = ZX implica che sia Y = Z.

Dim. Infatti, XY = XZ implica che X-1 XY = X -1 XZ, e cio che Y = Z.

96

Cap. III

In modo analogo, si dimostra che YX = ZX implica che sia Y = Z.

SISTEMI DI EQUAZIONI LINEARI

97

Cap. IV

SISTEMI DI EQUAZIONI LINEARI

1 G ENERALIT SUI SISTEMI DI EQUAZIONI LINEARI . IL TEOREMA DI CRAMER 1.1 Si consideri un sistema di equazioni lineari del tipo x 1 1 a 1 + ... + x 1 p a p = x 1 ................................... x n 1 a 1 + ... + x n p a p = x n

(1)

in cui a 1 , ... , a p rappresentano le incognite, mentre x 1 1 , ... , x n p e x 1 , ... , x n denotano numeri reali assegnati che ricevono la denominazione, rispettivamente, di coefficienti e termini noti del sistema. Posto X= x1 1 xn 1 x1 p xn p , a= a1 ap , x= x1 xp

la (1) pu essere scritta, pi compattamente, nella forma (1') Xa = x .

Qualora sia x = 0 nel caso, cio, in cui i termini noti siano tutti nulli il sistema si dice (lineare) omogeneo. Si dice poi vettore soluzione (o, pi semplicemente, soluzione) del siste-

98

Cap. IV

ma ogni vettore a = a j

(p , 1 )

tale che la (1') risulti soddisfatta.

Il sistema compatibile se esiste almeno un vettore soluzione; incompatibile nel caso contrario. Risolvere il sistema significa decidere se esso compatibile o incompatibile e, nel primo caso, calcolarne tutte le soluzioni. ` E ovvio che un sistema omogeneo ammette, in ogni caso, la soluzione banale a = 0.

1.2 Prima di affrontare in tutta generalit i vari problemi connessi con la soluzione di un sistema di equazioni lineari, conviene considerare un caso particolare dimostrando il seguente teorema.
T EOREMA 1 (Teorema di Cramer)

Dato un sistema di n equazioni lineari in n incognite Xa = x, se la matrice dei coefficienti X invertibile, il sistema ammette un'unica soluzione fornita dall'espressione (2) a = X -1 x .

Dim. Basta osservare che il vettore a = X -1 x, la cui esistenza e unicit sono conseguenza dell'ipotesi fatta sulla matrice X, tale che X a = XX -1 x = x .
C OROLLARIO .

Qualora sia x = 0, vale a dire nel caso in cui il sistema sia omogeneo, l'unica soluzione ammissibile quella banale costituita dal vettore a = 0. Dato il sistema 2 10 1 1 a1 3 a2 = 1

E SEMPIO 1.

SISTEMI DI EQUAZIONI LINEARI

99

risulta a= 2 10 1 1
-1

3 = 12 -1 1 1 1

10 2

3 = 12 -1 13 . 1 1

O SSERVAZIONE 1.

Utilizzando la (6) del Cap. III, la (2) diventa a = X -1 x = (detX) -1 Xx .

(2')

Inoltre, come si verifica facilmente, quest'ultima espressione pu essere scritta nella forma a = (detX) -1 detX 1 (x ) detX n (x ) dove X i (x ) rappresenta la matrice ottenuta da X sostituendovi alla colonna iesima il vettore dei termini noti x.
E SEMPIO 2.

(2'')

Considerato nuovamente il sistema di cui all'Esempio 1, utilizzando la (2"), si ha det 3 10 1 1 det 2 1 3 1

a = 12

-1

= 12 -1 13 . 1

2 RANGO DI UNA MATRICE 2.1 Sia data una matrice X di ordine (n,p) e supponiamo, per il momento, che essa non sia la matrice nulla. Consideriamo poi l'insieme I (X) costituito da tutte le sottomatrici quadrate di X, ottenute cancellando un certo numero di righe e/o di colonne non necessariamente consecutive di X, e da X stessa nel caso che questa sia quadrata.

100

Cap. IV

Tale insieme conterr almeno un elemento X* di ordine massimo (r,r) con determinante diverso da zero. Il numero r si chiama rango di X e si indica con r(X). Quindi, dire che la matrice X ha rango r(X) = r significa affermare che: (i) esiste almeno un elemento X* I (X) di ordine massimo (r,r) il cui determinante diverso da zero; (ii) se r < min{n,p}, ogni elemento di I (X) di ordine ( s,s ) con s > r ha determinante nullo. Qualora sia X = O, si dice che X ha rango zero e si scrive r(X) = 0.
E SEMPIO 3.

Data la matrice X= 1 0 2 1 0 1 1 1 2 0 4 2

si verifica facilmente che il determinante di ciascuno dei seguenti elementi di I (X) di ordine (3,3) 1 0 2 0 1 1 2 0 4 , 1 0 1 0 1 1 2 0 2 , 1 2 1 0 1 1 2 4 2 , 0 2 1 1 1 1 0 4 2

eguale a zero. D'altro canto, X contiene almeno un elemento di I (X) di ordine (2,2) il cui determinante diverso da zero: per esempio, la sottomatrice X*1 = 1 0 0 1 che ha determinante 1; pertanto, r(X) = 2. Sono ovvie propriet del rango di una matrice le seguenti: 1. Il rango di una matrice X di ordine (n,p) un numero compreso tra 0 e il pi piccolo dei due numeri n e p; in simboli, 0 r(X) min{n,p}. z

SISTEMI DI EQUAZIONI LINEARI

101

2. Se una matrice X di ordine (n,n), X-1 esiste se e soltanto se r(X) = n. In tal caso, si dice anche che X di pieno rango (1). 3. Data una matrice Z = [X Y], ottenuta per accostamento di due matrici X e Y, r(X) r(Z). 4. Qualunque sia la matrice X, r(X) = r(X '). 2.2 Il teorema seguente pone in evidenza il legame esistente tra il rango di una matrice non nulla X e il massimo numero di vettori (colonna o riga) linearmente indipendenti di X.
TEOREMA 2

Data una matrice non nulla X di ordine (n,p) e rango r, in X esistono r vettori colonna (riga) linearmente indipendenti. Inoltre, se r < p (r < n), ogni altro vettore colonna (riga) di X pu essere espresso come combinazione lineare degli r vettori colonna (riga) linearmente indipendenti.

` Dim. E sufficiente dimostrare il teorema per i vettori colonna x 1 , ... , x p di X, sussistendo una dimostrazione del tutto analoga per i vettori riga. Per quanto riguarda la prima parte del teorema, per ipotesi, esiste almeno un elemento X* I (X) di ordine massimo (r,r), il cui determinante diverso da zero. Supponiamo, senza perdita di generalit, che sia X * = X *1 = x1 1 x r1 x1 r x rr = x *1 x

*r

e domandiamoci per quali valori di c 1 , ... , c r si abbia c1 x *1 + ... + crx *r = 0 .

(1) Le espressioni matrice non singolare, invertibile, di pieno rango sono equivalenti.

102

Cap. IV

La relazione ora scritta rappresenta un sistema omogeneo la cui matrice dei coefficienti X*1 ha determinante diverso da zero. Ne consegue che l'unica soluzione ammissibile per tale sistema quella banale (Cfr. il Corollario al Teorema 1) e, quindi, che x *1 , ... , x r sono * linearmente indipendenti. Ci comporta, a sua volta, che anche x 1 , ... , x r siano linearmente indipendenti, e la prima parte del teorema risulta dimostrata. Per quanto riguarda la seconda parte del teorema, supposto r < p, si consideri la matrice x1 r x1 j D = x r1 x rr x rj xi1 xir xij x1 1 dove 1 i n e r+1 j p. Se i r, D possiede due righe eguali e perci detD = 0; se i > r, D rappresenta una sottomatrice di X di ordine (r+1,r+1) e, quindi, ancora detD = 0. Il cofattore dell'elemento x i h (1 h r) di D dipende da h e da j ma non da i e possiamo indicarlo con D j h , mentre il cofattore di x i j (1) r+ 1+ r+ 1 detX* 1 = detX*1 . Quindi, sviluppando il detD secondo gli elementi dell'ultima riga, si ha x i 1 Dj 1 + ... + x i r Dj r + x i j detX * 1 = detD = 0 .

Facendo assumere all'indice i, in successione, i valori 1, ... , n, dalla relazione precedente si ottiene x 1 1 Dj 1 + ... + x 1 r Dj r + x 1 j detX *1 = 0

x n 1 Dj 1 + ... + x n r Dj r + x n j detX*1 = 0 da cui, posto (j = r+1 , ... , p; h = 1, ... , r)

SISTEMI DI EQUAZIONI LINEARI

103

bjh = si ha infine che

Dj h , detX*1

b j 1 x 1 + ... + b j r x r = x j e cio che ciascun vettore x j (j = r+1 , ... , p) pu essere espresso come combinazione lineare degli r vettori colonna x 1 , ... , x r . Consideriamo nuovamente la matrice X di cui all'Esempio 3. Abbiamo gi posto in evidenza che r(X) = 2 e che la sottomatrice X*1 ivi indicata risulta invertibile.
E SEMPIO 4.

Verifichiamo ora, seguendo lo schema della dimostrazione appena svolta, che ciascuno degli ultimi due vettori colonna di X si pu esprimere come combinazione lineare dei primi due. Infatti, sviluppando il determinante delle sottomatrici 1 0 2 0 1 1 1 0 2 1 0 2 0 1 1 0 1 1 1 0 2 0 1 1 2 0 4

secondo gli elementi dell'ultima riga, si ottiene 1(2) + 0(1) + 2(1) = 0 0(2) + 1(1) + 1(1) = 0 2(2) + 0(1) 4(1) = 0 da cui 1 0 2 0 + 1 = 1 . 2 0 4

(2)

In modo del tutto analogo si verifica poi che 1 0 1 0 + (1) 1 = 1 . 2 0 2

(1)

104

Cap. IV

2.3 Posto (Cfr. l'Osservazione 6 del Cap. II) x '1 xn ' si riconosce subito, tenuto conto del Teorema 2, che il rango di X eguale alla dimensione dello spazio vettoriale di ordine n generato dai p vettori colonna x 1 , ... , x p o, equivalentemente, alla dimensione dello spazio vettoriale di ordine p generato dagli n vettori riga x '1 , ... , x 'n . La dimensione (comune) di tali spazi vettoriali riceve talvolta la denominazione, rispettivamente, di rango per colonne e rango per righe di X. Qualora sia r(X) = p (p n), si dice che X di pieno rango per colonne. Analogamente, nel caso in cui sia r(X) = n (n p), si dice che X di pieno rango per righe.

X = x1

xp =

3 SOLUZIONE DEI SISTEMI DI EQUAZIONI LINEARI 3.1 Siamo adesso in grado di affrontare con tutta generalit il problema della soluzione di un sistema di equazioni lineari. Sussiste, anzitutto, il seguente teorema.
T EOREMA 3 (Teorema di Rouch-Capelli)

Condizione necessaria e sufficiente affinch un sistema di n equazioni lineari in p incognite X a = x sia compatibile che la matrice X e la cosiddetta matrice completa Z = X x abbiano eguale rango.

Dim. Supposto r(X) = r (2), esiste almeno un elemento X* I (X) di ordine massimo (r,r) il cui determinante diverso da zero. Senza perdita di generalit, assumiamo che sia
(2) Il caso in cui sia r (X) = 0 non presenta alcun interesse.

SISTEMI DI EQUAZIONI LINEARI

105

X * = X *1 =

x1 1 x r1

x1 r . x rr

Chiaramente, X*1 una sottomatrice della matrice di ordine (n,r) formata dagli r vettori colonna x 1 , ... , x r di Z e, poich tali vettori sono linearmente indipendenti, tenuto conto che r(Z) = r e del Teorema 2 applicato alla matrice Z, x risulta combinazione lineare di x 1 , ... , x r secondo certi coefficienti a 1 , ..., a r . Ne consegue che, riscritto il sistema Xa = x nella forma (1'') a 1 x 1 + ... + a p x p = x ,

se r = p questo certamente soddisfatto per a 1 = a 1 , ... , a r = a r , se r < p per a 1 = a 1 , ... , a r = a r , a r+1 = 0 , ... , a p = 0. Reciprocamente, supponiamo che esistano p numeri reali a 1 , ..., a p tali che il sistema (1'') risulti soddisfatto. Ci equivale ad assumere che il vettore x sia combinazione lineare di x 1 , ... , x p secondo i coefficienti a 1 , ..., a p . Ne consegue che i due insiemi di vettori x 1 , ... , x p e x 1 , ... , x p , x generano lo stesso spazio vettoriale S (Cfr. l'Osservazione 11 del Cap. I) e, quindi, che le matrici X e Z hanno lo stesso rango. Il Teorema 3 suggerisce un procedimento che pu essere seguito per accertare la compatibilit di un sistema di equazioni lineari. Tale procedimento, tuttavia, dipendendo dalla valutazione del rango delle matrici X e Z e, in definitiva, dal calcolo di un certo numero di determinanti, pu risultare assai oneroso non appena l'ordine della matrice X superi limiti anche modesti.
O SSERVAZIONE 2. O SSERVAZIONE 3.

Qualora sia x = 0, le matrici X e Z = X 0 sono certa-

mente di egual rango e, quindi, il sistema lineare omogeneo Xa = 0 sempre compatibile, in accordo con quanto detto alla fine della sezione 1.1.
E SEMPIO 5.

Dato il sistema

106

Cap. IV

2 3 1 7 3 4 si verifica facilmente che 2 3 r(X) = r ( 1 7 3 4

4 a1 = 15 a2 11

)=2

2 3 4 , r(Z) = r ( 1 7 15 3 4 11

)=2

e, quindi, il sistema compatibile.

3.2 Supponiamo di aver accertato che il sistema non omogeneo di n equazioni lineari in p incognite Xa = x sia compatibile e che r(X) = r(Z) = r. Supponiamo inoltre, senza perdita di generalit e con la notazione stabilita in precedenza, che sia X *1 = x1 1 x r1 x1 r . x rr

Circa le soluzioni del sistema Xa = x, per ragioni di chiarezza espositiva, conviene distinguere le situazioni seguenti. (a) Supponiamo che sia r = n = p. In tal caso, la matrice X*1 coincide con la matrice X di ordine (n,n), vale a dire si ha X *1 = x1 1 xn 1 x1 n xn n =X.

Pertanto, in accordo con il Teorema 1, il sistema Xa = x ammette un'unica soluzione data da (2)
-1 a = X *1 x = X -1 x .

Quanto ora detto riassunto nel riquadro che segue.

SISTEMI DI EQUAZIONI LINEARI

107

r=p

X*1 = X

-1 a = X*1 x = X -1 x

r=n

ESEMPIO 6.

Si consideri il sistema lineare non omogeneo 3 1 2 1 a1 6 a2 = 2 .

Poich X *1 = 3 1 = X 2 1 risulta a = (5) -1 1 1 2 3 6 = (5) -1 8 . 2 6

(b) Supponiamo che sia r = n < p. In tal caso, la matrice X*1 una sottomatrice di ordine (n,n) della matrice X di ordine (n,p). Pertanto, fatte le posizioni x1 1 xn 1 x1 n xn n x 1 , n +1 x n , n +1 x1 p , a1 = xn p a1 an a n+1 ap

X *1 =

, X2 =

, a2 =

si ha X = X *1 X 2 e il sistema Xa = x pu essere riscritto nella forma

108

Cap. IV

X *1 X 2 da cui

a1 = X a + X a = x 2 2 a2 *1 1

X*1 a 1 = x X 2 a 2 . Scelto arbitrariamente il vettore a 2 , quest'ultimo sistema, per il Teorema 1, ammette un'unica soluzione, dipendente da a 2 , data da (3)
-1 -1 a 1 = X *1 x X *1 X2 a 2 .

Quindi, in corrispondenza di ogni a 2 , mediante la (3), si ottiene un vettore a 1 che, unitamente al vettore a 2 medesimo, costituisce una soluzione di Xa = x. In definitiva, il sistema Xa = x ammette infinite soluzioni della forma (0: vettore colonna di ordine p n; I: matrice unit di ordine (p n,p n)) (4) a=
-1 -1 X *1 x X *1 X2 + a2 . 0 I

Quanto ora detto riassunto nel riquadro che segue.

r=n

p
-1 -1 a 1 = X *1 x X *1 X 2 a 2 -1 -1 X*1 x X *1 X 2 + a2 a = 0 I

X*1 r=n

X2

ESEMPIO 7.

Si consideri il sistema lineare non omogeneo 3 1 2 1 2 1 a1 a2 = 6 . 2 a3

SISTEMI DI EQUAZIONI LINEARI

109

Poich X *1 = 3 1 2 1 risulta a 1 = (5) -1 1 1 2 3 6 (5) -1 1 1 2 2 3 2 a 1 3 , X2 = 2 1

= (5) -1 8 + (5) -1 3 a 3 6 1 e (5) -1 (8) (5) -1 (3) a = (5) -1 (6) + (5) -1 (1) a 3 . 0 1 (c) Supponiamo che sia r = p < n. In tal caso, la matrice X*1 una sottomatrice di ordine (p,p) della matrice X di ordine (n,p). Fatte le posizioni x1 1 xp 1 x1 p xp p x1 = x1 xp risulta X= X*1 X3 x p+1 , 1 , X3 = xn 1 , x3 = xn p x p+1 xn x p+1 , p , a= ap a1

X *1 =

e il sistema Xa = x pu essere riscritto nella forma X*1 a = x1 . x3 X3

110

Cap. IV

In altri termini, il sistema in questione pu essere ripartito nei sistemi X*1 a = x 1 , X 3 a = x 3 . Ci premesso e posto che due sistemi di equazioni lineari, nelle stesse incognite, si dicono equivalenti se hanno le medesime soluzioni mostriamo, anzitutto, che i sistemi X a = x e X*1 a = x 1 sono equivalenti. In effetti, come subito visto, ogni soluzione a di Xa = x anche soluzione di X*1 a = x 1 . Viceversa, sia a una soluzione di X*1 a = x 1 , ovvero sia X*1 a = x 1 . Fissata l'attenzione sulla matrice completa Z che della forma x1 1 Z= xp 1 xp +1 , 1 xn 1 x1 p xp p x1 xp ,

xp +1 , p xp +1 xn p xn

per il Teorema 2, ciascuno degli ultimi n p vettori riga di tale matrice combinazione lineare dei primi p vettori riga, vale a dire si ha (h = p+1 , ... , n) xh 1 xh p xh = dh 1 x1 1 x 1 p x 1 + ... + d h p x p 1 xp p xp .

Ma le n p relazioni precedenti, posto D= dp +1 , 1 dn 1 dp +1 , p , dn p

possono essere scritte, pi compattamente, nella forma X 3 x 3 = D X *1 x 1 da cui X 3 = D X *1 , x 3 = D x 1 . Premoltiplicando ambo i membri di X*1 a = x 1 per la matrice D, si ottiene

SISTEMI DI EQUAZIONI LINEARI

111

D X*1 a = D x 1 da cui, tenuto conto di quanto sopra, si desume subito che anche il sistema X3 a = x 3 risulta soddisfatto. Avendo mostrato che i sistemi Xa = x e X*1 a = x 1 sono equivalenti, possiamo concentrare l'attenzione sul secondo sistema il quale, per il Teorema 1, ammette un'unica soluzione data da (5)
-1 a = X *1 x 1 .

Quanto ora detto riassunto nel riquadro che segue. 1 r=p

X*1 r=p X3 n

-1 a = X *1 x 1

ESEMPIO 8.

Si consideri il sistema lineare non omogeneo 3 1 2 1 1 1 a1 a2 = 6 2 . 14 5

Poich X *1 = 3 1 2 1 risulta a = (5) -1 1 1 2 3 6 = (5) -1 8 . 2 6 , X3 = 1 1

(d) Supponiamo che sia r < n e r < p. In tal caso, la matrice X*1 una sot-

112

Cap. IV

tomatrice di ordine (r,r) della matrice X di ordine (n,p). Fatte le posizioni x1 1 x r1 a1 = x1 r x rr a1 ar risulta X= X*1 X 2 X3 , a2 = ap x 1 , r+1 , X2 = x r, r+1 a r+ 1 , x1 = x rp x1 xr , x3 = x1 p , X3 = xn 1 x r+1 xn xn p x r+1 , 1 x r+1 , p

X *1 =

e il sistema Xa = x pu essere riscritto nella forma X*1 a 1 + X 2 a 2 x = x1 . 3 X3 a In altri termini, il sistema in questione pu essere ripartito nei sistemi X*1 a 1 + X 2 a 2 = x 1 , X 3 a = x 3 . Ora, con un ragionamento analogo a quello svolto in precedenza, a proposito della situazione descritta in (c), si pu facilmente mostrare che i sistemi X a = x e X*1 a 1 + X 2 a 2 = x 1 sono equivalenti. Dunque, possiamo concentrare l'attenzione sul secondo sistema il quale, per il Teorema 1, ammette un'unica soluzione, dipendente da a 2 , data da (6)
-1 -1 a 1 = X *1 x 1 X *1 X2 a 2 .

Pertanto, in corrispondenza di ogni a 2 , mediante la (6), si ottiene un vettore a 1 che, unitamente al vettore a 2 medesimo, costituisce una soluzione di Xa = x.

SISTEMI DI EQUAZIONI LINEARI

113

In definitiva, il sistema Xa = x ammette infinite soluzioni della forma (0: vettore colonna di ordine p r; I: matrice unit di ordine (p r,p r)) (7)
-1 -1 X *1 x 1 X *1 X2 + a2 . a= 0 I

Quanto ora detto riassunto nel riquadro che segue.

p
-1 -1 a 1 = X *1 x 1 X *1 X 2 a 2 -1 -1 X*1 x 1 X *1 X 2 + a2 a = 0 I

X*1 r X3 n

X2

ESEMPIO 9.

Si consideri il sistema lineare non omogeneo 3 2 7 1 1 1 2 1 4 a1 6 a2 = 2 . a3 10

Poich X *1 = 3 1 2 1 risulta a 1 = (5) -1 1 1 2 3 6 (5) -1 1 1 2 2 3 2 a 1 3 , X2 = 2 1 , X 3 = 7 1 4

= (5) -1 8 + (5) -1 3 a 3 6 1 e

114

Cap. IV

(5) -1 (8) (5) -1 (3) a = (5) -1 (6) + (5) -1 (1) a 3 . 0 1 Si sottolinea che un sistema non omogeneo di n equazioni lineari in p incognite Xa = x ammette una soluzione unica se e soltanto se r(X) = r(Z) = p (situazioni descritte in (a) e (c)). Il sistema ammette, invece, infinite soluzioni se e soltanto se r(X) = r(Z) < p (situazioni descritte in (b) e (d)).
O SSERVAZIONE 4.

3.3 Passando a considerare il sistema omogeneo di n equazioni lineari in p incognite Xa = 0, subito visto che le soluzioni di tale sistema possono dedursi come casi particolari delle soluzioni del corrispondente sistema non omogeneo. (a') Se r = n = p, l'unica soluzione ammissibile del sistema, in accordo con il Corollario al Teorema 1, quella banale costituita dal vettore a = 0. (b') Se r = n < p, il sistema ammette infinite soluzioni della forma (I: matrice unit di ordine (p n,p n)) (8)
-1 a = X *1 X2 a 2 . I

(c') Se r = p < n, l'unica soluzione ammissibile del sistema quella banale costituita dal vettore a = 0. (d') Se r < n e r < p, il sistema ammette infinite soluzioni della forma (I: matrice unit di ordine (p r,p r)) (9)
-1 a = X *1 X2 a 2 . I

Si sottolinea che il sistema omogeneo di n equazioni lineari in p incognite Xa = 0 ammette soluzioni non banali cio, diverse dalla soluzione a = 0 se e soltanto se r(X) < p.
O SSERVAZIONE 5.

SISTEMI DI EQUAZIONI LINEARI

115

3.4 Vogliamo, adesso, porre in evidenza alcune importanti propriet possedute dall'insieme (eventualmente costituito dal solo vettore nullo) delle soluzioni di un sistema lineare omogeneo Xa = 0. Tale insieme riceve abitualmente la denominazione di nucleo (o kernel) di X e sar indicato con il simbolo N (X).
TEOREMA 4

Data una matrice X di ordine (n,p), il nucleo di X uno spazio vettoriale la cui dimensione, detta nullit di X, p r(X).

Dim. Siano a e b appartenenti a N (X) e c un qualsiasi numero reale. Allora, come subito visto, anche a + b e c a appartengono a N (X) e , quindi, quest'ultimo uno spazio vettoriale (di ordine p). Se r(X) = 0, il nucleo di X coincide evidentemente con R p e la nullit di X p. Se r(X) = p, il nucleo di X si identifica con lo spazio nullo (di ordine p) e la nullit di X 0. Posto 0 < r(X) < p, vogliamo dimostrare che N (X) possiede una base formata da p r(X) vettori e indicare esplicitamente quali sono i vettori che compongono tale base. A questo fine, sufficiente rilevare che ogni soluzione a del sistema X a = 0 ovvero ciascun vettore appartenente a N (X) esprimibile come combinazione lineare dei p r(X) vettori colonna di ordine p della matrice (I: matrice unit di ordine (p r(X) ,p r(X)))
-1 C = X *1 X2 . I

D'altro canto, questi ultimi risultano linearmente indipendenti e, pertanto, formano una base di N (X).
E SEMPIO 10.

Dato il sistema lineare omogeneo

116

Cap. IV

1 2 3 2 4 6

a1 a2 = 0 a3

tale che r(X) = 1, si ha (X*1 = 1 , X2 = 2 3 ) a1 = a1 = 2 3 Inoltre, poich C= per ogni a 2 , a 3, a= 2 3 1 a 2 + 0 a 3 N (X) . 0 1 2 3 1 0 , 0 1 a2 a 3 = 2a 2 3a 3 .

Si noti esplicitamente che l'insieme delle soluzioni di un sistema non omogeneo Xa = x non uno spazio vettoriale, come risulta dal fatto che tale insieme non contiene il vettore nullo.
O SSERVAZIONE 6.

4 ALCUNI TEOREMI SUL RANGO DI UNA MATRICE Vogliamo, adesso, completare il quadro delle nozioni fondamentali sul rango di una matrice dimostrando i seguenti teoremi.
TEOREMA 5

Siano X e Y due matrici tali che il prodotto XY esiste e sia p il numero di colonne di Y (e, quindi, di XY). Allora, il rango di XY minore o eguale al pi piccolo tra i numeri r(X) e r(Y). In simboli, r(XY) min {r(X) , r(Y)} .

SISTEMI DI EQUAZIONI LINEARI

117

Dim. Sia N (Y) il nucleo di Y; analogamente, sia N (XY) il nucleo di XY. Per ogni a N (Y), risulta anche a N (XY), cosicch N (Y) un sottospazio di N (XY). Ne consegue (Cfr. il Teorema 10 del Cap. I e il Teorema 4) che p r(Y) p r(XY), da cui (a) r(XY) r(Y) .

Allo stesso modo si dimostra poi che r(Y'X') r(X '). Ma, poich r(X ') = r(X) e r(Y'X') = r(X Y), si ha (b) r(XY) r(X) .

La (a) e la (b) insieme permettono di concludere secondo quanto affermato nell'enunciato del teorema.
ESEMPIO 11.

Date le matrici 1 0 0 X= 0 1 0 0 0 0 0 0 0 , Y= 0 1 0 0 0 1

entrambe di rango 2, risulta 0 0 0 r(XY) = r ( 0 1 0 0 0 0


TEOREMA 6

)=1.

Il rango di una matrice rimane invariato se questa premoltiplicata o postmoltiplicata per la sua trasposta.

Dim. Data una matrice X di ordine (n,p), vogliamo dimostrare che r(X) = r(X 'X) = r(X X'). Per quanto riguarda l'eguaglianza r(X) = r(X 'X), sufficiente provare che

118

Cap. IV

il nucleo di X coincide con il nucleo di X'X; in tal caso, infatti, tenuto conto del Teorema 4, si ha che p r(X) = p r(X X'), da cui r(X) = r(X 'X). Ora, per ogni a N (X), risulta anche a N (X'X), cosicch N (X) un sottospazio di N (X'X). Sia poi b N (X'X), vale a dire X'X b = 0; allora, b'X'X b = 0, ovvero (X b)'X b = 0. Ma, quest'ultima relazione implica che sia X b = 0 in quanto l'espressione (X b)'X b rappresenta la somma dei quadrati degli elementi del vettore X b; quindi, b N (X). Ne segue che N (X'X) un sottospazio di N (X) e, in definitiva, che N (X) = N (X 'X). Con una dimostrazione analoga si prova che r(X) = r(X X').
TEOREMA 7

Il rango di una matrice rimane invariato se questa premoltiplicata per una matrice di pieno rango per colonne.

Dim. Siano X una matrice di ordine (n,p) e Y una matrice di ordine (m,n) e rango n. Vogliamo dimostrare che r(X) = r(YX). A questo fine, sufficiente provare che il nucleo di X coincide con il nucleo di YX; in tal caso, infatti, tenuto conto del Teorema 4, si ha che p r(X) = p r(YX), da cui r(X) = r(YX). Ora, per ogni a N (X), anche a N (YX), cosicch N (X) un sottospazio di N (YX). Viceversa, per ogni b N (YX), anche b N (X), in quanto, essendo Y'Y invertibile (3), {YX b = 0} {Y'YX b = 0} {X b = 0} . Ne consegue che N (YX) un sottospazio di N (X) e, in definitiva, che

N (X) = N (YX).
(3) La matrice Y ' Y di ordine (n , n), per il Teorema 6, tale che r (Y ' Y) = r (Y) = n.

SISTEMI DI EQUAZIONI LINEARI

119

Il Teorema 7 fornisce una condizione sufficiente ma non necessaria affinch il rango di una matrice rimanga invariato quando questa premoltiplicata per una matrice. Per esempio, date le matrici
O SSERVAZIONE 7.

0 0 0 X= 0 1 0 0 0 0 r(X) = 1 e r(Y) = 2, ma

1 0 0 , Y= 0 1 0 0 0 0

0 0 0 r(YX) = r ( 0 1 0 0 0 0
O SSERVAZIONE 8.

)=1.

Date due matrici X di ordine (n,p) e Z di ordine (p,q) e rango q, risulta, in generale, r(X) r(XZ). Per esempio, date le matrici 1 0 X= 1 0 1 0 r(X) = 1 e r(Z) = 1, ma r(XZ) = r ( 1 0 1 0 1 0 0 1 0 , Z= 1

) = r(

0 0 0

)=0.

TEOREMA 8

Il rango di una matrice rimane invariato se questa premoltiplicata o postmoltiplicata per una matrice invertibile.

Dim. Siano X una matrice di ordine (n,p) e Y e Z due matrici invertibili di ordine, rispettivamente, (n,n) e (p,p). Tenuto conto del Teorema 7, si ha

120

Cap. IV

r(YX) = r(X) , r(X Z) = r(Z'X') = r(X ') = r(X) . 5 CAMBIAMENTI DI BASE IN UNO SPAZIO VETTORIALE Sia S uno spazio vettoriale di ordine n e dimensione p. Considerata una base di S costituita da p vettori x 1 , ... , x p di ordine n, scriviamo un generico vettore xS nella forma (Cfr. l'Osservazione 7 del Cap. II) x = a 1 x 1 + ... + a p x p = x 1 a1 xp ap Consideriamo poi p vettori x 1 , ... , x p appartenenti a S. Poich risulta x 1 = a 1 1 x 1 + ... + a p 1 x p = x 1 a 11 xp a p1 .............................................................................. x p = a 1 p x 1 + ... + a p p x p = x 1 a 1p xp a pp possiamo scrivere X = x1 xp = x1 xp a1 a p = XA . = Xa p = Xa 1 = Xa .

Ma, tenuto conto del Teorema 7, r(X) = r(XA) = r(A) . Dunque, condizione necessaria e sufficiente affinch i p vettori x 1 , ... , x p costituiscano a loro volta una base di S che la matrice A, di ordine (p,p), sia non singolare.

SISTEMI DI EQUAZIONI LINEARI

121

Qualora tale condizione sia verificata, un generico vettore xS pu essere scritto univocamente nella forma a1 xp ap Pertanto, premoltiplicando il primo e l'ultimo membro dell'identit Xa = x = X a = XAa per X' e osservando che X'X invertibile (4) , il legame che sussiste tra i vettori coordinati a e a di x, rispetto alle basi di S formate da x 1 , ... , x p e x 1 , ... , x p , risulta espresso dalla relazione a = Aa ovvero da a = A- 1 a .
O SSERVAZIONE 9.

x = a 1 x 1 + ... + a p x p = x 1

= Xa .

Date le matrici X e X di cui sopra, la matrice A del cambiamento di base pu essere facilmente ottenuta mediante l'espressione A = (X'X)- 1X' X .

(4) La matrice X' X di ordine (p , p), per il Teorema 6, tale che r (X' X) = r (X) = p.

122

Cap. IV

Cap. IV

COMPLEMENTI

1 Nel capitolo precedente abbiamo posto in evidenza che se i vettori colonna (riga) che compongono una matrice X di ordine (n,n) sono linearmente dipendenti, allora detX = 0. Vogliamo mostrare che sussiste la propriet reciproca di quella ora ricordata. In effetti, escludendo il caso banale in cui sia X = O, se detX = 0, allora r(X) = p < n; pertanto (Cfr. il Teorema 2), in X esistono p vettori colonna (riga) linearmente indipendenti e ogni altro vettore colonna (riga) di X pu essere espresso come combinazione lineare di tali p vettori colonna (riga) linearmente indipendenti. Quindi, i vettori colonna (riga) di X sono linearmente dipendenti. 2
TEOREMA

Date due matrici Y,X di ordine, rispettivamente, (m,n) e (n,p), condizione necessaria e sufficiente affinch sia r(YX) = r(X) che risulti N (YX) = N (X). Dim. Se N (YX) = N (X), allora (Cfr. il Teorema 4) p r(YX) = p r(X) e,

COMPLEMENTI

123

quindi, r(YX) = r(X). Per dimostrare la proposizione reciproca, osserviamo intanto che, per ogni a N (X), risulta anche a N (YX), cosicch N (X) un sottospazio di N (YX). D'altra parte, se r(YX) = r(X), N (X) e N (YX) hanno la stessa dimensione ({r(YX) = r(X)} {p r(YX) = p r(X)}) e, quindi, coincidono. 3 Data una matrice X = x 1 x p di ordine (n,p) e rango r, vogliamo mostrare la possibilit di scomporre X nel prodotto di due matrici. Poich r(X) = r, lo spazio vettoriale S (di ordine n) generato dai vettori colonna di X ha dimensione r. Supponiamo che h 1 , ... , h r formino una base di S. Ogni vettore colonna x j (j = 1, ... , p) di X si pu allora esprimere nella forma x j = k 1 j h 1 + ... + k r j h r = h 1 k 1j hr k rj ovvero X = [ x1 xp ] = [ h 1 hr] [ k1 kp ] = H K . = Hkj

Le matrici H ,K di ordine, rispettivamente, (n,r) e (r,p) attuano la desiderata scomposizione. Inoltre, per il Teorema 7, r(X) = r(H K) = r(K) = r p. Si osservi che la scomposizione X = HK non unica. In effetti, se A una matrice non singolare di ordine (r,r), allora X = HAA- 1 K = H K . 4 Supposto che X sia una matrice di ordine (n,p) e rango r = n < p, si consideri il sistema non omogeneo Xa = x.

124

Cap. IV

Come abbiamo visto, tale sistema ammette infinite soluzioni della forma (0: vettore colonna di ordine p n; I: matrice unit di ordine (p n,p n)) a= ovvero posto b1 = della forma a = b1 + Ca 2 . Chiaramente, b1 una soluzione del sistema non omogeneo Xa = x, ottenuta ponendo a 2 = 0 . A sua volta, Ca 2 fornisce tutte le soluzioni del sistema omogeneo associato Xa = 0. D'altro canto, poich i vettori colonna della matrice C costituiscono una base di N (X) che un sottospazio di Rp di dimensione p r, possiamo anche dire (Cfr. il punto 5 dei Complementi al Cap. I) che le soluzioni del sistema non omogeneo Xa = x costituiscono una variet lineare di traslazione b1 e direzione N (X). Considerazioni analoghe a quelle ora svolte possono ovviamente farsi nel caso in cui sia r < n e r < p.
-1 X *1 x 0 -1 -1 X *1 x X *1 X2 + a2 0 I

, C=

-1 X *1 X2 I

TRASFORMAZIONI LINEARI

125

Cap. V

TRASFORMAZIONI LINEARI

1 GENERALIT SULLE TRASFORMAZIONI LINEARI Siano S uno spazio vettoriale di ordine n e dimensione p e Z uno spazio vettoriale di ordine m e dimensione q. Si chiama trasformazione (applicazione, operatore) lineare di S in Z (o anche omomorfismo di S in Z) ogni funzione T che associa a ciascun vettore xS un vettore T(x) Z in modo tale che siano soddisfatte le propriet seguenti (x 1 ,x 2 S; aR): (i) T(x 1 + x 2 ) = T(x 1) + T (x 2 ) = a T(x 1 ) .

(ii) T( ax 1 )
ESEMPIO 1.

La funzione T definita ponendo, per ogni xR3, 2 1 3 T(x) = 1 0 0 x1 x2 x3 z

, come subito si verifica, una trasformazione lineare di R 3 in R2.

Il vettore T(x) si chiama immagine di x mediante T. Se S1 un sottospazio di S, eventualmente coincidente con S medesimo, l'insieme di tutti i vettori T(x), al variare di x in S1, chiamato immagine di S1 mediante T ed indicato con T(S 1).
O SSERVAZIONE 1.

Dati t vettori x 1 , ... , x t appartenenti a S e t numeri reali

126

Cap. V

a 1 , ... , a t , qualunque sia la trasformazione lineare T di S in Z, risulta T(a 1 x 1 + ... + a t x t) = a 1 T(x 1 ) + ... + a t T(x t) .
O SSERVAZIONE 2.

Qualunque sia la trasformazione lineare T di S in Z, l'immagine del vettore 0 S il vettore 0 Z (1). Infatti, T(0) = T(0x) = 0T(x) = 0 .

Chiaramente, la funzione che associa a ogni xS il vettore 0 Z una trasformazione lineare di S in Z. Essa riceve la denominazione di trasformazione (lineare) nulla ed indicata con il simbolo O.
O SSERVAZIONE 3.

2 TRASFORMAZIONI LINEARI E BASI 2.1 Supponiamo che i vettori x 1 , ... , x p e z 1 , ... , z q formino due prefissate basi, rispettivamente, di S e Z. Data una trasformazione lineare T di S in Z e posto (j = 1, ... , p) T(x j) = t 1 j z 1 + ... + t q j z q = z 1 t1j zq tqj per ogni x = a 1 x 1 + ... + a p x p = x 1 a1 xp ap appartenente a S, tenuto conto dell'Osservazione 1, si ha che (1) T(x) = T(a 1 x 1 + ... + a p x p ) = a 1 T(x 1 ) + ... + a p T(x p ) = T(x 1 ) = Zt 1 a1 Zt p ap = Z t1 a1 tp ap = ZTa . a1 T(x p ) ap = Xa = Zt j ,

(1) Il simbolo 0 denota sia il vettore nullo di S (di ordine n) sia il vettore nullo di Z (di ordine m).

TRASFORMAZIONI LINEARI

127

Mediante la (1) l'immagine T(x) di x risulta espressa in funzione del vettore coordinato a di x e della matrice T di ordine (q,p). Quest'ultima matrice, univocamente associata alla trasformazione lineare T e alle suddette basi di S e Z, riceve la denominazione di matrice rappresentativa o, pi semplicemente, matrice di T rispetto a tali basi. A sua volta, il vettore c = Ta il vettore coordinato di T(x) rispetto alla base di Z.
O SSERVAZIONE 4.

T(x 1 ) ha che (2)

Date le matrici T(x 1 ) T(x p ) e Z, dalla relazione T(x p ) = ZT premoltiplicando ambo i membri per (Z'Z) -1 Z' si T = (Z'Z) -1 Z' T(x 1 )

T(x p ) .

Rispetto alle basi naturali di R3 e R2, la matrice rappresentativa della trasformazione lineare T di R 3 in R2 di cui all'Esempio 1
E SEMPIO 2.

T= 2 1 3 . 1 0 0 Invece, rispetto alle basi di R 3 e R2 formate, rispettivamente, da 1 x1 = 0 0 e z1 = risultando T(x 1) = 2 1 , T(x 2) = 6 1 , T(x 3) = 7 1 1 1 , z2 = 2 1 1 , x2 = 1 1 1 , x3 = 2 1

(2) La matrice (Z ' Z) di ordine (q , q), per il Teorema 6 del Cap. IV, tale che r (Z ' Z) = r (Z) = q .

128

Cap. V

la matrice rappresentativa della stessa trasformazione lineare T T=( 1 2 1 1 1 1 2 1

-1

1 2

1 1

2 1

6 1

7 = 0 4 5 . 1 5 6 1

2.2 Supponiamo, come in precedenza, che i vettori x 1 , ... , x p e z 1 , ... , z q formino due prefissate basi, rispettivamente, di S e Z. Scelti arbitrariamente p vettori z 1 , ... , z p appartenenti a Z e posto (j = 1, ... , p) z j = t 1 j z 1 + ... + t q j z q = z 1 t1j zq tqj per ogni a1 xp ap appartenente a S, si definisca la funzione T ponendo (1') T(x) = a 1 z 1 + ... + a p z p = a 1 Z t 1 + ... + a p Z t p = Z t 1 a1 tp ap Si riconosce subito che T una trasformazione lineare di S in Z univocamente associata alla matrice T (3) e che la matrice rappresentativa di T, rispetto alle suddette basi di S e Z, proprio T.
ESEMPIO 3.

= Zt j ,

x = a 1 x 1 + ... + a p x p = x 1

= Xa

= ZTa .

Supponiamo che 1 x1 = 0 0 1 , x2 = 1 1

(3) Ovvero, univocamente associata ai p vettori z 1 , . . . , z p appartenenti a Z tali che T(x 1)

z 1 , . . . , T(x p)

zp .

TRASFORMAZIONI LINEARI

129

siano una base di uno spazio vettoriale S e che 0 z1 = 1 0 sia una base di uno spazio vettoriale Z. Considerata la matrice T= 2 3 , per ogni x = a1 x1 + a 2 x2 = x1 x2 appartenente a S, la funzione T definita da 0 T(x) = 1 0 a1 a2 a1 a2

2 3

una trasformazione lineare di S in Z univocamente associata a T (4). Tenuto conto di quanto mostrato in questa e nella sezione precedente, possiamo affermare che esiste una corrispondenza biunivoca, dipendente dalle basi prescelte di S e Z, tra l'insieme delle trasformazioni lineari di S in Z e l'insieme delle matrici di ordine appropriato.
O SSERVAZIONE 5.

2.3 Siano a il vettore coordinato di x rispetto a una base di S costituita dai vettori x 1 , ... , x p e c il vettore coordinato di T(x) rispetto a una base di Z formata dai vettori z 1 , ... , z q .
(4) Ovvero, univocamente associata ai vettori z1 = 0 2 0 , z2 = 0 3 0

appartenenti a Z.

130

Cap. V

Come si visto, tali vettori coordinati sono legati dalla relazione c = Ta dove T denota la matrice rappresentativa di T rispetto alle suddette basi di S e Z. Considerate due nuove basi di S e Z costituite, rispettivamente, dai vettori x 1 , ... , x p e z 1 , ... , z q e posto X = x1 Z = z1 xp = x1 zq = z1 xp a 1 z q b1 a p = XA b q = ZB

dove A e B sono due matrici non singolari di ordine appropriato, i vettori coordinati a di x e c di T(x), relativi a quest'ultime basi, si trasformano in a = A- 1 a , c = B -1 c . Ne consegue subito che c = (B -1 TA)a = T a , ovvero che la matrice T della trasformazione lineare T, relativa alle basi di S e Z formate dai vettori x 1 , ... , x p e z 1 , ... , z q , quando tali basi mutano nel modo qui sopra indicato, si trasforma in (2) T = B -1 TA .

Viceversa, due matrici T e T, legate da una relazione del tipo espresso dalla (2), si possono sempre interpretare come matrici della stessa trasformazione lineare T, relative a due opportune coppie di basi di S e Z. Date le matrici X,X e Z,Z di cui sopra, le matrici A e B possono essere ottenute mediante le espressioni (Cfr. l'Osservazione 9 del Cap IV)
O SSERVAZIONE 6.

A = (X'X) -1 X'X , B = (Z'Z) -1 Z'Z . Riprendendo l'Esempio 2, abbiamo visto che, relativamente alle basi di R e R2 formate, rispettivamente, da
E SEMPIO 4.
3

TRASFORMAZIONI LINEARI

131

1 x1 = 0 0 e

1 , x2 = 1 1

1 , x3 = 2 1

z1 =

1 1

, z2 = 2 1

la matrice rappresentativa della trasformazione lineare T ivi considerata era T = 0 4 5 . 1 5 6 Rispetto alle basi di R3 e R2 formate, rispettivamente, da 3 x1 = 3 2 e z1 = 3 2 risultando 1 0 0 A= 1 1 0 1 1 1 , B= 1 1 1 2 , z2 = 5 3 2 , x2 = 3 2 1 , x3 = 2 1

la matrice rappresentativa della stessa trasformazione lineare T diviene T= 1 1 1 2


-1

0 4 5 1 5 6

1 0 0 1 1 0 = 30 29 16 21 20 11 1 1 1

OSSERVAZIONE 7.

Tenuto conto del Teorema 8 del Cap. IV, si ha che r(T) = r(B -1 TA) = r(T) .

132

Cap. V

3 NUCLEO E IMMAGINE DI UNA TRASFORMAZIONE LINEARE 3.1 Si chiama nucleo (o kernel) di una trasformazione lineare T di S in Z l'insieme che indichiamo con N (T) dei vettori xS tali che T( x) = 0. Chiaramente, N (T) un sottospazio di S. Infatti, per tutti gli x, y N (T) e ogni a R, risulta T( x + y) = T( x) + T( y) = 0 , T(a x) = aT( x) = 0 . La dim(N (T)) anche detta nullit di T. Indichiamo, al solito, con T la matrice della trasformazione lineare T rispetto a due basi di S e Z costituite, rispettivamente, dai vettori x 1 , ... , x p e z 1 , ... , z q . Il nucleo di T si pu determinare ricercando in primo luogo quei vettori a = a j (p , 1 ) tali che T a = 0. Ogni vettore a che soddisfa quest'ultima condizione vale a dire, ogni a N (T)) il vettore coordinato rispetto alla base di S del vettore x = a 1 x 1 + ... + a p x p = x 1 a1 xp ap Se r(T) = 0 vale a dire se T la trasformazione nulla allora il nucleo di T S e la nullit di T p. Se r(T) = p, allora il nucleo di T lo spazio nullo di S e la nullit di T 0. Se 0 < r(T) = r < p, supponiamo, senza perdita di generalit, che i primi r vettori colonna e riga di T = t i j (q , p ) siano linearmente indipendenti. Posto T*1 = t11 tr1 t1r trr , T2 = t 1 , r+1 t r, r+1 t1p trp , C (p , p - r) =
-1 T *1 T2 I

= X a N (T) .

una base del nucleo di T, per quanto detto nella dimostrazione del Teorema 4 del Cap. IV, formata dai vettori colonna di C.

TRASFORMAZIONI LINEARI

133

Pertanto, una base del nucleo di T formata dai vettori colonna di X(n , p - r) = x 1 e la nullit di T p r. 3.2 Consideriamo l'immagine T(S) di S mediante T, vale a dire l'insieme dei vettori z Z per i quali esiste un vettore xS tale che z = T(x). Chiaramente, T(S) un sottospazio di Z. Infatti, per tutti i T(x ) ,T(y) Z e ogni a R, risulta T(x ) + T(y ) = T(x + y) T(S) , aT(x ) = T(ax) T(S) . La dim(T(S)) anche detta rango di T. Se r(T) = 0 vale a dire se T la trasformazione nulla allora T(S) lo spazio nullo di Z e il rango di T 0. Se r(T) = p, vogliamo mostrare che i p vettori T(x 1 ) , ... ,T(x p ) cio le immagini mediante T dei vettori che formano una base di S costituiscono una base di T(S) e, quindi, che il rango di T p. A questo fine, osserviamo intanto che, per ogni x = a 1 x 1 + ... + a p x p appartenente a S, si ha che T(x) = a 1 T(x 1 ) + ... + a p T(x p ) , ovvero che T(x) esprimibile come combinazione lineare dei p vettori T(x 1 ) , ... ,T(x p ). Per dimostrare che T(x 1 ) , ... ,T(x p ) sono linearmente indipendenti, supponiamo che esistano p numeri reali d 1 , ... , d p tali che d 1 T(x 1 ) + ... + d p T(x p) = 0 . Ci implica che sia T(d 1 x 1 + ... + d p x p) = 0 e, quindi, che il vettore d 1 x 1 + ... + d p x p appartenga al nucleo di T. xp - r
(n , p - r)

= XC(p , p - r)

134

Cap. V

Ma, coincidendo in questo caso il nucleo di T con lo spazio nullo di S, risulta d 1 x 1 + ... + d p x p = 0 . D'altra parte, l'indipendenza di x 1 , ... , x p implica che d 1 , ... , d p siano tutti nulli e ci prova l'indipendenza di T(x 1 ) , ... ,T(x p ). Infine, qualora sia 0 < r(T) = r < p, supponiamo che i vettori x 1 , ... , x p - r , x p - r+1 , ... , x p formino una base di S ottenuta mediante il completamento di una base del nucleo di T costituita dai vettori x 1 , ... , x p - r . Con un ragionamento analogo a quello appena svolto, si pu facilmente provare che gli r vettori T(x p - r+1 ) , ... ,T( x p ) formano una base di T(S) e, quindi, che il rango di T r. Consideriamo la trasformazione lineare T di R 3 in R2 la cui matrice, rispetto alle basi naturali di R 3 e R2,
E SEMPIO 5.

T= 2 1 3 . 1 0 0 Come immediato verificare, una base di N (T) costituita dal vettore 0 x 1 = 3 . 1 A sua volta, una base di T(R 3) si pu ottenere attraverso il completamento della base di N (T) mediante, per esempio, i vettori 1 x2 = 1 1 1 , x3 = 2 1

e, successivamente, trasformando quest'ultimi nei vettori T( x 2 ) = 6 1


O SSERVAZIONE 8.

, T( x 3 ) = 7 . 1

Poich la dimensione di T(S) eguale a r(T), ricordando

TRASFORMAZIONI LINEARI

135

quanto detto nella sezione che precede a proposito della dimensione di N (T), possiamo concludere che dim(S) = dim(N (T)) + dim(T(S)) .
O SSERVAZIONE 9.

Dato che dim(N (T)) 0, risulta che dim(T(S)) dim(S) .

3.3 Introduciamo anzitutto alcune definizioni. Si dice che una trasformazione lineare T di S in Z iniettiva se, per tutti gli x,yS , T(x) = T(y) implica che sia x = y, ovvero x y implica che sia T(x) T(y). A sua volta, si dice che una trasformazione lineare T di S in Z surgettiva se T(S) = Z. Ci premesso, ci proponiamo di dimostrare il seguente teorema.
TEOREMA 1

Una trasformazione lineare T di S in Z a) iniettiva se e soltanto se la dimensione di N (T) eguale a zero; b) surgettiva se e soltanto se dim(T(S)) = dim(Z).

Dim. a) Se T iniettiva, il nucleo di T costituito dal solo vettore 0 S e, quindi, dim(N (T)) = 0. Viceversa, supposto che sia dim(N (T)) = 0, se T(x) = T(y) per tutti gli x,yS , allora T(x y) = T(x) T(y) = 0 e, pertanto, il vettore x y appartiene a N (T); ma, essendo 0 l'unico elemento di N (T), risulta x = y e, quindi, T iniettiva. b) Poich T(S) un sottospazio di Z, T(S) e Z coincidono se e soltanto se hanno la stessa dimensione, vale a dire se e soltanto se dim(T(S)) = dim(Z) (5).
(5) Si noti che una trasformazione lineare di S in Z al tempo stesso iniettiva e surgettiva stabilisce un isomorfismo tra i due spazi vettoriali (Cfr. il punto 7 dei Complementi al Cap. I).

136

Cap. V

4 TRASFORMAZIONI LINEARI DI UNO SPAZIO VETTORIALE IN SE STESSO Supposto che sia Z = S, la funzione T che associa a ciascun vettore xS un vettore T(x) S in modo tale che siano soddisfatte le propriet (i) e (ii) di cui al paragrafo 1, si chiama trasformazione (applicazione, operatore) lineare di S in se stesso (o anche endomorfismo di S). Considerata la funzione che associa a ogni xS il vettore cxS, si verifica facilmente che questa una trasformazione lineare di S in se stesso. Essa riceve la denominazione di omotetia di rapporto c. Per c = 1, si ha la trasformazione (lineare) identica, indicata con il simbolo I. z
O SSERVAZIONE 10.

Si applicano, ovviamente, a questo caso le considerazioni svolte in precedenza circa le trasformazioni lineari di S in Z. In particolare, indichiamo con A la matrice del passaggio da una base formata da x 1 , ... , x p , vettori colonna della matrice X, a una base costituita da x 1 , ... , x p , vettori colonna della matrice X = XA. Allora, la matrice T della trasformazione lineare T di S in se stesso, relativa alla prima base, si trasforma in (3) T = A- 1 TA .

In generale, due matrici quadrate T e T, dello stesso ordine, legate da una relazione del tipo scritto in (3), si dicono simili e il legame tra T e T espresso dalla (3) si chiama trasformazione per similitudine. Possiamo pertanto affermare che la matrice T della trasformazione lineare T di S in se stesso, quando cambia la base, soggetta a una trasformazione per similitudine. Viceversa, due matrici simili si possono sempre interpretare come matrici della stessa trasformazione lineare T di S in se stesso, relative a due opportune basi di S.
E SEMPIO 6.

Relativamente alla base naturale di R2, sia

TRASFORMAZIONI LINEARI

137

T=

2 3 1 1

la matrice di una trasformazione lineare T di R2 in se stesso. Rispetto alla base di R 2 formata da x1 = 1 1 , x 2 = 1 1

la matrice della stessa trasformazione lineare T diventa T = 1 1 1 1


OSSERVAZIONE 11.
-1

2 3 1 1

1 1 = 1 1 7 . 2 1 3 1 1

Ovviamente, r(T) = r(T).

Inoltre, ( a ) tr(T) = tr(A- 1 TA) = tr(TAA- 1) = tr(T) (b) det(T) = det(A- 1 TA) = det(A- 1 ) det(T) det(A) = det(T).

5 AUTOVALORI E AUTOVETTORI 5.1 Si considerino una trasformazione lineare T di uno spazio vettoriale S di ordine n e dimensione p in se stesso e un sottospazio S 1 di S. Si dice che S 1 i n v a r i a n t e rispetto a T se, per ogni xS 1, anche T(x) S 1. Data la trasformazione lineare T, ci proponiamo di determinare i sottospazi di S di dimensione eguale a 1 invarianti rispetto a T. Formalmente, ci equivale a considerare l'equazione (4) T(x) = x

e a ricercare quei numeri R e quei vettori x 0 tali che la (4) risulti soddisfatta. Qualora siffatti numeri e vettori esistano, essi ricevono la denominazione, rispettivamente, di autovalori (radici caratteristiche, radici latenti,

138

Cap. V

valori propri) e autovettori (vettori caratteristici, vettori latenti, vettori propri) di T. Si consideri la trasformazione lineare T di R 2 in se stesso definita ponendo, per ogni xR2,
E SEMPIO 7.

T(x) = 1 4 9 1

x1 . x2

Si verifica facilmente che il numero reale = 7 e il vettore x=c 2 , 3 dove c un numero reale qualsiasi purch diverso da zero, soddisfano la equazione T(x) = x e sono pertanto, rispettivamente, un autovalore e un autovettore di T. Si consideri la trasformazione lineare T di R2 in se stesso definita ponendo, per ogni xR2,
E SEMPIO 8.

T(x) = 0 1 1 0

x 1 = x 2 . x2 x1

In tal caso, com' subito visto, non esiste un numero reale e un vettore x 0 tali che l'equazione x 2 = x 1 x1 x2 risulti soddisfatta e, pertanto, la trasformazione lineare in questione non ammette autovalori e autovettori. 5.2 Il procedimento mediante il quale si determinano gli autovalori e gli autovettori di una trasformazione lineare T di uno spazio vettoriale S in se stesso pu essere esposto nei seguenti termini. Si consideri una base di S costituita da p vettori x 1 , ... , x p e sia X = x1 xp .

TRASFORMAZIONI LINEARI

139

Siano, inoltre, T la matrice rappresentativa di T e a il vettore coordinato di un generico vettore xS rispetto alla suddetta base di S. La (4) pu essere allora espressa nella forma (4') oppure nell'altra (4'') Ta = a . XTa = Xa

Supponiamo, adesso, che esistano un numero R e un vettore a 0 che soddisfino la (4'). ` E ovvio che questi soddisfano anche la (4''), e viceversa. Ne consegue che un autovalore di T e che a il vettore coordinato rispetto alla base di S costituita dai vettori colonna della matrice X dell'autovettore x associato a tale autovalore. Per determinare gli autovalori e gli autovettori della trasformazione lineare T occorrer, pertanto, ricercare quei numeri R e quei vettori a 0 tali che la (4'') risulti soddisfatta. A questo fine, si osservi anzitutto che la (4'') pu essere riscritta nella forma (4''') (T I) a = 0 .

Ora, condizione necessaria e sufficiente affinch il sistema lineare omogeneo di cui sopra ammetta soluzioni non banali che sia (5) det(T I) = 0 .

Il primo membro della (5) com' subito visto sviluppandone il determinante un polinomio di grado p in , detto polinomio caratteristico di T. A sua volta, la (5) riceve la denominazione di equazione caratteristica di T. Fissata una base di S e quindi la matrice T rappresentativa rispetto a tale base della trasformazione lineare T, la ricerca degli autovalori di T

140

Cap. V

conduce dunque alla ricerca delle radici (reali) dell'equazione caratteristica di T. Il passo successivo consiste nel mostrare che le radici dell'equazione caratteristica di T sono indipendenti dalla base prescelta di S. In effetti, sia A la matrice del cambiamento di base di S. Tenuto conto della (3), si ha che det(T I) = det(A- 1 ) det(T I) det(A) = det(A- 1(T I)A) = det(A- 1TA I) = det(T I) ovvero che matrici simili, avendo lo stesso polinomio caratteristico, hanno anche una medesima equazione caratteristica ed eguali radici. Poich matrici simili identificano una stessa trasformazione lineare T, le radici dell'equazione caratteristica di T coincidono con gli autovalori di T. Supponiamo, adesso, che la (5) ammetta l'autovalore . Sostituendo nella (4''') a , l'insieme delle soluzioni del sistema lineare omogeneo risultante (T I) a = 0 uno spazio vettoriale di ordine p la cui dimensione (Cfr. il Teorema 4 del Cap. IV) p r(T I) e, premoltiplicando ciascun vettore a 0 appartenente a tale spazio vettoriale per X, si ottiene un autovettore x di T associato all'autovalore . Lo spazio vettoriale generato da tutti gli autovettori associati a riceve generalmente la denominazione di autospazio di e la sua dimensione, pari a p r(T I), anche detta molteplicit geometrica di . Ovviamente, considerato un cambiamento della base di S determinato da una matrice A, ogni soluzione a 0 del sistema (T I) a = 0, risultando { a : (T I) a = 0} = { a : A- 1(T I) a = 0}

= { a : (A- 1TA A- 1A) A- 1 a = 0} = { a : (T I) A- 1 a = 0} , si trasforma, al cambiamento di base, in A-1 a .

TRASFORMAZIONI LINEARI

141

O SSERVAZIONE 12.

L'equazione caratteristica di T ammette l'autovalore =

0 se e soltanto se T singolare. Infatti, se T singolare, esiste un vettore a 0 tale che T a = 0, e questa ultima relazione si scrive anche T a = a con = 0. Viceversa, se = 0, allora detT = 0 e, quindi, T singolare. Si consideri la trasformazione lineare T di R2 in se stesso la cui matrice rispetto alla base formata da
ESEMPIO 9.

x1 = 1 1

, x2 = 0 1

T = 1 2 . 0 1 L'equazione caratteristica di T vale a dire, l'equazione det ( 1 2 1 0 1 0 0 1

) = det

1 0

2 = 0 1

ammette l'autovalore (unico) = 1. Poich r(T I) = 1, le soluzioni del sistema 0 2 a = 0 0 0 formano uno spazio vettoriale di dimensione 1 e il vettore a=b 1 , 0 dove b un numero reale qualsiasi purch diverso da zero, un vettore non nullo che appartiene a tale spazio vettoriale. Ne consegue che x = x1 x2 a = b 1 1

142

Cap. V

un autovettore di T corrispondente all'autovalore = 1. La dimensione dell'autospazio corrispondente a tale autovalore pari 1. 5.3 Facendo seguito alle considerazioni esposte nelle due sezioni precedenti, vogliamo anzitutto dimostrare il seguente teorema.
TEOREMA 2

Autovettori corrispondenti ad autovalori distinti di una trasformazione lineare T di uno spazio vettoriale S in se stesso sono linearmente indipendenti.

Dim. Supponiamo che T ammetta t autovalori distinti *1 , *2 , ... , *t e consideriamo t autovettori x *1 , x *2 , ... , x *t associati a tali autovalori. La dimostrazione utilizza il procedimento di induzione su t. Se t = 1 il teorema senz'altro vero. Sia adesso t > 1 e supponiamo che il teorema sia vero per ogni insieme di t 1 autovettori. Considerata la relazione (a) c1 x *1 + c 2 x *2 + ... + c t x *t = 0

dove c 1 , c 2 , ... , c t sono t numeri reali per il momento arbitrari, vogliamo dimostrare che la (a) implica che sia c 1 = c 2 = ... = c t = 0. Applicando a entrambi i membri della relazione precedente la trasformazione lineare T, si ottiene T(c 1 x *1 + c 2 x *2 + ... + c t x *t ) = c 1 T( x *1 ) + c 2 T( x *2 ) + ... + c t T( x *t ) = 0 da cui (b) c 1 *1 x *1 + c 2 *2 x *2 + ... + c t *t x *t = 0 .

Moltiplicando la (a) per 1 e sottraendo il risultato dalla (b), si ha * (c) c 2 ( *2 *1 ) x *2 + ... + c t ( *t *1 ) x *t = 0 .

TRASFORMAZIONI LINEARI

143

Ma, essendo per ipotesi x *2 , ... , x *t linearmente indipendenti e ( *s *1 ) 0 per s = 2 , ... , t , la (c) implica che sia c 2 = ... = c t = 0. Ne segue, come si rileva subito dalla (a), che c 1 x *1 = 0 e, quindi, che anche c 1 = 0.

Una trasformazione lineare T di uno spazio vettoriale S di dimensione p in se stesso ammette al pi p autovalori distinti. Infatti, se esistessero p+1 autovalori distinti di T, allora, per il Teorema 2, S conterrebbe p+1 autovettori linearmente indipendenti, contro l'ipotesi che sia dim(S) = p. z
C OROLLARIO .

Si dice che l'autovalore s (1 s t) ha molteplicit algebrica (o, pi * semplicemente, molteplicit) m s se questa la sua molteplicit quale radice del polinomio caratteristico di T. Se m s = 1, *s detto autovalore semplice. Ci premesso, dimostriamo il seguente teorema.
TEOREMA 3

Data una trasformazione lineare T di uno spazio vettoriale S di dimensione p in se stesso, sia T la matrice di T rispetto a una base di S. Supponiamo, inoltre, che T ammetta gli autovalori distinti *1 , ... , *t di molteplicit algebriche m 1 , ... , m t tali che

ms = p . s=1
Condizione necessaria e sufficiente affinch esista una base di S formata da autovettori di T che, per ogni s = 1, ... , t , sia (6) r(T *s I) = p m s ,

ovvero che la molteplicit algebrica di *s sia eguale alla sua molteplicit geometrica.

144

Cap. V

Dim. Chiaramente, la (6) esprime una condizione necessaria e sufficiente affinch lo spazio vettoriale generato dalle soluzioni del sistema (T *s I) a s = 0 * abbia dimensione pari a m s . Pertanto, scelti m s vettori linearmente indipendenti (1 s t) a *s , 1 , ... , a *s , m s appartenenti a tale spazio vettoriale, premoltiplicando ciascuno di essi per la matrice X i cui vettori colonna formano una base di S, si ottengono m s autovettori, a loro volta linearmente indipendenti, x *s , 1 = X a *s , 1 , ... , x *s , m s = X a *s , m s i quali formano una base dell'autospazio di *s . Poich autovettori associati ad autovalori distinti sono linearmente indipendenti (Cfr. il Teorema 2), riunendo le basi degli autospazi associati agli autovalori *1 , ... , *t , si ottiene una base di S formata da autovettori di T. Qualora la trasformazione lineare T di S in se stesso ammetta p autovalori e questi siano semplici, esiste una base di S formata da autovettori di T.
C OROLLARIO .

Si consideri la trasformazione lineare T di R 2 in se stesso la cui matrice rispetto alla base formata da
E SEMPIO 10.

x1 = 1 1 T=

, x2 = 0 1

2+ 2 1

2 1 2

L'equazione caratteristica di T vale a dire, l'equazione

TRASFORMAZIONI LINEARI

145

det (

2+ 2

1 1 2

1 0

0 1

) = det

2+ 2 1

2 1 2

=0

ammette gli autovalori 1 = 3 e 2 = 0, di molteplicit m 1 = m 2 = 1. * * Poich r(T 1 I) = 1, le soluzioni del sistema * 1+ 2 1 2 2 2 a =0

*1

formano uno spazio vettoriale di dimensione 1 e il vettore a *1 , 1 = b 2 1+ 2

dove b un numero reale qualsiasi purch diverso da zero, un vettore non nullo che appartiene a tale spazio vettoriale. Ne consegue che x *1 , 1 = x 1 x 2 a *1 , 1 = b 2 1

un autovettore di T corrispondente all'autovalore 1 = 3. * Analogamente, poich r(T 2 I) = 1, le soluzioni del sistema * 2+ 2 2 a =0

1 1 2

*2

formano uno spazio vettoriale di dimensione 1 e il vettore a *2 , 1 = c 2 2+ 2

dove c un numero reale qualsiasi purch diverso da zero, un vettore non

146

Cap. V

nullo che appartiene a tale spazio vettoriale. Ne consegue che x *2 , 1 = x 1 x 2 a *2 , 1 = c 2 2

un autovettore di T corrispondente all'autovalore 2 = 0. * Ovviamente, tenuto conto del Corollario al Teorema 3, gli autovettori di cui sopra formano una base di R 2. 5.4 Supponiamo, come nell'enunciato del Teorema 3, che la trasformazione lineare T di uno spazio vettoriale S di dimensione p in se stesso ammetta t autovalori distinti *1 , ... , *t di molteplicit m 1 , ... , m t con m 1 + ... + m t = p

= dim(S). Indichiamo con 1 , ... , p l'insieme di tali autovalori (eventualmente non tutti distinti) e con x 1 , ... , x p l'insieme dei p autovettori a essi associati. In una base di S formata da x 1 , ... , x p , la relazione (j = 1, ... , p) T( x j ) = j x j pu essere espressa nella forma T a j = j a j da cui fatte le posizioni 1 A = a1 si ottiene (7) TA = A D . ap , D= 0 p 0

Ci premesso, immediato rilevare che, qualora i vettori a 1 , ... , a p siano linearmente indipendenti, la matrice A di pieno rango.

TRASFORMAZIONI LINEARI

147

Pertanto, (8) A-1 TA = D .

Ci significa che, assunta A quale matrice del passaggio dalla base formata da x 1 , ... , x p alla base costituita da x 1 , ... , x p , la matrice della trasformazione lineare T, in quest'ultima base, D = diag( 1 , ... , p ) . Reciprocamente, se esiste una matrice A tale che la (8) sia soddisfatta, allora a 1 , ... , a p sono i vettori coordinati degli autovettori corrispondenti agli autovalori 1 , ... , p della trasformazione lineare T associata alla matrice T. ` E importante sottolineare che, posto che la trasformazione lineare T ammetta p autovalori, la possibilit di ridurre a forma diagonale la matrice T di T mediante una trasformazione per similitudine dipende criticamente dal fatto che esistano p autovettori linearmente indipendenti. Se i p autovalori di T sono tutti semplici, allora (Cfr. il Corollario al Teorema 3) possibile trovare p autovettori linearmente indipendenti e T risulta diagonalizzabile attraverso una trasformazione per similitudine. Se i p autovalori di T non sono tutti semplici, affinch T sia riducibile a forma diagonale mediante una trasformazione per similitudine occorre che la molteplicit algebrica e la molteplicit geometrica di ciascun autovalore siano eguali (Cfr. il Teorema 3).
O SSERVAZIONE 13.

Riprendendo l'Esempio 10, si consideri la trasformazione lineare T di R in se stesso la cui matrice rispetto alla base formata da
ESEMPIO 11.
2

x1 = 1 1

, x2 = 0 1

148

Cap. V

T=

2+ 2 1

2 1 2

Come si visto, tale trasformazione ammette gli autovalori 1 = *1 = 3 e 2 = *2 = 0. Quindi, T risulta diagonalizzabile attraverso una trasformazione di similitudine. In effetti, la matrice del passaggio dalla base formata da x 1 , x 2 alla base costituita dagli autovettori x 1 = x *1 , 1 = , come subito si verifica, A= 2 2 2 1 , x 2 = x *1 , 1 = 2 2

1+ 2 2+ 2

e risulta 2 2
-1

2+ 2 1

2 1 2 2 1 2

2 2

2 2

1+ 2 2+ 2 = 2+ 2 2 1 3 2 1 2 2

1+ 2 2+ 2 1+ 2 2+ 2 = 3 0 . 0 0

2+ 2 1

Rispetto alla base naturale di R 2, si consideri la trasformazione lineare T di R 2 in se stesso la cui matrice
E SEMPIO 12.

T= 0 1 . 0 0 Com' subito visto, l'equazione caratteristica di T ammette un unico autovalore *1 = 0 di molteplicit m 1 = 2 e l'autospazio di ha dimensione

TRASFORMAZIONI LINEARI

149

pari a 1. Pertanto, T non diagonalizzabile attraverso una trasformazione di similitudine. Rispetto alla base naturale di R 3, si consideri la trasformazione lineare T di R 3 in se stesso la cui matrice
E SEMPIO 13.

1 1 1 T= 1 1 1 . 1 1 1 Come si pu facilmente verificare, l'equazione caratteristica di T ammette gli autovalori *1 = 3 di molteplicit m 1 = 1 e *2 = 0 di molteplicit m 2 = 2. Inoltre, l'autospazio di *1 ha dimensione pari a 1 e l'autospazio di *2 ha dimensione pari a 2. Pertanto, T diagonalizzabile attraverso una trasformazione di similitudine.
O SSERVAZIONE 14.

Nell'ipotesi che la matrice A sia di pieno rango, si possono facilmente dimostrare le seguenti propriet (6).

( a ) Il determinante di T eguale al prodotto degli autovalori della trasformazione lineare T. Infatti, detT = det(A TA) = det D = j .
-1 j=1 p

(b) La traccia di T eguale alla somma degli autovalori della trasformazione lineare T. Infatti, trT = tr(A TA) = tr D = j .
-1 j=1 p

(c) Il rango di T eguale al numero degli autovalori diversi da zero della trasformazione lineare T, come risulta subito dal fatto che r(T) = r (A TA) = r( D) .
-1

(6) Le propriet (a) e (b) sussistono anche nel caso in cui tale matrice non sia di pieno rango.

150

Cap. V

6 TRASFORMAZIONI IDEMPOTENTI. PROIETTORI 6.1 Siano S uno spazio vettoriale di ordine n e dimensione p e T una trasformazione lineare di S in se stesso. Si dice che T una trasformazione (lineare) idempotente di S se, per ogni xS, risulta (9) T 2(x) = T(T(x)) = T(x) .

Poich, con le notazioni ormai consuete, T(x) = XTa , T 2(x) = T(T(x)) = X TTa = X T 2 a la condizione necessaria e sufficiente affinch valga la (9) espressa come facilmente si riconosce dalla relazione (9') T2 = T .

In particolare, sono idempotenti sia la trasformazione nulla O (T = O) sia la trasformazione identica I (T = I).
O SSERVAZIONE 15.

Indichiamo con A la matrice del passaggio da una base costituita dai vettori colonna di X a una base formata dai vettori colonna di X. Allora, la matrice T si trasforma in T = A- 1 TA e T 2 si trasforma in

T 2 = A- 1 TA A- 1 TA = A- 1 TA = T. Ci significa che una trasformazione idempotente caratterizzata dal fatto che, rispetto a una qualunque base di S, la matrice a essa associata idempotente.
OSSERVAZIONE 16.

Scritta la (9') nella forma T(I T) = O ,

subito visto che o T = O e (I T) = I o T = I e (I T) = O, oppure sia T sia I T sono singolari (Cfr. il punto 9 dei Complementi al Cap. III).
E SEMPIO 14.

Si consideri la trasformazione lineare T di R 2 in se stesso la

TRASFORMAZIONI LINEARI

151

cui matrice, rispetto alla base naturale di R 2, T= 2 1 . 2 1

Come subito si verifica, T idempotente. Considerata poi la matrice A= 1 12 1 1

del passaggio dalla base naturale di R 2 alla base formata da x1 = T si trasforma in T= 1 12 1 1


-1

1 1

, x2 = 1 2 1

2 1 2 1

1 12 = 1 0 1 1 0 0

e la matrice che compare a secondo membro di quest'ultima espressione chiaramente idempotente (7). Si noti anche che le matrici T e I T sono entrambe singolari, cos come le matrici T e I T.

6.2 Siano S uno spazio vettoriale di dimensione p e S 1 e S 2 due suoi sottospazi tali che S = S1S 2. Com' noto (Cfr. il Teorema 13 del Cap. I), ogni xS ammette un'unica rappresentazione della forma x = y + z con yS 1 e z S 2. Considerata la funzione T che associa a ogni xS il vettore yS 1, vogliamo anzitutto mostrare che T una trasformazione lineare di S in se stesso.

(7) Come avremo modo di porre in evidenza nel seguito (Cfr. la sezione 6.3 e l'Esempio 15), il fatto che la matrice risultante sia del tipo indicato non casuale.

152

Cap. V

Infatti, per tutti gli x , x 1 , x 2 S tali che x = y + z con y S 1 e z S 2 x 1 = y 1 + z 1 con y 1 S 1 e z 1 S 2 x 2 = y 2 + z 2 con y 2 S 1 e z 2 S 2 e ogni a R, si ha (i) (ii) T(x 1 + x 2) = T((y 1 + y 2 ) + (z 1 + z 2)) = y 1 + y 2 = T(x 1) + T(x 2 ) T(ax) = T(ay + a z) = a y = a T(x).

Inoltre, si verifica facilmente che la trasformazione lineare T qui sopra definita gode delle seguenti propriet: (a) T(y) = T(y + 0) = y per tutti gli yS 1

(b) T(z) = T(0 + z) = 0 per tutti gli zS 2 . Tali propriet determinano univocamente T, nel senso che ogni altra trasformazione lineare T1 che possieda le medesime propriet risultando T1 (x) = T1 (y + z) = T1 (y) + T 1 (z) = y + 0 = y = T(x) coincide necessariamente con T. La trasformazione lineare T in questione anche detta proiettore di S su S 1 lungo S 2. A sua volta, il vettore y detto proiezione di x su S 1 lungo S 2.
Fig. 1

S2 x z y 0 S1 R2 = S1 S2

TRASFORMAZIONI LINEARI

153

Il seguente teorema stabilisce la relazione che sussiste tra proiettori e trasformazioni idempotenti.
TEOREMA 4

Una trasformazione lineare T di uno spazio vettoriale S di dimensione p in se stesso un proiettore se e soltanto se T idempotente.

Dim. Supponiamo che T sia idempotente. Vogliamo dimostrare che esistono due sottospazi S 1 e S 2 di S per i quali valgono le propriet (a) e (b) indicate in precedenza e tali che S = S1S 2. Sia S 1 definito come l'immagine T(S) di S mediante T. Se yS 1, allora y = T(x) per qualche xS; quindi, T(y) = T(T(x)) = T 2(x) = T(x) = y e la propriet (a) risulta soddisfatta. Sia S 2 definito come il nucleo N (T) di T. Se z S 2, allora T(z) = 0 ; quindi, la propriet (b) risulta soddisfatta. Occorre, adesso, fare vedere che S = S1S 2. A questo fine, si consideri, per ogni xS, l'identit x = T(x) + (x T(x)) . ` E ovvio che S = S1 + S2 . Inoltre, se per qualche xS accade che x appartenga sia a S 1 sia a S 2, deve risultare da un lato T(x) = x, dall'altro T(x) = 0. Ma ci implica che sia x = 0 e, quindi, che S 1 S 2 = S0 . Viceversa, supponiamo che T sia un proiettore di S su S 1 lungo S 2. Allora, per ogni xS tale che x = y + z con yS 1 e z S 2, risulta T 2(x) = T(T(x)) = T(T(y) + T(z)) = T(y) = y = T(x) e, quindi, T idempotente. 6.3 Considerati uno spazio vettoriale S di dimensione p e due suoi sotto-

154

Cap. V

spazi S 1 e S 2 tali che S = S1S 2 , nella sezione precedente abbiamo definito il proiettore T di S su S 1 lungo S 2 . Supponiamo adesso che x 1 , ... ,x p1 siano una base di S 1 = T(S) e, a loro volta, x p1 + 1 , ... ,x p siano una base di S2 = N (T). Rispetto alla base di S formata da x 1 , ... ,x p1 ,x p1 + 1 , ... ,x p , per ogni xS, possiamo scrivere x = a 1 x 1 + ... + a p1 x p1 + a p1 + 1 x p1 + 1 + ... + a p x p da cui T(x) = = = = T(a 1 x 1 + ... + a p1 x p1 + a p1 + 1 x p1 + 1 + ... + a p x p ) a 1 T(x 1 ) + ... + a p1 T(x p 1 ) + a p1 + 1 T(x p1 + 1 ) + ... + a p T(x p ) a 1 x 1 + ... + a p1 x p1 + a p1 + 1 0 + ... + a p 0 a 1 x 1 + ... + a p1 x p1 + 0 x p1 + 1 + ... + 0 x p a1 1 0 0 0 x p1 x p 1 + 1 xp 0 0 0 1 0 0 0 0 0 0 0 0 a p1 a p1 + 1 . ap

= x1

Quindi, la matrice rappresentativa di T, relativa alla base di S qui sopra indicata, D= Ovviamente, r(D) = p 1 = dim(S1) = tr(D) , r(I D) = p 2 = dim(S2) = tr(I D) . Ricordando che il rango e la traccia di una matrice rimangono invariati rispetto a una trasformazione per similitudine, si conclude poi che la matrice T del proiettore T, rispetto a una base qualsiasi di S, tale che r(T) = p 1 = dim(S1) = tr(T) , r(I T) = p 2 = dim(S2) = tr(I T) . I (p 1 , p 1 ) O (p 2 , p 1 ) O (p 1 , p 2 ) O (p 2 , p 2 ) .

TRASFORMAZIONI LINEARI

155

O SSERVAZIONE 18.

Chiaramente, ciascun vettore della base di S 1 = T(S) un autovettore di S corrispondente all'autovalore *1 = 1 e ogni vettore della base di S2 = N (T) un autovettore di S associato all'autovalore *2 = 0.

Si consideri la trasformazione idempotente T di R 2 la cui matrice, rispetto alla base naturale di R2, (Cfr. l'Esempio 14)
E SEMPIO 15.

T=

2 1 . 2 1

Come facilmente si verifica, una base di S 1 = T(R2) fornita dal vettore x1 = 1 1

e una base di S2 = N (T) data dal vettore x2 = 1 2 . 1 Si noti che R 2 = S1 S2 = T(R2) N (T). Inoltre, rispetto alla base di R2 costituita dai vettori x 1 , x 2 di cui sopra, risulta che la matrice di T D= 1 0 . 0 0 6.4 Date la trasformazione identica I e una trasformazione idempotente T di uno spazio vettoriale S, si consideri la funzione T = (I T) che associa a ciascun xS il vettore T(x) = (I T)(x). Si verifica subito che T una trasformazione lineare e idempotente. Infatti, si ha anzitutto che (x ,yS; aR) T(x + y) = (I T)(x + y) = x T(x) + y T(y) = (I T)(x) + (I T)(y) T( ax) = (I T)( ax) = ax aT(x) = a(I T)(x) . Inoltre, risulta che

156

Cap. V

T 2(x) = (I T) (I T) (x)) = (I T)(x) . Come si riconosce subito, la funzione T in tal modo definita costituisce il proiettore di S su S 2 lungo S 1. A sua volta, il vettore z detto la proiezione di x su S 2 lungo S 1. Naturalmente, se, rispetto a una prefissata base di S, T denota la matrice associata a T, I T la matrice associata a T . Inoltre, il rango e la nullit di T sono eguali, rispettivamente, alla nullit e al rango di T.

COMPLEMENTI

157

Cap. V

COMPLEMENTI

1 Supponiamo che T sia una trasformazione lineare di S in Z e che x 1 , ... , x t siano t vettori appartenenti a S. (a) Se x 1 , ... , x t sono linearmente dipendenti anche T(x 1 ) , ... , T(x t) sono linearmente dipendenti. Infatti, dalla relazione a 1 x 1 + ... + a t x t = 0 , con a 1 , ... , a t numeri reali non tutti nulli, si ha T(a 1 x 1 + ... + a t x t) = a 1 T(x 1 ) + ... + a t T(x t) = 0 . Ovviamente, qualora T(x 1 ) , ... , T(x t) siano linearmente indipendenti anche x 1 , ... , x t sono linearmente indipendenti. (b) Se x 1 , ... , x t sono linearmente indipendenti, nulla si pu dire in generale circa le loro immagini T(x 1 ) , ... , T(x t); queste possono risultare linearmente indipendenti o linearmente dipendenti. Tuttavia, se il nucleo di T costituito dallo spazio nullo, si pu facilmente dimostrare che T(x 1 ) , ... , T(x t) sono linearmente indipendenti. 2 Rispetto a una prefissata base di uno spazio vettoriale S, sia T la matrice

158

Cap. V

di una trasformazione lineare T di S in se stesso. Definita la trasformazione lineare T ' di S in se stesso la cui matrice, rispetto alla suddetta base di S, data da T', poich risulta det(T I) = det(T I)' = det(T' I) , le trasformazioni lineari T e T ' ammettono i medesimi autovalori. 3 Rispetto a una prefissata base di uno spazio vettoriale S di dimensione p, sia T la matrice di una trasformazione lineare T di S in se stesso. Supposto T invertibile, si definisca la trasformazione lineare T -1 di S in se stesso la cui matrice, rispetto alla suddetta base di S, data da T -1. -1 Se 0 un autovalore di T, allora 0 un autovalore di T -1 . Infatti, 0 = det( I + T)
-1

= ( ) p detT -1 det( I + T)
-1 -1

= ( ) p det( T -1 + I) = det ( ( )( T -1 + I) ) = det(T -1 I) .


-1 -1 Si dimostra poi che il sistema ( I + T)a = 0 e l'altro (T -1 I) a = 0 ammettono la medesima soluzione a .

4 Date le matrici X di ordine ( p 1 ,p 2 ) e Y di ordine ( p 2 ,p 1 ), vogliamo anzitutto mostrare che, qualunque sia R, risulta (I di ordine appropriato) p 2 det ( I XY) = p 1 det ( I YX) . Infatti, considerata l'identit (O di ordine appropriato) I XY X O I I O = I O I Y I Y I O X , I YX

prendendo il determinante di entrambi i membri, segue direttamente quanto

COMPLEMENTI

159

asserito. Ci premesso, posto p1 p2 , supponiamo che XY sia la matrice rappresentativa, rispetto a una prefissata base di R p 1, di una trasformazione lineare T1 di Rp 1 in se stesso. Analogamente, supponiamo che XY sia la matrice rappresentativa, rispetto a una prefissata base di R p 2, di una trasformazione lineare T2 di Rp 2 in se stesso. Allora, nell'ipotesi che T1 ammetta complessivamente h (0 < h p1) autovalori diversi da zero, T2 ammette i medesimi h autovalori diversi da zero. Infatti, se 0 un autovalore di T1, si ha che

{ det( I XY) = 0} { p 2 det( I XY) = 0}


{
p1

det( I YX) = 0} {det( I YX) = 0} .

Inoltre, come si pu agevolmente verificare, se = 0 un autovalore di T1 di molteplicit pari a p1 h, allora = 0 un autovalore di T2 di molteplicit pari a p2 h. 5 Facendo seguito alla considerazioni esposte al punto precedente, supponiamo che a , b siano i vettori coordinati degli autovettori di T 1 ,T2 associati a un autovalore 0. Vogliamo mostrare che a , b sono legati dalle relazioni Ya = b , X b = a . Infatti, se a una soluzione non nulla dell'equazione XYa = a , allora Ya una soluzione non nulla ( a 0 implica Ya 0) dell'equazione YXYa = Ya, cio Ya = b, e viceversa. 6 Siano S uno spazio vettoriale di ordine n e dimensione p e Z uno spazio

160

Cap. V

vettoriale di ordine m e dimensione q. Considerate due trasformazioni lineari T1 e T2 di S in Z e un numero reale c, si definiscono la somma T1 + T2 e il prodotto cT1 ponendo, per ogni xS e ogni cR, (T 1 + T2 )(x) = T1 (x) + T2 (x) , (cT1 )(x) = cT1 (x) . Chiaramente, l'insieme delle trasformazioni lineari di S in Z, con le operazioni di addizione e di moltiplicazione per un numero reale qui sopra definite, costituisce uno spazio vettoriale su R (Cfr. il punto 6 dei Complementi al Cap. I). Tale spazio vettoriale solitamente indicato con Hom( S , Z ). Nel caso particolare in cui sia Z = S, in luogo di Hom( S , S ) si usa di preferenza il simbolo End(S) (1). Si noti che, fissate le basi di S e Z, sussiste una corrispondenza biunivoca tra Hom( S , Z ) e l'insieme delle matrici di ordine (q,p) (Cfr. l' Osservazione 5). Ma, poich a quest'ultimo insieme pu essere attribuita una struttura di spazio vettoriale M su R di dimensione q.p (Cfr. il punto 6 dei Complementi al Cap. II), si riconosce subito che Hom( S , Z ) e M sono isomorfi (Cfr. il punto 7 dei Complementi al Cap. I) e che dim(Hom( S , Z)) = q.p .

(1) Hom sta per omomorfismo e End sta per endomorfismo.

FORME BILINEARI E QUADRATICHE

161

Cap. VI

FORME BILINEARI E QUADRATICHE

1 FORME BILINEARI Dato uno spazio vettoriale S di ordine n e dimensione p, si chiama forma bilineare su S ogni funzione B che associa a ciascuna coppia ordinata di vettori (x ,y) S S un numero reale B(x ,y) in modo tale che siano verificate le propriet seguenti (x ,y,v,z S; a,bR): (i) (ii) B(x + v,y) B(x ,y+ z) = B(x ,y) + B(v ,y) , B(ax,y) = B(x ,y) + B(x ,z) , B(x ,by) = aB(x ,y) = bB(x ,y) .

Le propriet di cui sopra esprimono la linearit di una forma bilineare nei riguardi, rispettivamente, del primo e del secondo argomento della funzione. Come si verifica facilmente, la funzione B definita ponendo, per ogni coppia ordinata di vettori (x ,y) R2 R2,
ESEMPIO 1.

y B(x ,y) = x 1 x 2 1 0 y 1 0 1 2 una forma bilineare su R 2. 2 FORME BILINEARI E BASI 2.1 Supponiamo che i vettori x 1 , ... , x p formino una prefissata base di S. Data una forma bilineare B su S e posto (k,j = 1, ... , p)

162

Cap. VI

B(x k , x j) = c k j , per ogni coppia ordinata di vettori a1 xp ap y = b 1 x 1 + ... + b p x p = x 1 b1 xp bp appartenenti a S, si ha (1) B(x ,y) = B(a 1 x 1 + ... + a p x p , b 1 x 1 + ... + b p x p ) = a k B(x k ,x j) b j = a k c k j b j
k =1 j=1 k =1 j=1 p p p p

x = a 1 x 1 + ... + a p x p = x 1

= Xa = Xb

= a1

c1 1 ap cp 1

c1 p cp p

b1 bp

= a ' Cb .

Mediante la (1) il valore B(x ,y) assunto dalla forma bilineare B, in corrispondenza della coppia ordinata di vettori (x ,y) S S, espresso in funzione dei vettori coordinati a di x e b di y nonch della matrice C . Quest'ultima matrice, univocamente associata a B e alla suddetta base di S, riceve la denominazione di matrice rappresentativa o, pi semplicemente, matrice di B rispetto a tale base di S.
E SEMPIO 2.

Rispetto alla base naturale di R 2, la matrice della forma bilineare B definita nell'Esempio 1 C= 1 0 . 0 1 Invece, rispetto alla base di R 2 costituita dai vettori x1 = 1 1 , x2 = 2 1

FORME BILINEARI E QUADRATICHE

163

risultando B(x 1 , x 1 ) = 0 , B(x 1 , x 2 ) = 1 , B(x 2 , x 1 ) = 1 , B(x 2 , x 2 ) = 3 la matrice rappresentativa della stessa forma bilineare B C= 0 1 . 1 3 2.2 Supponiamo, come in precedenza, che i vettori x 1 , ... , x p formino una prefissata base di S. Scelti arbitrariamente p2 numeri reali c 1 1 , ... , c 1 p , ... , c p 1 , ... , c p p e posto C= c1 1 cp 1 per ogni coppia ordinata di vettori a1 xp ap y = b 1 x 1 + ... + b p x p = x 1 b1 xp bp appartenenti a S, si definisca la funzione B ponendo (1') B(x ,y) = a ' Cb . = Xb c1 p , cp p

x = a 1 x 1 + ... + a p x p = x 1

= Xa

Si riconosce subito che B una forma bilineare su S univocamente associata alla matrice C (1) e che, rispetto alla suddetta base di S, la matrice rappresentativa di B proprio C.
(1) Ovvero, univocamente associata ai numeri reali c 1 1 , ... , c 1 p , ... , c p 1 , ... , c p p tali che B(x 1 , x 1) = c 1 1 , ... , B(x 1 , x p) = c 1 p , ... , B(x p , x 1) = cp 1 , ... , B(x p , x p) = c p p .

164

Cap. VI

Tenuto conto di quanto mostrato in questa e nella sezione precedente, possiamo affermare che esiste una corrispondenza biunivoca, dipendente dalla prescelta base di S, tra l'insieme delle forme bilineari e l'insieme delle matrici di ordine appropriato.
O SSERVAZIONE 1.

2.3 Nell'ipotesi che x 1 , ... , x p formino un'altra base di S, posto x = a 1 x 1 + ... + a p x p = x 1 a1 xp ap y = b 1 x 1 + ... + b p x p = x 1 risulta (2) B(x ,y) = B(a 1 x 1 + ... + a p x p , b 1 x 1 + ... + b p x p ) = a k B( x k , x j ) b j = a k c k j b j
k =1 j=1 k =1 j=1 p p p p

= Xa

b1 xp bp

= Xb

= a1

c1 1 ap cp 1

c1 p cp p

b1 bp

= a ' Cb .

Indichiamo adesso con A la matrice del passaggio da una base formata da x 1 , ... , x p , vettori colonna della matrice X, a una base costituita da x 1 , ... , x p , vettori colonna della matrice X = XA. Allora, subito visto che, dall'eguaglianza a ' Cb = a ' C b essendo a = Aa e b = Ab (Cfr. il paragrafo 5 del Cap. IV) si ottiene a ' A'CA b = a ' C b ovvero a ' (A'CA C) b = 0 .

FORME BILINEARI E QUADRATICHE

165

Ora, quest'ultima relazione deve valere per ogni ( a , b)Rp Rp e, in particolare, per ogni (u k ,u j) Rp Rp (k,j = 1, ... , p) dove u k e u j indicano, rispettivamente, il k-esimo e il j-esimo vettore canonico di ordine p. Ne consegue che A'CA C = O ossia che (3) C = A'CA .

In generale, due matrici quadrate C e C, dello stesso ordine, legate mediante una matrice non singolare A da una relazione del tipo scritto in (3), si dicono congruenti e il legame tra C e C espresso dalla (3) si chiama trasformazione per congruenza. Possiamo pertanto concludere che la matrice C della forma bilineare B, quando cambia la base, soggetta a una trasformazione per congruenza. Viceversa, due matrici C e C, legate da una relazione del tipo scritto in (3), si possono sempre interpretare come matrici della stessa forma bilineare B, relativamente a due opportune basi di S. Essendo poi r(C) = r (A'CA) = r(C) , possiamo definire il rango di una forma bilineare B come il rango comune a ciascuna delle matrici rappresentative di B.
E SEMPIO 3.

Rispetto alla base naturale di R 2, sia C= 1 1 2 0

la matrice di una forma bilineare B su R 2. Rispetto alla base di R 2 formata dai vettori x1 = 1 1 , x2 = 1 , 2

166

Cap. VI

la matrice della stessa forma bilineare B, come subito si verifica, diventa C= 4 5 . 6 7 3 FORME BILINEARI SIMMETRICHE E FORME QUADRATICHE 3.1 Una forma bilineare B su uno spazio vettoriale S di ordine n e dimensione p si dice simmetrica se, per ogni (x ,y) S S, risulta B(x ,y) = B(y ,x) . Tenuto conto della (1), subito visto che condizione necessaria e sufficiente affinch ci si verifichi che, rispetto a una qualunque base di S, la matrice di B risulti simmetrica. Data la forma bilineare simmetrica B su S, sia C la matrice di B rispetto a una base di S costituita da x 1 , ... , x p . Supponiamo poi di operare un cambiamento di base e che, rispetto a una nuova base di S formata da x 1 , ... , x p , la matrice C della forma bilineare B sia diagonale, vale a dire sia C = diag( c 1 1 , ... , c p p ) . Si dice, in tal caso, che C stata ridotta a forma canonica. La stessa terminologia si usa nei riguardi della forma bilineare simmetrica B associata a C; a sua volta, la base costituita dai vettori x 1 , ... , x p detta base canonica di B.
OSSERVAZIONE 2.

Il problema della riduzione a forma canonica della matrice

C della forma bilineare simmetrica B equivale, evidentemente, a quello di trovare una matrice non singolare A tale che A'CA sia diagonale.
O SSERVAZIONE 3.

In una base canonica costituita da p vettori x 1 , ... , x p , il

valore assunto da una forma bilineare simmetrica B su S, in corrispondenza

FORME BILINEARI E QUADRATICHE

167

di ogni (x ,y) S S, dato da c1 1 ap 0 = a j cj j b j .


j=1 p

B(x ,y) = a ' C b = a 1

0 cp p

b1 bp z

Nella dimostrazione del teorema seguente indicato un procedimento per ridurre a forma canonica la matrice di una forma bilineare simmetrica.
TEOREMA 1

Sia B una forma bilineare simmetrica su uno spazio vettoriale S di ordine n e dimensione p. Sia, inoltre, C = c k j (p , p ) la matrice di B rispetto a una base di S formata da p vettori x 1 , ... , x p . Se p = 1, allora ogni base di S una base canonica di B. Se p > 1, supposto che i primi p 1 determinanti della sequenza 1 = det c 1 1 = det (C (1) ) , ... , p = det c1 1 cp 1 c1 p cp p = det (C ( p ) )

siano tutti diversi da zero, allora possibile individuare una base di S rispetto alla quale la matrice di B ( 0 = 1) C = diag( 1 / 0 , 2 / 1 , ... , p / p -1 ) .

Dim. Se p = 1, la conclusione del teorema evidente. Se p > 1, consideriamo i p vettori c x1 = x1 = 1 1 x1 0


(1)

168
(2) (2) (2)

Cap. VI

x2 =

c12 c c x1 + x2 = 1 2 x1 + 2 2 x2 1 1 1

........................................................................................................................ xp = c1p c c c c x 1 + ... + (p -1) p x p -1 + x p = 1 p x 1 + ... + (p -1) p x p -1 + p p x p p -1 p -1 p -1 p -1 p -1


(1) (p) (p) (p) (p) (p)

dove c 1 1 = 1 e c (hus) (u = 2, ... , p ; h,s = 1, ... , u) indica il cofattore dell'elemento c h s in C ( u ). Tenuto conto dello sviluppo di un determinante secondo gli elementi di una riga e del fatto che la somma dei prodotti degli elementi di una riga per i cofattori di una riga diversa vale zero, si pu verificare che (k,j = 1, ... , p) B( x k , x j ) = 0 se k j , B( x k , x j) = j / j -1 se k= j e quindi, rispetto alla base di S costituita dai vettori x 1 , ... , x p di cui sopra, la matrice C della forma bilineare simmetrica B assume la forma diagonale indicata nell'enunciato del teorema. La possibilit di ridurre a forma canonica una determinata forma bilineare simmetrica B attraverso il procedimento qui sopra esposto dipende criticamente, oltrech da B, dalla base iniziale di S (2). Si noti inoltre che, mutando la base di partenza, si giunge a una diversa forma canonica di B.
O SSERVAZIONE 4.

La matrice del passaggio da una base formata dai vettori x 1 , ... , x p alla base canonica definita nella dimostrazione del Teorema 1 e costituita dai vettori x 1 , ... , x p
O SSERVAZIONE 5.

c 1 1 / 0
(1)

c 1 2 / 1
(2) (2)

A=

0 0

c 2 2 / 1 0

c 1 p / p -1 (p) c 2 p / p -1
(p)

c p p / p -1
(p)

(2) Si veda, al riguardo, il punto 1 dei Complementi a questo capitolo.

FORME BILINEARI E QUADRATICHE

169

Ovviamente, A non singolare, come si verifica facilmente in considerazione del fatto che il suo determinante dato dal prodotto degli elementi situati sulla diagonale principale e che questi sono tutti eguali a 1. Rispetto alla base naturale di R3, si consideri la forma bilineare simmetrica B su R3 la cui matrice
E SEMPIO 4.

2 C = 3/2 2

3/2 1 0

2 0 1

Come si pu facilmente verificare poich 1 = 2 0 , 2 = 1/4 0 , 3 = 17/4 0 i vettori 1 x1 = 0 0 , x2 = 3/4 1 0 8 , x 3 = 12 1

formano una base canonica di B e, rispetto a tale base, risulta 2 0 0 C = 0 1/8 0 . 0 0 17 3.2 Data la forma bilineare simmetrica B su S, si consideri la funzione Q che associa, a ogni xS, il numero reale Q(x) = B(x ,x). Si dice, in tal caso, che Q la forma quadratica su S determinata da (o associata a) B. Sia, adesso, X = x 1 x p la matrice i cui vettori colonna formano una base di S; siano, inoltre, x = Xa e y = Xb due vettori appartenenti a S. Poich il valore assunto dalla forma bilineare simmetrica B, in corrispondenza di ogni (x ,y) S S, dato da (1'') B(x ,y) = a ' Cb

170

Cap. VI

dove C la matrice simmetrica di ordine (p,p) rappresentativa di B rispetto alla suddetta base di S, il valore assunto dalla forma quadratica Q determinata da B, in corrispondenza del vettore xS, dato da (4) Q(x) = a ' Ca .

In altri termini, rispetto a una stessa base di S, sia la forma bilineare simmetrica B sia la forma quadratica Q a essa associata sono rappresentate dalla medesima matrice simmetrica C. Reciprocamente, siano X = x 1 x p la matrice i cui vettori colonna formano una base di S e C una matrice simmetrica di ordine (p,p). Poich alla matrice C possibile associare, mediante la (1''), la forma bilineare simmetrica B, alla stessa matrice C risulta associata, mediante la (4), la forma quadratica Q determinata da B. Tenuto conto di quanto mostrato in questa e nella sezione precedente, possiamo affermare che esiste una corrispondenza biunivoca tra l'insieme delle forme bilineari simmetriche e l'insieme delle forme quadratiche a esse associate, da un lato, e l'insieme delle matrici (simmetriche) che le rappresentano in una data base di S, dall'altro.
O SSERVAZIONE 6.

3.3 Data una forma bilineare simmetrica B su S, sia Q la forma quadratica a essa associata. Si dice che Q definita positiva (definita negativa) se, per ogni xS diverso dal vettore nullo, risulta Q(x) > 0 (Q(x) < 0). Si dice poi che Q semidefinita positiva (semidefinita negativa) o anche definita non negativa (definita non positiva) se Q(x) 0 (Q(x) 0) per ogni xS e Q(x) = 0 per qualche x 0. Si dice infine che Q indefinita se essa assume su S sia valori positivi sia valori negativi. La stessa terminologia correntemente impiegata nei riguardi della matrice (simmetrica) C associata, nella base prescelta di S, alla forma quadratica Q.

FORME BILINEARI E QUADRATICHE

171

3.4 Il concetto di forma quadratica definita positiva gioca un ruolo importante in molte questioni di algebra lineare. Tra l'altro, come vedremo nel capitolo successivo, una forma bilineare simmetrica tale che la forma quadratica a essa associata sia definita positiva alla base della definizione di spazio euclideo. Il teorema seguente fornisce un criterio basato sullo studio della matrice C associata, in una data base di S, alla forma quadratica Q determinata da una forma bilineare simmetrica B per riconoscere quando Q definita positiva.
TEOREMA 2

Siano B una forma bilineare simmetrica su uno spazio vettoriale S di ordine n e dimensione p e Q la forma quadratica a essa associata. Sia inoltre C la matrice di B e quindi di Q rispetto a una base di S formata da p vettori x 1 , ... , x p . Condizione necessaria e sufficiente affinch Q sia definita positiva che i p determinanti 1 = det c 1 1 = det (C ) , ... , p = det
(1)

c1 1 cp 1

c1 p cp p

= det (C ( p ) )

siano tutti positivi.

Dim. Supposto che Q sia definita positiva, vogliamo anzitutto dimostrare che non pu essere (j = 1, ... , p) j = det c1 1 cj 1 c1 j cj j = det B(x 1 , x 1 ) B(x j , x 1 ) B(x 1 , x j) B(x j , x j) = det (C (j ) ) = 0 .

Infatti, se fosse j = 0, i vettori riga che compongono la matrice C (j ) sarebbero linearmente dipendenti (Cfr. quanto detto al punto 1 dei Comple-

172

Cap. VI

menti al Cap. IV). Esisterebbero, pertanto, j numeri reali c 1 , ... , c j non tutti nulli tali che

k =1

c k B(x k ,x 1 )
j k =1

B(x k ,x j)

= B(c k x k ,x 1 )
k =1

B(c k x k ,x j)

= B(c k x k ,x 1 ) ovvero che (h = 1, ... , j)

k =1

B(c k x k ,x j)

= 0 (1 , j )

B( c k x k ,x h ) = 0 .
k =1

Ma, moltiplicando ambo i membri di quest'ultima relazione per c h e sommando rispetto all'indice h, otterremmo

h =1

c h B( k1 c k x k ,x h) = B( k1 c k x k , h1 c h x h ) = B(x,x) = Q(x) = 0 = = =

dove x diverso dal vettore nullo, in contrasto con l'ipotesi che Q sia definita positiva. Avendo dimostrato che 1 , 2 ,... , p sono tutti diversi da zero, esiste una base di B, e quindi di Q, costituita dai vettori x 1 , ... , x p definiti nella dimostrazione del Teorema 1, rispetto alla quale (5) Q(x) = j 2 aj . j = 1 j -1
p

D'altra parte, poich Q definita positiva, dall'espressione ora scritta segue che (j = 1, ... , p; 0 = 1) j >0 j -1 e, quindi, che 1 , 2 ,... , p sono tutti positivi. Viceversa, supposto che 1 , 2 ,... , p siano tutti positivi, il Teorema 1 assicura che esiste una base di S rispetto alla quale, per ogni xS, vale la (5); pertanto, Q definita positiva.

FORME BILINEARI E QUADRATICHE

173

Rispetto alla base naturale di R3, si consideri la forma bilineare simmetrica B su R3 la cui matrice
E SEMPIO 5.

7 C = 2 0 Poich risulta

2 6 2

0 2 5

1 = 7 > 0 , 2 = 38 > 0 , 3 = 162 > 0 la forma quadratica Q associata a B definita positiva. In effetti, rispetto alla base canonica di B costituita da 1 x1 = 0 0 la matrice di B e di Q 7 C= 0 0 0 0 38/7 0 0 162/38 , x2 = 2/7 1 0 2/19 , x 3 = 7/19 1

e questa chiaramente definita positiva. Nella formulazione del teorema precedente, i determinanti 1 , 2 ,... , p dipendono dai vettori x 1 , ... , x p che formano la base iniziale considerata.
OSSERVAZIONE 7.

Per contro, il fatto che la forma quadratica Q sia definita positiva del tutto indipendente da tale base. Ci significa tra l'altro che, permutando i vettori che compongono la base prescelta di S, i determinanti che risultano, diciamo 1 , 2 , ... , p , bench diversi dai precedenti, sono ancora tutti positivi. Consideriamo, per esempio, la forma quadratica Q su S la cui matrice, rispetto a una base formata da x 1 , x 2 ,

174

Cap. VI

c c C = c1 1 c 1 2 . 21 22 Supposto che Q sia definita positiva, risulta c c 1 = det c 1 1 = c 1 1 > 0 , 2 = det c 1 1 c 1 2 > 0 . 21 22 Analogamente, rispetto a una base di S ottenuta permutando i vettori x 1 , x 2 , deve essere c c 1 = det c 2 2 = c 2 2 > 0 , 2 = det c 2 2 c 2 1 > 0 . 12 11 Da quanto precede, si desume in particolare che gli elementi che compaiono sulla diagonale principale della matrice rappresentativa di Q, rispetto a una qualsiasi base di S, sono tutti positivi (3).

(3) Chiaramente, questa una condizione necessaria ma non sufficiente affinch una forma quadratica Q sia definita positiva.

COMPLEMENTI

175

Cap. VI

COMPLEMENTI

1 Si consideri la forma bilineare simmetrica B su R3 la cui matrice rispetto alla base naturale di R 3 1 1 1 C = 1 1 2 1 2 1 Poich 1 = 1 , 2 = 0 , 3 = 9 il metodo di riduzione a forma canonica di cui al Teorema 1 non pu essere applicato. Viceversa, rispetto alla base di R 3 costituita da 0 x1 = 0 1 la matrice di B risulta C1 = e, essendo 1 2 1 2 1 1 1 1 1 0 , x2 = 1 0 1 , x3 = 0 0

176

Cap. VI

1 = 1 , 2 = 3 , 3 = 9 , possibile ottenere, mediante il procedimento di cui al Teorema 1, una base canonica di B formata dai vettori 0 x1 = 0 1 rispetto alla quale si ha C = diag(1 , 3 , 3) . 2 Sia B una forma bilineare simmetrica su Rp e Q la forma quadratica a essa associata. Sia inoltre C la matrice di B e quindi di Q rispetto alla base naturale di R p. Supposto che Q sia definita positiva, la matrice C invertibile e, pertanto, esiste la sua inversa C -1. Vogliamo mostrare che la forma quadratica associata alla matrice (simmetrica) C -1 definita positiva. A questo fine, osserviamo intanto che C -1 pu essere scritta nella forma C -1 = (C ') -1 = (C -1)' = (C -1 )'C C -1 . Ma, per ogni xRp diverso dal vettore nullo, risulta C -1 x 0, cosicch x ' (C -1 )'C C -1 x = x ' C -1 x > 0 e, quindi, la forma quadratica associata alla matrice C -1 definita positiva. 3 Rispetto alla base naturale di Rn, sia M la matrice di ordine (n,n) rappresentativa di una forma quadratica definita positiva su R n. Analogamente, rispetto alla base naturale di R p, sia Q la matrice di ordine 0 1 2 1 , x 3 = 1 1

, x2 =

COMPLEMENTI

177

(p,p) rappresentativa di una forma quadratica definita positiva su R p. Data la matrice Y di ordine (n,p) rappresentativa, rispetto alle suddette basi di Rn e Rp, di una trasformazione lineare di Rp in Rn, e posto V = Y'MY , W = YQY' , ci proponiamo di svolgere qui di seguito alcune considerazioni elementari riguardanti tali matrici che risultano di ordine, rispettivamente, (p,p) e (n,n). (i) Vogliamo anzitutto mostrare che la matrice V, che riceve correntemente la denominazione di matrice di Gram costruita a partire dai p vettori colonna y 1 , ... , y p che compongono Y , pu essere interpretata come la matrice di una forma bilineare simmetrica su R p. Infatti, V simmetrica e a un cambiamento della base naturale di Rp determinato da una matrice A, V diventa A'Y'MYA = A'VA ovvero si trasforma per congruenza. Inoltre, se r(Y) = p, per ogni x di ordine p diverso dal vettore nullo risulta Yx 0, cosicch x ' Y'MYx = (Yx)'M(Yx) > 0 e, quindi, V definita positiva. Se r(Y) < p, esiste qualche x di ordine p diverso dal vettore nullo tale che Yx = 0 e per il quale x ' Y'MYx = (Yx)'M(Yx) = 0 e, quindi, V semidefinita positiva. In altri termini, V definita positiva se y 1 , ... , y p sono linearmente indipendenti; semidefinita positiva se y 1 , ... , y p sono linearmente dipendenti.

178

Cap. VI

(ii) Posto Z = Y ', risulta W = YQY' = Z 'QZ ed del tutto ovvio che considerazioni analoghe a quelle svolte qui sopra nei riguardi della matrice V possono farsi a proposito di W , vale a dire relativamente alla matrice di Gram costruita a partire dagli n vettori colonna z 1 , ... , z n che compongono Z. Pertanto, possiamo affermare che W pu essere interpretata come la matrice di una forma bilineare simmetrica su R n tale che la forma quadratica a essa associata definita positiva se z 1 , ... , z n sono linearmente indipendenti; semidefinita se z 1 , ... , z n sono linearmente dipendenti. (iii) Si noti che V e W hanno lo stesso rango. Infatti, poich M e Q sono definite positive, esistono due matrici (invertibili) H e K tali che H'MH = M = diag( m 1 , ... , m n) , K'QK = Q = diag( q 1 , ... , q p ) dove m i > 0 per i = 1, ... , n e q j > 0 per j = 1, ... , p. Pertanto, posto M risulta r(V) = r(H' Y'MYH) = r(H' Y'M r(W) = r(K'Z'QZK) = r(K'Z'Q
1 2 1 2 1 1 = diag(m 1 2 , ... , m n 2

, Q

1 2

1 1 = diag(q 1 2 , ... , q p

),

1 2

YH) = r(M = r(Q

1 2

YH) = r(Y)

1 2

1 2

ZB)

1 2

ZK) = r(Z)

da cui, essendo r(Y) = r(Z), segue che r(V) = r(W). 4 Rispetto alla base naturale di Rn, sia M la matrice di ordine (n,n) rappresentativa di una forma quadratica definita positiva su R n. Siano Y1 e Y2 due matrici di ordine, rispettivamente, (n ,p 1 ) e (n ,p 2 ) tali che p 1 p 2 , r(Y 1) = p 1 , r(Y 2) = p 2 .

COMPLEMENTI

179

Riguardando Y1 e Y2 come matrici rappresentative rispetto alle basi naturali di R n, Rp 1, Rp 2 di trasformazioni lineari di Rp 1 in Rn e Rp 2 in Rn, e posto V1 1 (p 1 , p 1 ) = Y 1 MY1 , V2 2 (p 2 , p 2 ) = Y 2 MY2 , V1 2 (p 1 , p 2 ) = V2 1 (p 2 , p 1 ) = Y 1 MY2 , ' ' ' ' ci proponiamo di svolgere alcune considerazioni elementari circa le matrici V1 2 V2-1 V2 1 , V2 1 V1-1 V1 2 . 2 1 (i) Rispetto alla base naturale di R p 1, V1 2 V2-1 V2 1 pu essere interpretata 2 come la matrice di una forma bilineare simmetrica su R p 1 in quanto V1 2 V2-1 V2 1 simmetrica e, a un cambiamento della base di R p 1, essa si 2 trasforma per congruenza. Inoltre, tenuto conto del fatto che r(V 2 1) = r(V 1 2) min(p 1 , p 2) = p 1 , con un ragionamento simile a quello svolto al precedente punto 3 si pu agevolmente dimostrare che la forma quadratica associata alla forma bilineare simmetrica di cui sopra definita positiva se r(V 2 1) = p 1 , semidefinita positiva se r(V 2 1) < p 1 . (ii) Analogamente, rispetto alla base naturale di Rp 2, V2 1 V1-1 V1 2 pu 1 essere interpretata come la matrice di una forma bilineare simmetrica su Rp 2 tale che la forma quadratica a essa associata definita positiva se r(V 1 2) = p 2 , semidefinita positiva se r(V 1 2) < p 2 . 5 Vogliamo adesso stabilire alcune regole di derivazione di funzioni di vettori e matrici che risultano utili in molteplici applicazioni (1). Sia f una funzione, a valori reali, degli elementi del vettore di ordine n x= x1 . xn
(1) Per ulteriori approfondimenti si rinvia al volume di A. Graham citato in Bibliografia.

180

Cap. VI

La derivata (prima) di f rispetto a x definita ponendo


f x 1

f = x

.
f x n

Analogamente, sia f una funzione, a valori reali, degli elementi della matrice di ordine (n,p) x1 1 X= xn 1 xn p x1 p = x1 xp .

La derivata (prima) di f rispetto a X definita ponendo


f x 11 f x n1 f x 1p f x np

f = X

f x1

f . xp

Ci premesso, possibile dimostrare che:


(1) f(x) = a ' x , (2) (3) (4) (5) (6) (7) f =a x f = (C + C')x f(x) = x ' Cx , x f = C' f(x) = Cx , x f = C' f(X) = tr(C X) = tr(X C) , X f = (C + C')X f(X) = tr(X ' CX) , X f = CXB + C' XB ' f(X) = tr(X 'CXB) , X f = 2 CX(X ' CX)-1. f(X) = log(det(X ' CX)) con C = C', X

SPAZI EUCLIDEI

181

Cap. VII

SPAZI EUCLIDEI

1 GENERALIT Considerato uno spazio vettoriale S di ordine n e dimensione p, supponiamo che su S sia definita una forma bilineare simmetrica G tale che la forma quadratica a essa associata sia definita positiva. Si dice, in questo caso, che S uno spazio euclideo. La forma bilineare simmetrica G riceve abitualmente la denominazione di metrica (euclidea) di S (1). A sua volta, il numero reale G(x , y) vale a dire il valore assunto da G in corrispondenza della coppia (x , y) S S chiamato prodotto scalare (o interno) di x e y.
O SSERVAZIONE 1.

Per ogni (x , y) Rp Rp, si definisca la funzione G ponen-

do G(x , y) = x' y . Si riconosce subito che G una forma bilineare simmetrica tale che la forma quadratica a essa associata definita positiva e, quindi, G pu essere assunta quale metrica di Rp. Essa riceve la denominazione di metrica (euclidea) standard. Si noti che, rispetto a una base di R p formata dai vettori colonna di una
(1) Nel seguito, a meno di una diversa indicazione, assumeremo, senza ulteriore specificazione, che S sia di ordine n e dimensione p e che G denoti la metrica di S.

182

Cap. VII

matrice X, la matrice G rappresentativa di G G = X' X; invece, rispetto alla base naturale di Rp, G = I. 2 ORTOGONALIT 2.1 Due vettori x e y, appartenenti a uno spazio euclideo S, sono detti ortogonali (o perpendicolari), l'uno rispetto all'altro, e si scrive xy, se G(x , y) = 0. Chiaramente, l'unico vettore di S che ortogonale a se stesso il vettore nullo. Supponiamo R2 munito della metrica rappresentata, rispetto alla base naturale di R2, dalla matrice I. Dati i vettori
ESEMPIO 1.

x= 1 2 risulta

, y = 2 1

G(x , y) = 1 2 e, quindi, x e y sono ortogonali.

2 = 0 1

Supponiamo R2 munito della metrica rappresentata, rispetto alla base naturale di R2, dalla matrice
ESEMPIO 2.

G= 1 5 . 5 26 Dati i vettori x e y di cui all'Esempio precedente, risulta G(x , y) = 1 2 1 5 5 26 2 = 35 1

e, quindi, x e y non sono ortogonali rispetto alla metrica qui considerata.

SPAZI EUCLIDEI

183

Dato uno spazio euclideo S, il vettore nullo di S ortogonale a ogni vettore appartenente a S.
O SSERVAZIONE 2.

2.2 Un vettore y appartenente a uno spazio euclideo S unitario se G(y , y) = 1. Un vettore unitario anche detto versore. Si noti che ogni vettore non nullo xS pu sempre essere trasformato in un vettore unitario (normalizzazione a 1) moltiplicandolo per il reciproco del numero reale (positivo) G(x , x) . Si dice che t 2 vettori x 1 , ... , x t appartenenti a uno spazio euclideo S formano un insieme ortogonale se G (x r , x s ) = 0 per r,s = 1, ... ,t e r s . Si dice, poi, che t vettori y 1 , ... , y t appartenenti a uno spazio euclideo S formano un insieme ortonormale se G (y s , y s ) = 1 per s = 1, ... ,t e inoltre, qualora sia t 2 , G (y r , y s ) = 0 per r,s = 1, ... ,t e r s . Un insieme ortogonale (ortonormale) che sia una base di S riceve la denominazione di base ortogonale (ortonormale).
O SSERVAZIONE 3.

Un insieme ortogonale costituito da t 2 vettori non nulli x 1 , ... , x t pu essere sempre trasformato in un insieme ortonormale.

TEOREMA 1

Un insieme ortonormale formato da t vettori y 1 , ... , y t appartenenti a uno spazio euclideo S un insieme linearmente indipendente.

184

Cap. VII

Dim. Se t = 1, l'insieme in questione formato da un unico vettore il quale, essendo unitario, certamente diverso dal vettore nullo e, quindi, linearmente indipendente. Se t 2, si osservi anzitutto che, per ipotesi, G (y s , y s ) = 1 G (y r , y s ) = 0 per s = 1, ... , t per r,s = 1, ... , t e r s .

Considerati t numeri reali a 1 , ... , a s , ... , a t tali che a 1 y 1 + ... + a s y s + ... + a t y t = 0 ma per il resto arbitrari, poich (s = 1, ... , t ) 0 = G( 0 , y s ) = G( a 1 y 1 + ... + a s y s + ... + a t y t , y s ) = a 1 G (y 1 , y s ) + ... + a s G (y s , y s ) + ... + a t G (y t , y s ) = a s G (y s , y s ) = a s , y 1 , ... , y t sono linearmente indipendenti. Ogni insieme ortonormale costituito da t vettori y 1 , ... , y t appartenenti a uno spazio euclideo S parte di una base di S.
C OROLLARIO.

2.3 Dato uno spazio euclideo S, ci proponiamo adesso di indicare un procedimento costruttivo che consenta di pervenire a una base ortonormale di S. Se dim(S) = p = 1, allora ogni base di S formata da un unico vettore ed ovvio che normalizzando tale vettore si ottiene una base ortonormale di S medesimo. Se dim(S) = p 2, sia G = G(x k , x j)
(p , p )

= gk j

(p , p )

la matrice della metrica G di S rispetto a una base di S formata dai vettori x 1 , ... , x p . Per il Teorema 2 del Cap. VI, i determinanti

SPAZI EUCLIDEI

185

1 = det g 1 1 = det(G ) , ... , p = det


(1)

g1 1 gp 1

g1 p gp p

= det(G ( p ) )

sono tutti positivi. Tenuto conto del Teorema 1 del Cap. VI, ne consegue che i vettori g x1 = x1 = 1 1 x1 0 x2 = g 12 g g x1 + x2 = 1 2 x1 + 2 2 x2 1 1 1
(2) (2) (2) (1)

........................................................................................................................ g g g g g x p = 1 p x 1 + ... + (p -1) p x p -1 + x p = 1 p x 1 + ... + (p -1) p x p -1 + p p x p p -1 p -1 p -1 p -1 p -1 dove g 1 1 = 1 e g (h u ) (u = 2, ... , p ; h,s = 1, ... , u) indica il cofattore dell'eles (u) mento g h s in G sono mutualmente ortogonali e formano una base di S rispetto alla quale la matrice di G
(1) (p) (p) (p) (p) (p)

G = diag ( 1 / 0 , 2 / 1 , ... , p / p -1 ) . Il procedimento qui sopra descritto noto come processo di ortogonalizzazione di Gram-Schmidt (2). Supposto poi di normalizzare ciascuno dei vettori x 1 , ... , x p , si ottiene una base ortonormale rispetto alla quale la matrice di G la matrice unit. Il procedimento complessivo mediante il quale si passa da una base di S formata dai vettori x 1 , ... , x p a una base di S medesimo costituita dai vettori ortonormali y 1 , ... , y p riceve la denominazione di processo di ortonormalizzazione di Gram-Schmidt.
ESEMPIO 3.

Supponiamo R2 munito della metrica rappresentata, rispetto alla

(2) Di tale processo sar data successivamente una interessante interpretazione in termini di proiezioni ortogonali.

186

Cap. VII

base naturale di R 2, dalla matrice G= 2 1 . 1 1 Attraverso il processo di ortonormalizzazione di Gram-Schmidt, si ottiene anzitutto una base di R2 formata dai vettori ortogonali x1 = 1 0 tali cio che 1 1 /2 ' 0 1 2 1 1 1 1 1 /2 = 2 0 1 0 0 , 1/2 , x 2 = 1 /2 , 1

e, infine, una base di R 2 costituita dai vettori ortonormali y 1 = 1/ 2 0 tali cio che 1/ 2 1 / 2 0 2 ' 2 1 1 1 1/ 2 1 / 2 0 2 = 1 0 , 0 1 , y 2 = 1 / 2 , 2

2.4 Dato uno spazio euclideo S, si consideri un sottospazio S 1 di S. Si dice che un vettore xS ortogonale (o perpendicolare) a S 1, e si scrive xS 1, se, per ogni yS 1, accade che xy. Supponiamo R2 munito della metrica rappresentata, rispetto alla base naturale di R2, dalla matrice I. Sia poi S 1, sottospazio di R2, costituito da tutti i vettori della forma
ESEMPIO 4.

a 1 x1 = a 1 1 1 con a 1 variabile in R.

SPAZI EUCLIDEI

187

Dato il vettore x= risulta G (x , a 1 x 1) = a 1 ( 1 1 e, quindi, xS 1.


TEOREMA 2

1 1

1 )=0 1

Condizione necessaria e sufficiente affinch un vettore x appartenente a uno spazio euclideo S sia ortogonale a un sottospazio S 1 di S che x sia ortogonale a ciascuno dei vettori che formano una base di S 1 .

Dim. Supponiamo che x 1 , ... , x p1 formino una base di S 1 . Allora, xS 1 implica, in particolare, che sia xx h per ogni h = 1, ... , p1 . Viceversa, supposto G (x , x h ) = 0 , qualunque siano i numeri reali a 1 , ... , a p1 , risulta G (x , a h x h ) = 0 e anche G (x , a 1 x 1 + ... + a p1 x p1 ) = 0 Ma, al variare di a 1 , ... , a p1 in R, a 1 x 1 + ... + a p1 x p1 descrive S 1 e, quindi, xS 1. z

Due sottospazi S 1 e S2 di uno spazio euclideo S si dicono ortogonali (o perpendicolari), e si scrive S 1 S 2, se comunque si scelgano xS 1 e yS 2 risulta xy.

188

Cap. VII

Supponiamo R3 munito della metrica rappresentata, rispetto alla base naturale di R3, dalla matrice I. Siano poi S 1 e S2 sottospazi di R3, costituiti rispettivamente da tutti i vettori della forma
ESEMPIO 5.

1 a 1 x 1 = a 1 1 3 con a 1 e a 2 variabili in R. Poich

, a2 x2 = a 2

4 1 1

G (a 1 x 1 , a 2 x 2 ) = a 1 a 2 ( 1 1 3 S 1 S 2.
TEOREMA 3

4 1 1

)=0

Condizione necessaria e sufficiente affinch due sottospazi S 1 e S2 di uno spazio euclideo S siano ortogonali che ciascun vettore appartenente a una base di S 1 sia ortogonale a ciascun vettore appartenente a una base di S 2.

Dim. Supponiamo che x 1 , ... , x p1 e x p1+1 , ... , x p1+p2 formino due basi, rispettivamente, di S 1 e S 2. Allora, S 1 S 2 implica, in particolare, che sia x h x k per ogni h = 1, ... , p1 e k = p1+1 , ... , p1+p2 . Viceversa, supposto G (x h , x k ) = 0 , qualunque siano i numeri reali a 1 , ... , a p1 e a p1+1 , ... , a p1+p2 , risulta G (a h x h , a k x k ) = 0 e anche

SPAZI EUCLIDEI

189

G (a 1 x 1 + ... + a p1 x p1 , a p1+1 x p1+1 + ... + a p1+p2 x p1+p2 ) = 0 . Ma, al variare di a 1 , ... , a p1 e a p1+1 , ... , a p1+p2 in R, a 1 x 1 + ... + a p1 x p1 , a p1+1 x p1+1 + ... + a p1+p2 x p1+p2 descrivono, rispettivamente, S 1 e S 2 ; quindi, S 1 S 2 . z

Dati uno spazio euclideo S e un suo sottospazio S 1, consideriamo l'insieme di tutti i vettori appartenenti a S che sono ortogonali a S 1. Tale insieme viene indicato con S che si legge S 1 ortogonale (o perpendicolare). 1
TEOREMA 4

Dati uno spazio euclideo S e un suo sottospazio S 1, l'insieme S di tutti i 1 vettori appartenenti a S che sono ortogonali a S 1 un sottospazio di S. ` Dim. E intanto ovvio che S , sottoinsieme di S, non vuoto giacch, in ogni 1 caso, 0 S 1 . Inoltre, poich per ogni y S 1 , e 1 ,e 2 S 1 , c R accade che G (y , e 1 + e 2 ) = G( y , e 1) + G( y , e 2 ) = 0 G (y , c e 1 )

= c G (y , e 1 )

=0

ne consegue che e 1 + e 2 S 1 e c e 1 S 1 , ossia che S 1 un sottospazio di S.

COROLLARIO.

Come immediato rilevare, S = S0 , S = S , (S 1 ) = S1 . 0


TEOREMA 5

Dati uno spazio euclideo S e un suo sottospazio S 1, risulta S = S1 S , 1 ovvero, come anche si dice, S 1 e S 1 sono complementi ortogonali in S.

190

Cap. VII

Dim. Escluso il caso banale in cui sia S 1 = S0 oppure S1 = S, supponiamo che x 1 , ... , x p1 (1 p 1 < p) formino una base ortonormale di S 1. ` E sempre possibile trovare p p 1 vettori ortonormali x p1+1 , ... , x p di S in modo tale che x 1 , ... , x p1 , x p1+1 , ... , x p formino una base ortonormale di S. Basta, a questo fine, applicare il procedimento di ortonormalizzazione di Gram-Schmidt a partire da uno qualsiasi dei p p 1 vettori che completano una base di S. Come allora ovvio, x p1+1 , ... , x p costituiscono una base ortonormale di S 1 e S = S1 S . 1 2.5 A conclusione del presente paragrafo, ci proponiamo di stabilire i seguenti teoremi.
TEOREMA 6

Dato un insieme ortonormale formato da t vettori y 1 , ... , y t appartenenti a uno spazio euclideo S, per ogni xS, sussiste la relazione (diseguaglianza di Bessel) (1)

G 2 ( x , y s ) G( x , x) s=1

valendo il segno di eguaglianza se e soltanto se x appartiene al sottospazio di S generato da y 1 , ... , y t . Inoltre, il vettore (2) x G (x , y s ) y s
s=1 t

ortogonale a ciascuno dei vettori y 1 , ... , y t .

Dim. Escludiamo il caso banale in cui x sia il vettore nullo. La (1) risulta immediatamente dal fatto che 0 G (x G (x , y s ) y s , x G (x , y s ) y s )
s=1 s=1 t t

SPAZI EUCLIDEI
t t t

191

= G( x , x) G 2 ( x , y s ) G 2 ( x , y s ) + G 2 ( x , y s ) = G( x , x) G ( x , y s ) .
2 s=1 s=1 t s=1 s=1

Dovendo inoltre valere, nella relazione precedente, il segno di eguaglianza se e soltanto se x G (x , y s ) y s = 0


s =1 t

la prima parte del teorema dimostrata. La (2) infine si ottiene subito osservando che, per ogni r = 1, ... , t , risulta G (x G ( x , y s ) y s , y r ) = G ( x , y s ) G( x , y s ) = 0 .
s=1 t

Supposto R 3 munito della metrica rappresentata, rispetto alla base naturale di R 3, dalla matrice I e considerati i vettori ortonormali
E SEMPIO 6.

2 y1 = 1 3 vogliamo verificare che il vettore

1 1 , y2 = 4 14 2

1 21

1 x= 0 1 soddisfa la diseguaglianza di Bessel. Infatti, G 2 ( x , y 1 ) = 25 , G2 ( x , y 2 ) = 1 , G( x , x) = 2 14 21 e, quindi, 25 /14 + 1/21 = 11/6 < 2 . Si noti che, poich x non appartiene al sottospazio di R3 generato da y 1 , y 2 , la diseguaglianza di Bessel verificata in senso stretto.

192

Cap. VII

TEOREMA 7

Per tutti gli x,y appartenenti a uno spazio euclideo S sussiste la relazione (diseguaglianza di Cauchy-Schwarz) (3) G 2 ( x , y) G( x , x) G ( y , y)

valendo il segno di eguaglianza se e soltanto se x,y sono linearmente dipendenti.

Dim. Escludiamo il caso banale in cui x o y siano eguali al vettore nullo. Considerato l'insieme costituito dal vettore ortonormale y/ G (y , y) , la diseguaglianza di Bessel fornisce G2 ( x , da cui la (3). Supposto R 3 munito della metrica rappresentata, rispetto alla base naturale di R 3, dalla matrice I e considerati i vettori
E SEMPIO 7.

y 1 G( x , x) ) = G2 ( x , y) G (y , y) G (y , y)

1 x= 1 0

3 , y= 2 1

vogliamo verificare la diseguaglianza di Cauchy-Schwarz. Infatti, G 2 ( x , y) = 25 , G( x , x) = 2 , G( y , y) = 14 e, quindi, 25 < 2 .14 = 28. Si noti che, non essendo x e y linearmente dipendenti, la diseguaglianza di Cauchy-Schwarz verificata in senso stretto.

SPAZI EUCLIDEI

193

TEOREMA 8

Data una base ortonormale di uno spazio euclideo S formata da p vettori x 1 , ... , x p , per tutti gli x,yS, sussistono le relazioni (4) (5) (6) y = G (y , x j ) x j ,
j=1 p p

G (x , y) = G (x , x j ) G (y , x j ) ,
j=1

G (x , x) = G 2 ( x , x j ) .
j=1

Il numero reale G (y , x j ) (j = 1, ... , p) che compare nella (4) detto coefficiente di Fourier. La (5) anche nota come identit di Parseval.

Dim. Posto y = a jxj


j=1 p

si ha (j = 1, ... , p) G (y , x j ) = G( a j x j , x j ) = a j
j=1 p

e la (4) risulta dimostrata. Per quanto riguarda la (5), posto x = bjxj


j=1 p

si ha x = G (x , x j ) x j
j=1 p

e, quindi, G (x , y) = G ( G (x , x j ) x j , G (y , x j ) x j ) = G (x , x j ) G (y , x j ) .
j=1 j=1 j=1 p p p

Infine, se nella (5) si pone y = x si ha subito la (6).

194

Cap. VII

3 ANGOLI. LUNGHEZZE. DISTANZE 3.1 Dato uno spazio euclideo S, dalla diseguaglianza di Cauchy-Schwarz risulta che G (x , y) G (x , x) G (y , y) . Pertanto, per tutti gli x,yS diversi dal vettore nullo, essendo il numero G (x , y) / G (x , x) G (y , y) compreso tra 1 e +1, esiste un angolo tra 0 e , detto angolo tra x e y, tale che (3) cos = G (x , y) = cos(x , y) . G (x , x) G (y , y)
Fig. 1

y 0 Si osservi che la definizione data in accordo con quanto stabilito a proposito dell'ortogonalit tra due vettori. 3.2 Dato uno spazio vettoriale S, si chiama norma su S ogni funzione N che associa a ciascun vettore xS un numero reale che riceve la denominazione di lunghezza (norma, modulo) di x e si indica con N (x) oppure con x in modo tale che siano soddisfatte le propriet qui di seguito elencate (x ,yS ,a R): (i) N(x) > 0 se x 0 ; N(x) = 0 se x = 0 x

(3) Qualora x oppure y siano eguali al vettore nullo, si pone = 0.

SPAZI EUCLIDEI

195

(ii) (iii)

N(ax) = a N(x) N(x+ y) N(x) + N(y) (diseguaglianza triangolare).

Uno spazio vettoriale sul quale sia definita una norma detto spazio normato. Supposto che S sia uno spazio euclideo, vogliamo adesso mostrare che la funzione N definita ponendo, per ogni xS, N(x) = G(x , x) soddisfa le propriet (i), (ii), (iii) ed quindi una norma su S. Si dice anche, in tal caso, che la struttura di spazio euclideo induce la struttura di spazio normato (4).
Struttura di spazio euclideo

Struttura di spazio normato

Per quanto riguarda la (i) e (ii), esse sono una conseguenza pressoch immediata della definizione di metrica euclidea. Per quanto attiene alla (iii), si osservi anzitutto che G (x+ y , x+ y) = G( x , x) + G( y , y) + 2G ( x , y) . Pertanto, tenuto conto della (3), si ha G (x+ y , x+ y) G( x , x) + G( y , y) + 2 ( G(x , x) G (y , y) ) = (G 2 ( x , x) + G 2 ( y , y) )2 .
1 1 1 2

Quindi, G (x+ y , x+ y) G1 2 ( x , x) + G1 2 ( y , y) e la (iii) risulta cos verificata. Nel seguito supporremo che in S una norma sia stata introdotta mediante una metrica euclidea.
(4) Si pu facilmente mostrare, attraverso esempi, che non vale la proposizione reciproca.

196

Cap. VII

In questo caso, si pu dimostrare quanto segue. ( a ) Nella (iii) vale il segno di eguaglianza se e soltanto se i vettori x e y sono linearmente dipendenti. (b) Vale la relazione (di Pitagora) N 2 ( x+ y) = N 2 ( x) + N 2 ( y) se e soltanto se x e y sono ortogonali.
Fig. 2

x+ y

y N 2 ( x+ y) N 2 ( y) N 2 ( x) 0 x

(c)

Sussiste la relazione (identit del parallelogramma) N 2 ( x+ y) + N 2 ( x y) = 2 N 2 ( x) + N 2 ( y) .

(d) Infine, se in un qualsiasi spazio normato S vale la relazione precedente, allora S uno spazio euclideo con una metrica definita ponendo, per tutti gli x,yS, G (x , y) = 1 N 2 ( x+ y) N 2 ( x y) . 4 3.3 Dato un insieme non vuoto S di oggetti di natura qualsiasi, si chiama distanza su S ogni funzione D che associa, a ogni ( ,) S S, un numero reale D( ,) il quale, a sua volta, detto distanza tra e in modo

SPAZI EUCLIDEI

197

tale che siano soddisfatte le propriet seguenti ( , , S): (A) (B) (C) D( ,) > 0 se ; D( ,) = 0 se = D( ,) = D( ,) (simmetria) D( ,) D( ,) + D( ,) (diseguaglianza triangolare).

Un insieme S sul quale definita una distanza si chiama spazio metrico. Supposto che S sia uno spazio normato, la funzione D definita ponendo, per tutti gli x,yS, D(x , y) = N(x y) , come facilmente si verifica, una distanza. Si dice anche, in tal caso, che la struttura di spazio normato induce la struttura di spazio metrico (5).
Struttura di spazio normato

Struttura di spazio metrico

Nel seguito, a meno di esplicita avvertenza contraria, supporremo che in S una distanza sia stata introdotta mediante una norma e, in questo caso, valgono le relazioni (x ,y,z S; aR) D(x z , y z) = D(x , y) , D(ax , a y) = a D(x , y) . Infine, se S uno spazio vettoriale in cui data una distanza D soddisfacente le relazioni precedenti, allora S uno spazio normato con una norma definita ponendo, per ogni xS, N(x) = D(x ,0) .

(5) Si pu facilmente mostrare, attraverso esempi, che non vale la proposizione reciproca.

198

Cap. VII

4 TRASFORMAZIONI AUTOAGGIUNTE Dato uno spazio euclideo S, si consideri una trasformazione lineare T di S in se stesso tale che, per tutti gli x,yS, si abbia (7) G (T(x) , y) = G( x , T(y )) .

Si dice allora che T una trasformazione (lineare) autoaggiunta (o simmetrica) di S. Le trasformazioni autoaggiunte godono di importanti propriet che saranno poste in evidenza nel seguito dell'esposizione. Per il momento, ci limitiamo a osservare che, indicata con G la matrice della metrica G rispetto a una base di S costituita dai vettori colonna di una matrice X = x 1 x p e considerati due vettori x = Xa e y = Xb appartenenti a S, possiamo scrivere la (7) nella forma a ' T'Gb = a' GTb ovvero a ' (T'G GT)b = 0 . dove T la matrice rappresentativa di T rispetto alla suddetta base di S. Ora, quest'ultima relazione deve valere per ogni a ,b Rp e, in particolare, per ogni u k ,u j Rp dove u k e u j (k,j = 1, ... , p) indicano, rispettivamente, il k-esimo e il j-esimo vettore canonico di ordine p. Ne consegue che T'G GT = O ossia che (8) T'G = GT .

La (8) esprime dunque la condizione necessaria e sufficiente affinch una trasformazione lineare T sia autoaggiunta.

SPAZI EUCLIDEI

199

Tenendo presente che, rispetto a una base ortonormale, la matrice G della metrica G sempre la matrice unit, possiamo anche dire che condizione necessaria e sufficiente affinch T sia autoaggiunta che, in una qualsiasi base ortonormale di S, T sia una matrice simmetrica. Si noti esplicitamente che, rispetto a una base non ortonormale, la matrice T di una trasformazione autoaggiunta T non necessariamente simmetrica. Per esempio, siano
O SSERVAZIONE 4.

T= 1 2 3 4

, G= 3 2 . 2 4

Allora, come subito si verifica, T'G = GT pur non essendo T una matrice simmetrica. Supponiamo R2 munito della metrica rappresentata, rispetto alla base naturale di R2, dalla matrice I. Considerata la trasformazione lineare T di R2 in se stesso la cui matrice rispetto alla suddetta base (ortonormale) di R2
ESEMPIO 8.

T= 1 2 , 2 1 per quanto detto in precedenza, T autoaggiunta. Viceversa, supposto che T sia la matrice della trasformazione lineare T1 di R2 in se stesso rispetto alla base di R2 formata dai vettori non ortonormali x1 = 1 1 , x2 = 0 1

allora T1 non autoaggiunta, come risulta subito osservando che G= 2 1 1 1 , GT = 4 5 4 3 = T'G . 3 3 5 3

200

Cap. VII

5 PROIETTORI ORTOGONALI 5.1 Siano S 1 e S complementi ortogonali in uno spazio euclideo S, tali cio 1 che S = S1 S 1 . Allora, come sappiamo, ogni yS si esprime univocamente nella forma y = y + e con yS 1 e e S 1 . Inoltre, la funzione T (trasformazione idempotente) che associa a ogni yS il vettore yS 1 un proiettore di S su S 1 lungo S (Cfr. la sezione 6.2 1 del Cap. V). Analogamente, la funzione I T (trasformazione idempotente) che associa a ogni yS il vettore e S un proiettore di S su S lungo S 1 (Cfr. la 1 1 sezione 6.4 del Cap. V). I proiettori T e I T ricevono, in questo caso, la denominazione di proiettori ortogonali. A loro volta, i vettori y e e sono chiamati le proiezioni ortogonali di y, rispettivamente, sui sottospazi S 1 e S di S. 1
Fig. 3

y S1

e S1 y 0

Scopo del seguente teorema quello di caratterizzare i proiettori ortogonali T e I T in termini di proiettori autoaggiunti, vale a dire in termini di trasformazioni (idempotenti e) autoaggiunte.

SPAZI EUCLIDEI

201

TEOREMA 9

In uno spazio euclideo S un proiettore ortogonale se e soltanto se esso autoaggiunto.

Dim. Supposto che il proiettore T sia autoaggiunto, allora, per ogni y T(S) e ogni e N (T), si ha G (y , e ) = G (T(y) , e ) = G( y , T(e )) = G( y , 0) = 0 e, quindi, T ortogonale. Viceversa, supposto che il proiettore T sia ortogonale, allora G ( T(y) , e ) = G( T(y) , T(e ) + (I T)(e ) ) = G( T(y) , T(e ) ) + G ( T(y) , (I T)(e ) ) = G( T(y) , T(e ) ) = G( y , T(e ) ) e cio T autoaggiunto. Ovviamente, una dimostrazione del tutto analoga sussiste qualora in luogo di T si consideri I T. 5.2 Supponiamo che x 1 , ... , x p1 e x p1+1 , ... , x p siano due basi ortonormali, rispettivamente, di S 1 e S , sottospazi di uno spazio euclideo S. 1 Allora, ricordando la (4), per ogni yS, possiamo scrivere y = G (y , x j ) x j = G (y , x h ) x h + G (y , x k ) x k .
j=1 h =1 k = p 1 +1 p p1 p

Quindi, le proiezioni ortogonali y e e di y sono date da y = G (y , x h ) x h , e = G (y , x k ) x k .


h =1 k = p 1 +1 p1 p

Supponiamo, adesso, che x 1 , ... , x p1 e x p1+1 , ... , x p formino due basi non necessariamente ortonormali, rispettivamente, di S 1 e S , sottospazi di uno 1

202

Cap. VII

spazio euclideo S. Scriviamo il vettore y, proiezione ortogonale di yS su S 1, nella forma y = a 1 x 1 + ... + a p1 x p1 = x 1 a1 x p1 a p1 Dovendo il vettore e = y y essere ortogonale a S 1 , tenuto conto del Teorema 2, i coefficienti che compaiono nell'espressione precedente possono essere determinati come soluzioni del sistema di equazioni lineari dette equazioni normali G (y a 1 x 1 ... a p1 x p1 , x 1 ) = 0 ....................................................... G (y a 1 x 1 ... a p1 x p1 , x p1 ) = 0 nelle incognite a 1 , ... , a p1 . Tale sistema posto y= G (x 1 , y) , G G (x p1 , y) pu essere scritto nella forma y = G (p1 ) a 1 e, poich det(G (p1 )) > 0 (Cfr. quanto ricordato nella sezione 2.3), il sistema in questione ammette la soluzione (unica) a 1 = (G (p1 )) -1 y . Pertanto, si ha che (9) y = X 1 (G (p1 )) -1 y , e = y y = y X 1 (G (p1 )) -1 y .
(p1 )

= X1 a 1 .

G (x 1 , x 1 ) G (x p1 , x 1 )

G (x 1 , x p1 ) G (x p1 , x p1 )

, a1 =

a1 a p1

Supposto Rp munito della metrica rappresentata, rispetto alla base naturale di R p, dalla matrice G, risulta
O SSERVAZIONE 5.

SPAZI EUCLIDEI

203

(9')

y = X 1 (X 1 GX1 ) -1 X 1 Gy , e = y y = y X 1 (X 1 GX1 ) -1 X 1 Gy . ' ' ' '

Supposto R 3 munito della metrica rappresentata, rispetto alla base naturale di R 3, dalla matrice I, sia
E SEMPIO 9.

x1 = 1 1 una base di S 1 . Come facilmente si verifica, la proiezione ortogonale su S1 di y= 2 1 y= 1 3. 1 2 5.3 Nel teorema seguente, vogliamo stabilire alcune notevoli propriet delle proiezioni ortogonali yS 1 e e S di un vettore yS . 1
T EOREMA 10 (Teorema della proiezione)

Siano S uno spazio euclideo e S 1 un suo sottospazio. Allora, per ogni yS , yS1 , e S 1 tali che y = y + e, (i) vale la relazione (di Pitagora) N 2(y) = N 2 ( y) + N 2 ( e ) ; (ii) il vettore y, proiezione ortogonale di y su S 1, tale che la distanza di y da z S 1 minima per z = y.

Dim. Poich G ( y , e ) = 0, la relazione di Pitagora di cui al punto (i) subito verificata (Cfr. anche quanto detto in (b) della sezione 3.2), risultando

204

Cap. VII

N 2 (y)

= G( y+ e , y+ e )

= G( y , y) + 2G ( y , e ) + G( e , e )

= G( y , y) + G(e , e ) = N 2 ( y) + N 2 ( e ) . Per dimostrare la propriet indicata al punto (ii), si consideri il vettore (y z) S 1 . Chiaramente, tale vettore risulta ortogonale a (y y) S 1 . Ne consegue che N 2 (y z) = N 2 ( (y z) + (y y)) = N 2 (y z) + N 2 (y y) e, al variare di z, quest'ultima quantit, che rappresenta il quadrato della distanza tra y e z, minima quando z = y.
Fig. 4

S1

y
z 0

5.4 Vogliamo adesso fornire una interpretazione del procedimento di ortogonalizzazione di Gram-Schmidt in termini di proiezioni ortogonali. Posto x 1 = x 1 , mostriamo anzitutto che la differenza tra x 2 e la proiezione ortogonale x 2 di x 2 nel sottospazio generato da x 1 data dal vettore x 2 definito nella sezione 2.3. Infatti, x 2 x 2 = x 2 x 1 (G (1) ( x 1 , x 1 ) ) -1 G ( x 1 , x 2 )
-1 = x2 x1 g1 1 g1 2

g (2) g (2) 22 = x + 1 2 x = x2 1 2 1 1

SPAZI EUCLIDEI

205

Fig. 5

x2 x2 x2 0 x1 = x1

Analogamente, come si pu facilmente verificare, la differenza tra x 3 e la proiezione ortogonale x 3 di x 3 nel sottospazio generato da x 1 e x 2 data dal vettore x 3 definito nella sezione 2.3. A conclusioni simili, a parte la laboriosit dei calcoli, si perviene per gli altri vettori. Per esempio, la differenza tra x p e la proiezione ortogonale x p di x p nel sottospazio generato da x 1 , x 2 , ... , x p -1 data dal vettore x p definito nella sezione 2.3.

6 MATRICI ORTOGONALI. TRASFORMAZIONI ORTOGONALI 6.1 Considerate due basi di uno spazio euclideo S formate da x 1 , ... , x p e x 1 , ... , x p , siano G e G le matrici rappresentative della metrica G relativamente alla prima e alla seconda base. Come sappiamo (Cfr. la (3) del Cap. VI), la relazione che lega queste ultime matrici del tipo G = A' GA dove con A si indicato, al solito, la matrice del passaggio da X = x 1 a X = x1 xp . xp

Tenendo presente che, rispetto a una base ortonormale, la matrice della metrica G la matrice unit, possiamo affermare che l'una o l'altra delle condizioni (equivalenti)

206

Cap. VII

(10)

A'A = I , A' = A -1

necessaria e sufficiente affinch le basi costituite dai vettori x 1 , ... , x p e x 1 , ... , x p siano entrambe ortonormali, vale a dire affinch sia G = I = G. Ogni matrice (invertibile) che soddisfa una relazione del tipo espresso nella (10) detta matrice ortogonale. Le matrici ortogonali godono delle seguenti propriet elementari. (a) Se A una matrice ortogonale, allora det(A) = 1. Infatti, tenuto conto della prima scritta in (10), 1 = det(I) = det(A'A) = det(A') det(A) = det 2 (A) da cui l'asserto. (b) Se A una matrice ortogonale, anche A' ortogonale. Infatti, la seconda scritta in (10) pu essere posta nella forma AA' = I da cui (A')'A' = I . (c) Se A una matrice ortogonale, anche A-1 ortogonale. Infatti, dalla relazione scritta per ultimo, facendo uso della seconda scritta in (10), si ottiene (A -1 )'A-1 = I . (d) Se A e B sono due matrici ortogonali (dello stesso ordine), anche AB e BA sono ortogonali. Infatti, (AB)'AB = B'A'AB = I , (BA)'BA = A'B'BA = I .

6.2 Dato uno spazio euclideo S, si chiama trasformazione (lineare) ortogonale o isometria ogni trasformazione lineare T di S in se stesso tale che,

SPAZI EUCLIDEI

207

per tutti gli x,yS, si abbia (11) G (x , y) = G( T(x) , T(y) ) .

Indicata con G la matrice della metrica G di S rispetto a una base costituita dai vettori colonna di una matrice X = x 1 x p e considerati due generici vettori x = Xa e y = Xb appartenenti a S, possiamo scrivere la (11) nella forma a ' Gb = a' T'GTb ovvero a'(G T 'GT)b = 0 dove T la matrice rappresentativa di T rispetto alla suddetta base di S. Ora, quest'ultima relazione deve valere per ogni a ,b Rp e, in particolare, per ogni u k ,u j Rp dove u k e u j (k,j = 1, ... , p) indicano, rispettivamente, il k-esimo e il j-esimo vettore canonico di ordine p. Ne consegue che G T'GT = O ossia che (12) G = T'GT .

La (12) esprime dunque la condizione necessaria e sufficiente affinch la trasformazione lineare T sia ortogonale. Ricordando quanto detto nella sezione precedente, possiamo anche affermare che condizione necessaria e sufficiente affinch la trasformazione lineare T sia ortogonale che la matrice di T, rispetto a una base ortonormale di S, sia ortogonale. Com' ovvio, l'invarianza del prodotto scalare rispetto a una trasformazione ortogonale T implica l'invarianza di angoli, lunghezze, distanze.

208

Cap. VII

7 AUTOVALORI E AUTOVETTORI DI UNA TRASFORMAZIONE AUTOAGGIUNTA

In precedenza (Cfr. l'Osservazione 13 del Cap. V), abbiamo sottolineato che non sempre possibile diagonalizzare attraverso una trasformazione per similitudine la matrice T di una trasformazione lineare T di uno spazio vettoriale S in se stesso. Invece, nel caso in cui S sia uno spazio euclideo e T sia autoaggiunta, come mostreremo in questo paragrafo, T pu essere ridotta a forma diagonale mediante una trasformazione per similitudine.
TEOREMA 11

Siano S uno spazio euclideo e T una trasformazione autoaggiunta di S. Indichiamo con U la sfera unitaria, vale a dire l'insieme costituito da tutti i vettori xS per i quali risulta G (x , x) = 1. Indichiamo poi con la funzione definita ponendo, per tutti gli xS, (x) = G (T(x) , x) . Allora, ciascun vettore x 1 U (vettore unitario) in corrispondenza del quale assume il valore massimo ( x 1 ) un autovettore di T e ( x 1 ) l'autovalore a esso associato.

Dim. Poich U un insieme chiuso e limitato in S e la funzione continua su U, per il teorema di Weierstrass, esiste almeno un vettore x 1 U per il quale assume il valore massimo ( x 1 ) . Inoltre, per un noto teorema sui massimi vincolati, esiste un (unico) numero reale 1 (moltiplicatore di Lagrange) tale che ( x 1 ) G ( x 1 , x 1 ) = 1 . x1 x1 Sia adesso T = T' la matrice della trasformazione autoaggiunta T rispetto a una base ortonormale di S costituita dai vettori colonna di una matrice X = x1 xp .

SPAZI EUCLIDEI

209

Posto x 1 = X a 1 e tenuto conto che (Cfr. il punto 5 dei Complementi al Cap. VI) ( x 1 ) ( a 1 T' a 1 ) ' G ( x 1 , x 1 ) ( a 1 a 1 ) ' = = 2T a 1 , = = 2a1 x1 a1 x1 a1 si ha T a 1 = 1 a 1 e quindi x 1 = X a 1 un autovettore di T associato all'autovalore 1 = ( x 1 ) = a 1 T a 1. '
TEOREMA 12

Siano S uno spazio euclideo e T una trasformazione autoaggiunta di S. Indichiamo con S ( x) il complemento ortogonale in S del sottospazio generato da un autovettore x associato all'autovalore di T. Allora, S ( x) un sottospazio di S di dimensione p1 tale che la restrizione di T a S ( x) una trasformazione autoaggiunta di S ( x) .

Dim. Se p = 1 non c' niente da dimostrare. Supposto p > 1, ovvio che la dimensione di S ( x) p1. Dobbiamo poi dimostrare che T(x) appartiene a S ( x) per ogni x appartenente a S ( x), vale a dire che, per ogni x tale che G (x , x) = 0, si ha G (T(x) , x) = 0. Infatti, se l'autovalore di T corrispondente all'autovettore x, allora G ( T(x) , x) = G( x , T( x) ) = G( x , x) = G ( x , x) = 0 .
T EOREMA 13 (Teorema spettrale)

Siano S uno spazio euclideo e T una trasformazione autoaggiunta di S. Esiste allora una base ortonormale di S formata da autovettori di T (base spettrale).

210

Cap. VII

Dim. La dimostrazione procede per induzione sulla dimensione di S. Se p = 1 il teorema senz'altro vero. Supposto p > 1, per il Teorema 11, esistono un autovalore 1 di T e un autovettore x 1 a esso associato. Considerato il complemento ortogonale S ( x 1 ) in S del sottospazio di S generato da x 1 , per il Teorema 12, S ( x 1 ) ha dimensione pari a p1 e la restrizione di T a S ( x 1 ) una trasformazione autoaggiunta di S ( x 1 ). Per ipotesi di induzione, esiste allora una base di S ( x 1 ) costituita da p1 autovettori ortonormali x 2 , ... , x p di T i quali, insieme a x 1 , formano una base ortonormale di S. z Dato uno spazio euclideo S con metrica G, siano T la matrice di una trasformazione autoaggiunta T di S e G la matrice di G, rispetto a una base di S costituita da p vettori x 1 , ... , x p . In forza del teorema ora dimostrato, esistono p autovettori ortonormali (e, quindi, linearmente indipendenti) x 1 , ... , x p associati agli autovalori 1 , ... , p di T. Posto X = x1 xp , X = x1 xp = x1 xp a1 a p = XA ,

D = diag( 1 , ... , p ) risulta, dunque, (13) e (Cfr. la sezione 5.4 del Cap. V) (14) A-1 TA = D . A'GA = I

La (14) indica che la matrice T pu essere ridotta a forma diagonale attraverso una trasformazione per similitudine. Nel seguente teorema, infine, stabilita una importante propriet degli autovettori associati ad autovalori distinti di una trasformazione autoaggiunta.

SPAZI EUCLIDEI

211

TEOREMA 14

Siano S uno spazio euclideo e T una trasformazione autoaggiunta di S. Autovettori associati ad autovalori distinti di T sono ortogonali.

Dim. Siano *k , *s due autovalori distinti di T e x *k ,x *s due autovettori a essi associati. Allora, k G ( x k , x s ) = G( k x k , x s ) * * * * * * = G( T( x k ) , x s ) = G( x k ,T( x s ) ) * * * * = G( x k , s x s ) = s G ( x k , x s ) . * * * * * * Ma, essendo *k *s , l'eguaglianza del primo e l'ultimo termine nella relazione precedente implica che sia G (x *k , x *s ) = 0, ossia l'ortogonalit di x *k ,x *s . z Naturalmente, il procedimento operativo attraverso il quale dato uno spazio euclideo S e una trasformazione autoaggiunta T di S si perviene alla effettiva costruzione di una base ortonormale di S costituita da autovettori di T, base di cui il Teorema 13 afferma l'esistenza, in sostanza quello stesso descritto nella sezione 5.2 del Cap. V. Si tratta di determinare, anzitutto, in corrispondenza di ciascun autovalore distinto di T, un numero di autovettori linearmente indipendenti pari alla molteplicit dell'autovalore stesso e di ortogonalizzare, eventualmente, tali autovettori mediante il procedimento di Gram-Schmidt. Successivamente, normalizzando ciascuno degli autovettori in questione si ottiene la base spettrale desiderata. Come facilmente si verifica, se i vettori colonna della matrice Xs di ordine (p,m s ) sono autovettori ortonormali associati a un autovalore di molteplicit m s , qualunque sia la matrice ortogonale B s di ordine (m s ,m s ) , anche i vettori colonna di Xs B s sono autovettori ortonormali
O SSERVAZIONE 6.

212

Cap. VII

associati al medesimo autovalore. Si noti, inoltre, che autovettori unitari associati a un autovalore semplice sono univocamente determinati a meno del segno.
E SEMPIO 10.

Supponiamo R3 munito della metrica rappresentata, rispetto alla base naturale di R 3, dalla matrice 14 20 29 G = 20 29 42 . 29 42 61

Consideriamo la trasformazione lineare T di R 3 in se stesso la cui matrice, rispetto alla suddetta base di R 3, T= 6 9 13 6 9 13 0 0 0

Come si verifica subito, T una trasformazione autoaggiunta e ammette gli autovalori *1 = 3 e *2 = 0, di molteplicit m 1 = 1 e m 2 = 2. Inoltre, 1 1 0 3/2 1 0 13 0 6

sono autovettori di T associati agli autovalori di cui sopra. Applicando a tali autovettori il procedimento di ortogonalizzazione di Gram-Schmidt e normalizzando, si ottengono poi i vettori 1 x 1 = 1 0 1 , x2 = 3 3/2 1 0 2 , x3 = 1 8 6 1 6

che costituiscono una base ortonormale di R 3, formata da autovettori di T. Si considerino gli autovalori 1 ... p di una trasformazione autoaggiunta T di S e p autovettori ortonormali x 1 , ... , x p associati
O SSERVAZIONE 7.

SPAZI EUCLIDEI

213

a tali autovalori. Come risulta dal Teorema 11, la funzione definita ponendo, per ogni xS, (x) = G (T(x) , x) assume il valore massimo 1 in corrispondenza di un autovettore unitario x1 . Si pu facilmente dimostrare che anche i successivi autovalori godono di una propriet analoga a quella ora ricordata. Per esempio, la funzione di cui sopra assume il valore massimo 2 in corrispondenza di un autovettore x 2 tale che G ( x 2 , x 2 ) = 1 , G( x 1 , x 2 ) = 0 .

8 TRASFORMAZIONI AUTOAGGIUNTE E FORME BILINEARI SIMMETRICHE 8.1 Dato uno spazio euclideo S, siano G la matrice della metrica G e T la matrice di una trasformazione autoaggiunta T (T'G = GT) rispetto a una base di S formata dai vettori colonna di una matrice X. Definita la matrice C = GT, subito visto che, rispetto alla suddetta base di S, C pu essere interpretata come la matrice di una forma bilineare simmetrica B. In effetti, considerato un cambiamento della base di S determinato da una matrice A, si ha che C = A'GAA-1 TA = A'GTA = A'CA ovvero che la matrice C si trasforma per congruenza. Inoltre, risulta che C ' = T 'G = GT = C ovvero che C una matrice simmetrica. Reciprocamente, rispetto a una base di S formata dai vettori colonna di una matrice X, sia C la matrice di una forma bilineare simmetrica B.

214

Cap. VII

Definita la matrice T = G -1 C, si verifica immediatamente che, rispetto alla base di S sopra indicata, T pu essere interpretata come la matrice di una trasformazione autoaggiunta T. Infatti, considerato un cambiamento della base di S determinato da una matrice A, si ha che T = A -1 G -1 (A ') -1 A'CA = A -1 G -1 CA = A -1 TA ovvero che la matrice T si trasforma per similitudine. Inoltre, risulta che T'G = CG -1 G = C = GG -1 C = GT ovvero che T soddisfa la (8). 8.2 Si consideri nuovamente la matrice T = G -1 C definita nella sezione precedente. Abbiamo visto che, rispetto a una base di S formata dai vettori colonna di una matrice X, T = G -1 C pu essere interpretata come la matrice di una trasformazione autoaggiunta T. Pertanto, considerata una nuova base di S formata da p autovettori ortonormali x 1 , ... , x p associati agli autovalori 1 , ... , p di T e posto X = [ x1 risulta A-1 G -1 CA = D da cui, essendo A' = A G -1 , si ha che
-1

x p ] = XA , D = diag( 1 , ... , p )

A'GA = I

(15)

A' CA = D , A' GA = I .

In altri termini, operando un cambiamento di base mediante la matrice A di cui sopra, C viene ridotta a forma diagonale.
O SSERVAZIONE 8.

Gli autovalori di T sono, ovviamente, le radici della

SPAZI EUCLIDEI

215

equazione caratteristica di G -1 C, ovvero sono le soluzioni della equazione det(G -1 C I) = 0 . Ma, {det(G -1 C I) = 0} {det(G) det(G -1 C I) = 0} {det G(G -1 C I) = 0} {det(C G) = 0} e, quindi, tali autovalori possono anche essere ottenuti come soluzioni della equazione det(C G) = 0 . Inoltre, si verifica facilmente che, indicando al solito con s (s = 1, ... , t ) * l'autovalore distinto s-esimo di T, i vettori coordinati degli autovettori associati a tale autovalore possono essere determinati come soluzioni dell'uno o dell'altro dei due sistemi (G -1 C s I) a s = 0 , (C s G)a s = 0 . * * * * Sia C una matrice simmetrica di ordine (p,p). Rispetto alla base naturale di Rp, C si pu riguardare come la matrice di una forma bilineare simmetrica B. Nell'ipotesi poi che Rp sia munito della metrica standard (G = I), C si pu interpretare come la matrice di una trasformazione autoaggiunta T. Pertanto, considerata una nuova base di R p formata da p autovettori ortonormali a 1 , ... , a p associati agli autovalori 1 , ... , p di T e posto
OSSERVAZIONE 9.

A = [a1 risulta

a p ] , D = diag( 1 , ... , p )

A CA = D da cui, essendo A' = A , si ha che


-1

-1

A' A = I

A' CA = D .

216

Cap. VII

8.3 Nel capitolo precedente, abbiamo introdotto i concetti di forma quadratica definita positiva (negativa), semidefinita positiva (semidefinita negativa), indefinita. Ci proponiamo adesso di caratterizzare tali forme prendendo le mosse da quanto detto qui sopra. A questo fine, si osservi anzitutto che, supposto che gli autovalori che compongono la matrice D che compare nella (15) siano tutti positivi, la forma quadratica Q associata alla forma bilineare simmetrica B, per ogni x appartenente a S della forma x = a 1 x 1 + ... + a p x p = X a , assume il valore (16) Q(x) = a ' D a = j a j
j=1 p 2

e, quindi, Q definita positiva. Reciprocamente, supposto che la forma quadratica Q sia definita positiva, chiaro che deve essere j > 0 per ogni j = 1, ... , p. Allo stesso modo si dimostra che condizione necessaria e sufficiente affinch Q sia ( a ) definita negativa, (b) (c) semidefinita positiva (semidefinita negativa), indefinita

che gli autovalori che compaiono in D siano, rispettivamente, ( a ) tutti negativi, (b) (c) tutti non negativi (non positivi) e almeno uno eguale a zero, sia positivi sia negativi.

COMPLEMENTI

217

Cap. VII

COMPLEMENTI

1 Dato un vettore xRp, la matrice simmetrica di ordine (p,p) I 2xx' /x' x detta matrice di Householder. Si verifica subito che tale matrice ortogonale. Infatti, (I 2 xx' /x' x)'(I 2 xx' /x' x) = I 4 xx' /x' x + 4xx' /x' x = I . 2 Sia C una matrice simmetrica di ordine (p,p). Rispetto alla base naturale di Rp munito della metrica standard, C si pu interpretare come la matrice di una trasformazione autoaggiunta T (Cfr. l'Osservazione 9). Pertanto, considerata una nuova base di R p formata da p autovettori ortonormali a 1 , ... , a p associati agli autovalori 1 , ... , p di T e posto A = [a1 risulta C = A D A' . Ora, nell'ipotesi che la forma quadratica Q associata a C sia definita non negativa, gli autovalori 1 , ... , p sono tutti maggiori o eguali a zero. a p ] , D = diag( 1 , ... , p )

218

Cap. VII

Quindi, posto D si ha (A' A = I) C = (A D


1 2 1 2

= diag( 1 2 , ... , p
1

1 2

),

1 2

A') = (A D
1

1 2

A')(A D

1 2

A') .

La matrice (simmetrica) A D 2 A' detta la radice quadrata di C ed indicata con C 1 2 . Ovviamente, qualora Q sia definita positiva, subito visto che esiste anche l'inversa C -1 2 di tale radice quadrata. 3 Supponiamo Rp munito della metrica rappresentata, rispetto alla base naturale di R p, da una matrice Q di ordine (p,p). Analogamente, supponiamo Rn munito della metrica rappresentata, rispetto alla base naturale di R n, da una matrice M di ordine (n,n). Data una matrice Y di ordine (n,p) e r(Y) = r min{n,p} rappresentativa, rispetto alle suddette basi di Rp e Rn, di una trasformazione lineare di Rp in Rn posto V = Y 'MY , W = YQY' , ci proponiamo di svolgere alcune considerazioni circa le matrici VQ e WM. (a) In luogo di VQ, si consideri la matrice simmetrica Q 1 2 VQ 1 2 . Rispetto alla base naturale di Rp dotato della metrica standard, Q 1 2 VQ 1 2 si pu interpretare come la matrice di una trasformazione autoaggiunta T1 di Rp (Cfr. l'Osservazione 9). Pertanto, T1 possiede p autovettori ortonormali a 1 , ... , a p associati agli autovalori (non necessariamente distinti) 1 , ... , p . Posto A = a1

ap

, D ( ) = diag( 1 , ... , p) ,

COMPLEMENTI

219

si ha dunque che (a 1 ) Q 1 2 VQ 1 2 A = A D ( ) , A'A = I p

ovvero che (A = Q - 1 2 A) (a 2 ) VQA = A D ( ) , A'QA = I p .

Con qualche abuso di linguaggio, dato che VQ non propriamente la matrice di una trasformazione lineare di Rp in se stesso, si dice comunemente che i vettori colonna di A cio a 1 = Q - 1 2 a 1 , ... , a p = Q - 1 2 a p sono autovettori ortonormali di VQ associati agli autovalori 1 , ... , p . Si noti che dalle (a 2 ) si ottiene la relazione (a 3 ) A'QVQA = A'QA D ( ) = D ( ) .

Ma, tenuto conto di quanto mostrato al punto 3 dei Complementi al Cap. VI, si riconosce facilmente che QVQ = QY'MYQ definita positiva o semidefinita positiva a seconda che il rango r di Y sia eguale o minore di p. Ne consegue che, nel primo caso, tutti i p autovalori 1 , ... , p saranno positivi; nel secondo caso, r autovalori 1 , ... , r saranno positivi e p r nulli.
1 1 (b) In luogo di WM, si consideri la matrice simmetrica M 2 WM 2 . Rispetto alla base naturale di Rp dotato della metrica standard, M 1 2 WM 1 2 si pu interpretare come la matrice di una trasformazione autoaggiunta T2 di Rn (Cfr. l'Osservazione 9).

Pertanto, T2 possiede n autovettori ortonormali b1 , ... , bn associati agli autovalori (non necessariamente distinti) 1 , ... , n . Posto B= si ha dunque che

[b

bn

, D ( ) = diag( 1 , ... , n) ,

220

Cap. VII

(b 1 )

M 1 2 WM 1 2 B = B D ( ) , B'B = I n .

ovvero che (B = M - 1 2 B) (b 2 ) WMB = B D ( ) , B'MB = I n .

Con qualche abuso di linguaggio, dato che WM non propriamente la matrice di una trasformazione lineare di Rn in se stesso, si dice comune-1 -1 mente che i vettori colonna di B cio b1 = M 2 b1 , ... , bn = M 2 bn

sono autovettori ortonormali di WM associati agli autovalori 1 , ... , n . Si noti che dalle (b 2 ) si ottiene la relazione (b 3 ) B'MWMB = B'MB D ( ) = D ( ) .

Ma, tenuto conto di quanto mostrato al punto 3 dei Complementi al Cap. VI, si riconosce facilmente che MWM = MYQY'M definita positiva o semidefinita positiva a seconda che il rango r di Y sia eguale o minore di n. Ne consegue che, nel primo caso, tutti gli n autovalori 1 , ... , n saranno positivi; nel secondo caso, r autovalori 1 , ... , r saranno positivi e n r nulli. (c) A completamento di quanto detto in precedenza, si osservi anzitutto, ricordando quanto mostrato al punto 4 dei Complementi al Cap. V, che T1 e T2 hanno i medesimi r autovalori positivi, cio risulta 1 = 1 , ... , r = r . Ci premesso, indichiamo con A1 la matrice di ordine (p,r) i cui vettori colonna a 1 = Q -1 a 1 , ... , a r = Q -1 a r sono autovettori ortonormali di VQ, rispetto alla metrica rappresentata da Q, associati agli autovalori 1 , ... , r . Allora, i vettori colonna di ( D 1
-1 2

= diag( 1

-1 2

, ... , r

-1 2

))

B 1 = YQA1 D 1

-1 2

sono autovettori ortonormali di WM, rispetto alla metrica rappresentata da M, associati ai medesimi autovalori 1 , ... , r .

COMPLEMENTI

221

Infatti, dalla relazione ( D 1 = diag( 1 , ... , r ) ) Y'MYQA1 = A1 D 1 , premoltiplicando ambo i membri per YQ e postmoltiplicando per D 1 2 , si ha YQY'M(YQA1 D 1 2) = YQA1 D 1 D 1
-1 -1 2 -1

= (YQA1 D 1 2 ) D 1 .
-1

Reciprocamente, indichiamo con B 1 la matrice di ordine (n,r) i cui vettori colonna b1 = M -1 b1 , ... , br = M -1 br sono autovettori ortonormali di WM, rispetto alla metrica rappresentata da M, associati agli autovalori 1 , ... , r . Allora i vettori colonna di A1 = Y'MB 1 D 1
-1 2

sono autovettori ortonormali di VQ, rispetto alla metrica rappresentata da Q, associati agli autovalori 1 , ... , r . Infatti, dalla relazione YQY'MB 1 = B 1 D 1 , premoltiplicando ambo i membri per Y'M e postmoltiplicando per D 1 2 , si ha Y'MYQ(Y'MB 1 D 1 2) = Y'MB 1 D 1 D 1
-1 -1 2 -1

= (Y'MB 1 D 1 2 ) D 1 .
-1

4 Dato per acquisito quanto detto al punto precedente, ci proponiamo di dimostrare il seguente teorema il quale riceve la denominazione di teorema di scomposizione ai valori singolari di una matrice (1).

(1) Il teorema in questione suscettibile di notevoli applicazioni in molteplici settori, sia dell'algebra lineare sia della statistica.

222

Cap. VII

TEOREMA

Siano Y(n , p ) una matrice di rango r e M (n , n ) ,Q (p , p ) matrici definite positive. Esistono allora tre matrici S (r, r) , B (n , n ) , A(p , p ) tali che Y= B S (r, r) O (r, p -r) A' , B'M B = I (n , n ) , A'QA = I (p , p ) O (n - r, r) O (n - r, p - r)

dove ( s h > 0 per h = 1, ... , r) S = diag( s 1 , ... , s r ) . I numeri reali s 1 , ... , s r sono detti valori singolari di Y.

Dim. Supposto che i vettori colonna di A1 e A2 siano autovettori ortonormali associati, rispettivamente, agli autovalori (positivi) 1 , ... , r e all'autovalore nullo della matrice Y'MYQ, si ha (i) dove S = diag ( 1 , ... , r ) = D 1 e anche (ii) Y'MYQA2 = O (p -r, p -r) , A'2 QA2 = I (p -r, p -r) .
1 2 1 2 1 2

Y'MYQA1 = A1 D 1 = A1 S 2 ,

A1 QA1 = I (r, r) '

Analogamente, supposto che i vettori colonna di B 1 e B 2 siano autovettori ortonormali associati, rispettivamente, agli autovalori (positivi) 1 , ... , r e all'autovalore nullo della matrice YQY'M, si ha (iii) e anche B 1 = YQA1 S -1 , B '1 MB 1 = I (r, r)

COMPLEMENTI

223

(iv)

YQY'MB 2 = O (n -r, n -r) , B '2 MB 2 = I (n -r, n -r) .

Ma, dalla prima delle eguaglianze in (ii), premoltiplicando ambo i membri per A'2 Q, si ottiene A2 QY'MYQA2 = O ' da cui (v) YQA2 = O .

A sua volta, dalla prima delle eguaglianze in (iv), premoltiplicando ambo i membri per B 2 M, si ottiene ' B 2 MYQY'MB 2 = O ' da cui (vi) Ci premesso, posto A = A1 A2 si verifica immediatamente che B ' MYQA = ' B1 B '1 MYQA1 MYQ A1 A2 = B '2 B '1 MYQA1 B '1 MYQA2 B '2 MYQA2 = S O O O , B = B1 B2 , Y'MB 2 = O .

e quindi, risultando B'M = B -1 e A'M = A- 1, si ha infine Y = B S O A' O O e anche Y = B 1 S A'1 = s j bj a 'j .


j=1 r

224

Cap. VII

Si noti al riguardo che, mentre i valori singolari s 1 , ... , s r di Y sono univocamente determinati, ci non accade per i vettori colonna delle matrici A e B. In effetti, autovettori associati a autovalori semplici sono univocamente determinati a meno del segno, mentre autovettori associati a un autovalore di molteplicit maggiore di uno sono determinati a meno di postmoltiplicazione per una matrice ortogonale (Cfr. l'Osservazione 6). 5 La matrice
-1 + O Y(p , n ) = A S O O

B'

dove S , A , B sono definite come nel punto precedente detta la pseudoinversa di Y(n , p ) . Come si pu facilmente verificare, Y + gode delle seguenti propriet elementari (M, Q matrici definite positive di ordine appropriato): (i) YY + Y = Y (iii) M YY + = (Y Y + )' M (ii) Y + YY + = Y + (iv) Q Y + Y = (Y + Y)' Q .

Si pu, inoltre, dimostrare che: ( a ) se Y invertibile, allora Y = Y -1 (b) (c) se r(Y) = p, allora Y = (Y ' M Y) -1 Y' M se r(Y) = n, allora Y = Q Y' (Y Q Y') -1.
+ + +

6 Supponiamo Rn munito della metrica rappresentata, rispetto alla base naturale di R n, da una matrice M di ordine (n,n). Siano Y1 e Y2 due matrici di ordine, rispettivamente, (n ,p 1 ) e (n ,p 2 ) tali che p 1 p 2 , r(Y 1) = p 1 , r(Y 2) = p 2 . Riguardando Y1 e Y2 come matrici rappresentative rispetto alle basi naturali di R n, Rp 1, Rp 2 di trasformazioni lineari di Rp 1 in Rn e Rp 2 in Rn, e

COMPLEMENTI

225

posto ' ' ' ' V1 1 (p 1 , p 1 ) = Y 1 MY1 , V2 2 (p 2 , p 2 ) = Y 2 MY2 , V1 2 (p 1 , p 2 ) = V2 1 (p 2 , p 1 ) = Y 1 MY2 , ci proponiamo di svolgere le seguenti considerazioni. (a) Qualunque sia il numero reale , risulta V1 2 ( ) 2 p 1 det V1 1 V2 1 V2 2 -1 -1 = ( ) p 1 + p 2 detV1 1 detV2 2 det ( 2 I (p 1 , p 1 ) V1 1 V1 2 V2 2 V2 1 ) . Infatti, la relazione ora scritta certamente vera per = 0 . Qualora sia 0, sviluppando il determinante al primo membro di tale relazione, si ottiene (Cfr. i punti 5 e 1 dei Complementi al Cap. III) ( ) 2 p 1 det V1 1 V2 1 V1 2 V2 2

-1 = ( ) 2 p 1 det( V2 2 ) det ( V1 1 + -1 V1 2 V2 2 V2 1 ) -1 -1 = ( ) 2 p 1 det( V2 2 ) detV1 1 det ( I (p 1 , p 1 ) + -1 V1 1 V1 2 V2 2 V2 1 ) -1 -1 = ( ) 2 p 1 det( V2 2 ) detV1 1 det( -1 I (p 1 , p 1 )) det ( 2I (p 1 , p 1 ) V1 1 V1 2 V2 2 V2 1 ) -1 -1 = ( ) 2 p 1 ( ) p 1 ( )- p 2 detV1 1 detV2 2 det ( 2I (p 1 , p 1 ) V1 1 V1 2 V2 2 V2 1 ) . -1 -1 = ( ) p 1 + p 2 detV1 1 detV2 2 det ( 2I (p 1 , p 1 ) V1 1 V1 2 V2 2 V2 1 ) .

(b) Se una soluzione (radice) dell'equazione 0 = ( ) 2 p 1 det V1 1 V2 1 2 una soluzione dell'equazione


-1 -1 0 = ( ) p 1 + p 2 detV1 1 detV2 2 det ( 2 I (p 1 , p 1 ) V1 1 V1 2 V2 2 V2 1 ) -1 -1 = det ( 2 I (p 1 , p 1 ) V1 1 V1 2 V2 2 V2 1 )

V1 2 = det V1 1 V2 2 V2 1

V1 2 , V2 2

e viceversa.

226

Cap. VII

-1 -1 (c) Chiaramente, la matrice V1 1 V1 2 V2 2 V2 1 che compare nell'equazione precedente pu essere interpretata come la matrice di una trasformazione autoaggiunta di R p 2 rispetto alla base naturale di Rp 2 dotato della metrica rappresentata dalla matrice V1 1 (Cfr. la sezione 8.1). -1 -1 Quindi, V1 1 V1 2 V2 2 V2 1 ammette p1 autovalori (non necessariamente di-

stinti) 1 , ... , p 1 . Esiste inoltre una matrice A i cui vettori colonna sono autovettori della trasformazione lineare in oggetto tale che (D (p 1 , p 1 ) = diag( 1 , ... , p 1 )) A-1 V1-1 V1 2 V2-1 V2 1 A = D (p 1 , p 1 ) , A'V1 1 A = I (p 1 , p 1 ) 1 2 e anche (A' = A-1 V1-1 ) 1 A'V1 2 V2-1 V2 1 A = D (p 1 , p 1 ) , A'V1 1 A = I (p 1 , p 1 ) . 2 Si ricordi adesso (Cfr. il punto 4 dei Complementi al Cap. VI) che -1 V1 2 V2 2 V2 1 definita positiva se r(V 2 1) = r = p 1 , semidefinita positiva se r(V 2 1) = r < p 1 .
-1 -1 Ne consegue che il numero degli autovalori positivi di V1 1 V1 2 V2 2 V2 1 pari a r, mentre l'autovalore nullo si presenta con molteplicit pari a p 1 r.

(d) Naturalmente, considerazioni analoghe a quelle fatte a proposito della -1 -1 matrice V1 1 V1 2 V2 2 V2 1 possono essere svolte nei riguardi della matrice V2 2 V2 1 V1 1 V1 2 . Questa ammette r autovalori positivi, mentre l'autovalore nullo si presenta con molteplicit par a p 2 r. (e) Tenuto conto di quanto detto, l'equazione det V1 1 V1 2 V2 1 V2 2 =0
-1 -1

COMPLEMENTI

227

ammette r radici positive 1 , ... , r e r radici negative 1 , ... , r , mentre la radice nulla si presenta con molteplicit pari a p 1 + p 2 2 r. Per esempio, siano V1 1 = 2 Allora, det V1 1 V2 1 V1 2 = det 2 0 V2 2 1 0 2 1 1 2 1 = ( + 1) = 0 1 , V2 2 = 2 1 1 1 , V1 2 = 0 1 , V2 1 = 0 . 1

e, quindi, tale equazione ammette le radici 1 = 1 , 1 = 1 , 2 = 0. A sua volta, l'equazione det ( 2 I V1-1 V1 2 V2-1 V2 1 ) = det( 2 + 1) = 0 1 2 ammette un unico autovalore 1 = 1.
2

Infine, risulta det ( 2 I V2-1 V2 1 V1-1 V1 2 ) = det ( 2 1 0 0 1/2 ) = 2 ( 2 1) = 0 2 1 0 1 0 1 e tale equazione ammette gli autovalori 2 = 1 , 2 = 0. 1 2 7 Supponiamo Rn munito della metrica rappresentata, rispetto alla base naturale di Rn, dalla matrice M di ordine (n,n) e siano 1 , ... , n e a 1 , ... , a n , rispettivamente, gli n autovalori di M e n autovettori associati a tali autovalori. Analogamente, supponiamo R p munito della metrica rappresentata, rispetto alla base naturale di R p, dalla matrice Q di ordine (p,p) e siano 1 , ... , p e b1 , ... , bp , rispettivamente, i p autovalori di Q e p autovettori associati a tali autovalori. Vogliamo dimostrare che anche Q M definita positiva.

228

Cap. VII

Infatti, poich (i = 1, ... , n; j = 1, ... , p) M a i = i a i , Q bj = j bj , risulta (Cfr. la propriet (3) di cui al punto 8 dei Complementi al Cap. II) (Q bj ) (M a i ) = (Q M)( bj a i ) = i j ( bj a i ) . Quindi, i j un autovalore di Q M e bj a i un autovettore a esso associato. Essendo poi i e j positivi anche il prodotto i j positivo e ci prova quanto asserito. 8 Il concetto di spazio euclideo e quelli a esso collegati, dati con riferimento a uno spazio vettoriale di ordine n e dimensione p, sono chiaramente applicabili a un qualsiasi spazio vettoriale sull'insieme dei numeri reali. Sia, per esempio, lo spazio vettoriale S su R costituito dall'insieme di tutte le matrici di ordine (n,p). Si consideri la funzione G di S S in R definita ponendo, per ogni (X ,Y)S S, G (X ,Y) = tr(X 'MYQ) dove M e Q sono matrici definite positive di ordine, rispettivamente, (n,n) e (p,p). Vogliamo dimostrare che tale funzione lineare rispetto a entrambi gli argomenti della funzione stessa, simmetrica, e che, per ogni X diversa dalla matrice nulla, G (X ,Y) maggiore di zero. In altri termini, vogliamo dimostrare che la funzione G qui sopra indicata pu essere assunta quale metrica su S. Le propriet di linearit e simmetria sono subito verificate tenendo presenti le propriet elementari della traccia di una matrice. Per verificare l'ultima delle propriet sopra dette, osserviamo anzitutto

COMPLEMENTI

229

(Cfr. il punto 5 dei Complementi al Cap. II) che possiamo scrivere G (X ,Y) = tr(X 'MYQ) = (vecX)'(Q M)(vecX) = (vecX)'(vecMXQ) = x' (Q M)x

dove x = vecX appartiene a R n p e Q M, di ordine (np,np), definita positiva (Cfr. il punto 7 di questi Complementi). Quindi interpretando Q M come matrice della metrica di Rn p rispetto alla base naturale di R n p medesimo risulta che, per ogni x diverso dal vettore nullo, x' (Q M)x maggiore di zero e ci equivale, appunto, a dire che, per ogni X diversa dalla matrice nulla, G (X ,Y) maggiore di zero. Da quanto precede segue che la funzione N definita ponendo, per ogni Y di ordine (n,p), N(Y) = tr(Y 'MYQ) = tr(YQY'M) una norma sullo spazio vettoriale delle matrici di ordine (n,p). Tale norma nota come norma di Frobenius. Si osservi che, indicando con 1 , ... , r gli autovalori positivi di Y'MYQ o YQY'M (Cfr. il punto 3 che precede), risulta N(Y) = 1 + ... + r .

230

Cap. VII

BIBLIOGRAFIA

231

BIBLIOGRAFIA

AA. VV. BELLMAN R. E. DIEUDONNE J. FANO G.

Strutture algebriche e strutture topologiche Feltrinelli, Milano, 1963. Introduction to Matrix Analysis McGraw-Hill, New York, 1970. Algebra lineare e geometria elementare Feltrinelli, Milano, 1970. Metodi matematici della meccanica quantistica Zanichelli, Bologna, 1967. Introduzione all'algebra lineare Cedam, Padova, 1975. Spazi lineari, metrica, calcolo matriciale Cedam, Padova, 1982. The Theory of Matrices Chelsea, New York, 1959. Lectures on Linear Algebra Interscience, New York, 1961. Kronecker Products and Matrix Calculus: with Applications Ellis Horwood Limited, Chichester, 1981. Linear Algebra Springer, New York, 1975. Linear Algebra Addison-Wesley, Londra, 1961. Finite-Dimensional Vector Spaces D. Van Nostrand, Princeton, 1958. Elementary Matrix Algebra Collier-McMillan, New York, 1967. The Theory of Matrices Academic Press, Orlando, 1985.

FURST D . FURST D . GANTMACHER F. R. GEL' FAND I. M. GRAHAM A.

GREUB W. HADLEY G. HALMOS P. R. HOHN F. E. LANCASTER P.

232

BIBLIOGRAFIA

LANG S. MIRSKY L. NERING E.D. PEASE M.C. SEARLE S. R. SERNESI E. SHEPARD G. C. SHILOV G. E.

Algebra Lineare Boringhieri, Torino, 1972. An Introduction to Matrix Algebra Oxford University Press, Oxford, 1961. Linear Algebr and Matrix Theory Wiley&Sons, New York, 1970. Methods of Matrix Algebra Academic Press, New York, 1965. Matrix Algebra for the Biological Sciences Wiley&Sons, New York, 1966. Geometria 1 Bollati Boringhieri, Torino, 1989. Spazi vettoriali di dimensioni finite Cremonese, Roma, 1969. An Introduction to the Theory of Linear Spaces Prentice-Hall, Englewood Cliffs (N. J.), 1961. Linear Algebra Academic Press, New York, 1968.

STOLL R. R. - WONG E. T.

INDICE ANALITICO

233

INDICE ANALITICO

pag.
A aggiunta angolo tra due vettori applicazione lineare autospazio autovalori autovettori B base cambiamento canonica completamento naturale ortogonale ortonormale spettrale Bessel C Cauchy-Schwarz coefficiente di Fourier cofattori complementi algebrici coordinate coseno dell'angolo tra due vettori Cramer D derivata 179, 180 determinante 77 del prodotto di due matrici 88 di una matrice a blocchi 87, 88, 93, 9 4 sviluppo 84, 8 6 192 193 85 85 29 194 98 29 120 30 32 30 183 183 209 190 89 194 125 140 137 138 dimensione direzione diseguaglianza di Bessel di Cauchy-Schwarz triangolare distanza divisori dello zero E endomorfismo equazione caratteristica equazioni normali F

pag.
31 46 190 192 195, 197 196 59, 9 5

136 139 202

forma bilineare 161 matrice 162 rango 165 forma bilineare simmetrica 166 base canonica 166 riduzione a forma canonica 166, 167, 214 forma quadratica 169 definita positiva (negativa) 170, 215, 216 semidefinita positiva (negativa) 170, 215, 216 indefinita 170, 215, 216 Fourier 193 Frobenius 229 funzione determinante 77 G giacitura Gram 46 177, 178

234

INDICE ANALITICO

pag.
Gram-Schmidt H Householder K kernel Kronecker I identit del parallelogramma di Parseval immagine insieme di vettori generatore linearmente dipendente linearmente indipendente ortogonale ortonormale intersezione di sottospazi iperpiano isometria L lunghezza M matrice (i) a blocchi 69 addizione 54 aggiunta 89 completa 104 componenti 51 conformabili 56 congruenti 165 diagonale 53 diagonale a blocchi 93 di Gram 177, 178 di Householder 217 di pieno rango 101 di pieno rango per colonne 104 di pieno rango per righe 104 di un proiettore 155 di una forma bilineare 162 di una metrica 184 di una trasformazione lineare 127 eguali 52 elementi 51 identica 53 idempotente 67 inversa 61, 9 0 di una matrice a blocchi 94 invertibile 91 moltiplicazione per un numero reale 5 5 194 196 193 125 25 18 18 183 183 36, 4 5 47 206 115 74 217 185 non invertibile non singolare nulla ordine ortogonale permutabili potenza pseudoinversa quadrata quasi diagonale rango per colonne per righe scalare simili simmetrica singolare sottrazione traccia trasposta unit zero metrica (euclidea) standard modulo molteplicit algebrica geometrica moltiplicazione tensoriale N norma di un vettore di una matrice (Frobenius) nucleo di una matrice di una trasformazione lineare nullit O omomorfismo omotetia operatore lineare operatore vec ordine di un vettore di una matrice di uno spazio vettoriale ortogonalizzazione ortonormalizzazione P Parseval piano Pitagora

pag.
91 91 52 51 206 58 66 223 52 93 100 104 104 53 136 65 91 55 68 63 53 52 181 181 194 143 140 74

194 229 115 132 115, 135

125 136 125 75 11 51 23 185, 204 185

193 47 196, 203

INDICE ANALITICO

235

pag.
polinomio caratteristico prodotto interno prodotto scalare prodotto tensoriale proiettore autoaggiunto ortogonale pseudoinversa R radice caratteristica latente radice quadrata rango per colonne per righe relazione di Pitagora retta Rouch-Capelli S sistema (i) di equazioni lineari compatibile equivalenti incompatibile omogeneo soluzione banale somma di sottospazi diretta unione sottomatrici sottospazio (i) complementari invariante intersezione ortogonali supplementari spazio vettoriale base dimensione euclideo insieme generatore nullo numerico reale ordine riferimento T traccia trasformazione per congruenza per similitudine trasformazione lineare 68 165 136 125 98 110 98 97 97 98 38, 4 5 39, 4 5 44 69 40 137 36, 4 5 187 40 23, 4 7 29 31 181 25 23 23 23 29 137 137 218 100 104 104 196, 203 47 104 139 181 181 74 152, 156 200 200 223

pag.
di uno spazio vettoriale in se stesso 136 kernel 132 idempotente 150 identica 136 immagine 125, 133 nucleo 132 nulla 126 nullit 132 ortogonale 206 rango 133 simmetrica 223 traslazione 46 trasposizione 68 U unione di sottospazi V valore proprio 138 valori singolari 222 variet lineare 46 dimensione 46 direzione 46 traslazione 46 vettore (i) addizione 14 canonico 12 caratteristico 138 latente 138 proprio 138 colonna 11 combinazione lineare 16 componenti 11 coordinato 71 eguali 12 elementi 11 linearmente dipendente (i) 17 linearmente indipendente (i) 17 moltiplicazione per un numero reale 1 5 ortogonali 182 norma 194 normalizzazione 183 nullo 12 ordine 11 perpendicolari 182 riga 11 somma 13 sottrazione 16 unitario 183 versore 183 zero 12 45

236

INDICE ANALITICO